Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'wydajność' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 14 wyników

  1. Sharp opracował najbardziej wydajne ogniwo słoneczne w historii. Jest ono w stanie zamienić na prąd elektryczny aż 36,9% energii padających nań promieni słonecznych. Wydajność urządzenia została niezależnie potwierdzona przez japoński Narodowy Instytut Zaawansowanych Nauk Przemysłowych i Technologii (AIST). Nowe ogniwo składa się z trzech warstw ułożonych na krzemowym podłożu. Warstwę pierwszą, patrząc od podłoża, stanowi arsenek indowo-galowy (InGaAs). Warstwa środkowa została stworzona z indu i galu (InGa), a warstwa najwyższa to fosforek indowo-galowy (InGaP). Sharp od lat jest liderem w rozwoju technologii ogniw słonecznych. W 2003 roku trójwarstwowe ogniwo tej firmy, bez wspomagania koncentracją promieni, osiągnęło wydajność 31,5%. Już rok później z ogniw Sharpa korzystał satelita Reimei. W roku 2007 dzięki skoncentrowaniu promieni słonecznych na ogniwie osiągnięto wydajność 40%. Dwa lata później trójwarstwowe ogniwo Sharpa pozyskało 35,8% energii z nieskoncentrowanych promieni. Obecnie poprawiono ten wynik o 1,1 punktu procentowego.
  2. Firma Cree poinformowała o poprawieniu własnego rekordu wydajności oświetlenia LED. Prototypowe urządzenie osiągnęło 231 lumenów na wat przy temperaturze koloru rzędu 4500 kelwinów. Jeszcze niedawno za teoretyczną granicę wydajności LED uznawano 200 lumenów na wat. Przekroczyliśmy tę granicę w 2010 roku - powiedział współzałożyciel Cree, John Edmond. Cree nie dostarcza na rynek aż tak wydajnych produktów. Klienci mogą na razie kupić kilkukrotnie mniej wydajne oświetlenie. Jednak z czasem z pewnością w sklepach pojawią się LED-y o wydajności przekraczającej 200 lumenów/wat.
  3. Szybko postępujący rozwój elektroniki powoduje, że do naszych domów trafiają urządzenia o coraz większej mocy obliczeniowej. Obecne notebooki mają moc porównywalną z superkomputerami sprzed 15 lat. Jak twierdzi Jack Dongarra z University of Tennessee, w ciągu najbliższych 10 lat telefony komórkowe osiągną moc obliczeniową sięgającą teraflopsa. Do roku 2020 wszystkie systemy na liście TOP500 będą oferowały wydajność liczoną w petaflopsach. Telefony komórkowe będą miały teraflopsową wydajność, a laptopy osiągną 10 teraflopsów. Naukowcy będą wiedzieli jak budować exaflopsowe komputery i skupią się na badaniach nad maszynami zettaflopsowymi [1021 operacji zmiennoprzecinkowych na sekundę - red.] - stwierdza Dongarra. W przeciwieństwie do wielu specjalistów, którzy wieszczą koniec prawa Moore'a, Dongarra uważa, że nadal będziemy w stanie dwukrotnie zwiększać liczbę tranzystorów w procesorze co mniej więcej 18 miesięcy. Spoglądając wstecz nie można wykluczyć, że Dongarra ma rację. Wystarczy przecież wspomnieć, że przed dziesięcioma laty pojawienie się gigahercowego procesora było wielkim krokiem na drodze rozwoju pecetów. Obecnie tak wydajne układy są często wykorzystywane w komórkach.
  4. Kameleon jemeński (Chamaeleo calyptratus) jest zwierzęciem zmiennocieplnym, co oznacza, że spadek temperatury otoczenia spowalnia jego metabolizm. Wydawałoby się, że w zimnie język gada nie osiągnie właściwej prędkości, by schwytać smakowity kąsek, ale to nieprawda. Okazuje się, że natura wyposażyła go w specjalny mechanizm wyrzutowy. Nie bazuje on na bezpośrednich skurczach mięśni, ale działa na zasadzie napnij i wypuść, czyli podobnie do łuku i strzały. U gatunków zmiennocieplnych spadek temperatury może bardzo zmniejszyć prędkość poruszania, przez co mają one problem ze zdobyciem pożywienia i same łatwiej stają się czyimś łupem. W przypadku żab odległość, na którą są w stanie skoczyć, zmniejsza się w takich warunkach aż o 1/3. Naukowcy z Uniwersytetu Południowej Florydy stwierdzili ku swojemu zaskoczeniu, że językowi kameleona jemeńskiego chłód wydaje się nie przeszkadzać. Działa równie sprawnie przy wysokiej i niskiej temperaturze, co oznacza, że zwierzę może się pożywić we wszystkich warunkach termicznych spotykanych w habitacie: od 3,5°C w górach do 39°C na pustyni. Zespół Christophera Andersona stwierdził, że język jaszczurki osiąga przyspieszenie do 41 g i wysuwa się na dwie długości ciała. Czemu mechanizm wyrzutowy porównuje się do strzały i łuku? Ponieważ tkanka sprężysta języka jest naciągana przez kurczące się włókna mięśniowe. W ten sposób dochodzi do zmagazynowania w niej energii, która uwalnia się, gdy język wystrzeliwuje w kierunku ofiary. Język osiąga swą pełną długość w zaledwie 70 ms. Przy niskich temperaturach mięśnie kurczą się co prawda wolniej, lecz w tkance sprężystej magazynuje się dokładnie ta sama ilość energii. Amerykanie posłużyli się ultraszybką kamerą Photron, by porównać w temperaturach 15, 25 i 35°C wydajność mechanizmu wyrzucania języka oraz mięśni wycofujących język z powrotem do jamy gębowej (na te ostatnie chłód będzie miał, oczywiście, wpływ). Biolodzy zauważyli, że prędkość wciągania języka zmniejszała się o ponad 42% na każde 10-stopniowe obniżenie temperatury, lecz przy identycznym ochłodzeniu otoczenia szybkość wyrzucania spadała jedynie o 10 do 19%. Doskonałe "osiągi" udawało się zachować w 20-stopniowym zakresie temperatur. Akademicy uważają, że odkrycia ich zespołu pomogą m.in. w skonstruowaniu protez funkcjonujących dobrze także przy niskich temperaturach. Na filmie widać dwa polowania tego samego kameleona: na górze przy temperaturze 35°C, na dole przy temperaturze 15°C. Język jest wyrzucany równie sprawnie, tego samego nie można już jednak powiedzieć o wciąganiu (materiał umieszczony dzięki uprzejmości National Academy of Sciences, PNAS).
  5. Podatność na hipnozę to skutek nierównowagi w wydajności półkul mózgowych. Oznacza to, że zwolennicy biologicznych podstaw tego zjawiska zyskują argument przemawiający na ich korzyść (Consciousness and Cognition). Sceptycy uważają, że ludzie w ogóle nie zapadają w trans, ale niektórych łatwiej zasugerować, przez co z większym prawdopodobieństwem wchodzą w odpowiednią rolę. W ramach najnowszych badań wykazano jednak, że dla hipnozy charakterystyczna jest obniżona łączność między różnymi rejonami mózgu, poza tym pojawia się silniejsza aktywność w artystyczno-kreatywnej prawej półkuli i mniejsza w racjonalnej lewej. Dr Peter Naish z Otwartego Uniwersytetu w Milton Keynes postanowił sprawdzić, czy istnieją różnice między mózgami osób niepodatnych i podatnych na hipnozę, gdy znajdują się one w stanie czuwania. By znaleźć po 10 przedstawicieli obu grup, Brytyjczyk posłużył się standardową skalą podatności hipnotycznej. Następnie dał każdemu z badanych okulary z zamontowanymi po lewej i prawej stronie oprawki diodami LED. Rozbłyskiwały one szybko po sobie, a ochotnicy mieli powiedzieć, która mignęła jako pierwsza. Eksperyment prowadzono do momentu, gdy odstęp między mrugnięciami był tak mały, że ludzie nie potrafili ustalić porządku zapalania. Naish stwierdził, że osoby podatne na hipnozę lepiej radziły sobie ze stwierdzeniem, że prawa dioda LED zapaliła się pierwsza. Oznacza to, że ich lewa półkula pracuje wydajniej. Ochotnicy niepodatni na hipnozę równie dobrze wykrywali "pierwszeństwo" lewej i prawej diody. Kiedy akademik próbował wprowadzić przedstawicieli obu grup w trans, mózg podatnych przełączał się i nagle ludzie zaczynali szybciej postrzegać, że pierwszy zapalił się LED po lewej. U niepodatnych, którzy nie dawali się zahipnotyzować, i tak dochodziło do zmian – wykonanie zadania jako takiego uległo pogorszeniu. Psycholog uważa, że hipnoza wymaga czasowej dominacji prawej półkuli, dlatego jest łatwiejsza do uzyskania w przypadku osób z naturalną nierównowagą skuteczności półkul w stanie czuwania.
  6. Intelowski GPGPU (procesor graficzny ogólnego przeznaczenia) Larrabee został zaprezentowany podczas konferencji SC09. Tam zyskał uwagę, której nie udało mu się przyciągnąć wcześniej. Justin Rattner, prezes ds. technologicznych, zaprezentował testy wydajności układu. Test SGEMM został najpierw uruchomiony na połowie rdzeni procesora, który w ten sposób osiągnął wydajność 417 gigaflopsów. Po włączeniu pozostałych rdzeni wydajność wzrosła do 825 GFlops, dzięki czemu Intel udowodnił, że układ można skalować 1:1. Po tym, jak Rattner lekko podkręcił procesor, jego wydajność sięgnęła 1 teraflopsa. Dla porównania kość Core i7-975, czyli najbardziej wydajny procesor z rdzeniem Nehalem, osiąga maksymalną wydajność rzędu 55,36 GFlops. Wynik Larrabee tylko pozornie jest imponujący. Jak zauważa Jon Peddie z firmy Jon Peddie Research, na rynku jest dostępna karta graficzna ATI, której wydajność wynosi 5 TFlops. Jeśli zatem Intel chce w przyszłym roku rozpocząć sprzedaż Larrabee, to układ o wydajności 1 teraflopsa z pewnością nie zawojuje rynku wysoko wydajnych chipów. Przyznał jednocześnie, że 1 teraflops to dobry punkt wyjścia i w połączeniu z odpowiednią polityką cenową oraz dalszymi pracami nad rozwojem Larrabee Intel może odebrać nieco rynku ATI i Nvidii.
  7. Dwójka amerykańskich naukowców przedstawiła wyliczenia, z których wynika, że za 75-80 lat dojdziemy do kresu możliwości dalszego zwiększania mocy obliczeniowej komputerów. Jeśli Prawo Moore'a nadal będzie obowiązywało i komputery będą o 100% zwięĸszały swoją moc co mniej więcej dwa lata, to około roku 2085 nie będzie możliwe dalsze ich przyspieszanie. Granicę wyznaczy prędkość światła. Lev Levitin i Tommaso Toffoli z Boston University opublikowali swoje wyliczenia w Physical Review Letters. Oparli się przy tym na pracach Levitina z lat 80. ubiegłego wieku. Uczony wyróżnił wówczas najprostszą kwantową operację, która musi być wykonana w kwantowych systemach obliczeniowych. Teraz obaj naukowcy obliczyli najkrótszy czas, potrzebny do jej wykonania. Z ich wyliczeń wynika, że idealny komputer kwantowy będzie w stanie wykonać w ciągu sekundy 10 biliardów operacji więcej, niż obecne najbardziej zaawansowane procesory. Jeśli zatem Prawo Moore'a zachowa ważność, wydajność taka zostanie osiągnięta jeszcze przed końcem bieżącego wieku. Wyliczenie Levitina i Toffoliego opiera się jednak na Prawie Moore'a. Scott Aaronson z MIT-u uważa, że założenie takie jest jednak wyjątkowo optymistyczne. Jego zdaniem Prawo Moore'a nie przetrwa kolejnych 20 lat. Oczywiście nie oznacza to, że naukowcy z Boston University się mylą. Aaronson jest zadowolony ze znalezienia granicy rozwoju komputerów. Z punktu widzenia teoretyka, bardzo dobrze jest wiedzieć, że są nieprzekraczalne granice. Można stwierdzić, że to rozczarowujące, iż nie będziemy w stanie budować nieskończenie szybkich komputerów, jednak jeśli mielibyśmy teorię fizyczną, która pozwala na tworzenie nieskończenie szybkich maszyn liczących, to by znaczyło, że coś jest nie tak z tą teorią.
  8. Duże, ociężałe zwierzęta, takie jak słonie, poruszają się wydajniej niż małe i zwinne, np. myszy. Wszystko sprowadza się ponoć do bardziej wyprostowanej postawy tych pierwszych (PLoS ONE). Sądzimy, że ścięgna w nogach większych zwierząt mają lepszą pojemność sprężystą niż ich odpowiedniki u mniejszych gatunków. Ścięgna działają jak sprężyna. U większych, np. słoni, muszą być bardziej sprężyste, by dzięki odbiciu od podłoża odzyskać więcej energii do wykonania kolejnego kroku – tłumaczy dr Robert Nudds z Uniwersytetu w Manchesterze. Biolog, który współpracował z Jonathanem Coddem i Billem Sellersem z tej samej uczelni, podkreśla też, że wydajność nie rośnie w sposób ciągły wraz z powiększaniem się masy ciała. "Zwierzęta duże i małe dzieli zmiana skokowa. Sprowadza się to do postawy: u słoni wyprostowanej, u myszy przykucniętej". Akademicy z Manchesteru przejrzeli dostępne dane i porównali wydajność lokomocji, tj. stosunek zużytej energii metabolicznej do ilości ruchu, przy różnych wielkościach ciała. W miarę powiększania się gabarytów wzrost nie był stały, lecz skokowy, ponieważ u wszystkich małych zwierząt wydajność wynosiła 7%, a u wszystkich dużych 26%. Ludzie są gatunkiem dużym i poruszającym się w pozycji wyprostowanej, zatem nasza wydajność również wynosi 26%. Naukowcy już wcześniej wiedzieli, że duże zwierzęta poruszają się wydajniej od drobnych, ale dopiero teraz odkryto, że decydującym czynnikiem jest postawa.
  9. Ćwiczenia na bieżni przed lustrem wcale nie są przejawem narcyzmu, ponieważ okazuje się, że mogą poprawiać wydajność. Oglądanie swojego odbicia podczas biegu pozwala lepiej skoordynować ruchy kończyn, ustabilizować je i przemieszczać się bardziej płynnie. Daniel Eaves, szef projektu z Teesside University, zaznacza, że opisywana metoda sprawdza się u amatorów, którzy próbują wypracować swój styl i zmniejszyć obciążenie, ale przeglądanie się w trakcie biegu nie jest już dobrym pomysłem w przypadku zawodowców. To, co widzimy, wpływa na koordynację kończyn. Kiedy ludzie idą lub biegną obok siebie, często zaczynają robić to samo w tym samym czasie. Ich krok się spontanicznie synchronizuje. Chcieliśmy sprawdzić, jak oddziałuje to na wydajność, gdy ćwiczy się na bieżni przed lustrem. W eksperymencie wzięli udział sprawni fizycznie młodzi mężczyźni. Średnia wieku wynosiła 22 lata. Wszyscy odbyli trzy 20-minutowe sesje ćwiczeniowe, oddzielone dniem odpoczynku. Podczas biegu widzieli siebie w trzech "wersjach": 1) w zwykłym lustrze, 2) lustrze, gdzie strony lewa i prawa były ze sobą zamienione i 3) w postaci statycznego obrazu. Psycholodzy mierzyli różne parametry, m.in.: zużycie tlenu, tętno, biomechaniczne wzorce biegu i czas reakcji. Nasze rezultaty pokazują, że oglądanie podczas biegu dynamicznego lustrzanego odbicia jest mniej wymagające energetycznie niż oglądanie obrazu statycznego. Obraz odwrócony stanowi większe wyzwanie dla procesów myślowych sportowca.
  10. Kąpanie się pod prysznicem w ciągu dnia pracy zwiększa produktywność i kreatywność – twierdzą badacze z firmy PR-owej Lucre. W 8-tygodniowym studium wzięli udział przedstawiciele 4 przedsiębiorstw: restauracji, agencji reklamowej, firmy architektonicznej i bieliźniarskiej. Członkowie załogi mieli dodatkową przerwę na prysznic. Okazało się, że poprawa funkcjonowania wystąpiła w wielu dziedzinach – od nastroju po wydajność. Ogółem kreatywność wzrosła o 33, a produktywność aż o 42%. W miesięcznym okresie kontrolnym pracownicy mieli opisywać swoje emocje podczas dnia pracy. W kolejnym miesiącu wygospodarowano dla nich co najmniej jedną przerwę na prysznic dziennie. Dodatkowo badani wypełniali samoopisowe kwestionariusze. Sam Walsh, pracownik agencji reklamowej, wspomina, że dzięki kąpieli bardzo się wyciszał, a przebywanie z dala od ciągłych dzwonków telefonów pozwalało mu przemyśleć różne sprawy. Dla 16% uczestników eksperymentu było jasne, że w fazie prysznicowej pracowało im się lepiej. Dla 23% dużym plusem stała się poprawa nastroju. Badanie zostało przeprowadzone na zlecenie producenta pryszniców.
  11. Inżynierom IBM-a udało się zwiększyć wydajność dysków SSD o 250%. Dzięki połączeniu pamięci Flash i technologii wirtualizacji nowa technologia umożliwia dokonanie ponad miliona operacji I/O w ciągu sekundy i skrócenie czasu odpowiedzi do mniej niż 1 milisekundy. IBM zapewnia, że dzięki Project Quicksilver typowe zadania biznesowe zostaną przyspieszone 2 do 3 razy. Jednocześnie zanotowano 45-procentową oszczędność energii. Technologia Błękitnego Giganta pozwoli więc na znaczne zwiększenie wydajności tych aplikacji, które przetwarzają olbrzymią ilość danych w czasie rzeczywistym. Zwiększy się więc wydajność np. systemów handlu elektronicznego czy rezerwacji.
  12. <!-- @page { size: 21cm 29.7cm; margin: 2cm } P { margin-bottom: 0.21cm } -->Ogniwa słoneczne mogłyby stać się niezwykle atrakcyjnym źródłem energii, gdyby nie ich stosunkowo mała wydajność. Nie dziwią zatem podejmowane przez naukowców poszukiwania sposobów na udoskonalenie tych elementów – nawet wtedy, gdy inspiracją okazują się... oczy ćmy. Współautorem nowej metody usprawniającej ogniwa jest Peng Jiang z University of Florida. Twierdzi on, że jedną z przyczyn strat energii jest wysoki współczynnik odbicia światła krzemowych płytek – serca współczesnych fotoogniw. Stosowane obecnie warstwy antyodblaskowe nie rozwiązują całkowicie problemu, ponieważ działają jedynie w wąskim zakresie długości fal widzialnego promieniowania. I stąd właśnie pomysł, aby przyjrzeć się owadzim oczom, które dość słabo odbijają światło. Dzięki badaniom mikroskopowym odkryto, że rogówki oczu zawierają regularne wypustki, powodujące niemal całkowite pochłanianie padającego światła. Skopiowanie tej nanostruktury na krzem powinno zatem znacznie podnieść wydajność ogniw. Naukowcom udało się już opracować sposób tworzenia wspomnianych wypustek na powierzchni krzemu. Metoda przypomina standardowy proces produkcji układów scalonych: specjalny preparat rozprowadzany jest na wirującej płytce, podobnie jak lakier światłoczuły podczas fotolitografii. Różnica polega na tym, że roztwór zawiera nanocząsteczki, które samoorganizują się, maskując drobne obszary krzemu. Następnie odsłonięte części płytki są wytrawiane, przez co jej powierzchnia zyskuje strukturę z opisywanymi wypustkami. Opisana metoda jest tania, wydajna i skuteczna – potraktowany nią krzem odbija zaledwie 2% światła, podczas gdy standardowe ogniwa nawet 35%-40%. Jej twórcy już przygotowują się do uruchomienia firmy produkującej wydajniejsze baterie słoneczne.
  13. Intel, Google i kilka innych firm oznajmiło, że mają zamiar pracować nad poprawieniem wykorzystania energii przez komputery.Celem wspomnianych przedsiębiorstw jest promowanie takiego zasilacza dopecetów i serwerów, który charakteryzowałby się ponad 90-procentowąwydajnością. Urządzenia takie pozwoliłoby zaoszczędzić energię i zredukować temperaturę pracy komputera. Obecnie, jak poinformował Urs Hölzle z Google’a, połowa energii dostarczanej do pecetów jest marnowana. Zamienia się ona w bezużyteczne ciepło lub jest tracona podczas konwersji z prądu zmiennego na stały. Nieco lepszą wydajnością mogą poszczycić się serwery. W ich przypadku marnowane jest „tylko” 30% energii. Lepiej skonstruowane zasilacze i podzespoły pozwoliłyby na wykorzystanie co najmniej 90% pobranej energii. Google ma na tym polu spore osiągnięcia. Firma twierdzi, że jej serwery wykorzystują od 90 do 93 procent dostarczanej im energii. To nie jest problem technologiczny. Już w tej chwili wykorzystujemy zasilacze, których skuteczność wynosi 90 procent – mówi Hölzle. Głównym problemem jest cena. Przeciętny pecet, w którym zastosowano by lepiej wykorzystujące energię komponenty, zdrożeje o 20 dolarów. W przypadku serwera cena wzrośnie o 30 dolarów. Koszty można by obniżyć, jeśli wspomniane komponenty produkowane byłyby na skalę masową. Ponadto pomóc też może odpowiednia polityka koncernów energetycznych. Kalifornijska firma Pacific Gas and Electric udziela swoim klientom zniżki na dostarczaną energię, jeśli używają oni energooszczędnych komputerów.
  14. Od dawna uważa się, że satysfakcja z wykonywanej pracy zwiększa wydajność. Nathan Bowling z Wright State University wykazał jednak, że choć zadowolenie i produktywność są ze sobą związane, nie jest to związek przyczynowo-skutkowy (Journal of Vocational Behavior). Moje studium wykazało, że związek przyczynowo-skutkowy między satysfakcją z pracy i wydajnością nie istnieje. Są one powiązane, ponieważ i jedno, i drugie to rezultat określonych cech osobowościowych, takich jak samoocena, stabilność emocjonalna, ekstrawersja oraz sumienność. Wyniki można uznać za miarodajne, gdyż Bowling analizował dane tysięcy pracowników z firm o rozmaitych profilach. Zbierano je przez kilka dziesięcioleci, głównie w USA. Amerykanin dziwił się, że naukowcy poświęcili tak mało czasu na zdemaskowanie pozornej zależności między satysfakcją z pracy a produktywnością. To zwykły przypadek. Współwystępowanie dwóch zjawisk nie oznacza automatycznie, że znajdują się one w związku przyczynowo-skutkowym. Bowling uważa, że udało mu się utorować ścieżkę dla nowych badań dotyczących wydajności w pracy. Programy firmowe ukierunkowane na zwiększenie satysfakcji, aby wpłynąć na wydajność, wydają się zaś nieefektywne. W przyszłości psycholog chce zidentyfikować czynniki tzw. środowiska pracy, które wpływają zarówno na zadowolenie, jak i wydajność.
×
×
  • Dodaj nową pozycję...