Znajdź zawartość
Wyświetlanie wyników dla tagów 'Purdue University' .
Znaleziono 15 wyników
-
Światowa Organizacja Handlu (World Trade Organization, WTO) dąży do globalnego zniesienia barier handlowych pomiędzy swoimi członkami. Temu służą kolejne rundy negocjacji. Kraje uboższe i rozwijające się są przeciwnikami całkowitej liberalizacji handlu i domagają się możliwości wprowadzania ceł ochronnych na importowane towary. To właśnie było przyczyną fiaska Rundy Doha - trwających od 2001 roku negocjacji na temat liberalizacji handlu w ramach WTO. Państwa rozwijające się argumentują, że ich producentom potrzebna jest ochrona przez zbyt tanim importem. Domagają się zachowania możliwości wznawiania barier celnych w przypadku nagłego spadku cen na światowych rynkach lub zbyt dużego importu. Utrzymują, że jest to konieczne dla stabilizacji cen i ochrony gospodarki. Tymczasem symulacja przeprowadzona na amerykańskim Purdue University dowodzi czegoś zupełnie przeciwnego. Naukowcy z tej uczelni, przy wykorzystaniu komputerowego modelu GTAP (Global Trade Analysis Project, model symulujący zależności światowej gospodarki) wykazali, że cła ochronne w rzeczywistości szkodzą gospodarce słabszych krajów i zamiast stabilizować ceny - powodują ich gwałtowne skoki w przypadku nagłych zmian na światowych rynkach. Zwiększają również koszty ponoszone przez najbiedniejszych. W momencie, kiedy rodzimi producenci zawodzą i zwiększa się import a kraj rozwijający się wprowadza zwiększone cła ochronne, ceny produktów rosną. Zwiększają się ceny żywności a jeśli większa liczba krajów wprowadza podobne bariery celne, destabilizacji ulegają ceny na rynkach światowych. Szczególnie wrażliwi na nagłe cła ochronne są eksporterzy z krajów rozwijających się. Ponieważ ich produkty z reguły są tańsze od światowej średniej, najmniejszy spadek cen na globalnym rynku zwraca bariery celny przeciw nim. Zamiast stabilizować przychody krajowych producentów, cła destabilizują je. Reasumując, importowe cła ochronne nie dają takich skutków, jakich oczekują ich zwolennicy, działają wręcz odwrotnie i bardzo szkodliwie. Autorami studium, opublikowanego w najnowszym numerze World Bank Economic Review są Thomas Hertel, profesor ekonomii rolnej na Purdue University i dyrektor generalny projektu GTAP; Amanda Leister, doktorantka handlu międzynarodowego na wydziale ekonomii rolnej Purdue University oraz Will Martin z Banku Światowego.
- 2 odpowiedzi
-
- Amanda Leister
- Thomas Hertel
- (i 8 więcej)
-
Profesor Babak Ziaie z Purdue University jest autorem nowatorskiej pompy dostarczającej leki do organizmu. Jego urządzenie pozwoli chorym na samodzielne aplikowanie lekarstw, które do tej pory musiał ktoś im podawać. Obecnie substancje chemiczne - jak np. nikotyna - są podawane przez skórę, jednak metoda ta ma poważne ograniczenie. Znajduje ona zastosowanie tylko w przypadku tych nielicznych substancji, które są zbudowane z małych hydrofobowych molekuł. Tymczasem większość nowoczesnych lekarstw stworzonych jest z dużych molekuł, które przez skórę nie przejdą. Wielu z nich - na przykład środków stosowanych przy terapii nowotworów czy chorób autoimmunologicznych - nie można podać doustnie, gdyż nie przedostają się z układu pokarmowego do krwi. W takich przypadkach stosuje się zastrzyki, co jednak wymaga obecności przeszkolonej osoby. Profesor Ziaie postanowił umożliwić chorym samodzielne aplikowanie sobie leków za pośrednictwem plastrów zawierających dużą liczbę mikroigieł. Stosowanie plastrów jest bezbolesne, gdyż igły wbijają się na niewielką głębokość. Ponadto plaster po użyciu można odlepić i wyrzucić. Problemem pozostaje jednak sam mechanizm wstrzykiwania leków. Przy mikroigłach, których średnica wynosi zaledwie 20 mikronów, konieczne jest użycie pompy. Jednak dostępne na rynku miniaturowe pompy są zbyt skomplikowane, by można było wbudować je w plastry. Babak Ziaie wraz ze swoim zespołem, w skład którego wchodzili m.in. Charilaos Mousoulis i Manuel Ochoa, opracował prostą pompę, która jest aktywowana dotknięciem palca i nie wymaga korzystania z baterii. Pompa zawiera płyn, który wrze w temperaturze ludzkiego ciała. Wystarczy więc na 20-30 sekund przyłożyć palec do pompy, by pojawiła się para i wzrosło ciśnienie, które wypycha lekarstwo przez igły. Wspomniany płyn nie przedostaje się do organizmu, gdyż jest oddzielony od lekarstwa cienką membraną wykonaną z polidimetylosiloksanu. Testy nowej pompy zostały przeprowadzone z użyciem fluorowęglanów. Jak zauważył Ziaie do wypchnięcia lekarstwa przez mikroigły i wstrzyknięcia go w skórę potrzebna jest dość duża siła, rzędu kilku funtów na cal kwadratowy. Bardzo trudno jest znaleźć miniaturową pompę wytwarzającą taką siłę. Podczas eksperymentów z fluorowęglanem HFE-7000 uzyskano 4,87 psi (funtów na cal), a z FC-3284 - 2,24 psi. W najbliższej przyszłości uczeni chcą zbadać działanie swojej pompy z dołączonymi mikroigłami. Szczegóły prac zostaną zaprezentowane podczas 14. Międzynarodowej konferencji na temat miniaturowych systemów w chemii i naukach biologicznych, która odbędzie się w październiku w Groningen. Uczeni złożyli wniosek o opatentowanie swojej technologii.
- 1 odpowiedź
-
Uczniowie i studenci na całym świecie uczą się, że rozpad promieniotwórczy odbywa się ze stałą prędkością, dzięki czemu można wykorzystać węgiel C-14 do precyzyjnego datowania. Jednak naukowcy z dwóch renomowanych uczelni Stanford University i Purdue University sądzą, że rozpad nie jest równomierny, a wpływ na jego prędkość ma... Słońce. Profesor fizyki Ephraim Fischenbach z Purdue potrzebował długiej listy przypadkowo generowanych liczb. Uczeni używają ich do najróżniejszych obliczeń, jednak uzyskanie list jest bardzo trudne. Powinny to być bowiem liczby losowe, a więc na ich wybór nie powinno nic wpływać. Fischenbach postanowił zatem wykorzystać radioaktywne izotopy jako źródło liczb. Co prawda np. kawałek cezu-137 rozpada się - jak dotąd sądzono - ze stałą prędkością, jednak wiadomo, że do rozpadu poszczególnych atomów dochodzi w całkowicie nieprzewidywalny, przypadkowy sposób. Naukowiec chciał zatem wykorzystać materiał radioaktywny i licznik Geigera i notując czas upływający pomiędzy momentami rozpadu poszczególnych atomów uzyskać szereg przypadkowych liczb. Fischenbach chciał najpierw wybrać najlepszy materiał radioaktywny, więc wraz ze swoimi kolegami zaczął przeglądać publikacje na temat ich rozpadu. I odkryli znajdujące się w nich różnice w pomiarach. Naukowcy, zdumieni tym faktem, porównali dane zebrane przez amerykańskie Brookhaven National Laboratory oraz niemiecki Federalny Instytut Fizyki i Techniki. Tutaj czekała ich jeszcze większa niespodzianka. Okazało się bowiem, że tempo rozpadu zarówno krzemu-32 jak i radu-226 wykazywało sezonowe odchylenia. Latem rozpad pierwiastków był nieco szybszy niż zimą. Wszyscy myśleliśmy, że mamy tu do czynienia z błędami pomiarowymi [różne pory roku charakteryzują się przecież różną temperaturą czy wilgotnością, co może wpływać na instrumenty pomiarowe - red.], ponieważ byliśmy przekonani, że tempo rozpadu jest stałe - mówi emerytowany profesor fizyki, ekspert fizyki słońca Peter Sturrock ze Stanford University. Rozwiązanie zagadki nadeszło, przynajmniej częściowo, 13 grudnia 2006 roku, gdy w nocy w laboratorium Purdue University inżynier Jere Jenkins zanotowanł niewielkie spowolnienie tempa rozpadu manganu-54. Nastąpiło ono na 1,5 doby przed pojawieniem się flary słonecznej. Uczeni opisali swoje spostrzeżenia i w kolejnych artykułach stwierdzili, że zmiany w tempie rozpadu izotopów związane są z ruchem obrotowym Słońca, a najbardziej prawdopodobną ich przyczyną jest wpływ neturin na izotopy. Zresztą sam Sturrock poradził kolegom z Purdue, by przyjrzeli się rozpadowi, a z pewnością stwierdzą, że zmiany następują co 28 dni. Tymczasem okazało się, że zmiany zachodzą co... 33 dni. To, jak uważa Sturrock wskazuje, wbrew intuicji, że wnętrze naszej gwiazdy - w którym zachodzą reakcje - wiruje wolniej niż jej obszar zewnętrzny. Jednak te spostrzeżenia nie wyjaśniają kolejnej, wielkiej tajemnicy. W jaki sposób neutrino miałyby wpływać na materiał radioaktywny na tyle, by zmienić tempo jego rozpadu. Z punktu widzenia standardowych teorii to nie ma sensu - mówi Fischbach. A Jenkins dodaje: Sugerujemy, że coś, co nie wchodzi w interakcje z niczym zmienia coś, co nie może być zmienione. Uczonym pozostaje więc do rozwiązania poważna zagadka. Albo nasza wiedza o neutrino wymaga weryfikacji, albo też na rozpad ma wpływ nieznana jeszcze cząstka.
- 21 odpowiedzi
-
- Jere Jenkins
- Peter Sturrrock
- (i 6 więcej)
-
Na Purdue University trwają prace nad opracowaniem materiału idealnie czarnego, czyli takiego, który będzie pochłaniał całe promieniowanie elektromagnetyczne w konkretnym zakresie. Profesor Evgenii Narimanov jest zdania, że można tak zaprojektować metamateriał, by spełniał wymieniony powyżej warunek. Naukowiec we współpracy z Mikhailem Noginovem i jego kolegami z Norfolk State University stworzyli materiał złożony ze srebrnych drucików o średnicy 35 nanometrów każdy, które umieszczono na tlenku glinu o powierzchni 1 cm2 i grubości 51 mikrometrów. Materiał badano oświetlając go promieniowaniem o długości około 900 nanometrów pod kątem mniejszym niż 45 stopni. Okazało się, że gdy materiał był oszlifowany, odbijał około 20% promieniowania. Jednak gdy nie był szlifowany, odbijał mniej niż 1% promieni. Narimanov uważa, że jego pomysł można zastosować do całego spektrum promieniowania elektromagnetycznego. W wywiadzie dla New Scientist stwierdził, że podobne metamateriały zostaną najpierw użyte przez wojsko w zastosowaniach dotyczących promieniowania o częstotliwości liczonej w gigahercach. Oznacza to, że mogą powstać samoloty i inne urządzenia niewidoczne dla najnowocześniejszych radarów.
- 12 odpowiedzi
-
- doskonała czerń
- metamateriał
-
(i 2 więcej)
Oznaczone tagami:
-
Metamateriały o ujemnym współczynniku załamania światła - dla osób, które nie pamiętają już dobrze szkolnych lekcji fizyki, nie brzmi to ciekawie. Ale wystarczy zrozumieć, co się za tym naukowym określeniem kryje, żeby poczuć się jak w bajce o czapce niewidce. Kiedy patrzymy na łyżeczkę włożoną do szklanki z herbatą, wydaje się ona złamana. Kiedy tę łyżeczkę wrzucimy do garnka z wodą, będzie nam się wydawało, że leży ona wyżej, niż faktycznie. To właśnie jest zjawisko załamania światła - światło (ale także każda fala elektromagnetyczna i każda fala w ogóle: na przykład dźwiękowa) zmienia swój kierunek podczas przechodzenia z jednego ośrodka do drugiego, na przykład z powietrza do wody i na odwrót. O tym jak bardzo łyżeczka będzie dla nas „wygięta" lub jak wysoko podnosi się dno naczynia z wodą, mówi nam współczynnik załamania dla danego materiału. Współczynnik równy jeden oznacza, że światło nie załamuje się wcale. Im jest większy, tym załamanie większe. Może on być, choć to zdarza się rzadko, mniejszy od jedności - wówczas łyżeczka „wygnie się" w drugą stronę a dno będzie niżej, zamiast wyżej. To właśnie temu zjawisku zawdzięczamy działanie soczewek a więc także lunet, teleskopów, obiektywów fotograficznych, itd. Materiały o współczynniku załamania mniejszym niż jeden są szczególnie przydatne w takich zastosowaniach i zawsze chętnie poszukuje się nowych. Stosunkowo niedawno wymyślono teoretycznie „metamateriały" - materiały, których współczynnik załamania światła jest mniejszy od zera. Wcześniej nie pomyślano by nawet, że coś takiego jest możliwe, bo jak by to działało? Łyżeczka zanurzona w takim metamateriale wydawałaby się wystawać z wody a dno wydawałoby się wyżej niż powierzchnia płynu. A jednak coś takiego jest możliwe! Cuda - niewidy Sama możliwość istnienia takich „cudownych" materiałów jest ekscytująca. Nowe rodzaje znacznie doskonalszych przyrządów optycznych: mikroskopy, teleskopy, lepsze obiektywy fotograficzne, komputery optyczne. Możliwe teoretycznie jest skonstruowanie materiału, który będzie dawał niewidzialność przedmiotom, wokół których się go owinie. Znając teoretycznie strukturę, jaka dawałaby te efekty, zaczęto prace. Na początku udało się stworzyć taki metamateriał działający jedynie dla promieniowania mikrofalowego. Było to w 2004 roku. To był dowód, że pomysł nie jest wyssany z palca. Z uzyskaniem tego samego dla światła widzialnego było trudniej. Powód jest prosty: im mniejsza długość fali, tym mniejsze muszą być elementy metamateriału. Dla mikrofal łatwo było stworzyć strukturę metalowych elementów o rozmiarze około centymetra. Dla światła widzialnego muszą one mieć poniżej 250 nanometrów... Odpowiedź jest oczywista: nanotechnologia. I rzeczywiście, już w 2005 roku powstały pierwsze metamateriały optyczne. Niestety, pochłaniały one tak dużą część światła, że nie nadawały się do żadnego praktycznego zastosowania. Były jedynie naukową ciekawostką. Trwające wiele lat prace na Uniwersytecie Purdue w amerykańskim stanie Indiana przyniosły wreszcie efekty. Naukowcy pracujący w uniwersyteckim Birck Nanotechnology Center osiągnęli przełom: metamateriał optyczny, który nie tylko przepuszcza większość padającego światła, ale może nawet służyć jako optyczny wzmacniacz. Opracowany materiał ma postać cienkiej, perforowanej błony. Składa się ona z warstwy tlenku aluminium pomiędzy dwiema warstwami srebra a całość ma strukturę sieci z otworami o średnicy około 100 nanometrów. Część tlenku aluminium jest wytrawiona i zastąpiona „czynnikiem wzmacniającym" w postaci kolorowego barwnika wymieszanego z klejem epoksydowym. To dzięki niemu osiągnięto efekt wzmacniania światła. Problemem było nie tylko znalezienie odpowiedniego materiału barwnikowego, ale również usunięcie jak największej części tlenkowo-aluminiowej błony bez zniszczenia jej struktury. Nowym pomysłem jest też umieszczenie tej warstwy wewnątrz błony - dzięki temu ma ona pięćdziesięciokrotnie lepsze właściwości, niż umieszczona na powierzchni, jak to robili inni naukowcy. Zmniejszenie współczynnika pochłaniania światła do milionowej części poprzedniej wartości i możliwość wzmacniania światła to przełom na drodze do praktycznych zastosowań. A tych będzie wiele: płaskie supersoczewki, mikroskopy optyczne pozwalające dostrzegać nici DNA, „koncentratory światła" w panelach słonecznych, nowe rodzaje czujników, układy przetwarzające dane optycznie, zamiast elektrycznie (czyli optyczne komputery), wreszcie materiały tak zakrzywiające światło, że stają się niewidoczne. Poza oczywistym doskonaleniem wynalazku i pracą nad przemysłowym wytwarzaniem - na co pewnie jeszcze poczekamy - autorzy studium planują zastąpić źródło światła źródłem prądu, analogicznym do półprzewodnikowych laserów. Głównymi autorami sukcesu są Hsiao-Kuan Yuan - doktorant Purdue, obecnie pracownik firmy Intel oraz Shumin Xiao, który kontynuuje prace. Współautorami są ponadto Vladimir P. Drachev, Alexander V. Kildishev, Xingjie Ni, Uday K. Chettiar oraz Vladimir M. Shalaev.
- 5 odpowiedzi
-
- Shumin Xiao
- Hsiao-Kuan Yuan
- (i 4 więcej)
-
Profesor Ambroży Kleks z powieści Jana Brzechwy potrafił nadmuchiwać potrawy, żeby wykarmić całą gromadę uczniów, niestety, nadmuchane nie syciły porządnie i trzeba było dojadać. Podobną sztuczkę stosują niektórzy producenci żywności, czy właściciele barów, sztucznie powiększając swoje produkty. Skutek jest podobny. Matka natura też potrafi powiększać owoce, ale jej metoda jest naturalna i nieoszukana. Gala to dość popularna odmiana jabłek, nie wyróżniająca się niczym szczególnym. Peter Hirst, profesor ogrodnictwa na Uniwersytecie Purdue'a, odkrył jednak, że z z tej pospolitej odmiany znienacka wyewoluowała nowa. Jej cechy szczególne to, poza większą chrupkością, znacznie większe rozmiary: o 15% większa średnica i o 38% większa waga. Nowa odmiana, nazwana z racji gabarytów Grand Gala, powstała przypadkowo. Właściciel dużego sadu owocowego zauważył, że jedna gałąź drzewa rodzi znacznie większe owoce. Zaszczepił więc nią nowe drzewka, uzyskując zmodyfikowaną odmianę. Profesor Hirst zainteresował się tym zjawiskiem: możliwość wyhodowania owoców większych o kilkanaście - kilkadziesiąt procent to jak kamień filozoficzny sadownictwa, duże owoce uzyskują bowiem znacznie wyższe ceny. Nigdy bowiem wcześniej nie widział takich jabłek, które określił jako dziwaczny fenomen. Zwłaszcza, że ogryzek nowej odmiany jest tego samego rozmiaru, co w starej, przyrost masy w całości obejmuje miąższ owocu. Naukowiec postanowił odnaleźć gen odpowiadający za większy rozmiar. Do tej pory badania porównawcze różnych gatunków jabłek nic nie dawały, ponieważ nie zawsze w nich te same geny odpowiadają za te same cechy. Grand Gala, nowo powstała odmiana, dawała szansę na przełamanie tej bariery. Większy owoc jest zawsze skutkiem większej ilości komórek. Jednak szukając genu, odpowiadającego za zwiększony ich przyrost, prof. Hirst odkrył ze zdziwieniem, że nowa odmiana wcale nie posiada więcej komórek od starej! W jaki więc sposób Grand Gala osiąga większe rozmiary? Proste - jej komórki są większe. Proste, ale niespotykane. W normalny sposób żywe komórki powielają swoje DNA, rosną, a potem dzielą się i proces ten się powtarza. Komórki odmiany badanej przez Petera Hirsta, wskutek jakiegoś błędu, powielają DNA, ale nie dzielą się. Zamiast tego tylko rosną, wytwarzając więcej i więcej kopii DNA. Dzięki badaniom udało się wyizolować grupę genów odpowiedzialnych za tę ciekawą dysfunkcję. Ale chociaż możliwe byłoby dzięki temu stworzenie „nadmuchanych" odmian innych gatunków jabłek, profesor Hirst wątpi, żebyśmy zobaczyli takie mutanty w sklepach. Jak mówi, konsumenci wybierają te owoce, które wyglądają najładniej i najdoskonalej. Grand Gala tymczasem ma jedną wadę: jest nieco koślawe. Badania nad genami odpowiedzialnymi za rozmiar jabłek jednak trwają i być może pewnego dnia w sklepie zobaczymy niespotykanie duże jabłka. Być może będzie to zasługa prac, między innymi, profesora Petera Hirsta.
- 16 odpowiedzi
-
- Purdue University
- Peter Hirst
-
(i 4 więcej)
Oznaczone tagami:
-
Uczeni z Purdue University pracują nad nowym typem pompy ciepła, która może zainteresować mieszkańców wyjątkowo zimnych okolic. Dzięki nowemu urządzeniu ich rachunki za ogrzewanie mogą spaść nawet o 50 procent. Pompy ciepła zapewniają ogrzewanie zimą, a chłodzenie latem. Jednak nie sprawdzają się w bardzo niskich temperaturach. Nowy projekt ma zapewnić dobrą wydajność tego typu urządzeń nawet tam, gdzie jest bardzo zimno. James Brown, Eckhard Groll i Travis Horton mówią, że dzięki grantowi w wysokości 1,3 miliona dolarów są w stanie w ciągu najbliższych 3 lat przedstawić prototyp pompy, która w niskich temperaturach zapewni ogrzewanie o połowę taniej niż obecnie stosowane technologie. Pomysł amerykańskich uczonych polega na prostym zmodyfikowaniu konwencjonalnego cyklu pracy. Taka prosta modyfikacja pozwoli też usprawnić lodówki czy klimatyzatory. Standardowo cykl pracy składa się z czterech etapów: płyn chłodzący jest kompresowany, następnie skraplany, rozpręża się, paruje. Jedna z badanych propozycji zakłada wstrzyknięcie dużej ilości oleju podczas fazy kompresji. Olej ten miałby absorbować ciepło. Drugi pomysł to wstrzyknięcie podczas kompresji rozprężonego płynu chłodzącego. To zwiększy efektywność kompresji, a jednocześnie zmniejszy straty energii. Ochłodzenie płynu w czasie kompresji czyni go gęstszym, a to ważne, gdyż do skompresowania czegoś bardziej gęstego potrzeba mniej energii - mówi Braun.
-
- Eckhard Groll
- James Brown
-
(i 3 więcej)
Oznaczone tagami:
-
Naukowcy z Purdue University i University of New South Wales postanowili wyliczyć najwyższą tolerowaną przez człowieka temperaturę mokrego termometru (wet-bulb temperature, WBT). Przy okazji dowiedzieli się, że w nadchodzących stuleciach niektóre obszary Ziemi mogą nie nadawać się do zamieszkania przez ludzi. Temperatura mokrego termometru odpowiada temperaturze odczuwanej, gdy mokra skóra jest wystawiona na działanie poruszającego się powietrza. Pod uwagę brana jest zatem zarówno sama temperatura jak i wilgotność. Jak informuje Matthew Huber, współautor badań, z wyliczeń wynika, że dla człowieka i większości ssaków śmiertelna jest sześciogodzinna lub dłuższa ekspozycja na temperaturę mokrego termometru przekraczającą 35 stopni Celsjusza. Naukowcy informują, że jeśli spełnią się najgorsze z rozsądnie przewidywanych scenariuszy dotyczących globalnego ocieplenia, to, po raz pierwszy w historii ludzkości, pewne tereny naszego globu nie będą się nadawały do zamieszkania właśnie ze względu na zbyt wysokie temperatury. Obecnie tego typu warunki zdarzają się np. u wybrzeży Arabii Saudyjskiej, gdzie gorące bardzo wilgotne powietrze znad oceanu napływa nad gorący ląd. Na szczęście jest to zjawisko krótkotrwałe. Uczeni nie sprawdzali prawdziwości scenariuszy dotyczących zmian klimatycznych na Ziemi, ale skupili się nad ich wpływem na człowieka. Niekorzystne warunki mogą przejściowo panować na terenie całych krajów, powodując, że niezbędna stanie się adaptacja do nich. Można to uczynić np. dzięki szerszemu rozpowszechnieniu systemów do klimatyzacji. To jednak oznacza, że zapotrzebowanie na energię będzie okresowo bardzo rosło i tu pojawia się pytanie, czy kraje Trzeciego Świata będą w stanie zapewnić ją swoim obywatelom. Trzeba pamiętać, że nawet wówczas narażone będą zwierzęta hodowlane, od których zależy nasz los, a ponadto w takich warunkach każda praca na zewnątrz będzie obarczona poważnym ryzykiem - mówi Huber. Profesor Steven Sherwood z Climate Change Research Centre na University of New South Wales wyjaśnia, że graniczna temperatura mokrego termometru to po prostu punkt, w którym przegrzejemy się nawet wówczas, gdy staniemy nago w cieniu przed włączonym olbrzymim wiatrakiem i będziemy sączyli napoje. Wyliczyliśmy, że wzrost średnich temperatur o 7 stopni Celsjusza spowoduje, że na niektórych obszarach globu zostanie przekroczony limit temperatury mokrego termometru, a przy wzroście o 12 stopni Celsjusza połowa Ziemi nie będzie nadawała się do zamieszkania. Jeśli rozważamy ryzyko związane z emisją węgla, to taki najgorszy scenariusz powinniśmy brać pod uwagę. To jak różnica pomiędzy ruletką a rosyjską ruletką. Czasami ryzyko jest zbyt wielkie, nawet jeśli szansa przegranej jest bardzo mała - dodaje Huber. Same procesy metaboliczne w naszych ciałach generują około 100 watów podczas spoczynku. Aby schłodzić ciało konieczne jest, by skóra była chłodniejsza od jego wnętrza i by otoczenie było chłodniejsze od skóry. Jeśli warunki te nie zostaną spełnione i temperatura mokrego termometru uniemożliwi skórze oddawanie ciepła, istnieje ryzyko śmiertelnego przegrzania organizmu. Profesor Huber zauważa, że temperatury uniemożliwiające życie człowieka panowały na Ziemi przed około 50 milionami lat, niewykluczone zatem, że znowu się pojawią. Stąd też, jego zdaniem, przy rozważaniu możliwych konsekwencji zmian klimatycznych powinniśmy brać pod uwagę i tego typu scenariusz.
- 21 odpowiedzi
-
- University of New South Wales
- Purdue University
- (i 5 więcej)
-
Naukowcy z Purdue University stworzyli magnetyczny ferropapier, który może zostać wykorzystany np. do budowy miniaturowych silników dla narzędzi chirurgicznych, niewielkich nożyczek do cięcia komórek czy niezwykle małych głośników. Materiał otrzymano dzięki zaimpregnowaniu zwykłego papieru - w tej roli można użyć nawet papieru gazetowego - w mieszaninie oleju mineralnego i magnetycznych nanocząstek z tlenku żelaza. Tak zaimpregnowany papier może być poruszany za pomocą pola magnetycznego. Następnie pokrywa się go warstwą biokompatybilnego tworzywa sztucznego. Chroni ono papier przed wilgocią, a impregnat przed wyparowaniem. Ponadto zwiększa wytrzymałość, elastyczność i sztywność papieru. Papier jest porowaty, a więc można na nim umieścić wiele nanocząstek. Jest jednocześnie miękki, a zatem nie uszkodzi komórek czy tkanek, przyda się więc do przeprowadzania mało inwazyjnych zabiegów. Ponadto jest tani. Jak zapewnia twórca ferropapieru, profesor Babak Ziaie, jego produkcja nie wymaga dostępu do specjalistycznego laboratorium, więc można go wykorzystywać w szkołach i na uczelniach podczas zajęć z robotyki czy mechaniki. Co więcej, do produkcji ferropapieru szczególnie dobrze nadają się najtańsze gatunki papieru, jak np. gazetowy, gdyż charakteryzują się one dużą porowatością. Szczegóły produkcji oraz właściwości ferropapieru zostaną omówione podczas 23. międzynarodowej konferencji IEEE na temat systemów mikroelektromechanicznych, która odbędzie się w Hongkongu pod koniec bieżącego miesiąca.
- 4 odpowiedzi
-
- Babak Ziaie
- Purdue University
-
(i 4 więcej)
Oznaczone tagami:
-
Grupa naukowców z UCLA Henry Samueli School of Engineering and Applied Science, Purdue University i IBM-a wyhodowała krzemowo-germanowe nanokable, które mogą trafić do tranzystorów przyszłej generacji. Jesteśmy podekscytowani z dwóch powodów. Po pierwsze, poszerzyliśmy naszą wiedzę dotyczącą fizycznych podstaw wzrostu nanokabli. Po drugie, ulepszyliśmy je na tyle, że mogą być używane w wysoko wydajnych urządzeniach elektronicznych - mówi Frances Ross z IBM-a. Naukowcy udowodnili, że są w stanie hodować wolne od defektów nanokable z różnych materiałów. Przede wszystkim zaś skupili się na krzemie i germanie. Co niezmiernie ważne, precyzję zakończeń ich nanokabli można wyrazić w skali atomowej. To o tyle istotne, że od jakości połączeń zależy wydajność tranzystora. Im "ostrzejsze" końcówki nanokabli - a w tym przypadku mają one wielkość pojedynczego atomu - tym lepsze właściwości elektryczne budowanego z nich urządzenia. Uzyskanie tak precyzyjnych zakończeń to najważniejsze osiągnięcie wspomnianego zespołu naukowców. Nanostruktury krzemowo-germanowe mają i tę zaletę, że zamieniają energię cieplną w elektryczną. Ta właściwość jest wykorzystywana przez NASA do zasilania satelitów, a coraz częściej myśli się o wykorzystaniu jej w przemyśle samochodowym. Nowe nanokable, dzięki swojej niezwykłej precyzji, będą idealnie nadawały się do podobnych zadań. Uczeni, by uzyskać idealne nanokable krzemowo-germanowe, podgrzali cząsteczki stopu złota z aluminium do temperatury powyżej 370 stopni Celsjusza i stopili je w komorze próżniowej. Następnie wprowadzili do niej gaz zawierający krzem, który spowodował wzrost nanokabli krzemowych. Podobny proces zaszedł po wpuszczeniu do komory gazu z germanem. Podstawową trudnością było uzyskanie naprawdę ostrych połączeń pomiędzy kablami z krzemu i germanu. Uzyskano je dzięki schłodzeniu gazu z krzemem, co pozwoliło na usunięcie nadmiaru materiału z nanokabli, na których następnie zaczęły rosnąć nanokable germanowe. Uczeni skupią się teraz nad hodowaniem nanokabli na znacznie większych powierzchniach niż dotychczas.
-
- Frances Ross
- IBM
-
(i 4 więcej)
Oznaczone tagami:
-
Profesor Jerry Woodall z Purdue University opracował sposób na produkcję wodoru z wody i stopu aluminium z galem. Wynalazek może doprowadzić do stworzenia silników, które zamiast benzyny będą zużywały... wodę. Technika jest na tyle obiecująca, że Purdue University opatentował wynalazek i założył firmę AlGalCo LLC. Profesor Woodall powyższą technikę odkrył przypadkiem. W laboratorium czyścił tygiel, w którym znajdował się stop galu i aluminium. Gdy dodałem wody, nastąpiła silna reakcja. Atomy aluminium ze stopu weszły w kontakt z wodą, doszło do reakcji, w wyniku której powstał wodór i tlenek glinu – mówi Woodall. Najważniejszym składnikiem dla zajścia reakcji jest gal. Zapobiega on utworzeniu się na powierzchni aluminium warstwy, która powstaje na początku utleniania się tego metalu i zatrzymuje cały proces. Dzięki galowi aluminium utlenia się do końca. Oczywiście zostaje jeszcze cały szereg problemów, które należy rozwiązać, zanim na skalę przemysłową będzie można budować silniki zasilane wodą. Technologia jest jednak bardzo obiecująca. Przede wszystkim eliminuje ona konieczność składowania i przewożenia wodoru, potrzebnego do ogniw paliwowych. Każdy samochód sam produkowałoby na swoje potrzeby wodór dla napędzającego go ogniwa. Podczas reakcji nie tworzą się żadne toksyczne produkty. Woodall twierdzi, że używając 260 funtów aluminium można przejechać 350 mil (563 km). Koszt aluminium wyniósłby przy obecnych cenach około 180 dolarów, podczas gdy tą samą trasę na benzynie można przejechać kosztem (wg amerykańskich cen) około 50 dolarów. Jednak powstający tlenek aluminium może być ponownie użyty do stworzenia paliwowych pastylek z aluminium. Koszt takiego paliwa wyniósłby, przy założeniu, że zakład recyklingu aluminium korzystałby z energii dostarczonej przez elektrownię atomową, około 62 dolarów. Byłby więc porównywalny z ceną benzyny. W przyszłości ten stosunek będzie jeszcze bardziej korzystny, gdyż ropy naftowej ubywa, a tlenek glinu możnaby poddawać recyklingowi dzięki energii słonecznej. Gal nie jest w ogóle podczas reakcji tracony, więc koszt jego zakupu jest jednorazowy.
- 8 odpowiedzi
-
Istnieje wiele teorii osobowości, ale ostatnio największą popularność zdobyła tzw. Wielka Piątka Paula T. Costy i Roberta McCrae: neurotyczność, ekstrawersja, otwartość na doświadczenia, ugodowość i sumienność. Uznaje się, że ten podział na dwubiegunowe wymiary jest najpełniejszy. Można go rozbić na poszczególne cechy, ale wszystkie da się ostatecznie sprowadzić do wymienionych wyżej czynników. Jaka osobowość jest zdrowa? Badacze głowią się nad tym od lat. Ostatnio jednak psycholodzy doszli do wniosku, że przynajmniej dwa wymiary Wielkiej Piątki bezpośrednio wpływają na dobrostan fizyczny i długowieczność. Są to sumienność oraz neurotyzm. Stan zdrowia zależy od zmian tych czynników w czasie. Neurotycy nie radzą sobie dobrze ze stresem. Cechuje ich negatywne myślenie, łatwo się poddają, są niespokojni i mają zmienne nastroje. Daniel Mroczek, pracownik Purdue University, postanowił sprawdzić, czy tego typu dziedziczny negatywizm rzeczywiście, co wykazało wiele wcześniejszych badań, zwiększa śmiertelność i czy neurotyk może w jakiś sposób zmienić swoje "przeznaczenie" (Psychological Science). Wykorzystał wystandaryzowaną skalę neurotyzmu i przez ponad 12 lat podążał śladem 1600 ochotników. Odnotował, jak neurotyczni byli na początku eksperymentu i sprawdzał, czy z upływem czasu stają się mniej lub bardziej stabilni emocjonalnie. W ciągu 18 lat uwzględniał też ryzyko zgonu (oczywiście u tych samych osób). Zaobserwował, że nasilenie neurotyzmu oznacza krótsze życie. Żaden z neurotycznych panów nie zdążył się porządnie zestarzeć. Stawali się coraz bardziej zestresowani, przygnębieni i zmartwieni. Koło strachu się zamykało, a mężczyźni umierali, najczęściej z powodu chorób serca i nowotworów. Pocieszające jest to, że jeśli badani potrafili się w jakiś sposób uspokajać, żyli tak samo długo, jak mężczyźni stabilni emocjonalnie.
- 1 odpowiedź
-
- Wielka Piątka
- osobowość
-
(i 9 więcej)
Oznaczone tagami:
-
Chemicy z Purdue University opracowali nową metodę tworzenia kryształów podobnych do diamentów, które pomogą wyprodukować "perfekcyjne lustra". Te z kolei przydadzą się do produkcji komputera optycznego oraz pozwolą zastąpić sygnały elektryczne optycznymi (świetlnymi). Technika, która powstała w Purdue, wymusza na cząsteczkach układanie się w żądane kształty na krzemowej matrycy. Jest ona tańsza i pozwala na szybszą produkcję kryształów, niż obecnie wykorzystywane technologie. Aktualnie używa się technik wymuszających tworzenie konkretnych kształtów do produkcji dwuwymiarowych struktur zwanych kryształami koloidalnymi. Prawdopodobnie znajdą one zastosowanie np. w oprzyrządowaniu optycznym aparatów fotograficznych i innych produktach konsumenckich. Kolejnym krokiem na drodze do ulepszania przyrządów optycznych jest stworzenie trójwymiarowych kryształów, dzięki którym powstaną materiały zdolne do odbijania nadbiegających z wielu kierunków promieni światła o określonej długości fali. Takie materiały istnieją, jednak są tak drogie, że nie są stosowane, mimo iż znacząco poprawiłyby jakość światłowodów. Naukowcy z Purdue właśnie opracowali technikę, która, jak mają nadzieję, pozwoli w najbliższej przyszłości produkować na masową skalę tanie materiały, z których powstaną
-
Akademicy z Purdue University, którzy prowadzą finansowane przez Intela badania, poinformowali, że wykorzystanie jonicznego wiatru do wymiany ciepła aż o 250% usprawnia chłodzenie układów scalonych. Naukowcy stworzyli prototypowy silnik wiatrowy, dzięki któremu pokonano zjawisko polegające na pozostawaniu nagrzanych molekuł powietrza w pobliżu układu. Prototyp silnika składa się z dwóch elektrod umieszczonych po obu stronach chipa. Różnica napięcia pomiędzy elektrodami wynosiła tysiąc woltów, co spowodowało, że molekuły powietrza zostały naładowane i powstał joniczny wiatr przesuwający się nad powierzchnią całego układu. Zwykle dzieje się tak, że powietrze, utrzymując się w naturalny sposób w pobliżu powierzchni układu utrudnia jego chłodzenie. Jeśli udałoby się zintegrować joniczny silnik wiatrowy z chipem, powietrze to można by usunąć, a wydajność obecnie stosowanych układów chłodzących zwiększyłaby się dzięki temu o 250 procent. Uczeni pracują teraz nad zmniejszeniem napięcia koniecznego do wywołania jonicznego wiatru oraz nad zminiaturyzowaniem samego silnika. Na potrzeby laboratoryjnych eksperymentów obie elektrody umieszczono w odległości 10 milimetrów od boków układu i podłączono je do napięcia rzędu tysięcy woltów. Podczas testu układ, który tradycyjnymi metodami udało się schłodzić do 60 stopni Celsjusza po włączeniu silnika osiągnął temperaturę 35 stopni. Obecnie naszym zadaniem jest zmniejszenie odległości pomiędzy obiema elektrodami – mówi profesor Suresh Garimella. Będą znajdowały się one w odległości nie milimetrów a mikronów od układu scalonego. Uczeni twierdzą, że w ciągu dwóch lat opracują nowy prototypowy silnik, który będzie działał przy znacznie niższych napięciach. Purdue University od lat prowadzi badania nad technikami jonicznego wiatru. Są one finansowane przede wszystkim przez National Science Foundation.
- 4 odpowiedzi
-
- chłodzenie
- układ scalony
-
(i 4 więcej)
Oznaczone tagami:
-
Uczeni z Purdue University przez dwa ostanie lata prowadzili prace nad komputerową symulacją ataków na World Trade Center. Chcieli w ten sposób sprawdzić, czy uderzenie samolotów w budynki mogło rzeczywiście doprowadzić do ich zawalenia się. Głównym jednak celem akademików było stworzenie narzędzia, która przyda się inżynierom do tworzenia bardziej odpornych budowli. Przy okazji powstała ponad , ukazująca to, co działo się w momencie ataku.Symulacja potwierdza wcześniejsze wnioski komisji badającej przyczyny zawalenia się budynków. Samolot siłą uderzenia zniszczył część słupów nośnych, a inne padły ofiarą wysokiej temperatury, która powstała po zapaleniu się paliwa. Dodatkowo ta wysoka temperatura spaliła izolację termiczną na nieuszkodzonych kolumnach nośnych, które zostały osłabione wskutek pożaru. Obrazu zniszczeń dopełniły tytanowe silniki samolotu, które przeleciały przez budynki jak pociski. Połowa ciężaru budynków WTC opierała się na kolumnach przebiegających przez ich środek. Gdy zniszczone zostały inne kolumny, te główne nie wytrzymały nadmiernego obciążenia i całość runęła. Ayhan Irfanoglu, profesor inżynierii lądowej z Purdue zwraca uwagę to, że symulacja wykazała, iż uderzenie samolotu w budynek niesie za sobą znacznie bardziej niszczące siły, niż dotychczas uważano. Powiedział też, że gdyby główne słupy podtrzymujące połowę ciężaru budynków były bardziej rozproszone, ogień by ich tak łatwo nie zniszczył. Podobne wnioski wyciągnęli specjaliści z Narodowego Instytutu Standardów i Technologii (NIST), którzy badali skutki ataku i stwierdzili, że konieczne jest opracowanie nowych norm przecipożarowych i nowych materiałów ognioodpornych dla wysokich budynków. Symulacja naukowców z Purdue University wykazała ponadto, że konstrukcja budynków była daleka od ideału.
-
- World Trade Center
- Purdue University
-
(i 2 więcej)
Oznaczone tagami: