-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Astronomowie korzystający z teleskopu Kepler odkryli planetę, która krąży wokół dwóch gwiazd. Jak pamięta każdy miłośnik „Gwiezdnych Wojen" obecność dwóch słońc była charakterystyczna dla Tatooine. Jednak w przeciwieństwie do świata z filmu Lucasa, położona o 200 lat świetlnych od Ziemi planeta to zimny, gazowy obiekt, na którym raczej nie istnieje życie. Odkrycie planety posiadającej dwa słońca nie jest zaskoczeniem. Już wcześniejsze badania pokazywały, że tego typu obiekty również mogą istnieć, jednak dotychczas brakowało twardego dowodu. To odkrycie potwierdza istnienie nowej klasy systemów planetarnych, na których mogłoby istnieć życie. Biorąc pod uwagę fakt, że większość gwiazd w naszej galaktyce wchodzi w skład systemów binarnych, należy stwierdzić, iż istnienie życia jest w przypadku tych systemów bardziej prawdopodobne, niż w przypadku pojedynczych gwiazd. To przełomowe odkrycie potwierdza liczącą sobie kilkadziesiąt lat teorię, która dopiero teraz została udowodniona - powiedział William Borucki, główny naukowiec misji Keplera. Na czele zespołu badawczego, który odkrył planetę Kepler-16b stoi Laurance Doyle z SETI Institute. Uczeni wykorzystali teleskop kosmiczny Keplera, który obserwuje ponad 150 000 gwiazd w poszukiwaniu okrążających je planet. Kepler to pierwszy teleskop NASA zdolny do odnalezienia planet wielkości Ziemi, które znajdują się w takiej odległości od gwiazdy macierzystej, by mogła istnieć na nich woda w stanie ciekłym. Szczegółowe badania wykazały, że Kepler-16b to niegościnny, zimny świat wielkości Saturna, który składa się w połowie ze skał, a w połowie z gazu. Jego gwiazdy macierzyste są mniejsze od Słońca. Masa jednej z nich wynosi 69% masy naszej gwiazdy, a masa drugiej to zaledwie 20% masy Słońca. Planeta okrąża gwiazdy w czasie 229 dni, czyli w czasie podobnym jak Wenus, ale znajduje się poza „strefą zamieszkania", więc nie występuje na niej ciekła woda.
- 1 odpowiedź
-
- Tatooine
- system binarny
-
(i 2 więcej)
Oznaczone tagami:
-
Kępki żółte – żółtawe zmiany grudkowe na powiekach związane z odkładaniem cholesterolu w skórze – są objawem podwyższonego ryzyka zawału i chorób serca (British Medical Journal). Naukowcy z zespołu prof. Anne Tybjaerg-Hansen z Uniwersytetu Kopenhaskiego wyliczyli, że w przypadku osób z żółtakami ryzyko zawału wzrasta aż o 48%. Dzieje się tak, gdyż grudki mogą być objawem odkładania cholesterolu także w innych miejscach w organizmie, np. w postaci blaszek miażdżycowych w ścianach tętnic. Choć wcześniejsze badanie wykazało, że zarówno obwódki rogówki (arcus corneae), jak i żółtaki są złogami cholesterolu, Duńczycy uważają, że te pierwsze nie podwyższają ryzyka chorób serca. Co ważne, u ok. ½ osób z jedną lub z obiema przypadłościami nie stwierdzono podwyższonego poziomu cholesterolu we krwi. Akademicy chcieli prześledzić związek między kępkami żółtymi i/lub obwódkami rogówki a podwyższonym ryzykiem zawału, chorób serca, udaru, pogrubienia ściany tętnic oraz przedwczesnego zgonu. Od 1976-78 do maja 2009 r. śledzili losy 12745 osób biorących udział w Copenhagen City Heart Study. Miały one od 20 do 93 lat i na początku studium nie chorowały na serce. Istotne jest to, że 4,4% badanych miało już wtedy żółtaki. Po 33 latach ustalono, że 1872 ochotników przeszło zawał, 1498 udar, u 3699 rozwinęła się choroba serca, u 1815 choroba naczyń mózgu, a 8507 zmarło Zarówno w przypadku kobiet, jak i mężczyzn ze wszystkich grup wiekowych występowanie kępek żółtych oznaczało wzrost ryzyka zawału, rozwoju choroby serca czy zgonu w ciągu 10 lat. Jeśli ktoś miał grudki z cholesterolu na powiekach, o 48% częściej przechodził zawał, o 39% częściej chorował na serce i z o 14% wyższym prawdopodobieństwem umierał w czasie studium. Wzrost zagrożenia był niezależny od znanych czynników ryzyka chorób serca, takich jak płeć, palenie, otyłość, nadciśnienie czy wysoki poziom cholesterolu. U takich pacjentów powinno się poważnie rozważyć zmianę stylu życia, w tym diety. Kępki żółte są jednak często usuwane z powodów kosmetycznych, co oznacza, że wiele osób nie zostanie właściwie pokierowanych. Najwyższe ryzyko występowało u mężczyzn w wieku 70-79 lat. U tych, którzy mieli żółtaki, ryzyko zawału/chorób serca wzrastało o 53% (w porównaniu do 41% u panów bez żółtaków). U kobiet wskaźniki te wynosiły, odpowiednio, 35 i 27%. Naukowcy podkreślają, że ich spostrzeżenia przydadzą się w społecznościach, gdzie dostęp do badań laboratoryjnych jest ograniczony.
-
- Anne Tybjaerg-Hansen
- ryzyko
-
(i 7 więcej)
Oznaczone tagami:
-
W porównaniu do zwierząt podobnej wielkości ludzie wyglądają zupełnie inaczej. Nie dość, że poruszają się na dwóch nogach, to są pozbawieni włosów. Różnica ta od dawna fascynowała naukowców, lecz dopiero dzięki nowoczesnym modelom komputerowym potwierdziło się, że przyczyn utraty owłosienia należy upatrywać w bieganiu. Podczas polowania liczy się każda sekunda i chłodzenie. W końcu na czas zawodów sportowcy również często się golą. Jak próbowano wyjaśniać ludzką nagość i postawę? W latach 80. i na początku lat 90. prof. Peter Wheeler z Liverpool John Moores University (LJMU) opublikował serię prac, w których dowodził, że wymienione cechy są przystosowaniami pomagającymi w chłodzeniu ciała na sawannie. Ponieważ Wheeler bazował na programowalnym kalkulatorze, a nie na komputerze, nie mógł wziąć pod uwagę wpływu biegu na gospodarkę termiczną człowieka. Ludzie są sprawnymi biegaczami wytrzymałościowymi, ale podczas biegu wytwarza się wewnętrzne ciepło, co ma duże znaczenie w gorących środowiskach. Po pracach Wheelera pojawiła się teoria podkreślająca znaczenie biegów wytrzymałościowych za zwierzyną dla ewolucji człowieka. Jako że jest to teoria kontrowersyjna, a koncepcja Wheelera nie została do końca rozwinięta, nowe pokolenie naukowców postanowiło rozpatrzyć je łącznie i sprawdzić, jak sprawy się naprawdę mają. Dr David Wilkinson z LJMU i prof. Graeme Ruxton z Uniwersytetu w Glasgow doszli do intrygujących, jak sami podkreślają, wniosków. We wcześniejszych modelach nasi wirtualni przodkowie stali spokojnie, wystawiając twarz na łagodne powiewy bryzy, ale najnowszy model pozwolił im biegać po okolicy. To oznacza, że mogliśmy zbadać teorię, że ukształtowanie ludzkiego ciała jest adaptacją, która pozwoliła naszym przodkom przebiegać długie trasy przy wysokich temperaturach. Model pozwolił wykazać, że biegi wytrzymałościowe wymagają obfitego pocenia i obszarów nagiej skóry o powierzchni porównywalnej do występującej u współczesnych ludzi. Nasz model sugeruje, że chociaż pierwsi wyprostowani ludzie mogli sprawnie przechodzić z miejsca w miejsce lub biec przez chwilę – np. by uciec drapieżnikom – nie byli w stanie biec długo w pogoni za swoją kolacją. Ludzie są niezwykle potliwymi ssakami, a nasze wyniki pokazują, jak ważny jest wskaźnik pocenia w umożliwieniu długodystansowych biegów w tropikach – podkreśla dr Wilkinson. Wilkinson dodaje, że model sugeruje, że o ile Wheeler miał rację co do powodu utraty futra i rzeczywiście chodziło o chłodzenie, o tyle postawa wyprostowana wyewoluowała z innych powodów.
- 6 odpowiedzi
-
- David Wilkinson
- człowiek
-
(i 5 więcej)
Oznaczone tagami:
-
W przyszłym miesiącu w Wielkiej Brytanii zostanie przeprowadzony eksperyment, którego celem jest przetestowanie możliwości sztucznego schładzania klimatu przez człowieka. W jego ramach na wysokość 1 kilometra zostanie wpompowana woda. Będzie to pierwszy na taką skalę test systemu pompowania, który w przyszłości może zostać wykorzystany do umieszczania w stratosferze związków siarki. System pompowania miałby być wyniesiony np. przez olbrzymi balon wypełniony wodorem. Test to część programu Stratospheric Particle Injection for Climate Engineering (SPICE). Został on zainspirowany wybuchem wulkanu Pinatubo w 1991 roku. Do atmosfery trafiło wówczas 20 milionów ton związków siarki, ochładzając Ziemię o 0,5 stopnia Celsjusza przez 18 miesięcy. Jeśli obecny test się powiedzie, to być może w przyszłości będą wysyłane balony z podczepionymi rurami, którymi będzie tłoczona siarka. Od chwili, w której ludzie będą w stanie intencjonalnie zmieniać klimat dzieli nas jednak wiele dziesięcioleci. W ramach eksperymentu wypełniony helem balon wyniesie wąż, którym będzie pompowana woda z prędkością 1,8 litra na minutę. Cały eksperyment posłuży do zaprojektowania 20-kilometrowego systemu. Hugh Hunt, inżynier z University of Cambridge mówi, że dostarczanie siarki za pomocą balonu może być najbardziej efektywną metodą. Szacuje on, że docelowy system może kosztować około 5 miliardów dolarów. Przed dwoma laty Rosjanie testowali dostarczanie siarki do stratosfery samolotami, jednak koszt takiego systemu byłby około 20-krotnie wyższy. Część organizacji skupiających obrońców przyrody protestuje przeciwko testowi jak i samej geoinżynierii. Zwracają uwagę, że próba, jakkolwiek nieszkodliwa, jest tylko wstępem do działań, które mogą mieć zgubne skutki, jak np. powodować susze. W ubiegłym roku ONZ zakazał geoinżynierii zagrażającej bioróżnorodności. Niektóre z obaw ekologów podziela Alan Robock, meteorolog z Rutgers University. Z przeprowadzonych przezeń symulacji komputerowych wynika, że chmury składające się ze związkow siarki mogą osłabić monsuny pojawiające się w Azji i Afryce, a to oznacza mniejsze opady na terenach rolniczych, od których żyzności uzależnione są miliardy ludzi. Zdaniem Robocka jest zbyt wcześnie by przeprowadzać eksperymenty z zakresu geoinżynierii. Uważa on, że najpierw trzeba przeprowadzić liczne symulacje komputerowe, które powiedzą nam, jak takie działania mogą wpłynąć na obieg wody czy warstwę ozonową.
- 3 odpowiedzi
-
- ochłodzenie
- ocieplenie
-
(i 4 więcej)
Oznaczone tagami:
-
Naukowcy z Cornell University bezpiecznie pokonali barierę krew-mózg, co pomoże dostarczyć do mózgu leki na choroby neurodegeneracyjne czy nowotwory. Uczeni odkryli, że produkowana przez organizm adenozyna umożliwia przeniknięcie dużym molekułom przez barierę. Zauważyli, że gdy w komórkach tworzących barierę krew-mózg aktywuje się adenozynę, zostaje otwarta „brama" pozwalająca na przenikanie molekuł. Co prawda pierwsze badania wykonano na myszach, lecz receptory adenozyny odkryto również w komórkach ludzkich. Ponadto naukowcy z Cornell zauważyli, że już zaakceptowany przez FDA bazujący na adenozynie lek o nazwie Lexiscan, który jest wykorzystywany podczas badań obrazowych serca u ciężko chorych pacjentów, może na krótko otwierać barierę krew-mózg. Bariera krew-mózg składa się z wyspecjalizowanych komórek w naczyniach krwionośnych mózgu, które wybiórczo pozwalają niezbędnym molekułom, takim jak aminokwasy, tlen, glukoza czy woda na przenikanie do mózgu. Bariera działa tak dobrze, że dotychczas nie wiedziano, jak można dostarczyć do mózgu lekarstwa. Największym problemem w każdej chorobie neurologicznej jest niemożność jej leczenia, ponieważ nie możemy dostarczyć lekarstw - stwierdziła profesor immunologii Margaret Bynoe. Wielkie firmy farmaceutyczne od 100 lat próbują przekroczyć tę barierę bez szkody dla pacjenta - dodała uczona. Dotychczas próbowano przełamać barierę tak modyfikując lekarstwa, by ich molekuły przyczepiały się do tych molekuł, które mogą wnikać do mózgu. Taka taktyka nie sprawdziła się, gdyż zmodyfikowane lekarstwa nie działały. Wygląda na to, że użycie receptorów adenozyny jest sposobem na otwarcie wejścia. Skorzystamy z tego, by otwierać i zamykać barierę gdy będzie to potrzebne - stwierdziła Bynoe. Podczas testów na myszach do mózgu zwierząt udało się dostarczyć duże molekuły dekstranów oraz przeciwciała beta amyloidu i zaobserwowano, jak wiążą one płytki amyloidowe odpowiedzialne za powstawanie choroby Alzheimera. Podobne testy są prowadzone w kierunku leczenia stwardnienia rozsianego.
- 7 odpowiedzi
-
- choroby neurodegeneracyjne
- adenozyna
-
(i 3 więcej)
Oznaczone tagami:
-
Na Rensselaer Polytechnic Institute trwają testy nowej obiecującej architektury do przechowywania wodoru. Nanoostrza mogą być używane wielokrotnie, bardzo szybko uwalniają i przyjmują wodór, a pracują przy znacznie niższych temperaturach niż podobne systemy. Dzięki tym właściwościom mogą okazać się przydatne przy konstruowaniu samochodów napędzanych wodorem. Pierwsze nanoostrza na bazie magnezu stworzono w 2007 roku. W przeciwieństwie do nanowłókien są one asymetryczne. W jednym wymiarze są niezwykle wąskie, w innym bardzo szerokie. Pomiędzy nimi jest do 1 mikrometra wolnej przestrzeni. Przechowywanie wodoru wymaga zastosowania dużych powierzchni. Dzięki temu, że nanoostrza są asymetryczne, można tę duża powierzchnię uzyskać. Nanoostrza stworzono metodą chemicznego osadzania pod kątem z fazy gazowej. Nanostruktura jest uzyskiwana poprzez doprowadzenie materiału - w tym przypadku magnezu - do fazy gazowej, a następnie umożliwienie mu osadzania się na podłożu. Po ukończeniu procesu osadzania na powierzchni materiału umieszcza się metaliczne kryształy, które więżą wodór. Prototypowe ostrza pokryto palladem. Departament Energii wysoko zawiesił poprzeczkę dla technologii przechowywania wodoru. Wszystkie nowe materiały muszą pracować w niskich temperaturach, szybko uwalniać wodór, mieć rozsądną cenę oraz nadawać się do recyklingu - mówi Yu Liu, jeden z badaczy. Naukowcy odkryli, że nanoostrza uwalniają wodór już w temperaturze 67 stopni Celsjusza. Przy temperaturze 100 stopni Celsjusza cały wodór zostaje uwolniony w zaledwie 20 minut. Inne technologie wymagają zastosowania ponaddwukrotnie wyższej temperatury, by tak szybko uwolnić wodór. Badania przeprowadzone za pomocą dyfrakcji odbiciowej wysokoenergetycznych elektronów (RHEED - reflection high-energy electron diffraction) oraz temperaturowo programowalnej desorpcji (TPD - temperature programmed desorption) wykazały, że prototypowe nanoostrza są w stanie wytrzymać ponad 10 cykli ładowania i rozładowywania. Naukowcy będą teraz pracowali nad wydłużeniem żywotności ostrzy, gdyż wiedzą już, jaka jest przyczyna ich stopniowej degradacji.
-
Pewne marki są silnie kojarzone z krajami bądź kulturami i stają się ich ikonami, dlatego konsumenci reagują bardziej pozytywnie na kolejne produkty, które pasują do ich oczekiwań. Psycholodzy z University of Minnesota podają przykład kiełbasek grillowych Budweisera i ekspresu cappuccino Sony. Pierwsze zapewne by się przyjęły, drugi – nie za bardzo… Poza Sony i Budweiserem Carlos J. Torelli i Rohini Ahluwalia wymieniają jeszcze jedną symboliczną kulturowo markę – meksykańską Coronę. W ramach eksperymentu Amerykanie postanowili sprawdzić, co się stanie, kiedy symboliczna kulturowo marka stworzy nowe produkty. Ustalano, do jakiego stopnia produkt automatycznie uruchomi czyjąś wiedzę odnośnie do danej kultury. Proces ten działa niezależnie od konsumenckiej percepcji dopasowania między skojarzeniami dotyczącymi marki a cechami produktu lub wniosków związanych z doświadczeniem marki w danej dziedzinie, które ma wynikać z kraju pochodzenia. [Co istotne] może niezależnie od tych czynników wpłynąć na ocenę produktów stanowiących rozszerzenie dotychczasowej oferty. Torelli i Ahluwalia tłumaczą, że gdy marka pasuje do osobistego schematu kulturowego, ludzie w krótszym czasie/łatwiej przetwarzają dotyczące jej informacje i dlatego akceptują nowy produkt. Podczas badań ochotnicy żywili pozytywne odczucia w stosunku do spójnych kulturowo produktów, np. samochodów elektrycznych Sony. Mniej im się podobał toster tej samej firmy, o ekspresie cappuccino nie wspominając. Psycholodzy podkreślają, że efekt pojawiał się tylko wtedy, gdy symboliczne kulturowo były zarówno marka, jak i produkt.
-
- Rohini Ahluwalia
- Carlos J. Torelli
-
(i 3 więcej)
Oznaczone tagami:
-
Delfiny żyjące u wybrzeży Wiktorii, południowo-wschodniego stanu Australii, zostały oficjalnie uznane za osobny gatunek. Dr Kate Charlton-Robb z Monash University stwierdziła, że różnią się one znacznie od innych delfinów. Wyniki jej badań ukazały się w prestiżowym piśmie PLoS ONE. Początkowo Australijczycy sądzili, że nowe delfiny reprezentują któryś z podgatunków butlonosów, jednak porównania czaszek, cech zewnętrznych oraz różnych regionów DNA współczesnych populacji i okazów datowanych nawet na początek XX w. wykazały, że mamy do czynienia z unikatowymi zwierzętami. Charlton-Robb nadała im nazwę Tursiops australis. To fascynujące odkrycie, ponieważ od późnych lat XIX w. oficjalnie rozpoznano i opisano zaledwie 3 gatunki delfinów. Wszystko staje się jeszcze bardziej podniecające, jeśli weźmie się pod uwagę, że delfiny te żyją tuż pod naszym [Australijczyków] nosem, z tylko dwiema znanymi populacjami zamieszkującymi zatokę Port Phillip i jeziora Gippsland w Wiktorii. Badanie zespołu opierało się w dużej mierze na czaszkach z kolekcji muzealnych rozbudowywanych w XX w., głównie ze zbiorów Muzeum Wiktorii w Melbourne. Biolodzy chcą sprawdzić, czy istnieją więcej niż dwie populacje T. australis. Wiemy, że te unikatowe delfiny są ograniczone do bardzo małego regionu świata, w dodatku ich grupy są bardzo małe: w zatoce Port Phillip występuje ok. 100 delfinów, a w jeziorach Gippsland ok. 50.
-
Windows 8, którego premiera spodziewana jest w trzecim kwartale przyszłego roku, będzie dostarczany wraz z wbudowanym oprogramowaniem antywirusowym. Obecnie Microsoft udostępnia bezpłatnie Microsoft Security Essentials, jednak jest to osobny program, który użytkownik może pobrać z witryny koncernu z Redmond. Jednak od przyszłego roku MSE lub też jakieś oprogramowanie na nim oparte, zostanie wbudowane w system operacyjny. Graham Cluley z firmy Sophos uważa, że taka decyzja z pewnością poprawi bezpieczeństwo milionów użytkowników, gdyż znaczna część domowych komputerów jest bardzo słabo zabezpieczona. Jednak wbudowując program antywirusowy w system operacyjny Microsoft ściągnie sobie na głowę kłopoty. Można się spodziewać, iż producenci oprogramowania antywirusowego wysuną argument, że decyzja Microsoftu jest czynem nieuczciwej konkurencji, który niszczy rynek i jest szkodliwy dla klienta. Urzędy regulujące rynek mogą przychylić się do takiej argumentacji. Microsoft już w przeszłości miał problemy z urzędami i konkurencyjnymi firmami, którym nie podobało się, że umieścił w swoim systemie przeglądarkę Internet Explorer. Firma została zmuszona do udostępnienia w Europie wersji systemu bez przeglądarki oraz do wyświetlania użytkownikom wyboru ekranu browsera. Poza wbudowanym oprogramowaniem antywirusowym znajdziemy w Windows 8 inne mechanizmy zabezpieczeń. Wśród nich są „zmiany inżynieryjne", ułatwiające odnajdowanie luk systemowych i zabezpieczanie przed nimi czy Secure Boot, którego zadaniem jest ochrona przed zainfekowanymi klipsami USB. Można się również spodziewać, że jeśli Microsoft dołączy do systemu oprogramowanie antywirusowe, cyberprzestępcy będą pisali szkodliwy kod pod kątem ominięcia microsoftowego skanera.
- 10 odpowiedzi
-
- program antywirusowy
- Microsoft Security Essentials
-
(i 1 więcej)
Oznaczone tagami:
-
Nietoperze odpoczywają w gronie najlepszych znajomych
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Nietoperze wolą odpoczywać koło dobrych znajomych niż obcych osobników. Naukowcy z Center for Ecology & Hydrology stwierdzili, że choć nietoperze co jakiś czas zmieniają miejsce grzędowania, przenoszą się z grupą najlepszych znajomych. Tom August, który przemawiał na dorocznej konferencji Brytyjskiego Stowarzyszenia Ekologicznego, ujawnia, że biolodzy wykorzystali fakt, że w lasach hrabstwa Oxfordshire zaobrączkowane nietoperze zasiedliły ponad 1000 ptasich budek lęgowych. Odwołano się też do technik analitycznych, które zwykle wykorzystuje się do badania związków międzyludzkich. Chiropterolodzy skupili się na 2 gatunkach nietoperzy: nocku rudym (Myotis daubentonii) i nocku Natterera (Myotis nattereri). Badano zwierzęta, które w ciągu 5 lat uczyniły sobie z ptasich budek lęgowych letnie gniazdowiska. Na wysokości kości ramiennej umieszczono cienkie aluminiowe opaski z numerami. Dzięki temu stwierdzono, że choć nietoperze co kilka dni zmieniają miejsce odpoczynku, prawie zawsze przebywają w stałym gronie, tworząc zażyłe związki. Nasze studium pokazuje, że mimo częstych ruchów między gniazdowiskami, nietoperze tworzą długoterminowe przyjaźnie z innymi osobnikami i że towarzysze są członkami utrzymujących się przez wiele lat zamkniętych grup społecznych – wyjaśnia August. Kiedyś badanie grup społecznych nietoperzy było trudne ze względu na ich ruchliwość. Obecnie bardzo pomogło obrączkowanie i upodobanie latających ssaków do ptasich budek. W ten sposób wykazano, że populacje składają się z wielu grup z zastrzeżonym członkostwem i że terytorium każdej z grup w niewielkim stopniu nakłada się na terytoria innych grup. Doktorant z Uniwersytetu w Exeter uważa, że wyniki jego studium będzie można wykorzystać zarówno w ramach ochrony zagrożonych gatunków, jak i do zarządzania rozprzestrzenianiem się chorób, którymi ludzie mogą się zarazić od nietoperzy. -
Zamiarem prof. Lee Cronina z Uniwersytetu w Glasgow jest zrozumienie, jak życie pojawiło się na Ziemi i odtworzenie tego procesu. Ostatnio jego zespół zademonstrował nową metodę pozyskiwania iCHELLS, czyli modułowych redoksaktywnych nieorganicznych komórek chemicznych (od ang. Modular Redox-Active Inorganic Chemical Cells). Jednym słowem, Szkoci chcieliby doprowadzić do powstania życia z ewoluujących związków nieorganicznych, które można by też wykorzystać w medycynie. Całe życie na Ziemi opiera się na biologii organicznej (np. węglu w formie aminokwasów, nukleotydów, cukrów itp.), podczas gdy świat nieorganiczny uznaje się za nieożywiony. My próbujemy stworzyć samoreplikujące się, ewoluujące nieorganiczne komórki, które zasadniczo mogłyby być żywe. Można to nazwać biologią nieorganiczną – wyjaśnia Cronin. Będące odpowiednikami retikulum endoplazmatycznego przedziały (kompartmenty) da się uzyskać, wykorzystując wewnętrzne błony, kontrolujące przechodzenie energii i różnych substancji. Tak jak w żywych komórkach, pozwalałoby to na zachodzenie kilku procesów chemicznych naraz. Naukowcy tłumaczą, że iCHELLS mogłyby także przechowywać energię elektryczną, dlatego nietrudno wyobrazić sobie ich zastosowanie w różnych aplikacjach medycznych, np. czujnikach. Naszym zamiarem jest stworzenie złożonych komórek chemicznych z parażyciowymi właściwościami, które mogłyby pomóc w zrozumieniu, jak pojawiło się życie. Podejście to wykorzystalibyśmy do zdefiniowania nowej technologii opartej na ewolucji świata materialnego – rodzaju żyjącej technologii nieorganicznej. Cronin podkreśla, że bakterie są jednokomórkowymi mikroorganizmami ze związków organicznych, a on i jego zespół chcieliby opracować ewoluujące mikroorganizmy ze związków nieorganicznych. Gdyby się to udało, uzyskalibyśmy wgląd w ewolucję i wykazalibyśmy, że nie jest to wyłącznie biologiczny proces. Uzyskalibyśmy też dowód, że może istnieć życie nieoparte na węglu. Jak wyjawił prof. Cronin w wywiadzie udzielonym pismu The Guardian, dla niego biologia nieorganiczna jest próbą odpowiedzenia na pytanie o naturę materii we wszechświecie. Czy można uprawiać biologię poza chemią organiczną? Naukowiec uważa, że teoria Darwina jest wyspecjalizowaną teorią ewolucji, gdyż odnosi się wyłącznie do biologii i do życia opartego na węglu. Przed 4,5 mld lat nie było jednak życia... Pojawiają się więc 3 podstawowe pytania: 1) czym jest życie?, 2) czy biologia jest czymś specjalnym (i ewolucja ogranicza się do niej) i wreszcie 3) czy materia może ewoluować? Gdyby je zadać w odwrotnej kolejności, wiedzielibyśmy, że materia jest ewoluowalna, ponieważ formy biologiczne z niej powstają [...]. Na jakim etapie znajdują się obecnie badania zespołu z Glasgow? Zaczęły się prace nad nieorganicznymi komórkami, które mogłyby pomieścić złożone reakcje chemiczne. Trwają też próby nad doprowadzeniem do ich replikacji i podstawowej ewolucji. Można by sobie np. wyhodować balsam do opalania. Wystarczyłoby zahartować materiał, który początkowo rozkładałby się w środowisku kwaśnym (skóra ma tzw. kwaśny płaszcz), uodpornić go na gorąco i wysokie stężenia soli. Jeśli po kolei umieścilibyśmy go w tych 3 środowiskach, [...] moglibyśmy uzyskać wodoodporny preparat z filtrem UV z współczynnikiem wysokości ochrony równym 30, który zaczynając się rozkładać, zmieniałby kolor i przypominał o konieczności ponownego posmarowania. Cronin odcina się od prac Craiga Ventera, mówiąc, że ten ostatni wykorzystuje istniejące biologiczne cegiełki do budowy nowych form życia. [Ludzie tacy jak on] sięgają po tajemniczą maszynerię z tajemniczymi częściami, których w pełni nie rozumieją, ponieważ w grę wchodzi ewolucja, i próbują to wszystko reprogramować. To trochę niebezpieczne…
-
Administrator NASA Charles Bolden wraz z grupą kongresmenów ujawnili szczegóły dotyczące Space Launch System, systemu rakietowego, który ma w przyszłości wynosić ludzi i ładunki w przestrzeń kosmiczną. SLS będzie najpotężniejszym systemem rakietowym stworzonym przez człowieka. Posłuży on NASA do podróży poza orbitę okołoziemską. Pierwsi ludzie mają podróżować za pomocą SLS za 10 lat, a za 6 lat rakieta wystartuje po raz pierwszy w misję bezzałogową. Dotychczas najpotężniejszym systemem rakietowym był Saturn V, który jako jedyny wyniósł ludzi poza orbitę okołoziemską, transportując astronautów na Księżyc. Saturn V był w stanie wynieść na orbitę ładunek 130 ton. SLS ma być zdolny do wyniesienia poza orbitę ładunku od 77 do 110 ton, a na niską orbitę będzie mógł przetransportować być może nawet 165 ton. Obecnie najpotężniejsza używana przez ludzkość bezzałogowa rakieta jest w stanie przetransportować „zaledwie" 25 ton. Projekt SLS pochłonie kolosalne kwoty. W ciągu najbliższych 5 lat zostanie wydanych 18 miliardów dolarów. Będą one przeznaczone przede wszystkim na prace badawczo rozwojowe. Niektórzy szacują, że wraz z z kosztami innych prac oraz lotów testowych i produkcji docelowych rakiet NASA wyda na program SLS około 35 miliardów USD. Kwota ta nie jest przesadzona, gdyż, jak zauważa profesor Scott Hubbard ze Standord University, były wysoki rangą menedżer NASA, który brał udział w badaniu przyczyn katastrofy promu Columbia, Agencja ma długą historię przekraczania założonego budżetu. Uczony martwi się, że przeznaczanie tak dużych kwot na SLS może odbić się negatywnie na finansowaniu innych projektów badawczych. NASA chce jednak zaoszczędzić pieniądze dzięki temu, że astronautów na Międzynarodową Stację Kosmiczną nie będzie wysłała samodzielnie, za pośrednictwem prywatnych firm, od których wydzierżawi miejsce w ich pojazdach. Space Launch System będzie w dużej mierze korzystał z paliwa płynnego, co, obok samej koncepcji rakiety dotyczącej jej rozmiarów i kształtu oznacza powrót do koncepcji wykorzystywanych przed laty, gdy ludzkość lądowała na Księżycu i odrzucenie planów administracji George'a W. Busha, która proponowała rakiety na paliwo stałe i bazę na Księżycu, która byłaby etapem w podróży na Marsa. To powrót do przeszłości z bardziej niezawodną technologią na paliw płynne - mówi profesor Hubbard. Promy kosmiczne, których epoka właśnie się zakończyła, korzystały co prawda z paliwa płynnego, ale na orbitę były wynoszone przez rakietę na paliwo stałe. Rozwiązanie takie jest tańsze, ale mniej bezpieczne. Największym problemem jest tutaj bowiem niemożność zatrzymania silników po ich uruchomieniu. To właśnie awaria rakiety nośnej była przyczyną katastrofy Challengera w 1986 roku. W przypadku paliwa płynnego silniki można zatrzymać. Paliwo płynne jest wykorzystywane przez większość bezzałogowych rakiet towarowych na świecie. SLS będzie zatem tradycyjnym systemem jednokrotnego użytku. Każda misja będzie wymagała zbudowania nowej rakiety. Jeden z wysokich rangą urzędników NASA zdradził, że Agencja będzie budowała mniej więcej jeden SLS rocznie, a system będzie wykorzystywany jeszcze w latach 30. bieżącego stulecia. Powstanie w sumie 15 lub więcej rakiet.
-
Bozon Higgsa ma już coraz mniej miejsc, w których może się ukryć. Dwa zespoły badaczy pracujące w ramach eksperymentów CMS i Atlas na Wielkim Zderzaczu Hadronów wyeliminowały około 95% procent zakresu masy, w którym może występować Boska Cząsteczka. Higgs, jeśli istnieje, znajduje się pomiędzy 114 a 145 gigaelektronowoltów - powiedział podczas konferencji Lepton-Proton profesor Vivek Sharma z Uniwersytetu Kalifornijskiego w San Diego. Naukowiec jest odpowiedzialny za prace prowadzone w ramach CMS. Naukowcy już przed kilkoma tygodniami zaobserwowali pewne sygnały, które mogą świadczyć o znalezieniu bozonu Higgsa, jednak wciąż dysponują zbyt małą ilością danych, by mieć pewność, że odkryli to, czego szukali. Wchodzimy w bardzo ekscytującą fazę poszukiwań bozonu Higgsa. Jeśli istnieje on w zakresie 114-145 GeV, to wkrótce powinniśmy zacząć otrzymywać statystycznie znaczący nadmiar sygnałów w porównaniu z sygnałami tła. A jeśli ich nie otrzymamy, to należy całkowicie wykluczyć ten zakres masy. Tak czy inaczej idziemy w kierunku wielkiego odkrycia, które prawdopodobnie nastąpi przed końcem bieżącego roku - mówi Sharma.
- 8 odpowiedzi
-
- LHC
- Wielki Zderzacz Hadronów
-
(i 2 więcej)
Oznaczone tagami:
-
Inżynierowie z University of California, Berkeley, zaprezentowali sposób na zmniejszenie minimalnego napięcia koniecznego do przechowywania ładunku w kondensatorze. Im szybciej działa komputer, tym cieplejszy się staje. Tak więc kluczowym problemem w produkcji szybszych mikroprocesorów jest spowodowanie, by ich podstawowy element, tranzystor, był bardziej energooszczędny - mówi Asif Khan, jeden z autorów odkrycia. Niestety tranzystory nie stają się na tyle energooszczędne, by dotrzymać kroku zapotrzebowaniu na coraz większe moce obliczeniowe, co prowadzi do zwiększenia poboru mocy przez mikroprocesory - dodaje uczony. W laboratorium Sayeefa Salahuddina, w którym jest zatrudniony Khan, od 2008 roku trwają prace nad zwiększeniem wydajności tranzystorów. W końcu, dzięki wykorzystaniu ferroelektryków, udało się osiągnąć założony cel. Ferroelektryki przechowują zarówno ładunki dodatnie jak i ujemne. Co więcej, składują je nawet po odłączeniu napięcia. Ponadto ich bardzo przydatną cechą jest możliwość zmiany polaryzacji elektrycznej za pomocą zewnętrznego pola elektrycznego. Naukowcy z Berkeley udowodnili, że w kondensatorze, w którym ferroelektryk połączono z dielektrykiem, można zwiększyć ładunek zgromadzony dla napięcia o konkretnej wartości. To prototypowe prace, które pozwolą nam wykorzystać zjawisko ujemnej pojemności, by zmniejszyć napięcie wymagane przez współczesne tranzystory - mówi Salahuddin, który już będąc studentem zastanawiał się nad zjawiskiem ujemnej pojemności w ferroelektrykach. Jeśli wykorzystamy to zjawisko do stworzenia niskonapięciowego tranzystora bez jednoczesnego zmniejszania jego wydajności i szybkości pracy, możemy zmienić cały przemysł komputerowy - dodaje uczony. Naukowcy połączyli ferroelektryk cyrkonian-tytanian ołowiu (PZT) z dielektrykiem tytanianem strontu (STO). Następnie do PZT-STO przyłożyli napięcie elektryczne i porównali jego pojemność elektryczną do pojemności samego STO. W strukturze z ferroelektrykiem zaobserwowaliśmy dwukrotne zwiększenie różnicy potencjałów elektrycznych przy tym samym przyłożonym napięciu, a różnica ta może być jeszcze większa - mówią uczeni. Zwiększająca się gęstość upakowania tranzystorów i zmniejszające się ich rozmiary nie pociągnęły za sobą odpowiedniego spadku wymagań co do poboru prądu potrzebnego do pracy. W temperaturze pokojowej do 10-krotnego zwiększenia ilości prądu przepływającego przez tranzystor wymagane jest napięcie co najmniej 60 miliwoltów. Jako, że różnica pomiędzy stanami 0 i 1 w tranzystorze musi być duża, to do sterowania pracą tranzystora konieczne jest przyłożenie napięcia nie mniejszego niż mniej więcej 1 wolt. To wąskie gardło. Prędkość taktowania procesorów nie ulega zmianie od 2005 roku i coraz trudniej jest dalej zmniejszać tranzystory - mówi Khan. A im mniejsze podzespoły, tym trudniej je schłodzić. Salahuddin i jego zespół proponują dodać do architektury tranzystorów ferroelektryk, dzięki któremu można będzie uzyskać większy ładunek z niższego napięcia. Takie tranzystory będą wydzielały mniej ciepła, więc łatwiej będzie je schłodzić. Zdaniem uczonych warto też przyjrzeć się ferroelektrykom pod kątem ich zastosowania w układach DRAM, superkondensatorach czy innych urządzeniach do przechowywania energii.
- 1 odpowiedź
-
- kondensator
- tranzystor
-
(i 2 więcej)
Oznaczone tagami:
-
Wdychanie dwa razy dziennie koncentratu insuliny wydaje się spowalniać, a czasem nawet odwracać symptomy utraty pamięci u osób z łagodnymi zaburzeniami poznawczymi i początkami choroby Alzheimera. Pod wpływem spreju do nosa z hormonem poprawia się nie tylko pamięć, ale i zdolność myślenia oraz ogólne funkcjonowanie pacjentów. Na razie badania przeprowadzono na niewielkiej próbie 104 osób. Wyniki pilotażowego eksperymentu naukowców z amerykańskiego Departamentu ds. Weteranów (VA) ukazały się w piśmie Archives of Neurology. Wcześniejsze studia wykazały, że niski poziom insuliny w mózgu może przyczyniać się do rozwoju alzheimeryzmu. Mając to na uwadze, dr Suzanne Craft postanowiła sprawdzić, co się stanie, gdy przywróci się w mózgu prawidłowe stężenie hormonu. W ramach najnowszego badania insulinę dostarczano szybko, w dodatku bezpośrednio do mózgu, co zapobiegało skutkom ubocznym, np. podwyższonemu poziomowi hormonu w całym organizmie. Amerykanie analizowali przypadki 104 osób, u których występowały łagodne zaburzenia poznawcze lub choroba Alzheimera o niewielkim bądź umiarkowanym zaawansowaniu. Badanych podzielono na 3 grupy. Pierwszej (36 osobom) dwa razy dziennie podawano 20 jednostek międzynarodowych insuliny, drugiej (38 pacjentom) 40, a trzeciej (30 osobom) sól fizjologiczną. We wszystkich trzech przypadkach stosowano dozownik donosowy. Eksperyment trwał 4 miesiące. Przed i po jego zakończeniu oceniano pamięć i inne procesy poznawcze, a także sprawność funkcjonalną. U niektórych osób przed i po wykonywano nakłucie lędźwiowe oraz badania obrazowe mózgu. Podawanie 20 IU insuliny poprawiało pamięć, a obie dawki hormonu pozwalały na zachowanie sprawności funkcjonalnej i poznawczej. Gdy pamięć zbadano w połowie eksperymentu (po 2 miesiącach), wyniki pierwszej grupy już się poprawiły. Poprawa była widoczna po 4 miesiącach leczenia oraz 2 miesiące po jego zakończeniu. U pacjentów z grupy zażywającej wyższe stężenia insuliny nie stwierdzono polepszenia pamięci, a w grupie zażywającej placebo nastąpiło pogorszenie pamięci. Różnice między grupami insulinową i placebo były niewielkie, ale istotne statystycznie. Chorzy byli oceniani przez opiekunów, którzy stwierdzili, że na insulinie byli oni stabilni pod względem codziennego funkcjonowania, a także umiejętności poznawczych i społecznych, a zażywając sól fizjologiczną, ulegli pogorszeniu. W podgrupie przechodzącej dodatkowe badania okazało się, że osoby wdychające insulinę miały mniej neurotoksycznych blaszek amyloidowych oraz innych markerów alzheimeryzmu. Niestety, działanie insuliny zanikało po jakimś czasie od zakończenia terapii - dwa miesiące po opiekunowie wszystkich 3 grup zauważali podobną deteriorację codziennego funkcjonowania.
-
- dr Suzanne Craft
- sprej donosowy
-
(i 3 więcej)
Oznaczone tagami:
-
Niektóre nietoperze mają o wiele większą kontrolę nad echolokacją niż wcześniej sądzono. Badania nad rudawką nilową (Rousettus aegyptiacus) wykazały, że ssaki te mogą m.in. manipulować szerokością wiązki dźwięków. Naukowcy porównują to do dostosowywania przez ludzi wielkości okienka uwagi. Rudawki nilowe żyją w złożonych i zróżnicowanych środowiskach: chronią się w jaskiniach, a ponieważ żywią się owocami, muszą się jakoś poruszać wśród gałęzi drzew. W ramach eksperymentu zespół Nachuma Ulanovsky'ego z Instytutu Nauki Weizmanna oraz Cynthii Moss z University of Maryland zauważył, że R. aegyptiacus dostosowują się do otoczenia, stosując dwie taktyki – wspomnianą na początku regulację szerokości wiązki wysokich dźwięków, a także modyfikację ich natężenia. Naukowcy nauczyli 5 rudawek nilowych wykrywania i lądowania na plastikowej sferze wielkości mango. Umieszczano ją w różnych miejscach dużego, ciemnego pomieszczenia, w którym zamontowano 20 mikrofonów. W jednym ze scenariuszy symulowano najeżony przeszkodami las. Dookoła niby-mango między 4 drążkami rozciągnięto dwie sieci. Nietoperze musiały przelecieć korytarzem, którego szerokość i ukształtowanie zmieniały się z próby na próbę. Badacze odkryli, że w obecności wielu przeszkód za pomocą podwójnych sonarowych pulsów ssaki obejmowały 3-krotnie większą powierzchnię niż w przypadku otwartego terenu. Oznacza to, że między pulsami można było wyznaczyć większy kąt. Dodatkowo rosło natężenie dźwięków. Naukowcy tłumaczą, że szersze pole widzenia pozwalało rudawkom śledzić położenie mango i drążków jednocześnie. Niewykluczone, że zjawisko to ogranicza się wyłącznie do R. aegyptiacus, które potrafią bardzo szybko poruszać językiem.
-
- Nachum Ulanovsky
- okienko uwagi
- (i 7 więcej)
-
Microsoft udostępnił developerską wersję systemu Windows 8. Może ją pobrać każdy, bez żadnych ograniczeń. To wyraźna zmiana taktyki. Gdy w październiku 2008 roku po raz pierwszy udostępniono szerzej wstępną wersje Windows 7, mogli z niej skorzystać tylko uczestnicy microsoftowej Professional Developers Conference. Oczywiście kilka godzin po konferencji system był już dostępny w sieciach P2P. Teraz koncern z Redmond udostępnił każdemu Windows 8 w wersji wcześniejszej od Beta. Możemy wybrać pomiędzy trzema edycjami systemu. Wersja 32-bitowa oznacza konieczność ściągnięcia 2,8 gigabajta danych. Osoby, które chcą przetestować wersję 64-bitową będą musiały pobrać 3,6 GB. Przygotowano też wersję 64-bitową wraz z narzędziami dla developerów, takimi jak Microsoft Visual Studio 11 Express oraz SDK. To jednak oznacza konieczność pobrania 4,8 gigabajtów danych. Wszystkie edycje zostały przygotowane w formacie ISO, zatem przed zainstalowaniem należy wypalić je na płycie DVD lub wgrać na klips USB. Wymagania sprzętowe dla obecnych wersji to 1 gigabajt RAM (2GB dla edycji 64-bitowej) oraz, odpowiednio, 16 i 20 gigabajtów wolnego miejsca na dysku twardym. Osoby, chcące wykorzystać wersję z narzędziami developerskimi będą musiały nadpisać obecny system operacyjny (XP, Vista lub Windows 7). Wersje bez narzędzi pozwalają na zachowanie wszystkich plików i ustawień z dotychczasowego systemu. Warto też przypomnieć, że udostępnionej wersji nie można będzie odinstalować i przywrócić działanie poprzednio zainstalowanego systemu. Konieczne jest zatem posiadanie płyty ratunkowej bądź instalacyjnej obecnie wykorzystywanego OS-u. Microsoft, tradycyjnie już, ostrzega przeciętnego użytkownika przed instalowaniem wczesnych wersji programów. Firma podkreśla, że pełne ryzyko i odpowiedzialność bierze na siebie osoba instalująca i przypomina, iż wczesne wersje mogą być niestabilne i mogą pracować inaczej niż gotowy program. Koncern odradza instalowanie wczesnych wersji w środowiskach produkcyjnych.
- 7 odpowiedzi
-
- pobranie
- wersja developerska
-
(i 1 więcej)
Oznaczone tagami:
-
W Szkole Medycznej Uniwersytetu Stanforda opracowano metodę obiektywnej oceny bólu. Bazuje ona na analizie wzorców aktywności mózgu. Zespół Seana Mackeya stosował połączenie funkcjonalnego rezonansu magnetycznego i zaawansowanych algorytmów komputerowych. Dzięki temu aż w 81% przypadków udawało się trafnie przewidzieć ból wywołany temperaturą u zdrowych ochotników. Ludzie od bardzo dawna poszukują wykrywacza bólu. Mamy nadzieję, że ostatecznie będziemy mogli wykorzystać naszą technologię do lepszego wykrywania i leczenia przewlekłego bólu – opowiada Mackey. Amerykanie podkreślają, że w przyszłości trzeba będzie ustalić, czy metoda sprawdzi się w odniesieniu do rozmaitych rodzajów bólu i czy pozwoli na dokładne różnicowanie między bólem a innymi pobudzającymi emocjonalnie stanami, np. lękiem. Trzeba też pamiętać, że na razie udało się trafnie ocenić tylko ból termiczny, w dodatku w warunkach laboratoryjnych. Naukowcy od dawna próbowali obiektywnie mierzyć ból, ale się to nie udawało. Dopiero postępy w zakresie technik obrazowania dały pewną nadzieję na fizjologiczny pomiar bólu. Mackey wyjaśnia, że dzięki temu udałoby się rozwiązać wiele problemów, zwłaszcza u pacjentów bardzo młodych i bardzo starych, którzy nie są w stanie opisać natężenia bólu. Pomysł studium dotyczącego bólometru pojawił się na sympozjum organizowanym w 2009 r. przez Stanford Law School. Dwaj naukowcy z laboratorium Mackeya, Neil Chatterjee (obecnie doktorant na Northwestern University) i Justin Brown (obecnie prof. biologii w Simpson College), przeprowadzili badania na 8-osobowej grupie. W czasie, gdy sonda cieplna parzyła ich przedramiona, powodując umiarkowany ból, poddali ich badaniu fMRI. Utrwalono wzorce aktywności mózgu w obecności i przy braku bólu. Zostały one zinterpretowane przez algorytm komputerowy (zastosowano sieć SVM w wersji liniowej). Na tej podstawie stworzono model bólowy, który przetestowano na kolejnej 8-osobowej grupie. Poprosiliśmy komputer, by stwierdził, jak wygląda ból. Potem mogliśmy zmierzyć, jak dobrze maszyna radziła sobie z jego wykrywaniem – tłumaczy Chatterjee. Poradziła sobie naprawdę dobrze, trafiając w 81% przypadków.
- 17 odpowiedzi
-
- fMRI
- metody obrazowania
-
(i 5 więcej)
Oznaczone tagami:
-
Mrówki Camponotus cylindricus z Borneo zachowują się jak bojownicy-samobójcy. Robotnice chwytają obcych, a będąc już w morderczym uścisku, eksplodują i wydzielają lepką substancję, która zabija i obrończynię, i napastnika. Johan Billen z Katolickiego Uniwersytetu w Leuven postanowił zbadać histologię struktur obronnych wykorzystywanych przez mrówki. Stwierdził, że są one homologami gruczołów żuchwowych innych gatunków mrówek (potwierdza to ogólna organizacja anatomiczna). Przerostowi ulegają wyłącznie zbiorniczki do przechowywania wydzieliny. Billen odkrył, że de facto większość ciała służy do magazynowania zabójczej zielonożółtej cieczy. Belgowie tłumaczą, że C. cylindricus wydają się wyposażone w odpowiednik przyspiesznika w broni kulowej. Podczas badań wystarczyło bowiem lekko dotknąć odwłoka pęsetą, by doszło do pęknięcia błony międzysegmentowej. Entomolodzy zauważyli, że komórki wydzielnicze są ograniczone do głowy. Uzyskane przez nich wyniki, które opublikowano w piśmie Acta Zoologica, sugerują, że zbiorniczki wypełniają się zabójczą cieczą stopniowo. Badania sprzed 7 lat wykazały, że w mieszance znajdują się alkohole, związki alifatyczne oraz hydroksyacetofenony.
-
- błona międzysegmentowa
- komórki wydzielnicze
- (i 7 więcej)
-
NTT DoCoMo połączy siły z Samsungiem i grupą japońskich firm, by wspólnie rzucić Qualcommowi wyzwanie na rynku układów scalonych dla telefonów komórkowych. W skład grupy wejdą tacy giganci jak Fujitsu, NEC i Panasonic. Jej zadaniem będzie rozwijanie układów scalonych dla urządzeń przenośnych. Obecnie rynek ten jest zdominowany przez amerykańską firmę Qualcomm. Konsorcjum ma rozpocząć prace w przyszłym roku. Będzie się ono zajmowało rozwijaniem, projektowaniem i sprzedażą kości, których produkcja zostanie zlecona zewnętrznemu podmiotowi. Obecnie wiadomo, że w nowy projekt zostanie zainwestowanych około 30 miliardów jenów, czyli około 390 milionów USD.
-
- układ scalony
- telefon komórkowy
-
(i 5 więcej)
Oznaczone tagami:
-
Muzycy słyszą w starszym wieku lepiej od niemuzyków. Choć więc wydaje się, że gra w zespole może uszkadzać słuch, badania naukowców z Baycrest pokazały, że tak nie jest. Kanadyjczycy chcieli sprawdzić, czy kontynuowane przez całe życie umuzycznienie chroni przed typową dla procesu starzenia utratą słuchu. Skupili się na jednym z mechanizmów zaliczanych do ośrodkowych procesów przetwarzania słuchowego, który leży u podłoża rozumienia mowy. Starsze osoby często wspominają o problemach z rozumieniem mowy, gdy w tle występuje szum, a kilka osób wypowiada się naraz (tzw. cocktail party problem). Odkryliśmy, że bycie muzykiem może się przyczyniać do lepszego słyszenia w starszym wieku przez opóźnienie niektórych związanych ze starzeniem zmian w ośrodkowych procesach przetwarzania słuchowego – chwali się dr Benjamin Rich Zendel. W ramach studium 74 muzyków w wieku od 19 do 91 lat i 89 niemuzyków w wieku od 18 do 86 lat wzięło udział w 4 badaniach audiologicznych. Za muzyka uznawano kogoś, kto zaczął ćwiczyć do 16. r.ż. i robił to do dnia testu; warunkiem udziału w studium było także opanowanie materiału stanowiącego odpowiednik co najmniej 6 lat formalnego kształcenia muzycznego. Niemuzycy nie grali na żadnym instrumencie. Eksperyment prowadzono w dźwiękoszczelnym pomieszczeniu. Ochotników poddano audiometrii tonalnej (ang. pure tone audiometry), w ramach której określano najsłabszy słyszany przez nich dźwięk. Poza tym badano rozdzielczość czasową, czyli zdolność wykrywania krótkiej przerwy w ciągłym dźwięku. Kolejny test koncentrował się na zdolności oceny związków między różnymi częstotliwościami dźwięku (dzięki temu umiemy oddzielać dźwięki występujące naraz w głośnym otoczeniu); podczas badania z szeregu harmonicznego usuwa się sąsiednie składowe albo dodaje stały zakłócacz. Ostatni test dotyczył rozumienia mowy przy obecności szumu tła. Kanadyjczycy zauważyli, że bycie muzykiem nie zapewnia przewagi w audiometrii tonalnej (muzycy nie słyszeli znacząco cichszych dźwięków), ale przy pozostałych 3 testach różnica już się pojawiała, w dodatku z wiekiem stawała się coraz wyraźniejsza. Oczywiście, na korzyść muzyków. Do wieku 70 lat przeciętny muzyk był w stanie rozumieć mowę w hałaśliwym otoczeniu tak samo dobrze jak przeciętny niemuzyk w wieku 50 lat. Zendel dodaje, że 3 testy wypadające na korzyść muzyków wiążą się z przetwarzaniem słuchowym w mózgu, a wyznaczanie progu słyszenia już nie. Ćwiczenie słuchu da się więc porównać z ćwiczeniem pamięci. Im więcej, tym lepiej…
-
Trwają prace nad położeniem pierwszego od 10 lat nowego kabla transatlantyckiego. Inwestycja warta 300 milionów dolarów została podjęta po to, by czas oczekiwania na przepływ pakietu danych pomiędzy Londynem a Nowym Jorkiem uległ skróceniu o... 6 milisekund. Łącze Hibernian Express o długości 6021 kilometrów będzie należało do firmy Hibernia Atlantic. Ma ona zamiar sprzedawać przedsiębiorstwom superszybkie połączenia, które są szczególnie ważne dla banków i firm handlowych. Hibernia szacuje, że tego typu przedsiębiorstwa będą skłonne zapłacić za jej łącze nawet 50-krotnie więcej, niż wynosi obecna cena konkurencyjnych łączy. Obecnie liderem transatlantyckiej prędkości jest kabel AC-1 firmy Global Crossing, który zapewnia transmisję w 65 milisekund. Szacuje się, że dla dużego funduszu hedgingowego przyspieszenie transmisji danych o 1 milisekundę może być warte nawet 100 milionów dolarów rocznie.
-
Zastąpienie węgla gazem nie wpłynie znacząco na klimat?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
W przyszłym miesiącu w piśmie Climatic Change Letters ukażą się wyniki badań, z których wynika, że zastąpienie węgla gazem nie będzie miało większego wpływu na klimat. Badania zostały przeprowadzone przez U.S. National Center for Atmospheric Research (NCAR). Dowiadujemy się z nich, że jeśli nawet do roku 2050 połowa spalanego węgla zostanie zastąpiona naturalnym gazem, to co prawda znacząco zmniejszy się emisja dwutlenku węgla, ale nie wpłynie to na światowy klimat. Spalanie naturalnego gazu przyczynia się do około 50% redukcji emisji dwutlenku węgla w porównaniu ze spalaniem węgla. Do atmosfery trafi zatem mniej gazu, wywołującego efekt cieplarniany. Jednak wraz ze spalaniem węgla do atmosfery trafiają też inne zanieczyszczenia, jak np. dwutlenek siarki, które przyczyniają się do chłodzenia planety. Ponadto naturalny gaz w większości składa się z metanu. Nowe badania wykazują zaś, że podczas wydobycia gazu ziemnego do atmosfery trafia więcej metanu niż dotychczas sądzono. Tom Wigley, autor badań prowadzonych przez NCAR, na podstawie symulacji komputerowych stwierdził, że nawet jeśli uda się zatrzymać wszystkie wycieki metanu podczas wydobycia gazu, to i tak do roku 2050 globalne temperatury będą rosły. Jeśli zaś wycieki utrzymają się na obecnym poziomie, to pierwsze pozytywne efekty rezygnacji z węgla na rzecz gazu Ziemia odczuje dopiero w przyszłym stuleciu i będą miały one stosunkowo niewielkie znaczenie. Wigley podkreśla jednocześnie, że nie dysponujemy dokładnymi danymi dotyczącymi emisji metanu czy długofalowej emisji dwutlenku siarki, która w dużym stopniu zależy od jakości węgla. Ponadto w przyszłości mogą się zmieniać zarówno technologie jak i regulacje prawne. Dlatego też do wyników badań należy podchodzić z ostrożnością. Jednak z dużym prawdopodobieństwem można przyjąć, że rezygnacja z węgla oznaczałaby powstawanie mniejszej liczby czynników wpływających na ocieplenie oraz ochłodzenie klimatu.-
- ocieplenie
- metan
-
(i 5 więcej)
Oznaczone tagami:
-
Dużo tłuszczu + brak enzymu = niewydolność serca
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Dieta wysokotłuszczowa szkodzi. Ale za pośrednictwem jakich mechanizmów? Podczas eksperymentów na myszach Amerykanie wykazali, że przy braku enzymu HDAC3, który reguluje ekspresję genów istotnych dla metabolizmu tłuszczów i wytwarzania energii, dochodzi do rozwoju kardiomiopatii przerostowej ze wszystkim jej konsekwencjami. Zespół doktora Mitchella Lazara ze Szkoły Medycznej Uniwersytetu Pensylwanii zademonstrował, że u myszy pozbawionych HDAC3 pod wpływem wysokotłuszczowej karmy dochodzi do szybkiego przyrostu grubości mięśnia sercowego i niewydolności serca. Jeśli zostanie potwierdzone, że u ludzi występuje podobne zjawisko, w przyszłości modulowanie aktywności enzymu stanie się celem oddziaływania nowej klasy leków. Lazar i inni zauważyli, że u myszy pozbawionych HDAC3 dochodzi do osłabienia ekspresji genów kontrolujących przetwarzanie tłuszczów i produkcję energii. Gdy takie zwierzęta jedzą pokarm wysokotłuszczowy, ich serce nie jest w stanie pozyskać wystarczająco dużo energii i dlatego nie pompuje skutecznie krwi. Te same myszy tolerują normalną dietę równie dobrze jak gryzonie niezmutowane. HDAC3 jest pośrednikiem, który zabezpiecza myszy przed spustoszeniami wywołanymi dietą wysokotłuszczową – wyjaśnia Lazar, dodając, że enzymy HDAC kontrolują ekspresję genów, regulując dostępność chromatyny. Kiedy zwierzę je, zmienia się metabolizm. Pokarm nie modyfikuje jednak genomu, ale tzw. epigenom, czyli molekularne markery na chromatynie, które oddziałują na ekspresję genów przez kształtowanie stopnia upakowania. Wcześniejsze badania naukowców z University of Texas Southwestern Medical Center zademonstrowały, że jeśli HDAC3 usunie się z tkanki serca w trakcie rozwoju płodowego, u zwierząt pojawia się kardiomiopatia przerostowa, doprowadzająca zwykle do zgonów w pierwszych miesiącach życia. Wiedząc, co dzieje się w przypadku embrionów, Lazar i inni chcieli sprawdzić, co się stanie, gdy do delecji (usunięcia) genu HDAC3 dojdzie już po narodzinach. Na zwykłej karmie zmodyfikowane genetycznie gryzonie żyły tak samo długo jak zwykłe myszy, choć w ciągu życia w tkance ich serca akumulował się tłuszcz. Gdy jednak stosowano dietę wysokotłuszczową, stan zdrowia gryzoni szybko się pogarszał i w ciągu kilku miesięcy umierały z powodu kardiomiopatii przerostowej i niewydolności serca. Aby zrozumieć, czemu się tak dzieje, zespół porównał ekspresję genów u młodych mutantów i ich rodzeństwa. Wtedy właśnie zauważono, że dochodzi do spadku ekspresji genów istotnych dla metabolizowania tłuszczu. W przyszłości ekipa chce zbadać związek diety i epigenetyki na poziomie molekularnym. Trzeba też ustalić, czy u miłośników typowej zachodniej diety zachodzą takie same zjawiska jak u myszy.-
- niewydolność
- kardiomiopatia przerostowa
-
(i 4 więcej)
Oznaczone tagami:
-
Początek budowy nowego pojazdu kosmicznego
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
NASA rozpoczęła budowę pierwszej kapsuły do załogowej eksploracji głębokiego kosmosu. W ostatni piątek w Michoud Assembly Facility w Nowym Orleanie połączono pierwsze elementy Orion Multi-Purpose Crew Vehicle (MPCV). Budowana właśnie kapsuła będzie pierwszym pojazdem z rodziny MPCV, który zostanie przetestowany w kosmosie. To pierwszy krok milowy w realizacji ambitnych planów wysłania ludzi głębiej w przestrzeń kosmiczną niż kiedykolwiek wcześniej - oświadczył rzecznik NASA, David Weaver. MPCV bazuje na projekcie Orion, o którym już wcześniej informowaliśmy. Był on częścią programu Constellation zakładającego powrót ludzi na Księżyc do roku 2020. Prezydent Obama zlikwidował program Constellation, wyznaczając NASA nowe zadanie - lądowanie ludzi na asteroidzie do roku 2025 oraz na Marsie do roku 2035. Już wcześniej NASA i Lockheed Martin zbudowały liczne makiety Oriona, które zostały wykorzystane podczas testów na Ziemi oraz do opracowania systemów awaryjnej ewakuacji. Teraz powstaje pojazd, który będzie testowany w przestrzeni kosmicznej. Na jego potrzeby opracowano nową technikę spawania, która łączy elementy znacznie mocniej, niż wszystkie dotychczas wykorzystywane technologie. MPCV zostanie wyniesiony w przestrzeń kosmiczną na pokładzie nowo opracowywanej rakiety o nazwie Space Launch System. NASA zapowiada, że jeśli rakieta nie będzie gotowa na czas, do wystrzelenia MPCV wykorzystany zostanie inny pojazd. Po zakończeniu budowy korpusu, MPCV zostanie przetransportowany do Kennedy Space Center, gdzie zainstalowana zostanie osłona termiczna oraz niezbędne wyposażenie. Nie wiadomo, kiedy będzie miał miejsce pierwszy testowy lot MPCV.- 1 odpowiedź
-
- Constellation
- Orion
-
(i 3 więcej)
Oznaczone tagami: