-
Liczba zawartości
37655 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
249
Zawartość dodana przez KopalniaWiedzy.pl
-
Naukowcy z Uniwersytetu Nottingham donoszą o dokonaniu odkrycia, które może wyjaśniać molekularny mechanizm powstawania nowych gatunków. Jak pokazują na przykładzie roślin żyjących w naturalnych warunkach, przyczyną zjawiska może być przemieszczanie się fragmentów DNA pomiędzy różnymi fragmentami genomu. Odkrycia dokonano podczas badania rzodkiewników pospolitych (Arabidopsis thaliana) - pospolitych roślin zielnych, występujących także w Polsce. Jak dowiedli naukowcy z Uniwersytetu Nottingham, w genomach różnych odmian tego gatunku zdarza się, że pojedyncze geny zmieniają swoje położenie na niciach DNA. Efektem tych zmian może być brak zdolności do tworzenia płodnych krzyżówek osobników należących do dwóch populacji. Przyczyną komplikacji jest struktura DNA, które w typowej komórce nie składa się z jednej cząsteczki, lecz z wielu osobnych tworów zwanych chromosomami. Jeżeli jeden z nich otrzyma lub utraci duży fragment DNA, a następnie zostanie przekazany do komórek rozrodczych, powstałe w taki sposób potomstwo może wykazywać "niezgodność" informacji genetycznej pochodzącej od obojga organizmów rodzicielskich. Może to powodować albo natychmiastowe obumarcie takich krzyżowek, albo uniemożliwienie im dalszego rozmnażania. Hipotetyczną możliwość zajścia takiego zjawiska przewidywano od dawna, lecz nigdy dotąd nie udało się go zaobserwować w naturze. Przełom nastapił podczas badania osobników A. thaliana należących do dwóch odmian: Columbia (Col) oraz Cape Verde Island (Cvi). Zajmujących się rzodkiewnikami naukowców zastanawiało, dlaczego nie krzyżują się one ze sobą, mimo iż przynależność do jednego gatunku powinna gwarantować taką możliwość. Dokładne analizy wykazały, że przyczyną było właśnie przeniesienie jednego z ważnych genów pomiędzy dwoma chromosomami. Gdy rośliny ewoluują, ich geny mogą być kopiowane, przenoszone w obrębie genomu i inaktywowane. Ogranicza to ich zdolność do tworzenia płodnych krzyżówek, a także, z biegiem czasu, może zakończyć się powstaniem odrębnego gatunku. Jesteśmy zachwyceni, że nasze studium zademonstrowało to zjawisko w akcji, tłumaczy prof. Malcolm Bennett, szef zespołu badającego to zagadnienie. O swoim odkryciu badacze z Uniwersytetu Nottingham poinformowali na łamach czasopisma Science.
- 4 odpowiedzi
-
- krzyżowanie
- mutacja
-
(i 6 więcej)
Oznaczone tagami:
-
Dobroczynny wpływ zielonej herbaty na ludzkie zdrowie nie ulega wątpliwości. Jeżeli jednak zdarzy się komuś zachorować, warto pamiętać, że w pewnych sytuacjach może ona wchodzić w niekorzystne interakcje z lekami. Jak donoszą naukowcy z Uniwersytetu Połudnowej Kalifornii (USC), właśnie takie zjawisko zachodzi podczas podawania jednego z najnowocześniejszych leków przeciwnowotworowych, bortezomibu. Naukowcy z USC skupili się w swoim studium nad galusanem epigallokatechiny (ang. Epigallocatechin gallate - EGCG), związkiem uznawanym za kluczowy dla leczniczych właściwości zielonej herbaty oraz jej ekstraktów. Jak przyznali autorzy badania, wyniki całkowicie ich zaskoczyły, gdyż spodziewali się, że podawanie EGCG może stać się atrakcyjnym sposobem na zwiększenie skuteczności bortezomibu. Okazało się jednak, że jest dokładnie odwrotnie. Ekstrakty z zielonej herbaty oraz inne produkty pochodzenia roślinnego są wychwalane jako remedium na skutki uboczne chemioterapii nowotworów. Niestety, wielu pacjentów zapomina o tym, że mogą one, jak każda substancja chemiczna dostająca się do organizmu człowieka, wchodzić w nieprzewidywalne interakcje z podawanymi lekami. Właśnie dlatego, jak podkreślają naukowcy i lekarze, konieczne jest prowadzenie wnikliwych badań nad suplementami diety, nawet jeśli wydają się one niegroźne. Zaskakującego odkrycia dokonano podczas jednoczesnego podawania bortezomibu i EGCG myszom chorym na szpiczaka mnogiego oraz glejaka. Ponieważ, ku zaskoczeniu naukowców, składnik zielonej herbaty znacznie osłabiał skuteczność leczenia przeciwnowotworowego, zbadano dokładnie właściwości chemiczne obu związków. Analizy te wykazały, że EGCG, podobnie jak pokrewne z nim związki z grupy polifenoli, wchodzi w reakcję chemiczną z cząsteczkami bortezomibu i blokuje ich aktywność. Najważniejszy wniosek płynący z naszego studium to silna sugestia, aby pacjenci przechodzący terapię lekiem Velcade [taką nazwę handlową nosi bortezomib w niektórych krajach - przyp. red.] odstawili zieloną herbatę, a w szczególności wszelkie preparaty zawierające jej skoncentrowane składniki, podsumowuje dr Axel H. Schönthal, główny autor badań. Wiele wskazuje na to, że przeprowadzony eksperyment wyjaśnia, dlaczego ekstrakt z zielonej herbaty łagodzi efekty uboczne chemioterapii. Jak tłumaczy dr Schönthal, oczywistym jest, że zablokowanie aktywności leku powoduje także zniesienie jego działań ubocznych. Chwilowy komfort jest jednak, niestety, związany z szybszym postępem choroby. Na pocieszenie autor studium informuje, że prowadzone są kolejne testy z wykorzystaniem innych leków. Ich wstępne wyniki sugerują, że EGCG może mieć bardzo korzystny wpływ na skuteczność niektórych typów terapii.
- 23 odpowiedzi
-
- szpiczak mnogi
- nowotwór
-
(i 5 więcej)
Oznaczone tagami:
-
Naukowcy pracujący z hanowerskim wykrywaczem fal grawitacyjnych GEO 600 od wielu miesięcy zastanawiali się nad dziwnym szumem, rejestrowanym przez ich urządzenie. Teraz Craig Hogan, fizyk z Fermilab, zaproponował teorię, która może oznaczać, iż GEO 600 dokonał najważniejszego odkrycia w fizyce w ciągu ostatnich 50 lat. Hogan, który niedawno został dyrektorem Centrum Astrofizyki Cząstek, uważa, że szum pochodzi z granicy czasoprzestrzeni, z miejsca w którym czas i przestrzeń przestają być kontinuum. Poza tym punktem czas i przestrzeń tworzą jakby liczne osobne ziarna, zamiast gładkiej wstęgi. Jeśli wyniki uzyskane przez GEO 600 są tym, co podejrzewam, to wszyscy żyjemy w wielkim kosmicznym hologramie - mówi Hogan. Teoria hologramu dobrze tłumaczy niektóre paradoksy związane z czarnymi dziurami czy podstawowymi pojęciami dotyczącymi budowy Wszechświata. Jednak niektórzy naukowcy proponują jej rozszerzenie na całą rzeczywistość. Już w latach 90. ubiegłego wieku fizycy Leonard Susskind i noblista Gerard Hooft zasugerowali taką właśnie możliwość. Jednak jej przyjęcie oznaczałoby, że zgadzamy się z koncepcją, iż całe nasze codzienne doświadczenie to nic innego jak holograficzne odbicie fizycznego procesu zachodzącego w odległej dwuwymiarowej przestrzeni. Skąd jednak Susskind i Hooft wzięli swój pomysł? Pochodził on od samego Stephena Hawkinga. W połowie lat 70. Hawking teoretycznie przewidział, że czarne dziury parują i z czasem zanikają. To parowanie to tzw. promieniowanie Hawkinga. Problem jednak w tym, że promieniowanie to nie zawiera żadnych informacji o czarnej dziurze, a więc gdy ona wyparuje, wszystkie dane dotyczące gwiazdy, z której czarna dziura powstała, są tracone. To z kolei było sprzeczne z szeroko przyjętym poglądem, że informacja nie może zostać zniszczona. Mówimy tutaj o paradoksie informacyjnym czarnej dziury. Jacob Bekenstein z Uniwersytetu Hebrajskiego zaproponował następnie rozwiązanie paradoksu. Miało ono polegać na tym, że entropia czarnej dziury, która jest synonimem informacji, którą dziura zawiera, jest proporcjonalna do powierzchni jej horyzontu zdarzeń. Horyzont zdarzeń, to teoretyczny punkt, poza którym nie ma już powrotu i wszystko co go przekroczy, jest wchłaniane przez czarną dziurę. Na podstawie teorii Hawkinga i Bekensteina, teoretycy stwierdzili, że mikroskopijne fale kwantowe na horyzoncie zdarzeń mogą kodować informacje pochodzące z czarnej dziury. Oznacza to, że informacja 3D o gwieździe, z której powstała czarna dziura może zostać zakodowana w dwuwymiarowym horyzoncie zdarzeń czarnej dziury. Susskind i Hooft rozszerzyli to na cały wszechświat. Stwierdzili bowiem, że ma on również swój horyzont zdarzeń - jest nim miejsce, do którego zdążył się rozszerzyć w ciągu swojego istnienia. Kilku naukowców zajmujących się teorią strun zgadza się z takim poglądem. Teoria holograficzna jest bardzo pociągająca dla naukowców badających czas i przestrzeń. Teoretycy od dawna przewidują, że w najmniejszej skali dochodzi do zaburzeń czasoprzestrzeni i staje się ona "ziarnista", a nie ciągła. Jednak mowa tutaj o skali równej długości Plancka, czyli 10-35 metra. To setki miliardów miliardów razy mniej niż wynosi wielkość protonu. Innymi słowy, jest to wielkość, której nie jesteśmy w stanie zaobserwować. Jednak teoria holograficzna to zmienia. Hogan zdał sobie bowiem sprawę z tego, że jeśli wszechświat jest hologramem, to mamy do czynienia z czasoprzestrzenną sferą, której powierzchnia nie jest ciągła, a ziarnista. Każde z "ziaren" ma wielkość równą długości Plancka i zawiera bit informacji. Jednak, z teorii holograficznej wynika, że ilość informacji zawartej w "ziarnach" na powierzchni musi być równa ilości informacji zawartej w samej sferze. A przecież wnętrze sfery jest znacznie bardziej pojemne, niż jej powierzchnia. Ilość informacji, która zmieści się w obu częściach nie może być więc równa. Hogan ma jednak pomysł na rozwiązanie tego problemu. Uważa on, że ilość informacji może być równa jedynie wówczas, gdy "ziarna" tworzące wszechświat są znacznie większe niż długość Plancka. Zdaniem Hogana, ta najmniejsza skala, w której dochodzi do zaburzeń czasoprzestrzeni to nie 10-35 metra, a 10-16. "Ziarna" tworzące nasz wszechświat są zatem większe, niż sądzimy i, co najważniejsze, jest to wielkość dostępna dla współczesnych instrumentów badawczych. Amerykański uczony wiedział, że spośród pięciu istniejących wykrywaczy fal grawitacyjnych, to właśnie GEO 600 może być na tyle czuły, by potwierdzić jego teorię. Skontaktował się więc z zespołem naukowców pracujących z GEO 600 i przedstawił im swoje przewidywania. Otrzymał stamtąd odpowiedź, że urządzenie wykrywa szum o częstotliwości 300-1500 Hz. Jego pochodzenia uczeni nie potrafią wyjaśnić. Właściwości tego szumu były dokładnie takie, jak przewidywał Hogan w swojej teorii. Na razie jednak uczeni powstrzymują się pod formułowaniem ostatecznych ocen. Sam Hogan mówi, że może przecież istnieć inne źródło szumu, niż to zgodne z jego teorią. Wykrywacze fal grawitacyjnych są tak czułe, że istnieje wiele źródeł zakłóceń - przepływające chmury, odległy ruch drogowy, ruchy sejsmiczne itp. Na razie naukowcy nie potrafią wytłumaczyć pewnego szczególnego szumu, który pojawia się w GEO 600. Uczeni planują dalsze udoskonalanie instrumentu i kolejne eksperymenty, które, jak mają nadzieję, pozwoli wyeliminować większość tajemniczego szumu. Jeśli jednak nadal będzie się on pojawiał tam, gdzie obecnie, teoria Hogana stanie się jeszcze bardziej prawdopodobna. Co prawda szum powstający z zaburzeń czasoprzestrzeni może ostatecznie uniemożliwić wykrycie fal grawitacyjnych, ale samo jego odkrycie będzie znacznie ważniejsze niż odkrycie fal, których szuka GEO 600.
- 32 odpowiedzi
-
- czasoprzestrzeń
- wykrywacz fal grawitacyjnych
- (i 4 więcej)
-
Microsoft poinformował, że na rynek trafi sześć wersji systemu Windows 7. Dwie najważniejsze to Home Premium dla użytkownika domowego i Professional dla firm. Mike Ybarra, menedżer odpowiedzialny za linię Windows, stwierdził: Podstawowa zmiana jest taka, że każda następna wersja jest pochodną poprzedniej. Oznacza to, że gdy użytkownik zdecyduje się na aktualizację do wersji wyższej, zachowa wszystkie funkcje i narzędzia wersji niższej. W Windows Vista takiej ciągłości nie zachowano i np. w wersji Business nie było funkcji Media Center, obecnej w wersji Home Premium Najuboższą wersją Windows 7 będzie edycja Starter. Wbrew temu, co pisało wiele serwisów informacyjnych, Ybarra poinformował, że będzie ona dostępna na całym świecie, a nie tylko w państwach rozwijających się. Starter nie powstanie w wersji pudełkowej. Będzie dostępna tylko w formie preinstalowanej przez producentów komputerów i ograniczona do specyficznego typu sprzętu. Wersja Starter umożliwi uruchomienie do trzech aplikacji jednocześnie. Nie będą tu liczone aplikacje działające w tle, takie jak oprogramowanie antywirusowe. W Starterze nie znajdziemy też Aero. Microsoft chce wypozycjonować tę wersję na światowy rynek netbooków - słabo wyposażonych notebooków, używanych głównie do łączenia się z Internetem i prostych prac biurowych w podróży. Wersją przeznaczoną tylko na rynki rozwijające się będzie Home Basic. To również zubożona wersja, która, jak stwierdził Ybarra, ma trafić do osób stawiających pierwsze kroki z Windows na tanim pececie. Trzecią edycją będzie skierowana dla użytkownika domowego Windows 7 Home Premium. Zostanie ona wyposażona we wszystkie możliwe funkcje multimedialne, obsługę ekranów wielodotykowych, możliwość tworzenia grup roboczych, zestawiania sieci, odtwarzania filmów czy nagrywania DVD. Druga z podstawowych wersji to Windows 7 Professional. W porównaniu z Home Premium zostanie wzbogacona o funkcje przydatne w małej firmie. Jej użytkownik skorzysta więc z szerszych możliwości konfiguracji sieci (jak np. podłączenie do domeny), zaawansowane funkcje tworzenia kopii zapasowych przez sieć czy możliwość skorzystania z Location Aware Printing - technologii, która rozpoznaje, że komputer zmienił położenie (na przykład użytkownik przyniósł go z pracy do domu) i został podłączony w innym miejscu, a więc korzysta z innej drukarki. System ustawi jako domyślną odpowiednią drukarkę. Dla swoich największych partnerów Microsoft przygotował wersję Enterprise, która będzie dostępna jedynie na podstawie oddzielnych licencji. W edycji tej znajdą oni zaawansowane systemy ochrony danych, jak na przykład BitLocker (system pełnego szyfrowania dysku twardego), BitLocker To Go (rozszerzenie BitLockera na przenośne urządzenia do składowania danych, np. klipsy USB), BranchCase (tworzy lokalną kopię aplikacji i danych udostępnianych np. przez główne serwery firmy, przez co praca i dostęp do nich stają się łatwiejsze) czy AppLocker (umożliwia administratorowi ustalenie "białej listy" programów, które mogą być uruchamiane na komputerze). Edycja Enterprise zostanie wyposażona też w możliwość uruchomienia systemu z wirtualnego dysku twardego (VHD). W końcu ukaże się też wersja Windows 7 Ultimate, która będzie zawierała wszystkie narzędzia i technologie dostępne w innych edycjach. Ybarra określił ją jako edycję dla "entuzjastów, którzy chcą mieć wszystko". Ultimate będzie więc de facto wersją Enterprise, ale skierowaną na rynek konsumencki, a więc na zwykłej licencji, która nie będzie wymagała zakupu określonej liczby kopii. W mediach ukazała się informacja, że wersja Ultimate nie będzie dostępna tak łatwo, jak inne edycje. Podobno została ona pomyślana jako aktualizacja Home Premium i Professional, co oznacza, że użytkownik najpierw będzie musiał posiadać jedną z wymienionych edycji, a następnie dokupić aktualizację. Ceny poszczególnych wersji Windows 7 nie są jeszcze znane.
- 12 odpowiedzi
-
- Ultimate
- Enterprise
-
(i 5 więcej)
Oznaczone tagami:
-
Gra z ludzkim bądź komputerowym przeciwnikiem w inny sposób pobudza ludzki mózg. Jeśli więc chcemy osiągnąć określone rezultaty, to wybór partnera nie powinien być dziełem przypadku (BMC Neuroscience). Zespół doktora Kracha i profesora Kirchera z Uniwersytetu w Marburgu przeprowadził badanie obrazowe mózgu ochotników, którzy grali w grę hazardową. Wierzyli oni, że muszą się zmierzyć z żywą istotą lub maszyną, ale nie mogli sprawdzić, kto lub co siedzi naprawdę po drugiej stronie. Chodziło o określenie wpływu płci (bycie kobietą bądź mężczyzną) i przeciwnika (rywalizacja z człowiekiem lub komputerem) na wzorce aktywacji przyśrodkowej kory przedczołowej (ang. medial prefrontal cortex, mPFC). Wybrano właśnie mPFC, ponieważ jest to rejon związany z tworzeniem tzw. teorii umysłu, a więc modelu myśli, intencji oraz emocji innych ludzi. Podczas gry można było współpracować z konkurentem, by podzielić się potem wygraną lub oszukać go i zgarnąć wszystko dla siebie. Gdy na oszustwo decydowały się obie strony, wszyscy przegrywali. Choć badani o tym nie wiedzieli, w rzeczywistości zawsze grali z komputerem, który w każdej rundzie działał losowo. Niemcy zaobserwowali, że pewne rejony mózgu aktywowały się zawsze, bez względu na to, czy ochotnik myślał, że gra z człowiekiem, czy z maszyną. Były to przyśrodkowa kora przedczołowa, przedni zakręt obręczy (ang. anterior cingulate cortex, ACC) oraz prawa okolica zbiegu płatów skroniowego i ciemieniowego (ang. temporoparietal junction, TPJ). To właśnie te obszary odpowiadały za generowanie teorii umysłu. Kiedy ochotnik był jednak przekonany, że gra z drugim człowiekiem, nasilała się aktywność rejonów związanych z planowaniem i przewidywaniem: mPFC oraz ACC. Okazało się też, że w porównaniu do kobiet, u mężczyzn dochodziło do silniejszego pobudzenia różnych rejonów, w tym okolic przyśrodkowoczołowych, kiedy sądzili oni, że grają z człowiekiem. Wg Kracha, można to wyjaśnić na kilka sposobów. Badanym mówiono, że ludzkim przeciwnikiem jest zawsze przedstawiciel płci brzydkiej, a w ramach wcześniejszych studiów wykazano, że kobiety i mężczyźni obierają inne strategie w obecności rywala mężczyzny. Niewykluczone też, że panie lepiej wyczuwały, że w rzeczywistości zawsze konkurują z maszyną, przez co ich mózg cały czas angażował się w podobnym stopniu.
- 1 odpowiedź
-
- przyśrodkowa kora przedczołowa
- gra hazardowa
-
(i 5 więcej)
Oznaczone tagami:
-
IBM otrzymał rządowe zlecenie na budowę 20-petaflopsowego superkomputera Sequoia. Najbliższe lata będą więc dla Błękitnego Giganta bardzo pracowite, gdyż, jak już informowaliśmy, ma też zbudować ponad 10-petaflopsowy Blue Waters. Jakby jeszcze tego było mało, firmie zlecono stworzenie komputera Dawn o mocy 500 teraflopsów, który będzie wspomagał Sequoię. Wszystkie trzy supermaszyny mają rozpocząć pracę już w 2011 roku. Sequoia powstaje na potrzeby National Nuclear Security Administration, która jest częścią Departamentu Energii. Komputer będzie wykorzystywany do symulowania testów broni jądrowej. Superkomputer stanie w Lawrence Livermoer National Laboratory, a korzystać będą z niego też Laboratoria Narodowe Los Alamos i Sandia. Specyfikacja komputera Sequoia przewiduje wyposażenie go w 16 petabajtów pamięci, 98 304 węzły i 16 milionów rdzeni procesora Power. Dotychczas barierę petaflopsa, czyli biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę przekroczyły dwa komputery - IBM-owski RoadRunner (1,105 PFlops) oraz Jaguar (1,059 PFlops) firmy Cray. Sequoia będzie od nich 20-krotnie szybszy.
- 5 odpowiedzi
-
- Power
- superkomputer
-
(i 3 więcej)
Oznaczone tagami:
-
Komputery mądrzejsze od ludzi to pomysł rodem z literatury science fiction. Jednak NASA i Google już postanowiły przygotować się na dzień, w którym stanie się on rzeczywistością. Wiosną bieżącego roku na terenie kampusu NASA w Dolinie Krzemowej ruszy Singularity University - uczelnia, której zadaniem będzie przygotowanie naukowców do epoki, w której inteligencja maszyn przewyższy ludzką. Nazwa uniwersytetu została zaczerpnięta z koncepcji futurologa Raya Kurzweila, który mianem Singularity określił czekającą nas wkrótce epokę gwałtownego rozwoju technologicznego. Jego zdaniem w przyszłości technologia będzie miliony razy bardziej zaawansowana niż obecnie, co nieuchronnie doprowadzi do głębokich zmian. Maszyny mogą wykorzystać sztuczną inteligencję do zwiększenia własnych możliwości, doskonalenia się i w końcu, prześcignięcia ludzkiej inteligencji. Sam Kurzweil zostanie pierwszym rektorem nowej uczelni. Głównym zadaniem uniwersytetu będzie przewidywanie zmian, które mogą zajść w przyszłości i przygotowanie się na nie. Jeśli je przewidzimy, możemy tak pokierować rozwojem technologii, by nie zaszkodził on ludzkości. Studenci nowej uczelni będą poszukiwali sposobów na tworzenie takich maszyn, które pomogą nam rozwiązać trapiące ludzkość problemy - ubóstwo, głód, globalne ocieplenie czy wyczerpywanie się surowców energetycznych. NASA udostępni na potrzeby uczelni pomieszczenia w Ames Research Centre, a Google przeznaczy na jej działalność ponad milion dolarów. Inne firmy zadeklarowały już wpłaty w wysokości co najmniej 250 000 USD.
- 4 odpowiedzi
-
- maszyny mądrzejsze od ludzi
-
(i 2 więcej)
Oznaczone tagami:
-
Międzynarodowy zespół naukowców odkrył na terenie Kolumbii skamieniałości olbrzymiego węża sprzed 60 mln lat. Titanoboa ważył ponad tonę (ok. 1100 kg) i mierzył 13 metrów, mógłby więc z powodzeniem straszyć w horrorach. Badacze dowodzą, że zwierzęta te prześlizgiwały się przez krajobraz Ameryki Południowej podczas paleocenu, czyli jakieś 5-6 mln lat po wyginięciu tyranozaurów. Olbrzymie węże nie były jadowite. Jako dusiciele żywiły się upolowanymi żółwiami i krokodylami. Nowy gatunek jest największym znanym wężem, żyjącym bądź skamieniałym. Najokazalszymi wężami są obecnie pytony oraz anakondy, które zazwyczaj osiągają długość do ok. 6 m, a od czasu do czasu mają nawet 9 m. Skamielina uznawana dotąd za najdłuższą mierzyła 10 m. Nowy wąż był 13-metrowym gigantem, zdeklasował więc wszystkich – podlicza David Polly, geolog z Indiana University. Południowoamerykańskie doniesienia pomogą określić wpływ temperatur na rozmiary zwierząt zmiennocieplnych.
- 1 odpowiedź
-
Nadwrażliwość na perfumy jest częstą postacią alergii kontaktowej u dorosłych. Lina Hagval, doktorantka z Uniwersytetu w Göteborgu, wykazała, że wbrew pozorom, ludzie są uczuleni nie tylko na substancje syntetyczne, lecz również na naturalne olejki zapachowe, np. lawendowy. Choć mało kto o tym wie, aż 1 na 5 dorosłych mieszkańców Europy Północnej cierpi na jakąś postać alergii kontaktowej, najczęściej na nikiel. W przypadku perfum, nawet jeśli początkowo wydają się one nieszkodliwe, sytuacja może się zmienić diametralnie, gdy ich składniki przereagują z powietrzem (samoutlenianie) lub z enzymami skóry. Obecnie wiele osób zakłada, że produkty naturalne zawsze są zdrowe i właściwie nie mogą być niebezpieczne. Tak, niestety, nie jest. Wg producentów ekologicznych kosmetyków, olejki eteryczne nie powinny szkodzić, gdyż zawierają zapobiegające autooksydacji przeciwutleniacze. Hagvall postanowiła zbadać właściwości olejku lawendowego oraz geraniolu – organicznego związku z grupy alkoholi terpenowych, którego zapach kojarzy się ze świeżością; jest on głównym składnikiem olejku różanego, cytrynowego i pelargoniowego. Gdy olejek lawendowy zaczynał reagować z kwasami, tworzyły się uczulające związki. Geraniol sam w sobie był jedynie lekko alergizujący, lecz kiedy wchodził w reakcję z enzymami skórnymi/podlegał autoutlenianiu, tworzył się geranial (inaczej cytral a, czyli izomer trans tego związku, o intensywnym zapachu przypominającym cytrynę), a ten już nie jest taki nieszkodliwy. Szwedka podsumowuje, że egzemę powoduje o wiele więcej perfum niż dotąd przypuszczano. Wygląda więc na to, że wszystkie "zapachy" trzeba ponownie przetestować pod kątem ewentualnych reakcji z powietrzem czy enzymami.
-
- alergia kontaktowa
- reakcja
-
(i 7 więcej)
Oznaczone tagami:
-
Czy pępek jest tylko i wyłącznie blizną? Aki Sinkkonen z Uniwersytetu w Helsinkach uważa, że nie i stanowi on wskaźnik formy oraz potencjału reprodukcyjnego kobiety w wieku rozrodczym (The FASEB Journal). Ważny jest wygląd zarówno pępka, jak i otaczającej go skóry. Sugeruję, że symetria, kształt i umiejscowienie pępka mogą stanowić podstawę wnioskowania o potencjale rozrodczym kobiet, włącznie z ryzykiem dziedziczonych po matce anomalii płodu. Jak wiadomo, pępki bywają bardzo różne. Przejrzawszy literaturę przedmiotu, Sinkkonen stwierdził, że ludzie preferują te o kształcie litery "t", owalne i poziome. By się im podobały, nie mogą być za bardzo ukryte ani wystające czy przepastne. Nic więc dziwnego, że czeska modelka Karolina Kurkova, która ma jedynie szczątkowo zarysowany pępek, na wszystkich zdjęciach pojawia się z blizną "pożyczoną" od którejś z koleżanek. Fin zakłada, że skoro stan pępowiny, sznura łączącego płód z łożyskiem, jest istotny dla przebiegu ciąży, to wszystkie anomalie i zaburzenia znajdą odzwierciedlenie w wyglądzie pozostającej po niej blizny. Wiele ssaków nie ma widocznego pępka. My mamy i nie wydaje się, by pełnił on jakąkolwiek oczywistą funkcję poza sygnałową. Sinkkonen uważa, że gdyby jego hipotezy się potwierdziły, można by mierzyć kobiece pępki, by określić ryzyko zaburzeń przebiegu ciąży bądź wad płodu.
-
Wytwarzanie hybrydowych zarodków ludzko-zwierzęcych, uzyskiwanych z komórek jajowych zwierząt wzbogaconych o ludzkie DNA, uznawane jest za jeden z najważniejszych celów nowoczesnej biologii. Niestety, pomimo starań wielu naukowców, żadnemu zespołowi nie udało się jeszcze osiągnąć upragnionego celu. Wygląda na to, że mieszanie ze sobą komórek ludzkich i zwierzęcych nie programuje komórki jajowej poprawnie, tłumaczy lakonicznie dr Robert Lanza, badacz specjalizujący się w hodowli hybrydowych zarodków. Niestety, naukowiec nie potrafi wyjaśnić, dlaczego tak się dzieje, choć geny odpowiedzialne za rozwój embrionu wydają się działać prawidłowo. Próby wytwarzania międzygatunkowych zarodków podejmowane są od około dziesięciu lat. Jest o co walczyć: embriony takie byłyby doskonałym źródłem komórek macierzystych, zaś badania na nich byłyby znacznie mniej kontrowersyjne od używania naturalnych embrionów ludzkich. Co więcej, organizmy samic wielu ssaków wytwarzają komórki jajowe w znacznie większej liczbie, niż ma to miejsce u kobiet. Aby wytworzyć hybrydowy embrion, teoretycznie wystarczy pobrać komórkę jajową dowolnego ssaka, usunąć z niej DNA i zastąpić je DNA ludzkiej komórki jajowej, a następnie zapłodnić ją przy użyciu ludzkiego plemnika. Niestety, w praktyce jest znacznie gorzej: zarodki ludzko-mysie obumierają już po pierwszym podziale komórkowym, zaś ludzko-krowie i ludzko-królicze - niewiele później. Mieliśmy piękne malutkie hybrydowe zarodki, lecz to wciąż nie działało, nieważne jak ciężko pracowaliśmy, żali się dr Lanza. Badacz nie złożył jednak broni i sięgnął po najnowszą broń: globalną analizę ekspresji genów, czyli metodę pozwalającą na monitorowanie aktywności praktycznie wszystkich genów obecnych w danej komórce w różnych fazach dojrzewania embrionu. Przeprowadzone przez dr. Lanzę analizy wykazały, że hybrydy ludzko-zwierzęce charakteryzują się zaburzeniami aktywności licznych genów, co prowadzi do przedwczesnego obumierania zarodków. Nie to jest jednak najdziwniejsze. Okazuje się, że obumierają także hybrydy ludzko-ludzkie, choć w ich przypadku sekwencja "uruchamiania" i "wyłączania" poszczególnych genów wydaje się zachodzić prawidłowo. Dlaczego? Tego, niestety, nie wie nikt...
- 60 odpowiedzi
-
Jaki jest idealny sposób na zdobycie "monopolu" na zamieszkiwanie na określonym obszarze? Wyjątkowo dobrym pomysłem wydaje się być dostosowanie się do przeżycia przy ogromnym niedoborze substancji odżywczej uznawanej za jedną z najważniejszych dla organizmów żywych. Właśnie to uczyniły gatunki żyjące w wyjątkowo niegościnnych wodach Morza Sargassowego. Odkrycia dokonali naukowcy z Woods Hole Oceanographic Institution (WHOI), prywatnego instytutu zajmującego się badaniami oceanograficznymi. Jak donoszą odkrywcy, zaobserwowane przez nich komórki wykazują cechy świadczące o doskonałym dostosowaniu do warunków skrajnie obniżonej zawartości fosforu i azotu w wodzie. Odnalezione w Morzu Sargassowym organizmy należą do kokolitoforów oraz okrzemek, jednokomórkowych składników planktonu roślinnego. Jak twierdzą naukowcy z WHOI, błony komórkowe tych glonów są pozbawione fosfolipidów - związków z grupy tłuszczowców, uznawanych dotąd za niezbędny składnik tych struktur. Zamiast tego, organizmy te wytwarzają lipidy bogate w betainę - związek o strukturze zbliżonej do jednego z aminokwasów wchodzących w skład białek, lecz niezawierający fosforu. Pozwala to na bardzo istotne ograniczenie zapotrzebowania na ten pierwiastek, który w wodach Morza Sargassowego dostępny jest w wyjątkowo niewielkich ilościach. Gdy wydawało się, że dokonano przełomowego odkrycia, okazało się, że... ewolucja zaszła jeszcze dalej. Okazało się bowiem, że jeszcze lepiej dostosowane do niedostatku podstawowych składników są sinice (cyjanobakterie) - organizmy zdolne do przeprowadzania fotosyntezy, lecz zaliczane ze względu na budowę komórek do królestwa bakterii. Jak wykazały badania, budowa błon komórkowych sinic jest jeszcze prostsza, niż u kokolitoforów i okrzemek. Zamiast zawierającej azot betainy, cząsteczki lipidów otaczające ich komórki powstają przy udziale związku zwanego SQDG, zawierającego siarkę. Pozwala to cyjanobakteriom nie tylko na przeżycie przy obniżonej zawartości fosforu, lecz także na ominięcie kolejnego poważnego ograniczenia, jakim jest skrajnie niskie stężenie azotu. Zdolność do życia w środowisku niemal całkowicie pozbawionym związków azotu i fosforu, dwóch pierwiastków uznawanych za podstawowe budulce żywych komórek, zapewnia sinicom niezwykłą przewagę w ewolucyjnym wyścigu o zasoby środowiska. Zdaniem jednego z autorów odkrycia, Benjamina van Mooya, zebrane informacje mogą odegrać istotną rolę w badaniach nad funkcjami życiowymi planktonu i całych ekosystemów morskich. Jedyny problem mają teraz autorzy podręczników biologii, którzy muszą napisać od nowa przynajmniej niektóre rozdziały swoich dzieł...
-
Popularny Google Earth został wzbogacony przez swojego producenta o moduł Ocean, który umożliwia wirtualne nurkowanie, oglądanie trójwymiarowej podwodnej rzeźby terenu oraz zapoznawanie się z przygotowanymi przez oceanografów informacjami na temat morskich głębin. W Google Ocean nie mogło oczywiście zabraknąć materiałów filmowych najsłynniejszego badacza oceanów, z którymi zapoznamy się dzięki "Podwodnemu światowi Jacques'a Cousteau". Zainteresowani ekologią znajdą też moduły o wiele mówiących nazwach "Martwe strefy", "Obserwacja owoców morza" czy "Ryby niezagrożone wyginięciem", gdzie znajdziemy informacje o wpływie człowieka na faunę oceanów. Najnowsza, piąta już wersja Google Earth, została wzbogacona nie tylko o Google Ocean. Dodano do niej kilka innych funkcji, takich jak "Wirtualna podróż w czasie", która prezentuje archiwalne zdjęcia satelitarne wielu obszarów planety. Dzięki nim zobaczymy jak wyglądała budowa stadionów w Niemczech przed Mistrzostwami Świata w 2006 roku, jak wysycha jezioro Czad, czy sprawdzić tempo topnienia lodowca Grinnell w Montanie. Google Earth 5.0 jest dostępne w 40 językach, w tym po polsku.
-
Już w drugiej połowie bieżącego roku mają zakończyć się prace nad AMD Fusion Render Cloud - superkomputerem graficznym, którego moc obliczeniowa ma przekroczyć barierę 1 petaflopsa. Ta niezwykle wydajna maszyna ma, jak zapewnia AMD, zrewolucjonizować sposób tworzenia i dystrybucji grafiki oraz obrazu wideo. Dzięki niej użytkownik będzie mógł jadąc z pracy do domu rozpocząć oglądanie filmu na wyświetlaczu telefonu komórkowego, a gdy dotrze do domu, dokończy go oglądać na ekranie telewizora. Wszystko dzięki bezprzewodowej łączności z Internetem, która pozwoli też np. na wykorzystanie komórki do grania w najbardziej zaawansowane gry bez konieczności instalacji dodatkowego oprogramowania. Nie wspominając już o ograniczeniach technicznych samego telefonu. Obsługą gry zajmie się AMD Fusion Render Cloud, zbudowany z wykorzystanie procesorów Phenom II, chipsetów AMD 790 i kart graficznych ATI Radeon HD 4870. Maszyna powstaje we współpracy z firmą OTOY, autorem zaawansowanego oprogramowania dla multimediów. Użytkownikowi wystarczy dostęp do Sieci i przeglądarka. Resztą zajmie się superkomputer, który w czasie rzeczywistym prześle do wyświetlenia gotowy obraz. Zdalne renderowanie umożliwi odtwarzanie obrazu HD na urządzeniach przenośnych, które ze względów technologicznych nie są w stanie przechowywać i przetwarzać tak olbrzymiej ilości danych.
- 4 odpowiedzi
-
- Phenom II
- superkomputer
-
(i 1 więcej)
Oznaczone tagami:
-
Co łączy proces produkcji układów scalonych z opracowywanymi przez NASA silnikami jonowymi? I chipy, i silniki jonowe mogą zostać udoskonalone dzięki najnowszemu osiągnięciu uczonych z Lawrence Berkeley National Laboratory (LBNL). Opracowali oni lepszą metodę napylania jonowego. W przemyśle półprzewodnikowym metalowe warstwy są nanoszone na podłoże krzemowe właśnie za pomocą napylania jonowego. Technika ta polega na wykorzystaniu plazmy, uzyskiwanej najczęściej z argonu, którą umieszcza się za pomocą pola magnetycznego pomiędzy warstwą metalu a produkowanym obwodem. Plazma wybija jony z metalu, a te przepływają do obwodu, gdzie są osadzane. Obecnie najczęściej wykorzystywaną techniką napylania jonowego jest opracowane w latach 90. impulsowe magnetronowe napylanie wysokosprawne (HIPIMS - High Power Impulse Magnetron Sputtering), która znacznie zwiększyło liczbę jonów metali osadzających się na podłożu, co z kolei polepsza jakość pokrycia. Jednak nawet w HIPIMS prąd wyładowczy ma ponaddziesięciokrotnie wyższe natężenie, niż jony docierające do krzemowego podłoża. Specjaliści z LBNL wykorzystali HIPIMS i odwrócili sytuację: wbrew intuicji natężenie jonów w pewnych warunkach znacznie przewyższa natężenie prądu wyładowczego. Oczywiście większą liczbę jonów można by teoretycznie uzyskać za pomocą obecnych technik. Wystarczy tylko zwiększyć moc dostarczanego prądu. Jednak przy zwiększeniu mocy istnieje ryzyko przegrzania systemu do tego stopnia, iż magnesy się rozmagnetyzują lub dojdzie do stopienia krzemowego podłoża. Zarówno magnesy jak i katoda muszą być chłodzone wodą. W zastosowaniach przemysłowych używa się rozpylacza o średniej mocy około 1 kilowata - mówi Anders. Właśnie ta "średnia" jest tutaj bardzo ważna. Gdy bowiem dostarcza się prądu w krótkich impulsach, mogą one przekraczać średnią o setki razy, dzięki czemu uzyskujemy znacznie więcej jonów i wolnych elektronów, a więc znacznie lepsze pokrycie. Liczba jonów wytworzonych w takich warunkach jest dostatecznie duża do tworzenia pokrycia, jak i wystarczająca do powrotu do celu i pozyskania kolejnych jonów. System sam się podtrzymuje, gdyż w plazmie dominują jony metalu, a nie gaz, a w płaszczu mamy dodatkowe nadmiarowe elektrony tworzące nadmiarową plazmę. System po chwili samodzielnie się stabilizuje, ale już na wyższym poziomie, niż poprzednio. W tradycyjnych metodach napylania gaz potrzebny do uzyskania plazmy powoduje, że pokrycia nie są jednorodne, a mogą nawet przypominać gąbkę. Jednak w nowej technologii w plazmie już nie dominuje gaz, a więc w pokryciu nie powstają luki. Ponadto wysoka koncentracja jonów pozwala na nałożenie ich nawet w najtrudniej dostępnych miejscach. To z kolei umożliwia tworzenie doskonalszych układów scalonych. Ponadto, jako że nowa technologia dobrze sprawdza się w próżni, może zostać w przyszłości wykorzystania zarówno do napylania materiałów w przestrzeni kosmicznej, jak i do stworzenia jonowego silnika, którego paliwem będzie tani niepalny metal. Inne potencjalne egzotyczne zastosowanie nowej technologii to użycie jej do pokrywania wnętrz akceleratorów cząstek niobem, materiałem, z którym bardzo trudno jest obecnie pracować. Podczas dotychczasowych eksperymentów Anders i Joakim Andersson wykorzystali prąd o natężeniu 250 amperów, a więc o wartości znacznie większej, niż kiedykolwiek stosowana w magnetronach.
- 2 odpowiedzi
-
- HIPIMS
- układ scalony
- (i 4 więcej)
-
U młodych ludzi, którzy często palą marihuanę, z większym prawdopodobieństwem dochodzi do zaburzenia rozwoju części mózgu odpowiadających za pamięć, uwagę, podejmowanie decyzji, język oraz funkcje wykonawcze (Journal of Psychiatric Research). Manzar Ashtari, szef zespołu badawczego ze Szpitala Dziecięcego w Filadelfii, ujawnia, że chodzi o krytyczne rejony, rozbudowywane w późnym okresie dojrzewania. W studium wzięli udział wyłącznie młodzi mężczyźni w wieku ok. 19 lat. Średnio od 13. do 18.-19. r.ż. wszyscy używali dużych ilości marihuany. W roku poprzedzającym zerwanie z nałogiem dziennie wypalali do 6 skrętów. Amerykański zespół przeprowadził obrazowanie tensora dyfuzji. Dzięki tej metodzie można obserwować przepływ wody przez tkanki mózgu. "Odbiegające od normy wzorce dyfuzji wody, które występowały u tych mężczyzn, sugerują uszkodzenie bądź zatrzymanie tworzenia się osłonek mielinowych. Jeśli mielina nie działa prawidłowo, przekazywanie sygnałów między neuronami może ulec zwolnieniu. Mielina jest dobrym izolatorem o białawej barwie i stanowi jeden ze składników istoty białej. Amerykanie sądzą, że wczesny kontakt z narkotykami zmienia rozwój struktur oraz połączeń w ramach istoty białej, zwłaszcza pomiędzy czołowymi, ciemieniowymi i skroniowymi rejonami mózgu. [...] Zwolniony transfer informacji negatywnie wpływa na funkcjonowanie poznawcze.
- 17 odpowiedzi
-
- pamięć
- podejmowanie decyzji
-
(i 8 więcej)
Oznaczone tagami:
-
Naukowcy z prestiżowego Szwajcarskiego Federalnego Instytutu Technologicznego (ETH) w Zurichu rozważają koncepcję hybrydowego silnika pneumatycznego. Jego główne zalety to zużycie paliwa porównywalne z hybrydami elektrycznymi przy jednoczesnych mniejszych kosztach produkcji silnika. Obecnie najpopularniejszą alternatywą dla silników spalinowych są hybrydy spalinowo-elektryczne. Pozwalają one zaoszczędzić paliwo, jednak same w sobie są znacznie droższe, wymagają używania ciężkich i drogich akumulatorów oraz mają bardziej skomplikowaną budowę niż same silniki spalinowe. Z tych też powodów profesor Lino Guzzella, który specjalizuje się w termotronice, nie sądzi, by hybrydy spalinowo-elektryczne były jedynym możliwym rozwiązaniem. Proponuje on zastosowanie pojemników ze sprężonym powietrzem w miejsce akumulatorów jednostki elektrycznej. W pewnych sytuacjach, np. podczas uruchamiania samochodu lub bezpośrednio po zmianie biegu, samochód byłby napędzany sprężonym powietrzem. Później silnik otrzymywałby tradycyjne paliwo. Co prawda system kontroli przełączania pomiędzy sprężonym powietrzem a paliwem też byłby skomplikowany, jednak współczesne komputery i zaawansowane algorytmy z łatwością by sobie poradziły z zadaniem. Zespół konstruktorów pracujących pod kierunkiem Guzzelli skonstruował już testowy silnik, znacznie zmniejszając samą jednostkę. Zwykle silniki samochodowe mają moc nawet 150 koni mechanicznych i więcej, jednak przeciętnie podczas jazdy wystarcza moc 30 koni. Dlatego też naukowcy zmniejszyli sam silnik i zredukowali liczbę cylindrów z czterech do dwóch. By jednak zaspokoić wymagania konsumentów do silnika dołożono mechanizm turbodoładowania. Wstępne testy wykazały, że wydajność takiego silnika jest o 18 do 24% wyższa, niż tradycyjnego urządzenia. Jako, że urządzenie pompuje i spręża powietrze podczas hamowania, odzyskując w ten sposób część energii, z wyliczeń wynika, że w jeździe miejskiej zużycie paliwa może być do 50% niższe. Co prawda oszczędności nie są aż tak duże, jak w zaawansowanych hybrydach paliwowo-elektrycznych, jednak biorąc pod uwagę fakt niższych kosztów produkcji silnika Guzzelli, nowy silnik może być interesującą alternatywą, szczególnie w krajach rozwijających się. Cena silnika spalinowo-pneumatycznego będzie wyższa od ceny silnika spalinowego jedynie o 20%. Tymczasem hybrydy spalinowo-elektryczne są droższe o 200%. Pracami Guzzelli zainteresowało się już kilka koncernów motoryzacyjnych. Jednak, dopóki nie minie kryzys finansowy, trudno oczekiwać, by zainwestowały one w nowe linie produkcyjne i nowe modele samochodów.
- 7 odpowiedzi
-
- silnik spalinowo-elektryczny
- silnik spalinowy
- (i 2 więcej)
-
W ciągu pierwszych dziewięciu miesięcy życia szympansy mogą osiągać lepsze wyniki w testach poznawczych od człowieka. Badacze z Uniwersytetu w Portsmouth porównywali osierocone i wychowywane przez ludzi małpy z przeciętnymi niemowlętami naszego gatunku (Developmental Psychobiology). To pierwsze studium, w ramach którego badano wpływ różnych typów opieki nad szympansami na ich rozwój umysłowy. Okazało się, że najwięcej osiągały człekokształtne, którym zapewniono dodatkowe wsparcie emocjonalne. System przywiązania szympansich niemowląt okazał się zaskakująco podobny do swego ludzkiego odpowiednika. Wczesne doświadczenia, takie jak ciepło, opieka dostosowana do potrzeb lub skrajna deprywacja, w dramatyczny sposób oddziałują na emocjonalne i poznawcze osiągnięcia zarówno małp, jak i ludzi – przekonuje profesor Kim Bard. W latach 80. i 90. Brytyjka zbadała 46 szympansów z Przedszkola Człekokształtnych w Yerkes National Primate Research Centre w Atlancie. Szympansiątka znalazły się tam, ponieważ ich matki nie umiały się nimi prawidłowo opiekować. Bard zauważyła, że zwierzęta, którymi intensywnie zajmowano się przez 20 godzin tygodniowo, były szczęśliwsze, lepiej przystosowane i czyniły szybsze postępy niż maluchy objęte zinstytucjonalizowaną opieką. W przypadku tych ostatnich dbano przede wszystkim o potrzeby czysto fizyczne. Zwierzęta ze zrealizowanymi potrzebami emocjonalnymi trudniej było zdenerwować, ponadto rzadziej korzystały one z tzw. obiektów zastępczych, czyli pluszaków czy miękkich kocyków. Nie pojawiały się też u nich symptomy choroby sierocej, np. kiwanie. Pod względem intelektualnym szympansy te rozwijały się szybciej od sierot objętych standardową opieką. Osoby zajmujące się "wyróżnionymi" szympansami bawiły się z nimi, pielęgnowały, karmiły i dopieszczały na wszelkie inne sposoby. Zachowywały się więc jak prawdziwa szympansia matka. Rozwój maluchów oceniano kilkakrotnie w ciągu 1. roku życia, zawsze za pomocą testu do badania przywiązania/osiągnięć poznawczych u ludzkich niemowląt. U małpek, które wychowywały się w warunkach zinstytucjonalizowanych, często pojawiały się wzorce przywiązania zdezorganizowanego. Zwierzęta kiwały się, biły same siebie i w stresowych chwilach nie chroniły się w ramionach opiekuna, lecz owijały się kocem. Gdy człowieka nie było, stawały się niespokojne, lecz gdy po krótkiej przerwie wracał, przerażone, zastygały w bezruchu.
-
- przywiązanie
- Kim Bard
- (i 4 więcej)
-
Co wpływało na umiejscowienie świątyń starożytnej Grecji? Gregory J. Retallack z University of Oregon przeanalizował ukształtowanie terenu, rodzaje gleby oraz wegetację na terenie 84 tego typu przybytków z okresu klasycznego. Sporo uwagi poświęcił też zapiskom Herodota, Homera i Platona. Po tym wszystkim orzekł, że istniał silny związek między czczonym bóstwem a rodzajem gleby, na jakim usadowiono budowlę (Antiquity). Świątynie Demeter (bogini uprawy zboża, której atrybutami były m.in. pszenica i owies) oraz Dionizosa (boga ekstazy religijnej, sił witalnych i wina) wznosiły się na glebach zwanych kserolami (od greckiego xeros, czyli suchy). Są to półpustynne szaroziemy, które nadają się do uprawy zbóż. Świątynie Apolla (boga wróżbiarstwa oraz muzyki) i jego bliźniaczej siostry Artemidy (dziewiczej bogini lasów i łowów) stawiano na ortentach lub ksereptach. Ortenty są uznawane za entisole, czyli gleby inicjalne o niewykształconym profilu. Brak w nich poziomych warstw, ponieważ materiał gromadzi się na stromych stokach lub w danym miejscu nie występuje odporna na oddziaływanie pogody skała macierzysta. Gleba ta zawiera sporo iłów i gliny, dlatego kiedyś wykorzystywali ją głównie wędrowni pasterze. Kapliczki poświęcone Afrodycie (bogini miłości i piękna), a także Posejdonowi (bogowi morza) występowały na glebach wapiennych, np. na nadbrzeżnych terasach, gdzie było za sucho, by myśleć o uprawie czegokolwiek. Wg Retallacka, budowniczowie dopasowywali "profesję" bóstwa do lokalizacji, która ze względu na nią najbardziej by mu odpowiadała.
- 9 odpowiedzi
-
Badacze z Karolinska Institutet przestrzegają przed przyjmowaniem nadmiaru płynów podczas porodu. Prowadzi to do hiponatremii, czyli obniżonego poziomu sodu w surowicy krwi (<135 mmol/l). Co ważne, zatrucie wodne wydłuża drugą fazę porodu (BJOG). Między styczniem a czerwcem 2007 roku lekarze przeprowadzili studium z udziałem 287 ciężarnych kobiet. W czasie porodu w szpitalu hrabstwa Kalmar w południowo-wschodniej Szwecji pozwolono im wypić dowolną ilość wody. Na początku i po porodzie pobrano próbki krwi. Sprawdzano, czy ilość spożytych płynów wpływa również na dziecko. Sześćdziesiąt jeden kobiet wypiło ponad 2,5 l płynów. U 16 doszło do hiponatremii. Lekarze odkryli, że obniżonemu poziomowi sodu we krwi towarzyszyło wydłużenie drugiej fazy porodu. Wg Szwedów, zjawisku temu trzeba się bliżej przyjrzeć, ponieważ hiponatremia ogranicza najprawdopodobniej zdolność macicy do kurczenia się. Dr Vibeke Moen podkreśla, że u rodzących kobiet obniża się próg tolerowanego nawodnienia, dlatego też nadmierne picie zagraża hiponatremią. W wielu krajach nie ma jednak norm, które by określały, jaka ilość płynów jest bezpieczna dla rodzącej. Generalnie spadek poziomu Na poniżej normalnego poziomu nie jest u wydających na świat dziecko wcale taki rzadki, ale łatwo temu zapobiec. Bardziej niż picie wskazane jest sączenie płynów lub lekkie zwilżanie ust. Jak widać, warto zaufać swojemu organizmowi, a wypijanie dużych ilości wody nie zawsze jest zdrowe. U rodzących spożycie ponad 2,5 l płynu o 26% zwiększa ryzyko groźnego spadku stężenia sodu. W lżejszej postaci hiponatremii pacjenta dręczą zawroty głowy, mdłości i wymioty. Jeśli nadmiar płynów nie zostaje usunięty, dochodzi do zaostrzenia i pojawiają się obrzęk mózgu, drgawki, a nawet śpiączka. Podczas porodu trudniej zdiagnozować hiponatremię, ponieważ bywa mylona ze stanem przedrzucawkowym.
-
- druga faza
- picie
-
(i 7 więcej)
Oznaczone tagami:
-
Badaczka z Uniwersytetu Kalifornijskiego opracowała technikę pozwalającą na przekształcenie niemal dowolnych komórek pobranych z ciała dorosłego człowieka do postaci zdolnej do przekształcania się w plemniki lub komórki jajowe. Niezwykłe komórki uzyskano dzięki tzw. indukowanym komórkom pluripotentnym (ang. induced pluripotent stem cells - iPS), podobnym pod względem właściwości do embrionalnych komórek macierzystych, lecz uzyskiwanym z komórek ciała dorosłego człowieka. Dzięki hodowli w roztworze specjalnie dobranych czynników wzrostu udało się przekształcić je do postaci, z której mogą się one rozwijać w tzw. gamety, czyli komórki jajowe lub plemniki. Wcześniejsze badania wykazały, że możliwe jest uzyskanie gamet z embrionalnych komórek macierzystych, lecz dotychczas nikt nie zaprezentował sposobu na wykorzystanie do tego celu iPS. Przełomu dokonał zespół kierowany przez Amander Clark, badaczkę z Uniwersytetu Kalifornijskiego. Niestety, przeprowadzone studium doprowadziło do odkrycia kilku niepokojących zjawisk. Najważniejszym z nich jest stosunkowo wysoka częstotliwość zaburzeń budowy i liczebności chromosomów, mogące prowadzić do powstawania wad rozwojowych u zarodków uzyskiwanych tą metodą. Pewnym pocieszeniem może być fakt, że część spośród wykrytych wad można wytłumaczyć niedoskonałością metod, dzięki którym uzyskano badane przez panią Clark komórki. Nie ma jednak pewności, czy zastosowanie nowoczesniejszych technik pozwoliłoby na zmniejszenie częstotliwości uszkodzeń. Metoda opracowana przez panią Clark może już niedługo zostać wykorzystana do wytwarzania na masową skalę komórek rozrodczych, co ułatwi prowadzenie badań nad procesem rozrodu oraz bezpłodnością. W nieco dalszej przyszłości, gdy uda się obniżyć częstotliwość mutacji pojawiających się podczas tego procesu, może ona także pozwolić na udoskonalenie stosowanych obecnie metod wspomagania rozrodu.
-
- komórka jajowa
- plemniki
-
(i 5 więcej)
Oznaczone tagami:
-
Specjaliści z IBM-owskiego centrum badawczego Thomasa J. Watsona opracowali technologię o skomplikowanej nazwie: "generowanie paralingwistycznych zjawisk poprzez znaczniki w syntezie tekstu w mowę". Kryje się pod nią technika, która do skomputeryzowanych głosów dodaje charakterystyczne dla prawdziwej mowy zawahania, mruknięcia, chrząknięcia. W przyszłości telefoniczna informacja, tekst przekazywany przez samochodowe urządzenie do nawigacji czy wszelkie inne komunikaty głosowe staną się więc mniej sztuczne i monotonne. Andy Aaron, jeden z twórców systemu, mówi: Dźwięki te mogą być niezwykle subtelne, niemal niesłyszalne, ale mają olbrzymie znaczenie psychologiczne. To niezwykle ważne, by głos przyciągał uwagę. Jeśli kontaktujesz się przez telefon z automatycznym serwisem, za pomocą którego chcesz np. zawrzeć ubezpieczenie, to właśnie [te subtelne dźwięki - red.] czyni różnicę pomiędzy zadowolonym klientem, a kimś, kto odłoży słuchawkę i zrezygnuje. Aaron mówi, że opracowana przez jego zespół technologia jest tak doskonała, iż sztuczny głos jest niemal nie do odróżnienia od głosu prawdziwego. Technologia IBM-a potrafi też zachowywać się odpowiednio do sytuacji. Gdy dzwoniący będzie np. mówił zbyt głośno lub przerywał wypowiedź, automat poprosi o przyciszenie głosu lub o umożliwienie mu dokończenia kwestii".
- 2 odpowiedzi
-
- synteza głosu
- głos
-
(i 1 więcej)
Oznaczone tagami:
-
Choć kolekcja zebranych przez naukowców szczątków dinozaurów nie zawiera szkieletów wszystkich gatunków, nasza wiedza na ich temat jest zadziwiająco precyzyjna - oceniają naukowcy z Uniwersytetu Bath oraz londyńskiego Muzeum Historii Naturalnej. Wiek znalezisk kopalnych ocenia się zwykle za pomocą jednej z dwóch metod. Pierwsza z nich to stratygrafia, czyli ustalanie wieku skał, w których zostały one pochowane. Druga metoda, zwana morfologią, polega na badaniu charakterystycznych cech wyglądu skamieniałości i dopasowaniu ich do wieku innych, podobnych szczątków, których wiek został dokładnie określony. Choć trudno w to uwierzyć, obie te techniki były stosowane bardzo często, lecz... bardzo rzadko używano ich jednocześnie. Na pomysł porównania zgodności obu metod wpadło dwóch brytyjskich badaczy, dr Matthew Wills z Uniwersytetu w Bath oraz dr Paul Barrett z Muzeum Historii Naturalnej w Londynie. Naukowcy ocenili dane statystyczne dotyczące znalezisk szczątków czterech ważnych grup dinozaurów i porównali je z informacjami na temat stopnia ich ewolucyjnego pokrewieństwa. Przeprowadzone studium wykazało zadziwiająco wysoką zbieżność informacji uzyskiwanych za pomocą obu sposobów. Zebrane dane niemal idealnie wpasowują się w kształt tzw. drzewa filogenetycznego, określającego kolejność powstawania kolejnych gatunków oraz czas ich ewolucji. Uzyskane informacje pozwalają także na zrozumienie ewolucji gatunków, których szczątków... nigdy nie odnaleziono. Jeżeli bowiem udowodniono, że ewolucja poszczególnych gatunków zachodzi w sposób bardzo przewidywalny, można wysnuć wiele wniosków na temat ogniw pośrednich na "ewolucyjnej drodze" do powstania znanych gatunków. Jest to niezwykle istotne, gdyż szansa, że kiedykolwiek uda się odnaleźć szczątki wszystkich dinozaurów żyjących kiedykolwiek na Ziemi, jest praktycznie zerowa. To ekscytujące, że nasze dane pokazują niemal idealną zgodność pomiędzy drzewem ewolucyjnym i wiekiem skamielin [znalezionych] w skałach. Dzieje się tak, ponieważ potwierdzają one, że znaleziska kopalne pokazują bardzo dokładnie, w jaki sposób te niezwykłe zwierzęta ewoluowały z biegiem czasu, i dostarczają nam wskazówek na temat tego, w jaki sposób wyewoluowały z nich ssaki i ptaki, podsumowuje efekty swojego odkrycia dr Wills.
- 4 odpowiedzi
-
- wykopaliska
- skamieliny
-
(i 7 więcej)
Oznaczone tagami:
-
Eksperci z Intela, Arizona State University, RTI International i Nextreme Thermal Solutions pokazali pierwsze w historii termoelektryczne urządzenie chłodzące wbudowane w układ scalony. Podczas eksperymentów zadaniem termoelektrycznej "lodówki" było obniżenie temperatury niewielkiego fragmentu (0,16 mm2) układu scalonego. Po włączeniu chłodzenia spadła o niemal 15 stopni Celsjusza. To pierwsza demonstracja technologii, która może w przyszłości służyć chłodzeniu układów scalonych. Twórcy nowej technologii wykorzystali dwa znane zjawiska. Pierwsze, polegające na tym, że materiał termoelektryczny w skali nano jest znacznie bardziej efektywny, i drugie, że użycie termoelektrycznych ciepłowodów do chłodzenia najbardziej gorących części chipa jest bardziej rozsądne z punktu widzenia oszczędności energii niż próby schłodzenia całego układu. Obecnie, aby usunąć 100 watów mocy cieplnej, trzeba zużyć 100 watów mocy elektrycznej. Jeśli jednak skupimy się na najgorętszym obszarze, to jego ciepło jest generowana przez kilka watów, więc zużycie jest znacznie mniejsze. Naukowcy do standardowego odbiornika ciepła montowanego na układach scalonych przyczepili niewielką płytkę z arsenku galu. Na niej wyhodowali grubą na 100-mikrometrów strukturę krystaliczną zawierającą bizmut, tellur, antymon i selen. Struktura przekazywała ciepło z wybranego punku układu scalonego do odbiornika ciepła. Do testów naukowcy wybrali punkt, w którym przepływ mocy cieplnej wynosił 1300 watów na centymetr kwadratowy, czyli znacznie więcej, niż w mikroprocesorach. Okazało się, że nawet przed uruchomieniem "lodówki" była ona w stanie obniżyć temperaturę wskazanego punktu o 6 stopni. Wystarczył fakt, że struktura krystaliczna znacznie lepiej przewodzi ciepło. Po przyłożeniu do "lodówki" prądu o natężeniu 3 amperów temperatura punktu została obniżona o 15 stopni Celsjusza. Nowa technologia wymaga jeszcze wielu testów, jednak już wiadomo, że nowy sposób chłodzenia może trafić do wielkich centrów obliczeniowych przyszłości, w których rachunki związane z chłodzeniem stanowią poważną część kosztów. Ponadto niewykluczone, że trafi ona też do niewielkich, przenośnych urządzeń, umożliwiając montowanie w nich znacznie bardziej wydajnych procesorów niż obecnie.
-
Analiza zaplecza ekonomiczno-społecznego pasażerów i załogi Titanica wykazała, że dobre maniery doprowadziły do tragicznego końca podróżujących transatlantykiem Brytyjczyków. Wg naukowców, prawdopodobieństwo przeżycia było w ich przypadku o 10% niższe niż wyliczone dla innych nacji. Ekonomista profesor Bruno Frey z Uniwersytetu w Zurychu oraz David Savage, ekonomista behawioralny z Politechniki w Queensland, twierdzą, że wychowanie Wyspiarzy wpłynęło na załadunek szalup ratunkowych. Uważają jednocześnie, iż największe (o 12% wyższe od obywateli Zjednoczonego Królestwa) szanse na ocalenie mieli Amerykanie. W ciągu kilku godzin dzielących zderzenie od zatonięcia nadal obowiązywała np. norma przepuszczania przodem kobiet i dzieci. Niestety, na luksusowym statku było za mało szalup, w dodatku wiele wypełniano jedynie do połowy, ponieważ oficerowie nie znali ich ładowności. Wskutek tego zginęło 1517 z 2223 osób. Wśród kobiet większe szanse na przetrwanie miały panie w wieku reprodukcyjnym. Podobną prawidłowość odnotowano także w przypadku posiadających dzieci mężczyzn. W porównaniu do dorosłych powyżej 51. r.ż., szanse dzieci 15-letnich i młodszych na przeżycie były aż o 30% wyższe. Wygląda też na to, że załoga wykorzystywała swoją przewagę w dostępie do informacji i wyposażenia Titanica (18-procentowy skok prawdopodobieństwa przetrwania). Segregacja pasażerów na poszczególne klasy uprzywilejowała najbogatszych. Mieli oni o 40% wyższe szanse od najbiedniejszych, ukrytych w głębi liniowca. Savage podkreśla, że uzyskane wyniki wpłyną na opracowywanie procedur ratunkowych. Ważne bowiem, jak ludzie naturalnie zachowują się w sytuacjach kryzysowych. Katastrofa z 1912 r. pokazuje, że w niektórych przypadkach zasada noblesse oblige nadal pozostaje silniejsza od paniki. Międzynarodowy zespół zamierza ustalić, w jakich warunkach ludzie reagują skrajnym strachem, a kiedy zachowują się przykładnie. Zmanierowani Brytyjczycy skupili się na konwenansach, a dla współczesnych im Amerykanów ważniejsze od właściwego zachowania było zadbanie o własne życie. Frey twierdzi, że w grę mógł wchodzić osławiony indywidualizm obywateli USA lub zwykła nieznajomość norm. Titanic powstał w Wielkiej Brytanii i był obsługiwany przez Brytyjczyków. Byłoby więc całkowicie zrozumiałe, gdyby to oni zdobyli przewagę. Szwajcar spodziewał się też, że w warunkach zagrożenia życia przetrwają raczej najsilniejsi, czyli mężczyźni. Tak się jednak nie stało. Anglicy tonęli, a szanse kobiet na przeżycie były aż o 53% wyższe niż wyliczone dla panów.
- 13 odpowiedzi
-
- Bruno Frey
- Amerykanie
-
(i 8 więcej)
Oznaczone tagami: