Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'badania'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 21 results

  1. Cztery autonomiczne roboty pobiły rekord świata w pływaniu. Urządzenia przebyły po Oceanie Spokojnym niemal 6000 kilometrów. Docelowo ich podróż będzie miała długość 16 668 km. Urządzenia PacX Wave Gliders są dziełem amerykańskiej firmy Liquid Robotics, a ich zadaniem jest dostarczenie informacji na temat składu i jakości wody morskiej. Mają dotrzeć tam, gdzie wcześniej nie wykonywano badań i zebrać informacje na temat kwasowości wody i populacji ryb. Roboty rozpoczęły podróż 17 listopada 2011 roku w porcie klubu jachtowego St Francis w San Francisco. Po czterech miesiącach zakończył się pierwszy etap ich podróży - dotarły do Hawajów. Każdy robot składa się z dwóch części. Na powierzchni widać coś, co przypomina deskę surfingową. Jest ona połączona kablem z zanurzonymi w wodzie urządzeniami i jednostką napędową. Roboty korzystają z energii słonecznej oraz ruchu fal, które zapewniają im napęd oraz energię dla czujników mierzących co 10 minut zasolenie wody, jej temperaturę, poziom tlenu, warunki pogodowe oraz fluroscencję. Po krótkiej przerwie na Hawajach roboty zostaną rozdzielone. Dwa popłyną do Japonii, a dwa do Australii. Ich misja ma zakończyć się na przełomie 2012 i 2013 roku.
  2. Biorąc udział w badaniach, w których pyta się o wagę i wzrost, większość Amerykanów kłamie. Jak można się domyślić, waga jest zaniżana, a wzrost zawyżany, co w sumie daje korzystniejszy wskaźnik masy ciała (BMI). Osoby białe postępują tak częściej niż czarne i Latynosi. Mimo że to powszechna praktyka zarówno wśród kobiet, jak i mężczyzn z każdej grupy etnicznej, autorzy raportu opublikowanego na łamach pisma Ethnicity & Disease uważają, że nie zmienia to statystyk dotyczących zakresu otyłości w USA. Na szczęście przedstawiając się w lepszym świetle, ludzie zachowują umiar. W studium dr Ming Wen z Wydziału Socjologii University of Utah uwzględniono dane z 2007-2008 National Health and Nutrition Examination Survey (NHANES), uzyskane od 2672 mężczyzn i 2671 kobiet. Badanych mierzono i ważono, a następnie wyliczano wskaźnik masy ciała. Sami uczestnicy NHANES także podawali swoje wymiary. Dane porządkowano wg płci i grup etnicznych. Poza tym naukowcy uwzględniali różne czynniki demograficzne, takie jak wykształcenie, wiek czy status materialny. Analiza wykazała, że we wszystkich grupach etnicznych zarówno kobiety, jak i mężczyźni zawyżali swój wzrost. Średnio mężczyźni zawyżali go o 1,41 cm, a kobiety o 0,84 cm. Czarni mężczyźni lekko zawyżali masę ciała, a wszystkie inne grupy ją zaniżały: od ujmujących sobie 0,04 kg białych mężczyzn po niedostrzegające 1,74 kg czarnych kobiet. Biorąc jednocześnie pod uwagę wzrost i wagę, udało się ustalić, że kobiety zaniżały BMI bardziej niż mężczyźni, a kobiety białe robiły to w większym stopniu niż Afroamerykanki i Latynoski. Wg Wen i jej współpracowniczki dr Lori Kowaleski-Jones, wynika to z tego, że w białych społecznościach działa silniejsza presja, by być szczupłą, dlatego białe kobiety "bardziej pragną smukłego ciała" i są bardziej świadome problemów z wagą. Częściej zaniżały BMI osoby z nadwagą, z najstarszej grupy wiekowej (powyżej 60. r.ż.) i z ukończonym college'em. Ogólne statystyki nie mogą ulec zmianie, bo choć między podawanymi a mierzonymi wartościami pojawiały się różnice, naukowcy twierdzą, że były one niewielkie i mieściły się w jednostce BMI.
  3. Badania, które wykazują, że gry wideo przynoszą korzyści dla rozwoju funkcji poznawczych obarczone są poważnymi błędami metodologicznymi, uważają autorzy artykułu opublikowanego we Frontiers in Psychology. Czasopisma naukowe i media na całym świecie wielokrotnie informowały o badaniach, zgodnie z którymi gry komputerowe, szczególnie takie, wymagające bardzo szybkiej interakcji jak Grand Theft Auto czy Medal of Honor, rozwijają funkcje poznawcze. Jedne z takich badań, opublikowane w Nature w 2003 roku było cytowane aż 650 razy. Tymczasem Walter Boot i jego zespół z Florida State University poddali wyniki tego typu eksperymentów krytycznemu osądowi i doszli do wniosku, że zawierają one podstawowe błędy i nie spełniają kryteriów stawianych przed badaniami klinicznymi. Naszym celem było sprawdzenie ostatnich badań dotyczących wpływu współczesnych gier akcji na młodych ludzi. Dotarliśmy do wszystkich znanych nam badań i wszystkie one zawierają błędy - stwierdził Boot. Naukowcy zauważyli, że błędy popełniono już na etapie projektowania. Wszystkie one porównują ludzi, którzy bardzo dużo czasu spędzają grając, z takimi, którzy w ogóle nie grają. Uczestnicy byli informowani, w jakiego typu badaniach uczestniczą i po co ich zaproszono. Udzielenie takiej informacji zaburza wyniki, gdyż badani mają większą motywację by dobrze wypaść. Ponadto badacze wiedzą, którzy gracze zostali przypisani do której grupy, przez co mogą nieświadomie już na etapie przygotowań robić założenia wpływające na ocenę wyników. Jednak nawet takie badania, w których uczestników losowo przydzielano do grup zawierają poważne błędy. Badacze zakładają w nich bowiem z góry, że efekt placebo będzie porównywalny dla obu grup. Na wyniki może też wpływać wybór gier. Autorzy badań nad grami bardzo rzadko brali pod uwagę fakt, że jeśli dwóm różnym grupom badanych damy różne gry, to jedna z nich może być tak skonstruowana, iż będzie bardziej wpływała na zdolności, które chcemy zbadać. W końcu, jak zauważają autorzy artykułu we Frontiers in Psychology, wiele zepołów naukowych publikowało następnie liczne artykuły na temat uzyskanych wyników, biorąc w nich pod uwagę różne czynniki, ale omawiając przy tym tę samą grupę badanych, co nie pozwala jednoznacznie stwierdzić, ile razy potwierdzono uzyskane wyniki. Zdaniem Boota i jego zespołu, każde ze sprawdzanych przez nich badań zawierało podstawowe błędy metodologiczne, a to z kolei każe wątpić, czy posiadamy naukowe dowody na pozytywny wpływ gier komputerowych na zdolności poznawcze. Boot podkreśla, że nie oznacza to, iż autorzy badań wyciągają mylne wnioski. Ale, z powodu błędów, nie można uznać wyników tych badań za jednoznacznie dowodzące prezentowanych tez. Zespół Boota sugeruje, że przyszłe badania nad wpływem gier powinny brać pod uwagę większą liczbę osób, po równo kobiety i mężczyzn, badani powinni być przypisani do przypadkowych grup, a sposób rekrutowania badanych oraz szczegółowy projekt eksperymentu powinny być zawarte w opisie wyników badań.
  4. W USA rozpoczęły się badania nad wpływem wycieku ropy z platformy Deepwater Horizon na zdrowie ludzkie. To największe tego typu przedsięwzięcie w historii. Badania potrwają co najmniej 5 lat i pochłoną 19 milionów dolarów. Z tej kwoty 6 milionów pochodzi od BP. Koncern nie ma jednak wpływu na planowanie i prowadzenie badań oraz interpretację ich wyników. Badania będzie prowadził National Institute of Environmental Health Sciences (NIEHS). Jego pracownicy skontaktują się z ludźmi, którzy pomagali w oczyszczaniu Zatoki Meksykańskiej i poproszą ich o udział w testach medycznych i wypełnianiu kwestionariuszy. Dale Sandler, odpowiedzialny w NIEHS za wydział epidemiologiczny, przywiązuje dużą wagę właśnie do kwestionariuszy. Mówi, że ludzie mogą się nie skarżyć, nie chodzić do lekarza, ale będą czuli się np. zmęczeni i nie połączą tego z kontaktem z ropą naftową. Eksperci interpretujący kwestionariusze wychwycą tego typu zjawiska. Zespół badawczy chce skontaktować się ze 100 000 osób i ma nadzieję, że do udziału w badaniach uda się namówić 55 000. Już rozpoczęto wysyłanie listów z zaproszeniami na badania i kwestionariuszami. Te ostatnie będą też dostępne na witrynie WWW. Badania powinny odpowiedzieć na pytanie, w jaki sposób różne typy ekspozycji na ropę naftową - od kontaktu z samą ropą, poprzez kontakt z produktami jej kontrolowanego spalania i chemikaliami używanymi do jej rozpuszczania aż po styczność z pożywieniem skażonym ropą - wpływa na człowieka. Badane będą płyny ustrojowe, koncentracja chemikaliów w krwi, zmiany skórne oraz, w dłuższym terminie, ryzyko pojawienia się nowotworów. Zweryfikowane zostaną też doniesienia o chorobach, na jakie ma cierpieć część osób, które zetknęły się z ropą. Naukowców czeka trudne zadanie, gdyż część badanych z pewnością rzadko korzysta z opieki medycznej i są narażeni na wiele innych czynników chorobotwórczych. Nie za wszystkie problemy można więc będzie winić ropę naftową.
  5. Intel postanowił aż pięciokrotnie zwiększyć swoje zaangażowanie finansowe w badania uniwersyteckie. W ciągu najbliższych pięciu lat koncern przeznaczy na finansowanie szkół wyższych aż 100 milionów dolarów. Firma przekaże wybranym centrom badawczym średnio po 2,5 miliona USD rocznie. Najważniejszym beneficjentem będzie centrum obliczeń wizualnych na Stanford University. Intel zainteresowany jest sześcioma rodzajami badań. Są wśród nich tematy związane z mobilnością, bezpieczeństwem i systemami wbudowanym. Zainteresowane uczelnie wyższe mogą starać się o dofinansowanie od Intela. Do każdego z centrów Intel oddeleguje 4 swoich pracowników. Ponadto koncern będzie mógł zażądać przydzielenia do badań dodatkowych osób. Z jednej strony to duża szansa dla uczelni i samych naukowców, gdyż większa niż kiedyś ich liczba będzie mogła brać udział w pracach nad najnowszymi technologiami. Z drugiej jednak istnieje obawa, że może to oznaczać zbytnie powiązanie uczelni z jednym koncernem. Dużo o tym dyskutowaliśmy. Intel chce, by badania były otwarte i by rozwiązywały te problemy, nad którymi będą zastanawiali się sami naukowcy, a więc nie będzie nacisków na to, byśmy robili coś, czego nie będziemy uznawali za ważne - mówi profesor Pat Hanrahan, który stanie na czele wspomnianego już centrum przetwarzania wizualnego na Stanford. Jego laboratorium będzie pracowało nad symulacjami w czasie rzeczywistym, opracowaniem technik łatwiejszego tworzenia treści wirtualnych, rozpoznawaniem obrazów, rzeczywistością rozszerzoną, rzeczywistością wirtualną, inteligentnymi kamerami i grafiką komputerową. Profesor Hanrahan zauważa sporą różnicę pomiędzy finansowaniem badań przez prywatne firmy oraz z pieniędzy podatników. Państwo przeznacza pieniądze zwykle na badania krótkoterminowe i obarczone stosunkowo małym ryzykiem. Większość pieniędzy od firm prywatnych otrzymujemy na najbardziej szalone, ryzykowne badania - mówi uczony. Justin Rattner, prezes ds. technologicznych Intela, rozwiewa wątpliwości. To nie będą zamknięte laboratoria. Rozmawiamy właśnie z naszymi partnerami, ale jeszcze nie jesteśmy gotowi ujawnić listy firm, które będą uczestniczyły w finansowaniu laboratoriów. Jesteśmy otwarci na propozycje ze strony innych przedsiębiorstw oraz instytucji stanowych i federalnych. Rattner nie wyklucza nawet współpracy z bezpośrednimi konkurentami Intela, jak AMD czy Nvidią. Wszystko zależy od tego, jakie będą ich cele i jakiego wsparcia finansowego będą gotowi udzielić - mówi. Dodatkową zaletą nowego programu Intela jest fakt, iż wymusza on współpracę pomiędzy uczelniami. Laboratorium profesora Hanrahana będzie współpracowało z uczonymi z siedmiu różnych placówek naukowych - z uniwersytetów Cornell, Harvarda, Princeton, University of Washington oraz Uniwersytetu Kalifornijskiego z Berkeley, Davis i Irvine. W samym Stanford University centrum będzie zatrudniało 50 świeżo upieczonych magistrów i 30 pracowników naukowych. Nigdy nie miałem do czynienia z sytuacją, w której z zewnętrznego źródło finansowano 50 osób. To bezprecedensowa decyzja dotycząca finansowania badań uniwersyteckich z pieniędzy prywatnych. Później ci ludzie [zatrudnieni w takich centrach - red.] trafią do różnych firm, co i im przyniesie wielkie korzyści - mówi Hanrahana. Oczywiście Intel będzie wymagał od finansowanych przez siebie centrów uzyskiwania wyników. Po trzech latach pracy każde z centrów zostanie ocenione i wówczas zapadnie decyzja, czy otrzyma ono pieniądze na kolejne dwa lata działalności. Niezwykle ważnym punktem projektu jest oddelegowanie specjalistów Intela do pracy na uniwersytetach. Intel chce pobudzić ducha wspólnoty pomiędzy uczelniami. Wypisywanie czeku i wpadnięcie od czasu do czasu na uczelnię, by sprawdzić postępy prac, nie rodzi interakcji wymaganej do tego, by osiągnąć jak najlepsze rezultaty. Chcemy stworzyć klimat uniwersyteckiej współpracy, która będzie miała duży wpływ na przyszłe badania nad nowymi technologiami - mówi Rattner. Zauważa przy tym, że właśnie zbyt słaba współpraca pomiędzy uczelniami a przemysłem powoduje, iż często świetnie pomysły rodzące się w głowach uczonych nie zostają w praktyce zrealizowane.
  6. IBM od lat prowadzi jedne z najbardziej zaawansowanych i najważniejszych badań w przemyśle półprzewodnikowym. Koncern posiada własne laboratoria i fabryki, w których na masową skalę powstają procesory. Analitycy uważają jednak, że Błękitny Gigant ma zamiar stopniowo rezygnować z produkcji i nie wybuduje już więcej żadnej dużej fabryki. Analizy wydatków kapitałowych IBM-a pokazują, że firma chce zlecać produkcję na zewnątrz. Koncern będzie w przyszłym roku jednym z organizatorów Common Platform Alliance Technology Forum. Specjaliści zauważyli, że podczas gdy wydatki CAPEX (inwestycje w rozwój i wdrożenia) pozostałych organizatorów - czyli Samsunga i Globalfoundries - sięgną 12 miliardów USD, to inwestycje IBM-a ograniczą się do kwoty 500 milionów USD. Dalsze analizy ujawniły, że ostatni raz CAPEX IBM-a przekroczyły miliard dolarów w 2004 roku. Wówczas dawało to Błękitnemu Gigantowi 11. pozycję na świecie. W roku bieżącym i przyszłym koncern nie zmieści się nawet w pierwszej dwudziestce. Więcej od IBM-a wydadzą nie tylko tacy giganci jak Samsung (9,2 miliarda USD), TSMC (5,7 mld), Intel (5,0 mld) czy Globalfoundries (3,2 mld), ale również Rohm (0,574 mld), Amkor (0,552 mld) oraz Infineon (0,550 mld) i Siliconware (0,533 mld).Bob Johnson, wiceprezes Gartnera, przyszłość firm posiadających własne fabryki układów scalonych opisuje słowami: Albo sprzedajesz układy pamięci, albo produkujesz na zlecenie, albo jesteś Intelem. Zdaniem analityka IBM nie inwestuje dużo w produkcję. Odgrywa rolę lidera badań.
  7. Wielki Zderzacz Hadronów kończy dzisiaj badania z użyciem protonów i przechodzi do drugiego etapu prac, podczas którego przyspieszane będą jony ołowiu. Uczonym udało się zrealizować wszystkie zadania, które miały zostać wykonane od końca marca, kiedy to uzyskano energię 7 TeV. Głównym z nich było osiągnięcie jasności, czyli częstotliwości zderzeń, rzędu 1032 na centymetr kwadratowy na sekundę. Taką jasność uzyskano 13 października, na dwa tygodnie przed początkiem drugiej fazy. Wśród uzyskanych w międzyczasie danych warto wymienić takie, które potwierdzają niektóre założenia Modelu Standardowego czy zaobserwowanie po raz pierwszy kwarka górnego powstałego w wyniku kolizji dwóch protonów. Wkrótce LHC zacznie przyspieszać jony ołowiu. Jednym z głównych zadań nowej fazy eksperymentu jest doprowadzenie do powstania plazmy kwarkowo-gluonowej i jej zbadanie. Ten rodzaj materii istniał kilka mikrosekund po Wielkim Wybuchu i z niej powstała ta materia, z którą mamy obecnie do czynienia. Badania takie pozwolą z kolei na zdobycie wielu informacji na temat oddziaływań silnych, które wiążą kwarki w protony i neutrony. Zderzenia ciężkich jonów będą wyjątkową okazją do zbadania bardzo gorącej, gęstej materii - mówi Jurgen Schukraft, rzecznik prasowy eksperymentu ALICE. LHC będzie pracował z jonami ołowiu do 6 grudnia. Następnie zostanie zatrzymany - Zderzacz ma nie pracować w zimie ze względu na swoje olbrzymie zapotrzebowanie na energię - i ponownie ruszy w lutym. Wówczas powróci do eksperymentów z protonami.
  8. Standardem w ocenie skuteczności i bezpieczeństwa nowych leków są badania z placebo, jednak jak podkreślają naukowcy z Uniwersytetu Kalifornijskiego w San Diego, nie ma standardów dotyczących samego placebo i tak naprawdę nikt nie wie, jaki dokładnie ma ono skład. Specjaliści odwołują się do badań metodą podwójnie ślepej próby z placebo w grupie kontrolnej, ponieważ sądzą, że aby mieć pewność, że to lek działa i jest skuteczny, trzeba dokonywać porównań między grupami ludzi, w przypadku których jedyną różnicą jest to, czy zażywają, czy nie zażywają leku. Badania są podwójnie ślepe, gdyż nikt nie wie, co mu się podaje: medykament czy placebo. W ten sposób eliminuje się zaburzający wpływ różnych czynników, w tym oczekiwań. Do poszczególnych grup trafia się w wyniku losowania. Wg prof. Beatrice Golomb opisywany standard jest podstawowym problemem, jako że nauka nie zna tak naprawdę substancji, które byłyby fizjologicznie obojętne. Na domiar złego nie istnieją regulacje dotyczące składu placebo i często jest on determinowany przez wytwórców testowanych leków, którzy są żywo zainteresowani wynikami. Składu placebo się nie ujawnia i osoby zapoznające się potem ze studium mogą się tylko zastanawiać, czy składowe placebo nie wpłynęły przypadkiem na rezultaty. Golomb już od dawna zajmuje się zagadnieniami dotyczącymi placebo. Piętnaście lat temu wysyłała do Nature listy w tej sprawie. Pozytywny lub negatywny wpływ placebo może prowadzić do błędnego postrzegania negatywnego lub pozytywnego oddziaływania samego leku. Wpływ w tym samym kierunku co lek zagraża niedocenieniem i odrzuceniem badanej substancji. Obawy te nie są jedynie teoretyczne. Skoro od momentu wysyłania listów do Nature minęło 15 lat, Amerykanie postanowili sprawdzić, czy i co zmieniło się w tym czasie w kwestii placebo. Zespół Golomb analizował, jak często w artykułach nt. randomizowanych badań, które opublikowano w ciągu 2 lat w czterech najważniejszych pismach traktujących o medycynie ogólnej, ujawniano skład placebo. Okazało się, że skład pigułek placebo ujawniano w mniej niż 10% przypadków. Dużo częściej w ramach grupy kontrolnej nie podawano tabletek, lecz przeprowadzano inne zabiegi, np. iniekcje, akupunkturę bądź operacje, w przypadku których ludzie z większym prawdopodobieństwem chcą wiedzieć, czym jest placebo.
  9. Podobno życie zaczyna się po czterdziestce, jednak amerykańskie badania dowodzą, że, przynajmniej w Stanach Zjednoczonych, po pięćdziesiątce. Z opublikowanego w PNAS studium dowiadujemy się, że wykres życiowej satysfakcji ma kształt litery U. Krzywa ciągle opada, osiągając najniższy poziom w pierwszej połowie szóstego dziesięciolecia życia i od tej pory bez przerwy rośnie. Badania miały formę telefonicznych ankiet, podczas których zebrano reprezentatywną grupę 300 000 próbek danych. Ankieterzy pytali badanych o ocenę najróżniejszych czynników związanych z życiową satysfakcją, takich jak np. szczęście, obawa, stres, smutek. Wykazały one, że takie czynniki jak radość i szczęście przebiegają równolegle do całościowej satysfakcji z życia, a zatem spadają do osiągnięcia wczesnej pięćdziesiątki, by później rosnąć. W przypadku stresu i zmartwień zauważono dwa okresy znacznego wzrostu tych czynników. Dochodzi do nich w wieku 18-21 oraz 22-25 lat. Później poziom stresu spada do połowy szóstego dziesięciolecia życia, a zmartwienia pozostają na stałym poziomie niemal do osiągnięcia pięćdziesiątki. Później powoli jest ich mniej. Badacze sądzą, że jest to związane z faktem opuszczenia domu przez dzieci i mniejszą liczbą zmartwień na głowach rodziców. Poziom gniewu przestaje rosnąć u trzydziestolatków i spada z wiekiem. Zauważono też, że w połowie 4. dziesiątki życia nieco wzrasta smutek, którego podwyższony poziom utrzymuje się do pierwszych lat szóstego dziesięciolecia. Zauważono również, że kobiety generalnie są bardziej zadowolone z życia niż mężczyźni, mimo iż poziom szczęścia jest u nich taki sam, a poziom radości mniejszy niż u panów. Generalnie jednak wszystkie wykresy dla obu płci są bardzo podobne. Osoby, które przekroczyły 60. rok życia są tak samo z niego zadowolone, jak ci w wieku 18-21 lat i satysfakcja ciągle u nich wzrasta. Jest to prawdopodobnie związane z faktem, że ludzie starsi korzystają z nabytej mądrości życiowej, a dobre wspomnienia przeważają u nich nad złymi.
  10. Pesymiści zaczynają spekulować, że Albert Einstein był ostatnim lub jednym z ostatnich geniuszy. Do tej pory to jednostki dokonywały wiekopomnych odkryć, ślęcząc w swoich pracowniach i laboratoriach. Tak pracowali Kopernik i Tesla czy Rentgen i Galileusz. W ostatnich latach pojawił się jednak i umocnił inny trend: zakładania dużych instytucji. Za przełomową datę uznaje się wprowadzenie na orbitę pierwszego Sputnika. Kolektywnym, rzecz jasna, wysiłkiem dokonali tego obywatele Związku Radzieckiego (International Journal of Design & Nature and Ecodynamics). Skutkiem masywnych przemian jest nie tylko instytucjonalizacja nauki (razem łatwiej przecież zdobyć fundusze na badania). Coraz ciężej się wybić i osiągnąć naukową maestrię, przez co wzrasta wiek noblistów. W XX wieku średnia wieku nagrodzonych badaczy podniosła się aż o 6 lat. Bardzo wiele już odkryto i by dojść do przełomu, trzeba po prostu pracować dłużej. Autorem prezentowanej koncepcji jest Adrian Bejan, inżynier z Duke University. Wg niego, najlepszym wariantem jest równowaga między podejściem indywidualnym oraz instytucjonalnym, gdy samoczynnie powstają duże grupy, a "samotni" naukowcy podrzucają im tylko genialne pomysły. Bejan podkreśla, że wystrzelenie przez Rosjan Sputnika 1 skłoniło Stany Zjednoczone do tworzenia dużych grup badawczych wewnątrz istniejących instytucji naukowych. Z tego samego modelu zaczęły również korzystać mniejsze podmioty. Amerykanin nie twierdzi jednak, że geniusze zniknęli już z mapy świata. Zamiast tego od 1996 roku pracuje nad teorią konstruktalną, która ma wyjaśnić postronnym obserwatorom, co i jak się właściwie dzieje. Systemy przepływowe ewoluują w taki sposób, by zminimalizować niedoskonałości oraz zmniejszyć tarcia czy inne formy oporu. Dzięki temu spada ilość trwonionej energii. Jako przykład Bejan podaje meandrującą rzekę. Teoria inżyniera obejmuje dwa typy przepływu: 1) pomysłów (odkryć naukowych) oraz 2) wsparcia: funduszy i przestrzeni badawczej, np. laboratoriów. Samotni myśliciele pojawiali się zawsze na przestrzeni dziejów, ponieważ to naturalne – nauka jest dobra dla umysłu badacza i służy dobrostanowi społeczeństwa. Mimo że obecny trend to kreowanie większych grup badawczych, będą się oni pojawiać nadal. Poza tym niegdysiejsi geniusze nie pracowali de facto samotnie. Jak przyznawał sam Izaak Newton, nigdy nie stworzyłby swoich praw dynamiki, gdyby nie wspieranie się na barkach gigantów. Ideałem, wg Bejana, jest taka sytuacja, gdy jednostka wpada na świetny pomysł, zdobywa fundusze, a wokół idei formuje się przyklaskująca jej grupa. Do pierwszego zespołu dołączają kolejne, a każdy przyczynia się w jakiś sposób do wyników całości. Ekstremalne scenariusze nie są, jak zwykle, korzystne. Zbitki indywidualistów nie stworzą prawdziwych grup. Będzie wiele pomysłów, ale nikt ich nie podchwyci. Duża grupa będzie mieć za to sporo pieniędzy, ale za mało osób zainteresowanych badaniem.
  11. Nazwa firmy "Complete Genomics" nie jest obecnie zbyt szeroko rozpoznawalna. Wygląda jednak na to, że możemy o niej usłyszeć jeszcze wiele razy. Przedstawiciele przedsiębiorstwa planują uruchomienie usługi sekwencjonowania genomu człowieka za przełomową cenę 5000 dolarów. Udostępnienie usługi klientom indywidualnym jest planowane na najbliższą wiosnę. Firma, mająca swoją siedzibę w kalifornijskim mieście Mountain View, opracowała technologię sekwencjonowania DNA pozwalającą na drastyczne obniżenie kosztów przeprowadzenia tego procesu. Dzięki jej wdrożeniu cena procedury spadła aż dwudziestokrotnie(!) w porównaniu do cen obowiązujących dotychczas. Ułatwiony dostęp do usługi sekwencjonowania jest najważniejszym krokiem na drodze do tzw. medycyny spersonalizowanej. Zgodnie z jej założeniami, lekarz powinien mieć dostęp do danych o indywidualnych cechach pacjenta, dzięki czemu możliwe jest zoptymalizowanie sposobu leczenia, dawek podawanych leków itp. Dotychczas zbieranie informacji tego typu ograniczało się do pojedynczych genów, które analizowane były głównie w przypadku podejrzenia zwiększonego ryzyka wystąpienia ściśle okreslonej choroby. Teraz, gdy cena badania spadła do tej stosunkowo niedużej kwoty, istnieje ogromna szansa na zebranie znacznie większej ilości danych i wprowadzenie szeroko zakrojonych programów profilaktyki wielu chorób. Przedstawiciele firmy planują, że w roku 2009 będzie ona w stanie przeprowadzić 1000 reakcji sekwencjonowania DNA, zaś w ciągu kolejnego roku zwiększy swoje "moce przerobowe" dwudziestokrotnie. Warto jednak zaznaczyć, że przedstawiciele Complete Genomics nie udostępnili jeszcze swoich danych żadnemu niezależnemu recenzentowi. Jednym z założycieli firmy jest Craig Venter - prawdopodobnie najbardziej znany biotechnolog na świecie. Ponieważ naukowiec pracował już wcześniej nad projektem sekwencjonowania genomu człowieka, zebrane wówczas informacje służą dziś jako próba odniesienia wobec nowej technologii. Co ciekawe, jako materiał do badań wykorzystano wówczas własne DNA Ventera. Aby przeprowadzić sekwencjonowanie DNA zgodnie z założeniami nowej metody, najpierw zostaje ono pocięte na krótkie fragmenty składające się z 80 nukleotydów, czyli jednostek kodujących informację genetyczną (cały genom ma ich aż 3 miliardy). Każdy z tych fragmentów jest następnie łączony z krótkimi syntetycznymi nićmi DNA, a następnie dochodzi do replikacji powstałych kompleksów z wykorzystaniem specjalnego enzymu. Ze względu na charakter fizykochemiczny syntetycznego fragmentu, ma on tendencję do bardzo ścisłego zwijania się do postaci zwanej nanopiłeczkami. Są one tak drobne, że na płytce o wielkości typowego szkiełka mikroskopowego mieści się ich około miliarda. Dzięki tak silnemu "upakowaniu" materiału genetycznego możliwe jest przeprowadzenie całej procedury na pojedynczej płytce, co pozwala na radykalną redukcję zużycia bardzo drogich odczynników. Gdy nanopiłeczki zostaną osadzone na powierzchni szkiełka, przeprowadza się właściwą reakcję sekwencjonowania. W tym celu wykorzystuje się cząsteczki wzbogacone o barwniki fluorescencyjne. Każda z nich przyłącza się do DNA w losowym miejscu, lecz zawsze do ściśle określonego rodzaju nukleotydu. Powstałe kompleksy oświetla się następnie za pomocą lampy ultrafioletowej, by wywołać świecenie barwnych cząsteczek. Specjalna aparatura pozwala nie tylko na określenie, jaki nukleotyd został związany, lecz także na ustalenie jego pozycji w analizowanej sekwencji. W ten sposób, krok po kroku, możliwe jest odkrycie kolejności wszystkich elementów kodujących informację genetyczną danego osobnika. Schemat ilustrujący całą procedurę jest dostępny tutaj. Losowe przyłączanie pojedynczych cząsteczek służących jako "sondy" wykrywające nukleotydy jest pomysłem bardzo nowatorskim. Ma ono co najmniej jedną istotną zaletę: zgodnie z założeniami dotychczasowych metod sekwencjonowania konieczne było poprawne odczytanie sekwencji wszystkich kolejnych nukleotydów. Powodowało to powstawanie licznych błędów w trakcie analizy, przez co wiarygodność testu spadała. W przypadku technologii opracowanej przez Complete Genomics każda "sonda" przyłącza się niezależnie od innych, dzięki czemu maleje ryzyko popełnienia "lawiny" błędów. Co ciekawe, przedstawiciele Complete Genomics nie planują sprzedaży produkowanych przez siebie urządzeń. Zamiast tego uruchomione zostanie ogromne centrum badawcze, w którym realizowana będzie ta usługa. Jak tłumaczy prezes firmy, Cliff Reid, będzie to rozwiązanie bardzo wygodne dla wielu przedsiębiorstw: oni nie chcą kupować własnego instrumentu, chcą kupić dane. Co ciekawe jednak, sekwencja DNA klienta będzie do niego wracała w postaci "surowej", tzn. bez jakiejkolwiek analizy informacji zapisanych w genach. Oznacza to, niestety, że całkowity koszt usługi będzie najprawdopodobniej powiększony o dopłatę związaną z analizą danych przez innego specjalistę. Środowisko naukowe nie kryje podziwu dla tego osiągnięcia. Chad Nusbaum, jeden z dyrektorów zarządzających Programem Sekwencjonowania i Analiz Genomu uruchomionym przez Broad Institute, ocenia: nagle ci goście zaczęli mówić o sekwencjonowaniu setek, a nawet tysięcy genomów w ciągu kilku najbliższych lat. Otwiera to niesamowite perspektywy na taki rodzaj nauki, jakiego naprawdę chcemy. Jest to możliwe właśnie dzięki uzyskiwaniu setek sekwencji ludzkiego genomu. Od tego momentu można zacząć zadawać trudne pytania na temat genetyk człowieka. Podobnego zdania jest Jeffrey Schloss, specjalista pracujący dla amerykańskiego Narodowego Instytutu Badań nad Ludzkim Genomem: Słowo "oszałamiające" wcale nie będzie zbyt wielkie, jeżeli będą mogli to zrobić w naprawdę krótkim czasie. Nie widziałem jednak jakichkolwiek danych i nie znam nikogo, kto by je widział, a jest to, oczywiście, kluczowe. Wyścig trwa. Biotechnologiczny gigant, firma Applied Biosystems, planuje udostępnienie w najbliższej przyszłości platformy, dzięki której możliwe będzie przeprowadzenie kompletnej analizy genomu za około 10 tysięcy dolarów. Która z firm wygra tę rywalizację, dowiemy się prawdopodobnie w ciągu najbliższych kilku lat.
  12. Niedawno informowaliśmy o zniknięciu plam na Słońcu i rekordowo niskiej aktywności magnetycznej naszej gwiazdy. Ostatnie dane z amerykańskiego National Snow and Ice Data Centerd (NSIDC) pokazały, że, wbrew obawom naukowców, pokryta lodem powierzchnia w Arktyce nie uległa zmniejszeniu. Co więcej, lód pokrywa obecnie o 700 000 kilometrów kwadratowych więcej, niż w ubiegłym roku. Jest on jednak cieńszy. Z drugiej strony globu mamy Antarktykę, a tam, jak donieśli naukowcy, średnia temperatura spada. Fragmentaryczne badania mogą uspokajać, jednak w większej skali temperatury niewątpliwie rosną. Naukowcy z Earth System Science Center przy Penn State University przeprowadzili jedne z najbardziej kompleksowych badań dotyczących historycznych temperatur na półkuli północnej. Wynika z nich, że ostatnia dekada była najcieplejszą od 1300 lat. Okres ten można wydłużyć nawet do 1700 lat jeśli weźmie się pod uwagę dane z pierścieni drzew. Jednak uczeni z Penn State, zdając sobie sprawę z tego, iż metoda taka jest przez niektórych krytykowana, wykorzystali inne informacje. Pochodziły one z osadów mórz i jezior, z badania rdzeni lodowych, koralowców i właśnie drzew. Skorzystaliśmy ze znacznie większej liczby danych, a użyte przez nas metody badań są bardziej zaawansowane niż poprzednio - mówi Michael Mann, profesor meteorologii i nauk o ziemi. Naukowcy zauważają, że wyników ich badań nie można bezpośrednio odnieść do półkuli południowej i temperatur na całym globie. W skład zespołu naukowego wchodzili akademicy z University of Massachusetts, University of Arizona, Penn State i Roger Williams University. Wyniki ich badań są jednoznaczne: bez uwzględniania danych z pierścieni wzrostowych drzew możemy stwierdzić, że ostatnia dekada była najcieplejszym okresem nie od 1000 lat, jak wcześniej sądzono, a od 1300 lat. Jeśli zaś weźmiemy pod uwagę dane z drzew, okres ten możemy wydłużyć o kolejne 400 lat. Badania były finansowane przez National Science Foundation, amerykański Departament Energii oraz National Oceanic and Atmospheric Administration.
  13. Bell Labs, jedna z najbardziej zasłużonych instytucji badawczych w przemyśle IT, rezygnuje z badań nad układami scalonymi. Od sześciu lat, kiedy to z Bell Labs wydzielono grupę zajmującą się półprzewodnikami, wydział badań materiałowych i fizyki urządzeń chylił się ku upadkowi. Jego pozostałością jest niewielki oddział prowadzący badania nad obliczeniami kwantowymi, nanotechnologią i wysoko wydajną elektroniką. Bell Labs zatrudnia obecnie około 1000 naukowców, a budżet placówki wynosi około 2 miliardów dolarów. O wadze tej instytucji może świadczyć chociażby fakt, że jej pracownicy sześciokrotnie odbierali Nagrody Nobla z fizyki. Jeśli popatrzymy na historię Bell Labs i cofniemy się do lat 40. ubiegłego wieku, kiedy to rozpoczynały się badania nad półprzewodnikami, zobaczymy, że wiele z nich było prowadzonych przez Bell Labs - mówi Lance Wilson, dyrektor w ABI Research. Obecnie jednak badania takie prowadzone są na całym świecie, zarówno przez firmy prywatne jak i przez uczelnie. W tej dziedzinie nikt nie ma własnej niszy na wyłączność. Nie istnieje też żadna instytucja, której wycofanie się z badań nad półprzewodnikami doprowadziłoby do upadku jakiejś dziedziny - dodaje. W przeszłości jednak to właśnie w Bell Labs doszło do przełomu, który na zawsze zmienił świat. To tutaj Shockley, Bardeen i Brattain stworzyli pierwszy działający tranzystor, a współpracujący z nimi Morgan Sparks udowodnił, że można wykorzystać go w praktyce. Bell Labs, które należą obecnie do firmy Alcatel-Lucent, będą prowadziły badania nad łącznością bezprzewodową, sieciami komptuerowymi, optyką, obliczeniami kwantowymi i nanotechnologią. Obecnie laboratoria podzielone są na osiem grup badawczych zajmujących się technologiami fizycznymi, technologiami obliczeniowymi, optyką, dostępem przewodowym, dostępem bezprzewodowym, sieciami, infrastrukturą usługową oraz aplikacjami.
  14. Igrzyska Olimpijskie w Pekinie stały się okazją do przeprowadzenia badań nad klimatem. Zwykle nad Pekinem wisi smog, który pięciokrotnie przekracza normy Światowej Organizacji Zdrowia. Na czas igrzysk chińskie władze zredukowały szkodliwą emisję o 60%, zamykając liczne zakłady przemysłowe i zmniejszając liczbę samochodów poruszających się po ulicach stolicy. Redukując zanieczyszczenie nad Pekinem, Chińczycy stworzyli wielkie naturalne laboratorium, które pomoże nam zrozumieć, w jaki sposób zanieczyszczenia wpływają na klimat - mówi Veerabhadran Ramanathan, klimatolog z Uniwersytetu Kalifornijskiego w San Diego. Naukowiec wraz ze swoim zespołem będą prowadzili przez sześć najbliższych tygodni badania, podczas których zmierzą poziom zanieczyszczeń nad Pekinem. We współpracy ze specjalistami z Narodowego Uniwersytetu w Seulu wyposażyli niewielki bezzałogowy samolot w specjalistyczną aparaturę. Maszyna będzie latała nad położoną o 500 kilometrów na południe od Pekinu południowokoreańską wyspą Cheju, na której znajduje się stacja badawcza. Samolot zbierze dane o zanieczyszczeniach pochodzących z Pekinu oraz z innych regionów Chin. Jednocześnie podobne loty będą odbywały się nad Kalifornią. Pozwolą one poznać odpowiedź na pytanie, jak daleko wiatr niesie zanieczyszczenia. Chcemy sprawdzić, jaki wpływ na światowy klimat ma jedno miasto - mówi Ramanathan. Uczonego szczególnie interesuje wpływ zanieczyszczeń na globalne ocieplenie. Jego wcześniejsze badania sugerują bowiem, że cząsteczki zanieczyszczeń odbijają promienie słoneczne, przyczyniając się do zmniejszenia skutków ocieplenia. Obecnie prowadzone badania zostaną porównane z danymi z NASA i pozwolą stwierdzić, czy wskutek zmniejszenia się zanieczyszczeń, więcej promieni słonecznych dociera do powierzchni Ziemi.
  15. Amerykański rząd rozpoczął pierwsze badania syndromu Morgellona. Został on zidentyfikowany w 2002 roku, a cierpiące na nią osoby czują, jakby po skórze i pod nią coś chodziło, gryzło. Podobne objawy znane są od dawna i część specjalistów uważa, że mają one źródło w psychice chorego. Tysiące ludzi twierdzą jednak, że są to jak najbardziej fizyczne odczucia. Dlatego też amerykańskie Centers for Disease Control and Prevention (CDC) zdecydowało się zlecić firmie Kaiser Pemanente przeprowadzenie rocznych badań nad domniemaną chorobą. Będą one kosztowały 338 000 dolarów. Badania będą prowadzone na północy stanu Kalifornia, gdzie wyjątkowo dużo osób uskarża się na opisane powyżej objawy. Kaiser chce przebadać od 150 do 500 osób. Doktor Michele Pearson, która z ramienia CDC będzie nadzorowała badania, informuje, że uczeni sprawdzą krew i skórę chorych oraz ich psychikę. W ten sposób chcą się dowiedzieć, czy choroba Morgellona jest znanym schorzeniem, podczas którego pacjentowi wydaje się, że jest zarażony robakami, czy też jest to nieznana dotychczas jednostka chorobowa. O tym, że objawy nie są nowe, świadczy już sama nazwa choroby. Gdy biolog Mary Leitao zidentyfikowała ją w 2002 roku wygrała nazwę Morgellon od dokumentów z 1674 roku, w których po raz pierwszy opisano takie właśnie objawy.
  16. Co pewien czas publikowane są badania dowodzące negatywnego wpływu gier wideo na przeróżne aspekty naszego życia - zwykle poszukuje się w nich związków między dużą dawką przemocy a wzrostem agresji wśród młodzieży. Tym razem doktor Chou Yuan-hua z wydziału psychiatrii w Taipei Veterans General Hospital donosi, że gracze mogą uszkodzić sobie mózg. Alarmujące wnioski uzyskano na podstawie badań 30 osób w wieku 25 lat. Próby polegały na obserwacji zmian krążenia krwi w mózgu przed i po 30-minutowej sesji z grami wideo. Okazało się, że rozrywka przed ekranem powoduje wyraźne zmniejszenie dopływu krwi do mózgu. Co więcej, efekt ten nasila się, jeśli gra należy do bardziej brutalnych. Wśród konsekwencji grożących zbyt oddanym graczom autor badań wymienia negatywny wpływ na zdolności uczenia się oraz panowania nad emocjami, a także upośledzenie niektórych czynności mózgu.
  17. Analiza przeprowadzona przez firmę IDC na zamówienie Microsoftu wykazała, jak olbrzymie znaczenie ma dla światowej gospodarki firma z Redmond. Ona sama zatrudnia co prawda około 80 000 osób, jednak w całym gospodarczym ekosystemie związanych w koncernem Gatesa zatrudnionych jest co najmniej 14,7 miliona osób. Przez ekosystem rozumie się tu wszystkie firmy, które zajmują się tworzeniem czy sprzedażą oprogramowania działającego pod kontrolą systemów Windows. Działalność Microsoftu i związanego z nim ekosystemu ma olbrzymi wpływ na gospodarkę co najmniej 82 krajów świata. W skład tego ekosystemu wchodzi ponad 640 000 firm, które zatrudniają 42% wszystkich osób pracujących w sektorze IT. Z badań wynika, że firmy te płacą każdego roku podatki w wysokości ponad 500 miliardów dolarów. Dochody tych przedsiębiorstw wyniosą w bieżącym roku około 425 miliardów USD, a one same inwestują rokrocznie na rynkach lokalnych około 100 miliardów USD. Na każdego dolara, którego zarabia Microsoft, firmy z jego otoczenia zarabiają 7,79 USD. IDC oparło swoje analizy o badania na 82 rynkach świata. Pozwoliły one stwierdzić, że w bieżącym roku w sektorze IT zostanie wydanych 1,24 biliona dolarów, a wartość tego sektora będzie rosła w tempie 6,1% do roku 2011. To dwukrotnie szybciej niż średni światowy wzrost produktu krajowego brutto. Analiza IDC zostanie zapewne wykorzystana przez Microsoft do przekonania rządów krajów rozwijających się, by skuteczniej walczyły z piractwem i chętniej współpracowały z koncernem z Redmond.
  18. Mieszkańcy Japonii mieli okazję obejrzeć ostatnio na niebie niezwykłe widowisko. Dzięki pracom naukowców z Japońskiej Agencji Badań Kosmicznych (JAXA), Uniwersytetu Hokkaido i Uniwersytetu Technicznego Kochi mogli bowiem zobaczyć kosmiczne fajerwerki. Naukowcom nie chodziło bynajmniej o zabawę, lecz o eksperymentalne badania atmosfery. Przy okazji jednak doszło do prawdziwego widowiska. Przez kilkanaście sekund na nocnym niebie było widać trzy kolejno zapalające się na czerwono kule. Podczas pierwszych kilku sekund były one tak jasne jak księżyc. Te kule to opary litu wypuszczone w jonosferze przez rakietę, która została wystrzelona w celu prowadzenia wspomnianych badań. Kule płonęły na wysokości od 100 do 250 kilometrów nad naszą planetą. Prowadzenie badań na tych wysokościach jest trudne, gdyż satelity powinny pozostawać na wysokości ponad 250 kilometrów a balony nie wznoszą się powyżej 50 km. Rakieta S-520 została wystrzelona z Centrum Kosmicznego Uchinoura. Przemieściła się po łuku i gdy zaczęła opadać, uwolniła na wysokości 250 kilometrów pierwszą porcję litu. Czterdzieści sekund później, na wysokości 200 kilometrów rozbłysła kolejna litowa chmura. Minęło kolejne 40 sekund i 150 kilometrów nad głowami Japończycy mogli zobaczyć jeszcze jeden rozbłysk. Naukowcy obserwowali i analizowali rozbłyski, a mieszkańcy Tokio żałowali, że chmury uniemożliwiły im obejrzenie kosmicznych fajerwerków. Zdjęcia z "pokazu" można zobaczyć w Sieci.
  19. Firma badawcza NPD Group opublikowała trzeci już raport dotyczący używania najnowszych technologii przez dzieci. Do przeprowadzenia „Kids and Consumer Electronics Trends III” wykorzystano internetowe kwestionariusze skierowane do osób w wieku co najmniej 25 lat, które mają dzieci w wieku 4-14 lat. Okazało się, że średni wiek, w którym dzieci zaczynają używać elektronicznych gadżetów, znacząco się obniżył. Jeszcze w 2005 roku wynosił on 8,1 roku, teraz urządzenia elektroniki domowej są wykorzystywane przez najmłodszych w średnim wieku 6,7 lat. Najwcześniej dzieci zaczynają używać telewizora i komputera stacjonarnego. W tym przypadku wiek inicjacji wynosi 4-5 lat. Najpóźniej wykorzystywane są satelitarne odbiorniki radiowe i przenośnie odwarzacze multimedialne. Wykorzystują je „dopiero” 9-latkowie. Porównując wyniki z rokiem 2005 największy spadek wieku inicjacji zauważono przy używaniu odtwarzaczy DVD i telefonów komórkowych. Co ciekawe, w porównaniu z rokiem 2005 spadła zarówno liczba urządzeń, jak i liczba używających je dzieci. Ma to związek z ogólnym spadkiem urządzeń elektronicznych w naszych domach. Co czwarty badany przyznał, że w ciągu ostatnich 12 miesięcy w jego gospodarstwie domowym nie pojawiło się żadne nowe urządzenie elektroniczne. Spadek ogólniej liczby urządzeń używanych przez dzieci nie przeszkodził wzrostowi ich liczby w poszczególnych kategoriach. Największy wzrost zanotowano wśród odtwarzaczy multimedialnych, przenośnych konsoli do gier i aparatów cyfrowych. Dzieciom przybyło też sporo telefonów komórkowych i przenośnych odtwarzaczy DVD. Decydującym czynnikiem jest tutaj postawa rodziców. Dzieci używają gadżetów, jeśli robią to ich rodzice. Najczęściej wykorzystywanymi przez dzieci urządzeniami elektronicznymi są telewizory (5,8 dnia w tygodniu), telefony komórkowe (4,3 dnia) i cyfrowe magnetowidy (4,1). Średnio najmłodsi używają domowej elektroniki przez niemal 3 dni w tygodniu. Badania wykazują, że istnieje spory popyt na dziecięce wersje „dorosłych” urządzeń, chociaż zainteresowanie nimi ze strony rodziców spadło w ciągu ostatniego roku z 83 do 74 procent. Oczywiście „dorosłe” wersje sprzedają się znacznie lepiej. Jedynym wyjątkiem są tutaj gry wideo.
  20. NASA rozważa zwieszenie wszystkich badań naukowych, które są prowadzone na Międzynarodowej Stacji Kosmicznej (ISS). Przerwa potrwałaby co najmniej rok. Przyczyną przerwania badań jest brak pieniędzy. W bieżącym roku Agencji może zabraknąć w budżecie 100 milionów dolarów. Program badawczy ISS już raz został poważnie obcięty, gdyż NASA potrzebowała pieniędzy na likwidację skutków huraganu Katrina. Kirk Shireman, zastępca dyrektora ds. badań na ISS, powiedział, że rozważane są różne opcje zaoszczędzenia pieniędzy, a jedną z nich jest zmniejszenie budżetu na badania. Niektórzy z krytyków uważają, że wstrzymanie badań przez cały 2007 rok to zbyt drastyczna decyzja. Miałyby się one ponownie rozpocząć w 2008 lub 2009 roku. Jeśli zostaną przerwane, to koszty ponownego ich rozpoczęcia będą bardzo wysokie. NASA została jednak postawiona przed trudną decyzją przez Senat, który obciął budżet ISS o 300 milionów dolarów. Przedstawiciele Agencji przekonali wówczas senatorów, że ważniejsze od badań jest kontynuowanie rozbudowy stacji.
  21. Amerykański Senat, stosunkiem głosów 63 do 37 przegłosował ustawę, która zezwala na zwiększenie funduszy federalnych przeznaczonych na badania nad komórkami macierzystymi. Możliwość prowadzenia takich badań ograniczył prezydent George W. Bush w 2001 roku. Wprowadził on przepisy, które zezwalają na prowadzenie badań jedynie na 22 liniach ludzkich komórek macierzystych wyizolowanych z embrionów przed 9 sierpnia 2001 roku. Wiele jednak z najbardziej obiecujących linii komórek zostało stworzonych po tej dacie. Stem Cell Research Enhancement Act został w ubiegłym roku przyjęty przez Izbę Reprezentantów stosunkiem głosów 238 do 194. Ustawa przewiduje zwiększenie funduszy i pozwala wykorzystanie państwowych pieniędzy do wyizolowania kolejnych linii komórek z embrionów, które pozostały po zapłodnieniach in vitro. Prezydent Bush prawdopodobnie zawetuje ustawę, wykorzystując prawo weta po raz pierwszy w swojej kadencji. Jeśli tak się stanie Senat będzie potrzebował większości dwóch trzecich głosów, by odrzucić prezydenckie weto. Najprawdopodobniej poprze on natomiast dwa inne akty prawne przyjęte jednogłośnie w tym samym pakiecie ustaw. Jeden zakazuje tworzenia "farm" płodów z których miałyby być pozyskiwane komórki lub tkanki, a drugi popiera badania nad alternatywnymi metodami pozyskiwania komórek macierzystych. Sprawa poparcia dla badań nad komórkami macierzystymi może być kluczową podczas najbliższych wyborów. Ustawa już wywołała rozdźwięki wśród członków partii prezydenta Busha. Poparło ją bowiem 19 spośród 55 republikanów. Zwolennikiem ustawy są lider senackiej większości, Bill Frist z Tennessee oraz gubernator Kalifornii, Arnold Schwarzenegger. Z sondaży opinii publicznej wynika, że 70% Amerykanów popiera badania nad komórkami macierzystymi. Dają one bowiem nadzieję na znalezienie sposobów na leczenie wielu chorób, od cukrzycy po chorobę Parkinsona.
×
×
  • Create New...