Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37638
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Entuzjasta sportów wodnych Franky Zapata z Marsylii pozazdrościł delfinom, które z wielką gracją ślizgają się po falach, dając od czasu do czasu nura. Francuz skonstruował Flyboard. Urządzenie działa jak plecak odrzutowy, tyle że na wodę. Stopy należy włożyć w przymocowane do platformy buty, spod których tryskają strumienie wody - to one zapewniają ciąg. Lot można stabilizować za pomocą sterowanych ręcznie dysz. Woda jest zasysana z morza czy oceanu za pomocą dużego węża. Flyboard przypomina urządzenie o nazwie JetLev, które trafiło do sprzedaży pod koniec 2009 r. To ostatnie pozwalało jednak wyłącznie na unoszenie się w górę i lekkie zanurzenie nóg, natomiast wynalazek Zapaty w pełni oddaje doświadczenia delfinów - można zanurzać się i raz po raz wyskakiwać na powierzchnię. Podczas gdy za JetLev trzeba zapłacić ponad 100 tys. euro, podstawowy model Flyboardu kosztuje "zaledwie" 4900 euro. Tutaj moc odrzutu kontroluje wyłącznie operator płynący z tyłu na skuterze. Nieco droższy model wymaga wyłuskania z kieszeni dodatkowych 900 euro, ale zapewnia niby-delfinowi udział w regulowaniu strumienia wody. Za 2-3 lata ma nastąpić premiera najdoskonalszego, całkowicie autonomicznego modelu. Wszystkie Flyboardy powstają w Zapata Racing w Bouches du Rhone koło Marsylii. Można je było podziwiać na Paris Boat Show. Wg krytyków, Zapata, który przez kilka miesięcy osobiście testował prototyp, musi być prawdziwym lekkoduchem, ponieważ ryzykuje nie tylko perforację błony bębenkowej, ale kto wie, może i złamanie karku. http://www.youtube.com/watch?v=lM8kEHjQz9U
  2. Dell przestał sprzedawać w USA tablet Streak. Decyzję taką podjęto w związku z sukcesem tabletu Kindle Fire, który w krótkim czasie stał się drugim po względem popularności tabletem w USA. Wyprzedza go tylko iPad. Streaka można jeszcze kupić u niektórych detalistów. Jednak nie oferuje go już witryna Della i wstrzymano produkcję. W sierpniu Dell zrezygnował też z 5-calowej wersji Streaka. Siedmiocalowy tablet po raz pierwszy został zaprezentowany podczas tegorocznych targów Consumer Electronics Show. Mimo tego, iż znajdował się w ofercie T-Mobile'a nie zdobył większej popularności. Obecnie jedynym tabletem Della jest 10-calowy Streak sprzedawany w Chinach. Najprawdopodobniej jednak Dell nie rezygnuje całkowicie z rynku tabletów. Firma ma podobno zamiar produkować tablety z systemem Windows 8, który zadebiutuje w przyszłym roku.
  3. W Stanach Zjednoczonych ponownie odkryto najrzadszy gatunek trzmiela. Trzmiel Cockerella został po raz pierwszy opisany w 1913 roku, gdy zebrano 6 tych zwierząt w okolicach Rio Ruidoso. Później opisano kolejnych 17 osobników. Ostatnia informacja o zaobserwowaniu tego gatunku pochodzi z 1956 roku. Od ponad 50 lat specjaliści nie natknęli się na trzmiela Cockerella. Dopiero 31 sierpnia bieżącego roku w Górach Białych w stanie Nowy Meksyk, przy autostradzie na północ od Cloudcroft zauważono trójkę przedstawicieli tego gatunku. Większość trzmieli znamy dzięki wielu opisanym osobnikom. Ale nie dotyczy to tego gatunku. Obszar, na którym go znaleziono jest rzadko odwiedzany przez entomologów. A gatunek ten był długo ignorowany, gdyż sądzono, że jest to regionalna odmiana kolorystyczna innego dobrze poznanego gatunku - stwierdził Douglas Yanega z University of California Riverside. Uczony mówi, że na terenie Stanów Zjednoczonych żyje około 50 gatunków trzmieli. Kilka z nich znajduje się na skraju zagłady, jak np. trzmiel Franklina, którego ostatnio zaobserwowano w 2003 roku. Mimo to trzmiel Franklina jest prawdopodobnie bardziej rozpowszechniony, gdyż ostatnie obserwacje wskazywały, że zamieszkuje on obszar ponad 33 000 kilometrów kwadratowych. Trzmiel Cockrella występuje na mniej niż 777 kilometrach kwadratowych, co czyni go najmniej rozpowszechnionym trzmielem na świecie. Yanega ma nadzieję, że współczesne narzędzia pozwolą na określenie, które gatunki są najbliżej spokrewnione z trzmielem Cockrella. Uczony jest też dobrej myśli co do szans przetrwania gatunku. Obszar, na którym go znaleziono jest w dużej mierze sklasyfikowany jako National Forest, co oznacza, że stanowi własność federalną i jest częściowo chroniony. Ponadto część terenów należy do plemienia Apaczów, więc, jak mówi Yanega, w najbliższym czasie trzmielowi nie grozi utrata habitatu. Naukowiec przypomina jednocześnie, że już w przeszłości zdarzały się niespodziewane ponowne odkrycia gatunków owadów, których nie widziano nawet przez 100 lat. Ciągle też odkrywane są nowe gatunki. Nie powinno nikogo dziwić, że tak łatwo natykamy się na nieznane wcześniej gatunki owadów. Jednak tempo ich odkrywania i opisywania jest niezwykle powolne, ponieważ, w porównaniu z liczbą nieopisanych gatunków, bardzo mało osób zajmuje się ich taksonomią. Ponadto praca taka jest trudna, czasochłonna i nie przynosi zbyt wiele rozgłosu, przynajmniej wśród opinii publicznej i w porównaniu np. z badaniami dinozaurów - dodaje Yaneg.
  4. „Etnolog w Mieście Grzechu" to wyjątkowa i pasjonująca opowieść o literaturze kryminalnej napisana z perspektywy wybitnego antropologa i poczytnego autora kryminałów, pokazująca, jak wspaniałym źródłem wiedzy o świecie jest powieść kryminalna. Czytelnicy kryminałów znajdą tu informacje o swoich ulubionych tekstach podane w sposób, jakiego się nie spodziewają. Badacze kultury i literatury zachwycą się podjęciem tematu rzadko obecnego w rozważaniach akademickich i sposobem jego ujęcia. Wszyscy zaś dadzą się porwać niezwykłemu talentowi pisarskiemu Mariusza Czubaja. Mariusz Czubaj (ur. 1969) - antropolog kultury, autor powieści kryminalnych. Pracuje w Szkole Wyższej Psychologii Społecznej w Warszawie. Jego badania koncentrują się wokół problematyki kultury popularnej. Opublikował książki: Biodra Elvisa Presleya. Od paleoherosów do neofanów (WAiP, 2007), W stronę miejskiej utopii. Szkice o wyobraźni społecznej (Academica, 2007), Krwawa setkę. 100 najważniejszych powieści kryminalnych (wraz z Wojciechem J. Bursztą, Muza, 2007). Jest współredaktorem tomu Kontrkultura. Co nam z tamtych lat? (Academica, 2005). Redaktor kwartalnika „Kultura Popularna". Współpracuje z Ośrodkiem Badań nad Przestrzenią Publiczną, prowadząc badania dotyczące antropologii sportu. W przypadku literatury kryminalnej łączy teorię z praktyką. Wraz z Markiem Krajewskim napisał powieści Aleja samobójców (WAB, 2008) oraz Róże cmentarne (WAB, 2009). Za powieść 21:37 (WAB, 2008) otrzymał Nagrodę Wielkiego Kalibru dla najlepszej polskiej powieści kryminalnej i sensacyjnej 2008 r.
  5. Książka Leszka Koczanowicza i Rafała Włodarskiego to pozycja bardzo wartościowa i pod wieloma względami wyjątkowa. Jest to erudycyjna i problemowa praca stanowiąca nie tylko znakomite „wprowadzenie do filozofii społecznej", ale także zawierająca wiele niesłychanie istotnych pytań, które trzeba zadawać na każdym poziomie zaawansowania myślenia o społeczeństwie. - prof. Tomasz Szkudlarek Droga Czytelniczko, Drogi Czytelniku, osią naszego wprowadzenia uczyniliśmy zagadnienie społeczeństwa obywatelskiego przekonani o tym, że powszechne zwrócenie się myślicieli, polityków i sympatii społecznych ku demokracji nie pozostaje bez wpływu na stan i kondycję współczesnej filozofii. Należy od razu zastrzec, że trudno dziś mówić o jednej filozofii, łącząc jej dzieje z genealogią nazywającego ją słowa, a pomijając w ten sposób równie długotrwałe, wielowątkowe i wpływowe, jak zachodnia, tradycje myśli polityczno-społecznej, rozwijane niezależnie w różniących się od siebie sposobami życia i wyrazu kulturach. Wzajemne sploty, fascynacje i uprzedzenia sąsiadujących społeczności, oddanych odmiennym tradycjom i praktykom, nie powinny ujść naszej uwadze, zarówno te z okresu tworzenia starożytnych czy średniowiecznych imperiów, podbojów, migracji i koniunktury ośrodków miejskich, jak również nowożytnego kolonializmu czy dynamicznie gęstniejącej sieci kontaktów i połączeń współczesnej globalizacji. Pomimo to dystanse pozostają. Jakkolwiek historia zapożyczeń i międzykulturowego uczenia się jest także historią zachodniej filozofii, liczne bariery, z których to, obok kulturowych i komunikacyjnych, na pierwszy plan wysuwają się obecnie językowe i polityczne, decydują o mniej lub bardziej lokalnym charakterze poszczególnych tradycji myśli polityczno-społecznej, powiązanych z warunkami świata życia obszarów, na których się zawiązują. Podobnie wartość zachodniej tradycji myśli polityczno-społecznej dla współczesnej filozofii wyrasta z ciągłości prowadzonych, przekazywanych i podejmowanych w jej obrębie (to wchłaniających, to znów dystansujących się wobec zapożyczeń) dyskusji, będących żywymi reakcjami na doniosłe wydarzenia i kształtujące je okoliczności. Inne czynniki, jak pochodzenie i kondycja rozmówców, dostęp do wiedzy, terytorium, język, z wyjątkiem wieku i płci, choć nie bez znaczenia, okazywały się w dłuższym okresie czasu odgrywać nieco mniejszą rolę. Tak więc należy pamiętać, iż próbując się zorientować w owej dyskusji, wikłamy się z konieczności w perspektywę patrzenia na świat właściwą uczniom tutejszych czarnoksiężników, która - mimo licznych słabości - obejmuje sobą również krytyczne wątki mające nas skierować ku samodzielnej pracy poszerzania horyzontów i stopniowego uwalniania się od ich magii, uroku oraz przesądów przez myślenie i podejmowanie dialogu z innymi tradycjami o równie bogatym dorobku, a konkretnie - z innymi ludźmi, kobietami i mężczyznami. Stąd taki, a nie inny dobór poszczególnych tematów i lektur, wokół których osnuliśmy nasze rozmowy i dociekania, a które stanowią jedynie możliwy punkt wyjścia do zajmowania się współczesną filozofią społeczną i kwestiami demokracji. Niemniej samo zagadnienie społeczeństwa obywatelskiego, jak już zaznaczyliśmy, pozostaje dla nas wyróżnionym i przyciągającym uwagę, ale także uzasadnionym i dogodnym polem filozoficznych badań. Łączy ono w sobie wątki zachodniej tradycji myśli, począwszy od Arystotelesa, i jej aktualnych problemów polityczno-społecznych, co też staramy się odsłonić i udowodnić w przedkładanych Tobie Czytelniczko, Czytelniku kolejnych rozdziałach książki.
  6. Dlaczego utonął Titanic? Ostrzeżenia o krach i górach lodowych operatorzy radiotelegrafu odbierali na statku przez kilka ostatnich dni przed katastrofą. Jedyną reakcją ze strony mostka kapitańskiego było skierowanie jednostki nieco bardziej na południe. Z sześciu odebranych depesz tylko jedna trafiła w ręce kapitana. Reszta krążyła pomiędzy oficerami a radiooperatorami. Przed katastrofą Titanica nie było żadnych reguł dotyczących przekazywania odebranych wiadomości na mostek kapitański. Zależało to jedynie od dobrej woli radiooperatora. Łączność radiotelegraficzna stanowiła nowinkę techniczną, a radiooperatorzy przez większą część czasu zajęci byli wysyłaniem wiadomości i życzeń od pasażerów, a nie ostrzeżeniami o górach lodowych. Padli ofiarą nie tyle zjawiska natury, co komunikacji. Musiały się dopiero wykształcić nowe systemy priorytetów - tego, co ważne i mniej ważne, prywatne i publiczne, tego, jakie wiadomości są przekazywane, jak i którym kanałem. Dawniej w retoryce najważniejsza była treść i forma - co i jak powiedzieć. Dzisiaj równie istotny, a czasem istotniejszy niż treść, jest kontekst przekazu - jak uczynić komunikat ważnym, w jakim umieścić go medium, w jakiej będzie odczytany konwencji i czy w ogóle ktoś zwróci nań uwagę. O tej zmianie w komunikacji przekonali się pasażerowie statku Titanic - będącego symbolem tryumfu techniki - w dramatycznych okolicznościach. Obecnie uwaga poświęcana przez audytorium mówcom drastycznie się zmniejszyła: już nie ma czasu na wysłuchiwanie dziewięciogodzinnych debat, jakie prowadzili w XIX wieku kandydaci na prezydenta Stanów Zjednoczonych na rynkach amerykańskich miasteczek; usta, które ma do dyspozycji współczesny komunikator, mają dziesiątki kształtów i postaci: mówią do nas poprzez telewizor w salonie, w metrze, na ścianach miejskich domów, w telefonie, w gazecie, na chodniku, na koszulkach piłkarzy, a nawet w toaletach w klubach. Sfera debaty publicznej przeżywa okres dyfuzji gatunkowej wraz z rozszerzeniem praw obywatelskich grona wybranej, uprzywilejowanej mniejszości na całą ludność. Wiele poważnych kwestii omawianych jest w rozrywkowej atmosferze - przesącza się w infotainmentowej formie; przekonania osadzają się na sieci utkanej z emocji audytorium, to, co nieemocjonalne, umyka społecznemu odbiorowi. Uwaga przenosi się z tego, o co toczy się gra, na naszą identyfikację z aktorem dramatu politycznego. Czemu ma służyć nauczanie retoryki jako przedmiotu praktycznego dzisiaj; w jaki sposób pozostać wiernym jej starożytnym założeniom i nie sprowadzić jej do nauki o figurach? Może należy wrócić do sokratejskiego celu - że nauczanie retoryki na uniwersytecie powinno umożliwić nauczanemu istnienie w życiu publicznym - jako uczestnika debaty, świadomego współczesnej rozliczności audytoriów, wielości środków komunikowania i sposobów ich używania, konwencji medialnych i tak dalej. Już na pierwszy rzut oka widać, że polski świat akademicki w dużej mierze zasklepił się sam w sobie i na własną prośbę zrezygnował z oddziaływania na życie publiczne: polskie książki naukowe mają w większości niskie nakłady i są napisane językiem ignorującym obecność czytelnika, badacze mówią w sposób mający zagwarantować im autorytet w środowisku naukowym, a nie wpłynąć na słuchaczy; na konferencjach akademicy od retoryki zazwyczaj czytają, wpatrzeni w kartkę, kurczowo się jej trzymając, co prowadzi może do intymnej relacji z kartką, ale nie służy kontaktowi z audytorium. Rzeczywistość uniwersytecka nauk humanistycznych przełomu wieków nawet w oczach studentów często ma mało wspólnego z realnym życiem publicznym: badacze chowają się w salach wykładowych niczym przebywający w zakazanym mieście reliktowi przedstawiciele świata mandarynów, zostawiając pole bitwy hochsztaplerom. Istnienie i zaangażowanie na współczesnej agorze wymaga uświadomienia sobie tego, jak wygląda dzisiejsza sfera publiczna (fora, blogi, audycje telewizyjne i radiowe, portale, muzyka protestu itd.) oraz jak jest zorganizowana społeczność, która na tych platformach komunikacyjnych funkcjonuje. Na tych płaszczyznach komunikacji rozgrywane są retorycznie co najmniej trzy rodzaje gier: 1) nadawanie ram interpretacji danemu wydarzeniu i związanym z nim emocjom (patos), 2) kreowanie tożsamości społecznej i rozdawanie ról w społecznym dramacie (etos) oraz 3) osiąganie założonych celów komunikacyjnych - informacyjno-perswazyjnych (logos). Ze Wstępu Spis treści: Część I. Inventio Aleksandra Szymków-Sudziarska Za kulisami sceny politycznej. Analiza komunikatów przedwyborczych z perspektywy psychologicznej Izabela Rudak Metoda etnograficzna Jacek Wasilewski Wodzowie kontra gracze. Analiza pentadyczna Krzysztof Polak Od skarbca do kiosku z kredytami. Semiotyczny obraz pieniądza w kulturze Część II. Dispositio Piotr Lewiński Analiza pragma-dialektyczna Milenia Fiedler Film jako sztuka perswazji Marek Kochan Metodologia analizy prasowych reklam narracyjnych Część III. Elocutio George Lakoff Metafory Terroru Marian Płachecki Panic Disorder jako forma uczestnictwa społecznego. Media w Polsce: władza druga, trzecia i czwarta Urszula Jarecka Retoryka wizualności. Pokazać katastrofę Krzysztof Szymanek O logicznej analizie tekstu Część IV. Memoria Anna Ewa Nita Motorówka w stoczni, czyli o wiarygodności pamięci Marta Spychalska O podatności tekstu na zapamiętanie na przykładzie sloganów Część V. Actio Aneta Załazińska Metoda analizy środków niewerbalnych pojawiających się podczas wypowiedzi (na podstawie programu Kuba Wojewódzki) Wojciech Jabłoński Miejsce wojennego pseudowydarzenia w politycznej retoryce - przykład konfliktu w Gruzji (sierpień 2008) Część VI. Konfrontacja z tekstem Bożena Keff Usuwanie kobiet - dyskurs a szacunek Albert Jawłowski Demistyfikacja mitu Michał Rusinek „Dzięki Panu historii". Dekonstrukcja jako lektura retoryczna Jakub Kloc-Konkołowicz Filozoficzna lektura tekstu
  7. Szympansy prawdopodobnie łączą dźwięki z kolorami. Wysokim dźwiękom przypisują jaśniejsze kolory, a niższym - ciemniejsze. To wskazuje, że nie tylko ludzie doświadczają zjawiska synestezji. Vera Ludwig z Charité - Universitätsmedizin Berlin, która prowadziła badania, mówi, że niemal wszyscy ludzie łączą wysokie tony z jasnymi kolorami, a niskie z ciemnymi. Zdaniem uczonej zdolność do takich wyobrażeń jest łagodną formą synestezji. Ludwig chciała się dowiedzieć, czy ludzie uczą się takiego a nie innego przyporządkowania dźwięków barwom od innych ludzi czy też jest to zdolność wrodzona. Dlatego rozpoczęła badania na szympansach. Wraz z kolegami z Kyoto University badała 6 szympansów w wieku 8-32 lat. Zwierzętom pokazano czarne oraz białe kwadraty na ekranie komputera i nauczono je, że jeśli wybiorą kwadrat takiego koloru, jak kwadrat wzorcowy, otrzymają nagrodę. Podczas eksperymentów małpy słyszały też wysokie i niskie dźwięki. Okazało się, że gdy odgrywano wysoki ton wtedy, gdy należało wybrać biały kwadrat, a niski gdy prawidłowym wyborem był czarny, odsetek prawidłowych wyborów wynosił 93%. Gdy natomiast białemu kwadratowi przyporządkowano niskie dźwięki, a czarnemu wysokie, odsetek ten spadł do około 90%. Wyniki uzyskane przez małpy porównano z wynikami grupy 33 ludzi. Homo sapiens zrobili jednak zbyt mało błędów, by można było wykazać wpływ dźwięku na wybór, jednak uczeni zauważyli, że gdy przy kolorach odgrywano właściwe dźwięki, ludzie szybciej dokonywali wyboru. Na podstawie eksperymentu Ludwig wnioskuje, że język nie jest potrzebny do odczuwania synestezji i sądzi, że zdolność tę dziedziczymy po wspólnym przodku. Inni naukowcy ostrożnie podchodzą do badań Ludwig. Edwart Hubbard z Vanderbilt University przypomina, że u ludzi synestezja dotyczy też słów, cyfr i innych zjawisk. Przyznaje jednak, że badania są interesujące i mogą wskazywać na istnienie pewnych rodzajów synestezji u innych gatunków. Z kolei Danko Nikolic z Instytut Maksa Plancka wątpi, czy badania wykazały istnienie synestezji u małp, zwracając uwagę, że zbyt wiele zjawisk jest określanych mianem synestezji. Sama Ludwig przyznaje, że udowodnienie istnienia synestezji u zwierząt jest bardzo trudną sprawą, gdyż u samych ludzi występuje ona bardzo rzadko i jest niezwykle subiektywnym zjawiskiem. Tymczasem jej japońscy współpracownicy szukają innych jej przykładów u szympansów. Przypominają, że np. ludzie kojarzą duże przedmioty z niskimi dźwiękami.
  8. W rezerwacie w zachodnich Indiach doszło do masowego porażenia flamingów różowych prądem. Stado przestraszyło się hałasu samochodu i poderwało się do lotu, wpadając na linię wysokiego napięcia. Na miejscu zginęło 139 ptaków. Co roku wielkie stada tych ptaków przylatują z Syberii, by odbyć gody na podmokłych obszarach Khadiru. W tym roku przyleciało wyjątkowo dużo flamingów (ich liczbę oszacowano na ok. 500 tys.). S.K. Nanda z Wydziału Leśnictwa i Środowiska Stanu Gudźarat powiedział w wywiadzie udzielonym agencji AFP, że zostało zamówione studium dotyczące zaizolowania kabli lub wkopania ich w ziemię.
  9. Producenci dysków twardych, Seagate i Western Digital, zapowiadają, że w pierwszym kwartale przyszłego roku zaczną uzupełniać braki rynkowe spowodowane zalaniem fabryk przez powodzie w Tajlandii. Obecna produkcja HDD wynosi 110-120 milionów sztuk kwartalnie. Pomiędzy styczniem a końcem marca na rynek ma zaś trafić około 140 milionów dysków twardych. Kwartalny popyt na tego typu urządzenia wynosi obecnie około 170 milionów sztuk. Oświadczenie największych producentów dysków twardych oznacza, że są oni w stanie przywrócić produkcję szybciej niż sądzono. Także japoński producent silników do dysków twardych, Nidec, stara się jak najszybciej przywrócić produkcje. Firma informuje, że już teraz osiągnęła poziom 80% produkcji sprzed powodzi.
  10. Producenci dysków twardych, Seagate i Western Digital, zapowiadają, że w pierwszym kwartale przyszłego roku zaczną uzupełniać braki rynkowe spowodowane zalaniem fabryk przez powodzie w Tajlandii. Obecna produkcja HDD wynosi 110-120 milionów sztuk kwartalnie. Pomiędzy styczniem a końcem marca na rynek ma zaś trafić około 140 milionów dysków twardych. Kwartalny popyt na tego typu urządzenia wynosi obecnie około 170 milionów sztuk. Oświadczenie największych producentów dysków twardych oznacza, że są oni w stanie przywrócić produkcję szybciej niż sądzono. Także japoński producent silników do dysków twardych, Nidec, stara się jak najszybciej przywrócić produkcje. Firma informuje, że już teraz osiągnęła poziom 80% produkcji sprzed powodzi.
  11. Brytyjski sąd zezwolił Julianowi Assange na odwołanie się do Sądu Najwyższego od wyroku nakazującego jego ekstradycję do Szwecji. Założyciel serwisu Wikileaks od niemal roku znajduje się w areszcie domowym w Wielkiej Brytanii. Został tam zatrzymany, gdy Szwecja zażądała jego ekstradycji w związku z oskarżeniami o gwałt, jakie wysunęły pod jego adresem dwie kobiety. Już wcześniej sąd zgodził się na ekstradycję. W związku z tym Assange odwołał się do High Court, który jeszcze niedawno był ostatnią instancją sądowniczą w Wielkiej Brytanii. High Court odrzucił zażalenie na decyzję o ekstradycji, jednak orzekł, że Assange może złożyć apelację do niedawno powołanego Sądu Najwyższego. Co prawda High Court postanowił nie nakazywać Sądowi Najwyższemu zajęcia się sprawą Assange'a, ale wyśle doń prośbę o rozpatrzenie sprawy. Prawnicy Assange'a mają teraz 14 dni na złożenie odpowiedniego wniosku do Sądu Najwyższego.
  12. Teleskop Kepler odkrył pierwszą planetę, o której na pewno wiemy, że znajduje się w strefie zamieszkania, czyli w takiej odległości od swojej gwiazdy macierzystej, która umożliwia istnienie na planecie ciekłej wody. W ostatnim czasie Kepler znalazł ponad 1000 obiektów, które mogą być planetami. Aż 10 z nich prawdopodobnie jest w strefie zamieszkania, jednak konieczną są dalsze obserwacje, by potwierdzić te przypuszczenia. Pierwsze potwierdzenie uzyskano w doniesieniu do planety Kepler-22b. Średnica planety jest o około 2,4 raza większa od średnicy Ziemi. Obiekt znajduje się w środku strefy zamieszkania i obiega gwiazdę podobną do Słońca. Na razie nie wiadomo, czy Kepler-22b to planeta skalista, gazowa czy też składająca w większości z płynnej materii. Już wcześniej znajdowano obiekty wielkości podobnej do Ziemi i znajdujące się w strefie zamieszkania, jednak nigdy nie zdobyto jednoznacznego dowodu, że mamy do czynienia z planetą i rzeczywiście jest ona tam, gdzie przypuszczano. Taki dowód uzyskano dopiero w przypadku Keplera-22b. Teleskop Kepler szuka planet mierząc zmiany w jasności ponad 150 000 gwiazd. Zmiany te mogą być powodowane właśnie przez planety, przechodzące pomiędzy obserwowaną gwiazdą a Ziemią. Szczęście się do nas uśmiechnęło. Po raz pierwszy zauważyliśmy tę planetę zaledwie trzy dni po uruchomieniu Keplera. Później obserwowaliśmy ją w 2010 roku - mówi William Borucki, główny naukowiec misji Kepler. Zespół Boruckiego korzysta też z teleskopów znajdujących się na Ziemi oraz z Teleskopu Kosmicznego Spitzera. Urządzenia te służą potwierdzeniu obserwacji Keplera. Planeta Kepler-22b jest odległa od nas o 600 lat świetlnych. Obiega swoją gwiazdę w czasie 290 dni. Sama gwiazda należy do tego samego co Słońce typu G, jest jednak nieco mniejsza i chłodniejsza od Słońca. Dotychczas teleskop Kepler odkrył 2326 obiektów, które mogą być planetami. Aż 207 z nich ma rozmiary Ziemi, kolejnych 680 należy do klasy superziemi, czyli planet większych od Ziemi, ale znacząco lżejszych od gazowych gigantów z Układu Słonecznego. Kolejnych 1181 jest rozmiarów Neptuna, 203 to planety wielkości Jowisza, a 55 jest większych od Jowisza.
  13. W mózgach dzieci będących świadkami i ofiarami przemocy domowej występują wzorce aktywności, jakie widuje się w mózgach żołnierzy biorących udział w walkach. Naukowcy z Uniwersyteckiego College'u Londyńskiego (UCL) i Centrum Anny Freud posłużyli się funkcjonalnym rezonansem magnetycznym (fMRI). Zauważyli, że u dzieci żyjących w brutalnych rodzinach podczas oglądania zdjęć zagniewanych twarzy wzrasta aktywność w ciele migdałowatym oraz przedniej części wyspy. Wcześniejsze badania fMRI wykazały, że u żołnierzy biorących udział w potyczkach/walkach po wykryciu potencjalnie zagrażającego bodźca także wzrasta aktywność tych samych obszarów mózgu. Psycholodzy uważają, że zarówno dzieci, jak i żołnierze przystosowują się do swojej sytuacji poprzez hiperświadomość zagrożeń środowiskowych. Autorzy studium opublikowanego na łamach Current Biology podkreślają, że amygdala i przednia część wyspy mają związek z zaburzeniami lękowymi. Adaptacja obejmująca te regiony wyjaśnia zatem, czemu dzieci będące ofiarami przemocy na późniejszych etapach życia częściej zmagają się właśnie z zaburzeniami lękowymi. Wszystkie badane dzieci były zdrowe [...]. Wykazaliśmy więc, że ekspozycja na przemoc domową wiąże się ze zmienionym funkcjonowaniem mózgu, któremu nie towarzyszą objawy psychiatryczne. Zmiany te mogą jednak stanowić nerwowy czynnik ryzyka [są przystosowawcze na krótszą metę, ale w dłuższej perspektywie zwiększają prawdopodobieństwo problemów emocjonalnych] - tłumaczy dr Eamon McCrory z UCL. W eksperymencie wzięło udział 20 dzieci z udokumentowaną historią przemocy. Uwzględniono też 23-osobową grupę kontrolną. Średni wiek maltretowanych dzieci wynosił 12 lat. Podczas badania w skanerze wszystkim pokazywano zdjęcia kobiecych i męskich twarzy wyrażających smutek i złość. Pojawiały się też fizjonomie neutralne. Zadanie polegało jedynie na określeniu, czy wyświetlana twarz należy do kobiety, czy mężczyzny. W kolejnym etapie studium McCrory i inni zamierzają ustalić, jak stabilne są odnotowane zmiany w aktywności wyspy i ciała migdałowatego. Nie każde dziecko doświadczające przemocy ma przecież później problemy psychiczne. Warto sprawdzić, jakie mechanizmy się za tym kryją.
  14. W ofercie firmy Action znalazła się maszyna dla graczy, Actina Sierra 700I. Konfiguracja zamkniętego w futurystycznej obudowie komputera powinna zadowolić najbardziej wymagającego miłośnika gier wideo. Maszynę wyposażono w chłodzony wodą sześciordzeniowy procesor Intel Core i7-3960X Extreme Edition wyposażony w 15 megabajtów pamięci cache i taktowany zegarem o częstotliwości 3,30 GHz. Użytkownik skorzysta też z 8 gigabajtów pamięci RAM (Kingston HyperX DDR3 1600 MHz). Za obróbkę grafiki odpowiada karta Nvidia GeForce GTX 580 wyposażona w 3-gigabajtową pamięć DDR5. Dane możemy przechowywać na dwóch dyskach SSD o pojemności 120 gigabajtów każdy oraz na 1,5-terabajtowym HDD SATA III. Producent pomyślał też o nagrywarce DVD-RW z funkcją odczytywania płyt Blu-ray. Actina Sierra 700I nie należy do tanich urządzeń. Komputer kosztuje około 12 000 pln.
  15. Podczas badań na zwierzęcym modelu raków gruczołu sutkowego i prostaty odkryto, że zastrzyki z dopaminy zwiększają napływ krwi do guza, 2-krotnie podwajając stężenie leku przeciwnowotworowego w obrębie jego tkanek. Nasilony przepływ krwi zwiększa także dostawy tlenu do zmienionej chorobowo tkanki, co z kolei poprawia skuteczność chemio- i radioterapii. Zespół z OSUCCC – James (Ohio State University Comprehensive Cancer Center – Arthur G. James Cancer Hospital) odkrył, że działając za pośrednictwem receptorów dopaminowych D2, dopamina odgrywa ważną rolę w podtrzymywaniu prawidłowej budowy naczyń krwionośnych. D2 występują w normalnych komórkach naczyń - perycytach oraz komórkach nabłonka. Nie stwierdzono obecności neuroprzekaźnika w komórkach naczyń guzów. Nasze studium sugeruje wykorzystanie dopaminy w leczeniu nowotworów i być może innych zaburzeń, w przypadku których normalizacja dysfunkcjonalnych naczyń krwionośnych potencjalnie nasili reakcje terapeutyczne - tłumaczy dr Sujit Basu, dodając, że dopamina i jej pochodne są już i tak wykorzystywane w szpitalach, nie trzeba by więc planować terapii od strony logistyki czy zajmować się jej bezpieczeństwem. Basu podkreśla, że naczynia wewnątrz guza są nieprawidłowo zbudowane, w dodatku tworzą chaotyczną i nieszczelną sieć, ograniczając w ten sposób dopływ krwi z tlenem i ewentualnych leków. Akademicy stwierdzili, że dopamina normalizuje budowę naczyń guza. Po iniekcji neuroprzekaźnika naczynia zarówno raka piersi, jak i prostaty zaczynały przypominać prawidłowe naczynia pod względem architektury i szczelności. Wcześniejsze potraktowanie tkanki antagonistą receptorów dopaminowych eliminowało to zjawisko. Podskórne guzy ludzkiego raka jelita grubego, które poddano ekspozycji na dopaminę i fluorouracyl (5-FU), akumulowały 2-krotnie więcej preparatu niż myszy leczone wyłącznie 5-FU. W dodatku guzy tych pierwszych miały wielkość ok. 1/3 zmian z grupy kontrolnej.
  16. MDMA (ecstasy) wywołuje trwałe zmiany w mózgu. Dotyczą one spadku poziomu serotoniny w mózgu, który organizm próbuje kompensować, zwiększając liczbę receptorów (Archives of General Psychiatry). Serotonina spełnia bardzo ważną rolę - reguluje nastrój, sen, uczenie i pamięć. Dr Ronald Cowan z Vanderbilt University podkreśla, że obecnie prowadzone są badania nad ewentualnym wykorzystaniem ecstasy w terapii zespołu stresu pourazowego i lęku towarzyszącego chorobie nowotworowej. Najpierw trzeba jednak ustalić, przy jakiej dawce mogą się pojawić efekty toksyczne i czy istnieje genetyczna podatność na toksyczne oddziaływanie MDMA. Za pomocą pozytonowej tomografii emisyjnej (PET) zliczano receptory serotoninowe typu 2A (5HTR2A) w różnych rejonach mózgu. Badano kobiety, które zażywały MDMA, ale nie w ciągu 3 miesięcy poprzedzających eksperyment. Grupę kontrolną stanowiły panie, które nigdy nie sięgnęły po ecstasy. Okazało się, że narkotyk zwiększał liczbę receptorów 5HTR2A. Im wyższe dawki, tym więcej receptorów. Cowan dodaje, że podobne wyniki uzyskano podczas badań na zwierzętach. "Inwestując" w receptory, organizm próbuje kompensować spadek poziomu neuroprzekaźnika. Wcześniej w tym roku Cowan i inni odkryli, że ecstasy zwiększa aktywację 3 obszarów związanych z przetwarzaniem wzrokowym. Razem z najnowszymi wynikami sugeruje to przewlekłe zmiany w układzie serotoninergicznym.
  17. Pojawił się kolejny pozew zbiorowy związany z obecnością oprogramowania firmy Carrier IQ na smartfonach. Pozew skierowany jest przeciwko firmom Apple, HTC, Samsung, Motorola, AT&T, Sprint, T-Mobile oraz Carrier IQ. Cztery osoby, które wystąpiły z pozwem, oskarżają firmy o naruszenie ustaw Federal Wiretap Act, Stored Electronic Communications Act, Federal Computer Act oraz Abuse Act. Operatorzy sieci komórkowych bronią się twierdząc, że dane są zbierane tylko w celach diagnostycznych. Z kolei producenci smartfonów mówią, iż zainstalowali kontrowersyjne oprogramowanie na prośbę operatorów. Wspomniany pozew to co najmniej trzeci wniosek skierowany do sądu w związku z ujawnieniem, że obecne w milionach telefonów oprogramowanie Carrier IQ prawdopodobnie szpieguje użytkowników. W miarę, jak sprawa nabiera rozgłosu i interesuje się nią coraz więcej osób, pojawiają się nowe informacje na ten temat. Część specjalistów ds. bezpieczeństwa twierdzi, że program nie jest keyloggerem ani rootkitem. Niezależnie jednak od tego, Carrier IQ prawdopodobnie będzie musiała gęsto się tłumaczyć. Republikański senator Edward Markey już poprosił Federalną Komisję Telekomunikacji (FTC) o wszczęcie śledztwa. Sprawą zainteresowały się też urzędy w Unii Europejskiej. Apple już oświadczyło, że przygotowuje poprawkę, usuwającą sporne oprogramowanie ze wszystkich iPhone'ów.
  18. Stres oksydacyjny obwinia się za wiele rzeczy, w tym za choroby neurodegeneracyjne, a nawet starzenie. Dotąd jednak nikt nie obserwował bezpośrednio zmian oksydacyjnych w żywym organizmie. Udało się to dopiero dzięki badaniom na muszkach owocowych, które ku zaskoczeniu autorów z Deutsches Krebsforschungszentrum (DKFZ) wykazały, że długość życia nie spada wskutek produkcji oksydantów. Zespół doktorów Tobiasa Dicka i Aurelia Telemana wprowadził do genomu owocówek geny bioczujników. Sensory były przystosowane do wykrywania specyficznych oksydantów i za pomocą sygnału świetlnego wskazywały w czasie rzeczywistym status oksydacyjny każdej komórki. Co więcej, dawały pojęcie o tym, co dzieje się w całym organizmie na przestrzeni całego życia. W przypadku larw Niemcy zauważyli, że poszczególne tkanki wytwarzają bardzo różne stężenia utleniaczy. Okazało się, że mitochondria komórek krwi produkują ich o wiele więcej niż centra energetyczne komórek jelit czy mięśni. Poza tym poziom oksydantów w tkankach odzwierciedla, co w danym momencie robią larwy. Naukowcy byli w stanie stwierdzić, czy ruszają się, czy jedzą, przyglądając się statusowi oksydacyjnemu tkanki tłuszczowej. Dotąd wielu naukowców zakładało, że proces starzenia się jest związany z ogólnym wzrostem stężenia oksydantów w organizmie. Obserwacje muszek owocowych jednak tego nie potwierdziły. Jedyny właściwie wzrost, jaki stwierdzono, dotyczył przewodu pokarmowego. Co ciekawe, akumulacja utleniaczy w tkance jelit była przyspieszona w przypadku dłużej żyjących osobników. Oznacza to, że długość życia nie spada w wyniku produkcji oksydantów. Zespół z DKFZ postanowił przetestować na owocówkach wpływ często polecanego przez naukowców i nie tylko przez nich przeciwutleniacza - acetylocysteiny (NAC). Nie znaleziono dowodów na spadek stężenia oksydantów u owadów karmionych NAC. Zamiast tego acetylocysteina wydawała się nakłaniać mitochondria różnych tkanek do wytwarzania większych ilości utleniaczy. Zaskoczyło nas sporo rzeczy zaobserwowanych u owocówek za pomocą bioczujników. Wydaje się, że wielu odkryć dotyczących izolowanych komórek nie można zwyczajnie przetransferować na sytuację żywego organizmu - podkreśla Dick. W kolejnym etapie badań biolodzy zamierzają wprowadzić czujniki do organizmów ssaków i śledzić dzięki nim np. reakcje zapalne i rozwój guzów.
  19. Podczas IEEE International Electron Devices Meeting IBM zaprezentował pamięć typu racetrack. Została ona wykonana za pomocą standardowych metod produkcyjnych. To niezwykle ważny czynnik, gdyż koszty wdrażania nowych technologii i budowy nowych linii produkcyjnych mogłyby uczynić racetrack nieopłacalną. Istotą technologii racetrack jest przesuwanie domen magnetycznych, w których zapisane są dane, wzdłuż wyznaczonych tras. Nad wykorzystaniem prądu do przesuwania domen eksperymentował w 2004 roku Stuart Parkin z IBM Almaden Research Center. Wówczas domeny przesuwały się zbyt wolno, by wykorzystać to zjawisko w praktyce. Na szczęście Parkin nie zniechęcił się i kontynuował badania. W 2008 roku IBM poinformował, że ma zamiar zbudować pamięci typu racetrack (racetrack memory - RM). Od trzech lat prowadzono bardzo intensywne badania i tworzono kolejne eksperymentalne układy. W końcu w ubiegłym roku IBM poinformował, że pokonano ostatnią przeszkodę na drodze do zbudowania RM - nauczono się precyzyjnie sterować ruchem domen magnetycznych. Pamięć racetrack składa się z miliardów nanokabli w kształcie litery U. Są one przytwierdzone do krzemowego podłoża. W każdym nanokablu można przechowywać setki bitów w formie pól magnetycznych rozmieszczonych wzdłuż niego. Pod wpływem napięcia elektrycznego domeny magnetyczne przesuwają się, a znajdująca się na zakończeniu kabli głowica mierzy magnetooporność domen, odczytując ich zawartość. Domeny przesuwają się z prędkością setek kilometrów na godzinę, a że mają do przebycia odległości liczone w nanometrach, błyskawicznie docierają do głowic odczytujących. Racetrack nie ma ruchomych części, więc się nie zużywa. Może przechowywać dane przez dziesięciolecia, używa niezwykle mało prądu i niemal nie wydziela ciepła. Pozwala na przechowywanie na tej samej przestrzeni co najmniej 100-krotnie więcej danych niż obecnie dostępne technologie. RM ma zatem wszystkie zalety pamięci RAM, flash oraz dysków twardych i jest pozbawiona ich wad. Teraz IBM zaprezentował RM wykonany w technologii CMOS. W eksperymentalnej maszynie badawczej, która przez lata służyła do rozwijania RM, nanokable były umieszczone na krzemowym podłożu, a inne podzespoły były podłączone oddzielnie. Wszystkie obwody były oddzielone od układu z nanokablami. Teraz zaprezentowaliśmy zintegrowany układ, którego wszystkie podzespoły znajdują się na jednym kawałku krzemu - mówi Stuart Parkin. Nowe pamięci wykorzystują niklowo-żelazne nanokable o długości 10 mikrometrów, szerokości 150 nanometrów i grubości 20 nanometrów. Na jednym końcu kabla znajduje się połączenie elektryczne, które wysyła impulsy o precyzyjnie kontrolowanym spinie, za pomocą których zapisywane są dane. Na drugim końcu znajduje się głowica odczytująca. Specjaliści z Instytutu Elektroniki Fundamentalnej z francuskiego Orsay, którzy wraz z innymi europejskimi ośrodkami pracują nad własną wersją RM mówią, że osiągnięcia IBM-a są imponujące, ale nie zawierają wszystkich koniecznych elementów. Podkreślają, że Błękitny Gigant umieścił w każdym nanokablu tylko jedną domenę magnetyczną. Stuart Parkin odpowiada, że intencją jego zespołu nie było w tej chwili prezentowanie pojemności RM, ale pokazanie, że układ taki można wyprodukować za pomocą standardowych technologii. Teraz naukowcy z IBM-a prowadzą eksperymenty, mające na celu umieszczenie jak największej liczby domen magnetycznych na pojedynczym nanokablu. Już dowiedzieli się, że zastosowanie innego materiału niż stop niklu i żelaza pozwoli na zwiększenie pojemności RM. Stopu niklu i żelaza (zwanego miękkim materiałem magnetycznym) standardowo używa się podczas badań, gdyż można go łatwo magnetyzować i rozmagnetyzować. Zespół Parkina eksperymentował już także z tzw. twardym materiałem magnetycznym, którego właściwości magnetyczne są związane z jego siatką krystaliczną i nie jest go łatwo rozmagnetyzować. Z badań nad tym materiałem dowiedzieliśmy się, że możemy bardzo szybko przesuwać domeny magnetyczne, które są jednocześnie mniejsze i silniejsze niż w miękkim materiale magnetycznym - mówi Parkin. To z kolei oznacza, że nie tylko będzie można zwiększać pojemność RM, ale że niedoskonałości w strukturze nanokabli nie będą prowadziły do zakłóceń w działaniu pamięci.
  20. Do końca bieżącego roku amerykańska Agencja Żywności i Leków (FDA) przygotuje zalecenia, które umożliwią dopuszczenie na amerykański rynek generycznych wersji lekarstw biologicznych. Specjaliści uważają jednak, że nie przyczyni się to do tak dużych oszczędności, jak w przypadku tradycyjnych lekarstw. W 1984 roku na podstawie ustawy Hatch-Waxman Act zezwolono na sprzedaż w USA lekarstw generycznych. Obecnie stanowią one około 60% amerykańskiego rynku leków. Szacuje się, że dzięki nim tylko w latach 1999-2008 zaoszczędzono 734 miliardy dolarów. Eksperci twierdzą, że w przypadku leków biologicznych nie można liczyć na tak olbrzymie oszczędności. Lekarstwa biologiczne to środki, które są związane z cząsteczkami naturalnie występującymi w organizmie. Są wytwarzane metodami inżynierii genetycznej. Mimo, że są droższe od tradycyjnych środków leczniczych, popyt na nie szybko rośnie. Roczna terapia środkiem Cerezyme, który umożliwia przeżycie osobom ze śmiertelnym niedoborem jednego z enzymów, kosztuje 500 000 dolarów. Z kolei za rok leczenia przeciwnowotworowym Avastinem trzeba zapłacić 100 000 USD. Obecnie generyczne odpowiedniki takich lekarstw są w USA niedostępne. Dominique Gouty, dyrektor laboratorium w firmie Intertek Pharmaceutical Services, która specjalizuje się w testowaniu lekarstw na zlecenie, mówi, że biologiczne generyki będą tańsze, ale nadal będą drogie. Ustawa Hatch-Waxman Act przewiduje, że jeśli wytwórca leku generycznego udowodni, iż jest on identyczny z oryginałem, ma prawo wglądu do dokumentów producenta oryginalnego leku. Dzięki temu producenci generyków mogą zaoszczędzić nawet 80% kosztów związanych z testowaniem swoich środków. Jednak z lekami biologicznymi sprawa wygląda zupełnie inaczej. Lekarstwa syntetyczne tworzone są w laboratoriach w trakcie bardzo dobrze poznanych procesów chemicznych, a produkt końcowy ma ściśle określone cechy, które łatwo jest sprawdzić. Zatem uzyskanie od FDA akceptacji dla syntetycznego generyku jest stosunkowo proste. Na przykład aspiryna ma masę atomową 180 daltonów i ściśle określoną budowę. Producentowi generycznej aspiryny wystarczy, że dostarczy do FDA opis budowy molekularnej cząsteczki. Dla porównania lek biologiczny, interferon beta, używany w leczeniu stwardnienia rozsianego, ma masę 19 000 daltonów, jest produkowany z kultur żywych komórek, ma bardzo skomplikowaną strukturę, na którą składają się zagięcia, zwinięcia oraz dołączone grupy węglowodorowe. Może też być łączony z innymi białkami. Co gorsza, dotychczas nie opracowano narzędzi, pozwalających na szczegółowe porównanie i opisanie cząstek o podobnej strukturze. Co prawda dostępne metody analityczne pozwalają na stwierdzenie, czy dwa białka mają identyczną sekwencję aminokwasów, ale już opisane wszystkich zagięć, kształtów i grup węglowodorowych jest praktycznie niemożliwe. A nikt nie wie, jak np. różnica kształtu może wpłynąć pacjenta. Jakby tego było mało, produkcja leków biologicznych wymaga niezwykle precyzyjnych procesów produkcyjnych przeprowadzanych w bardzo dobrze kontrolowanym środowisku. Przekonała się o tym firma Genzyme, która chciała w 2008 roku zwiększyć produkcję leku Myozyme. Okazało się, że sama tylko zmiana zbiornika, w którym przeprowadzano reakcje, ze 160-litrowego na taki o pojemności 2000 litrów, z nieznanych przyczyn spowodowała, że zmieniły się też grupy węglowodorowe. Genzyme musiało więc powtórzyć wszystkie testy, a lek z większej fabryki został, po przejściu całej procedury, dopuszczony na rynek pod nową nazwą. Przypadek ten dowodzi, że nawet u tego samego wytwórcy, wykorzystującego identyczny proces produkcyjny, lek biologiczny może się niespodziewanie zmienić. Należy się tutaj liczyć z tym, że wytwórcy generyków będą używali odmiennych procesów produkcyjnych od twórców oryginałów, co dodatkowo utrudni im uzyskanie identycznego wyniku. W końcu należy pamiętać, że leki biologiczne stwarzają nowe zagrożenia. W 2003 roku firma Johnson & Johnson dokonała niewielkiej zmiany w leku Procrit, używanym podczas leczenia anemii. Środek stabilizujący lek zastąpiono po prostu innym, teoretycznie bezpieczniejszym. Po tym, jak nowy Procrit trafił na rynek okazało się, że stabilizator niespodziewanie przereagował z innymi składnikami leków tworząc substancję, która u 16% pacjentów wywołała - w niektórych przypadkach śmiertelne - odpowiedź immunogeniczną i krwawienie śródczaszkowe. Leki biologiczne, jako produkowane z żywych organizmów, są rozpoznawane i atakowane przez organizm chorego. Efektem ataku układu odpornościowego może być zmniejszenie skuteczności leku, ale również uszkodzenia organów wewnętrznych czy nowotwór. Wszystkie opisane powyżej czynniki powodują, że dopóki nie powstaną narzędzia, pozwalające na bardzo precyzyjny opis budowy leku biologicznego, producenci biologicznych generyków będą musieli przeprowadzać wszelkie niezbędne badania przed dopuszczeniem ich na rynek. A to oznacza, że nie mogą liczyć na oszczędności, które w przypadku tradycyjnych generyków sięgają 80% kosztów.
  21. Bez wystrzałów startera czy błysków fleszy parę miesięcy temu rozegrano pierwszy na świecie wyścig komórek. Laur zwycięzcy przypadł komórkom szpiku z Singapuru, które wyznaczony w szalce Petriego dystans o długości 400 mikronów pokonały z prędkością 0,00008627872 mm/s. Zawody rozgrywano w 6 nadrzędnych laboratoriach w Singapurze, Londynie, Bostonie, Paryżu, Heidelbergu oraz San Francisco. Zgodnie z regulaminem, filmowaniem zajmowało się powiązane z danym ośrodkiem akademickim lokalne Centrum Obrazowania Nikona. Na spotkaniu Amerykańskiego Stowarzyszenia Biologii Komórki, które odbyło się w zeszły weekend w Denver, wręczono nagrody w postaci aparatów fotograficznych oraz medale. Miejsca drugie i trzecie przypadły dwóm rodzajom komórek piersi, zgłoszonym do nagrywanego przez dobę wyścigu przez Odile Filhol-Cochet z iRTSV we Francji. Na czwartym miejscu znalazły się komórki skóry Rumeny Begum z King’s College, London. W sumie w zmaganiach uczestniczyło 70 typów komórek z 50 różnych laboratoriów. Mile widziane były także komórki z mutacjami. Organizatorzy World Cell Race podkreślają, że przyświecał im jak najbardziej poważny cel: chodziło o dokładniejsze zbadanie poruszania się komórek, co może pomóc w zrozumieniu rozprzestrzeniania się nowotworu. W przyszłości mają się odbyć zmagania w innych dyscyplinach, np. pływaniu. Na witrynie World Cell Race można przeczytać, jak powinna wyglądać arena zmagań komórek (ich dostarczeniem zajmowała się firma CYTOO). Tory z fibronektyny muszą otaczać zapory z materiały cytofobowego. Ze względu na różne rozmiary komórek, szlaki mogły mieć 4 albo 12 mikronów szerokości. Nagrania odbywały się w sierpniu, a wrzesień poświęcono na analizę uzyskanych materiałów i porównania. http://www.youtube.com/watch?v=2yxE8LcJ48w
  22. Działalność człowieka jest odpowiedzialna za co najmniej 74% zmian klimatycznych. Do takich wniosków doszli dwaj naukowcy ze Szwajcarskiego Federalnego Instytutu Technologii w Zurychu (ETH Zurich). Reto Knutti i Markus Huber wykorzystali podczas swoich badań nową, opracowaną przez siebie metodę. Dotychczas używane metody analityczne to potężne narzędzia, jednak, jak mówią obaj naukowcy, są zbyt skomplikowane, by mógł je zrozumieć przeciętny człowiek. Knutti i Huber skorzystali ze znacznie prostszego modelu. Swoją symulację uruchomili tysiące razy z różnymi kombinacjami podstawowych zmiennych opisujących budżet energetyczny Ziemi, badając ile energii jest przez planetę i atmosferę przyjmowane, a ile je opuszcza. Wykorzystali przede wszystkim takie parametry jak promieniowanie słoneczne, energię słoneczną opuszczającą Ziemię, ciepło absorbowane przez oceany oraz takie efekty klimatyczne jak np. zmniejszanie się pokrywy śniegu, co prowadzi do większego pochłaniania ciepła przez grunt. Wielokrotnie prowadzone symulacje pozwoliły im stwierdzić, że od 1950 roku gazy cieplarniane przyczyniłyby się do wzrostu temperatury na Ziemi o 0,6-1,1 stopnia Celsjusza, ze średnią przypadającą na 0,85 stopnia. Około połowa z tego ocieplenia nie miała miejsca ze względu na zwiększoną koncentracji aerozoli w atmosferze. Z obliczeń Szwajcarów wynika, że od 1950 roku średnie temperatury na Ziemi wzrosły o 0,5 stopnia Celsjusza. Wynik ten jest w wysokim stopniu zgodny z wartością 0,55 stopnia uzyskaną innymi metodami. Uczeni z ETH Zurich stwierdzili również, że zmiany w aktywności słonecznej odpowiadają za wzrost temperatury o nie więcej niż 0,07 stopnia Celsjusza. Knutti i Huber chcieli też sprawdzić, czy ocieplenie może być powodowane naturalnymi zmianami klimatycznymi. Ich symulacje wykazały, że nawet gdyby zmienność ta była trzykrotnie większa niż uzyskana za pomocą najdoskonalszych modeli, to nie przyczyniłaby się do tak dużego ocieplenia jakie jest obserwowane. Na tej podstawie naukowcy doszli do wniosku, że to powodowana przez człowieka emisja gazów cieplarnianych jest w co najmniej 74% odpowiedzialna za zwiększanie się temperatury na planecie.
  23. Plemniki golców (Heterocephalus glaber) są bardzo zniekształcone i wolne. Biolodzy sądzą, że dzieje się tak z powodu braku konkurencji między gametami. Dominująca samica - królowa - decyduje, z którym samcem chce kopulować i tłumi instynkty reprodukcyjne pozostałych. Zespół Liany Maree z University of the Western Cape pobrał próbki spermy trzymanych w niewoli golców. Testy ujawniły wiele nieprawidłowości. Zdolność poruszania się zachowało zaledwie 7% plemników, w dodatku pływały one z prędkością zaledwie ok. 35 mikrometrów na sekundę (najwolniej u wszystkich ssaków). Stwierdzono skrajny polimorfizm plemników, a większość sklasyfikowano jako anormalne. Główki plemników przyjmowały wiele różnych kształtów. Były kuliste, owalne, wydłużone, asymetryczne i amorficzne. Chromatyna w jądrze wydawała się nieregularna i zdezorganizowana (między jej skupiskami znajdowało się np. dużo wolnej przestrzeni). We wstawce występowało od 5 do 7 okrągłych lub owalnych mitochondriów. W takich okolicznościach nie powinno dziwić, że bez energii do napędu plemniki golców poruszają się tak wolno. Dla porównania: ludzkie plemniki w sekundę przebywają ok. 0,1 mm. Golec jest dobrym modelem tego, co dzieje się z ludźmi - uważa Maree, nawiązując do tendencji monogamicznych w obrębie naszego gatunku. Wcześniejsze badania wykazały, że u człowieka porusza się ok. 60% plemników, podczas gdy u bardziej promiskuitycznych gatunków odsetek ten wzrasta do 95%.
  24. Rosyjscy i japońscy naukowcy spróbują sklonować mamuta. Włochate olbrzymy mogą powrócić na Ziemię dzięki znalezionej przed kilkoma miesiącami kości udowej, w której odkryto dobrze zachowany szpik. W przyszłym roku rozpoczną się próby klonowania. Specjaliści przeniosą jądro komórkowe ze szpiku do jaja słonia, z którego wcześniej zostaną usunięte oryginalne jądra komórkowe. Tak stworzony embrion będzie wprowadzony do macicy, gdzie ma się rozwinąć i umożliwić narodzenie zwierzęcia, które wyginęło 10 000 lat temu. Próby klonowania mamutów prowadzone są od lat 90. ubiegłego wieku. Dotychczas żadne się nie powiodły, gdyż jądra komórkowe zachowane w znajdowanych szczątkach były w bardzo złym stanie. Tymczasem jądra komórek w niedawno odnalezionym szpiku są w doskonałej kondycji, a w ciągu ostatnich lat znakomicie rozwinęła się technologia klonowania, co daje nadzieję na odniesienie sukcesu.
  25. Świadkowie, niestety, często się mylą. Okazuje się, że by zdobyć bardziej wiarygodne dowody dla sądu, warto polegać nie na tym, co człowiek mówi, ale gdzie patrzy. Ruchy oczu są szybko ściągane w rejon zapamiętanych obiektów - podkreśla prof. Deborah Hannula z University of Wisconsin Milwaukee. Śledzenie, gdzie i przez jaki czas ktoś patrzy, może pomóc w odróżnieniu obiektów wcześniej widzianych i nowych [...]. Amerykańscy psycholodzy dali studentom do pooglądania 36 twarzy, które następnie poddano morfingowi. Nowe fizjonomie miały być bardzo podobne do oryginalnych. Później badani zapoznawali się z 36 trzyelementowymi zestawami. Poinformowano ich, że w zbiorze może w ogóle nie występować twarz z początku eksperymentu. Naciśnięciem guzika trzeba było zasygnalizować, która z twarzy pojawiła się w pierwotnym zbiorze. W razie nieobecności takiego elementu należało wybrać jakąkolwiek twarz. Eksperymentatorzy prosili też, by nie tylko wskazywać, ale i powiedzieć, czy dana fizjonomia pojawiła się wcześniej, czy nie. Gdy ochotnicy przyglądali się 3-elementowym zestawom, naukowcy nagrywali ruchy oczu. Ustalali, gdzie dany człowiek spojrzał na początku i ile czasu spędził na patrzeniu na ten obiekt. W czasie analizy twarze podzielono na 3 grupy: 1) rzeczywiście oglądane na początku eksperymentu, 2) twarze poddane morfingowi, które badani pomylili z twarzami pierwotnymi, 3) twarze zmorfowane, wskazane przy pełnej świadomości, że nie są tymi, o które chodziło. Okazało się, że ochotnicy łatwo identyfikowali twarze oglądane na wstępie. Dłużej na nie patrzyli i często kierowali tam wzrok od razu po zaprezentowaniu 3-elementowego zestawu. Interesujące jest to, że zanim badani wybrali twarz i zasygnalizowali to, naciskając guzik, w porównaniu do innych twarzy, nieproporcjonalnie dużo patrzyli na tę "docelową". Wszystko jednak zmieniało się po naciśnięciu guzika: spoglądanie dopasowywało się do reakcji behawioralnej, bez względu na to, czy była prawidłowa, czy nie. Hannula uważa, że metodę bazującą na monitorowaniu ruchów sakkadowych oczu można wykorzystać w badaniu pamięci dzieci czy osób chorych psychicznie (obie te grupy miewają problemy komunikacyjne).
×
×
  • Dodaj nową pozycję...