Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy pracujący przy Wielkim Zderzaczu Hadronów opisali to, co dzieje się podczas zderzenia protonów. Po dwuletniej przerwie Wielki Zderzacz Hadronów (LHC) rozpoczął pracę z najwyższą przewidzianą dla niego mocą. Cząsteczki zderzają się z energią 13 teraelektronowoltów (TeV). Profesorowie Yen-Jie Lee, Gunther Roland i Bolek Wyslouch z MIT-u opublikowali na łamach Physical Letters B wyniki swoich eksperymentów. Podczas rozruchu LHC wykorzystano dwa strumienie protonów poruszające się naprzeciwko siebie z prędkością bliską prędkości światła. Każdy strumień składał się z 476 paczek po 100 miliardów protonów każda. Do zderzeń pomiędzy protonami dochodziło co 50 nanosekund. Uczeni przeanalizowali 20 milionów interakcji pomiędzy wiązkami protonów i znaleźli w nich 150 000 przypadków zderzeń proton-proton. W każdym takim przypadku przeanalizowali liczbę powstałych cząstek oraz kąt ich poruszania się. Okazało się, że wskutek przeciętnego zderzenia protonu z protonem powstaje około 22 hadronów, które głównie rozpraszały się wzdłuż płaszczyzny poprzecznej wokół miejsca zderzenia. Okazało się też, że w porównaniu ze zderzeniami o energii 7 Tev przy 13 TeV powstaje około 30% więcej cząstek. Profesor Lee zauważa, że wyniki tych badań potwierdzają hipotezę mówiącą, iż wraz ze wzrostem energii zderzeń rosną szansę na znalezienie nieznanych obecnie cząstek. Jednak aby je odnaleźć, naukowcy muszą dowiedzieć się więcej o typowych wynikach kolizji. Przy wyższej intensywności pracy w każdej sekundzie zaobserwujemy setki milionów zderzeń. Problem w tym, że niemal wszystkie te zdarzenia są typowe, będą tworzyły tło. Naprawdę musimy dobrze rozumieć to tło, żeby być w stanie wyodrębnić z niego nowe sygnały. Przygotowujemy się do potencjalnego odkrycia nowych cząstek - stwierdza Lee. Energia 13 teraelektronowoltów to bardzo mała dawka energii. Tyle ma jej lecący komar. Jednak, gdy jest ona upakowana w protonie biliardy razy mniejszym od komara, gęstość energii staje się kolosalna. Gdy protony się zderzą, zostają rozbite na swoje części składowe, które mogą wchodzić w interakcje i stworzyć nowe cząstki. Naukowcy starają się więc przewidzieć liczbę nowych cząstek powstających ze zderzeń, gdyż pomogłoby to w obliczeniu prawdopodobieństwa wykrycia nowych cząstek. Jednak problem w tym, że obecnie stosowane modele pozwalają na przewidywania z prawdopodobieństwem 60-70 procent, zatem są bardzo niedokładne. Przy wiązkach o wysokiej jasności możemy mieć do 100 zderzeń, więc obecne modele dają zbyt dużą niepewność odnośnie szumu tła, mówi Lee. Uczony wraz z zespołem wpadli na pomysł, jak zwiększyć precyzję obliczeń. Wykorzystali w tym celu wykrywacz CMS, który używa magnesu o bardzo silnym polu magnetycznym. Podczas zderzeń powstają lekkie cząstki o niewielkim pędzie, które nie zaginają swoich torów w polu magnetycznym CMS-a, ale podążają do głównej części LHC. Naukowcy wyłączyli więc magnes CMS-a, dzięki czemu mogli bardzo precyzyjnie policzyć cząstki, powstałe w czasie zderzenia. Obliczenia były na tyle precyzyjne, że margines błędu zmniejszył się z 30-40 do zaledwie kilku procent. Teraz uczeni, mogąc dokładnie przewidzieć, ile cząstek powstanie podczas zderzenia, mogą też precyzyjnie wyodrębnić szum tła i z większą precyzją wykrywać ewentualne nowe cząstki powstające w akceleratorze. Uczeni chcą w najbliższym czasie przeprowadzić podobny eksperyment w odniesieniu do jonów ołowiu, z których każdy zawiera 208 protonów i neutronów. W czasie ich zderzeń pojawiają się setki interakcji i powstaje niezwykle gęste medium, w którym, jak sądzą naukowcy, panują warunki podobne do tych z czasu Wielkiego Wybuchu. « powrót do artykułu
  2. Na Międzynarodowej Stacji Kosmicznej (MSK) prowadzone są badania nad tym, jak mózg zmienia się w kosmosie i jak sobie z tym radzić. Wcześniejsze badania i raporty astronautów sugerowały, że w warunkach mikrograwitacji trudniej jest kontrolować ruchy i wykonywać zadania intelektualne. Ludzie mają bowiem problemy z równowagą i doświadczają złudzeń. Studium Spaceflight Effects on Neurocognitive Performance: Extent, Longevity, and Neural Bases (NeuroMapping) ma pomóc w zbadaniu zmian w budowie i działaniu mózgu oraz określeniu, po jakim czasie od powrotu na Ziemię zanikają. Przed i po locie w kosmos oprócz testów behawioralno-poznawczych przeprowadzany jest także funkcjonalny rezonans magnetyczny (fMRI); astronauci pokonują na czas tory przeszkód oraz rozwiązują zadania badające pamięć przestrzenną, zdolność tworzenia mentalnych obrazów i manipulowania trójwymiarowymi obiektami. Na MSK testy pamięci przestrzennej są powtarzane, prowadzone są też testy adaptacji czuciowo-ruchowej i skomputeryzowane ćwiczenia, które wymagają jednoczesnego myślenia i poruszania. Astronauci wykonują te zadania krótko po przybyciu, w połowie misji i pod koniec półrocznego lotu. Przyglądamy się objętości różnych struktur mózgowych i sprawdzamy, czy ich kształt bądź rozmiar zmienia się w ciągu lotu - opowiada Rachael D. Seidler z Uniwersytetu Michigan. Na Ziemi układ przedsionkowy (układ równowagi) mówi nam, jak głowa porusza się w stosunku do grawitacji, ale w kosmosie taki układ odniesienia znika. Powoduje to złudzenia, a także trudności z koordynacją ruchów oczu i głowy. Naukowcy podkreślają, że problemy te mogą mieć poważne skutki dla astronautów, zwłaszcza przy zmianie warunków grawitacyjnych, np. podczas lądowania na Marsie. W takiej sytuacji powinni oni nadal być w stanie używać narzędzi, prowadzić łazik czy uciec z miejsca wypadku. Odkrywając fizyczne mechanizmy stojące za zmianą zachowania i ustalając, ile czasu potrzeba do adaptacji, uczeni będą mogli stwierdzić, jak wspomóc odkrywców kosmosu. Ważne jest też ustalenie, czy astronauci powrócą na Ziemi do normy, bo zmiany w mózgu się cofną, czy też raczej mózg nauczy się kompensować zmiany, do których doszło w kosmosie. « powrót do artykułu
  3. Izraelski projektant Kobi Shikar wpadł na pomysł stworzenia drona dostawczego. Pozornie pomysł to nie nowy, gdyż takie drony testuje już Amazon, jednak urządzenia Shikara tym by się różniły od innych dronów, że nie wznosiłby się w powietrze. Jeżdżące po ulicach drony byłyby kompromisem pomiędzy szybkim i sprawnym dostarczeniem paczki, a zagrożeniami związanymi z przenoszeniem przedmiotów drogą powietrzną nad głowami ludzi oraz możliwością zakłócenia przez drona ruchu samolotów załogowych. Dron o nazwie Transwheel miałby zostać wyposażony w odbiornik GPS, kamery oraz łączność z internetem. Ładunek umieszczony byłby na górze urządzenia i podtrzymywany przezeń dwoma automatycznymi ramionami. Po otrzymaniu zamówienia dron jechałby pod wskazany adres i dostarczał pakunek zamawiającemu, którego rozpoznawałby za pomocą technologii rozpoznawania twarzy. Zgodnie z koncepcją Shikara drony byłyby wyposażone w podobny mechanizm utrzymywania równowagi, co Segway. Drony Transwheel mogłyby pracować w grupach, dzięki czemu byłyby w stanie przenosić duże i ciężkie ładunki. Na koncepcyjnym materiale wideo widzimy 12 dronów przenoszących pełnowymiarowy kontener. Shikar ma nadzieję, że dzięki zainteresowaniu jakim jego projekt cieszy się wśród internautów, uda mu się zebrać pieniądze na zbudowanie prototypu. « powrót do artykułu
  4. Amerykański sąd federalny orzekł, że Stanowa Rada Psychologiczna Kentucky nie może cenzurować tekstów poradnikowych w gazetach. Sprawa dotyczy Johna Rosemonda, którego kolumna z poradami cieszy się tak wielkim wzięciem, że jest publikowana w ponad 200 gazetach na terenie USA. Rosemond reklamuje się jako "psycholog rodzinny". Mężczyzna ma dyplom z psychologii i prawo do wykonywania zawodu na terenie Karoliny Północnej. Wspomniana na wstępie organizacja stwierdziła, że Rosemond nie może udzielać porad na terenie Kentucky i w 2013 roku wysłała mu oficjalne żądanie zaprzestania działalności. Rosemond podał Radę do sądu. Przed sądem Rada powołała się na, nieprofesjonalną zdaniem organizacji, poradę, by matka zabrała synowi telefon komórkowy w nadziei, że to spowoduje, iż przestanie być odludkiem. Sąd opowiedział się jednak po stronie Rosemonda i zabronił organizacji wykorzystywania swoich wpływów do ograniczania wolności słowa. Rada próbowała argumentować, że wypowiedzi Rosemonda nie są chronione gwarancjami konstytucyjnymi, gdyż są to wypowiedzi na polu zawodowym. Zauważono, że administracja rządowa ma prawo w pewnych przypadkach, m.in. tych dotyczących relacji pomiędzy udzielającym profesjonalnej porady a jego klientem, ograniczać wolność wypowiedzi. Sędzia White zaznaczył jednak, że pomiędzy Rosemondem a czytającymi go osobami nie istnieje związek profesjonalista-klient. Rosemond nie wie, kim jest ten nastolatek. Nikt nie wie, o kim Rosemond pisał, ani czy osoba ta mieszka w Kentucky. Nie wiadomo, czy rodzice nastolatka przeczytali odpowiedź, nie wiadomo, czy się zastosowali do porady, a tym bardziej nie wiadomo, czy ktoś tutaj ucierpiał. Co więcej Rosemond nie otrzymuje wynagrodzenia od osób, którym udziela porad. Mówiąc wprost - format pytań i odpowiedzi wykorzystywany przez Rosemonda jest niczym innym jak wypowiedzią literacką. Nie istnieje tutaj związek pomiędzy profesjonalistą a klientem, zatem doktryna prawna mówiąca o odpowiedzialności zawodowej za słowa nie ma tutaj zastosowania, stwierdził sąd. « powrót do artykułu
  5. W USA zapadł niekorzystny dla Apple'a wyrok, który może oznaczać, że koncern będzie musiał zapłacić 862 miliony dolarów odszkodowania za naruszenie patentu. Sąd uznał bowiem, że koncern wykorzystał technologię, do której prawa posiada Wisconsin Alumni Research Foundation (WARF). To niedochodowa organizacja, która zajmuje się komercjalizacją technologii opracowanych na University of Wisconsin-Madison. W 2014 roku WARF wystąpiła przeciwko Apple'owi do sądu twierdząc, że firma nielegalnie wykorzystała opatentowaną w 1998 roku technologię poprawy wydajności układów scalonych. Zadaniem ławy przysięgłych było stwierdzenie, czy procesory A7, A8 oraz A8X wykorzystywane w iPhone'ach oraz iPadach naruszają patent WARF. Ława uznała racje organizacji, a sędzia William Conley wydał wyrok, zgodnie z którym Apple może zostać zobowiązane do wypłacenia nawet 862,4 miliona dolarów odszkodowania. Teraz rozpocznie się kolejna część procesu, której celem będzie stwierdzenie, jakie odszkodowanie należy się WARF. Spór się jednak na tym nie skończy. W ubiegłym miesiącu WARF złożył w sądzie kolejny proces, w którym stwierdza, że należąca doń technologia została wykorzystana również w procesorach A9 i A9X Apple'a. « powrót do artykułu
  6. Zespół z Uniwersytetu w Exeter i Uniwersyteckiego College'u Londyńskiego przez 16 lat śledził losy 3720 mężczyzn i 1414 kobiet i wykazał, że siedzenie, czy to w pracy, czy w domu, nie wiąże się z podwyższonym ryzykiem zgonu. Raport opublikowany na łamach International Journal of Epidemiology przeczy wynikom wcześniejszych badań, które sugerowały, że siedzenie jako takie szkodzi nawet tym osobom, które rutynowo dużo chodzą lub ćwiczą. Nasze studium unieważnia obecne poglądy na zagrożenia zdrowotne wynikające z siedzenia i wskazuje, że problem leży raczej w braku ruchu, a nie czasie spędzanym na siedzeniu. Stała pozycja, kiedy wydatkowanie energii jest niskie, może być szkodliwa dla zdrowia, bez względu na to, czy jest to siedzenie, czy stanie. Rezultaty podają w wątpliwość korzyści wynikające z wykorzystania biurek, przy których można zarówno siedzieć, jak i stać (a pracodawcy coraz częściej decydują się na ich zakup) - wyjaśnia dr Melvyn Hillsdon z Uniwersytetu w Exeter. Nasze ustalenia sugerują, że skrócenie czasu siedzenia może nie być tak istotne dla ryzyka zgonu, jak wcześniej twierdzono i że priorytetem zdrowia publicznego powinno być zachęcanie ludzi do większej aktywności - dodaje dr Richard Pulsford. Uczestnicy brytyjskiego studium odpowiadali na pytania o ogólny czas siedzenia oraz siedzenie w 4 konkretnych sytuacjach: w pracy, w czasie wolnym, podczas oglądania telewizora i w czasie wolnym poza oglądaniem telewizora. Poza tym wywiad dotyczył kwestii związanych z ruchem: ilości chodzenia w czasie dnia i czasu poświęcanego na aktywność o umiarkowanym bądź dużym nasileniu. Autorzy badania wzięli poprawkę na wiek, płeć, pochodzenie etniczne, status socjoekonomiczny, ogólny stan zdrowia, palenie, spożycie alkoholu oraz dietę. Okazało się, że w 16-letnim okresie obserwacyjnym żadna z pięciu miar siedzenia nie wpłynęła na ryzyko śmiertelności. W ramach przyszłych badań naukowcy chcą m.in. sprawdzić, czy długie okresy siedzenia wiążą się ze wzrostem częstości występowania chorób, w tym chorób serca czy cukrzycy typu 2. « powrót do artykułu
  7. Eksperci z University of Cambridge ostrzegają, że średnio 87,7% urządzeń z Androidem zawiera co najmniej jedną z 11 znanych krytycznych dziur. Dane do analizy zebrano za pomocą aplikacji "Device Analyzer", która jest bezpłatnie dostępna w Play Store od maja 2011 roku. Naukowcy zebrali dane z ponad 20 400 urządzeń, których właściciele zgodzili się na wzięcie udziału w badaniu. Uzyskane w ten sposób informacje porównano z informacjami o 13 krytycznych dziurach odkrytych od roku 2014. Każde z urządzeń zostało przez naukowców ocenione jako 'bezpieczne' lub 'niebezpieczne' w zależności od tego, czy było załatane czy nie. Po przeanalizowaniu uzyskanych danych eksperci doszli do wniosku, że za większość problemów z bezpieczeństwem Androida odpowiadają producenci OEM. To właśnie oni okazują się wąskim gardłem, przez które użytkownicy nie otrzymują poprawek dla krytycznych dziur. Stworzono nawet specjalny ranking producentów, w którym wzięto pod uwagę liczbę dni, w czasie których urządzenie było wolne od znanych dziur (Free), odsetek urządzeń, na których zainstalowano najnowszą wersję Android (Update) oraz średnią liczbę dziur znajdujących się na jakimkolwiek urządzeniu danej firmy (Mean). Powstał w ten sposób indeks FUM, z którego dowiadujemy się, że najbezpieczniejsze są urządzenia Google'a z rodziny Nexus. Uzyskały one 5,2 punktu na 10 możliwych. Kolejne firmy w rankingu to LG, Motorola, Samsung, Sony i HTC. Niska punktacja, jaką uzyskał Nexus wynika z dwóch zasadniczych przyczyn. Pierwsza to fakt, że nawet gdy poprawka jest już gotowa i znajduje się na witrynie Nexus System Image, jej dostarczenie do wszystkich urządzeń trwa zwykle dwa tygodnie. Drugi problem to fakt, że zarówno Google jak i producenci OEM zapewniają wsparcie jedynie przez dwa lata. W badaniach wzięli też udział posiadacze starszych niż dwuletnie urządzeń. Problemem są też firmy reprezentowane w badaniach. Obecnie najwięksi producenci telefonów z Androidem to Samsung, Huawei, Xiaomi i Lenovo. W badaniach dobrze reprezentowany był jedynie Samsung i on został wymieniony w rankingu FUM. Zjawisko to da się łatwo wytłumaczyć faktem, że aplikacja Device Analyzer, za pomocą której prowadzono badania, jest dostępna w oficjalnym sklepie Google Play, zaś wielu użytkowników, szczególnie w Chinach, korzysta z innych sklepów niż oficjalny Google'a. Analiza pokazuje, jak wiele problemów stoi przed Androidem. Co prawda zarówno Google jak i niektórzy producenci OEM publikują poprawki co miesiąc, jednak po pierwsze są one przeznaczone tylko dla urządzeń nie starszych niż dwuletnie, po drugie - trafiają one wyłącznie do urządzeń flagowych danego producenta. Większość smartfonów z Androidem to nie urządzenia flagowe, zatem pozostają one słabo zabezpieczone. Wydaje się, że jedynym wyjściem na zapewnienie środowisku Android odpowiedniego bezpieczeństwa jest wzięcie przez Googla odpowiedzialności i regularne publikowanie poprawek, które będą trafiały na wszystkie urządzenia z tym systemem. « powrót do artykułu
  8. W sobotni wieczór wrocławianie mieli szansę odwiedzić pracownie badawcze, do których na co dzień mają dostęp tylko nieliczni. A to za sprawą Nocy Laboratoriów – akcji edukacyjnej zorganizowanej po raz pierwszy przez firmę Nokia Networks oraz Wrocławskie Centrum Badań EIT+. Laboratorium teleinformatyczne Nokii, pracownia badań nad in vitro Uniwersytetu Przyrodniczego, Centrum Innowacji 3M, warsztaty z kriogeniki i genetyki we Wrocławskim Parku Technologicznym, Laboratorium Mikroskopii Elektronowej Wrocławskiego Centrum Badań EIT+, pokaz oględzin miejsca zdarzenia przeprowadzony przez wrocławską Policję czy sesja poświęcona zachowaniu przedmiotów w niskich temperaturach w Międzynarodowym Laboratorium Silnych Pól Magnetycznych i Niskich Temperatur – to tylko część atrakcji, jakie czekały na zwiedzających. Staraliśmy się zaprosić do współpracy przy Nocy Laboratoriów różnorodnych partnerów, dzięki czemu w programie wydarzenia każdy chętny mógł znaleźć coś dla siebie. Wielu osobom udało się tej nocy odwiedzić nawet kilka miejsc, co nas bardzo cieszy, bo takie było główne założenie akcji – mówi Sylwia Pilarska, organizatorka z Nokii Networks. Impreza, wzorowana na założeniach Nocy Muzeów, pokazała, że mieszkańcy Wrocławia są zainteresowani nauką i ciekawi tego, co dzieje się w firmach i instytucjach. Miejsca na poszczególne tury zwiedzania rozeszły się w kilka pierwszych dni zbierania zgłoszeń. Podczas Nocy Laboratoriów wszystkich partnerów odwiedziło prawie 4000 osób! Byli to zarówno studenci, jak i 3-pokoleniowe rodziny. Chcieliśmy, aby była to impreza dla wszystkich i ten plan się powiódł w 100%. Jesteśmy bardzo zadowoleni, zwłaszcza, że słyszeliśmy wiele pozytywnych opinii od odwiedzających – mówi Klaudia Piątek, organizatorka z Wrocławskiego Centrum Badań EIT+. « powrót do artykułu
  9. Większość materiałów kurczy się pod wpływem zimna i rozszerza pod wpływem ciepła. Naukowcy wciąż nie do końca rozumieją, dlaczego ciała stałe zachowują się w ten sposób. Tymczasem fizyk Jason Hancock z University of Connecticut bada substancję, która kurczy się pod wpływem ciepła, a rozszerza pod wpływem zimna. Badania nad trifluorkiem skandu pomogą zrozumieć, dlaczego wraz ze zmianą temperatury zmienia się objętość, a to z kolei pomoże tworzyć bardziej wytrzymałe materiały. Ciała stałe zbudowane są z atomów połączonych za pomocą wiązań sieci krystalicznej. Jako, że każde z tych wiązań, gdy się rozszerza, oddziałuje na wiązania sąsiednie, a wszystkie rozszerzają się tak samo i oddziałują na sąsiadów z taką samą siłą, materiał nie powinie się ani rozszerzać ani kurczyć. W wielu zastosowaniach taki model się sprawdza. Wyjaśnia rozpraszanie neutronów i promieniowania rentgenowskiego oraz wiele innych zjawisk optycznych, wyjaśnia prędkość fal dźwiękowych, elastyczność i przewodnictwo cieplne, nawet temperaturę graniczną w niektórych nadprzewodnikach - mówi Hancock. Nie wyjaśnia jednak, dlaczego materiały zmieniają objętość pod wpływem temperatury. Hancock i jego student Sahan Handunkanda postanowili więc przyjrzeć się trifluorkowi skandu w nadziei, że jego nietypowe właściwości pozwolą na wyjaśnienie zagadki rozszerzalności cieplnej. Trifluorek skandu zachowuje się naprawdę niezwykle. Nie tylko znacznie kurczy się gdy jest podgrzewany nawet do 1100 kelwinów (826 stopni Celsjusza), ale zachowuje stabilną strukturę krystaliczną od niemal zera absolutnego do 1800 kelwinów (1527 stopni Celsjusza), kiedy to zaczyna się topić. Niewiele materiałów jest tak stabilnych. W większości dochodzi do jakiejś zmiany fazy i przemieszczania się atomów. Amerykanie uzyskali doskonały kryształ trifluorku skandu z Kireńskiego Instytutu Fizyki w Krasnojarsku i poddali go badaniom za pomocą promieniowania rentgenowskiego w Advanced Photon Source w Argonne National Laboratory. Badania wykazały, że molekuły trifluorku skandu wydają się obracać w miejscu, nawet w temperaturach bliskich zeru absolutnemu. Cała struktura jest bardziej "miękka" niż większość materiałów w temperaturze 0 kelwinów. Ta "miękkość" wskazuje, że materiał jest na krawędzi zmiany fazy, ale do zmiany tej nigdy nie dochodzi. Taka zmiana w tak niskiej temperaturze to kwantowe przejście fazowe, które jest przedmiotem bardzo intensywnych badań. Dane uzyskane podczas badania trifluorku skandu sugerują, że istnieje bardzo silny związek pomiędzy siłami kwantowymi, a kurczeniem się materiału w miarę jego ogrzewania się. Hancock i Handunkanda zapowiadają dalsze badania nad tym zjawiskiem. « powrót do artykułu
  10. Krępowanie ruchów języka niemowlęcia utrudnia mu odróżnianie dźwięków mowy. Studium zespołu z Uniwersytetu Kolumbii Brytyjskiej to pierwsze badanie, które bezpośrednio powiązało ruchy w obrębie jamy ustnej dziecka z percepcją słuchową mowy. Kanadyjczycy umieszczali w ustach 6-miesięcznych dzieci anglojęzycznych rodziców gryzaki. Maluchy słuchały dwóch głosek "d" z języka hindi. Okazało się, że gdy gryzak krępował ruchy czubka języka, dzieci nie umiały ich odróżnić. Jeśli jednak mogły swobodnie poruszać językiem, zadanie nie sprawiało im problemu. Dotąd badania dot. rozwoju percepcji mowy i nabywania języka uznawały doświadczenie słuchowe za główny czynnik napędzający. Teraz wydaje się jednak, że naukowcy powinni się również przyjrzeć aktywności ustnej niemowląt - podkreśla dr Alison Bruderer. Autorzy publikacji z pisma PNAS dodają, że wyniki nie oznaczają, że rodzice powinni zabrać dzieciom smoczki i gryzaki. Powinno się natomiast ustalić, ile czasu potrzeba na swobodne poruszanie językiem, by postrzeganie mowy rozwinęło się prawidłowo. Uczeni dodają także, że ich rezultaty rzucają nieco światła na sytuację dzieci z zaburzeniami motorycznymi dot. jamy ustnej: z rozszczepem podniebienia, paraliżem czy ankyloglosją (krótkim wędzidełkiem języka). « powrót do artykułu
  11. U młodzieży spędzanie długich godzin w Internecie stwarza ryzyko nadciśnienia. Wśród 134 nastolatków, uznanych przez badaczy ze Szpitala Henry'ego Forda w Detroit za intensywnych użytkowników Internetu, podwyższone ciśnienie występowało u 26 osób. Autorzy raportu z Journal of School Nursing podkreślają, że to pierwsze studium, wskazujące na związek między czasem spędzanym w Sieci i nadciśnieniem. Korzystanie z Internetu to część codziennego życia, ale nie możemy pozwolić, by ten nawyk nami zawładnął. W opisywanym badaniu osoby z grupy intensywnych użytkowników spędzały w Sieci średnio 25 godzin tygodniowo. Ważne, by młodzi ludzie robili sobie regularne przerwy od komputera czy smartfona i angażowali się w jakąś aktywność fizyczną. [...] Praktyka pokazuje, że po 2 godziny Internetu 5 dni w tygodniu wystarczą - podkreśla dr Andrea Cassidy-Bushrow. Amerykanie analizowali dane 335 osób w wieku 14-17 lat. Ochotnicy wypełniali kwestionariusz, dotyczący korzystania z Internetu w tygodniu poprzedzającym badanie stanu zdrowia, w tym ciśnienia. Pytano w nim m.in. o sposób spędzania czasu w Internecie, liczbę adresów e-mail czy dobową liczbę godzin w Sieci. Na potrzeby studium za korzystanie z Internetu uznano odwiedzanie stron WWW, wysyłanie i odbieranie poczty, korzystanie z komunikatora, gry, odrabianie prac domowych, e-zakupy, ściąganie oprogramowania, a także tworzenie witryn. Okazało się, że w domu lub w szkole młodzież spędzała w Sieci średnio 15 godzin tygodniowo. Za intensywnych użytkowników uznano 43% chłopców i 39% dziewcząt. W porównaniu do osób rzadko korzystających z Sieci, w grupie spędzającej tam sporo czasu nadwaga występowała dużo częściej (26 vs. 43%). « powrót do artykułu
  12. Analitycy zwracają uwagę na ostatnie zmiany w Microsofcie, które mogą mieć duży wpływ na przyszłość rynku pecetów. Koncern z Redmond dokonał restrukturyzacji, w ramach której powstał m.in. wydział o nazwie More Personal Computing. Jego pierwsze wyniki finansowe poznamy w najbliższym raporcie kwartalnym, jednak już teraz można stwierdzić, że wewnątrz Microsoftu powstał potężny wydział, a jego celem jest przygotowanie się na zmiany na rynku pecetów oraz konkurowanie z Apple'em. Jak informuje Microsoft, gdyby More Personal Computing działał przez cały ostatni kwartał, to jego przychód sięgnąłby 9,2 miliarda USD (kwartalny przychód całego koncernu to 22,2 miliarda), a gdyby działał przez cały rok podatkowy 2015, który dla Microsoftu zakończył się 30 czerwca, to przychody wydziału sięgnęłyby 43 miliardów USD (93,6 miliarda przychodów miał cały Microsoft). Innymi słowy, części, z których zbudowano More Personal Computing zapewniły dotychczas 42% kwartalnych i 46% rocznych przychodów Microsoftu. Dla porównania Acer zanotował w ostatnim kwartale 1,9 miliarda USD przychodów, a Apple - 49,6 miliarda. Jednak większość przychodów Apple'a pochodzi z iPhone'a. Gdyby wziąć pod uwagę tylko część komputerów osobistych, to przychody Apple'a z tego tytułu wyniosły 6 miliardów USD. Stworzenie nowego wydziału to realizacja wizji Steve'a Ballmera, którą Satya Nadella w większość odrzucił. Model biznesowy More Personal Computing bardzo przypomina model biznesowy Apple'a. Wydział będzie zajmował się nie tylko systemem operacyjnym, grami i wyszukiwaniem, ale również sprzętem projektowanym i produkowanym przez Microsoft, co pozwoli na zintegrowanie oprogramowania, usług i sprzętu w takim stopniu, w jakim nie są zdolni zrobić tego producenci OEM. Taki właśnie model przyniósł ogromny sukces Apple'owi. A Microsoft, pokazując ostatnio swój nowy sprzęt, w tym pierwszy laptop własne produkcji, wprost porównywał go do sprzętu Apple'a. Pozycjonowali wszystko w odniesieniu do Apple'a - mówi Bob O'Donnell, analityk z Technalysis Research. To powrót do dawnych dni, do konkurencji Microsoft kontra Apple, dodaje. Strategia Apple'a, a teraz i Microsoftu, na rynku konsumenckim polega na skupieniu się na najdroższych urządzeniach. Co prawda sprzedaje się ich stosunkowo niewiele, ale margines zysku jest tam największy. Większość producentów OEM działa zaś z bardzo niskim marginesem zysku, gdyż prowadzą ze sobą ostrą walkę o klienta. Tim Bajarin z Creative Strategies uważa, że Microsoftowi nie chodzi wyłącznie o zapewnienie sobie większego marginesu zysku. Mocniejsze zaangażowanie się w sprzęt to także strategia obronna, gdyż jeśli Microsoft zacznie tracić kluczowych partnerów, musi mieć sposób na kontynuowanie obranej przez siebie strategii rozpowszechniania ekosystemu Windows. Przemysł pecetów się kurczy i prawdopodobnie pozostaną na nim tylko wielcy gracze. Firmy takie jak Toshiba, Acer czy Asus mogą mieć problemy z utrzymaniem się na rynku. Jeśli tak się stanie, to zmniejszy się liczba partnerów OEM Microsoftu, stwierdza analityk. Bajarin przypomina, że spośród trzech największych partnerów Microsoftu - Lenovo, Della i HP - jedynie HP wykazuje duże zainteresowanie rynkiem pecetów. Jeśli HP nie powiedzie się na tym rynku, może mieć to duży wpływ na Microsoft. HP może nie być w stanie sprzedać tyle komputerów osobistych, by do klientów trafiała odpowiednia liczba Windows, uważa Bajarin. Microsoft uczy się więc, jak tworzyć świetny sprzęt, dzięki czemu będzie miał rozwiązanie na wypadek, gdyby jego partnerzy OEM nie dawali sobie rady na rynku, dodaje analityk, którego zdaniem ostatnia prezentacja urządzeń z rodziny Surface to nie li tylko zaprezentowanie nowego sprzętu, ale również ważna strategiczna deklaracja koncernu z Redmond. Niewykluczone więc, że w niedalekiej przyszłości Microsoft zajmie się tym, czym obecnie zajmują się jego niewielcy partnerzy OEM. Na tym jednak nie koniec. More Personal Computing mogłoby zostać w przyszłości wydzielone z Microsoftu. Od czasu do czasu wśród analityków i obserwatorów rynku pojawiają się głosy o potrzebie podziału Microsoftu. Niezależny analityk Ben Thompson uważa, że wydzielenie Windows i sprzętu byłoby korzystne dla koncernu. Thompson twierdzi, że Microsoft skupiony jest na swojej historycznej strategii, której centrum stanowi Windows. Dzieje się to jednak kosztem innych produktów, przede wszystkim Office. Niektóre z ostatnich działań Nadelli Thompson interpretuje jako odchodzenie od strategii "przede wszystkim Windows". Zdaniem analityka, najkorzystniejszym rozwiązaniem dla Microsoftu byłoby podzielenie się na dwie firmy. Jedna zajmowałaby się Windows, a druga Office'em i chmurami. I nie ma znaczenia, czy byłby to formalny podział - dodaje analityk. « powrót do artykułu
  13. Najmniejszym wolno żyjącym owadem na świecie jest chrząszcz z rodziny piórkoskrzydłych - Scydosella musawasensis. Najdrobniejszy ze zmierzonych osobników ma zaledwie 325 µm. Wesley Eugene Hall z Muzeum Stanowego Uniwersytetu Nebraski opisał w 1999 r. S. musawasensis, opierając się na kilku egzemplarzach znalezionych w 1955 r. w Nikaragui. Dotąd nie można było jednak ustalić precyzyjnej długości owada, bo dostępne okazy poddano obróbce związanej z przygotowaniem preparatu do obserwacji pod mikroskopem. Wymiary można było wyznaczyć, oczyszczając najpierw chrząszcza, a to z oczywistych względów prowadziło do nieścisłości. W lutym br. Alexey Polilov z Uniwersytetu im. M.W. Łomonosowa w Moskwie zebrał w Parku Narodowym Chicaque w Kolumbii 10 km na zachód od Bogoty aż 85 S. musawasensis. Odkrył je na warstwie grzybów Steccherinum sp., którymi chrząszcze się żywią. Jak wyjaśnia Rosjanin, materiał utrwalono formaldehydem i 70% etanolem. Po wysuszeniu i powleczeniu złotem chrząszcze zbadano pod skaningowym mikroskopem elektronowym (SEM). Pomiarów dokonano za pomocą programu Meazure (Polilov opierał się na cyfrowych mikrofotografiach). Pomiary 10 osobników wykazały, że najmniejszy miał 325 µm, największy 352 µm, a średnia długość wynosiła 338 µm. Szerokość żółtawobrązowego chrząszcza (maksymalna szerokość obu pokryw w spoczynku) to 98-104 µm. Cechą charakterystyczną owalnych S. musawasensis są czułki podzielone na 10 segmentów. Co istotne, rekord z Kolumbii rozszerza zasięg występowania zarówno chrząszcza (dotąd znano go tylko ze stanowiska serii typowej z Nikaragui - Musawas nad rzeką Waspuc), jak kolonizowanych przez niego grzybów. « powrót do artykułu
  14. Archeolodzy sądzą, że w mule rzeki Hamble leży pogrzebany Holigost, jeden z czterech 'wielkich okrętów' floty króla Henryka V, zbudowany na potrzeby wojny z Francją. Holigost (Duch Święty) brał udział w bitwach Wojny Stuletniej, która złamała morską potęgę Francji. O odkryciu okrętu poinformował doktor Ian Friel. Uczony przeglądał dokumentację do swojej książce o flocie Henryka V i natrafił na wskazówki dotyczące miejsca spoczynku okrętu. Wykonał zdjęcia lotnicze okolicy i twierdzi, że znalazł historyczną jednostkę. Holigost leży w pobliżu miejsca, w którym w latach 30. ubiegłego wieku odkryto okręt flagowy Henryka V, Grace Dieu. Holigost był drugim z czterech 'wielkich okrętów' zbudowanych dla floty Henryka. Jednostka była jednym z zasadniczych elementów planu podboju Francji. Jej załogę stanowiło 200 marynarzy, a na pokład mogła zabrać dużą liczbę żołnierzy. Holigost miał wyporność 760 ton, szerokość kadłuba wynosiła ponad 12 metrów, a jego długość przekraczała 30 metrów. W roku 1423 niejaki Davy Owen schodząc pod wodę dokonał napraw okrętu. Prawdopodobnie jest to pierwsze udokumentowane wykorzystanie nurka do naprawienia jednostki pływającej. Badanie wraku za pomocą sonaru i georadaru może potrwać miesiące, a nawet lata. Moim zdaniem dalcze badania Holigosta będą nawet ważniejszym wydarzeniem niż zidentyfikowanie Grace Dieu w latach 30. Holigost brał udział w dwóch najważniejszych bitwach morskich Wojny Stuletniej, które przetarły Anglii drogę do podboju północnej Francji - przypomina uczony. Był okrętem flagowym diuka Bedford w czasie oblężenia i zdobycia portu Harfleur w 1416 roku oraz wziął udział w lądowaniu Henryka V pod Chef de Caux (obecnie Sainte-Adresse) w 1417. Holigost to przebudowana hiszpańska jednostka Santa Clara, zdobyta przez Anglików w 1413 lub 1414 roku. « powrót do artykułu
  15. Autorzy publikacji z Nature Medicine wyodrębnili 4 podtypy raka jelita grubego. Podkreślają, że z nowo zdobytą wiedzą łatwej będzie zidentyfikować pacjentów z poważniejszą, szybciej postępującą chorobą, która wymaga bardziej intensywnego leczenia. Naukowcy z Instytutu Badań nad Nowotworami (ICR) w Londynie oraz ich koledzy z Europy i USA skompilowali informacje dot. 3443 pacjentów z rakiem jelita grubego z całego świata, tworząc największy jak dotąd zbiór danych molekularnych i klinicznych na temat tej jednostki chorobowej, w tym nt. mutacji, aktywności genów, aktywacji układu odpornościowego, metabolizmu komórek, typu komórek nowotworowych oraz ich zdolności opanowywania sąsiednich tkanek. Uczeni z ICR i współpracownicy odkryli, że za pomocą algorytmów do jednej z czterech kategorii da się przypisać aż 87% raków jelita grubego. W każdym z molekularnych podtypów występują odstępstwa od reguły, które mogą sprawiać, że wszystkie podtypy będą podatne na tę samą terapię. Pacjenci z CSM4 (od ang. consensus molecular subtype 4) są często diagnozowani późno (w III lub IV stopniu zaawansowania). Ich nowotwór silnie przerzutuje, a wskaźnik przeżycia jest znacząco gorszy niż w innych podtypach raka jelita grubego. U chorych z CSM2 wskaźnik przeżycia jest za to o wiele lepszy nawet przy wznowie. W ramach studium zidentyfikowaliśmy 4 unikatowe typy raka jelita grubego; każdy charakteryzuje się określonym zestawem cech genetycznych i biologicznych. Niektóre są bardziej agresywne i z większym prawdopodobieństwem śmiertelne. To powinno pozwolić lekarzom zidentyfikować ludzi z bardziej agresywną postacią choroby i dostosować do tego leczenie. Ostatecznie może zaś doprowadzić do opracowania nowych molekularnych testów diagnostycznych; znając podtyp raka jelita grubego, dałoby zaś się wybrać najskuteczniejszą w jego przypadku terapię - podsumowuje dr Anguraj Sadanandam z ICR. « powrót do artykułu
  16. The Washington Post dowiedział się, że - po raz pierwszy w historii - chiński rząd, na wniosek USA, aresztował na swoim terytorium hakerów. Chińczycy prawdopodobnie ugięli się pod naciskiem administracji prezydenta Obamy, która zagroziła wprowadzeniem sankcji gospodarczych, jeśli Chiny nie będą współpracowało w walce z cyberprzestępczością. Do aresztowań doszło tydzień lub dwa przed wizytą prezydenta Chin Xi Jinpinga w USA. Cyberprzestępcy zostali wcześniej zidentyfikowani przez amerykańskie służby. Włamali się oni do amerykańskich firm, a ukradzione informacje przekazali lub sprzedali chińskim firmom państwowym. Kwestie przemysłowego cyberszpiegostwa to jedne z najtrudniejszych problemów ciążących na chińsko-amerykańskich stosunkach. Od wielu lat amerykańskie firmy i politycy skarżą się, że Chiny nie zwalczają tego zjawiska. Szacuje się, że chińscy hakerzy narażają amerykańskie firmy na straty liczone w dziesiątkach miliardów dolarów rocznie. W ciągu ostatnich kilku tygodni amerykańskie służby przygotowały listę cyberprzestępców, których chcą aresztować. Daliśmy im tę listę i powiedzieliśmy: 'Chodzi o tych ludzi. Aresztujcie ich', powiedziało dziennikarzom anonimowe źródło. Amerykanie wiedzą, że do aresztowań doszło. Teraz chcą się przekonać, czy chińscy prokuratorzy postawią zarzuty i czy dojdzie do publicznego procesu. Taki proces nie tylko pozwoliłby na dopilnowanie jego uczciwości, ale również działałby odstraszająco na innych i pokazałby, że aresztowanie podejrzanych nie było pustym gestem. Amerykańscy urzędnicy mówią, że jest jeszcze zbyt wcześnie by stwierdzić, czy chińskie władze postanowiły zmienić politykę wobec cyberprzestępców, czy też mamy do czynienia z pozorowanymi działaniami, których celem jest uniknięcie sankcji. Z czasem zobaczymy, czy nadal będą tak działali. Ważne jest też, czy będą robili to samo wówczas, gdy nie będzie dochodziło do ważnych wizyt państwowych. Dopiero wtedy przekonamy się, czy współpraca się poprawia - stwierdził jeden z urzędników. Podczas ostatniej wizyty w Waszyngtonie prezydent Xi zapowiedział, że jego kraj nie będzie angażował się w działalność cyberszpiegowską przeciwko USA. Obie strony podpisały odpowiednie dokumenty, które przewidują, że Chiny będą w odpowiednim czasie reagowały na amerykańskie prośby o pomoc odnośnie cyberataków. Wciąż nie ma pewności, czy zapisy umowy zostaną dotrzymane. « powrót do artykułu
  17. Dell i EMC podpisały umowę, która przewiduje, że firma Dell oraz jej właściciele Michael Dell, MSD Partners i Silver Lake, przejmą EMC Corporation, a należący doń VMware pozostanie niezależną spółką notowaną na giełdzie. Zgodnie z umową każdy z obecnych udziałowców EMC otrzyma za akcję 24,05 USD w gotówce oraz akcje oznaczone powiązane z udziałami EMC w VMware. Za każdą akcję EMC udziałowiec otrzyma około 0,111 akcji oznaczonej. W sumie za każdą obecnie posiadaną akcję EMC akcjonariusz może otrzymać - według wartości akcji VMware z dnia 7 października, równowartość 33,15 USD w gotówce i akcjach oznaczonych. Oznacza to, że cała transakcja przejęcia EMC jest warta około 67 miliardów dolarów. Ostateczna kwota, jaka przypadnie na akcję będzie zależała od ceny akcji VMware i wzajemnej relacji wartości akcji EMC i VMware. Przejęcie EMC przez Della to nie tylko jedna z największych transakcji w historii rynku IT. Wskutek niego powstanie największa całkowicie prywatna firma technologiczna na świecie. Powstanie w ten sposób przedsiębiorstwo o bardzo silnej pozycji na światowych rynkach serwerów, przechowywania danych, wirtualizacji i komputerów osobistych. Celem jego ekspansji staną się biznesowy rynki centrów bazodanowych, chmur obliczeniowych, infrastruktury informatycznej i bezpieczeństwa. Po zakończeniu transakcji struktura własnościowa połączonych firm ma pozostać podobna do obecnej struktury własnościowej Della, co oznacza, że Michael Dell, MSD Partners i Silver Lake będą właścicielami około 70% przedsiębiorstwa. Przewodniczącym zarządu i dyrektorem wykonawczym będzie Michael Dell. Do czasu zakończenia transakcji szefem zarządu i dyrektorem wykonawczym EMC pozostanie Joseph Tucci. Umowa pomiędzy obiema firmami będzie badana przez odpowiednie urzędy antymonopolowe. Transakcja ma zostać zamknięta w drugim lulb trzecim kwartale przyszłego roku podatkowego, który dla Della końcy się 3 lutego 2017 roku. « powrót do artykułu
  18. Ekipa z Uniwersytetu w Sydney znalazła sposób na wykorzystanie syntetycznych nanodiamentów do wykrywania w ramach rezonansu magnetycznego (RM) wczesnych etapów guzów nowotworowych. Ponieważ są one w dużej mierze nietoksyczne i niereaktywne, naukowcy interesują się zastosowaniem nanodiamentów do dostarczania leków w chemioterapii. W pewnym momencie zdaliśmy sobie sprawę z magnetycznych właściwości diamentów, które dałoby się wykorzystać w roli sygnału naprowadzającego w RM [...] - wyjaśnia prof. David Reilly. Dzięki przyczepianiu hiperspolaryzowanych diamentów do cząsteczek obierających na cel nowotwory technika pozwala śledzić przemieszczanie się tych molekuł w organizmie - opowiada liderka zespołu dr Ewa Rej. To świetny przykład na to, jak badania z zakresu fizyki kwantowej pozwalają sobie radzić z problemami z realnego świata, w tym przypadku otwierając nam drogę do obrazowania i niszczenia guzów na długo przed tym, nim zaczną zagrażać zdrowiu pacjenta - dodaje Reilly. W kolejnym etapie studium naukowcy chcą przetestować technikę na modelu zwierzęcym. « powrót do artykułu
  19. MPAA (Stowarzyszenie Przemysłu Filmowego Ameryki) złożyło w Biurze Przedstawiciela Handlu USA (USTR) raport, w którym identyfikuje kraje, z których pochodzą najniebezpieczniejsze witryny pirackie na świecie. Zdaniem MPAA najpoważniejsze zagrożenie dla praw autorskich stanowią dwie rosyjskie (rapidgator.net i vk.com) oraz dwie holenderskie (letitbit.net oraz uploaded.net) witryny. Jeśli chodzi o takie przedsięwzięcia jak letitbit.net głównym problemem dla MPAA jest fakt, że płacą one zarówno tym, którzy umieszczają na nich chronioną prawem zawartość (osoby te dostają ok. 60 USD za plik) jak i pobierającym (ok. 15 USD za 1000 pobrań). Witryna ma również umowę z moevideo.net, gdzie wynagradzane są osoby, oglądające chronione treści. Podobnie działa uploaded.net, które ma serwery w Holandii i Szwajcarii. Wgrywający pliki otrzymują pieniądze w zależności od wielkości pliku. Roczne wpływy witryny wynoszą około 6,6 miliona dlarów. Z kolei vk.com, jeden z największych w Rosji serwisów społecznościowych, staje się coraz ważniejszym miejscem nielegalnej dystrybucji plików muzycznych i filmowych. MPAA skarży się też, na witrynę nowvideo.sx, na której można zarobić 20 USD za 1000 pobranych plików, a która regularnie odrzuca prośby właścicieli praw autorskich o zablokowanie konkretnych plików. Problem stawarza też rumuńska witryna videomega.tv. W swoim raporcie MPAA wymienia też takie witryny jak cuevana.tv z Argentyny, kinogo.co z Ukrainy, megafilmeshd.net dziąłające w Brazylii, Polsce i Bułgarii czy mającą międzynarodowy zasięg pelis24.com. Na rynku torrentów MPAA skupiła się na tych witrynach, które oferują treści najwyższej jakości. Jednym z najwięszych serwisów torrentowych jest The Pirate Bay działający obecnie pod adresem thepiratebay.gd, który jest dostępny w 35 językach, a z którego korzysta ponad 43,5 miliona osób. Inne wielkie torrenty to extratorrent.cc na Ukrainie, rutracker.org w Rosji, polski torrentz.eu oraz popularne w wielu krajach yts.to i kat.cr. Innym problemem są nielegalne kopie płyt DVD i Blu-ray. Największymi miejscami sprzedaży takich nośników są ulice Sao Paulo i Rio de Janeiro w Brazylii, pchli targ w Toronto, targ Harco Glodok w Dżakarcie, Jonesborough Market w Irlandii Północnej, po dwa targi na Ukrainie i w Moskwie oraz liczne miejsca dystrybucji w Tajlandii, Indiach i Meksyku. « powrót do artykułu
  20. Naukowcy odkryli, że ryby mogą dostarczać tlen w organizmie skuteczniej od większości innych kręgowców. Ryby wykorzystują mechanizm uwalniania tlenu do tkanek, który jest 50-krotnie skuteczniejszy od ludzkiego. Dzieje się tak, bo ich hemoglobina [...] jest wrażliwsza na zmiany pH [...] - wyjaśnia dr Jodie Rummer z Uniwersytetu Jamesa Cooka. Ryby korzystają na nim szczególnie w sytuacjach stresowych, gdy trzeba uciekać przed drapieżnikami. Przydaje się on również w habitatach z niską zawartością tlenu. W krytycznych momentach ryby mogą podwoić, a nawet potroić dostawy tlenu do tkanek. Australijka i Kanadyjczyk prowadzili eksperymenty na pstrągach tęczowych (Oncorhynchus mykiss). Opisywany mechanizm odkryto i przetestowano, monitorując w czasie rzeczywistym poziom tlenu w ich mięśniach. W ramach najnowszego studium ustalono, jak imponujące rezultaty zapewnia i porównano go z wynikami badań medycznych na ludziach. Cecha wydaje się szczególnie istotna dla "usportowionych" gatunków, np. migrujących na duże odległości łososi czy szybko pływających tuńczyków. Dla ryb zwiększona dostawa tlenu może być jednym z najważniejszych przystosowań w trwającej 400 mln lat ewolucji - podsumowuje dr Colin Brauner z Uniwersytetu Kolumbii Brytyjskiej. « powrót do artykułu
  21. Menopauza zmniejsza wpływ dobrego cholesterolu HDL. HDL chroni przed rozwojem blaszek miażdżycowych oraz incydentami sercowo-naczyniowymi, jednak ostatnio dywagowano, że w okresie menopauzy korzyści związane z jego obecnością się zmniejszają. Przypisywano to zmianom hormonalnym, zwłaszcza spadkowi poziomu estradiolu. Zespół ze Szkoły Zdrowia Publicznego Uniwersytetu w Pittsburghu postanowił sprawdzić, jak menopauza wpływa na jakość HDL (jego zdolność do zapobiegania powstawaniu blaszek). W badaniu uwzględniono 225 kobiet w 5. dekadzie życia, u których w maksymalnie 9-letnim okresie obserwacyjnym stwierdzono do 5 wskaźników miażdżycy. Podczas badania obrazowego na początku studium u żadnej z nich nie wykryto choroby sercowo-naczyniowej. Odkryliśmy, że w okresie menopauzy wzrosty dobrego cholesterolu były związane z nasileniem procesu powstawania blaszek miażdżycowych. Wyniki te sugerują, że przechodzenie menopauzy może [źle] wpływać na jakość HDL, przez co nie jest on w stanie zapewnić spodziewanych korzyści - opowiada dr Samar El Khoudary. Dr Wulf Utian, dyrektor wykonawczy Północnoamerykańskiego Stowarzyszenia Menopauzy, zaznacza, że potrzeba kolejnych studiów, które pokazałyby, jak menopauza wpływa na cały profil lipidowy. To bardzo ważna kwestia, a mamy na ten temat tak mało danych - podsumowuje. « powrót do artykułu
  22. Nowe badania przeprowadzone nad braćmi bliźniętami sugerują, że główną przyczyną występowania homoseksualizmu mogą być zmiany epigenetyczne. To by wyjaśniało, dlaczego od wielu lat nikomu nie udało się znaleźć genu odpowiedzialnego za orientację seksualną. Zmiany epigenetyczne prowadzą do modyfikacji pracy genów bez mutacji samych genów, więc w tym przypadku poszukiwanie zmutowanych genów odpowiedzialnych za homoseksualizm jest z góry skazane na porażkę. Badania, których szczegółowe wyniki zostały zaprezentowane podczas dorocznego spotkania American Society of Human Genetics (ASHG) przeprowadził zespół z laboratorium Erika Vilaina z University of California w Los Angeles (UCLA). William Rice, genetyk z UC Santa Barbara, który w 2012 roku wysunął hipotezę, że to zmiany epigenetyczne determinują homoseksualizm, chwali osiągnięcia swoich kolegów, ale przypomina, że nic nie zostało przesądzone, gdyż to wstępne badania oparte na małej próbce. W 1993 roku zespół Deana Hamera z Narodowego Instytutu Raka ogłosił, że gen homoseksualizmu prawdopodobnie znajduje się w regionie Xq28 chromosomu X. Wiele zespołów naukowych próbowało wówczas odnaleźć ten gen, ale nikomu się nie udało. Badania nad bliźniętami wskazywały zaś, że sama sekwencja genetyczna nie może być pełnym wyjaśnieniem homoseksualizmu. Okazuje się bowiem, że w parze męskich bliźniąt jednojajowych jeśli jeden z braci jest homoseksualistą, to szanse, że i drugi nim będzie, wynoszą jedynie 20-50 procent. Pojawiły się więc sugestie, że dominującą rolę odgrywa tu epigenetyka. W czasie życia nasze DNA poddawane jest działaniu różnych czynników chemicznych, które nie zmieniają samej sekwencji nukleotydów, ale mogą np. włączać i wyłączać niektóre geny. Większość takich zmian jest kasowana w jaju i plemniku, więc powstającego płodu zmiany epigenetyczne nie dotyczą. Jednak, jak się okazuje, nie wszystkie takie zmiany są usuwane przed rozpoczęciem nowego życia i dzieci mogą dziedziczyć po rodzicach pewne cechy epigenetyczne. W 2012 roku William Rice i jego koledzy opublikowali artykuł, w którym stwierdzili, że przekazane pewnych zmian epigenetycznych przez ojca córce lub przez matkę synowi może spowodować, że dziecko będzie homoseksualne. Szczególnie ważna jest, ich zdaniem, wrażliwość płodu na testosteron, co może w przypadku dziewczynek prowadzić do 'męskiego', a w przypadku chłopców do 'żeńskiego' mózgu i powodować pociąg do osób tej samej płci. Teraz Tuck Ngun z laboratorium Vilaina przetestował wzorce metylacji w 140 000 regionach DNA u 37 par jednojajowych bliźniąt płci męskiej w których jeden z braci był homo- a drugi heteroseksualistą, oraz u 10 par w których obaj bracia byli homoseksualistami. W ten sposób udało się zidentyfikować pięć obszarów, w których zmiany w metylacji genów były bardzo blisko powiązane z orientacją seksualną. Co ciekawe, zmiany te występują w genach pełniących bardzo różne funkcje: jeden z nich jest odpowiedzialny za przewodnictwo nerwowe, a inny bierze udział w funkcjonowaniu układu odpornościowego. Uczeni, chcąc sprawdzić, na ile ważne jest ich spostrzeżenie, podzielili pary, w których tylko jeden z braci był homoseksualistą, na dwie przypadkowe grupy. Następnie sprawdzali wzorce metylacji i orientację seksualną w jednej grupie, a później, na tej podstawie, próbowali przewidzieć orientację seksualną w drugiej grupie. Okazało się, że są w stanie z niemal 70-procentową dokładnością przewidzieć orientację seksualną mężczyzn z grupy kontrolnej. Uczeni podkreślają, że uzyskane przez nich wyniki można odnieść wyłącznie do badanej grupy i nie można ich przekładać na całość populacji. Obecnie naukowcy nie wiedzą, dlaczego u jednojajowych bliźniąt występują różnice we wzorcach metylacji. Być może wynikają one np. z umiejscowienia obu płodów, co może powodować nieznaczne różnice w przepływie krwi czy dostarczanych substancjach odżywczych. Specjaliści mówią, że konieczne jest przeprowadzenie większej liczby podobnych badań, a szczególnie przydatne byłoby zdobycie dowodu na związek pomiędzy zmianami epigenetycznymi a wrażliwością na testosteron w życiu płodowym. « powrót do artykułu
  23. By rozpoznać przyjaciela bądź kogoś z rodziny, w ponad 99% przypadków ludziom wystarczy wypowiedź składająca się z zaledwie 2 słów. Julien Plante-Hébert, doktorant z Uniwersytetu w Montrealu, badał 44-osobową grupę francuskojęzycznych Kanadyjczyków w wieku 18-65 lat. Badanych proszono, by wśród męskich głosów wskazali znajomy. Na potrzeby eksperymentu naukowiec stworzył serie głosów o podobnych cechach akustycznych (miały one stanowić słuchowy odpowiednik procedury wzrokowej identyfikacji na policji). W moim studium każdy "szereg" składał się z wypowiedzi o długości od 1 do 18 sylab. Znajomość docelowego głosu oraz identyfikującego definiowano jako stopień kontaktu [...]. Plante-Hébert stwierdził, że bez względu na znajomość mówiącej osoby ludzie nie potrafili zidentyfikować krótkich wypowiedzi, jednak dla znanych głosów stopień skuteczności przy wypowiedziach składających się z 4 bądź więcej sylab (np. "merci beaucoup", dziękuję bardzo) był niemal 100-proc. "Wskaźnik trafności przewyższa wartości uzyskiwane za pomocą systemów automatycznych". Kanadyjczyk wylicza, że o ile najlepsze systemy rozpoznawania mowy działają na poziomie 92% poprawnych odpowiedzi, o tyle ludzie w swojej najlepszej formie sięgają pułapu 99,9%. Doktorant podkreśla, że w hałaśliwym otoczeniu człowiek przewyższa automatyczne systemy, bo jego mózg potrafi odfiltrować szum tła. W porównaniu do odcisków palców czy wzoru tęczówki, automatyczne rozpoznanie mówiącego to najmniej dokładny czynnik biometryczny. O ile zaawansowane technologie są w stanie wychwycić ogromną ilość danych dot. mowy, o tyle wyłącznie ludzie potrafią rozpoznać znajome głosy z niemal zupełną trafnością. « powrót do artykułu
  24. Koncerny farmaceutyczne mają problem z prowadzeniem badań klinicznych leków przeciwbólowych. Analizy danych z takich badań wykazały bowiem, że z czasem placebo - które jest podawane podczas testów - wykazuje... coraz silniejsze efekty przeciwbólowe. Badacze z Kanady, którzy zauważyli to zjawisko, informują jednocześnie, że dotyczy ono jedynie... Stanów Zjednoczonych. Kompletnie nas to zaskoczyło - mówi Jeffrey Mogil z McGill University w Montrealu, który specjalizuje się badaniu genetycznych podstaw bólu i stał na czele grupy analizującej dane z testów klinicznych. Z analiz wynika, że wystarczy, by badania kliniczne odbywały się na ternie USA, by okazało się, że placebo działa równie dobrze jak wiele obiecujących nowych leków. To z kolei oznacza, że leki te mogą nie przejść testów klinicznych, gdyż badania wykażą, że są one równie skuteczne co placebo. Mogil sądzi, że przyczyną zaobserwowanego zjawiska jest fakt, że testy leków w USA trwają dłużej, są zakrojone na szerszą skalę i są droższe, co może zwiększać oczekiwania testowanych osób, co do efektywności podawanych ich środków, a więc zwiększać wpływ efektu placebo. Wzmacnianie się efektu placebo zauważono już przy testach leków antydepresyjnych i antypsychotycznych, dlatego też zaczęto zadawać pytanie, czy zjawisko to występuje w testach leków przeciwbólowych. Mogil i jego zespół przeanalizowali dane z 84 testów klinicznych, które prowadzono w latach 1990-2013 nad lekami mającymi przynosić ulgę w chronicznym bólu neuropatycznym. Na podstawie informacji uzyskanych od pacjentów, którzy oceniali natężenie bólu przed i po otrzymaniu leku, można stwierdzić, że w ciągu tych 23 lat efektywność leków pozostawała na tym samym poziomie. Jednak efektywność placebo rosła. Jeszcze w 1996 roku pacjenci informowali, że lekarstwa uwalniały ich od bólu o 27% skuteczniej niż placebo. W roku 2013 różnica ta zmniejszyła się do 9%. Za całą tę różnicę odpowiadają wyniki 35 testów klinicznych z USA. Zjawisko takie nie wystąpiło nigdzie indzie. Fabrizio Benedetti, specjalista ds. placebo na Uniwersytecie w Turynie mówi, że analiza taka wyjaśnia, dlaczego na rynku rzadko pojawiają się nowe leki przeciwbólowe. W ciągu ostatniej dekady ponad 90% leków na bóle neuropatyczne oraz bóle związane z chorobami nowotworowymi nie przeszło testów klinicznych. Najbardziej zaskakujące jest jednak spostrzeżenie, że rosnące efekty placebo obserwuje się wyłącznie w USA. Jednym z możliwych wyjaśnień są oczekiwania pacjentów. USA to jedyny, obok Nowej Zelandii, kraj, w którym dopuszczalne są reklamy leków kierowane bezpośrednio do pacjenta. To może zwiększać oczekiwania osób biorących udział w testach. Mogil zwraca jednak uwagę na inne zjawisko. Z naszych danych wynika, że im dłużej trwają testy i im są one droższe, tym silniejszy jest efekt placebo - mówi. Długotrwałość testów oraz olbrzymie pieniądze, jakie przeznacza się na nie w USA, mogą zwiększać oczekiwania testowanych. Pacjentami biorącymi udział w testach opiekują się np. specjalnie wynajęte pielęgniarki. Cała otoczka świetnej opieki i wyjątkowości może prowadzić do tego, że pacjent, nie wiedząc przecież, że otrzymał placebo, zaczyna odczuwać mniejszy ból. Mogil próbuje też podważyć przekonanie, jakoby testowanie leków przeciwko placebo było dobrą metodą prowadzenia badań klinicznych. Powszechnie uważa się, że odpowiedź na lek składa się z odpowiedzi na placebo oraz z odpowiedzi na efekty biochemiczne lekarstwa. Tymczasem Mogil zauważa, że odpowiedź na placebo rośnie z czasem, a w przypadku oddziaływania biochemicznego leków nie można mówić o tak dużym wzroście. Zdaniem Mogila oznacza to, że odpowiedź na placebo i lek nie zawsze się sumuje. Nie jest to całkowicie zaskakujące, gdyż i placebo i środki przeciwbólowe wykorzystują podobny mechanizm - uwalnianie endorfin. Jeśli jednak rola placebo rośnie, to może ono maskować prawdziwy wpływ leków. Wiele osób badających środki przeciwbólowe jest przekonanych, że różne testowane leki działają, jedynie testy tego nie wykazały - mówi Mogil. « powrót do artykułu
  25. Człowiek pochodzi z Afryki, jednak mimo to naszej wiedzy brakowało niezwykle ważnego elementu - sekwencji DNA prehistorycznych ludzi z Czarnego Lądu. Mamy DNA neandertalczyka z Europy, prehistorycznych pasterzy z Azji i przodków współczesnych Indian z Ameryki. Bez prehistorycznego DNA z Afryki układanka historii ludzkości była bardzo niepełna. Teraz się to zmieniło. W Science ukazał się artykuł na temat pierwszego zsekwencjonowanego genomu prehistorycznego człowieka z Afryki. Zbadane DNA należało do przedstawiciela zbieracko-łowieckiego ludu Mota, który przed 4500 laty żył na wyżynach współczesnej Etiopii. Lud nazwano od jaskini, w której znaleziono pozostałości naszych przodków. Dokładne poznanie tego genomu jest pierwszą okazją do przyjrzenia się, jak wyglądał genom mieszkańca Afryki przed wieloma ruchami migracyjnymi, stwierdził Jason Hodgson, genetyk z Imperial College London. Porównanie genomu Mota ze współczesnymi mieszkańcami Afryki wykazało istnienie uderzających podobieństw, a naukowcom kazało zmienić wyobrażenie o historii Czarnego Lądu. Zwykle Afrykę postrzega się jako źródło migracji. Tymczasem genom Mota dowodzi, że około 3500 lat temu na teren tego kontynentu przeszła znaczna grupa ludzi, prawdopodobnie rolników z Bliskiego Wschodu. Ich genom sięgnął daleko w głąb Afryki. Znaleziono go bowiem u, uważanych dotąd za izolowanych, Pigmejów z Kongo i ludów Khoisan z RPA. W 2012 roku starszyzna ludu Gamo pokazała antropologom Johnowi i Kathryn Artur z University of South Florida jaskinię, którą lud wykorzystywał jako schronienie w czasach wojny. W warstwie, której wiek oceniono na 4500 lat odkopano szkielet dorosłego mężczyzny. W kości ucha środkowego znaleziono dobrze zachowane DNA, w którym każdą z zasad DNA udało się zsekwencjonować średnio 12,5 raza, uzyskując dane o wysokiej jakości. Analiza DNA wykazała, że Mota mieli brązowe oczy i ciemną skórę. Znaleziono też trzy zmutowane geny odpowiadające za dostosowanie się do życia na wysokości nawet 4500 metrów nad poziomem morza. Po porównaniu 250 000 par zasad z genomu Mota z DNA 40 populacji z Afryki oraz 81 populacji z Europy i Azji okazało się, że Mota byli najbliżej spokrewnieni z ludem Ari, który do dzisiaj żyje w pobliżu etiopskich wyżyn. Uczeni skupili się na różnicach genetycznych pomiędzy oboma ludami i okazało się, że w ciągu ostatnich 4500 lat u Ari pojawiły się zmiany, których nie ma u Mota. Różnica pomiędzy Mota a Ari i innymi ludami współczesnej Afryki dotyczy 4-7 procent genomu. Różnice pomiędzy nimi najbardziej przypominają genom współczesnych Sardyńczyków i prehistorycznych rolników z terenów dzisiejszych Niemiec. Eksperci od pewnego czasu mieli pośrednie dowody, że DNA prehistorycznych rolników mogło trafić do Afryki. Teraz, dzięki Mota, wiedzą, które to były fragmenty, co pozwala ocenić, kiedy nastąpiła migracja. Genetyk Andrea Manica z University of Cambridge, który analizował genom Mota, uważa, że europejscy rolnicy i współcześni Afrykanie zyskali dodatkowe DNA z tego samego źródła - od ludów zamieszkujących Bliski Wschód, prawdopodobnie mieszkańców Anatolii bądź Mezopotamii. Przed 8000 lat część z tych ludzi ruszyła w kierunku Azji i Europy, stając się pierwszymi europejskimi rolnikami. Teraz wiemy, że część przeszła też do Afryki, prawdopodobnie już po wyginięciu Mota. To odpowiada wcześniejszym badaniom archeologicznym, podczas których w Afryce znaleziono bliskowschodnie ziarna, których wiek oceniono na 3-3,5 tysiąca lat. Jako, że DNA bliskowschodnich farmerów występuje u tak licznych współczesnych populacji Afryki, badacze sugerują, że musiało dojść do olbrzymiej migracji. Co prawda Afrykańczycy zajmowali się już wówczas uprawą pól, jednak przybysze musieli przynieść ze sobą jakieś udoskonalenia, co wyjaśnia, dlaczego ich geny tak szeroko się rozprzestrzeniły. Musiało być ich bardzo dużo, albo mieli ze sobą nowe ziarna, co wyjaśnia sukces, jaki odnieśli - mówi Manica. Naukowcy od dawna spekulowali, że mogło dojść do migracji z Mezopotamii do Afryki Północnej, jednak euroazjatycka migracja do każdej badanej afrykańskiej populacji czy to Pigmejów Mbuti czy ludów Khoisan to wiadomość zaskakująca, mówi David Reich, genetyk z Uniwersytetu Harvarda. « powrót do artykułu
×
×
  • Dodaj nową pozycję...