Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Przed ośmioma laty emocjonowaliśmy się walką Microsoftu o przejęcie Yahoo!. Koncern z Redmond chciał kupić niegdysiejszą gwiazdę internetu za niemal 50 miliardów dolarów. Microsoft nie zrealizował swoich planów, a teraz to, co pozostało z Yahoo! zostało kupione przez Verizon za 4,83 miliarda USD. Verizon, nabywając Yahoo! chce wzmonić swój dział reklamy i mediów. W ubiegłym roku za 4,4 miliarda USD koncern kupił AOL. Teraz wzbogaci swoją ofertę o technologie reklamowe, wyszukiwarkę, system pocztowy i komunikator Yahoo. "Najważniejsza tutaj jest skala, którą zapewnia nam Yahoo!" mówi CNBC Marni Walden odpowiedzialna w Verizonie za innowacje i nowe rynki. Pani Walden dodaje, że dzięki przejęciu liczba użytkowników korzystających z usług Verizona zwiększy się z milionów do miliardów. "Dla Yahoo! to koniec dekady złego zarządzania. To kontynuacja strategii Verizona, który chce zostać znaczącym graczem na rynku bezprzewodowego internetu. To z kolei pozwoli Verizonowi na przejście z regulowanego rynku telekomów do rosnącego rynku nieregulowanego" - zauważa analityk Roger Entner. Transakcja zostanie zakończona prawdopodobnie na początku 2017 roku. Yahoo przestanie istnieć jako niezależna firma. Obecnie posiada ona 15% udziałow w chińskiej Alibaba Group Holding oraz 35,5% w Yahoo Japan Corp. Transakcja z Verizonem nie obejmuje gotówki należącej do Yahoo, udziałów w Alibabie oraz Yahoo Japan, obligacji zamiennych, mniejszych udziałów i mniej istotnych patentów. Obecnie kapitalizacja rynkowa Yahoo wynosi około 38 miliardów USD. Kapitalizacja rynkowa udziałów Yahoo! w Alibaba i Yahoo Japan to około 40 miliardów USD. « powrót do artykułu
  2. W czwartek (21 lipca) na gdańskiej Wyspie Spichrzów znaleziono armatę sprzed kilkuset lat. Poinformował o tym rzecznik prasowy Wojewódzkiego Urzędu Ochrony Zabytków Marcin Tymiński. Do odkrycia doszło podczas nadzoru archeologicznego, prowadzonego z powodu przebudowy ulicy Mołtawskiej. Żeliwna armata z XVIII bądź XIX w. znajdowała się 150 cm pod poziomem gruntu. Ponadmetrowe działo waży tonę i brakuje mu kawałka lufy. Najpopularniejsze kiedyś żeliwne armaty często się psuły. Na tym ich żywot się jednak nie kończył, bo zaczynały wtedy pełnić rolę balastu na statkach. Wydaje się, że tak właśnie było lub miało być w opisywanym przypadku (potwierdza to lokalizacja w pobliżu nabrzeża). Tymiński podkreśla, że to pierwsza armata, jaką w Gdańsku wykopano. Poprzednich znalezisk dokonywano bowiem w wodzie we wrakach. Archeolodzy mają nadzieję, że uda się namierzyć sygnatury czy emblematy, które pomogą w określeniu dokładnego wieku i losów działa. « powrót do artykułu
  3. Śmierć króla Belgów Alberta I wciąż budzi emocje i stała się podłożem dla licznych teorii spiskowych. Władca zginął 17 lutego 1934 roku podczas wspinaczki w Marche-les-Dames w Ardenach. Jako, że Albert był bardzo popularny wśród swoich rodaków i zyskał sławę za pozytywną rolę, jaką odegrał podczas I wojny światowej oraz fakt, że nie było świadków jego śmierci, przyczynił się do powstania teorii spiskowych. Ich całe spektrum rozciąga się od zbrodni z namiętności po morderstwo polityczne. Władca miał zostać zabity gdzieś indziej, a jego ciała albo miało nigdy nie być w Marche-les-Dames, albo też zostało przywiezione, a wypadek upozorowano. Po śmierci popularnego władcy Marche-les-Dames szybko stało się miejscem pielgrzymek, pojawiły się też relikwie w postaci krwi króla zebranej ponoć przez miejscowych w nocy z 17 na 18 lutego. Dziennikarz Reinout Goddyn, który pracuje dla flamandzkiego programu telewizyjnego Royalty, kupił przed kilku laty jedne z takich relikwii - liście pokryte krwią. W 2014 roku profesor Dieter Deforce z Uniwersytetu w Gent potwierdził, że jest to ludzka krew. Dotychczas nie wiadomo było jednak do kogo należy. Genetyk Maarten Larmuseau i jego zespół z Uniwersytetu w Leuven przeprowadzili śledztwo i znaleźli dwóch żyjących krewnych Alberta I. "Król Simeon von Sachsen-Coburg und Gotha, ostatni car Bułgarii i były premier Bułgarii, który jest spokrewniony z Albertem I od strony swojego ojca, oraz Anna Maria Freifrau von Haxthausen, niemiecka baronessa spokrewniona z Albertem I od strony swojej matki, zgodzili się współpracować. Oddali próbki DNA, które porównaliśmy z DNA z krwi z liści. Możemy potwierdzić, że jest to krew Alberta I" - oświadczyli naukowcy. Wspomniane badania były jedną z ostatnich szans na rozwikłanie zagadki śmierci króla. Od tamtych wydarzeń minęło 80 lat, świadkowie i osoby zaangażowane w śledztwo nie żyją, większość dowodów już nie istnieje. Autentyczność śladów krwi potwierdza oficjalną wersję śmierci Alberta I. Teorie mówiące o tym, że ciała nigdy nie było w Marche-les-Dames lub że zostało tam podłożone stają się wysoce nieprawdopodobne. Dodatkowo wykazaliśmy, że już w tamtym czasie niemożliwe było prawidłowe przeprowadzenie dochodzenia, gdyż poszukiwacze pamiątek zniszczyli miejsce wypadku - stwierdzili naukowcy. Specjaliści zwracają uwagę na kwestie etyczne związane z przeprowadzonym profilowaniem genetycznym. Poza identyfikacją profil genetyczny może ujawnić wiele wrażliwych informacji dotyczących na przykład linii królewskiej czy następstwa tronu - zauważa bioetyk Pascal Borry z Uniwersytetu w Leuven. Skupiliśmy się wyłącznie na identyfikacji, unikaliśmy innych dedukcji na podstawie DNA.[...] Profil genetyczny nie został upubliczniony, był natomiast dwukrotnie sprawdzany przez niezależnych ekspertów. Próbki DNA zostały zniszczone. Pozostały jedynie liście z krwią Alberta, które trafią albo do którejś z intytucji przechowujących dziedzictwo narodowe albo do instytucji naukowej - mówi profesor Larmuseau. « powrót do artykułu
  4. Naukowcy z Uniwersytetu Hokkaido jako pierwsi zmierzyli ciśnienie w gałce ocznej śpiących chorych z zespołem obturacyjnego bezdechu sennego (ZOBS). U pacjentów z ZOBS częściej występują udary i choroby serca, np. zawały. Są oni także bardziej podatni na jaskrę (występuje u nich ok. 10-krotnie częściej niż u osób bez ZOBS). Dotąd ciągły pomiar ciśnienia w gałce ocznej śpiących ludzi nastręczał sporo trudności technicznych. By sobie z tym poradzić, Japończycy posłużyli się specjalnym czujnikiem, przypominającym szkła kontaktowe. Monitorował on zmiany ciśnienia podczas powtarzających się epizodów bezdechu w czasie snu. Zwykle, gdy ludzie przestają oddychać (wydychać powietrze), rośnie ciśnienie w klatce piersiowej, a następnie w gałce ocznej. Japońskie studium pokazało jednak, że po zatrzymaniu oddechu u badanych z ZOBS ciśnienie śródgałkowe spadało. Japończycy wyjaśniają, że działo się tak, bo przez zwężenie bądź całkowite zapadnięcie dróg oddechowych pacjenci przestawali raczej wdychać niż wydychać powietrze, co powinno prowadzić do spadku ciśnienia w klatce piersiowej. Ponieważ przez zatrzymanie oddechu spadała saturacja krwi tlenem, mogło to wywoływać skutkujące jaskrą uszkodzenia nerwu wzrokowego. Studium pokazuje, że nerw wzrokowy może być uszkodzony przez niedotlenienie pod nieobecność skoków ciśnienia śródgałkowego. Rzuca to nieco światła na przypadki chorych z jaskrą z prawidłowym ciśnieniem w gałce ocznej. « powrót do artykułu
  5. IC Sberbank Life Insurance, spółka stowarzyszona Sbierbanku Rossii (Kasy Oszczędności Federacji Rosyjskiej), proponuje klientom darmowe ubezpieczenie Pokémon Go, które gwarantuje wypłatę do 50 tys. rubli (ok. 800 dol.) w razie wypadku związanego z grą. Jako największy ubezpieczyciel w Rosji czujemy się odpowiedzialni za użytkowników zyskującej niesamowitą popularność gry Pokémon G. Biorąc pod uwagę liczbę doniesień ze świata o osobach poszkodowanych w czasie łapania pokémona [ludzie zderzają się z policyjnymi radiowozami, spadają ze schodów, a nawet klifów, zdarzają się też postrzały], stworzyliśmy dla graczy darmowy produkt. [Co ważne], pozwala nam on również podnieść świadomość finansową społeczeństwa: grając, młodsze pokolenie może się bowiem zaznajomić takimi narzędziami jak ubezpieczenie - podkreśla Maksim Czernin, szef IC Sberbank Life Insurance. Przedstawiciele Sberbanku zaznaczają, że dzięki ubezpieczeniu można się całkowicie skupić na grze. By stać się właścicielem polisy, wystarczy wpisać swój nick z gry i numer telefonu na poświęconej pokemonom witrynie Sbiérbank Go. Użytkowników instruuje się też, by zrobili zdjęcie miejsca wypadku, bo przyda się to przy ocenie szkód. Gdy 18 lipca pojawiła się informacja o ubezpieczeniu, wielu internautów podejrzewało, że jest ona fałszywa. Biuro prasowe Sberbanku szybko jednak zdementowało te pogłoski i potwierdziło, że produkt naprawdę istnieje. « powrót do artykułu
  6. Każdy słyszał o Wezuwiuszu czy Etnie, jednak na terenie Włoch znajduje się wiele niebezpiecznych wulkanów. Afrykańska płyta tektoniczna zanurza się pod płytę eurazjatycką, czyniąc ten obszar aktywnym tektonicznie. W odległości około 30 kilometrów od Rzymu znajduje się kompleks wulkanicznych wzgórz Colli Albani. Wydają się one nieczynne, gdyż w całej ludzkich historii nie zanotowano żadnego przykładu ich erupcji. Jednak w latach 90. ubiegłego wieku naukowcy zauważyli, że wysokość wzgórz rośnie, a okolica doświadczyła trzęsienia ziemi. Spod gruntu wydobył się dwutlenek węgla, który zabił wiele zwierząt. Naukowcy natychmiast zainteresowali się tym zjawiskiem, przeprowadzili badania i okazało się, że w ciągu ostatnich 600 000 lat wulkan wybuchł 11 razy. Jest zatem uśpiony, a nie wygasły. Colli Albani postanowił przyjrzeć się Fabrizio Marra z Narodowego Instytutu Geofizyki i Wulkanologii. Bliskość Rzymu oraz wielu innych miejscowości, w tym papieskiej rezydencji w Castel Gandolfo, spowodowała, że wulkan stał się obiektem szczególnego zainteresowania. Teraz Marra i jego zespół twierdzą, że wulkan się budzi. Włoscy naukowcy zebrali próbki lawy i popiołów z sześciu ostatnich erupcji, które miały miejsce w ciągu ostatnich 365 000 lat i przesłali je do zbadania Brianowi Jicha, geochronologowi z University of Wisconsin-Madison. Jicha stwierdził, że erupcje Colli Albani występują dość regularnie. Na przestrzeni ostatnich 100 000 lat miały one miejsce co 31 000 lat. Ostatni wybuch wulkanu nastąpił zaś 36 000 lat temu. Czas, w którym wulkan jest uśpiony, przekroczył już 31 000 lat, co wskazuje, że system jest gotowy do kolejnej erupcji - twierdzi Marra. Oczywiście sam czas jaki upłynął od ostatniej erupcji niczego jeszcze nie dowodzi, jednak Marra przedstawia kolejne dowody. Z danych satelitarnych i badań geologicznych wynika, że w ciągu ostatnich 200 000 lat wzgórza "napęczniały" o 50 metrów, co ma prawdopodobnie związek z gromadzeniem się pod nimi lawy. Zdaniem Marry lokalne procesy geologiczne spowodowały, że magma została zamknięta przez skały, jednak ciśnienie wewnątrz komory wzrosło już tak bardzo, może pokonać ciśnienie napierających skał. Uczony uważa, że do zmiany takiej doszło w ciągu ostatnich kilku tysięcy lat. "To tak, jakbyśmy piekli ciasto i widzieli, że jego powierzchnia zaczyna puchnąć od napierającej od wewnątrz bańki powietrza. W pewnym momencie ciasto pęknie" - stwierdza Marra. Uczony mówi, że w końcu magma znajdzie drogę na zewnątrz, dojdzie do erupcji wulkanu, ciśnienie w komorze opadnie, zostanie ona ponownie zamknięta i cały cykl rozpocznie się na nowo. Uspokaja jednak, że nic nie wskazuje na to, by do eksplozji miało dojść w najbliższym czasie. Jego zdaniem jest ona mało prawdopodobna w ciągu najbliższych 1000-2000 lat. Z wnioskami Marry nie zgadza się Guido Giordano, geolog z rzymskiego Tre University. Mówi on, że nie ma dowodów, by do komory napływała nowa magma, a za obserwowane procesy odpowiada magma już tam zgromadzona. Jego zdaniem Colli Albani jest nadal uśpiony. Naukowcy zgadzają się jednak co do tego, że obszar ten należy ciągle monitorować. « powrót do artykułu
  7. Międzynarodowa Unia Telekomunikacyjna (ITU) szacuje, że do końca bieżącego roku około 3,9 miliarda osób - 53% populacji świata - wciąż nie będzie miało dostępu do internetu. Możliwość korzystania z sieci wydaje się nam czymś oczywistym, jednak oczywistym nie jest. W Europie, gdzie dostęp do sieci ma największy odsetek ludzi, z internetu wciąż nie korzysta 20,9% mieszkańców. Na przeciwległym biegunie znajduje się Afryka. A tam dostępu do sieci nie ma aż 74,9% ludzi. Z raportu dowiadujemy się, że istnieją olbrzymie różnice pomiędzy krajami rozwiniętymi a rozwijającymi się. Generalnie rzecz biorąc w krajach rozwiniętych dostęp do sieci ma ponad 80% mieszkańców, a krajach rozwijających się - ponad 40%. W Haiti, Jemenie, Myanmarze i Etiopii z internetu może korzystać tylko 15,2% populacji. Zwiększyły się też różnice w możliwości korzystania z internetu pomiędzy kobietami a mężczyznami. Jeszcze w 2013 roku różnica ta wynosiła 11%, obecnie wynosi 12,2%. W krajach rozwiniętych spadła w tym czasie z 5,8 do 2,8%, jednak wzrosła w krajach rozwijających się. Internet jest wciąż zbyt drogi dla wielu mieszkańców najuboższych krajów. Zdaniem ITU graniczna cena, poza którą ludzi z tych krajów nie stać na korzystanie z sieci wynosi 5% średnich miesięcznych dochodów. « powrót do artykułu
  8. Naukowcom z różnych amerykańskich instytucji badawczych udało się określić maksymalny czas, przez który możemy siedzieć bądź leżeć bez narażania się na ryzyko uszkodzenia serca. Z artykułu opublikowanego w JAMA Cardiology dowiadujemy się, że naukowcy oparli się na szczegółowych analizach danych dotyczących 700 000 osób na przestrzeni 11 lat. Nie od dzisiaj wiadomo, że siedzący tryb życia, nieodłącznie związany z rozwojem cywilizacji i nowoczesnych technologii, nie jest zdrowy. Brak aktywności fizycznej powoduje liczne problemy. Dotychczas jednak nie udało się odpowiedzieć, jak długo można pozostawać w jednej pozycji (siedzącej i/lub leżącej) by nie zwiększać ryzyka uszkodzenia serca. Na podstawie przeprowadzonych analiz naukowcy stwierdzili m.in., że osoby siedzące średnio 12 godzin dziennie narażają się na o 14% większe ryzyko uszkodzeń serca niż osoby, które siedzą średnio 2,5 godziny dziennie. Granicznym czasem, przez który można stosunkowo bezpiecznie pozostawać w jednej pozycji (siedzącej i/lub leżącej) jest 10 godzin dziennie. Dłuższe siedzenie powoduje znaczny wzrost ryzyka uszkodzeń serca. Warto w tym miejscu uświadomić sobie, że pracownicy biurowi znajdują się w grupie podwyższonego ryzyka. Możemy przyjąć, że przez 7 godzin dziennie siedzą oni za biurkiem, kolejną godzinę siedzą przy jedzeniu, siedzą w samochodzie jadąc z pracy i do pracy, siedzą w domu oglądając telewizję itp. itd. W ten sposób z łatwością przekroczą 10 godzin siedzącego trybu życia. Autorzy badań nie potrafią odpowiedzieć na pytanie, czy np. poranne bieganie przed pracą pozwala pracownikowi biurowemu na zmniejszenie ryzyka związanego z siedzącym trybem życia. « powrót do artykułu
  9. Naukowcy zidentyfikowali mikroorganizm uśmiercający wszystkich synów zakażonej nim samicy motyla Danaus chrysippus. Spiroplasma ixodeti zakaża motyle w większej części Afryki i nie ma wpływu na ich potomstwo, ale w wąskiej strefie wokół Nairobi, gdzie żyją i rozmnażają się 2 podgatunki D. chrysippus (D. c. dorippus i D. c. chrysippus), wewnątrzkomórkowy patogen powoduje, że męskie jaja się nie wykluwają i są często zjadane przez siostry. Naukowcy sądzą, że to zjawisko to pierwszy etap przekształcenia dwóch podgatunków w niekrzyżujące się dwa odrębne gatunki. Strefa hybrydowa z centrum w okolicach stolicy Kenii rozdziela dwa gatunki allopatryczne o innych wzorach ubarwienia. U samic przekazujących synom zabójczą bakterię doszło do połączenia autosomu z chromosomem płci W, przez co powstał nowy chromosom - neo-W. Mamy tendencję, by myśleć, że nowe gatunki powstają wskutek zmian środowiskowych, ale tutaj jasno widać, że to bakteria napędza rozdzielanie podgatunków - opowiada prof. Richard Ffrench-Constant z Uniwersytetu w Exeter. Choć nie rozumiemy mechanizmu molekularnego [...], w praktyce oznacza to, że w strefie hybrydowej nie ma samców, a sukces reprodukcyjny jest zerowy. W ten sposób powstaje bariera z nowymi gatunkami po obu stronach. Artykuł opublikowany na łamach Proceedings of the Royal Society B to zwieńczenie 13 lat badań terenowych wokół Nairobi, w czasie których zespół dr. Iana Gordona odnotowywał płeć i ubarwienie motyli. Do przełomu doszło, gdy samice z wyłącznie żeńskiej strefy wysłano do Niemiec i prof. Walther Traut z Uniwersytetu w Lubece odkrył, że doszło u nich do zlania 2 chromosomów. Wydaje się, że podatność na działanie S. ixodeti napędza rozdzielanie się motyli w dwa odrębne gatunki - podsumowuje Ffrench-Constant. « powrót do artykułu
  10. Naukowcy z Purdue University we współpracy z kolegami z Tennessee University opracowali niechemiczną metodę znacznego wydłużania przydatności mleka do spożycia. Uczeni wykazali, że temperaturę pasteryzowanego mleka podniesiemy gwałtownie o 10 stopni Celsjusza na mniej niż 1 sekundę, to pozbędziemy się ponad 99% bakterii pozostałych po pasteryzacji. To proces dodatkowy do pasteryzacji, jednak pozwala na wydłużenie przydatności mleka do spożycia o kolejnych kilka tygodni. Przebiega też w znacznie niższej temperaturze niż sama pasteryzacja, która wymaga podgrzania mleka do 70 stopni Celsjusza. Technika LTST (low-temperature, short-time) polega na przepuszczeniu kropli mleka przez specjalną komorę, w której płyn jest gwałtownie ogrzewany o 10 stopni Celsjusza i szybko schładzany. Nie zmienia się przy tym ani kolor, ani zapach, ani smak mleka. Dzięki zaś dodatkowej procedurze możliwe jest wydłużenie jego przydatności do spożycia do 63 dni. Badania wykazały, że dzięki LTST liczba bakterii w mleku spada poniżej poziomów możliwych do wykrycia. Jest ich więc niezwykle mało, dzięki czemu bardzo wolno się namnażają i późno powodują psucie się mleka. Co więcej, proces LTST można przeprowadzić wykorzystując ciepło z pasteryzacji, zatem nie jest on kosztowny, a pozwala na znacznie zmniejszenie ilości mleka, które się marnuje. Naukowcy chcą teraz sprawdzić swoją technologię na mleku, które nie było wcześniej pasteryzowane, by stwierdzić, czy samo LTST nie wystarczy do wydłużenia czasu przydatności mleka do spożycia. « powrót do artykułu
  11. Graham to postać z ciałem idealnie dostosowanym do przeżycia wypadku samochodowego. Na zlecenie australijskiej Komisji Wypadków Komunikacyjnych (TAC) stworzyła go Patricia Piccinini. Artystka współpracowała z Christianem Kenfieldem, chirurgiem urazowym ze Szpitala Królewskiego w Melbourne i dr. Davidem Loganem, ekspertem od badania wypadków z Monash University. Graham ma grube kości czaszki. Wbudowane strefy zgniotu jak kask pochłaniają siły uderzenia. Oprócz tego jego mózg jest chroniony przez większą ilość płynu mózgowo-rdzeniowego oraz dodatkowe więzadła. By zapobiec uszkodzeniom kości nosa i zatok, twarz Grahama jest płaska. Wokół wystających rejonów, np. przy kościach policzkowych, dodano więcej tkanki tłuszczowej. Szyja praktycznie zlewa się z tułowiem, a między wzmocnionymi żebrami umieszczono worki spełniające funkcje poduszek powietrznych. Skóra postaci jest grubsza i bardziej wytrzymała (zwłaszcza na ramionach, łokciach i dłoniach, za pomocą których staramy się zatrzymać upadek). Kolana Grahama poruszają się we wszystkich kierunkach. Piccinini pomyślała też o dodatkowych ścięgnach. W nogach zakończonych kopytowatymi stopami znajdują się dodatkowe stawy. Interaktywną postać wyprodukowano z silikonu, włókna szklanego, żywicy i ludzkich włosów. Ludzie mogą przeżyć wpadnięcie z pełną prędkością na ścianę, ale kiedy mówimy o kolizji z udziałem pojazdów, prędkości i działające siły są większe, a szanse przeżycia o wiele mniejsze. Samochody ewoluowały o wiele prędzej niż ludzie i Graham pomaga nam zrozumieć, czemu by zabezpieczyć się przed własnymi błędami, powinniśmy poprawić każdy aspekt systemu drogowego - podkreśla Joe Calafiore, dyrektor wykonawczy TAC. Od 21 lipca do 8 sierpnia Grahama można zobaczyć na żywo w Bibliotece Stanu Wiktoria. Można też skorzystać z witryny internetowej Meet Graham. « powrót do artykułu
  12. ASML informuje o rosnącej liczbie zamówień na systemy do produkcji półprzewodników w technologii ekstremalnie dalekiego ultrafioletu (EUV). W ostatnim kwartale zamówiono 4 takie systemy, a ASML spodziewa się, że w przyszłym roku sprzeda ich 12. Wzrost zamówień daje nadzieję, że w 2020 roku skanery EUV będą gotowe do masowej produkcji. Prawdopodobnie zostaną wykorzystane do wytwarzania procesorów w technologii 5 nanometrów. Holenderska firma zapowiada też, że jest gotowa do zwiększenia w 2018 roku produkcji systemów EUV do 24 rocznie. Obecnie jeden taki system kosztuje około 100 milionów dolarów, a producenci półprzewodników zainstalowali dotychczas osiem z nich. Analityk Robert Maire z Semiconductor Advisors LLC przypomina, że ostatnio TSMC zapowiedziało wykorzystanie EUV do produkcji w technologii 5 nanometrów. Maire twierdzi, że co prawda większość producentów półprzewodników wykorzysta EUV właśnie do technologii 5 nanometrów, jednak wyjątek od reguły może stanowić Intel. Gigant opóźnił produkcję procesorów w technologii 10 nm, niewykluczone zatem, że wykorzysta EUV przy technologii 7 nm, którą będzie wdrażał w czasie, gdy TSMC rozpocznie produkcję 5-nanometrowych układów. Obecnie najnowsze układy scalone produkuje się w technologii DUV (głęboki ultrafiolet). Za pomocą maszyn DUV można produkować układy w technologii 10 nanometrów i mniejsze, jednak wymagałoby to kilkukrotnego naświetlania masek, co jest trudne technicznie i bardzo kosztowne. Dzięki systemom EUV można będzie uniknąć takich działań i obniżyć koszty. Na razie jednak systemy EUV nie są gotowe do masowej produkcji. Ich instalacja miałaby ekonomiczny sens, gdyby za ich pomocą można było produkować co najmniej 125 plastrów krzemowych na godzinę. Do tego jednak potrzebne jest źródło światła o mocy 250 watów. Wspomniane już zainstalowane systemy EUV korzystają ze źródła światła o mocy 125 watów i są w stanie przetwarzać 85 plastrów na godzinę. Ostatnio ASML zaprezentowała 210-watowe źródło światła. Firma pracuje też nad zwiększeniem efektywności swoich maszyn. Chce, by były one w stanie pracować przez 90% czasu. Dotychczas najlepsze z nich mogły pracować przez ponad 80% czasu w czasie czterotygodniowego okresu próbnego. Na tym właśnie polega różnica pomiędzy systemem znajdującym się w fazie badawczo-rozwojowej, a systemem gotowym do masowej produkcji - mówi Michael Lercel, dyrektor ds. marketingu w ASML. Stworzenie systemu do produkcji masowej nie jest prostym zadaniem. Dość wspomnieć, że jego źródło światła musi całymi godzinami niezwykle precyzyjnie wystrzeliwać po 50 000 miniaturowych kropli stopionej cyny w ciągu sekundy. Najnowsze źródła światła są znacznie bardziej złożone od tych używanych w systemach poprzedniej generacji. Tamte są wielkości lodówki, nowe są większe. « powrót do artykułu
  13. Donosowe szczepionki przeciw grypie mogą zapewniać długotrwałą ochronę przed pandemicznymi szczepami wirusa grypy. Naukowcy z Centrum Medycznego Uniwersytetu Columbii odkryli, że donosowa szczepionka FluMist prowadziła do produkcji w płucach myszy limfocytów T, które zapewniały długotrwałą ochronę przed wieloma szczepami wirusa grypy (także przed szczepami niewystępującymi w szczepionkach). Gryzonie, którym podano tradycyjną wstrzykiwaną szczepionkę, taką jak Fluzone, nie wytwarzały tych komórek. Nasze wyniki pokazują, że każdy rodzaj szczepionki zapewnia inny rodzaj ochrony przed grypą. Producenci mogą zechcieć połączyć ich atrybuty w uniwersalną szczepionkę, która zapewni ochronę zarówno przed znanymi szczepami, które spodziewamy się ujrzeć w czasie typowego dorocznego sezonu grypowego, jak i nowymi, które są w stanie wywołać pandemię - wyjaśnia prof. Donna Farber. Ostatnie badania zakażeń grypą pokazały, że uniwersalną ochronę przed szerokim wachlarzem szczepów mogą zapewniać specjalne limfocyty T. Rezydują one w płucach i potrafią szybko eliminować zakażone wirusem komórki, nie dopuszczając do poważnej choroby. Najnowsze badania, których wyniki ukazały się w Journal of Clinical Investigation/Insight, pokazują, że donosowe szczepionki prowadzą do produkcji tych limfocytów. Komórki te mogą nie zapobiec chorobie, ale pomogą szybciej pozbyć się wirusa i zmniejszą nasilenie objawów. Co ciekawe, w eksperymentach zespołu z Uniwersytetu Columbii szczepionki donosowe wyzwalały ograniczoną produkcję przeciwciał przeciw szczepom wirusa z preparatu. Ostatnio panel doradczy ds. sposobów szczepień Centrum Zwalczania i Zapobiegania Chorobom (CDC) opowiedział się przeciwko donosowym szczepionkom na grypę sezonową. Studium grupy Faber pokazuje jednak, że takie szczepionki mogą prowadzić do innych odpowiedzi odpornościowych, szczególnie skutecznych w walce z nowymi szczepami wirusów. « powrót do artykułu
  14. Kilkanaście tajwańskich instytucji badawczych podpisało kontrakt z NASA, w ramach którego wspólnie stworzą księżycowy łazik lądownik. Ma on trafić na Srebrny Glob już w 2020 roku. Pojazd ma zostać dostarczony w USA w październiku 2018 roku. Po przejściu testów zostanie użyty podczas misji zaplanowanej za cztery lata. Jak informują przedstawiciele tajwańskiego Narodowego Instytutu Nauki i Technologii Chung-Shan (NCSIST), NASA chce zbadać możliwość pozyskiwania wody z Księżyca. Tajwańczycy mają stworzyć system czujników lądownika, NASA zbuduje zaś jego napęd. Wspomniana misja będzie pierwszą księżycową misją z udziałem Tajwanu. NASA wybrała do współpracy instytucje z tego kraju, gdyż sprawdziły się one podczas innych misji, np. podczas projektu Alpha Magnetic Spectrometer, w czasie którego badano wysokoenergetyczne cząstki występujące w przestrzeni kosmicznej. NCSIST powstało w 1969 roku jako rządowa jednostka badawcza prowadząca prace na potrzeby wojska. W 1994 roku Instytut zaczął zajmować się też technologiami cywilnymi. W miarę rozwoju tajwańskiego programu kosmicznego NCSIST brało udział w coraz większej liczbie prac nad satelitami i systemami ich wynoszenia. Teraz Tajwańczycy zdobędą doświadczenia związane z pracą na powierzchni Księżyca. « powrót do artykułu
  15. Wydaje się, że globalne ocieplenie odpowiada za zazielenianie się Sahelu. Naukowcy z Instytutu Meteorologii im. Maksa Plancka w Hamburgu informują na łamach Nature Climate Change, że z powodu wyższych temperatur w regionie Morza Śródziemnego do południowych granicy Sahary dociera w czerwcu, gdy rozpoczyna się monsun, więcej wilgoci ze wschodnich regionów Morza Śródziemnego. Co więcej, najnowsze badania wykazują, że opady w Sahelu są bardzo mocno uzależnione od ocieplania się Morza Śródziemnego. Sahel, obszar rozciągający się na kilkaset kilometrów na południe od Sahary, to prawdopodobnie najbardziej zróżnicowany klimatycznie region Ziemi. Obejmuje on kraje od Senegalu po Erytreę, a decydujący wpływ na jego klimat ma monsun zachodnioafrykański. Rozpoczyna się on w czerwcu i do września w całym regionie pada. Zima jest natomiast sucha. Przyczyną takiego stanu rzeczy jest wyższa pozycja Słońca w miesiącach letnich. Temperatura w regionie wzrasta, jednak nasza gwiazda różnie działa na ląd i wodę. Ląd ogrzewa się mocniej i szybciej. Powietrze nad lądem unosi się, a na jego miejsce napływają wilgotne masy powietrza znad wody - wyjaśnia Jürgen Bader. Siła monsunu jest bardzo zróżnicowana. W latach 50. i 60. ubiegłego wieku był on dość silny i Sahel miał zapewnioną sporą ilość wody. Później aż do połowy lat 80. monsun przynosił niewiele wilgoci, co kosztowało życie ponad 100 000 ludzi. Później, niespodziewanie dla specjalistów, monsun znowu się wzmocnił. Teraz Jong-yeon Park, Jürgen Bader i Daniela Matei z Instytutut Meteorologii w Hamburgu odkryli przyczynę takiego stanu rzeczy. Wykazaliśmy, że ocieplanie się regionu Morza Śródziemnego, spowodowane antropogeniczym ociepleniem klimatu, to najważniejszy czynnik, który tu zadziałał - mówi Matei. Jeśli naukowcy mają rację, to zjawiska, które będą zachodziły w regionie Śródziemiomorza będą miały decydujący wpływ na poziom opadów w Sahelu. Naukowcy wiedzą, że do osłabienia monsunu i suszy z lat 70. i 80. doszło wskutek pojawienia się szczególnego układu temperatur nad Atlantykiem, Pacyfikiem i Oceanem Indyjskim. Różnice temperatur pozwalają wyjaśnić też wzrost siły monsunu od lat 90. Można powiedzieć, że różne regiony morskie 'walczą ze sobą'. Jeśli rośnie temperatura powierzchni wód w tropikach, spada ilość opadów w Sahelu. Jeśli jednak rośnie temperatura wód powierzchniowych poza tropikami, w Sahelu mamy więcej opadów - mówi Bader. Naukowcy z Hamburga wykorzystali modele komputerowe, za pomocą których odkryli, że monsun zachodnioafrykański jest od dwóch dekad silniejszy, gdyż temperatura wód Morza Śródziemnego była wyższa od temperatur w tropikach. Przyszłe opady w Sahelu będą więc zależały od różnicy temperatur w tych regionach świata. Jong-yeon Park przeprowadził symulacje, w czasie których sprawdzał różne scenariusze. Okazało się, że jeśli temperatura Morza Śródziemnego pozostanie na stałym poziomie, opady w Sahelu nie zwiększą się. Jeśli jednak będzie ona rosła, a temperatury wód Północnego Atlantyku i Pacyfiku pozostaną na stałym poziomie, mieszkańcy Sahelu mogą liczyć na zwiększone opady. Powinni więc oni trzymać kciuki za to, by Śródziemiomorze ogrzewało się szybciej niż oceany. « powrót do artykułu
  16. Wykonanie hologramu pojedynczego fotonu uchodziło dotąd za niemożliwe z przyczyn fizycznie fundamentalnych. Naukowcom z Wydziału Fizyki Uniwersytetu Warszawskiego udało się jednak w oryginalny sposób przenieść idee klasycznej holografii do świata zjawisk kwantowych. Nowa technika pomiarowa nie tylko umożliwiła rejestrację pierwszego hologramu pojedynczej cząstki światła, ale także pozwoliła w nowy sposób spojrzeć na fundamenty mechaniki kwantowej. Na Wydziale Fizyki Uniwersytetu Warszawskiego (FUW) wykonano pierwszy hologram pojedynczej cząstki światła. Spektakularny eksperyment, opisany na łamach prestiżowego czasopisma „Nature Photonics”, przeprowadzili dr Radosław Chrapkiewicz i mgr Michał Jachura pod kierownictwem dr. hab. Wojciecha Wasilewskiego i prof. dr. hab. Konrada Banaszka. Zarejestrowanie hologramu fotonu oznacza początek nowego rodzaju holografii: holografii kwantowej, która odsłania nowy widok na świat zjawisk kwantowych. W stosunkowo prostym eksperymencie zmierzyliśmy i zobaczyliśmy coś, co dostrzec jest bardzo trudno: kształt frontów falowych pojedynczego fotonu, mówi dr Radosław Chrapkiewicz. W standardowej fotografii w poszczególnych punktach obrazu rejestruje się wyłącznie natężenie światła. W klasycznej holografii dzięki zjawisku interferencji zapisuje się także fazę fali świetlnej (to właśnie faza niesie informację o głębi obrazu). Wykonanie hologramu polega na tym, że na dobrze znaną, niezaburzoną falę świetlną (odniesienia) nakłada się drugą falę o tej samej długości, lecz odbitą od obiektu trójwymiarowego (a zatem z grzbietami i dolinami fali świetlnej poprzesuwanymi w różnym stopniu w różnych punktach obrazu). Dochodzi do interferencji, która wskutek różnic w fazach obu fal tworzy skomplikowany układ prążków. Tak zarejestrowany hologram wystarczy oświetlić wiązką odniesienia, żeby odtworzyć przestrzenną strukturę frontów falowych światła odbitego od obiektu, a tym samym jego trójwymiarowy kształt. Wydawałoby się, że podobny mechanizm powinien działać także wtedy, gdy liczbę fotonów tworzących obie fale zredukuje się do minimum, a więc do jednego fotonu odniesienia i jednego odbitego od obiektu. Tak się jednak nie dzieje! Faza fali pojedynczego fotonu wciąż fluktuuje, co uniemożliwia klasyczną interferencję z innym fotonem. Fizycy z FUW stali więc przed zadaniem pozornie niemożliwym. Spróbowali jednak rozwiązać problem w inny sposób i zamiast klasycznej interferencji pól elektromagnetycznych podjęli próbę zarejestrowania innej interferencji, kwantowej, w której oddziaływałyby funkcje falowe fotonów. Funkcja falowa to absolutny fundament mechaniki kwantowej, rdzeń jej najważniejszego równania (równania Schroedingera). W rękach sprawnego fizyka funkcja ta pełni podobną rolę jak glina w rękach rzeźbiarza: umiejętnie ukształtowana, pozwala „ulepić” model układu cząstek kwantowych. Fizycy zawsze starają się poznać funkcję falową cząstki w danym układzie, ponieważ kwadrat jej modułu to rozkład prawdopodobieństwa znalezienia cząstki w określonym stanie – a więc wiedza bardzo praktyczna. Wszystko to być może brzmi nieco skomplikowanie, ale w praktyce główna idea naszego eksperymentu jest prosta: zamiast patrzeć na zmiany natężenia światła, popatrzmy na to, jak zmienia się prawdopodobieństwo zarejestrowania par fotonów po interferencji kwantowej, wyjaśnia doktorant Jachura. Skąd pary fotonów? Rok temu Chrapkiewicz i Jachura za pomocą nowatorskiej kamery skonstruowanej na FUW sfilmowali, po raz pierwszy na świecie, zachowanie par rozróżnialnych i nierozróżnialnych fotonów wysłanych ku płytce światłodzielącej. Gdy fotony były rozróżnialne, pojawiały się za płytką przypadkowo: po jednym fotonie z każdej strony płytki bądź razem po jednej z jej stron. Fotony nierozróżnialne interferowały kwantowo i w efekcie zachowywały się inaczej: łączyły się w pary i opuszczały płytkę światłodzielącą zawsze razem, po jednej ze stron. Zjawisko to jest znane jako interferencja dwufotonowa lub efekt Hong-Ou-Mandela. Po takim eksperymencie trudno było nie zadać sobie pytania, czy kwantowej interferencji dwufotonowej nie można byłoby wykorzystać podobnie jak interferencji klasycznej w holografii, do zebrania za pomocą znanego fotonu jakichś dodatkowych informacji o drugim, nieznanym fotonie. Z naszych analiz wyłonił się dość niespodziewany wniosek: okazało się, że gdy dwa fotony interferują kwantowo, przebieg tej interferencji zależy od kształtów ich frontów falowych, mówi dr Chrapkiewicz. Interferencję kwantową można zaobserwować rejestrując jednocześnie parę fotonów. Eksperyment musiał być powtarzany wielokrotnie, zawsze z dwoma fotonami o cechach identycznych jak we wcześniejszym pomiarze. Aby zapewnić te warunki, doświadczenie za każdym razem zaczynano od dwóch fotonów o płaskich frontach falowych i prostopadłych polaryzacjach (co oznacza, że pole elektryczne każdego fotonu drgało tylko w jednej płaszczyźnie, a płaszczyzny te u obu fotonów były do siebie prostopadłe). Różna polaryzacja pozwalała rozdzielać fotony w odpowiednim krysztale i jeden z nich czynić „nieznanym” poprzez wykrzywienie jego frontów falowych za pomocą soczewki cylindrycznej. Po odbiciu od zwierciadeł oba fotony kierowano ku „płytce światłodzielącej”, której rolę pełnił kryształ kalcytu. Nie zmieniał on kierunku biegu fotonów spolaryzowanych pionowo, za to odchylał fotony spolaryzowane poziomo (aby wybór każdej drogi był jednakowo prawdopodobny i kryształ rzeczywiście działał jak płytka światłodzieląca, płaszczyzny polaryzacji fotonów skręcano przed nim o 45 stopni). Do rejestrowania fotonów użyto zaawansowanej kamery z poprzedniego eksperymentu. Powtarzając pomiary wielokrotnie otrzymano obraz interferencyjny odpowiadający hologramowi nieznanego fotonu oglądanemu z jednego punktu w przestrzeni. Obraz ten pozwalał w pełni zrekonstruować zarówno amplitudę jak i fazę funkcji falowej nieznanego fotonu. Eksperyment warszawskich fizyków ma istotne znaczenie dla lepszego zrozumienia najgłębszych podstaw mechaniki kwantowej. Do tej pory nie istniał żaden łatwy doświadczalny sposób zdobycia informacji o fazie funkcji falowej. I choć mechanika kwantowa znalazła liczne zastosowania, a w ciągu niemal stu lat istnienia potwierdzono ją wielokrotnie ze znakomitą dokładnością, do dziś nikt nie potrafi wyjaśnić, czym jest funkcja falowa: czy to tylko wygodne narzędzie matematyczne, czy może coś istniejącego realnie? Nasz eksperyment jest jednym z pierwszych, który umożliwia bezpośrednią obserwację jednego z podstawowych parametrów funkcji falowej, jej fazy, przybliżając nas do zrozumienia, czym naprawdę może być funkcja falowa, mówi doktorant Jachura. Holografię kwantową fizycy z FUW wykorzystali do zrekonstruowania funkcji falowej pojedynczego fotonu. Badacze mają nadzieję, że w podobny sposób w przyszłości uda się odtworzyć funkcję falową bardziej złożonych obiektów świata kwantów, np. niektórych atomów. Czy jednak holografia kwantowa znajdzie zastosowania poza laboratoriami, równie szerokie jak holografia klasyczna, której używa się dziś w różnego typu zabezpieczeniach (hologramy są trudne do podrobienia), w rozrywce, transporcie (w skanerach mierzących rozmiary przestrzenne ładunków), w obrazowaniu mikroskopowym oraz w optycznych technikach przechowywania i przetwarzania informacji? Dziś trudno odpowiedzieć na to pytanie. Wszyscy – mam tu na myśli ogół fizyków – dopiero musimy się oswoić z nowym narzędziem. Prawdziwe zastosowania holografii kwantowej pojawią się prawdopodobnie za kilkadziesiąt lat i jeśli czegoś można być pewnym, to tylko tego, że z pewnością nas zaskoczą, podsumowuje prof. Konrad Banaszek. « powrót do artykułu
  17. Large Underground Xenon (LUX) - najbardziej czuły eksperyment mający na celu poszukiwania ciemnej materii - zakończył badania. Podczas dzisiejszej międzynarodowej konferencji w Sheffield w Wielkiej Brytanii zaprezentowano wyniki badań prowadzonych pomiędzy październikiem 2014 a majem 2016 roku. Naukowcy poinformowali, że czułość LUX znacznie przewyższyła wstępne założenia. Mimo tego nie znaleziono żadnych śladów ciemnej materii. Uczeni są przekonani, że gdyby doszło do interakcji LUX z ciemną materia, to niemal na pewno zostałaby ona wykryta. Dlatego też uważają, że wyniki eksperymentu pozwalają na wykluczenie wielu modeli dotyczących ciemnej materii. To z kolei pozwoli skupić się w przyszłości na prowadzeniu kolejnych eksperymentów. Od czasu gdy został po raz pierwszy uruchomiony w 2013 roku LUX dostarczył najlepszych danych jakie kiedykolwiek uzyskano. Podczas badań w latach 2014-2016 czułość LUX zwiększono czterokrotnie bardziej niż pierwotnie zakładano. Byłoby wspaniale, gdybyśmy dzięki temu zarejestrowali ciemną materię. Niestety, to co zaobserwowaliśmy jest całkowicie zgodne z szumem tła - powiedział rzecznik prasowy eksperymentu LUX profesor fizyki Rick Gaitskell z Brown University. Ocenia się, że ciemna materia stanowi 80% masy wszechświata. Naukowcy są przekonani o jej istnieniu, gdyż widać jej oddziaływanie grawitacyjne. Dotychczas jednak nie odkryto jej bezpośrednio. Zadaniem eksperyment LUX było poszukiwanie WIMP (weakly interacting massive particles, słabo oddziałujące masywne cząstki), które są jednym z potencjalnych rodzajów ciemnej materii. LUX, znajdujący się 1478 metrów pod ziemią w byłej kopalni złota w Dakocie Południowej składa się ze zbiornika zawierającego 300 kilogramów ksenonu otoczonego niezwykle czułymi detektorami. Całość znajduje się w zbiorniku zawierającym 265 000 litrów wody. W czasie trwających 20 miesięcy uzyskano 500 terabajtów danych, które przeanalizowano za pomocą ponad 1000 węzłów obliczeniowych komputerów z Brown University oraz poddawana zaawansowanym symulacjom na Lawrence Berkeley National Laboratory. Dzięki temu, że LUX niczego nie wykrył, można było z teorii nt. WIMP wyeliminować cały szereg mas i możliwych sił interakcji tych cząstek z materią. Model WIMP nadal jednak pozostaje ważny. Postrzegaliśmy nasze badania jak starcie Dawida z Goliatem, podczas którego mierzyliśmy się z Wielkim Zderzaczem Hadronów (LHC) w CERN. LUX przez trzy lata szukał sygnałów ciemnej materii. Teraz musimy poczekać i przekonać się, czy po ponownym uruchomieniu LHC znajdzie dowody na istnienie ciemnej materii, czy też będziemy musieli poczekać na powstanie większych wykrywaczy przyszłej generacji - mówi Gaitskell. Jednym z następców eksperymentu LUX będzie LUX-ZEPLIN (LZ). Zostanie w nim wykorzystane nie 300 kilogramów, a 10 ton ksenonu. Pojemnik z nim zostanie zanurzony w tym samym zbiorniku, z którego korzystał LUX. Spodziewamy się, że czułość LZ będzie 70-krotnie większa od czułości LUX - mówi rzecznik prasowy LZ Harry Nelson z Uniwersytetu Kalifornijskiego w Santa Barbara. LZ ma ruszyć w 2020 roku. « powrót do artykułu
  18. Nowy związek opracowany przez zespół z Uniwersytetu w Bath i Królewskiego College'u Londyńskiego (KCL) zapewnia niespotykaną ochronę przed skutkami promieniowania UVA, w tym przed fotostarzeniem czy uszkodzeniami komórek. Naukowcy podkreślają, że większość dostępnych na rynku filtrów słonecznych zapewnia ochronę przed UVB, lecz ich skuteczność przeciw negatywnym skutkom UVA jest ograniczona. Związek, nazywany przez Brytyjczyków "pazurem mitożelazowym", zapewnia ochronę wewnątrz komórek, czyli dokładnie tam, gdzie UVA powoduje największe szkody. Naukowcy mają nadzieję, że ich wynalazek trafi do kosmetyków już w ciągu 3-4 lat. Stężenia wolnego żelaza są szczególnie wysokie w mitochondriach (jest ono niezbędne dla ich prawidłowego działania). Pod wpływem ekspozycji na UVA nadmiar jonów żelaza działa jednak jak katalizator reakcji powstawania toksycznych reaktywnych form tlenu. Opisywany związek jest chelatorem żelaza, który przemieszcza się do mitochondriów, gdzie bezpiecznie wiąże nadmiar wolnego żelaza (nie szkodząc organellom komórkowym). Gdy ludzkie fibroblasty wystawiano na oddziaływanie dawki UVA będącej odpowiednikiem 140 min ciągłej ekspozycji na słońce na poziomie morza komórki potraktowane pazurem mitożelazowym były całkowicie chronione przed śmiercią. W komórkach kontrolnych obserwowano zaś nasiloną nekroptozę na drodze nagłej utraty ATP. Przez długi czas rola pośredniczonego przez żelazo uszkodzenia komórek skóry przez UVA była niedoceniana. Do skutecznej ochrony przed tym zjawiskiem potrzeba silnych chelatorów, dotąd jednak zagrażały one toksycznymi efektami powodowanymi przez niecelowane pozbawianie komórek żelaza - wyjaśnia dr Charareh Pourzand. Nasz związek rozwiązuje ten problem, bo obiera na cel mitochondria [...]. Teraz zespół chce szerzej zbadać potencjał medyczny swojego związku, przyglądając się np. jego zastosowaniom w terapii chorób związanych z zaburzeniem mitochondrialnego metabolizmu żelaza, m.in. choroby Friedreicha. « powrót do artykułu
  19. Naukowcy z Moskiewskiego Instytutu Fizyki i Technologii (MIPT) opracowali ceramiczny laser o dużej mocy. Można go wykorzystywać jako minimalnie uszkadzający skalpel laserowy lub do cięcia czy grawerowania materiałów kompozytowych. Ivan Obronov z MIPT oraz współpracownicy z Instytutu Fizyki Stosowanej Rosyjskiej Akademii Nauk i Uniwersytetu Alabamy posłużyli się ceramiką z tlenku lutetu domieszkowanego jonami Tm3+ (Tm3+:Lu2O3). Ceramika to obiecujący rodzaj medium lasera, ponieważ produkuje się ją na drodze spiekania proszku w masę polikrystaliczną. Jest tańsza i łatwiejsza do uzyskania niż pojedyncze kryształy, co ma olbrzymie znaczenie dla upowszechnienia. Dodatkowo bez problemu można zmieniać chemiczny skład ceramiki, zmieniając w ten sposób właściwości lasera. Rosyjsko-amerykański laser przetwarza energię w promieniowanie z ponad 50% wydajnością (średnia wydajność innych laserów półprzewodnikowych wynosi zaledwie 20%). Generuje on promieniowanie podczerwone o długości fali ok. 2 mikronów (1966 i 2064 nanometrów), przez co świetnie nadaje się do zastosowań medycznych. Promieniowanie najpopularniejszych laserów podczerwonych z długością fali rzędu ok. 1 mikrona cechuje się małą absorpcją i głęboko penetruje tkanki, powodując koagulację i duże obszary martwicy. Tymczasem laser chirurgiczny powinien operować na specyficznej głębokości. Z tego powodu wykorzystywane są lasery 2-mikronowe [...]. Obronov podkreśla, że lekarze często posługują się 2-mikronowym laserem holmowym, pompowanym przez błysk lampy (flesza). Wg niego, jest on jednak bardzo drogi, stosunkowo duży i nie do końca niezawodny. Przewagą laserów ceramicznych ma być niski koszt produkcji, prostota, niezawodność oraz 4-krotnie mniejsze rozmiary (kompaktowość). Lasery ceramiczne przydadzą się też w przemyśle kompozytowym. O ile bowiem lasery 1-mikronowe dobrze tną metal, o tyle polimery są dla nich praktycznie przezroczyste. Tymczasem lasery 2-mikronowe skutecznie tną i grawerują materiały kompozytowe. « powrót do artykułu
  20. Polska policja aresztowała mężczyznę podejrzanego o prowadzenie popularnej witryny z torrentami KickAssTorrents (KAT). Zatrzymania dokonano na wniosek z USA, przejęto również pieniądze z konta bankowego na Łotwie. Z wniosku złożonego przez Stany Zjednoczone dowiadujemy się też, że władze USA spróbują przejąć domeny kickasstorrents.com, kastatic.com, thekat.tv, kat.cr, kickass.to, kat.ph oraz kickass.cr. Zatrzymany to 30-letni Ukrainiec Artiom Vaulin. Amerykanie oskarżają go o prowadzenie witryny, naruszenie praw autorskich i pranie brudnych pieniędzy. USA zwrócą się do Polski o jego ekstradycję. Vaulin jest oskarżany o prowadzenie najpopularniejszej witryny z torrentami, która rozprowadziła ponad miliard plików chronionych prawem autorskim. Jego zatrzymanie w Polsce dowodzi, że cyberprzestępcy mogą uciec z jednego kraju, ale nie unikną oskarżenia - stwierdził rzecznik Departamentu Sprawiedliwości. Szacuje się, że KickAssTorrents generuje roczne przychody rzędu 12-22 milionów dolarów. Witryna jest dostępna w 28 językach. W tej chwili wiele witryn KAT nie działa. Amerykański Departament Sprawiedliwości twierdzi, że Vaulin stworzył KAT w 2008 roku. Z dostępnych dokumentów dowiadujemy się, że KAT wyświetlał reklamę zakupioną przez pracujących pod przykrywką amerykańskich agentów. Płacono za nią 300 USD dziennie. KAT posiada serwery w USA i Kanadzie, a amerykańscy śledczy już wykonali ich kopie. Serwery pracowały na Linuksie Gentoo i zawierały "unikatowe informacje o użytkownikach, logi i inne dane". Zdobyto wiele danych dowodzących, że to właśnie Vaulin był administratorem witryny. To on zarejestrował i opłacił pierwsze domeny, na których działał KickAssTorrents. To on stworzył pierwszy projekt graficzny witryny. Na nazwisko Vaulina zarejestrowano konto w sklepie Apple'a i tego samego dnia wykorzystano je zarówno do zakupów w sklepie iTunes jak i do przeprowadzenia modyfikacji na Facebookowym profilu KickAssTorrents, a obie czynności wykonano z tego samego adresu IP. Ponadto adres, na który można było wpłacać bitcoiny dla KAT był zarejestrowany w Coinbase na koncie, które założono za pomocą konta w sklepie Apple'a, którego używał Vaulin. Za naruszenie praw autorskich Vaulinowi grozi kara do 5 lat więzienia. Pranie brudnych pieniędzy zagrożone jest karą do 20 lat więzienia. KickAssTorrents to jedna z najpopularniejszych witryn w internecie. Każdego miesiąca odwiedza ją ponad 50 milionów unikatowych użytkowników. « powrót do artykułu
  21. Profesor Adam Summers z University of Washington postawił sobie niezwykle ambitny cel. Chce stworzyć cyfrowe repliki 3D wszystkich gatunków ryb żyjących na Ziemi. Jest ich około 25 000. Uczony wykorzystuje niewielki tomograf komputerowy, za pomocą którego skanuje dziesiątki przedstawicieli różnych gatunków znajdujących się w zbiorach muzeów na całym świecie. Uczony ma zamiar udostępnić wyniki swojej pracy w sieci tak, by każdy - od ichtiologa-amatora, poprzez studentów, nauczycieli czy naukowców - miał dostęp do szczegółowych trójwymiarowych obrazów każdego gatunku. Summers chce, by dzięki temu można było łatwo porównywać morfologię tych zwierząt i zrozumieć, dlaczego poszczególne gatunki wyglądają tak, a nie inaczej. Dotychczas nikt nie podjął się podobnego zadania, a zdobycie trójwymiarowych obrazów ryb nie jest łatwe. Sam profesor Summers wspomina, jak niejednokrotnie musiał błagać szpitale i wykonanie tomografów interesujących go ryb, w tym płaszczki, która w 2000 roku była pierwszą rybą, jakiej obraz z tomografu został opublikowany w czasopiśmie naukowym. Przez lata pracy Summers i jego zespół opracowali metodę masowego skanowania ryb w szpitalnych tomografach, jednak wciąż było to bardzo kosztowne przedsięwzięcie. Za pojedynczy skan trzeba było zapłacić od 500 do 2000 dolarów. Summers stwierdził, że potrzebuje własnego tomografu komputerowego. Udało mu się uzbierać 340 000 dolarów i w ubiegłym roku kupił niewielką maszynę, która stoi obecnie we Friday Harbor Laboratories. Uczony udostępnia ją bezpłatnie, ale stawia warunek - skanowana ryba musi pochodzić z muzeum. Z oferty Summersa korzystają naukowcy i studenci z całego świata. Przyjeżdżają osobiście lub przysyłają mu do zeskanowania całe pudła wypełnione okazami. Po zeskanowaniu obrazy trafiają do sieci. Summers i jego zespół skanują wiele ryb jednocześnie. Zawijają je w cylinder, który umieszczają w tomografie. Po wykonaniu zdjęć każda ryba jest zapisywana we własnym pliku. Ponadto skany nie są wykonywane w najwyższej możliwej rozdzielczości, gdyż naukowcy bardzo rzadko potrzebują tak dobrej jakości zdjęć. Dzięki temu oszczędza się czas a cała kolekcja będzie zajmowała mniej miejsca i będzie łatwiej dostępna, gdyż obejrzenie zdjęć wymaga przesłanie mniejszej ilości danych. Dotychczas wykonano dokładne skany około 515 gatunków ryb. Summers ma nadzieję, że wszystkie gatunki uda się zeskanować w ciągu najbliższych 3 lat. Uczony ma już pomysł na kolejny ambitny projekt. Chce zeskanować wszystkie 50 000 gatunków kręgowców występujących na Ziemi. Sądzi, że można tego dokonać w ciągu kilku lat za pomocą około 6 tomografów. Specjaliści z kilku amerykańskich muzeów chcą pomóc Summersowi i już złożyli wnioski sfinansowanie zakupu tomografów. « powrót do artykułu
  22. Wkrótce po wyginięciu dinozaurów grupa mrówek z Ameryki Południowej zajęła się uprawą grzybów. Badania genetyczne grzybów i mrówek dowodzą niezwykle długiej historii rozwoju wzajemnej adaptacji. Przez miliony lat mrówki wypracowały takie metody uprawy grzybów, które przewyższają wydajnością ludzkie rolnictwo. Podczas procesu adaptacji grzyby i mrówki wymieniały się genami, dzięki czemu teraz mogliśmy prześledzić, jak proces przebiegał. Z artykułu opublikowanego w Nature Communications dowiadujemy się, że przed 60-55 milionami lat mrówki z rodzaju Attini porzuciły łowiecko-zbieracki tryb życia i zajęły się uprawą grzybów, które rosły na rozkładających się roślinach. Wolno rosnące grzyby mogły zapewnić pożywienie niewielkim koloniom mrówek. Był to jednak pierwszy, istotny krok w kierunku bardziej wydajnej uprawy i większych kolonii. Mrówki straciły wiele genów, gdy poświęciły się uprawie grzybów - mówi profesor Jacobus Boomsma z Uniwersytetu w Kopenhadze i Smithsonian Tropical Research Institute. Z jednej strony mrówki uzależniły swój byt od grzybów, z drugiej zaś grzyby - produkując więcej bardziej pożywnych owocników - zwiększyły szanse na przetrwanie. Doprowadziło to do całej kaskady zmian ewolucyjnych, jakich nie można porównać ze zmianami u żadnych innych zwierząt - dodaje uczony. Badania wykazały, że przed około 25 milionami lat jedna z linii mrówek zaczęła uprawiać grzyby, których owocniki miały formę niewielkich bogatych w białka kul. Były one bardziej pożywne, dzięki czemu możliwe było rozrośnięcie się kolonii mrówek i dalszego zacieśniania współpracy pomiędzy nimi a grzybami. W efekcie tego procesu przed 15 milionami lat pojawiły się współczesne mrówki z rodzajów Atta i Acromyrmex, czyli tzw. leafcutter ants. Mrówki te codziennie zajmują się swoimi grzybami, dostarczają im świeżą materię organiczną. W ten sposób dysponują w pełni udomowionymi gatunkami grzybów, które uprawiają na skalę przemysłową, dzięki czemu kolonie mrówek mogą liczyć miliony osobników. Udomowienie grzybów miało swoje konsekwencje. W przeciwieństwie do swoich przodków czy do gatunków dziko żyjących, grzyby uprawiane przez mrówki utraciły zdolność do rozkładania ligniny, przez co są całkowicie zależne od roślin zielonych dostarczanych przez mrówki. Zamiast tego, grzyby wytwarzają atrakcyjne dla mrówek zarodniki zawierające proteiny niezbędne uprawiającym je zwierzętom. U mrówek zaś pojawiły się enzymy, dzięki którym łatwo trawią wysoko wydajne grzyby, jednak nie mogą jeść niczego innego. Po milionach lat ewolucji mrówki i grzyby są całkowicie od siebie zależne. Stały się dominującymi roślinożercami lasów tropikalnych. Profesor Boomsma, porównując osiągnięcia mrówek z ludzkimi mówi, że to tak, jakby człowiekowi udało się wyhodować superpożywienie, roślinę zawierającą wszystkie potrzebne składniki odżywcze, odporną przy tym na choroby, szkodniki oraz susze i uprawiać ją na skalę przemysłową. « powrót do artykułu
  23. Sing Yian Chew i zespół z Uniwersytetu Technologicznego Nanyang wykazali, że rusztowanie z hydrożelu wspomaga naprawę tkanek po uszkodzeniu rdzenia nerwowego. Za pomocą dostępnych wcześniej biorusztowań często nie udawało się kierować wzrostem nerwów, a wokół implantu tworzyły się blokujące regenerację blizny. Singapurczycy postanowili więc stworzyć nowy typ rusztowania. Naukowcy połączyli kolagenowy hydrożel z luźno rozmieszczonymi nanowłóknami kopolimeru PCL, czyli poli(ε-kaprolaktonu), z EEP (fosforanem trietylu), uzyskując trójwymiarowe rusztowanie, które można wszczepić w miejscu uszkodzenia rdzenia. Sprawdzali też, czy pomocny jest dodatek neurotrofiny 3 (NT3). Neurotrofiny spełniają wiele różnych funkcji, np. regulują wzrost dendrytów, modulują uwalnianie neuroprzekaźników oraz ekspresję ich receptorów, biorą udział w kształtowaniu obwodów neuronalnych, a także kontrolują namnażanie, różnicowanie i plastyczność neuronalną. Po 3 miesiącach stwierdzono, że u szczurów z rdzeniem uszkodzonym na poziomie kręgu C5 implant, zwłaszcza wysycony NT3, sprzyjał wzrostowi nerwów wzdłuż nanowłókien, nie powodując przy tym stanu zapalnego czy bliznowacenia (w przypadku zastosowania NT3 średnia długość aksonu wynosiła 391,9 ± 12,9 μm). Co ważne, gryzonie z rusztowaniem z NT3 odzyskały więcej funkcji ruchowych. Autorzy raportu z pisma ACS Biomaterials Science & Engineering podsumowują, że ich hybrydowe rusztowanie zapewniało skuteczne kierowanie kontaktowe dla aksonów in vivo. « powrót do artykułu
  24. By ugasić pieczenie po zjedzeniu papryczek chili, najlepiej wypić mleko - twierdzą naukowcy z Uniwersytetu Stanowego Nowego Meksyku. Okazuje się, że mleku występuje białko, które może wypierać kapsaicynę z receptorów na języku. To najszybszy sposób na pozbycie się pieczenia - opowiada Paul Bosland. Amerykanin wyjaśnia, że gdy kapsaicyna przyłączy się do receptorów w jamie ustnej, do mózgu wysyłany jest taki sam sygnał, jak po dotknięciu czegoś gorącego. To dlatego niektórzy ludzie pocą się po zjedzeniu pikantnych papryczek. W takiej sytuacji pomogą mleko i produkty mleczne, np. śmietana czy lody. Bosland dodaje, że węglowodany również zastępują kapsaicynę w receptorach, ale nie tak skutecznie jak mleko. Jeśli weźmie się pod uwagę chleb i cukier, cukier będzie lepszy [...]. Naukowiec podkreśla, że ani alkohol, ani woda nie pomogą, bo nie zablokują kapsaicyny, tylko rozprowadzą ją po całej jamie ustnej. Ludzie często pytają, które papryczki są bardziej pikantne: czerwone czy zielone. To [oczywiście] zależy od odmiany, ale generalnie czerwone będą łagodniejsze, bo zawierają więcej pomagających zneutralizować pieczenie cukrów. « powrót do artykułu
  25. W czasie pierwszej połowy bieżącego roku padło wiele rekordów temperatury. Wszystko wskazuje na to, że rok 2016 będzie najgorętszym w historii pomiarów. Częściowo za wysokie temperatury odpowiada wyjątkowo silne tegoroczne El Niño. Po jego zakończeniu temperatury nieco spadły, nadal jednak utrzymują się na rekordowo wysokich poziomach. Przyczyną takiego stanu rzeczy jest globalne ocieplenie. Według NOAA (Narodowa Agencja Oceaniczna i Atmosferyczna)czerwiec był o 0,9 stopnia Celsjusza cieplejszy od średniej XX-wiecznej. Z danych NASA wynika, że miesiąc ten był o 0,79 stopnia Celsjusza cieplejszy od średniej z lat 1951-1980. Jeśli weźmiemy pod uwagę dane NOAA to czerwiec był 14. rekordowo gorącym miesiącem z rzędu. Musimy spojrzeć na to z odpowiedniej perspektywy. Nawet jeśli temperatura nie ustanawia rekordów, to trend ociepleniowy jest widoczny. Zostawiliśmy daleko w tyle temperatury z XX wieku - mówi Deke Arndt, dyrektor wydziału monitorującego klimat w National Centers for Environmental Information. Bieżący rok, łącznie z czerwcem, jest dotychczas - według NOAA - o 1,05 stopnia Celsjusza cieplejszy od średniej z XX wieku. Z danych NASA wynika zaś, że jest o 1,09 stopnia Celsjusza cieplejszy od średniej z lat 1951-1980. Różnica pomiędzy obiema agencjami wynika z faktu, że używają one różnych metod przetwarzania danych o temperaturze oraz różnych skali porównawczych. Jednak obie zgadzają się co do tego, że mamy do czynienia z długoterminowym trendem ocieplania się klimatu. Zwiększa się nie tylko temperatura nad lądami. Szybko ogrzewają się również oceany. NOAA informuje, że w pierwszej połowie bieżącego roku średnia temperatura wód oceanicznych była o 0,79 stopnia Celsjusza wyższa od średniej z XX wieku. Skutkiem tego mamy do czynienia z trzecim z rzędu rekordowym rokiem blaknięcia raf koralowych. Temperatura wody zmienia się wolniej niż temperatura lądu czy powietrza, dlatego też należy spodziewać się, że nawet jeśli w drugiej części roku nad lądami dojdzie do szybkich spadków temperatury, to oddające ciepło oceany utrzymają globalną temperaturę na rekordowo wysokim poziomie. O tym, czy cały rok 2016 będzie gorętszy od roku 2015 zdecydują nadchodzące miesiące. Wszystko wskazuje bowiem na to, że sprawdzą się prognozy i wkrótce pojawi się La Niña. Zjawisko to obniża temperatury. Jeśli nawet bieżący rok nie będzie cieplejszy od roku ubiegłego, to trendy globalne są jasne. Spośród 15 najgorętszych lat w historii pomiarów aż 14 miało miejsce w XXI wieku. « powrót do artykułu
×
×
  • Dodaj nową pozycję...