Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Tokijska firma Robot Taxi Inc. przygotowuje się do przetestowania w przyszłym roku autonomicznych taksówek. W ramach eksperymentu ok. 50 mieszkańców Fuijsawy w prefekturze Kanagawa będzie mogło pojechać samochodem bez kierowcy z domu do predefiniowanego wcześniej lokalnego sklepu spożywczego. Twórcy projektu twierdzą, że trasa będzie miała długość ok. 3 km i poprowadzi m.in. przez jedną z głównych ulic miasta. Gdyby sytuacja stawała się niebezpieczna i potrzebna byłaby ludzka interwencja, na wszelki wypadek w taksówce ma się znajdować również ktoś z obsługi. Auta będą wyposażone w GPS, radar wykorzystujący fale milimetrowe, kamerę stereowizyjną oraz technologie analizy obrazu. Robot Taxi Inc. zamierza skomercjalizować usługę do 2020 r. Firma twierdzi, że bezzałogowe taksówki będą przeznaczone m.in. dla turystów, także z zagranicy, oraz mieszkańców obszarów pozbawionych komunikacji autobusowej i kolejowej. Władze Kanagawy wspierają projekt i przypominają, że choć autonomiczne samochody przetestowano już na drogach ekspresowych, teraz po raz pierwszy pojawią się one na lokalnych drogach, w dodatku z pasażerami. Tym razem eksperyment z taksówką-robotem będzie przeprowadzony na prawdziwych lokalnych drogach. Myślę, że to niesamowite - zaznacza Yuji Kuroiwa. Prezes Robot Taxi Hiroshi Nakajima ujawnia, że firma planuje przetestowanie innych zastosowań autonomicznego auta, np. podczas katastrof naturalnych. « powrót do artykułu
  2. Astronomowie z University of Washington stworzyli metodę porównywania i klasyfikowania egzoplanet, która ma pomóc w znalezieniu życia na nich. Już wkrótce będziemy mieli do dyspozycji narzędzia, która pozwolą na dokładne badania atmosfery egzoplanet. Jako, że liczba odkrytych planet pozasłonecznych liczona jest już w tysiącach, konieczne staje się opracowanie metody selekcjonowania najbardziej obiecujących celów badawczych. Nowa metoda, nazwana "habitalibity index for transiting planets" została opracowana przez profesorów Rory'ego Barnesa i Victorię Meadows przy pomocy Nicole Evans. Artykuł na jej temat zaakceptowano do publikacji w Astrophysical Journal. Opracowaliśmy metodę, która na podstawie wszystkich dostępnych danych pozwala nam na określenie priorytetów. Tak więc jeśli będziemy mieli do zbadania setki obiektów, będziemy w stanie powiedzieć, od którego należy zacząć - mówi Barnes. Już w 2018 roku ma rozpocząć pracę Teleskop Kosmiczny Jamesa Webba, instrument, który pozwoli na badanie atmosfery planet pozasłonecznych. Rok wcześniej wystrzelony zostanie satelita TESS (Transiting Exoplanet Survey Satellite), który ma znacząco zwiększyć liczbę odkrywanych egzoplanet. Praca tych wszystkich urządzeń jest bardzo kosztowna, wiele zespołów naukowych chciałoby uzyskać do nich dostęp. Dlatego też poszukiwane są sposoby na uniknięcie marnowania czasu i pieniędzy na badania, które z najmniejszym prawdopodobieństwem mogą przynieść jakieś rezultaty. Zwykle astronomowie skupiają się na egzoplanetach znajdujących się w ekosferze swojej gwiazdy, czyli w takiej odległości od niej, która pozwala na istnienie wody w stanie ciekłym. To jednak za mało. Pokazuje bowiem jedynie, czy planeta jest w odpowiedniej odległości od gwiazdy. Nie pozwala w żaden sposób odróżnić takich planet od siebie. Metoda stworzona przez Barnesa, Meadows i Evans jest bardziej subtelna. Pozwala na określenie prawdopodobieństwa, że planeta jest skalista, bierze pod uwagę zależność albedo planety i jej orbitę, co umożliwia określenie, ile energii zostaje odbite, a ile ogrzewa planetę. To bardzo ważny wskaźnik. Planeta o wyższym albedo bardziej odbija światło gwiazdy, a z kolei im orbita mniej kołowa, tym planeta ma więcej energii gdy zbliża się do swojej gwiazdy. Te czynniki mogą być decydujące w przypadku planet znajdujących się przy granicach ekosfery. Planeta blisko granicy wewnętrznej może być zbyt gorąca, by istniało na niej życie ale jeśli ma wyższe albedo, będzie odbijała więcej energii, więc warunki dla życia będą bardziej przyjazne. W przypadku planety przy granicy zewnętrznej potrzebna będzie prawdopodobnie bardziej eliptyczna orbita, by mogło na niej istnieć życie. Barnes, Meadows i Evans wykorzystali swój ranking do oceny planet odkrytych przez Teleskop Keplera. Z ich analiz wynika, że najprawdopodobniej najlepszymi kandydatkami do poszukiwania życia są planety, które otrzymują 60-90 procent dawki promieniowania, jaką Ziemia otrzymuje od Słońca. « powrót do artykułu
  3. Naukowcy zidentyfikowali mechanizm, za pośrednictwem którego na wczesnych etapach choroby Alzheimera (ChA) mikroglej przenosi do kolejnych neuronów zwyrodnienia włókienkowe typu Alzheimera (neurofibrillary tangles). Zwyrodnienia te są uwarunkowane patologią białka tau. Studium pokazało, że patologiczne białko tau może być przenoszone z neuronu do neuronu przez komórki odpornościowe mózgu. Proces ten może się przyczyniać do rozwoju ChA - wyjaśnia dr Tsuneya Ikezu ze Szkoły Medycznej Uniwersytetu Bostońskiego. Jedną z funkcji mikrogleju (tkankowo specyficznych, rezydentnych makrofagów) jest stałe monitorowanie mikrośrodowiska pod kątem wykrywania i eliminowania uszkodzeń i zakażeń. Wykonując te zadania, mikroglej fagocytuje martwe komórki, nieaktywne synapsy czy nieprawidłowe/umierające neurony. Później, by przetransportować cząsteczki sygnalizacyjne i zaprezentować antygen, uwalnia egzosomy, które mogą zostać wychwycone przez inne komórki. Autorzy publikacji z pisma Nature Neuroscience dywagują, że na wczesnych etapach ChA mikroglej fagocytuje zwyrodnienia włókienkowe i rozprzestrzenia je za pośrednictwem egzosomów. Posługując się modelem eksperymentalnym, Amerykanie wykazali, że farmakologiczne wyeliminowanie mikrogleju hamowało rozprzestrzenianie patologicznego białka tau między różnymi regionami mózgu. Farmakologiczne hamowanie produkcji egzosomów także tłumiło przenoszenie tau. Odkrycia wskazują, że cząsteczki biorące udział w uwalnianiu egzosomów przez mikroglej stanowią obiecujący cel dla nowych leków hamujących patogenezę ChA - podsumowuje Ikezu. « powrót do artykułu
  4. Na australijskim Uniwersytecie Nowej Południowej Walii (UNSW) powstała pierwsza kwantowa bramka logiczna zbudowana na krzemie. O sukcesie inżynierów poinformowano na łamach Nature. To, co osiągnęliśmy, zmienia zasady gry - mówi profesor Andrew Dzurak. Zaprezentowaliśmy dwukubitową bramkę logiczną, która - co najważniejsze - została zbudowana na krzemie. Jako, że użyliśmy tych samych technologii, jakie są używane we współczesnych chipach komputerowych, sądzimy, że producentom będzie znacznie łatwiej wdrożyć do produkcji naszą technikę niż którąkolwiek z obecnie proponowanych technik opierających się na egzotycznych technologiach. Profesor Dzurak dodaje, że jeśli komputery kwantowe mają rzeczywiście zastąpić tradycyjne maszyny, to dla ich działania zasadnicza będzie możliwość przeprowadzania operacji na jednym i dwóch kubitach. Dzurak ma spore doświadczenie w pracy nad technologiami kwantowymi. W 2012 roku wchodził w skład zespołu, który jako pierwszy uzyskał kubit na krzemie. Skonstruowanie pierwszej dwukubitowej kwantowej bramki logicznej na krzemie oznacza, że mamy już wszystkie elementy potrzebne do zbudowania działającego kwantowego komputera. Mimo, że obliczenia kwantowe cieszą się olbrzymim zainteresowaniem, to komputer kwantowy był jak kot Schrödingera. Teoretycznie możliwy, ale w praktyce nieosiągalny - mówi profesor Mark Hoffman. Postęp dokonany przez zespół z UNSW może to zmienić. Technologia, którą opracowaliśmy i przetestowaliśmy, może pozwolić na przekroczenie granicy pomiędzy teoretycznym a praktycznym zastosowaniem komputerów kwantowych. Zmieniliśmy krzemowe tranzystory w kwantowe upewniając się, że z każdym z nich związany jest tylko jeden elektron. Następnie w spinie elektronu przechowywaliśmy wartości 0 i 1 - wyjaśnia Dzurak. Zespół uczonego zaprojektował i opatentował pełnowymiarowy kwantowy procesor krzemowy. Teraz uczeni szukają w przemyśle partnera, który wyprodukuje taki układ. « powrót do artykułu
  5. Niemal 1/3 kaktusów zagraża wyginięcie. Dzieje się tak m.in. przez nielegalny handel okazami czy nasionami i farmy z suchych rejonów. Byliśmy zaskoczeni, że aż tak duży odsetek gatunków kaktusów jest zagrożony. Zdumiała nas także mnogość zagrożeń - podkreśla szefowa międzynarodowego zespołu, dr Barbara Goettsch z Międzynarodowej Unii Ochrony Przyrody (ang. International Union for Conservation of Nature, IUCN). Na łamach pisma Nature Plants naukowcy ujawnili, że ryzyko wyginięcia dotyczy 31% z 1478 wziętych pod uwagę gatunków kaktusów. Warto przypomnieć, że w przypadku ssaków i ptaków narażenie na wymarcie wskutek presji antropogenicznej odnotowano w przypadku, odpowiednio, 25 i 12% gatunków. Najwięcej zagrożonych gatunków kaktusów pochodzi z południa brazylijskiego stanu Rio Grande do Sul i północy departamentu Artigas w Urugwaju. Wśród największych zagrożeń naukowcy wymieniają m.in. przeznaczanie gruntów na uprawy rolne i hydroponikę czy rozwój osadnictwa. Studium wykazało, że habitatom kaktusów w Amerykach - od Chile i Urugwaju po Meksyk i USA - zagraża hodowla bydła na suchych obszarach, rozrost innych rodzajów farm i dróg oraz rejonów miejskich. Specjaliści wskazywali też na wykorzystanie suchych rejonów w Brazylii pod plantacje eukaliptusa. Podsumowując, Goettsch i inni podkreślają, że kaktusy znajdują się na 5. miejscu listy najbardziej zagrożonych grup organizmów po sagowcowych, płazach, koralowcach oraz iglastych. « powrót do artykułu
  6. Z raportu przygotowanego przez Lawrence Berkeley National Laboratory (LBNL) dowiadujemy się, że w USA cena energii elektrycznej pozyskiwanej ze Słońca spadła do rekordowo niskiego poziomu. To efekt zarówno spadku cen montażu paneli słonecznych, poprawy ich wydajności jak i skutek wyścigu przedsiębiorstw, które chcą dotrzeć do jak największej liczby klientów przed końcem federalnych ulg podatkowych. Obecnie na rynku hurtowym cena 1 kWh energii ze Słońca kosztuje 5 centów. W tym zawarta jest 30% ulga podatkowa, która w 2017 roku zostanie obniżona do 10%. Dla porównania - hurtowe ceny energii w USA wynoszą, w zależności od regionu, od 3 do 6 centów za kilowatogodzinę. Naukowcy z LBNL informują w swoim raporcie,że od roku 2009 koszty instalacji infrastruktury spadły o ponad 50%. W 2009 roku mediana wynosiła 6,3 USD za każdy zainstalowany wat, a w roku 2014 było to już 3,1 USD. Część instalacji zamontowano w cenie nawet 2 USD za wat. Kolejnym ważnym spostrzeżeniem jest to, że nowsze urządzenie są bardziej efektywne. W roku 2014 efektywność instalacji zbudowanych w roku 2011 wynosiła 24,5%, dla tych zbudowanych w roku 2012 było to 26,3%, a efektywność tych z roku 2013 wzrosła do 29,4%. Zdaniem specjalistów istnieje jeszcze sporo miejsca na dalsze spadki cen energii słonecznej. Spadające ceny hurtowe powodują, że farmy słoneczne stają się coraz bardziej konkurencyjne wobec tradycyjnych metod pozyskiwania energii i zaczynają powstawać też w stanach, których dotychczas było niewiele takich instalacji. Ostatnio podpisano umowy w stanach Arkansas (ok. 5 centów za kWh) i Alabama (ok. 6 centów/kWh). Powstaje coraz więcej farm słonecznych. Pod koniec 2014 roku planowano budowę elektrowni słonecznych o łącznej mocy 45 GW. To pięciokrotnie więcej niż cała moc zainstalowana dotychczas. Farmy zaczynają powstawać poza tradycyjnym regionem południowego-zachodu, coraz więcej ich pojawia się na południowym-wschodzie. « powrót do artykułu
  7. NASA wybrała pięć projektów, z których jeden lub dwa zostaną zrealizowane w ramach przyszłej misji naukowej w roku 2020. Autorzy każdego z projektów otrzymają 3 miliony dolarów na rozwój i planowanie swojej koncepcji. We wrześniu przyszłego roku, NASA - po zapoznaniu się ze szczegółami - dokona ostatecznego wyboru misji do realizacji. Każda z misji ma kosztować około 500 milionów dolarów. Kwota ta nie obejmuje kosztów pojazdu oraz kosztów operacyjnych po starcie misji. W listopadzie 2014 roku NASA poprosiła o przysyłanie projektów misji naukowych, które miałyby zostać zrealizowane w ramach Discovery Program. Wpłynęło 27 propozycji, z czego wybrano pięć wspomnianych na wstępie. Są to: - The Venus Emissivity, Radio Science, InSAR, Topograpy, and Spectroscopy (VERITAS). Jego twórcy proponują wykonanie dokładnej mapy powierzchni Wenus, która przedstawiałaby jej wszelkie deformacje oraz skład. To projekt Suzanne Smrekar z należącego do NASA Jet Propulsion Laboratory (JPL). - Psyche. Celem tej misji miałoby być zbadanie asteroidy Psyche. Asteroida ta to prawdopodobnie pozostałość po kolizji, w wyniku której protoplaneta utraciła zewnętrzne warstwy. Przetrwało tylko jej jądro - Psyche. Linda Elkis-Tanton z Arizona State University uważa, że badanie ateroidy dostarczy nam wielu informacji na temat jąder planet. - Near Earth Object Camera (NEOCam), miałaby odkryć 10-krotnie więcej bliskich Ziemi obiektów niż udało się zaobserwować do tej pory. To pomysł autorstwa Amy Mainzer z JPL. - Deep Atmosphere Venus Investigation of Noble gases, Chemistry, and Imaging (DAVINCI) to pomysł autorstwa Lori Glaze z Goddard Space Flight Center. W jego ramach miałaby zostać szczegółowo zbadana atmosfera Wenus. Badania przeprowadziłby pojazd, który powoli przez 63 minuty schodziłby ku powierzchni planety. Dzięki temu naukowcy odpowiedzieliby na wiele trapiących ich od dziesięcioleci pytań, jak na przykład, czy na Wenus znajdują się aktywne wulkany i jak powierzchnia planety wpływa na jej atmosferę. - z kolei zadaniem misji Lucy byłoby przeprowadzenie pierwszych badań planetoid trojańskich Jowisza. Powszechnie uważa się, że ich badanie może ujawnić niezwykle ważne informacje na temat historii Układu Słonecznego. Na czele grupy, która zaproponowała misję Lucy, stoi Harold Levison z Southwest Research Institute. Discovery Program jest prowadzony przez NASA od 1992 roku. Dotychczas w jego ramach odbyło się 12 misji, w tym MESSENGER, Dawn, Stardust, Deep Impact, Genesis (celem było zebranie próbek wiatru kosmicznego i dostarczenie ich na Ziemię) i GRAIL. Obecnie przygotowywana jest misja InSight. « powrót do artykułu
  8. Na zatopionej w bursztynie pchle Atopopsyllus cionus sprzed ok. 20 mln lat znajduje się bakteria, która wg George'a Poinara Juniora z Uniwersytetu Stanowego Oregonu, może być prehistorycznym szczepem pałeczki dżumy (Yersinia pestis). Jeśli jego przypuszczenia się potwierdzą, będzie to oznaczać, że bakteria, która w XIV w. zabiła ponad połowę populacji Europy, istniała miliony lat wcześniej i przemieszczała się po świecie. Nie da się z całą pewnością ustalić, czy bakterie zachowane w zasuszonej kropli na ssawce pchły i ściśnięte w jej odbycie są spokrewnione z Y. pestis, ale specjalista podkreśla, że ich wielkość, pałeczkowaty, ewentualnie sferyczny kształt i cechy fizyczne przypominają współczesne formy. Abstrahując od cech fizycznych, skamieniałe bakterie przypominają dzisiejsze pałeczki dżumy także pod względem umiejscowienia w odbycie pchły. Dodatkowo obecność bakterii w wysuszonej kropli na ssawce odpowiada sposobowi transmisji Y. pestis przez dzisiejsze owady. Ustalenia Poinara pozostają w sprzeczności z wynikami badań genomicznych, które wskazywały, że cykl pchła-patogen-kręgowiec wyewoluował w ciągu ostatnich 20 tys. lat. Amerykanin zauważa jednak, że dziś istnieje kilka szczepów Y. pestis, poza tym zgromadzono dowody, że epidemie dżumy były w przeszłości wywoływane przez różne szczepy bakterii (z których część do dziś wymarła). Niewykluczone więc, że ludzkie szczepy Yersinia wyewoluowały 10-20 tys. lat temu, zaś prehistoryczne szczepy rozwijające się jako pasożyty gryzoni pojawiły się nad długo przed człowiekiem. Skamieniałość z bursztynu z kopalni w Cordillera Septentrional na Dominikanie odzwierciedla złożony sposób transmisji patogenu. Kiedy pchła żeruje na zarażonym zwierzęciu, pobrana z krwią Y. pestis tworzy w przedżołądku owada lepką masę. Przez to pchła nie może pozyskać wystarczająco dużo krwi i gdy zaczyna znowu jeść, zwrócone bakterie dostają się przez ssawkę do rany. Jeśli mamy do czynienia z prehistorycznym szczepem Yersinia, byłoby to niezwykłe, oznaczałoby bowiem, że dżuma jest de facto prehistoryczną chorobą, która atakowała, a może nawet doprowadzała do wyginięcia różnych zwierząt na długo przed pojawieniem się człowieka. Dżuma mogła w przeszłości odegrać ważniejszą rolę, niż nam się wydaje. Pchłopodobne zwierzęta ze skamieniałości datują się na czasy dinozaurów i jako wektory chorób mogły się np. przyczynić do ich zagłady. Ponieważ zasuszona kropla z bakterią jest nadal przyczepiona do ssawki, możliwe, że pchła wpadła w pułapkę żywicy [Hymenaea protera] krótko po żerowaniu na zarażonym zwierzęciu, np. gryzoniu z dominikańskiego lasu bursztynowego. Z bursztynu wydobyto [zresztą] włos gryzonia. « powrót do artykułu
  9. W ciągu najbliższych dekad reaktory fuzyjne staną się ekonomicznie opłacalnym sposobem pozyskiwania energii. Dlatego też, jak uważają eksperci z Durham University oraz Culham Centre for Fusion Energy, decydenci już teraz powinny kreślić plany zastąpienia elektrowni atomowych elektrowniami fuzyjnymi. Naukowcy przyjrzeli się całej stroni ekonomicznej reaktorów fuzyjnych, poczynając od ich budowę, poprzez czas pracy, po utylizację i porównali je z analogicznymi kosztami energetyki jądrowej. Z ich analiz wynika, że w stosunkowo niedalekiej przyszłości koszt pozyskania energii z reaktora fuzyjnego będzie taki sam jak z reaktora jądrowego. Oczywiście, że musieliśmy dokonać pewnych założeń, jednak przewidujemy, że koszty energii z fuzji jądrowej nie będą znacząco wyższe niż tej z rozpadu atomowego - mówi profesor Damian Hampshire. Reaktory fuzyjne mogą zatem stać się niemal niewyczerpanym źródłem taniej energii, a przy tym nie będą przyczyniały się ani do zwiększonej emisji gazów cieplarnianych, ani nie będą wytwarzały dużej ilości niebezpiecznych odpadów. Reaktory fuzyjne niemal nie produkują odpadów radioaktywnych, nie korzystają z wysoce radioaktywnych materiałów, co oznacza, że nie może dojść do wycieków niebezpiecznych substancji. W reaktorach takich nie można wytwarzać materiałów służących do produkcji broni atomowej. Nie ma też problemu z paliwem, gdyż reaktory korzystają z deuteru pozyskiwanego z wody morskiej oraz trytu, które same produkują. Autorzy analizy mają nadzieję, że przekona ona polityków oraz sektor prywatny do zwiększenia nakładów na badania nad fuzją. Do pokonania zostało jeszcze nieco przeszkód technologicznych, ale mamy teraz mocne argumenty, poparte najlepszymi dostępnymi danymi, że energia fuzyjna może już wkrótce stać się opłacalna. Mamy nadzieję, że dzięki temu znajdą się pieniądze na przezwyciężenie wspomnianych trudności oraz przyspieszenie procesu planowania przejścia na energię fuzyjną - mówi Hampshire. Warto też wspomnieć, że w swojej analizie naukowcy nie brali pod uwagę kosztów związanych z koniecznością odpowiedniego przechowywania przez dziesiątki czy setki lat odpadów z tradycyjnych elektrowni atomowych. W przypadku reaktorów fuzyjnych radioaktywnym (umiarkowanie) elementem jest sam tokamak. « powrót do artykułu
  10. Bojownicy z Państwa Islamskiego (PI) wysadzili pochodzący z II-III w. łuk triumfalny z Palmyry. Łuk triumfalny został obrócony w pył. Zniszczyło go Państwo Islamskie - opowiada Mohammad Hassan al-Homsi, lokalny aktywista. Wiadomość potwierdza prof. Maamoun Abdulkarim, dyrektor syryjskiej Dyrekcji Generalnej Starożytności i Muzeów (Directorate General of Antiquities and Museums, DGAM), który powiedział Reuterowi, że Palmyra nadal znajduje się pod kontrolą PI. Wg niego, bojówkarze chcą unicestwić całe starożytne ruiny, obiekt z Listy Światowego Dziedzictwa UNESCO. Pod koniec sierpnia islamiści zniszczyli tu dwa inne obiekty: ruiny starożytnej świątyni Baalszamina (przy okazji wysadzili część kolumn z czasów rzymskich) i świątynię Bela z początku I w. « powrót do artykułu
  11. Niezależni badacze stwierdzili, że niektóre telewizory Samsunga zużywają mniej energii w czasie testów niż w czasie normalnego użytkowania. Sytuacja przypomina niedawny głośny skandal z udziałem Volkswagena. Organizacja ComplianTV twierdzi, że podczas testów telewizory Samsunga zmniejszają jasność, dzięki czemu mniejsze jest też zużycie energii. Taka sytuacja ma miejsce wyłącznie w czasie testowania urządzenia. Eksperci ComplianTV nie byli w stanie stwierdzić, czy Samsung używa oprogramowania wykrywającego, że telewizor jest testowany. Jednoznacznie jednak stwierdzono, że w czasie testów zużycie energii spada. Rzeczywiste jej zużycie jest większe. Nie wiadomo, jak podawane przez producenta informacje o zużyciu energii wpływają na decyzje konsumentów o zakupie konkretnego produktu. Także organizacje konsumenckie w USA, Szwecji i Wielkiej Brytanii wykryły anomalie podczas testów i podejrzewają, że producenci telewizorów wbudowują w nie mechanizmy wykrywające, kiedy urządzenie jest testowane i zmniejszające wówczas zużycie energii. Samsung zaprzecza, by wykorzystywał oprogramowanie oszukujące podczas testów. Firma twierdzi, że spadek jasności to odpowiedź na różną wyświetlaną treść, w tym na szybkie zmiany obrazów w filmach akcji i widowiskach sportowych czy powolne zmiany np. w czasie prognozy pogody. « powrót do artykułu
  12. Trwają testy protezy mózgowej, przekształcającej krótkotrwałe ślady pamięciowe (ang. short-term memory, STM) w pamięć długotrwałą (ang. long-term memory, LTM). Składa się ona z niewielkiej macierzy elektrod wszczepionych do mózgu. Sprawdziła się dobrze w testach laboratoryjnych na zwierzętach, teraz jej działanie jest oceniane u ludzi. Urządzenie to pokłosie kilkudziesięciu lat badań Teda Bergera. Bazuje ono na nowym algorytmie Donga Songa z Uniwersytetu Południowej Kalifornii (USC). Zbieraniem danych do stworzenia modeli i algorytmów zajmowali się Sam Deadwyler i Robert Hampson z Wake Forest Baptist. Mózg tworzy wspomnienie w postaci złożonego impulsu elektrycznego, który przemieszcza się przez wiele regionów hipokampa. W każdym z nich jest na nowo kodowany, aż dotrze do rejonu końcowego jako zupełnie inny sygnał. Stamtąd jest przesyłany do "magazynu" długotrwałego. Jeśli uszkodzenie któregoś z regionów nie dopuszcza do przekształcania, możliwe, że nie utworzy się pamięć długotrwała. To dlatego osoba ze zniszczonym, np. w wyniku choroby Alzheimera, hipokampem przypomina sobie rzeczy z odległej przeszłości (przełożone na wspomnienia przed uszkodzeniem), ale ma problem ze stworzeniem nowych wspomnień. Song i Berger znaleźli sposób na dokładne odtworzenie przekształcania STM w LTM. Wykorzystywali przy tym dane od Deadwylera i Sampsona, uzyskane najpierw u zwierząt, a później u ludzi. Proteza omija uszkodzoną sekcję hipokampa i dostarcza do kolejnego regionu poprawnie przetłumaczoną informację. Dzieje się tak mimo faktu, że obecnie nie ma sposobu na odczytanie wspomnienia wyłącznie w oparciu o przyjrzenie się sygnałowi elektrycznemu. To jak tłumaczenie z hiszpańskiego na francuski bez możności zrozumienia żadnego z tych języków - wyjaśnia Berger. Uzyskawszy pozwolenie 9 pacjentów, do których hipokampów elektrody wszczepiono z powodu przewlekłych drgawek, Hampson i Deadwyler odczytywali sygnały elektryczne generowane podczas tworzenia wspomnień w 2 regionach. Potem Song i Berger wprowadzili te dane do modelu i patrzyli, jak sygnały generowane przez 1. z obszarów są przekładane na sygnały generowane w 2. regionie. Po setkach prób algorytm potrafił z ok. 90-proc. trafnością przewidzieć sposób przekształcenia sygnału. W dalszej kolejności Amerykanie zamierzają wprowadzić przetłumaczony sygnał do mózgu osoby z uszkodzeniem pewnych regionów hipokampa i sprawdzić, czy uda się je w ten sposób skutecznie obejść. « powrót do artykułu
  13. Symantec poinformował o wirusie, który, przynajmniej na obecnym etapie rozprzestrzeniania się, nie czyni szkody, a... pomaga. Wirus Wifatch infekuje rutery i urządzenia typu IoT (internet of things) i tworzy z nich sieć P2P. Okazało się, że zainfekowane urządzenia są... bardziej odporne na kolejne ataki hakerskie. Autorzy wirusa nie wykorzystali żadnej techniki utrudniającej analizę jego kodu, więc specjaliści Symanteka są absolutnie pewni, że w obecnej postaci jest on całkowicie nieszkodliwy. Jednak najbardziej uderzający jest fakt, że Wifatch próbuje zwalczać szkodliwy kod na napotkanych urządzeniach oraz łata dziurę w demonie Telnetu, pozostawia użytkownikowi urządzenia informację o wyłączeniu Telnetu oraz radzi, by zaktualizował firmware lub zmienił hasło. Autorzy Wifatcha mogą go potencjalnie wykorzystać do wrogich działań, jednak analitycy Symanteka przez kilka ostatnich miesięcy nie zauważyli, by takie działanie miało miejsce. W kodzie wirusa umieszczono odezwę do NSA i FBI. Jej autor prosi pracowników tych agencji, by zastanowili się, czy obrona Konstytucji USA nie wymaga, by brali oni przykład ze Snowdena. « powrót do artykułu
  14. Od dzisiaj z giełdy znika Google a pojawia się na niej Alphabet jako spółka akcyjna. Jak już informowaliśmy, Alphabet będzie holdingiem skupiającym pod sobą niezależne firmy, z których największą i najważniejszą będzie Google. Dzięki takiej zmianie cała struktura stanie się bardziej przejrzysta. Co prawda firmy wchodzące w skład Alphabet stracą ochronę i finansowanie ze strony firmy-matki, jednak inwestorzy będą mieli jaśniejszy ogląd sytuacji niż obecnie, gdy pod marką Google'a oferowane są zarówno usługi internetowe, trwają prace nad soczewkami kontaktowymi monitorującymi poziom glukozy czy autonomicznym samochodem. Na czele Alphabet stanie Larry Page, a każda z firm wchodzących w skład holdingu będzie miała własnego dyrektora wykonawczego. « powrót do artykułu
  15. Naukowcy z Uniwersytetu Kolumbii Brytyjskiej stworzyli pierwsze na świecie samonapędzające się cząsteczki, które potrafią dostarczać czynnik krzepnięcia, poruszając się pod prąd przepływu krwi. W ten sposób będzie można hamować masywne krwotoki. Krwawienie to zabójca nr 1 młodych osób, a w biednych rejonach zgon z powodu krwawienia poporodowego może zabijać aż 1 na 50 kobiet. Jak widać, to poważny problem - podkreśla prof. Christian Kastrup. Tradycyjne metody hamowania krwawienia są nieskuteczne, gdy jego źródło znajduje się wewnątrz organizmu, np. w macicy, zatokach czy jamie brzusznej. Opracowano setki czynników krzepnięcia, lecz problemem jest ich przemieszczenie w kierunku przeciwnym do silnego prądu krwi, a zwłaszcza na tyle daleko, by dotrzeć do przeciekającego naczynia. My jako pierwsi zademonstrowaliśmy takie rozwiązanie. Kanadyjczycy stworzyli tworzące gaz mikrocząsteczki węglanu wapnia, które można aplikować w postaci proszku. Jak musujące tabletki, cząsteczki uwalniają dwutlenek węgla, napędzający je w kierunku miejsca krwawienia. Porowate mikrocząsteczki wiążą się z przeciwkrwotocznym kwasem traneksamowym i transportują go w głąb uszkodzonych tkanek. Początkowo autorzy publikacji z pisma Science Advances modelowali zachowanie cząsteczek in vitro, potem potwierdzili swoje spostrzeżenia w badaniu 2 modeli zwierzęcych. Okazało się, że metoda doskonale sprawdza nawet w sytuacji imitującej postrzał uszkadzający tętnicę udową. Cząsteczki muszą jeszcze zostać udoskonalone i przejść rygorystyczne testy, ale już teraz wiadomo, że będą miały wiele zastosowań, np. w czasie operowania zatok czy leczenia ran bojowych. « powrót do artykułu
  16. Naukowcy zbudowali prototyp optycznego układu scalonego mogącego służyć jako pamięć trwała. Pierwsze próby tworzenia hybrydowych układów scalonych (optyczno-elektrycznych) wykonane przez IBM wypadały obiecująco. Jednym z brakujących elementów niezbędnych do budowy komputera optycznego jest pamięć nieulotna. Naukowcom udało się przekroczyć tą barierę poprzez użycie specjalnego materiału zwanego w skrócie GST. GeSbTe jest stopem germanu, antymonu i telluru, wykorzystywanym w produkcji coraz mniej już popularnych dysków optycznych CD/DVD-RW oraz pamięci PCRAM (phase-change random-access memory). Materiał ten przy użyciu impulsu lasera jest w stanie trwale zmienić swoją strukturę z krystalicznej (uporządkowaną) na amorficzną (nieregularną) a w rezultacie sposób, w jaki odbija światło. Używając wiązki o większej mocy można zapisać informację, która jest dostępna do wielokrotnego odczytu za pomocą lasera o niskiej mocy. Zespół naukowców z Oksfordu oraz Karlsruher Institut für Technologie skonstruował układ zawierający falowody wydrążone w azotku krzemu, na które naniesiono "łatkę" ze stopu GST o grubości 10 nm. Układ pozbawiony jest jakichkolwiek elementów elektrycznych, odczyt i zapis odbywa się za pomocą światła. Zapis informacji polega na wysłaniu impulsu z lasera wysokoenergetycznego do falowodu. Warstwa GST zmienia wówczas strukturę z krystalicznej na amorficzną, bądź na odwrót, w zależności od mocy impulsu. Odczyt tak zapisanej informacji wykonuje się laserem niskoenergetycznym, wykorzystując fakt, że amorficzny GST w tak zbudowanym układzie pochłania znacząco mniej światła. Uczeni poszli również o krok dalej. Możliwe jest zwiększenie przepustowości takiej pamięci poprzez wysłanie kilku wiązek światła o różnej długości fali jednocześnie. Co ciekawe, układ pozwala nie tylko na zapisanie informacji typu "0" lub "1". Poprzez modulację mocy lasera, uczeni byli w stanie kontrolować stopień krystaliczności GST. W ten sposób jedna komórka pamięci może przechowywać kilka bitów danych. Dla przykładu - przy 100% krystaliczności informacja zapisana ma wartość "zero", przy 90% krystaliczności "jeden”, przy 80% "dwa” itd. Naukowcy zaznaczają, że stopień miniaturyzacji takich układów musi wzrosnąć jeszcze o przynajmniej jeden rząd wielkości, aby dorównały one wydajnością swoim flash-owym odpowiednikom. Jak zapewnia prof. Harish Bashkaran: Docelowo pamięć fotoniczna ma potencjał by pracować 50 do 100 razy szybciej niż obecne układy elektroniczne. « powrót do artykułu
  17. Badanie pożytecznych grzybów (endofitów) z cisów może pozwolić na produkcję tańszego leku przeciwnowotworowego paklitakselu. Paklitaksel pozyskiwano z kory cisów zachodnich, ale ponieważ leczenie jednego pacjenta wymagało wycięcia co najmniej sześciu 100-letnich drzew, usilnie pracowano nad metodami syntezy cytostatyku w laboratorium. Na razie z ograniczonymi sukcesami. Prof. Manish Raizada z Uniwersytetu w Guelph podkreśla, że może pewnego dnia firmom farmaceutycznym uda się okiełznać pożyteczne grzyby, tak by paklitaksel wytwarzać taniej i być w stanie sprostać zapotrzebowaniu. Kanadyjczycy opowiadają, że tajemnicą pozostawało, czemu paklitaksel produkują zarówno cisy, jak i żyjące w nich grzyby (to w końcu redundantny proces, zużywający energię i składniki odżywcze). Odpowiedź leży w sposobie, w jaki cisy tworzą nowe gałęzie. Cisy silnie rozgałęziają się z pączków ukrytych pod korą. Skutkuje to uporczywymi pęknięciami i głębokimi kieszeniami powietrznymi, które wpuszczają patogeny (m.in. wywołujące butwienie drewna grzyby) do wiązek przewodzących. Paklitaksel chroni przed patogennymi grzybami, ale jest także, niestety, toksyczny dla młodych pączków cisa. Kanadyjczycy stwierdzili, że występujące w układzie naczyniowym drzewa pożyteczne grzyby (Paraconiothyrium SSM001) zachowują się jak komórki zwierzęcego układu odpornościowego, gromadzą się bowiem w miejscu pęknięcia kory. Paklitaksel jest przechowywany w wewnątrzkomórkowych ciałach hydrofobowych, ale patogenne grzyby powodują jego uwalnianie na drodze egzocytozy. Ciała mogą się łączyć, by stworzyć wysyconą fungicydem zewnątrzkomórkową barierę. Dzięki temu w walce z wrogiem nie ucierpią wrażliwe pączki. Ciała hydrofobowe gromadzą się, by utworzyć ścianę i zasklepić ranę. To naprawdę piękne [...]. Autorzy publikacji z Current Biology przypominają, że cisy są spokrewnione z miłorzębem czy wolemią szlachetną (Wallemi nobilis), które podobnie się rozgałęziają, a w układzie naczyniowym mają podobne gatunki grzybów. Raizada chce się dowiedzieć, jakie geny i szlaki chemiczne są zaangażowane w produkcję paklitakselu u drzew i grzybów. Kanadyjczyk wspomina także, że odkrycia jego zespołu można by wykorzystać do ochrony roślin uprawnych czy lasów. « powrót do artykułu
  18. Amerykańskie władzy antymonopolowe ponownie przyglądają się działalności Google'a. Serwis Bloomberg, powołując się na dwa anonimowe źródła, donosi, że Federalna Komisja Handlu (FTC) i Departament Sprawiedliwości zawarły porozumienie odnośnie postępowania ws. systemu Android. Obie instytucje mają prawo do prowadzenia postępowań antymonopolowych, gdy zatem istnieje taka potrzeba, uzgadniają między sobą, która jest lepiej przygotowana do konkretnej sprawy. Urzędnicy sprawdzają, czy Google nie ogranicza konkurencji dostępu do tego OS-u. Urzędnicy z FTC odbyli spotkanie z przedstawicielami jednej z firm z branży IT, którzy twierdzą, jakoby Google faworyzował swoje własne usługi na platformie Android, a jednocześnie ograniczał dostęp produktom innych firm. Postępowanie znajduje się na wczesnym etapie i nie musi się zakończyć formalnym wszczęciem śledztwa przeciwko Google'owi. Jednak sam fakt ponownego zainteresowania się Google'em świadczy o tym, że FTC przygląda się jednej z największych amerykańskich firm. Minęły zaledwie dwa lata od czasu, gdy FTC zamknęła śledztwo ws. wyszukiwarki Google'a. Page i Brin nie mogą więc spać spokojnie. Unia Europejska od paru miesięcy prowadzi śledztwo ws. wyszukiwarki, a niedawno rozpoczęła też postępowanie odnośnie Androida. Podjęto je po skargach, jakie wpłynęły m.in. od Microsoftu, Nokii i Expedii. Nie jest jasne, czy unijne i amerykańskie władze współpracują ze sobą w czasie śledztwa. Android to najpopularniejszy mobilny system operacyjny w USA. Korzysta z niego 59,3% urządzeń. Drugi pod względem popularności, iOS, może poszczycić się 38-procentowym udziałem w rynku. Daleko w tyle pozostaje Windows (2,35%) i BlackBerry (0,36%). Profesor prawa Harry First z New York University mówi, że zgodnie z amerykańskim prawem łączenie produktów i usług może naruszać przepisy antymonopolowe, jeśli firma zdominowała rynek produktem, którego klient potrzebuje i wymusza na kliencie kupno uzupełniającego go produktu lub usługi. Jeśli zaś klient może bez przeszkód kupić uzupełniający produkt lub usługę u innych producentów, wówczas najprawdopodobniej naruszenie prawa nie ma miejsca. Powstaje więc pytanie, czy Android rzeczywiście ma tak silną pozycję rynkową, szczególnie w sytuacji, gdy istnieją inne mobilne systemy operacyjne - stwierdza uczony. « powrót do artykułu
  19. Jeśli ktoś sądzi, że w zimowych miesiącach w wodach Oceanu Arktycznego prawie nic się nie dzieje, bardzo się myli. Naukowcy przyglądali się aktywności różnych gatunków w czasie 3 kolejnych zim w zatoczce Kongsfjorden w archipelagu Svalbard. To raz na zawsze zmienia sposób, w jaki myślimy o ekosystemach morskich w czasie polarnej nocy - zaznacza Jørgen Berge z Universitetet i Tromsø – Norges arktiske universitet. Ciemna polarna noc nie jest, jak zakładano, okresem bez jakiejkolwiek aktywności biologicznej. Za kurtyną mroku ukrywa się świat zmian i piękna [...]. Berge opowiada, że działania biologów to skutek przypadkowego spotkania w fiordzie archipelagu Svalbard. Nad nami rozciągało się gwiaździste niebo, a toń pod nami [także] rozświetlały niezliczone błękitno-zielone "gwiazdy", skutek działania bioluminescencyjnych organizmów. [...] Fakt, że aż świeciło aż tyle okazów, był dobitną wskazówką, że system nie pozostawał w trybie spoczynku. Badania w terenie w ciągu 3 kolejnych zim pokazały, że ekosystem aż tętnił życiem. W rzeczywistości różnorodność i aktywność reprodukcyjna niektórych gatunków była wtedy większa niż w innych porach roku. Zooplankton, np. widłonogi, się rozmnażał, a przegrzebki Chlamys islandica w najlepsze rosły. Wyposażone w kamery poklatkowe pułapki ujawniły liczną i aktywną społeczność płytkowodnych padlinożerców, np. krabów, zwójek czy obunogów. Berge dodaje, że jego zespół najbardziej zaskoczyły ptaki morskie. Nie tylko tam były, ale i umiały znaleźć w kompletnych ciemnościach swój ulubiony pokarm. Nie wiemy, jak im się to udawało ani jak częstym zjawiskiem jest zimowanie przez ptaki morskie na tych szerokościach geograficznych. Topniejący lód udostępnia kolejne obszary Arktyki pod ludzką działalność (od przemysłu naftowego poczynając, na turystyce i rybołówstwie kończąc). Nie możemy jednak zakładać, że polarna noc to bezpieczny okres, kiedy nic się nie dzieje. Okazuje się raczej, że ciemna noc jest ważnym okresem dla rozmnażania licznych organizmów [...]. « powrót do artykułu
  20. W skalnym schronieniu w Lapa do Santo w Brazylii znaleziono ludzką głowę odciętą przed 9000 lat. To najstarszy znany nam przykład dekapitacji w Ameryce. Położone w środkowo-wschodniej Brazylii Lapa do Santo było zamieszkane już co najmniej 12 000 lat temu. W 2007 roku znaleziono tam pozostałości pochowanego ciała. Na Pochówek 26 składały się m.in. czaszka, żuchwa, kręgi piersiowe i dłonie. Odcięte dłonie ułożono na twarzy zmarłego po obu stronach. Wiek znaleziska oceniono na 9000 lat. Teraz, dzięki zdobyczom najnowszej techniki udało się dowiedzieć znacznie więcej. Badania izotpu strontu i porównanie ich z innymi znaleziskami pozwoliły na stwierdzenie, że osoba z Pochówku 26 była prawdopodobnie członkiem lokalnej grupy zamieszkującej Lapa do Santu. Sposób ułożenia szczątków skłania uczonych do postawienia hipotezy, że głowę odcięto nie jako trofeum, ale w ramach rytuału pogrzebowego. Jeśli uczeni mają rację, oznacza to, że tamtejsze społeczności łowiecko zbieracki wytworzyły złożone rytuały pogrzebowe. Niewykluczone, że mamy do czynienia z najwcześniejszym w oby Amerykach przykładem dekapitacji. To z kolei każe ponownie przemyśleć historię rozwoju tej praktyki pod kątem jej początków i rozprzestrzeniania się. « powrót do artykułu
  21. Brytyjska agencja wywiadowcza Government Communications Headquarters (GCHQ) chce stworzyć największy na świecie system wywiadowczy. Z dokumentów udostępnionych przez Edwarda Snowdena dowiadujemy się, że GCHQ prowadzi program o nazwie "Karma Police". Jego celem jest zdobycie informacji o każdym użytkowniku internetu. Dane są gromadzone dzięki temu, że wiele połączeń internetowych przechodzi przez Wielką Brytanię. Jeszcze w 2012 roku w bazie Karma Police znajdowało się 50 miliardów rekordów z metadanymi. Celem na rok 2013 było powiększenie bazy do 100 miliardów rekordów. Dzięki Snowdenowi wiemy, że 41% zgromadzonych informacji dotyczy historii nawigowania po sieci. Dane te trafiają do bazy o nazwie "Black Hole". Wśród innych zbieranych informacji znajdują się adresy e-mail, dane z komunikatorów internatowych, serwisów społecznościowych i zapytania zadawane wyszukiwarkom. GCHQ odnotowuje także przypadku używania narzędzi pozwalających na anonimowe nawigowanie po sieci. Dostęp do zgromadzonych danych mają analitycy GCHQ, którzy mogą dzięki nim zebrać informacje o danej osobie. GCHQ pozyskuje też "ciasteczka", dzięki czemu może wiązać adresy IP z danymi osobistymi, jak np. adresy e-mail. Wiadomo, że wywiad korzysta z ciasteczek m.in. Google', Yahoo, Facebooka, Reddita, WordPressa, CNN, Reutersa, YouPorn czy BBC. GCHQ może bez przeszkód wyszukiwać informacje dotyczące użytkowników spoza Wielkiej Brytanii. Nie potrzebuje też żadnej zgody, by analizować metadane obywateli Wielkiej Brytani. Dopiero dostęp do bardziej szczegółowych danych mieszkańców Zjednoczonego Królestwa wymaga specjalnych zgód. W ramach testów swojego systemu GCHQ analizowała dane odbiorców internetowych stacji radiowych. Zgromadzono w ten sposób i przeanalizowano informacje dotyczące 200 000 osób ze 185 krajów. « powrót do artykułu
  22. Dieta zawierająca suszone śliwki korzystnie wpływa na mikrobiom jelita grubego, zmniejszając w ten sposób ryzyko nowotworu tej części przewodu pokarmowego. Dzięki naszym badaniom byliśmy w stanie wykazać, że suszone śliwki sprzyjają retencji korzystnych bakterii w jelicie grubym i w ten sposób zapobiegają rakowi - opowiada dr Nancy Turner z Texas A&M University. Amerykanka podkreśla, że wcześniejsze badania wykazały, że zaburzenia mikrobiomu mają wpływ na zapoczątkowanie stanu zapalnego jelit i jego nawroty, co może sprzyjać rozwojowi raka jelita grubego. Jak wyjaśnia Turner, w badaniach nad ewentualnymi właściwościami ochronnymi suszonych śliwek wykorzystano szczurzy model raka jelita grubego. Suszone śliwki zawierają fenole, które mają wieloraki wpływ na nasze zdrowie; mogą np. spełniać funkcje przeciwutleniaczy [...], niedopuszczających do uszkodzenia DNA. Podczas eksperymentów testowaliśmy hipotezę, że spożycie suszonych śliwek sprzyja zatrzymywaniu korzystnej mikroflory i wzorców metabolizmu bakterii w jelicie grubym. Szczurom podawano dietę kontrolną albo karmę zawierającą suszone śliwki. Obie diety dopasowano pod względem liczby kalorii i zawartości makroelementów, tak by ewentualne efekty móc przypisać związkom unikatowym dla suszonych śliwek - wyjaśnia Derek Seidel. Naukowcy zbadali treść pokarmową i wycinki tkanki z różnych segmentów jelita grubego. Okazało się, że śliwkowa dieta zwiększyła liczbę Bacteroidetes, a zmniejszyła Firmicutes w dystalnym odcinku jelita grubego, nie wpływając na ich proporcje w części proksymalnej. Okazało się również, że w porównaniu do grupy kontrolnej, u gryzoni jedzących suszone śliwki znacząco spadła m.in. liczba aberracji krypt jelitowych (preneoplastycznych uszkodzeń nabłonka jelita). Ogniska ACF [ang. aberrant crypt foci], czyli zmienione patologicznie krypty jelitowe, to jedne z najwcześniej obserwowanych zmian przednowotworowych [...] - dodaje Seidel. Turner podsumowuje, że choć potrzeba dalszych badań, zwłaszcza na ludziach, wyniki obecnego studium są bardzo ekscytujące, bo sugerują, że regularne jadanie suszonych śliwek to wykonalna strategia dietetycznego zapobiegania rakowi jelita grubego. « powrót do artykułu
  23. Dyrektor generalny Blackberry oficjalnie potwierdził, że firma rozpocznie sprzedaż pierwszego telefonu z Androidem. Urządzenie o nazwie Priv trafi do sklepów w przyszłym roku. Jednocześnie kanadyjskie przedsiębiorstwo nie ma zamiaru porzucać własnego OS-u i nadal będzie rozwijało BlackBerry 10. Android zagości na tak typowym dla BlackBerry smartfonie z fizyczną klawiaturą. Będzie ono łączyło bardzo rozbudowany ekosystem Androida z najlepszymi cechami BlackBerry - bezpieczeństwem i produktywnością. Blackberry pracuje też nad wsparciem Android for Work na BES12. Należy podkreślić, że nic nie wskazuje na to, by kanadyjska firma miała zamiar zrezygnować z rozwoju własnego systemu operacyjnego. Wręcz przeciwnie, przed trzema tygdniami dowiedzieliśmy się, że za kwotę 425 milionów dolarów przejmuje ona Good Technology. Akwizycja jest częścią firmowej strategii, w ramach której Blackberry chce zaoferować klientom biznesowym kompleksową platformę bezpieczeństwa dla wszystkich urządzeń mobilnych wykorzystywanych w firmie. Blackberry wciąż jednak przeżywa poważne kłopoty, a jej sytuacja finansowa nie ulega zdecydowanej poprawie. « powrót do artykułu
  24. Specjalizujące się w kwestiach bezpieczeństwa firmy ThreatConnect i Defense Group Inc. (DGI) powiązały grupę hakerów Naikon z chińską armią. Zdaniem ekspertów Naikon Advanced Persistent Threat to część Jednostki 78020, która dokonała w przeszłości wielu ataków. Jednostka działa od niemal 5 lat i atakuje głównie firmy w USA posługując się przy tym phishingiem, szkodliwym kodem i pocztą elektroniczną. Naikon została po raz pierwszy zidentyfikowana w kwietniu 2012 roku przez ShadowServer. To grupa wolontariuszy składająca się z ekspertów ds. bezpieczeństwa. Zajmują się oni zbieraniem informacji o szkodliwym kodzie, botnetach, defraudacjach. Dzięki analizie własnych danych oraz informacji dostarczonych przez hakera Hardcore Charlie, jednego z Anonimowych, który - jak twierdzi - włamał się do chińskich sieci wojskowych - specjaliści z ShadowServer zauważyli istnienie nieznanej wcześniej grupy hakerskiej. Rok później firma TrendMicro opublikowała analizę szkodliwego kodu Rarstone autorstwa Naikon. Teraz eksperci uważają, że Naikon to część Jednostki 78020, która zajmuje się prowadzeniem cyberataków. Jednostka specjalizuje się w technice phishingu oraz inżynierii społecznej. Precyzyjnie namierza interesujące ją osoby i próbuje w ten sposób dostać się do sieci firm, w których osoby te pracują. Przed atakiem zbierane są takie dane jak imię i nazwisko, adres, data urodzenia, zainteresowania, narodowość, płeć, połączenia społecznościowe czy wcześniej używane e-maile. ThreatConnect i DGI informują, że udało im się powiązać Naikon z chińską armią dzięki szczegółowej analizie zdobytych informacji oraz analizie lingwistycznej, podczas której skupili się na oficerze Chińskiej Armii Ludowo-Wyzwoleńczej nazwiskiem Ge Xing. To już kolejna grupa hakerska, którą zidentyfikowano. Wcześniej pisaliśmy o podobnych analizach łączących hakerów z Jednostkami 61398 oraz 61486. « powrót do artykułu
  25. Użytkownicy Facebooka generują dla firmy olbrzymie i wciąż rosnące przychody. Witryna eMarketer, która zajmuje się badaniem rynku, informuje, że w roku 2015 Facebook na każdym użytkowniku zarobił o 20% więcej niż rok wcześniej. Przychody z reklamy zapewniają Facebookowi już 12,46 USD rocznie od każdego użytkownika. Przed rokiem było to 10,03 USD, a analitycy przewidują, że w roku 2017 kwota ta wzrośnie do 17,50 USD. Równie dobrze radzi sobie Twitter, który obecnie na jednym użytkowniku zarabia w ciągu roku 7,75 USD. Rok temu użytkownik przynosił Twitterowi 5,48 USD przychodu, a prognozy na rok 2017 mówią o kwocie 12,56 USD. Oczywiście nie każdy użytkownik jest tak samo wartościowy. Najwięcej pieniędzy zapewniają serwisom społecznościowym mieszkańcy USA. W przypadku Facebooka obywatele innych krajów przynoszą średnio 7,71 USD przychodu. Tymczasem wpływy zapewniane przez Amerykanina to średnio 48,76 USD. Na Twitterze liczby te to, odpowiednio, 3,51 i 24,48 dolarów. Serwisy społecznościowe zarabiają na reklamach. Ich olbrzymia popularność powoduje, że reklamodawcy chętnie umieszczają tam swoje ogłoszenie i słono za nie płacą. Z drugiej strony same serwisy wciąż opracowują nowe usługi, wciąż więc pojawiają się nowe miejsca, w których można umieścić reklamę. Serwisy społecznościowe to dla reklamodawców świetne miejsce do prezentowania swoich produktów. Posiadają olbrzymią ilość danych o użytkownikach, reklama może więc być mocno spersonalizowana i bardziej skuteczna. Facebook czy Twitter są tym bardziej cenne, że zanikają tradycyjne kanały reklamowe. Kurczy się rynek prasy drukowanej, mniej czasu spędzamy przed telewizorami, a więcej przed ekranem komputera. I coraz częściej jest to czas poświęcany na przeglądanie serwisów społecznościowych. « powrót do artykułu
×
×
  • Dodaj nową pozycję...