Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'system' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 19 wyników

  1. Na UW powstaje system do detekcji genów, które powodują oporność bakterii na antybiotyki. Naukowcy mają w planie udostępnienie go lekarzom, aby mogli możliwie szybko pozyskiwać informacje, które typy antybiotyków będą najbardziej skuteczne w leczeniu konkretnych przypadków, a których leków należy unikać. Doktoranci z Zakładu Genetyki Bakterii na Wydziale Biologii Uniwersytetu Warszawskiego – Mikołaj Dziurzyński, Przemysław Decewicz i Adrian Górecki – opracowali system detekcji genów oporności na antybiotyki w próbkach środowiskowych oraz materiale klinicznym. Co to oznacza w praktyce? Zapewniający szybkie i wiarygodne wyniki, a zarazem tani do wdrożenia system dostarczy lekarzom informacji, jaki lek antybakteryjny zastosować w danym przypadku u konkretnego pacjenta, bez ryzyka, że antybiotyk nie zadziała. Co ciekawe, wynalazek umożliwia również sprawdzanie produktów spożywczych pod kątem obecności bakterii opornych na leki oraz monitorowanie rozprzestrzeniania się genów oporności w różnych środowiskach. PCR w walce z opornością bakterii na antybiotyki Rewolucyjny pomysł doktorantów z UW wykorzystuje reakcję łańcuchową polimerazy, czyli PCR (Polymeraze Chain Reaction) – metodę prostą i powszechnie stosowaną w biologii molekularnej. W szybki sposób umożliwia ona sprawdzenie, czy w bakterii występuje dana sekwencja DNA. Wykrywanie poszczególnych genów, w tym tych, które determinują oporność na antybiotyki, wymaga zaprojektowania odpowiedniego zestawu odczynników, tzw. starterów do PCR. Stworzyliśmy oprogramowanie, dzięki któremu można błyskawicznie dobrać te odczynniki w taki sposób, by uzyskiwane informacje były wiarygodne. Eliminujemy wyniki fałszywie negatywne lub fałszywie pozytywne. Dzięki temu zyskujemy pewność, że trafiamy we właściwy gen – mówi mgr Mikołaj Dziurzyński. Ochrona zdrowia i prewencja W medycynie często decydujące znaczenie dla wyniku leczenia ma szybkość zastosowania odpowiedniego leku – zwłaszcza w najcięższych przypadkach. System pozwalający szybko zidentyfikować geny oporności na dane klasy antybiotyków może nie tylko wspierać lekarza w podejmowaniu decyzji o wyborze leku, ale docelowo ratować ludziom życie. Poza medycyną, wynalazek opracowany na Wydziale Biologii UW pozwoli także na badanie rozprzestrzenienia antybiotykooporności. W przypadku bakterii występuje zjawisko horyzontalnego transferu genów. Jeśli jeden gatunek bakterii nabywa oporność, może przekazać ją innym bakteriom. To prosty proces, który zachodzi bardzo szybko, zwłaszcza w oczyszczalniach ścieków. Jeśli ten proces nie będzie monitorowany, powrót do ery pre-antybiotykowej nastąpi jeszcze szybciej. Z oczyszczalni ścieków bakterie z genami oporności wracają bowiem do człowieka. Monitorowanie pozwoli znaleźć źródła kumulowania się szczepów opornych. Nasz system nie zminimalizuje negatywnych zjawisk, ale pozwoli je lepiej monitorować i analizować. To pierwszy etap, który umożliwi wdrożenie działań zapobiegawczych – mówi Przemysław Decewicz. Szczególnie istotną rolę odgrywa w tym kontekście branża spożywcza. Najwięcej bakterii ludzie przyjmują wraz z pożywieniem. Dlatego produkty spożywcze powinny być powszechnie badane pod kątem obecności bakterii opornych na antybiotyki. W przypadku branży spożywczej wyniki nie muszą być natychmiastowe. Być może w tym przypadku komercjalizacja będzie oznaczać stworzenie usługi świadczonej przez przyszłą spółkę spin-off założoną przy Uniwersytecie Warszawskim – mówi Adrian Górecki. « powrót do artykułu
  2. Najnowsza wersja systemu iOS, oznaczona numerem 5, została złamana jeszcze zanim trafiła na rynek. Dowód na pokonanie jego zabezpieczeń opublikowano dzień po premierze na koncie MuscleNerd na Twitterze. Widzimy tam dwa obrazki, z których wynika, że iPod Touch 4G działa na złamanej wersji iOS5. Pierwszy obrazek pokazuje zainstalowane oprogramowanie Cydia, drugi - dostęp do konta root. MuscleNerd bierze udział w pracach grupy iPhone Dev Team, która jest znana z łamania iOS-a. Do przełamania najnowszej edycji systemu konieczne było użycie narzędzia Limera1n stworzonego przez GeoHota. Poważnym niedociągnięciem jest jednak fakt, że właściciel takiego złamanego systemu będzie musiał po każdym restarcie urządzenia podłączyć je z pecetem, by ponownie korzystać z zalet systemu ze złamanymi zabezpieczeniami.
  3. Badacze z MIT i Northeastern University opracowali nowy system monitorowania wskaźników biomedycznych, np. poziomu sodu lub glukozy we krwi. Tworzą go wąskie i długie mikrocząstki, które w przyszłości będzie można wszczepiać w okolicach naczyń krwionośnych czy do narządów. Dzięki temu diabetycy odczytają np. stężenie cukru, spoglądając na określony wycinek skóry, a leki dotrą dokładnie tam, gdzie trzeba. Dotąd systemy bazujące na mikrocząstkach – wydrążonych w środku i wypełnionych określonymi związkami chemicznymi - miały jeden podstawowy minus. Chodzi o kształt i związane z nim rozmiary. Cząstki te były sferyczne i ulegały z czasem usunięciu z miejsca, do którego je pierwotnie wprowadzono. Zaproponowane właśnie przez Amerykanów rozwiązanie wykorzystuje cząstki przypominające długie tuby. Ich średnica jest zbliżona do średnicy sfer, przez co zawartość nadal znajduje się blisko naczyń krwionośnych czy tkanki i reaguje na panujące tam warunki chemiczne, lecz stosunkowo duża długość pozwala im się zakotwiczyć nawet na parę miesięcy. Proces tworzenia nowych nanocząstek to pokłosie prac zespołu Karen Gleason nad metodą pokrywania różnych materiałów przez odparowanie materiału na powłokę i umożliwienie mu wytrącania się na obrabianej powierzchni (fachowo nazywa się to chemicznym osadzaniem z fazy lotnej lub gazowej, ang. chemical vapor deposition, CVD). W styczniu zespół Gleason opublikował doniesienia z badań, w ramach których wykazano, że CVD można zastosować do powlekania materiału z mikroskopijnymi porami. W ten sposób pory stają się jeszcze mniejsze, a jednocześnie zyskują powierzchnię pozwalającą reagować na chemiczne właściwości przepływających przez nie materiałów. Zespół tłumaczy, że uzyskane w ten sposób "mikrorobaki" można wszczepić pod skórę, uzyskując fluorescencyjny tatuaż. Wykorzystanie materiału emitującego promieniowanie w obecności określonego związku to sprytny wybieg. Stopień fluorescencji daje bowiem szansę na ciągłe monitorowanie w organizmie pewnego specyficznego wskaźnika. Co więcej, można to robić, patrząc po prostu na skórę. Emitowane światło jest widoczne dla ludzkiego oka, dlatego pacjent interpretuje je bezpośrednio, bez uciekania się do masywnych monitorów. Pierwsze mikrorobaki testowano na myszach. Ich zadanie polegało na wykrywaniu poziomu soli (kationów Na+) w organizmie, lecz tak naprawdę liczba potencjalnych zastosowań wynalazku jest niemal nieograniczona. Rurki mają ok. 200 nanometrów średnicy. Ciało w ogóle ich nie wykrywa, nie wywołują więc żadnej fizycznej reakcji. Specjaliści sądzą, że nowy system mikrocząstek znacznie ułatwi badania krwi. Nie trzeba już będzie odwiedzać laboratorium i korzystać z pomocy specjalistów. Testy będzie można z łatwością przeprowadzić również u chorych ze zniszczonymi naczyniami czy przyjmujących leki przeciwzakrzepowe. Zanim jednak system uzyska odpowiednie pozwolenia od amerykańskiej Agencji ds. Żywności i Leków (FDA), badacze będą musieli udowodnić, że pozostając na miejscu przez długi czas po wstrzyknięciu, nie zwiększa on m.in. ryzyka zakrzepów. Gleason cieszy się, ponieważ CVD jest metodą powszechnie wykorzystywaną przez przemysł półprzewodnikowy. Pozwala to przypuszczać, że urządzenia pomysłu jej ekipy będą dość tanie.
  4. Australijczycy skonstruowali uprząż, która pozwala na zdalne sterowanie psem, który nie widząc opiekuna, może wykonywać skomplikowane zadania (Personal Ubiquitous Computing). Z naszym systemem nie trzeba się znajdować w zasięgu wzroku psa – podkreśla prof. David M. Bevly z Auburn University. Kiedyś urządzenia do zdalnego sterowania testowano na innych gatunkach zwierząt, poza tym wymagały one wszczepiania elektrod. Tymczasem zespół z antypodów wpadł na pomysł rozwiązania całkowicie zewnętrznego, które pozwala kierować w czasie rzeczywistym wytrenowanymi psami. W skład uprzęży wchodzą GPS, czujniki, procesor i modem radiowy, który łączy się bezprzewodowo z komputerem. Plecaczek lekko wibruje po prawej lub lewej stronie i wydaje różne dźwięki. System przetestowano na labradorze o imieniu Major, uczestniku programów wdrażanych przez uczelniany Canine Detection Research Institute. Okazało się, że psu często udawało się dotrzeć do celu oddalonego o kilkaset metrów. Major podążał we właściwym kierunku przez 80% czasu, a komputer wydawał właściwe polecenia w 99% sytuacji. Obecnie zespół prowadzi testy z przeprowadzaniem psa przez bardziej złożone zadania, a także na większe odległości (od 5 do 6,5 km). Bevly widzi wiele zastosowań dla swojego wynalazku. Wspomina o wysyłaniu psów na tereny działania karteli narkotykowych czy z lekami do żołnierzy na polu walki. Dzięki uprzężom jedna osoba mogłaby też na lotnisku, przejściu granicznym itp. zawiadywać działaniami wielu czworonogów. William Helton z Uniwersytetu w Canterbury, specjalista ds. ergonomii psów, dodaje, że mając wgląd w ruchy psa, opiekun czy trener będzie wiedzieć, czy jego pupil nie jest np. zbyt zdenerwowany lub czy nie stracił z jakiegoś powodu zainteresowania zadaniem.
  5. Analizując głosy ludzi, którzy wydawali się po prostu dobrze bawić w gronie znajomych, zespół Adama Vogla z Uniwersytetu w Melbourne opracował nową technikę pomiaru zmęczenia. W artykule, który ukazał się w piśmie The Journal of the Acoustical Society of America, zaprezentowano widoczne w mowie skutki podtrzymywania stanu czuwania. Australijczycy przedstawili też zastosowanie techniki akustycznej analizy mowy do obrazowania wpływu zmęczenia na ośrodkowy układ nerwowy. Nie jest to osiągnięcie czysto teoretyczne, ponieważ skorzystają na nim pracownicy zmianowi czy dowódcy wojskowi, którzy muszą odpowiednio zarządzać zmęczeniem swoich podwładnych. Rośnie zainteresowanie rozwijaniem obiektywnych, nieinwazyjnych systemów, które można by zastosować do wspomagania wykrywania i zarządzania zmęczeniem zarówno w sytuacjach związanych diagnozowaniem stanu zdrowia, jak i w pracy – podkreśla Vogel. Ocena cech odróżniających w danym momencie głos od jego wypoczętej (normalnej) wersji pozwoliłaby lekarzowi zadecydować o tym, czy dana osoba nadaje się do pracy. Byłby to również doskonały sposób monitorowania zmęczenia w testach klinicznych, gdzie zachowanie czujności jest podstawą. W studium Australijczyków wzięło udział 18 młodych dorosłych. Co 2 godziny dostarczali oni próbki mowy – były to przedłużone samogłoski oraz zadania polegające na liczeniu i czytaniu. Naukowcy z antypodów przyglądali się m.in. długości pauz oraz ogólnemu czasowi ukończenia zadania. Okazało się, że wraz ze wzrostem zmęczenia mowa zwalnia i zwiększają się skoki w wysokości wydawanych dźwięków. Dzieje się tak, ponieważ mamy wtedy słabszą kontrolę nad mięśniami aparatu mowy.
  6. Naukowcy z Uniwersytetu w Cambridge z powodzeniem przetestowali system, który pozwala śledzić ludzkie emocje za pomocą telefonu. EmotionSense, bo o nim mowa, wykorzystuje oprogramowanie do rozpoznawania mowy oraz czujniki wbudowane w smartfony. W ten sposób naukowcy mogą ustalić, jak różne czynniki, np. otoczenie, pora dnia czy relacje z innymi, oddziałują na uczucia. Wstępne wyniki sugerują, że technologia ułatwi zadanie psychologom, którzy próbują dociec, w jaki sposób emocjonalne wzloty – okresy szczęścia, stresu czy gniewu – zależą od miejsca, w którym jesteśmy, aktualnie wykonywanej czynności lub towarzystwa. Każdy [lub niemal każdy] ma telefon komórkowy, dlatego potencjalnie stanowi on idealne narzędzie do monitorowania zachowania albo stanu emocjonalnego dużej liczby ludzi – uważa dr Cecilia Mascolo. Akademikom zależy na metodzie, która nie byłaby inwazyjna i nie naruszałaby prywatności badanych. By zdobyć próbki mowy użytkownika do analizy, EmotionSense wykorzystuje dyktafony, które już występują w wielu komórkach. Porównuje się je ze specjalną biblioteką (Biblioteką Transkrypcji i Prozodii Emocjonalnej Mowy, ang. Emotional Prosody Speech and Transcripts Library). Zgromadzono w niej nagrania aktorów odczytujących daty i liczby w tonacji odpowiadającej 14 różnym kategoriom emocji. Próbki są przydzielane do jednej z 5 kategorii: 1) emocji szczęśliwych (należą tu np. uniesienie i zainteresowanie), 2) smutku, 3) strachu, 4) złości (przypisuje się tu również wstręt) oraz 5) emocji neutralnych (grupuje się tu m.in. znudzenie i bierność). Wbudowany w aparat telefoniczny GPS pozwala zestawić nagrania z lokalizacją użytkownika, a łączność bezprzewodowa umożliwia zidentyfikowanie znajdujących się obok osób. Poza tym komórka zapisuje dane dotyczące czasu i osoby, z którą rozmawiano. Dzięki odpowiedniemu oprogramowaniu wszelkie analizy są przeprowadzane w telefonie, eliminując konieczność przesyłania danych. Poza tym po zakończeniu interpretacji mogą być one usunięte, co gwarantuje zachowanie prywatności badanych. W tym roku Brytyjczycy testowali swój system na grupie 18 ochotników. Każdego na okres 10 dni wyposażono w telefon Nokia 6210 Navigator. Badanym polecono, by prowadzili dziennik stanów emocjonalnych (wystarczyło odpowiadać na zestaw standardowych pytań). Okazało się, że w ok. 70% przypadków wyniki telefonicznej analizy pokrywały się z rezultatami kwestionariusza. Psycholodzy stwierdzili też, że czynnikiem silnie wpływającym na uczucia było miejsce. Kiedy wolontariusze przebywali w domu, w danych dominowały szczęśliwe emocje (45% wszystkich odnotowanych uczuć), gdy znajdowali się w pracy, przeważał smutek (54%). Akademicy ustalili także, że wieczorem ludzie przejawiali intensywniejsze emocje niż o poranku i że częściej ujawniali je w mniejszych grupach niż w tłumie. Obecnie naukowcy pracują nad ulepszeniem systemu. Chcą precyzyjniej kategoryzować emocje i wyeliminować szum tła. Jeden z członków ekipy, dr Jason Rentfrow, cieszy się, że w przyszłości uda się "podrasować" metodologię badań. Będzie można zrezygnować z samoopisu, a to duży plus, bo ludzie nie pamiętają o szczegółach i nie potrafią prawidłowo oszacować częstotliwości angażowania w określone czynności.
  7. Terry Myerson poinformował na oficjalnym blogu Microsoftu, że system Windows Phone 7 wszedł w fazę RTM (release to manufacturing). Oznacza to, że system został udostępniony firmom, które są zainteresowane wykorzystaniem go w swoich produktach. Jak twierdzi Myerson, Phone 7 to najdokładniej przetestowany mobilny OS w historii Microsoftu. Każdego dnia działał on na niemal 10 000 urządzeń, które przeprowadzały automatyczne testy. W sumie trwały one ponad 12 milionów godzin. Ponadto Phone 7 był testowany przez tysiące niezależnych producentów oprogramowania i użytkowników. Myerson zapewnia, że bardzo dobrze ocenili oni najnowszy produkt Microsoftu. Pierwsze urządzenia korzystające z Windows Phone 7 pojawią się w Europie w październiku. Amerykanie będą mogli kupić je w listopadzie. Microsoft zmierzy się na rynku mobilnych systemów przede wszystkim z Androidem Google'a, iOS-em Apple czy z BlackBerry RIM-a. Koncern będzie musiał udowodnić, że po rynkowej porażce Windows Mobile jest w stanie zaoferować klientom wartościowy produkt.
  8. Odkryta niedawno luka w windowsowych plikach .lnk, która jest wykorzystywana do atakowania przemysłowych systemów SCADA, zwiększyła zainteresowanie bezpieczeństwem samych systemów. Okazało się bowiem, że przeprowadzenie ataku jest możliwe dzięki dziurze w SCADA o której producent systemu, Siemens, wiedział od dwóch lat. Na konferencji Black Hat poinformowano o wielu innych "grzechach" tych systemów. SCADA są używane do zarządzania elektrowniami, rafineriami czy ruchem kolejowym. Jak stwierdził występujący na Black Hat Jonathan Pollet z Red Tiger Security, systemy SCADA często zawierają liczne błędy oraz niepotrzebne oprogramowania, które wystawia je na kolejne ryzyko. Pollet przeanalizował systemy używane w 120 ważnych instalacjach przemysłowych i odkrył w nich 38 753 luki. Co gorsza okazało się, że średnio upływa 331 dni pomiędzy dniem ujawnienia istnienia luki w danym oprogramowaniu, a jej odkryciem przez zarządzających systemem SCADA. W jednym z badanych przypadków Pollet trafił na lukę, która była znana od trzech lat zanim znaleziono ją w środowisku SCADA. Niemal w każdym z analizowanych systemów Pollet znalazł niepotrzebne oprogramowanie, takie jak komunikatory, bazy danych serwisów randkowych czy serwery gier online. Badania pokazały, że systemy SCADA są znacznie mniej bezpieczne niż systemy korporacyjne. W ich przypadku nie przewiduje się bowiem planowanych wyłączeń, a więc instalowanie łat czy przeprowadzanie okresowych prac konserwacyjnych jest trudne.
  9. Stada ptaków, np. gołębi, potrafią latać w zadziwiającej synchronii. W jaki sposób uzgadniają, gdzie i kiedy lecieć? Naukowcy z Wielkiej Brytanii i Węgier wykazali, że posługują się elastycznym systemem przywództwa. Każdy ma swój głos, ale zdanie osobników postawionych wyżej w hierarchii waży więcej. Biolodzy z Uniwersytetu w Oksfordzie i Uniwersytetu im. Loránda Eötvösa wyposażyli gołębie w plecaczki z GPS-em, które utrwalały trasę pokonywaną przez danego ptaka. Dzięki temu mogli później prześledzić kontakty pomiędzy osobnikami. Naukowcy wierzą, że odkrycia pomogą im zrozumieć kolektywne zachowania zwierząt oraz ludzi. Wszyscy wiemy, jak imponujące są podniebne wyczyny ptasich stad, ale w jaki sposób decydują one, gdzie polecieć i czy takie decyzje są podejmowane przez dominującego lidera, czy przez grupę jako całość, zawsze pozostawało tajemnicą. My stwierdziliśmy, że choć większość ptaków ma głos w dyskusji, elastyczny system rang gwarantuje, że pewne ptaki z większym prawdopodobieństwem przewodzą, a inne podążają za resztą – opowiada dr Dora Biro z oksfordzkiego Wydziału Zoologii. Wykorzystany w eksperymencie GPS ważył zaledwie 16 gramów. Urządzenie przymocowano do wykonanych na zamówienie plecaczków, które trafiły na wyposażenie stada gołębi złożonego z 10 osobników. Dzięki temu po raz pierwszy udało się prześledzić relacje przestrzenne i czasowe między członkami stada oraz podejmowane w ułamku sekundy decyzje odnośnie do kierunku lotu. Co 0,2 sekundy zespół dokonywał pomiarów zmian w kierunku lotu. Odnosząc je do poszczególnych zwierząt, Brytyjczycy i Węgrzy próbowali stwierdzić, który ptak zainicjował zwrot, które osobniki za nim podążały i z jakim opóźnieniem. Szybko okazało się, że w stadzie wszystko odbywało się w zgodzie z doskonale zdefiniowaną hierarchią. To spektrum różnych poziomów przywództwa określało siłę wpływu danego ptaka na stado. Zasadniczo hierarchie te są elastyczne, a zatem rola przywódcza osobnika zmienia się z czasem. Przebieg wydarzeń da się jednak na dłuższą metę przewidzieć. Dynamiczna, elastyczna segregacja na liderów i naśladowców – gdzie uwzględniane są nawet opinie nisko postawionych zwierząt – może być szczególnie skuteczną formą podejmowania decyzji. Nie wiadomo, czy największą rolę odgrywają osobniki najbardziej zmotywowane do przewodzenia czy będące z urodzenia lepszymi nawigatorami (np. z większą wiedzą na ten temat). Brytyjsko-węgierska ekipa zauważyła, że pozycja w chmarze odpowiadała pozycji w hierarchii stada. Z przodu znajdowały się więc osobniki podejmujące decyzje. Okazało się też, że naśladowcy reagowali najszybciej na ptaki lecące po ich lewej stronie. W ten sposób potwierdziły się spostrzeżenia rodem z laboratorium, że ptaki przetwarzają informacje o znaczeniu społecznym, które docierają do mózgu głównie za pośrednictwem lewego oka.
  10. Badacze z Karolinska Institutet odkryli, że nieświadome uczenie zachodzi dzięki starym strukturom mózgowym, występującym również w mózgach prymitywniejszych kręgowców, m.in. ryb, gadów czy płazów (PNAS). Studium dotyczyło prążkowia (striatum), które wchodzi w skład układu limbicznego, i świadomej oraz nieświadomej nauki ruchów poprzez powtarzanie. Nasze wyniki silnie wspierają teorie, które mówią, że utajone, co ja rozumiem jako nieświadome, systemy uczenia są prostsze i starsze ewolucyjnie- wyjaśnia dr Fredrik Ullén z Karolinska Institutet i Sztokholmskiego Instytutu Mózgu. Wiele codziennych czynności, np. zapinanie koszuli czy gra na instrumencie, to sekwencja odrębnych ruchów, które należy wykonywać w określonej kolejności. Naukowcy od dawna wiedzą, że opanowujemy je za pomocą jednego z dwóch mechanizmów: 1) dzięki systemowi utajonemu uczymy się bez świadomości tego faktu i bez świadomego treningu, np. powtarzania; 2) systemu jawnego używamy, gdy świadomie ćwiczymy i wiemy, że to robimy. W uczenie i kontrolę ruchową zaangażowane są ukryte głęboko w półkulach jądra podstawne (łac. nuclei basales). U naczelnych jest ich 5: ciało prążkowane, części zewnętrzna i wewnętrzna gałki bladej, jądro niskowzgórzowe oraz istota czarna. Za plastyczność i uczenie odpowiadają pobudzające połączenia dopaminergiczne w obrębie jąder. W ramach najnowszego studium Szwedzi badali jawne i utajone uczenie sekwencji ruchów w stosunku do liczby receptorów dopaminowych D2 w jądrach podstawnych. Zaobserwowali zależność między zagęszczeniem D2 a obiema formami uczenia. Poza tym okazało się, że w uczeniu utajonym brała udział wyłącznie ewolucyjnie najstarsza część nuclei basales – prążkowie. Oznacza to, że podstawowe systemy uczenia dzielimy nie tylko z myszami czy szczurami (ssakami), ale również z prymitywniejszymi kręgowcami. Wystarczy, by miały striatum. W przyszłości dokładniejsze zrozumienie działania systemów uczenia pozwoli opracować nowe metody terapii choroby Parkinsona czy pląsawicy Huntingtona, w których dochodzi do zaburzenia funkcji jąder podstawnych i upośledzenia zdolności ruchowych.
  11. Drugie spojrzenie na obraz czy zdjęcie może zmniejszyć liczbę błędów medycznych i poprawić jakość kontroli na lotniskach. Ważne jest tylko, by ludzie nie skupiali się na rejonach i szczegółach, które widzieli już wcześniej. Z pewnością uda się tego uniknąć dzięki systemowi opracowanemu przez zespół Pernilli Qvarfordt z FX Palo Alto Laboratory. System bazuje na technologii śledzenia ruchów oczu. Dzięki temu rejony obejrzane przy pierwszym podejściu są przy drugim zaczerniane. Podczas testów ochotnicy mieli wyszukiwać pewne obiekty na obrazach zawierających 300 przypominających konfetti kropek. Okazało się, że ci, którym w drugiej próbie zademonstrowano częściowo zaciemnione grafiki, znaleźli o wiele więcej kształtów niż osoby oglądające ponownie oryginał. W zeszłym tygodniu wynalazek Qvarfordt został zaprezentowany na branżowej konferencji w Austin.
  12. Naukowcy z amerykańskich i hiszpańskich uczelni odkryli w mózgu system stojący za ogólną inteligencją. To ważny wkład w dyskusję na temat definiowania i pomiaru inteligencji. Wyniki badań specjalistów z Kalifornijskiego Instytutu Technologii (Caltech), Univeristy of Iowa, Uniwersytetu Południowej Kalifornii oraz Universidad Autónoma de Madrid zostały opublikowane w piśmie Proceedings of the National Academy of Sciences. Pracami zespołu kierował Jan Gläscher. Wspólnie akademicy analizowali dane 241 pacjentów z uszkodzeniami mózgu, którzy brali udział w testach na inteligencję. Miejsce uszkodzenia dokładnie oznaczono i skorelowano z ilorazem inteligencji. W ten sposób można było sporządzić mapę rejonów wpływających na inteligencję. Inteligencja ogólna, często odnoszona do czynnika g Charlesa Spearmana [ogólnej zdolności intelektualnej w jego dwuczynnikowej teorii inteligencji], to bardzo kontrowersyjny koncept, ale idea leżąca u jej podstawy jest bezdyskusyjna: przeważnie wyniki osiągane przez ludzi w wielu różnych testach są ze sobą skorelowane. Niektórzy osiągają generalnie wysokie wyniki, inni generalnie niskie. Stąd następne oczywiste pytanie – czy ta ogólna zdolność może zależeć od specyficznych obszarów mózgu? – dywaguje profesor Ralph Adolphs. Amerykanie i Hiszpanie stwierdzili, że nie rezyduje ona w pojedynczej strukturze, ale jest określana przez sieć regionów z obu półkul. Ku naszemu zaskoczeniu, jednym z głównych odkryć było, że mamy do czynienia z rozproszonym systemem. Najważniejsze dla inteligencji ogólnej okazały się liczne obszary oraz połączenia między nimi – tłumaczy Gläscher. Jak dodaje Adolphs, mogło się okazać, że inteligencja w ogóle nie zależy od specyficznych rejonów mózgu, ale od sposobu jego działania jako całości. Tak się jednak nie stało i potwierdziła się raczej przyjmowana obecnie teoria integracji ciemieniowo-czołowej, która głosi, że inteligencja ogólna zależy od zdolności mózgu do integrowania różnych rodzajów przetwarzania informacji, np. w ramach pamięci roboczej.
  13. Podczas gdy w mediach zajmujących się tematyką IT roi się od informacji na temat Windows Phone i opinii o nowym produkcie Microsoftu, znana dziennikarka Mary Jo Foley postanowiła zwrócić uwagę na to, czego o urządzeniu nie wiemy. Wciąż bez odpowiedzi pozostaje sporo pytań. Foley zauważa, że tak naprawdę nie wiadomo, kiedy będzie można kupić pierwsze urządzenia z nowym systemem. Dotychczas padały tylko enigmatyczne zapowiedzi "przed świętami". Kolejnym, bardzo ważnym pytaniem, jest czy Windows Phone pozwoli na uruchomienie wielu aplikacji jednocześnie. Microsoft krytykował konkurentów za to, że ich urządzenia nie są wielozadaniowe. Jednak podczas prezentacji Windows Phone ani razu nie wspominano o tym, by jego użytkownik był w stanie uruchomić kilka programów naraz. Przedstawiciele koncernu z Redmond poinformowali, że system korzysta z Internet Explorera bardziej zaawansowanego, niż jakakolwiek przeglądarka Microsoftu. Nie powiedzieli jednak, co to za wersja. Jak jednak moglibyśmy spodziewać się informacji o przeglądarce, skoro nie udzielono też zasadniczych odpowiedzi dotyczących samego systemu operacyjnego. Foley zauważa, że nie wiemy jak będzie się on nazywał i na jakim jądrze został oparty. Dziennikarka pyta wprost, czy jest to jądro Windows CE 6.0 R3 czy też jakieś starsze lub nowsze? Wciąż nie wiadomo też które z zapowiadanych przez Microsoft usług z rodziny Live będą standardowo dostarczane wraz z telefonem. Zabrakło też odniesienia się do pogłosek, które mówiły, że klient będzie mógł wybrać pomiędzy "biznesowym" a "konsumenckim" interfejsem użytkownika Windows Phone. Foley przypomina również, że menedżerowie Microsoftu nieoficjalnie zapowiadali, iż nowy system będzie aktualizowany bezprzewodowo i potrafi korzystać z technologii Silverlight. Jednak podczas oficjalnej prezentacji nie wspominano o tym. W końcu, nie wiemy też, czy w związku z pojawieniem się Windows Phone Microsoft nie zrezygnuje z produkcji odtwarzacza Zune HD, co stanie się z usługą My Phone czy Windows Marketplace for Mobile. Niewykluczone, że Microsoft celowo nie udzielił dotychczas odpowiedzi na te pytania. Do pojawienia się na rynku pierwszych urządzeń pozostało jeszcze sporo czasu i być może koncern nie chce przedwcześnie ujawniać swojej strategii działania na rynku telefonów komórkowych.
  14. Przemysłowi półprzewodnikowemu doszedł kolejny problem związany z koniecznością przełamywania kolejnych barier w miarę zmniejszania się poszczególnych elementów umieszczanych na krzemie. Tym razem nie chodzi o kłopoty związane z właściwościami materiałów czy odpowiednimi technikami produkcyjnymi. Z nieoficjalnych doniesień wynika, że Canon poinformował swoich partnerów, iż nie będzie więcej rozwijał nowoczesnych urządzeń litograficznych. Firma w 2007 roku zaprezentowała skaner to 193-nanometrowej litografii zanurzeniowej, jednak od tamtej pory udało się jej sprzedać tylko jedną tego typu maszynę. W związku z tym Canon ma zamiar skupić się na rozwoju maszyn do 248-nanometrowej litografii. Dla producentów układów scalonych może być to poważny problem. Wycofanie się Canona z rynku najbardziej zaawansowanych urządzeń może oznaczać, że już w niedalekiej przyszłości nowoczesne urządzenia do 193-nanometrowej litografii mogą zdrożeć nawet dwukrotnie i osiągnąć ceny rzędu 80-90 milionów dolarów za sztukę. Tyle będą musiały zapłacić firmy, które zechcą produkować kości w 22-nanometrowym procesie. Przejście na kolejny stopień zaawansowania technologicznego będzie zaś wymagało użycia narzędzi do pracy w ekstremalnie dalekim ultrafiolecie. Ich cena przekroczy 100 milionów USD. Canon od dawna jest obecny na rynku narzędzi litograficznych. Firma produkowała nieco mniej zaawansowane urządzenia, ale były one tańsze, niż to, co proponowała konkurencja. Wiele przedsiębiorstw produkujących półprzewodniki mogło dzięki Canonowi negocjować lepsze ceny u rynkowych liderów - ASML i Nikona. Canonowi nie udało się jednak przebić na rynku najbardziej zaawansowanych urządzeń i postanowił z niego zrezygnować. To oznacza, że ASML i Nikon pozostaną jedynymi dostawcami tego typu sprzętu. Część analityków twierdzi jednak, że decyzja Canona nie ma wpływu na rosnące ceny urządzeń. Przypominają, że w połowie lat 80. ubiegłego wieku, gdy przekraczano granicę 1000 nanometrów, ceny urządzeń wahały się w granicach 1 miliona dolarów. Wówczas o rynek ten konkurowali ASET, ASML, Canon, GCA, Eaton, Nikon, Perkin-Elmer, SVG i Ultratech. Jednak od tamtej pory amerykańscy producenci przestali istnieć i pozostał tylko holenderski ASML i japońskie Canon oraz Nikon. W 2008 roku średnia cena systemu do litografii zanurzeniowej firmy ASML wynosiła 42 miliony dolarów. Teraz trzeba zapłacić 45 milionów. Wraz z każdym etapem zmniejszania się procesu produkcyjnego, cena urządzeń rośnie o 50-70 procent. To oznacza, że coraz mniej producentów układów scalonych może pozwolić sobie na zakup najnowocześniejszych narzędzi i produkcję najnowocześniejszych układów scalonych. Wiadomo, że na zakup skanerów po 80 milionów USD za sztukę stać tylko Intela, Samsunga, TSMC i Toshibę. Bez Canona nie ma co liczyć na to, że ceny będą rosły wolniej.
  15. Konsumenci trafniej typują zdrowe produkty, jeśli przy ich oznaczaniu zastosowano system przypominający sygnalizację świetlną. Radzą sobie z tym lepiej niż z procentami, które odzwierciedlają, jaka część dziennej normy białek, tłuszczów itp. znalazła się w jednej porcji ciastek lub napoju. Na razie informacja o składzie i właściwościach odżywczych jest prezentowana chaotycznie. Nie ma standardowego podejścia, a różne kraje próbują sobie z tym radzić na własną rękę. Na niektórych towarach tabelkę umieszcza się z przodu opakowania, by była lepiej widoczna, lecz na części opakowań nie ma jej w ogóle. Dodatkowo sprawę komplikuje wielość systemów prezentowania danych na temat produktu. Kwestię tę, na szczęście wraz z rozwiązaniami, poruszono na Europejskim Kongresie Otyłości. Bridget Kelly, dietetyczka z Cancer Council w Nowej Południowej Walii, i jej zespół postanowili sprawdzić, jaki system oznaczania produktów jest najskuteczniejszy i najchętniej akceptowany przez konsumentów. Cztery warianty – dwa ze światłami i dwa z procentami - przetestowano na 790 Australijczykach. Chodziło o określenie ich preferencji i tego, do jakiego stopnia są w stanie porównać właściwości prozdrowotne fikcyjnych towarów żywnościowych. Pojedyncza osoba stykała się z jednym tylko typem etykietowania. Dzięki temu można było ocenić plusy i minusy każdego z nich, bez nakładania się oddziaływań pozostałych systemów oznaczania. W oznaczaniu na wzór sygnalizacji świetlnej zawartość soli, cukru, tłuszczów nasyconych i tłuszczów ogółem określano kolorami. Opierając się na ilości składnika i jego wpływie na zdrowie, każdej kategorii przypisywano zieloną, żółtą lub czerwoną kropkę. W drugim z wariantów pojawiała się dodatkowa kropka, będąca uśrednioną oceną produktu. W wariantach procentowych uczestnicy eksperymentu mogli sprawdzić, jaką część dziennego zapotrzebowania na kluczowe składniki odżywcze stanowi pojedyncza porcja produktu. Okazało się, że konsumenci woleli, by wszystkie towary były oznaczane jednakowo. Osoby, które zetknęły się z systemem kolorowych kropek, identyfikowały zdrowe produkty 5-krotnie częściej od ludzi oglądających jednokolorowe dane procentowe i 3-krotnie częściej od badanych testujących dane procentowe w kolorach. System kolorowych kropek warto zatem wprowadzić nie tylko w sklepach, ale także w restauracjach. W przyszłości zespół Kelly przekona się, czy opisana metoda etykietowania sprawdzi się w innych krajach, ale najprawdopodobniej tak.
  16. Stephen Cox i Jake Newman z University of East Anglia opracowali system, który jest w stanie na podstawie ruchu ust ustalić, jakim językiem posługuje się mówiący. Prace nad komputerami odczytującymi ruch warg trwają od dawna, po raz pierwszy jednak maszyna potrafi rozróżnić języki. Wspomniana technologia została opracowana dzięki modelowaniu i statystycznym badaniom ruchów warg u 23 osób, z których każda posługiwała się płynnie dwoma lub trzema językami. Maszyna potrafi odróżnić angielski, francuski, arabski, niemiecki, mandaryński, polski, włoski, kantoński i rosyjski. Tego typu systemy przydadzą się osobom głuchym, policji czy osobom pracującym w bardzo hałaśliwych warunkach. Wynalazek Coksa i Newmana ma zostać zaprezentowany dzisiaj na konferencji na Tajwanie. W przyszłości system ma zostać udoskonalony tak, by brał pod uwagę różnice pomiędzy poszczególnymi osobami.
  17. Lars-Erik Björklund, doktorant z Uniwersytetu w Linkoping, badał neurobiologiczne podłoże intuicji. Wg niego, możemy przeczuwać, co wydarzy się w przyszłości, ponieważ otrzymujemy i analizujemy wrażenia zmysłowe zarówno na poziomie świadomym, jak i nieświadomym. Po przejrzeniu literatury przedmiotu Szwed doszedł do wniosku, że przechowywane w podświadomości obrazy i wspomnienia wcześniejszych doświadczeń pozwalają przypuszczać, co się stanie w przyszłości w podobnych okolicznościach. Efekty działania tego mechanizmu zwykliśmy właśnie uznawać za intuicję. Intuicję, nazywaną często milczącą wiedzą, trudno poddać pomiarom, dlatego często naukowcy zaprzeczają jej istnieniu. Doktorant postanowił znaleźć odpowiedź na pytanie, czemu ludzie, którzy pracują w zawodzie od dawna, osiągają mistrzostwo. Dlaczego, co wykazały eksperymenty z lat 80., pielęgniarki z długoletnim stażem widzą więcej i szybciej oceniają sytuację. Wydawałoby się, że sprawa jest oczywista, ale jak dotąd nie zaproponowano zadowalającego wyjaśnienia. Praktyka czyni mistrza, ale na jakich zasadach? Czy chodzi o automatyzację czynności, odpowiednie segregowanie przychodzących danych, a może o coś zupełnie innego? Parę lat temu neurolodzy odkryli, że w ludzkim mózgu działają dwa systemy odbierania i analizy informacji dostarczanych przez zmysły: nieświadomy i świadomy. W ramach podświadomego dane są porównywane z wcześniejszymi doświadczeniami. Im więcej ich zgromadzimy, tym większa szansa, że aktualne wydarzenia (obraz, smak, zapach, coś nieuchwytnego, kombinacja sygnałów itp.) uruchomią intuicję, bo z czymś się skojarzą. Dysponujemy wspomnieniami, które muszą zostać wypełnione wrażeniami zmysłowymi. Wspomnienia te tworzą się jednak tylko wtedy, gdy coś nas dotyczy. Zaangażowanie jest więc warunkiem koniecznym. Intuicji nie da się nauczyć z książek, konieczna jest praktyka. To dlatego nauczyciel bez dyplomu, ale z 10-letnim doświadczeniem może osiągać lepsze rezultaty od świeżo upieczonego absolwenta pedagogiki. Björklund nie zamierza zachęcać do obcięcia liczby godzin zajęć teoretycznych dla inżynierów, nauczycieli czy lekarzy. Zamiast tego uważa, że powinno się rozszerzyć część praktyczną. Musimy widzieć, czuć, także węchem, słyszeć i smakować, jednym słowem: wykorzystywać wszystkie nasze zmysły. Takiej kolekcji danych nie da się zastąpić studiowaniem książek. W dzisiejszych czasach doświadczenie jest niedoceniane. Prawdopodobnie dlatego, że nie zrozumieliśmy tego typu milczącej wiedzy. Teraz, dzięki badaczom mózgu, wszystko się wyjaśniło.
  18. Naukowcy z Georgia Institute of Technology we współpracy ze specjalistami Google’a badają nową, niewykrywalną technikę ataku. Pozwala ona cyberprzestępcom zdecydować, jakie witryny odwiedza internauta. Dokładne raport z wynikami badań zostanie opublikowany w lutym. Już teraz wiadomo, ze chodzi o wykorzystanie otwartych rekursywnych serwerów DNS. Specjaliści oceniają, że w Sieci znajduje się około 17 milionów tego typu serwerów. Komputery korzystają z serwerów DNS wówczas, gdy np. wpiszemy do przeglądarki adres www.kopalniawiedzy.pl. Nasz pecet zapyta wówczas serwera DNS o numer IP naszego serwisu i otrzyma odpowiedź, że jest to 78.46.34.8. Otwarte rekursywne serwery DNS są, w przeciwieństwie do innych typów DNS, skonfigurowane tak, żeby odpowiadały na zapytania z każdego komputera. To czyni je szczególnie przydatnymi dla cyberprzestępców. Specjaliści z Georgia Tech i Google’a oceniają, że 0,4%, czyli 68 000, otwartych rekursywnych DNS-ów zwraca fałszywe wyniki. Istnieją też poważne wątpliwości co do 2% innych serwerów, które mogą zwracać nieprawdziwe wyniki. Oznacza to, ze w Sieci istnieje kilkaset tysięcy serwerów DNS, które mogą kierować użytkownika na niewłaściwe strony. Mogą one być np. skonfigurowane w ten sposób, że na pytanie o jakikolwiek adres, nieważne czy będzie to www.kopalniawiedzy.pl czy www.google.com, skierują użytkownika na witrynę, która będzie próbowała zainstalować szkodliwe oprogramowanie, czy zasypie nas reklamami. Ataki na serwery DNS nie są niczym nowym, jednak ostatnio bardzo się rozpowszechniły, a cyberprzestępcy opracowali nową, bardzo skuteczną technikę ataku. Specjaliści przedstawiają teoretyczny scenariusz takiego ataku. Wystarczy by ofiara odwiedziła szkodliwą witrynę lub otworzyła szkodliwy załącznik, który wykorzysta dziurę w jej komputerze. Wystarczy wówczas, że zostanie zmieniona niewielka część rejestru systemu Windows, a zarażony komputer zawsze będzie korzystał ze wskazanego przez przestępców serwera DNS. Gdy już to się stanie, internauta może być zwykle kierowany na prawdziwe strony internetowe. Jednak w wybranym momencie, np. gdy będzie chciał skorzystać ze swojego banku, zostanie przekierowany na witrynę fałszywego banku, dzięki czemu cyberprzestępcy zdobędą wszelkie dane dotyczącego jego konta i dostępu do niego. Jako że atak zostanie przeprowadzony na poziomie serwera DNS, systemy antyphishingowe nie ostrzegą użytkownika o przeprowadzonym ataku. Eksperci mówią, że w ciągu najbliższych miesięcy powinniśmy spodziewać się wzrostu tego typu ataków. Już w tej chwili w Sieci istnieje co najmniej 2100 witryn WWW, które próbują zarazić komputery internautów szkodliwym kodem.
  19. Naukowcy z Uniwersytetu w Manchesterze skonstruowali wirtualny świat komputerowy do testowania zdolności telepatycznych. W eksperymencie weźmie udział ok. 100 osób. Naukowcy chcą również sprawdzić, czy i jak zmieniają się zdolności telepatyczne w zależności od rodzaju relacji łączącej uczestników. Parą mogą być przyjaciele, koledzy z pracy albo członkowie rodziny (żona i mąż). Są oni umieszczani w pokojach znajdujących się na różnych piętrach tego samego budynku, aby wykluczyć możliwość porozumiewania się. Uczestnicy badania "wchodzą" w wirtualny świat za pomocą elektronicznej rękawicy (umożliwia im ona poruszanie się po komputerowo generowanej rzeczywistości) oraz umieszczanego na głowie wyświetlacza 3D. Jedna osoba widzi losowo wybrany przedmiot (parasolkę, piłkę lub telefon). Musi się na nim skoncentrować i badać go. W tym samym czasie jej partnerowi prezentowany jest ten sam przedmiot, lecz w otoczeniu trzech innych rzeczy. Zadanie polega na wskazaniu przedmiotu, który "przesyła" myślami telepata. System komputerowy został zaprojektowany przez doktora Craiga Murraya ze Szkoły Nauk Psychologicznych, a zaimplementowali go Toby Howard oraz doktor Fabrice Caillette ze Szkoły Nauk Komputerowych. Howard wyjaśnia, że poprzez wykreowanie wirtualnego środowiska stworzono całkowicie obiektywne warunki, które uniemożliwiły uczestnikom eksperymentu wysyłanie sygnałów lub nieświadomych wskazówek, jakie obiekty wybrali. System zaprojektowano tak, by był jak najbardziej rzeczywisty. Wolontariusze nie tylko widzą przedmioty, ale słyszą wydawane przez nie dźwięki. Mogą również nosić je ze sobą po wirtualnym świecie. Jeden z badaczy, David Wilde, zauważa: poprzez wykorzystanie tej technologii zamierzamy zdobyć jak najbardziej obiektywne dane dotyczące telepatii. Naszym zamiarem nie jest wykazanie istnienia bądź nieistnienia telepatii, ale stworzenie eksperymentalnej metody, która podlegałaby naukowemu nadzorowi.
×
×
  • Dodaj nową pozycję...