Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'algorytm'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 17 results

  1. Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej. Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015. Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng. Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka. Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu. Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia. « powrót do artykułu
  2. Przed czterema laty informowaliśmy, że na University of Oxford powstaje oprogramowanie, która na podstawie wyglądu twarzy ma rozpoznawać rzadkie choroby genetyczne i zdiagnozowało zespół Marfana u prezydenta Lincona. Nie tylko jednak Brytyjczycy pracują nad takim oprogramowaniem. W najnowszym numerze Nature Medicine opisano aplikację Face2Gene. Wykorzystuje ona algorytmy maszynowego uczenia się oraz sieci neuronowe do klasyfikowania charakterystycznych ech twarzy świadczących o zaburzeniach rozwoju płodowego i układu nerwowego. Aplikacja na podstawie zdjęcia stawia prawdopodobną diagnozę i wymienia inne, mniej prawdopodobne. Autorem oprogramowania jest firma FDNA z Bostonu. Jej specjaliści najpierw nauczyli aplikację odróżniać zespół Cornelii de Lange i zespół Angelmana, które przejawiają się charakterystycznymi cechami twarzy, od innych podobnych schorzeń. Nauczyli go też klasyfikowania różnych form genetycznych syndromu Noonana. Następnie algorytmowi dano dostęp do ponad 17 000 zdjęć zdiagnozowanych przypadków obejmujących 216 schorzeń. Gdy następnie oprogramowanie miało do czynienia z zupełnie nową fotografią, potrafiło z 65-procentowym prawdopodobieństwem postawić prawidłową diagnozę. Gdy zaś mogło podjąć kilka prób, odsetek prawidłowych diagnoz zwiększał się do 90%. FDNA chce udoskonalić swoją technologię, jednak w tym celu potrzebuje dostępu do większej ilości danych. Dlatego też Face2Gene jest bezpłatnie dostępna dla lekarzy i badaczy, którzy wykorzystują ten system do pomocy w diagnostyce rzadkich schorzeń genetycznych. Korzystają z niego też lekarze, którzy nie mają punktu zaczepienie i w ogóle nie potrafią wstępnie zdiagnozować pacjenta. Współautorka artykułu na temat Face2Gene, Karen Gripp, jest genetykiem w szpitalu dziecięcym w stanie Delaware i głównym lekarzem w firmie FDNA. Mówi ona, że algorytm pomógł jej w zdiagnozowaniu dziewczynki, którą leczy od sierpnia. Dzięki niemu doktor Gripp stwierdziła, że dziecko cierpi na zespół Wiedemanna-Steinera. Czterolatka nie ma zbyt wielu cech charakterystycznych tej choroby. Jest niska jak na swój wiek, straciła większość zębów mlecznych i zaczęły jej rosną stałe zęby. Gripp postawiła wstępną diagnozę, a następnie zaprzęgła do pracy Face2Gene. Zespół Wiedemanna-Steinera, bardzo rzadkie schorzenie spowodowane mutacją genu KTM2A, został przez aplikację wymieniony na czele listy prawdopodobnych schorzeń. Badania DNA potwierdziły diagnozę. Uczona mówi, że dzięki aplikacji mogła zawęzić liczbę potencjalnych chorób i uniknąć konieczności znacznie droższego szeroko zakrojonego badania DNA. Face2Gene powoli staje się coraz doskonalszy. Obecnie program ma do dyspozycji już 150 000 fotografii na podstawie których się uczy. W sierpniu, podczas warsztatów dotyczących wad genetycznych przeprowadzono nieoficjalne porównanie algorytmu i lekarzy. Wzięło w nim udział 49 genetyków klinicznych. Ludzie i algorytm mieli do dyspozycji 10 zdjęć dzieci z dość dobrze rozpoznawalnymi cechami charakterystycznymi różnych chorób. Tylko w przypadku dwóch fotografii dobrą diagnozę postawiło ponad 50% ludzi. Face2Gene dobrze zdiagnozował 7 na 10 przypadków. Polegliśmy całkowicie. Face2Gene był niesamowity, mówi Paul Kruszka, genetyk z US National Human Genome Research Institute. Jego zdaniem już wkrótce każdy pediatra i genetyk będzie miał tego typu aplikację i używał jej równie często jak stetoskopu. « powrót do artykułu
  3. Tim Sweeney, założyciel firmy Epic Games stwierdził podczas zakończonej właśnie konferencji DICE Summit, jeszcze za naszego życia doczekamy fotorealistycznych gier 3D renderowanych w czasie rzeczywistym. Sweeney zauważył, że każde kolejne udoskonalenie techniczne pojawiające się w grach od Ponga po Crisis wiedzie nas ku takim właśnie grom. Granicę fotorealizmu wyznaczają możliwości ludzkiego oka. Organ ten jest w stanie przetworzyć 30-megapikselowy obraz z prędkością około 70 klatek na sekundę. Zdaniem Sweeneya, żeby oddać wszelkie subtelności obrazu, gry światła, interakcje poszczególnych elementów wirtualnego świata, by stworzyć w czasie rzeczywistym fotorealistyczną trójwymiarową scenę potrzebna jest moc obliczeniowa rzędu 5000 teraflopsów. Tymczasem obecnie najbardziej wydajne karty graficzne oferują 2,5 teraflopsa. Przepaść jest ogromna, jednak wystarczy uświadomić sobie, że w 1993 roku gdy na rynek trafiła gra Doom, wiele osób nie mogło z niej skorzystać, gdyż wymagała ona od karty graficznej mocy rzędu 10 megaflopsów. Różnica pomiędzy wydajnością ówczesnych kart graficznych, a kart używanych obecnie, jest zatem znacznie większa, niż pomiędzy dzisiejszymi kartami, a urządzeniami, jakich będziemy potrzebowali w przyszłości. Oczywiście moc obliczeniowa to nie wszystko. Wciąż bowiem nie istnieją algorytmy, które pozwoliłyby na realistyczne odwzorowanie wielu elementów. Specjaliści potrafią stworzyć realistyczny model skóry, dymu czy wody, jednak wciąż poza naszymi możliwościami jest stworzenie dokładnych modeli ludzkiego ruchu czy mowy. Nie mamy algorytmów, więc nawet gdybyśmy już dzisiaj dysponowali doskonałym komputerem ograniczałaby nas nie jego moc obliczeniowa, a nasze umiejętności tworzenia algorytmów - mówi Sweeney.
  4. Co znajduje się na zapadających w pamięć zdjęciach? Choć widoki są ładne, to nie one znajdują się na pierwszym miejscu w tej kategorii. Podczas badań pierwsze miejsce zajęły bowiem fotografie ludzi, a za nimi uplasowały się ujęcia wnętrz oraz obiektów wielkości człowieka. Przyjemność dla oka i zapamiętywalność to nie to samo – tłumaczy Phillip Isola z MIT-u. Dotąd sądzono, że zapamiętywalność obrazu jest czymś niedostępnym dla nauki, ponieważ pamięć wzrokowa bywa bardzo subiektywna. Ludzie sądzą, że nie można znaleźć niczego spójnego – dodaje prof. Aude Oliva. Po badaniach na setkach ludzi amerykański zespół udowodnił jednak, że można tu wykryć pewne prawidłowości. Zgodność ochotników była wręcz zadziwiająca. Bazując na uzyskanych wynikach, naukowcy opracowali komputerowy algorytm, który może uszeregować zdjęcia według ich zapadalności w pamięć. Podczas wcześniejszych studiów Oliva wykazała, że ludzki mózg może zapamiętać z dość drobnymi szczegółami tysiące obrazów. Nietrudno jednak stwierdzić, że nie wszystkie są zapamiętywane równie dobrze. Na potrzeby badań zespół z MIT-u stworzył kolekcję 10 tys. różnorodnych zdjęć. Wykorzystano program Amazona Mechanical Turk, który pozwala, by ludzie wykonywali różne zadania na własnych komputerach. Ochotnikom pokazano serię zdjęć. Część z nich się powtarzała. Wyświetlenie widzianej wcześniej fotografii należało zasygnalizować naciśnięciem guzika. Zapamiętywalność każdego zdjęcia określano, wyliczając, ile osób poprawnie rozpoznało je jako znane. Na końcu zespół Olivy poprosił wolontariuszy o stworzenie "mapy zapamiętywalności" każdego zdjęcia. Należało oznaczyć wszystkie obiekty na fotografii. Komputer analizował mapy, by określić, jakie obiekty/cechy (barwy, rozmieszczenie krawędzi itp.) sprawiają, że obraz zapada w pamięć. Choć pojawiły się, oczywiście, różnice indywidualne, ogólnie najlepiej zapamiętywano zdjęcia ludzi, a w dalszej kolejności przestrzeni dopasowanej wielkością do człowieka, np. alejek w sklepach, oraz zbliżenia obiektów. Najgorzej zapamiętywano krajobrazy, chyba że zawierały jakiś zaskakujący element, np. niecodziennie przycięty krzew czy kolorową rzeźbę. Komu przyda się wspomniany wcześniej algorytm? Wykorzystają go zapewne graficy czy osoby pracujące nad okładkami książek i magazynów. Isola myśli też nad stworzeniem aplikacji na iPhone'a, która od razu po zrobieniu zdjęcia informowałaby użytkownika, do jakiego stopnia jest ono zapamiętywalne. Nie można też zapominać o zastosowaniach klinicznych i badaniu np. deficytów pamięci wzrokowej w przebiegu różnych chorób.
  5. Przed dwoma tygodniami Google dokonało jednej z największych zmian w swoim algorytmie wyszukiwania. Zmiany te odbijają się już na finansach tysięcy przedsiębiorstw, zwiększając dochody jednych i zmniejszając innych. Wpływ Google'a na gospodarkę najlepiej oddaje to, czego obecnie doświadczają liczne firmy działające przede wszystkim w internecie. Na przykład Online Publishers Association, organizacja zrzeszająca wiele z największych światowych koncernów (w tym np. CNN) informuje, że dzięki zmianom w Google'u jej członkowie zarobią w ciągu roku dodatkowy miliard dolarów. Z kolei firma Mahalo.com zwolniła 10% pracowników z powodu "znacznego spadku ruchu i wpływów". Przesunięcie witryny na wysokie pozycje w wynikach wyszukiwania ma olbrzymi wpływ na liczbę odwiedzających ją osób. Zdaniem Adama Dunna, dyrektora ds. SEO w Greenlight Search, aż 20-30% osób klika na pierwszy wynik w wyszukiwarce. Znalezienie się na drugim lub trzecim miejscu oznacza dla firmy przyciągnięcie uwagi 5-10% osób wyszukujących dany termin. Dalsze pozycje przyciągają mniej niż 1% odwiedzających. To oznacza, że np. witryna, która przed zmianą algorytmu była pokazywana jako pierwsza, a po jego zmianie spadła na czwartą pozycję, zanotuje olbrzymi spadek liczby odwiedzin. Zmiany algorytmu najbardziej dotknęły tzw. content farms, czyli witryny, które gromadzą treści innych stron. Jak twierdzi firma Sistrix, na takich witrynach ruch zmniejszył się o ponad 75%. Jednak nie wszędzie takie zmiany zaszły. Mahalo.com, Wisegeek.com czy należący do Yahoo! Associated Content zanotowały olbrzymie spadki. Tymczasem Demand Media, jedna z najbardziej krytykowanych content farms, nie zanotowała większych zmian, a na jednej z jej witryn - eHow.com - pojawiło się nawet więcej odwiedzających. Google twierdzi, że najwięcej na zmianach skorzystały witryny oferujące treści wysokiej jakości, czyli informacje nt. badań naukowych, dogłębne analizy itp.. I rzeczywiście. Członkowie OPA już w ciągu pierwszej doby zauważyli wzrost ruchu o 5-50 procent. Wyszukiwarkowy koncern zapewnia, że zmiany są dobre dla konsumentów, internetu i twórców treści wysokiej jakości. Jednak najwyraźniej nie wszystko poszło po myśli Google'a. Max Spankie, twórca witryny My3cents.com informuje, że stracił znaczną część użytkowników. Jego witryna umożliwia konsumentom pozostawianie recenzji i opinii na temat towarów i usług. W przeciwieństwie do witryn, które po zmianie algorytmu znalazły się wyżej niż strona Spankiego, My3cents.com moderuje wszystkie opinie i jest bardzo poważana. Amerykańska Federacja Konsumentów uznała ją za najlepszą tego typu witrynę w USA, a z My3cents.com korzystają setki firm, które dzięki witrynie kontaktują się z niezadowolonymi klientami i wyjaśniają spory. Myślę, że coś zrobili źle. Ciężko pracowaliśmy, by stworzyć witrynę najwyższej jakości, a teraz wygrywają z nami strony, które o jakość nie dbają - mówi Spankie. Problemy zauważył też Morris Rosenthal, autor podręczników nt. naprawy laptopów. Mówi, że po zmianie algorytmu gdy wyszukujemy jego książkę "Laptop Repair Workbook" na pierwszym miejscu znajdziemy sklep Amazona, w którym jest sprzedawana, jednak już na drugiej pozycji jest witryna, która pozwala na jej nielegalne pobranie. Osoby takie jak Spankie czy Rosenthal nie są, na szczęście, pozostawione same sobie. Właściciele witryn, który uważają, że niesprawiedliwie ucierpieli na zmianie algorytmu, mogą o tym poinformować Google'a na firmowym forum. Co prawda żadne ręczne zmiany w wynikach wyszukiwania nie zostaną wprowadzone, jednak jeśli skarga będzie zasadna, Google może poprawić swój algorytm tak, by wartościowa witryna znalazła się na wyższych pozycjach listy wyszukiwania. To system przewidujący, że jesteś winny, póki nie udowodnisz niewinności - mówi Rosenthal i dodaje, że Google nie udostępniło żadnej opcji dwustronnej komunikacji, która pozwoliłaby na wyjaśnienie wątpliwości.
  6. Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z naturą. Owad wykorzystuje niewielkie podobne do włosków struktury do odbierania bodźców zewnętrznych, a struktury te są zorganizowane w sposób jednocześnie niezwykle prosty i niezwykle efektywny. To tak proste i intuicyjne rozwiązanie, że nie mogę uwierzyć, iż ludzie nie wpadli na to już 25 lat temu - mówi matematyk i informatyk z Tel Awiwu, Noga Alon. Poznanie sposobu organizacji połączeń pomiędzy wspomnianymi strukturami przyczyni się do stworzenia doskonalszych sieci i programów komputerowych oraz sieci czujników. Już teraz wiadomo, że komórki nerwowe tworzące połączenia u muszki owocówki zorganizowały się w ten sposób, że część z nich to liderzy mający połączenie z każdą inną komórką. W podobny sposób zorganizowane są komputerowe sieci rozproszone, od takich umożliwiających przeszukiwanie internetu po te sterujące samolotem podczas lotu. Jednak tym, co wprawiło naukowców w zdumienie jest fakt, że u muszek owocówek organizacja tych sieci jest znacznie prostsza, bardziej wydajna i odporna na zakłócenia niż wszystko, co wymyślił człowiek. Uczeni wykorzystali zdobytą wiedzę do stworzenia nowego algorytmu działania sieci rozproszonych. Podczas jego testów odkryli, że jest on szczególnie przydatny do sieci, w których liczba węzłów i ich położenie nie są całkowicie pewne. Algorytm taki świetnie sprawdzi się w zarządzaniu np. sieciami rozproszonych w wodzie czujników czy też do dużymi grupami robotów. Naukowcy od dawna używają modeli komputerowych i matematycznych do analizowania systemów biologicznych. Tutaj zastosowaliśmy odwrotną strategię i studiujemy system biologiczny, by rozwiązać problem z dziedziny informatyki - mówi Zvi Bar-Joseph z Carnegie Mellon University. Badanie połączeń nerwowych muszki owocówki pozwoli na rozwiązanie jednego z bardzo istotnych problemów matematyczno-informatycznych. Obecnie rozległe sieci komputerowe korzystają z przetwarzania rozproszonego. Tysiące czy miliony procesorów wspólnie pracują nad rozwiązaniem tego samego problemu, żaden z nich nie ma kompletnej wiedzy o tym, co jest przetwarzane, a całość musi pracować pomimo błędów czy awarii występujących w pojedynczych elementach. Aby taki system działał konieczne jest wyznaczenie procesorów-liderów, które będą w stanie szybko komunikować się z innymi procesorami sieci. W teorii grafów nazywa się to maksymalnym zbiorem niezależnym (MIS). Każdy z procesorów w sieci jest albo liderem, członkiem MIS, albo też jest połączony z liderem. Natomiast liderzy nie są ze sobą bezpośrednio połączeni. Eksperci od 30 lat poszukują najlepszego sposobu nad optymalnym wyznaczanie przez sieć elementów, które powinny należeć do MIS. Obecnie najczęściej stosuje się metodę probabilistyczną, w której procesory samodzielnie przejmują rolę liderów na podstawie liczby bezpośrednich połączeń, które mają z innymi procesorami. W każdej rundzie wykonywania algorytmu dochodzi do ponownego wybrania liderów na podstawie liczby połączeń. Liderzy wybierani są błyskawicznie, jednak cały proces związany jest z wysyłaniem olbrzymiej liczby dodatkowych informacji oraz wymaga od procesorów, by z wyprzedzeniem znały liczbę przypadających nań połączeń. To stanowi olbrzymi problem w przypadku sieci bezprzewodowych czujników, których położenie może być przypadkowe, a połączenia między nimi nie są im znane, gdyż nie każdy czujnik będzie znajdował się w zasięgu każdego innego czujnika. Naukowcy odkryli, że u muszki owocówki, już podczas jej rozwoju, wybierane są komórki nerwowe, które będą liderami. Jednak, w przeciwieństwie do opisanych powyżej procesorów, komórki nie mają informacji o połączeniach z innymi. Komórki, które same wybrały się na liderów, wysyłają po prostu sygnały, które powodują, że bezpośrednio połączone z nimi komórki nie zostają liderami. Taki proces trwa zaledwie trzy godziny i w tym czasie zostają ustaleni liderzy i podlegające im komórki. Bar-Joseph zauważa, że u muszki prawdopodobieństwo, iż komórka zostanie liderem nie jest - jak w przypadku sieci procesorów - funkcją liczby połączeń, ale funkcją czasu. To oznacza, że komórki nie muszą z wyprzedzeniem znać liczby połączeń, a komunikacja pomiędzy nimi jest maksymalnie uproszczona. Badania algorytmu zbudowanego dzięki badaniu owadów wykazały, że działa on nieco wolniej od obecnie używanych, ale jest za to bardziej wydajny i odporny na zakłócenia.
  7. Nasz mózg jest cały czas aktywny. Jego fale zmieniają się, co może przywodzić na myśl przejścia w utworze muzycznym. Kiedy Mick Grierson z londyńskiego Goldsmiths College stworzył program, który pozwala komputerowi przełożyć zapis EEG na nuty i dźwięki, powstał zatem zupełnie nowy rodzaj muzyki – muzyka umysłu (Music of the Mind). Obecnie nad projektem pracują już trzej panowie. Choć Griersonowi nie udało się uzyskać idealnego przełożenia fal mózgowych na dźwięki, pomysł spodobał się Finnowi Petersowi – kompozytorowi, fleciście, saksofoniście i producentowi. Z duetem współpracuje też Mattew Yee-King, informatyk, dla którego każdy człowiek jest w pewnym sensie dyrygentem. Peters utrwalił aktywność swojego mózgu w kilku sytuacjach, np. podczas snu, w stanie znudzenia czy w złości. Dane wprowadzono do komputera i przetworzono, stosując różne algorytmy. Wycinając z całości zapisu interesujące fragmenty, muzyk uzyskał odtwarzany w tle motyw przewodni na syntezator, do którego improwizuje jego orkiestra. Trzeba przyznać, że jam session z wykorzystaniem wibrafonu, fletu, saksofonu, perkusji i puzonu brzmi naprawdę interesująco. Już wkrótce chętni będą mogli posłuchać wykładu i muzyki mózgu w stanowiącym część londyńskiego Muzeum Nauki Dana Centre. W październiku trio wyruszy na tournée po całej Wielkiej Brytanii. http://www.youtube.com/watch?v=epT16fbf4RM
  8. Dla człowieka układanie puzzli nie stanowi większego problemu, jednak dla komputera jest to prawdziwe wyzwanie. Zespół z Massachusetts Institute of Technology pracujący pod kierunkiem Taeg Sang Cho pobił właśnie rekord świata w układaniu puzzli przez komputer. Maszyna założyła obrazek składający się z 400 elementów. Poprzedni rekord - 320 puzzli - należał od 2008 roku do duńskiego zespołu. Jednak waga osiągnięcia naukowców z MIT-u to nie tylko 80 puzzli więcej. Komputer Duńczyków był w stanie układać puzzle ze sceną jak z filmu rysunkowego, z bardzo dobrze wyznaczonymi kształtami i o ograniczonej liczbie kolorów. Amerykański algorytm układa dowolny obrazek. Uczeni z MIT-u podzielili 5-megabajtowy obraz na 400 części. Następnie komputer rozpoczął analizę kolorów, by określić, co może przedstawiać oryginał. Po analizie porównywał kolorystykę z obrazami z bazy danych. Dzięki temu mógł określić, że np. jeśli dominują kolory błękitny, zielony i szary, to oryginalny obraz przedstawia krajobraz z niebem i roślinnością. Komputer analizował też kolory na krawędziach puzzli, by określić, które kawałki powinny ze sobą sąsiadować. Algorytm okazał się na tyle doskonały, że ułożył puzzle w ciągu 3 minut. Taeg Sang Cho ma nadzieję, że przyszłości podobne algorytmy ułatwią pracę z programami graficznymi. Przeciętny użytkownik np. Photoshopa będzie mógł przenieść obiekt z jednego końca grafiki na drugi, a komputer zajmie się dobraniem odpowiednich wartości kolorów czy nasycenia tak, by przeniesiony obiekt pasował do otoczenia. Pracę Amerykanów pochwalił Klaus Hansen, który był autorem poprzedniego rekordu. Stwierdził, że użyli oni bardzo interesującego algorytmu, a ponadto mieli trudniejsze zadanie niż on. Zespół z MIT-u nie podzielił bowiem swojego obrazka w nieregularne kształty tradycyjnych puzzli, tylko w identyczne kwadraty. To znacząco utrudniało odtworzenie grafiki.
  9. Jak pokazały badania przeprowadzone przez Massimo Francescheta z uniwersytetu w Udine, algorytmy podobne do Google PageRank zostały opracowane już w 1941 roku. Założyciele Google'a z pewnością zdawali sobie sprawę z tego, że podobne algorytmy istnieją, ale mogli nie wiedzieć, że liczą sobie one kilka dziesięcioleci. Franceschet postanowił zbadać historię algorytmów takich jak PageRank i dotarł do pracy ekonomisty Wasilija Leontiewa z 1941 roku. Leontiew, nota bene laureat Nagrody Nobla z 1973 roku, zaprezentował w niej metodę oceny wartości poszczególnych sektorów gospodarki narodowje. Aby ją wyliczyć uznał, że konieczne jest wzięcie pod uwagę faktu, iż każdy sektor jest zależny od materiałów dostarczanych mu przez inne sektory (wejście) oraz od rynków zbytu, które również znajdują się w innych sektorach (wyjście). Innymi słowy, jego wartość, podobnie jak wartość witryn ocenianych przez PageRank, zależy od powiązań z innymi. Witryny są oceniane przez Google'a m.in. na podstawie linków wychodzących i przychodzących. Z kolei w roku 1965, na podstawie metod wykorzystywanych w socjologii i biliotekoznawstwie, socjolog Charles Hubbell stworzył metodę oceny osób. Uznał bowiem, że dana osoba jest ważna o tyle, o ile jest uznawana za ważną przez ważnych ludzi. Już 11 lat później Gabriel Pinski i Francis Narin opracowali sposób oceny ważności gazet uznając, że ważniejsza jest ta, która jest częściej cytowana przez inne ważne gazety. Jeszcze bliższy naszym czasom jest algorytm Jona Kleinberga z Cornell University, na który zresztą powołują się Page i Brin w swoich dokumentach o Google PageRank. Kleinberg chciał stworzyć sposób na wiarygodne wyszukiwanie informacji w Sieci. Nazwał swój algorytm Hypertext Induced Topic Search (HITS) i uznał w nim witryny za "huby" i "autorytety". Jego metoda jest bardzo podobna do PageRank, ale trzeba podkreślić, że twórcy Google'a opracowali swoją niezależnie od prac Kleinberga.
  10. Igor Berezhnoy, doktorant z Uniwersytetu w Tilburgu, opracował algorytm komputerowy, który pozwala potwierdzić autentyczność obrazów Vincenta van Gogha. Falsyfikat od oryginału można odróżnić m.in. dzięki cechom pociągnięć pędzla. Informatyk sprawdzał, do jakiego stopnia programy analizy kolorystycznej przydają się podczas badania autentyczności dzieł sztuki. Swoje algorytmy przetestował na cyfrowych reprodukcjach van Gogha. Interesowało go też, czy i w jakim zakresie cechy warsztatowe, np. metoda prowadzenia pędzla, pozwalają ujawnić tożsamość twórcy. W projekcie wzięły udział Muzeum van Gogha i Kröller-Müller Museum. Podczas okresu francuskiego Vincent van Gogh posługiwał się barwami komplementarnymi (dopełniającymi), które na kole barw znajdują się po przeciwnych stronach, by uwydatnić kontury obiektów lub części sceny. Z tego powodu umieszczał obok siebie np. niebieski i żółty. Mając to na uwadze, Berezhnoy zaproponował nową metodę analizy cyfrowej – Metodę Ekstrakcji Barw Komplementarnych. Dzięki temu udało mu się zidentyfikować podstawowe wzorce kolorystyczne obrazów van Gogha. W przyszłości historycy sztuki będą się mogli posłużyć wynalazkiem podczas rozstrzygania sporów o autentyczność jakiegoś dzieła. Dodatkowo doktorant opracował Technikę Ekstrakcji Przeważającej Orientacji Przestrzennej Pociągnięć Pędzla. Udowodnił, że pozwala ona wskazać unikatowe cechy warsztatowe i tożsamość artysty. Eksperymenty potwierdziły, że obie metody Ukraińca są równie trafne, jak ekspertyzy fachowców.
  11. Zabawa w chowanego, gra w Half-Life 2 i praca policji mają ze sobą więcej wspólnego, niż mogłoby się wydawać. Dzięki badaniu metod ukrywania i szukania obiektów przez dorosłych, dotąd skupiano się raczej na dzieciach i zwierzętach, można ulepszyć zarówno środowiska wirtualne, jak i narzędzia stosowane przez organy ścigania. Psycholog Marcia Spetch i informatyk Vadim Bulitko z University of Alberta przeprowadzili kilkuetapowy eksperyment, w ramach którego dorośli ochotnicy szukali i ukrywali przedmioty w wirtualnym pomieszczeniu o wymiarach przypominających prawdziwy pokój. Okazało się, że szukając przedmiotów, ludzie mieli tendencję do skupiania się na obszarach w pobliżu punktu wyjścia. Gdy jednak sami ukrywali obiekty, odchodzili dalej od "startu" i starali się jak najbardziej rozproszyć przedmioty, by trudniej je było znaleźć. Kiedy role odwracano, działo się jednak coś ciekawego. Ludzie, którzy chwilę wcześniej ukrywali przedmioty, wykazywali skłonność do odchodzenia podczas poszukiwań dalej od punktu startowego, co pokrywa się ze stosowanymi powszechnie metodami chowania. Wygląda to tak, jakby chowanie przygotowało ich na to, w jakich miejscach rzeczy mogą być ukryte [zaszedł więc priming, czyli zwiększenie prawdopodobieństwa wykorzystania przez człowieka danej kategorii poznawczej poprzez wcześniejsze wystawienie go na działanie bodźca zaliczanego do konkretnej kategorii] - tłumaczy Spetch. Zrozumienie ludzkiego zachowania podczas chowania oraz motywacji czy wpływu różnych czynników, np. czasu, stresu lub wartości obiektu, pozwoli specjalistom dokładniej mapować i wyznaczać lepsze punkty ukrywania w każdej dowolnie wybranej przestrzeni. Skorzystają na tym m.in. gracze, ponieważ bazując na realnych strategiach, programiści będą potrafili schować obiekty w bardziej interesujących miejscach niż dotąd. Dodatkowo występujące w grach boty staną się w większym stopniu ludzkie, ponieważ "odziedziczą" nasze cechy i ograniczenia. Dla sterowanego przez komputer bota znalezienie ukrytych przez ludzi przedmiotów czy widzenie przez ściany jest proste. Wszystkie te ponadludzkie umiejętności można bez trudu zaimplementować, lecz gracze postrzegają to trochę jak oszukiwanie. Myślę, że pragną oni bardziej ludzkich postaci, które zachowują się jak my – przekonuje Bulitko. Aplikacja bazująca na odkrytych przez Kanadyjczyków algorytmach ukrywania i szukania mogłaby znaleźć zastosowanie w oprzyrządowaniu policyjnym, np. specjalnych goglach. Ograniczałyby one liczbę punktów, w których śledczy powinni szukać schowanych przez przestępców obiektów. Komputer rozpoznawałby punkty pokoju i sugerowałby coś w tym rodzaju: OK, sprawdź pod tą deską na podłodze. Spetch bardzo się cieszy, że podobne wyniki uzyskano w pomieszczeniach wirtualnym i rzeczywistym. Oznacza to, że w obu przypadkach ludzie podejmują identyczne decyzje przestrzenne.
  12. Niezależni kalifornijscy specjaliści ds. bezpieczeństwa, we współpracy z ekspertami z holenderskiego Centrum Wiskunde & Informatica (CWI), uniwersytetu technicznego w Eindhoven (TU/e) oraz szwajcarskiego EPFL odkryli lukę w powszechnie wykorzystywanych w Internecie cyfrowych certyfikatach. Dziura umożliwia takie podrobienie certyfikatu, że zostanie on zaakceptowany przez każdą przeglądarkę. Pozwala to atakującemu na przygotowanie witryny lub serwisu pocztowego, który bez najmniejszego problemu podszyje się pod prawdziwą stronę. Przestępca może wówczas niezauważenie dokonać ataku phishingowego. Eksperci poinformowali o swoim odkryciu podczas odbywającej się właśnie w Berlinie konferencji 25C3. Mają nadzieję, że dzięki ich ostrzeżeniu upowszechnią się bezpieczniejsze algorytmy. Mowa tutaj o sytuacji, gdy korzystamy z powszechnie stosowanego protokołu https. Przeglądarka informuje nas o tym fakcie wyświetlając zamkniętą kłódkę, co oznacza, że witryna, którą odwiedzamy, została zabezpieczona szyfrowanym certyfikatem. W takich wypadkach stosuje się kilka algorytmów, a jednym z najpowszechniejszych jest MD5. I to w nim właśnie znaleziono lukę. O pierwszych problemach z MD5 poinformowali Chińczycy w 2005 roku. Byli oni w stanie znaleźć kolizję dla tego algorytmu i przeprowadzić atak polegający na wysłaniu dwóch różnych wiadomości chronionych tym samym podpisem cyfrowym. Chińska metoda była jednak bardzo trudna do wykonania. W maju 2007 roku uczeni z CWI, EPFL i TU/e pokazali, że podczas podobnego ataku można wykorzystać dowolne wiadomości. Obecnie ci sami eksperci dowiedli, że możliwe jest podrobienie dowolnego certyfikatu tak, że zostanie on zaakceptowany przez wszystkie popularne przeglądarki internetowe. Co więcej, do podrobienia certyfikatu wystarczy moc obliczeniowa ponad 200 współczesnych konsoli do gier. Specjaliści zwracają uwagę, że połączenie podrobionego certyfikatu ze znanymi słabościami systemu DNS pozwala na przeprowadzenie niewykrywalnego ataku phishingowego. Może on polegać na przykład na przekierowaniu użytkowników online'owych banków na fałszywe witryny, które będą wyglądały identycznie jak witryny banków, a przedstawione przez nie certyfikaty bezpieczeństwa zostaną zaakceptowane. Użytkownik, wierząc, że odwiedza witrynę swojego banku, nieświadomie prześle przestępcom wszelkie informacje, które będą im potrzebne do skutecznego wyczyszczenia jego konta z pieniędzy. Wspomniani na wstępie specjaliści poinformowali już firmy produkujące popularne przeglądarki o problemie. Odkrywcy luki uważają, że instytucje wydające certyfikaty bezpieczeństwa powinny zrezygnować z używania MD5 i korzystać z innych algorytmów, takich jak np. SHA-2.
  13. Dzisiaj upływa termin składania propozycji nowej funkcji skrótu (Secure Hash Algorithm), służącej do zabezpieczania elektronicznych danych, na potrzeby amerykańskich agend rządowych. Nową funkcję, podobnie jak poprzednie SHA-1 i SHA-2 zamówił Narodowy Instytut Standardów i Technologii (NIST). Konkurs ogłoszono w ubiegłym roku, propozycje można składać do końca października 2008, ale nowa funkcja zostanie oficjalnie wybrana nie wcześniej niż w roku 2012. Obecnie używane funkcje SHA-1 i SHA-2 nie zostały złamane, jednak przeprowadzono już poważne ataki przeciwko nim. Wiadomo, że jedną z propozycji jest algorytm "Skein" opracowany przez Bruce'a Schneiera, Nielsa Fergusona, Stefana Lucksa, Douga Whitinga, Mihira Bellare'a, Tadayoshiego Kohno, Jona Callasa i Jesse Walkera. To znani specjaliści, którzy na codzień pracują w różnych miejscach, od Microsoftu, Intela i PGP, po Bauhaus-Universitata Weimar, BT Group, Hifn, University of California czy University of Washington. Skein to rodzina algorytmów o długości od 256 do 1024 bitów. Skein-256 jest przeznaczony dla mało wydajnych systemów komputerowych, a Skein-1024 ma trafić tam, gdzie wymagany jest największy poziom bezpieczeństwa. Wiadomo, że oprócz Skeina zgłoszono jeszcze około 40 innych projektów. W przyszłym roku NIST rozpocznie publiczną debatę nad propozycjami. Zakończy się ona w 2012 roku, kiedy to zostanie wyłoniony zwycięzca - algorytm, który zyska największe uznanie specjalistów z całego świata.
  14. Naukowcy z CSIRO Mathematical and Information Sciences w Sydney nawiązali współpracę z brytyjską firmą i stworzyli oprogramowanie, dzięki któremu z dużą dokładnością można policzyć włosy znajdujące się na danym fragmencie skóry. Wg nich, przyda się ono przy określaniu skuteczności zarówno zabiegów przywracających owłosienie (terapii łysienia), jak i polegających na pozbywaniu się go (depilacja). Do tej pory włosy, które przetrwały zabieg [depilacji], liczono ręcznie. To trudna praca, ponieważ część włosów można policzyć dwa razy, a innych nie policzyć w ogóle. Analiza obrazu daje duże korzyści, gdyż zawsze otrzymuje się ten sam wynik, w dodatku prawidłowy – cieszy się dr Pascal Vallotton. Oprogramowanie wykorzystuje obrazy uchwycone przez przyciskany do skóry skaner. Potrafi odróżnić włosy od zmarszczek, ran lub znamion. Może też porównywać zdjęcia wykonane wcześniej i później, co daje pewien wgląd w szybkość wzrostu włosów. By przetestować nowe oprogramowanie, trzeba się jednak było uciec do starych metod, czyli rachowania na piechotę. Inaczej nie dałoby się stwierdzić, jak precyzyjnie wykonuje ono swoje zadanie. Zgłosiło się 12 ochotników, przeważnie pracowników okolicznych laboratoriów. Przeliczono ich włosy, a aby się nie pomylić w rachubie, po kolei je odznaczano. Koniec końców okazało się, że zastosowanie matematycznego algorytmu i liczenia na piechotę daje porównywalne wyniki. Vallotton zaznacza, że australijsko-brytyjski wynalazek powinien znaleźć zastosowanie przy ocenie skuteczności leczenia łysienia, a także przy liczeniu innych niż włosy długich i cienkich obiektów, np. neuronów czy polimerów białkowych.
  15. Naukowcy z Brown University stworzyli program komputerowy, który, jako pierwszy w historii, potrafi dokładnie określić kształt ludzkiego ciała na podstawie zdjęć czy filmów. Program taki może znaleźć zastosowanie w wielu dziedzinach życia. Przyda się firmom odzieżowym, przemysłowi filmowemu, medycynie sportowej czy policji. Na podstawie filmu z kamery przemysłowej, na którym widać tylko postać ubraną w czapkę, szalik i długi płaszcz, program zdradzi policji, czy sprawcą przestępstwa była kobieta czy mężczyzna. Z kolei sklepy sprzedające odzież będą mogły udostępnić internautom możliwość wgrania swojego zdjęcia na witrynę i sprawdzenia, jak będziemy wyglądali w interesującym nas swetrze czy spódnicy. Może też czekać nas mała rewolucja w elektronicznej rozrywce. Niewykluczone bowiem, że gracz będzie w stanie umieścić w grze swoją własną wirtualną postac. Dotychczas stworzenie dokładnego trójwymiarowego obrazu ciała wymagało skanowania obrazu nagiej osoby. Teraz, dzięki pracom profesora Michaela Blacka i magistranta Alexandru Balana, możliwe będzie dokonanie tego samego na podstawie zdjęcia. Obaj naukowcy zauważyli, że dzięki różnym pozom, które człowiek przyjmuje np. podczas chodzenia, możliwe jest odgadnięcie jego kształtów. Najpierw wykonali 2400 szczegółowych laserowych skanów skąpo ubranych kobiet i mężczyzn. Dzięki temu dowiedzieli się, że różne pozycje zdradzają nasze kształty. Później udoskonalili algorytmy, ucząc komputer odróżniania fragmentów nagiej skóry. To umożliwiło dokładniejsze rozpoznawanie kształtów. Gdy się poruszam, moje ubranie zwisa luźno lub przylega do różnych części ciała. Każda z pozycji daje nam pewne informacje o kształcie poszczególnych części ciała. Analizując te pozycje, odgadujemy kształty - mówi Black.
  16. Ludzie zawsze szukają reguły pozwalającej na sensowne uporządkowanie zestawu danych. W przypadku komputerów trudno było odtworzyć tę umiejętność. W zetknięciu z obszernym zbiorem elementów maszyny nie wiedzą, gdzie zacząć, chyba że wyposażono je w algorytm, pozwalający na wyszukanie określonej struktury, np. hierarchicznej czy zestawu klastrów. Teraz Josh Tenenbaum z MIT i Charles Kemp z Carnegie Mellon stworzyli program, który umożliwia wybór najlepszej metody uporządkowania danych, bez z góry zadanego porządku (Proceedings of the National Academy of Science). Komputery mogą się już zachowywać jak my, ludzie, co według cybernetyków, znacznie przyspiesza prace nad sztuczną inteligencją. Dzięki rozbudowaniu algorytmu komputer bierze pod uwagę wszystkie możliwe struktury jednocześnie i porównuje, która z nich najlepiej pasuje do konkretnego zbioru danych. Prezentuje ją po zakończeniu analiz. Model Amerykanów ułatwi życie wielu naukowcom zmagającym się z natłokiem informacji oraz rzuci nieco światła na mechanizmy wykrywania porządku przez nasz mózg. Badacze uwzględnili szereg możliwych powiązań w obrębie danych, m.in. drzewo, schematy kołowe, hierarchię dominacji czy klastry. Ludzie cały czas nieświadomie klasyfikują dane. Tendencja ta znalazła wyraz w wielu odkryciach naukowych, m.in. w tablicy okresowej pierwiastków Dymitra Mendelejewa czy taksonomii Karola Linneusza. Tego typu zachowania zaczynamy przejawiać już we wczesnym dzieciństwie. Uporządkowujemy sobie świat, zaliczając przedmioty i istoty żywe do różnych kategorii, np. zwierząt, roślin, domów itp.
  17. Niemieccy naukowcy z Tybingi stworzyli algorytm komputerowy, który potrafi naśladować pewną specyficzną umiejętność nietoperza, a mianowicie zdolność klasyfikowania roślin za pomocą echolokacji (PLoS Computational Biology). Wbrew pozorom nie jest to proste, ponieważ rośliny generują złożone echo akustyczne. Powód? Mają wiele, w dodatku ułożonych pod różnymi kątami, liści i gałęzi. Do tej pory biolodzy nie wiedzieli, jak latającym ssakom udaje się ta sztuka. Nietoperze wykorzystują rośliny do dwóch celów: jako źródło pożywienia i punkty orientacyjne, pozwalające odnaleźć różne żerowiska. Yossi Yovel i Peter Stilz z Uniwersytetu w Tybindze oraz Hans Ulrich-Schnitzler i Matthias Franz z Instytutu Biologii Cybernetycznej Maxa Plancka wykorzystali sonar, który, podobnie jak nietoperz, emitował serie ultradźwięków. Badacze nagrywali tysiące ech powracających od żywych roślin należących do 5 gatunków. Algorytm, który analizował zmiany częstotliwości w czasie, potrafił rozpoznać roślinę z dużą trafnością. Naukowcy uważają, że program dostarczy też wskazówek, jakie cechy echa mogą być najbardziej zrozumiałe, a więc przydatne, dla nietoperzy. Niemcy cieszą się, że ich wynalazek pozwala lepiej zrozumieć nietoperze, nie ingerując przy tym w mózg zwierząt.
×
×
  • Create New...