Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.

W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.

Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.

Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.

Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.

Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.

Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.

Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.


« powrót do artykułu

Share this post


Link to post
Share on other sites

brzmi trochę jak sajenfikszyn ale z drugiej strony ...... w sumie mamy dziś tak silną technologię o jakiej w życiu byśmy nie pomyśleli. to co kiedys było tylko fikcja dzis jest realiami.

ale kurcze patrzeć na twarz i rozpoznawać choroby cycycycycyc ciężko to widzę.

Share this post


Link to post
Share on other sites

Po jakiego grzyba coś takiego?

 

Jeśli rodzice się martwią przed spłodzeniem dziecka, czy mają jakieś ciężkie wady genetyczne, to mogą sobie zamówić test genetyczny z różnymi markerami DNA.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Po jakiego grzyba coś takiego? Jeśli rodzice się martwią przed spłodzeniem dziecka, czy mają jakieś ciężkie wady genetyczne, to mogą sobie zamówić test genetyczny z różnymi markerami DNA.

 

no własnie... metoda sprawdzona i skuteczna przecież.

Share this post


Link to post
Share on other sites

A czemu, idąc tym tropem (za Lemem), nie stworzyć sobie odpowiedniego kodu genetycznego na dziecko? ;)

Share this post


Link to post
Share on other sites

Głównie dlatego, że JESZCZE nie umiemy ;)

Share this post


Link to post
Share on other sites

Wiem, dlatego w mojej odpowiedzi też jest: ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem.
      Procesor – serce komputera
      CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni.
      Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte.
      Chłodzenie procesora – istotna kwestia
      Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu.
      Kiedy warto zainwestować w wydajną kartę graficzną?
      Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę.
      Nośniki danych – rodzaj napędu ma spore znaczenie
      W tym przypadku rozróżniamy dwa główne typy nośników:
      •    HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy;
      •    SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów.
      Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dziennikarskie śledztwo przeprowadzone przez The Wall Street Journal wykazało, że Facebook podzielił użytkowników na kategorie i jednym pozwala na więcej niż innym. Wbrew temu, co twierdzą przedstawiciele serwisu, koncern nie stosuje tych samych zasad dla wszystkich. Znani użytkownicy platformy społecznościowej zostali zwolnieni z przestrzegania niektórych lub wszystkich jej zasad.
      Mowa tutaj o używanym przez Facebooka programie XCheck. Początkowo jego celem było zwiększenie jakości kontroli nad przestrzeganiem zasad Facebooka przez znanych posiadaczy kont w serwisie. XCheck zajmował się celebrytami, politykami czy dziennikarzami. Jednak z czasem przerodził się on w parasol ochronny nad kilkoma milionami wybranych kont. Niektóre z tych kont są wyłączone spod jakiejkolwiek kontroli zasad przestrzegania standardów Facebooka inne zaś mogą publikować materiały, za które zwykli użytkownicy są upominani czy blokowani.
      Z dokumentów, do których dostęp uzyskali dziennikarze, wynika, że w 2019 roku wykonany przez Facebooka poufny wewnętrzny audyt wykazał istnienie problemu. Nie robimy tego, o czym publicznie zapewniamy. Ci ludzie, w przeciwieństwie do całej reszty, mogą naruszać nasze standardy nie ponosząc żadnych konsekwencji, czytamy w poufnym raporcie. Skutek takich działań Facebooka jest taki, że słynny piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt, a z uprzywilejowanych kont rozsiewano nieprawdziwe informacje o rzekomym ukrywaniu przez Hillary Clinton istnienia pedofilskiego kręgu czy o tym, jakoby prezydent Trump miał nazwać wszystkich uchodźców „zwierzętami”.
      Od tamtej pory jest tylko gorzej. W 2020 roku parasolem ochronnym Facebooka objętych było 5,8 miliona kont.
      Facebook dokładnie wie, że XCheck stanowi poważny problem, że pozwala na naruszanie standardów. Jednak nic z tym nie robi. Teraz serwis może mieć poważny problem, gdyż ktoś wyniósł poufne dokumenty i co najmniej część z nich przekazał Komisji Giełd i Papierów Wartościowych oraz Kongresowi.
      Zawartość umieszczona na Facebooku przez przeciętnego użytkownika podlega sprawdzeniu przez algorytmy, które pilnują, by użytkownicy nie naruszali zasad. Jeśli algorytmy uznają, że zasady zostały naruszone, treści są ukrywane lub usuwane. Czasami materiał oznaczony przez algorytmy trafia do przeglądu dokonywanego przez moderatorów zatrudnianych przez firmy zewnętrzne, współpracujące z Facebookiem.
      Jednak inaczej jest w przypadku kont, którymi zajmuje się XCheck. System ten został przygotowany tak, by – jak opisano w poufnych dokumentach Facebooka – zminimalizować szkody PR-owe, do jakich mogłoby dojść, gdyby niesłusznie ocenzurowano treści opublikowane przez wpływowe osoby. Jeśli XCheck stwierdzi, że treści takie mogą naruszać standardy, nie są one usuwane. Trafiają do osobnego systemu przeglądu, dokonywanego przez lepiej przeszkolonych etatowych pracowników.
      Wiadomo, że wielu pracowników Facebooka mogło dodawać użytkowników do XCheck, a ze wspomnianego audytu wynika, że w 2019 roku robiło tak co najmniej 45 zespołów znajdujących się w  firmie. Wewnętrzny podręcznik obsługi XCheck mówi, że należy tam dodawać konta „warte rozpowszechniania”, „wpływowe lub popularne” czy „ryzykowne pod względem PR”.
      Widocznym skutkiem takich działań było np. postępowanie Neymara, brazylijskiej gwiazdy piłki nożnej, który w 2019 roku został oskarżony o gwałt. W odpowiedzi Neymar opublikował na Facebooku i Instagramie m.in. korespondencje pomiędzy sobą a oskarżycielką, w tym nazwisko oskarżycielki i jej nagie zdjęcia. Standardowe procedury Facebooka przewidują skasowanie takich zdjęć. Jednak konto Neymara znajduje się pod parasolem ochronnym XCheck. Z tego też system na ponad dobę uniemożliwił moderatorom usunięcie wideo opublikowanego przez Neymara. Audyt wykazał również, że 56 milionów użytkowników mogło zobaczyć zdjęcia, które Facebook określił jako „porno z zemsty”, a wideo zostało udostępnione ponad 6000 razy wraz z komentarzami nieprzychylnymi kobiecie.
      Zasady Facebooka mówią, że publikacja nagich zdjęć powinna kończyć się nie tylko ich usunięciem, ale również usunięciem konta osoby, która je umieściła. Po tym, jak sprawie Neymara przyjrzało się kierownictwo, zdecydowaliśmy się na pozostawienie jego konta. To wyraźne odejście od naszych zasad, czytamy w audycie Facebooka.
      Wydaje się, że Facebook nie panuje nad XCheck. Parasol ochronny otwarto nad tak duża liczbą kont, że nikt nie jest w stanie ręcznie sprawdzać zastrzeżeń zgłaszanych przez algorytmy, a pracownicy wciąż dodają nowe konta. Z dokumentów wynika, że na razie Facebook planuje opracowanie zasad postępowania w przypadku poważnych naruszeń dokonywanych przez ludzi chronionych przez XCheck. Jednak będzie to robione z założeniem, że właściciele takich kont mieli „dobre intencje” i przyjęta zostanie zasada „niewinny, póki nie udowodni mu się winy”. To nadal całkowicie inne zasady postępowania, niż te dotyczące wszystkich innych użytkowników.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy.
      Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji.
      Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003.
      Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny.
      Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji.
      Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na University of Hertfordshire wykonano fotografię o najdłuższym czasie naświetlania w dziejach. Znaleziono ją wewnątrz puszki po piwie przyczepionej do kopuły Bayfordbury Observatory. Puszkę umieściła tam Regina Valkenborgh, a dzięki temu, że kobieta zapomniała o swoim eksperymencie, klisza naświetlała się przez 8 lat i 1 miesiąc.
      Wszystko zaczęło się w 2012 roku, kiedy Regina na potrzeby swojej pracy magisterskiej z dziedziny sztuk pięknych postanowiła wykonać fotografie bez użycia nowoczesnych technologii. Wykorzystała więc puszki po piwie, w których umieściła błonę fotograficzną, tworząc w ten sposób aparat otworkowy. Valkenborgh umieściła kilka takich puszek na kopule uniwersyteckiego obserwatorium.
      Próbowałam kilkukrotnie tej techniki w obserwatorium, jednak efekty nie były zachęcające. Zdjęcia były uszkodzone przez wilgoć, film się zwijał, wspomina po latach. Jednak najwyraźniej zapomniała zdjąć jednej z puszek. To łut szczęścia, że przez te lata fotografia pozostała nietknięta i David [konserwator zatrudniony w obserwatorium – red.] ją znalazł, mówi Valkenborgh, która jest obecnie technikiem fotografii w Barnet and Southgate College.
      Na wykonanej fotografii widzimy 2953 linie wyrysowane przez wędrujące po nieboskłonie Słońce. Świetnie pokazują one, jak nasza gwiazda zmienia wraz z porami roku pozycję nad horyzontem.
      Fotografia o długim czasie ekspozycji jest często używana do zilustrowania przemijania czasu. Dotychczas zdjęciem o najdłuższej ekspozycji była fotografia wykonana przez niemieckiego artystę Michael Wesely'ego, który naświetlał ją przez 4 lata i 8 miesięcy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...