Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Diagnoza ze zdjęcia
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Internet pełen jest zdjęć jedzenia. Widzimy je i w mediach społecznościowych, i na witrynach WWW, i na reklamach. Wiele z nich prezentowanych jest po to, by wywołać w nas chęć zjedzenia konkretnej rzeczy czy dania. Widok żywności ma spowodować, że staniemy się głodni. Jednak badania przeprowadzone przez naukowców z Aarhus University pokazują, że prezentacja zdjęć z jedzeniem może mieć na nas przeciwny wpływ. Szczególnie, jeśli wielokrotnie widzimy tę samą potrawę.
Duńscy uczeni dowodzą, że gdy widzimy to samo zdjęcie pożywienia ponad 30 razy, czujemy się bardziej najedzeni, niż zanim zobaczyliśmy fotografię po raz pierwszy. Ponadto uczestnicy badań, którym wielokrotnie pokazywaliśmy to samo zdjęcie i pytaliśmy ich, jak dużo danego produktu by zjedli, już po trzeciej prezentacji wybierali mniejsze porcje, mówi doktor Tjark Andersen.
Może się wydawać dziwne, że uczestnicy badań czuli się najedzeni, podczas gdy niczego nie zjedli. Ale to naturalnej zjawisko. To, co myślimy o jedzeniu ma bowiem wpływ na apetyt. Apetyt jest ściślej powiązany z doświadczeniem poznawczym, niż się większości z nas wydaje. Bardzo ważny jest sposób, w jaki myślimy o jedzeniu. Eksperymenty pokazały na przykład, że jeśli ludziom powie się, że są różne kolory żelków i pozwoli im się jeść do woli żelki czerwone, to nadal będą chcieli zjeść żelka żółtego, mimo że żółte smakują tak samo jak czerwone, wyjaśnia Andersen. Z kolei z innych badań wynika, że jeśli wyobrażamy sobie, jak nasze zęby zagłębiają się w soczyste jabłko, dochodzi do aktywacji tych samych obszarów mózgu, co podczas jedzenia. Mamy tutaj do czynienia z reakcją fizjologiczną na samą myśl o czymś. To dlatego możemy poczuć się najedzeni bez jedzenia, dodaje uczony.
Naukowcy z Aarhus nie są pierwszymi, którzy zauważyli, że same obrazy jedzenia zwiększają uczucie sytości. To wiedzieli już wcześniej. Chcieli się jednak dowiedzieć, jak wiele ekspozycji na obraz potrzeba, byśmy czuli się najedzeni oraz czy różne zdjęcia tego samego pożywienia zniosą uczucie sytości.
Z wcześniejszych badań wiemy, że zdjęcia różnych rodzajów żywności nie mają tego samego wpływu na uczucie sytości. Dlatego gdy najemy się obiadem, mamy jeszcze miejsce na deser. Słodycze to zupełnie inny rodzaj żywności, mówią naukowcy.
Duńczycy przygotowali więc serię online'owych eksperymentów, w których wzięło udział ponad 1000 osób. Najpierw pokazywano im zdjęcie pomarańczowych M&M'sów. Niektórzy widzieli je 3 razy, inni 30 razy. Okazało się, że ta grupa, która widziała zdjęcie więcej razy, czuła się bardziej najedzona. Uczestników zapytano też, ile (od 1 do 10) draży by zjedli. Po obejrzeniu 30 zdjęć uczestnicy wybierali mniejszą liczbę.
Później eksperyment powtórzono, ale z drażami o różnych kolorach. Nie wpłynęło to na wyniki badań. Jednak później zdjęcia M&M'sów zastąpiono zdjęciami draży Skittles, w przypadku których różne kolory smakują różnie. Okazało się jednak, że znowu nie było różnicy. To sugeruje, że wpływ na zmianę naszego poczucia sytości ma więcej parametrów niż kolor i smak, dodaje Andersen.
Naukowcy nie wykluczają, że ich spostrzeżenia można będzie wykorzystać w walce z nadwagą i spożywaniem śmieciowego jedzenia. Wyobraźmy sobie aplikację, korzystającą z wyszukiwarki obrazów. Gdy masz ochotę na pizzę, wpisujesz to w aplikację, a ona prezentuje Ci zdjęcia pizzy. Ty sobie wyobrażasz, jak ją jesz i czujesz się nasycony. Ochota na pizzę ci przechodzi, wyjaśnia uczony.
Zdjęcia jedzenia zalewające internet mogą być jedną z przyczyn, dla której wiele osób ulega chwilowym pokusom i sięga po niezdrową wysoko przetworzoną żywność. Jednak, jak wynika z powyższych eksperymentów, te same zdjęcia i ten sam internet mogą pomóc w pozbyciu się niezdrowych nawyków i nieuleganiu pokusom.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem.
Procesor – serce komputera
CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni.
Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte.
Chłodzenie procesora – istotna kwestia
Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu.
Kiedy warto zainwestować w wydajną kartę graficzną?
Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę.
Nośniki danych – rodzaj napędu ma spore znaczenie
W tym przypadku rozróżniamy dwa główne typy nośników:
• HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy;
• SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów.
Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dziennikarskie śledztwo przeprowadzone przez The Wall Street Journal wykazało, że Facebook podzielił użytkowników na kategorie i jednym pozwala na więcej niż innym. Wbrew temu, co twierdzą przedstawiciele serwisu, koncern nie stosuje tych samych zasad dla wszystkich. Znani użytkownicy platformy społecznościowej zostali zwolnieni z przestrzegania niektórych lub wszystkich jej zasad.
Mowa tutaj o używanym przez Facebooka programie XCheck. Początkowo jego celem było zwiększenie jakości kontroli nad przestrzeganiem zasad Facebooka przez znanych posiadaczy kont w serwisie. XCheck zajmował się celebrytami, politykami czy dziennikarzami. Jednak z czasem przerodził się on w parasol ochronny nad kilkoma milionami wybranych kont. Niektóre z tych kont są wyłączone spod jakiejkolwiek kontroli zasad przestrzegania standardów Facebooka inne zaś mogą publikować materiały, za które zwykli użytkownicy są upominani czy blokowani.
Z dokumentów, do których dostęp uzyskali dziennikarze, wynika, że w 2019 roku wykonany przez Facebooka poufny wewnętrzny audyt wykazał istnienie problemu. Nie robimy tego, o czym publicznie zapewniamy. Ci ludzie, w przeciwieństwie do całej reszty, mogą naruszać nasze standardy nie ponosząc żadnych konsekwencji, czytamy w poufnym raporcie. Skutek takich działań Facebooka jest taki, że słynny piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt, a z uprzywilejowanych kont rozsiewano nieprawdziwe informacje o rzekomym ukrywaniu przez Hillary Clinton istnienia pedofilskiego kręgu czy o tym, jakoby prezydent Trump miał nazwać wszystkich uchodźców „zwierzętami”.
Od tamtej pory jest tylko gorzej. W 2020 roku parasolem ochronnym Facebooka objętych było 5,8 miliona kont.
Facebook dokładnie wie, że XCheck stanowi poważny problem, że pozwala na naruszanie standardów. Jednak nic z tym nie robi. Teraz serwis może mieć poważny problem, gdyż ktoś wyniósł poufne dokumenty i co najmniej część z nich przekazał Komisji Giełd i Papierów Wartościowych oraz Kongresowi.
Zawartość umieszczona na Facebooku przez przeciętnego użytkownika podlega sprawdzeniu przez algorytmy, które pilnują, by użytkownicy nie naruszali zasad. Jeśli algorytmy uznają, że zasady zostały naruszone, treści są ukrywane lub usuwane. Czasami materiał oznaczony przez algorytmy trafia do przeglądu dokonywanego przez moderatorów zatrudnianych przez firmy zewnętrzne, współpracujące z Facebookiem.
Jednak inaczej jest w przypadku kont, którymi zajmuje się XCheck. System ten został przygotowany tak, by – jak opisano w poufnych dokumentach Facebooka – zminimalizować szkody PR-owe, do jakich mogłoby dojść, gdyby niesłusznie ocenzurowano treści opublikowane przez wpływowe osoby. Jeśli XCheck stwierdzi, że treści takie mogą naruszać standardy, nie są one usuwane. Trafiają do osobnego systemu przeglądu, dokonywanego przez lepiej przeszkolonych etatowych pracowników.
Wiadomo, że wielu pracowników Facebooka mogło dodawać użytkowników do XCheck, a ze wspomnianego audytu wynika, że w 2019 roku robiło tak co najmniej 45 zespołów znajdujących się w firmie. Wewnętrzny podręcznik obsługi XCheck mówi, że należy tam dodawać konta „warte rozpowszechniania”, „wpływowe lub popularne” czy „ryzykowne pod względem PR”.
Widocznym skutkiem takich działań było np. postępowanie Neymara, brazylijskiej gwiazdy piłki nożnej, który w 2019 roku został oskarżony o gwałt. W odpowiedzi Neymar opublikował na Facebooku i Instagramie m.in. korespondencje pomiędzy sobą a oskarżycielką, w tym nazwisko oskarżycielki i jej nagie zdjęcia. Standardowe procedury Facebooka przewidują skasowanie takich zdjęć. Jednak konto Neymara znajduje się pod parasolem ochronnym XCheck. Z tego też system na ponad dobę uniemożliwił moderatorom usunięcie wideo opublikowanego przez Neymara. Audyt wykazał również, że 56 milionów użytkowników mogło zobaczyć zdjęcia, które Facebook określił jako „porno z zemsty”, a wideo zostało udostępnione ponad 6000 razy wraz z komentarzami nieprzychylnymi kobiecie.
Zasady Facebooka mówią, że publikacja nagich zdjęć powinna kończyć się nie tylko ich usunięciem, ale również usunięciem konta osoby, która je umieściła. Po tym, jak sprawie Neymara przyjrzało się kierownictwo, zdecydowaliśmy się na pozostawienie jego konta. To wyraźne odejście od naszych zasad, czytamy w audycie Facebooka.
Wydaje się, że Facebook nie panuje nad XCheck. Parasol ochronny otwarto nad tak duża liczbą kont, że nikt nie jest w stanie ręcznie sprawdzać zastrzeżeń zgłaszanych przez algorytmy, a pracownicy wciąż dodają nowe konta. Z dokumentów wynika, że na razie Facebook planuje opracowanie zasad postępowania w przypadku poważnych naruszeń dokonywanych przez ludzi chronionych przez XCheck. Jednak będzie to robione z założeniem, że właściciele takich kont mieli „dobre intencje” i przyjęta zostanie zasada „niewinny, póki nie udowodni mu się winy”. To nadal całkowicie inne zasady postępowania, niż te dotyczące wszystkich innych użytkowników.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.