Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Ludzie zawsze szukają reguły pozwalającej na sensowne uporządkowanie zestawu danych. W przypadku komputerów trudno było odtworzyć tę umiejętność. W zetknięciu z obszernym zbiorem elementów maszyny nie wiedzą, gdzie zacząć, chyba że wyposażono je w algorytm, pozwalający na wyszukanie określonej struktury, np. hierarchicznej czy zestawu klastrów. Teraz Josh Tenenbaum z MIT i Charles Kemp z Carnegie Mellon stworzyli program, który umożliwia wybór najlepszej metody uporządkowania danych, bez z góry zadanego porządku (Proceedings of the National Academy of Science).

Komputery mogą się już zachowywać jak my, ludzie, co według cybernetyków, znacznie przyspiesza prace nad sztuczną inteligencją. Dzięki rozbudowaniu algorytmu komputer bierze pod uwagę wszystkie możliwe struktury jednocześnie i porównuje, która z nich najlepiej pasuje do konkretnego zbioru danych. Prezentuje ją po zakończeniu analiz. Model Amerykanów ułatwi życie wielu naukowcom zmagającym się z natłokiem informacji oraz rzuci nieco światła na mechanizmy wykrywania porządku przez nasz mózg.

Badacze uwzględnili szereg możliwych powiązań w obrębie danych, m.in. drzewo, schematy kołowe, hierarchię dominacji czy klastry.

Ludzie cały czas nieświadomie klasyfikują dane. Tendencja ta znalazła wyraz w wielu odkryciach naukowych, m.in. w tablicy okresowej pierwiastków Dymitra Mendelejewa czy taksonomii Karola Linneusza. Tego typu zachowania zaczynamy przejawiać już we wczesnym dzieciństwie. Uporządkowujemy sobie świat, zaliczając przedmioty i istoty żywe do różnych kategorii, np. zwierząt, roślin, domów itp.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale wał. Też planowałem się tym zająć. Ale tak to jest - 6,5mld ludzi na ziemi, ciężko wymyślić coś nowego niepowtarzalnego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe jak taki program zadziała w praktyce.

Ludzie przy kojarzeniu danych uwzględniają olbrzymią liczbę czynników i każdy zrobi to w inny sposób w zależności od zdobytych doświadczeń i skojarzeń.

Program może się sprawdzić pod warunkiem zastosowania wąskiej z góry ustalonej dziedzinie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość macintosh

Ale wał. Też planowałem się tym zająć. Ale tak to jest - 6,5mld ludzi na ziemi, ciężko wymyślić coś nowego niepowtarzalnego.

Ale jak już działasz w takiej czy innej dziedzinie to po jakimś czasie wymyślasz i nie masz wrażenia wtórności(warto być na bieżąco, ale też pamiętać, że Ty_sam 'to' wymyślasz).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Naukowcy z Northeastern University odkryli, w jaki sposób można na żądanie zmieniać elektroniczny stan materii. Potencjalnie może to doprowadzić do stworzenia materiałów elektronicznych, które pracują z 1000-krotnie większą prędkością niż obecnie i są bardziej wydajne. Możliwość dowolnego przełączania pomiędzy przewodnikiem a izolatorem daje nadzieję na zastąpienia krzemowej elektroniki mniejszymi i szybszymi materiałami kwantowymi. Obecnie procesory pracują z częstotliwością liczoną w gigahercach. Dzięki pracom uczonych z Northeastern, w przyszłości mogą być to teraherce.
      Opisana na łamach Nature Physics technika „termicznego chłodzenia” (thermal quenching) polega przełączaniu materiału pomiędzy izolatorem a przewodnikiem za pomocą kontrolowanego podgrzewania i schładzania. Współautor odkrycia, profesor Gregory Fiete porównuje tę metodę do przełączania bramek w tranzystorze. Każdy, kto kiedykolwiek używał komputera, doszedł w pewnym momencie do punktu, w którym chciał, by komputer działał szybciej. Nie ma nic szybszego niż światło, a my używamy światła do kontrolowania właściwości materiałów z największą prędkością, jaką dopuszcza fizyka, dodaje uczony.
      Naukowcy w temperaturze bliskiej temperaturze pokojowej oświetlali materiał kwantowy 1T-TaS2 uzyskując „ukryty stan metaliczny”, który dotychczas był stabilny w temperaturach kriogenicznych, poniżej -150 stopni Celsjusza. Teraz osiągnięto ten stan w znacznie bardziej praktycznych temperaturach, sięgających -60 stopni C, a materiał utrzymywał go przez wiele miesięcy. To daje nadzieję na stworzenie podzespołów składających się z jednego materiału, który w zależności od potrzeb może być przewodnikiem lub izolatorem.
      Źródło: Dynamic phase transition in 1T-TaS2 via a thermal quench, https://www.nature.com/articles/s41567-025-02938-1

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Budowa własnego PC pozwala wydobyć maksimum możliwości z dostępnych podzespołów. Na czym jednak powinieneś skupiać się w pierwszej kolejności, jeśli potrzebujesz komputera zarówno do pracy, jak i do grania? Oto pigułka wiedzy, która rozwieje twoje wątpliwości!


      Sprzęt do pracy i gier – czy da się połączyć te obie rzeczy? Budowa własnego komputera może być pewnym wyzwaniem dla osób bez większego doświadczenia. Stworzenie sprzętu z zakupionych przez siebie podzespołów pozwala jednak na kontrolowanie każdego aspektu – od procesora, przez chłodzenie po pastę termoprzewodzącą. W taki sposób możesz więc nie tylko zaoszczędzić pieniądze, ale również wykrzesać jeszcze więcej z każdego elementu.
      Oczywiście produkty, z których będzie składał się twój komputer, zależą od twoich potrzeb. Niektórzy nie potrzebują zabójczo szybkich maszyn, skupiając się na przeglądaniu Internetu czy rozmowie z bliskimi. Na drugim biegunie są gracze, którzy marzą o płynnej rozgrywce i najwyższym poziomie grafiki.
      Istnieją jednak użytkownicy, którzy potrzebują niezwykle wszechstronnego urządzenia. Mowa tu na przykład o osobach, które pracują zdalnie i z tego względu rozglądają się za komputerem gotowym zarówno do pisania, montażu filmów czy obróbki zdjęć, jak i do rozrywki. Na szczęście te dwa światy idą ze sobą w parze i w większości przypadków ich potrzeby mocno się ze sobą pokrywają.
       
      Komputer do pracy – na jakich elementach powinieneś się skupić? Praca zdalna staje się coraz popularniejsza, lecz może ona przyjmować naprawdę wiele oblicz. Trudno jest więc znaleźć komputer, który będzie odpowiadać potrzebom każdego pracownika. Niektórzy zresztą nie potrzebują wystrzałowych osiągów, z których i tak nie skorzystają. Wszystko zależy więc tak naprawdę od wykonywanego zawodu.
      Osoby zajmujące się pracą z tekstem przede wszystkim powinny skupić się na dużej ilości pamięci operacyjnej RAM. Dzięki temu nawet kilkanaście otwartych kart w przeglądarce nie spowolnią działania. Tym samym warto również postawić na mocny procesor, który pozwoli podtrzymać wielozadaniowość, nawet w przypadku korzystania z dwóch monitorów.
      Karta graficzna w tym przypadku schodzi na dalszy plan, czego zdecydowanie nie można powiedzieć na przykład o obróbce zdjęć czy montażu filmów. GPU jest kluczem do szybkiego działania programów i przetwarzania samych plików w edytorach. Tu zresztą również konieczny jest wydajny procesor, który udźwignie na sobie niezwykle wymagające zadanie w postaci renderów, czyli kompilowania ujęć filmowych w jeden duży plik.
       
      Grafika, stabilność, moc – kluczowe elementy dobrego PC do gier Gracze także powinni skupiać się na trzech najważniejszych elementach wspomnianych wyżej: procesorze, pamięci RAM oraz karcie graficznej. W tym ostatnim przypadku warto postawić na dedykowaną odmianę, gotową na najnowsze tytuły. Ciekawą propozycją dla osób szukających topowych rozwiązań jest nowa karta graficzna NVIDIA GeForce RTX 5090, którą możesz sprawdzić na przykład na stronie https://www.morele.net/karta-graficzna-msi-geforce-rtx-5090-ventus-3x-oc-32gb-gddr7-14471822/.
      Jeśli budujesz komputer od zera, pamiętaj również o wytrzymałej płycie głównej czy mocnym zasilaczu, dzięki któremu wszystkie podzespoły będą w stanie działać na maksymalnych obrotach. Stabilność w grach online zapewni odpowiednia karta sieciowa, a długą żywotność poszczególnych elementów możesz zapewnić między innymi dzięki wydajnemu chłodzeniu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z coraz większą liczbą tekstów publikowanych w internecie, pojawiła się potrzeba stworzenia zautomatyzowanych metod tworzenia abstraktów artykułów czy wywiadów. Większość dostępnych narzędzi jest zależnych od języka, w jakim został napisany oryginalny tekst, a ich stworzenie wymaga trenowania algorytmów na wielkich bazach danych.
      Firma BGN Technologies, zajmująca się transferem technologicznym wynalazków opracowanych na Uniwersytecie Ben Guriona, zaprezentowała nowatorskie automatyczne narzędzie do tworzenia abstraktów, które działa niezależnie od języka oryginalnego tekstu.
      Technologia, opracowana przez profesora Marka Lasta, doktor Marinę Litvak i doktora Menahema Friedmana bazuje na algorytmie, który klasyfikuje poszczególne zdania na podstawie statystycznych obliczeń charakterystycznych cech, które mogą być wyliczone dla każdeog języka. Następnie najwyżej ocenione zdania są wykorzystywane do stworzenia abstraktu. Metoda, nazwana Multilingual Sentence Extractor (MUSE), została przetestowana na języku angielskim, hebrajskim, arabskim, perskim, rosyjskim, chińskim, niemieckim i hiszpańskim. W przypadku angielskiego, hebrajskiego, arabskiego i perskiego stworzone abstrakty były bardzo podobne do abstraktów napisanych przez ludzi.
      Główną zaletą nowego narzędzia jest fakt, że po początkowym treningu algorytmów na opatrzonych odpowiednimi komentarzami artykułach, z których każdemu towarzyszy kilkanaście abstraktów napisanych przez ludzi, algorytmy nie muszą być później trenowane dla każdego języka z osobna. Ten sam model, który wypracowały podczas treningu, może zostać użyty dla wielu różnych języków.
      Podsumowanie tekstu, do którego wybrano zestaw najbardziej pasujących zdań z tekstu źródłowego, a wyboru dokonano na podstawie punktacji przyznawanej zdaniom i wykorzystanie w abstrakcie najwyżej punktowanych zdań, to nieocenione narzędzie do szybkiego przeglądania wielkich ilość tekstów w sposób niezależny od języka. To kluczowe narzędzie zarówno dla wyszukiwarek jak i dla takich użytkowników końcowych jak badacze, biblioteki czy media – stwierdził profesor Last.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperymenty przeprowadzone przez naukowców z University of Nottingham wskazują, że algorytmy, które nauczą się przewidywania ryzyka przedwczesnego zgonu mogą w przyszłości być ważnym narzędziem medycyny prewencyjnej.
      Lekarze i naukowcy opracowali algorytm oparty na technologii maszynowego uczenia się, którego zadaniem było przewidywanie ryzyka przedwczesnego zgonu u chronicznie chorych osób w średnim wieku. Okazało się, że sztuczna inteligencja nie tylko była bardzo dokładna, ale potrafiła z większą precyzją niż ludzie określić ryzyko
      Algorytm uczył się na bazie danych obejmujących ponad 500 000 osób w wieku 40–69 lat o których informacje zebrano w latach 2006–2010, a ich losy śledzono do roku 2015.
      Medycyna prewencyjna odgrywa coraz większą rolę w walce z poważnymi chorobami. Od lat pracujemy nad usprawnieniem tej dziedziny opieki zdrowotnej oraz nad ulepszeniem komputerowej oceny ryzyka w dużych populacjach. Większość tego typu prac skupia się na konkretnej chorobie. Ocena ryzyka zgonu z powodu wielu różnych czynników to bardzo złożone zadanie, szczególnie jeśli weźmiemy pod uwagę uwarunkowania środowiskowe i osobnicze, mówi główny autor badań, profesor Stephen Weng.
      Dokonaliśmy poważnego postępu na tym polu opracowując unikatowe całościowe podejście do oceny ryzyka zgonu za pomocą technik maszynowego uczenia się. Używamy komputerów do stworzenia nowego modelu ryzyka uwzględniającego szeroką gamę czynników demograficznych, biologicznych, klinicznych czy stylu życia indywidualnych osób, w tym ich zwyczajów żywieniowych, dodaje uczony. Weng mówi, że gdy odpowiedzi podawane przez algorytm porównano z danymi dotyczącymi zgonów, przyjęć do szpitali, zachorowań na nowotwory i innymi danymi epidemiologicznymi, okazało się, że algorytmy były znacząco dokładniejsze niż opracowane przez ludzi metody oceny ryzyka.
      Algorytm korzystał z metody statystycznej lasów losowych (random forest) oraz głębokiego uczenia się. Obecnie używane metody wykorzystują model regresji Cox'a oraz wielowariantowy model Cox'a, który jest doskonalszy, ale przeszacowuje ryzyko zgonu.
      Najnowsze prace zespołu z Nottingham bazują na pracach wcześniejszych, podczas których ten sam zespół naukowy wykazał, że cztery różne algorytmy sztucznej inteligencji, bazujące na regresji logistycznej, gradient boosting, lasach losowych oraz sieciach neuronowych lepiej niż obecne metody używane w kardiologii pozwalają przewidzieć ryzyko chorób układu krążenia.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...