
Komputer-naukowiec
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z Northeastern University odkryli, w jaki sposób można na żądanie zmieniać elektroniczny stan materii. Potencjalnie może to doprowadzić do stworzenia materiałów elektronicznych, które pracują z 1000-krotnie większą prędkością niż obecnie i są bardziej wydajne. Możliwość dowolnego przełączania pomiędzy przewodnikiem a izolatorem daje nadzieję na zastąpienia krzemowej elektroniki mniejszymi i szybszymi materiałami kwantowymi. Obecnie procesory pracują z częstotliwością liczoną w gigahercach. Dzięki pracom uczonych z Northeastern, w przyszłości mogą być to teraherce.
Opisana na łamach Nature Physics technika „termicznego chłodzenia” (thermal quenching) polega przełączaniu materiału pomiędzy izolatorem a przewodnikiem za pomocą kontrolowanego podgrzewania i schładzania. Współautor odkrycia, profesor Gregory Fiete porównuje tę metodę do przełączania bramek w tranzystorze. Każdy, kto kiedykolwiek używał komputera, doszedł w pewnym momencie do punktu, w którym chciał, by komputer działał szybciej. Nie ma nic szybszego niż światło, a my używamy światła do kontrolowania właściwości materiałów z największą prędkością, jaką dopuszcza fizyka, dodaje uczony.
Naukowcy w temperaturze bliskiej temperaturze pokojowej oświetlali materiał kwantowy 1T-TaS2 uzyskując „ukryty stan metaliczny”, który dotychczas był stabilny w temperaturach kriogenicznych, poniżej -150 stopni Celsjusza. Teraz osiągnięto ten stan w znacznie bardziej praktycznych temperaturach, sięgających -60 stopni C, a materiał utrzymywał go przez wiele miesięcy. To daje nadzieję na stworzenie podzespołów składających się z jednego materiału, który w zależności od potrzeb może być przewodnikiem lub izolatorem.
Źródło: Dynamic phase transition in 1T-TaS2 via a thermal quench, https://www.nature.com/articles/s41567-025-02938-1
« powrót do artykułu -
przez KopalniaWiedzy.pl
Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Budowa własnego PC pozwala wydobyć maksimum możliwości z dostępnych podzespołów. Na czym jednak powinieneś skupiać się w pierwszej kolejności, jeśli potrzebujesz komputera zarówno do pracy, jak i do grania? Oto pigułka wiedzy, która rozwieje twoje wątpliwości!
Sprzęt do pracy i gier – czy da się połączyć te obie rzeczy? Budowa własnego komputera może być pewnym wyzwaniem dla osób bez większego doświadczenia. Stworzenie sprzętu z zakupionych przez siebie podzespołów pozwala jednak na kontrolowanie każdego aspektu – od procesora, przez chłodzenie po pastę termoprzewodzącą. W taki sposób możesz więc nie tylko zaoszczędzić pieniądze, ale również wykrzesać jeszcze więcej z każdego elementu.
Oczywiście produkty, z których będzie składał się twój komputer, zależą od twoich potrzeb. Niektórzy nie potrzebują zabójczo szybkich maszyn, skupiając się na przeglądaniu Internetu czy rozmowie z bliskimi. Na drugim biegunie są gracze, którzy marzą o płynnej rozgrywce i najwyższym poziomie grafiki.
Istnieją jednak użytkownicy, którzy potrzebują niezwykle wszechstronnego urządzenia. Mowa tu na przykład o osobach, które pracują zdalnie i z tego względu rozglądają się za komputerem gotowym zarówno do pisania, montażu filmów czy obróbki zdjęć, jak i do rozrywki. Na szczęście te dwa światy idą ze sobą w parze i w większości przypadków ich potrzeby mocno się ze sobą pokrywają.
Komputer do pracy – na jakich elementach powinieneś się skupić? Praca zdalna staje się coraz popularniejsza, lecz może ona przyjmować naprawdę wiele oblicz. Trudno jest więc znaleźć komputer, który będzie odpowiadać potrzebom każdego pracownika. Niektórzy zresztą nie potrzebują wystrzałowych osiągów, z których i tak nie skorzystają. Wszystko zależy więc tak naprawdę od wykonywanego zawodu.
Osoby zajmujące się pracą z tekstem przede wszystkim powinny skupić się na dużej ilości pamięci operacyjnej RAM. Dzięki temu nawet kilkanaście otwartych kart w przeglądarce nie spowolnią działania. Tym samym warto również postawić na mocny procesor, który pozwoli podtrzymać wielozadaniowość, nawet w przypadku korzystania z dwóch monitorów.
Karta graficzna w tym przypadku schodzi na dalszy plan, czego zdecydowanie nie można powiedzieć na przykład o obróbce zdjęć czy montażu filmów. GPU jest kluczem do szybkiego działania programów i przetwarzania samych plików w edytorach. Tu zresztą również konieczny jest wydajny procesor, który udźwignie na sobie niezwykle wymagające zadanie w postaci renderów, czyli kompilowania ujęć filmowych w jeden duży plik.
Grafika, stabilność, moc – kluczowe elementy dobrego PC do gier Gracze także powinni skupiać się na trzech najważniejszych elementach wspomnianych wyżej: procesorze, pamięci RAM oraz karcie graficznej. W tym ostatnim przypadku warto postawić na dedykowaną odmianę, gotową na najnowsze tytuły. Ciekawą propozycją dla osób szukających topowych rozwiązań jest nowa karta graficzna NVIDIA GeForce RTX 5090, którą możesz sprawdzić na przykład na stronie https://www.morele.net/karta-graficzna-msi-geforce-rtx-5090-ventus-3x-oc-32gb-gddr7-14471822/.
Jeśli budujesz komputer od zera, pamiętaj również o wytrzymałej płycie głównej czy mocnym zasilaczu, dzięki któremu wszystkie podzespoły będą w stanie działać na maksymalnych obrotach. Stabilność w grach online zapewni odpowiednia karta sieciowa, a długą żywotność poszczególnych elementów możesz zapewnić między innymi dzięki wydajnemu chłodzeniu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.