
Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów.
Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków.
Dlaczego potrójny iloczyn jest tak ważny?
Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz.
Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility?
Rekordowy stellarator pokonał tokamaki
Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy.
Czytaj:
Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową
Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków
Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty.
Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem
Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni.
Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza.
Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka.
Czym jest fuzja jądrowa
Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.
Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.