Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polskie prawo nie jest dostosowane do realiów funkcjonowania sztucznej inteligencji

Rekomendowane odpowiedzi

Tylko - tak dla ścisłości - Penrose też nie jest kimś, kto chciałby wmontowywać w fizykę jakąś "metafizykę", czy "magię" :) Poza tym zgoda, dokładniej mówiąc jest różnica w "przeczuciach" na temat "mocnej AI", ale ponieważ jakichkolwiek w miarę poważnych AI mamy tyle co kot napłakał, to nie widzę sensu nad dyskutowaniem obecnie o takich sprawach (za duże wybieganie w przyszłość, zajmowanie się bytami, których jeszcze nie ma i nie bardzo sobie wyobrażamy, jak będą wyglądać, o ile w ogóle będą).

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale piękna dyskusja się wywiązała. Odpowiem tylko na komentarze mankomaniaka

osoba prawna to niemal zaprzeczenie człowieka, czyli osoby fizycznej

Prawda, punkt dla Ciebie.

Nie wymaga żadnego zdefiniowania człowieczeństwa

Cóż, wymaga zdefiniowania uczłowieczenia co ktoś tu pięknie przełożył na świadomość. Dla mnie pojęcie fundamentalne. Zagadka: czy dojrzała świnka jest bardziej czy mniej świadoma niż noworodek? Czemu jednak prawo chroni jedno istnienie bardziej niż to drugie?

odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

No to teraz Tobie się kompletnie pomieszało ;-)

Szkielet może kiedyś BYŁ CZĘŚCIĄ człowieka lecz bez skomplikowanych procedur (komórki przekształcone w multipotebcjalne) sam się nim nie stanie.  A po co sie tym zajmować? Naukowcy tworzący SZTUCZNE HYBRYDOWE EMBRIONY (vide nasza rodaczka prof Żernicka-Goetz) właśnie stawiają takie wyzwania.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Wheelmill napisał:

Szkielet może kiedyś BYŁ CZĘŚCIĄ człowieka

Tak samo można powiedzieć, że zarodek był kiedyś częścią człowieka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W świecie platońskich idei zygota to już człowiek

To odwróćmy proces, sam szkielet to też człowiek, bo przecież kiedyś nim będzie. Po co sobie zawracać głowę takimi bzdurami.

Bzdury prawisz Waćpan.

Bez odpowiednich manipulacji komórka somatyczna nie stanie się multipotencjalną. A zajmowania się bzdurami wymaga od nas postęp nauki i związane z nim zagadnienia etyczne. Są już sztuczne embriony (zajmuje się nimi nasza rodaczka prof. Żernicka-Getz).

Swoją drogą piękna dyskusja.

Gdzieś przeczytałem, że kryterium świadomości jest zdolność do odczuwania cierpienia - tylko co to znaczy?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 minut temu, Wheelmill napisał:

Gdzieś przeczytałem, że kryterium świadomości jest zdolność do odczuwania cierpienia

Wąskie i błędne kryterium:  https://kopalniawiedzy.pl/depresja-empatia-bol-antydepresanty-selektywne-inhibitory-zwrotnego-wychwytu-serotoniny-Markus-Rutgen,30265  (z badania wynika, że prozacowcy mieliby wyłączona świadomość), ale z założenia szlachetne.:)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
      Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
      Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
      Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
      System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
      W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
      Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
      Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
      Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji, stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
      Korzystając z ich metodologii [OpenAI i Google'a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji, czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
      Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI, ostrzegają badacze.
      Praca została opublikowana w ogólnodostępnym serwisie arXiv. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na całym świecie rośnie liczba przypadków chorób przenoszonych przez wektory. Najbardziej znane wektory to komary, kleszcze czy pchły. Jedną z przenoszonych przez nie chorób jest denga, której liczba przypadków zwiększyła się w ciągu ostatnich 50 lat aż 30-krotnie czyniąc ją drugą, po malarii, najbardziej rozpowszechnioną chorobą wektorową. Badacze z UK Centre for Ecology & Hydrology, Uniwersytetów w Glasgow i Reading oraz Biomathematics and Statistics Scotland opracowali model, który pozwala przewidzieć rozprzestrzenianie się w Europie komara tygrysiego (Aedes albopictus) i ryzyka lokalnych zachorowań na dengę.
      Komar tygrysi występował naturalnie w Azji Południowo-Wschodniej. Został jednak przez człowieka rozwleczony po całym świecie. Najnowsze dane European Centre for Disease Prevention and Control z maja bieżącego roku wskazują, że komar tygrysi jest już zadomowiony między innymi w znacznej części Hiszpanii, większości Francji, całych Włoszech, środkowych i południowo-zachodnich Niemczech oraz w Berlinie, na Węgrzech i na południu Słowacji. Jego obecność zarejestrowano też w Czechach, Austrii czy na południu Szwecji. W Polsce gatunku tego nie stwierdzono, jednak niewykluczone, że z powodu... braku danych. Zdecydowana większość obszaru naszego kraju jest oznaczona jako tereny, z których nie ma informacji.
      W porównaniu z poprzednim raportem, z października 2023 roku komar tygrysi zadomowił się w kolejnych 6 regionach Francji i 1 regionie Niemiec i został zaobserwowany w nowych regionach w Hiszpanii, Holandii, Portugalii i Słowenii.
      Jeszcze w 2000 roku na świecie odnotowano około 0,5 miliona zachorowań na dengę, w roku 2024 mamy już ponad 12 milionów chorych i ponad 8000 zgonów. Przyczyną jest zarówno zmiana klimatu, jak i zachowanie ludzi, dzięki którym komar łatwiej się rozmnaża i rozprzestrzenia.
      Autorzy nowych badań stworzyli bardziej szczegółowy model niż dotychczas używane, który już prawidłowo przewidział miejscowości, w których w bieżącym roku nastąpią pierwsze zachorowania na dengę. Są wśród nich La Colle-sur-Loup, Baho i Montpellier-Pérols we Francji czy Vila-seca w Hiszpanii. Prognozujemy, że najbardziej narażone na dengę pozostaną południowe regiony Francji oraz północ Włoch. Są tam sprzyjające warunki klimatyczne, stabilna populacja komarów oraz duża liczba osób wracających z krajów tropikalnych, gdzie denga występuje, stwierdził główny autor badań, Dominic Brass. Dotychczas najbardziej na północ wysuniętym miastem, w którym wystąpiła denga, był Paryż. Pierwszego komara tygrysiego zaobserwowano tam w 2015 roku, a w roku ubiegłym zanotowano lokalne zachorowania. Co więcej, w bieżącym roku w Paryżu doszło też do lokalnego zachorowania na chikungunyę, inną tropikalną chorobę przenoszoną przez komary.
      Autorzy badań ostrzegają jednak, że obszar występowania ryzyka zachorowań przesuwa się na północ. Z ich modelu wynika, że lokalnych zachorowań można spodziewać się też w Warszawie.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...