Sign in to follow this
Followers
0

Sztuczna inteligencja odnalazła nieznane dzieło wielkiego hiszpańskiego pisarza
By
KopalniaWiedzy.pl, in Humanistyka
-
Similar Content
-
By KopalniaWiedzy.pl
W pierwszej połowie XIX wieku Duńczycy szczególnie polubili piwo, co wiązało się z gwałtownym rozwojem przemysłu piwowarskiego. To rosnące zamiłowanie do złocistego napoju zbiegło się z trwającym mniej więcej w latach 1800–1850 złotym wiekiem duńskiego malarstwa. Jak się okazuje, oba te zjawiska miały więcej wspólnego niż mogłoby się wydawać. Przeprowadzone właśnie badania potwierdziły, że duńscy mistrzowie malarstwa używali pozostałości po warzeniu piwa do przygotowania płótna pod swoje dzieła.
Aby uzyskać oczekiwane przez siebie efekty, malarze musieli najpierw użyć substancji, które pomogą farbom utrzymać się na płótnie. Duńczycy wytwarzali i wypijali w tym czasie olbrzymie ilości piwa, a że woda w rzekach nie była zbyt czysta, przemysł piwowarski wytwarzał dużą ilość odpadów. Historyczne teksty sugerują, że odpady te mogły być wykorzystywane do zagruntowania płótna. Dlatego tez naukowcy postanowili sprawdzić, czy to prawda.
Uczeni przeanalizowali skład chemiczny 10 obrazów autorstwa Christoffera Wilhelma Eckersberga, zwanego ojcem duńskiego malarstwa, oraz jego ucznia Christena Schiellerupa Købke. Wykorzystali przy tym próbki pobrane jeszcze w latach 60. ubiegłego wieku. Teraz, korzystając ze spektrometrii mas, mogli zidentyfikować proteiny wchodzące w skład podkładu. Znaleźli w próbkach duże ilości białek typowych dla procesu warzenia piwa, a pochodzących z jęczmienia, pszenicy, gryki i żyta. Potwierdzono więc zapiski czynione przez samych malarzy, a wiedza ta będzie miała znaczenie jak najbardziej praktyczne. Eksperci będą mogli ją wykorzystać podczas prac konserwatorskich.
« powrót do artykułu -
By KopalniaWiedzy.pl
Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.
« powrót do artykułu -
By KopalniaWiedzy.pl
Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja.
Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów.
Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski.
Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji.
WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku.
Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał.
« powrót do artykułu -
By KopalniaWiedzy.pl
Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.
« powrót do artykułu -
By KopalniaWiedzy.pl
Kultura Tartessos pojawiła się w VIII wieku p.n.e. w dolinie Gwadalkiwiru na południowym-zachodzie Półwyspu Iberyjskiego. Jej główny ośrodek, dotychczas nieodnaleziony, jest utożsamiany z biblijnym Tarszisz. Informacje o Tartessos pojawiają się w źródłach bliskowschodnich i greckich, wspomina o nim m.in. Herodot (Dzieje, I 163, IV 152), który lokalizuje je za Słupami Herkulesa. Kultura Tartessos upadła z nieznanych nam przyczyn w IV wieku p.n.e. Hiszpańska Najwyższa Rada ds. Badań Naukowych poinformowała właśnie o znalezieniu pierwszych wizerunków przedstawiających ludzi kultury Tartessos.
Na stanowisku archeologicznym Casas del Turuñuelo w Badajoz archeolodzy odkryli pięć figurek z V wieku p.n.e. przedstawiających ludzkiego głowy. Znaleziono je w patio budynku, w którym Tartesyjczycy masowo składali ofiary ze zwierząt, przede wszystkim z koni.
Dwie spośród figurek są niemal kompletne. To rzeźbione głowy kobiet, w których uszach widzimy kolczyki typowe dla Tartessos. Dotychczas tego typu złote kolczyki znaliśmy wyłącznie z kilku stanowisk archeologicznych. Na podstawie jakości wykonania figurek i przedstawionych szczegółów naukowcy przypuszczają, że przedstawiają one żeńskie bóstwa. Oprócz nich znaleziono fragmenty co najmniej trzech innych figurek. Jedna z nich prawdopodobnie przedstawiała wojownika, gdyż na jej głowie widać zachowany fragment hełmu.
Odkrycie może zmienić poglądy specjalistów na kulturę Tartessos. Dotychczas uważano, że nie przedstawiała ona wizerunków ludzi, a bóstwa były reprezentowane za pośrednictwem motywów zwierzęcych, roślinnych lub poprzez święte kamienie.
Wiemy, że kultura Tartessos pojawiła się w VIII wieku, jej korzenie są silnie związane zarówno z miejscowymi ludami, jak i z Fenicjanami. Przedstawiciele tej kultury posługiwali się wymarłym językiem tartesyjskim, z którego zachowało się około 100 inskrypcji. Język ten nie został jednak dotychczas sklasyfikowany, nie wiemy więc, do jakiej rodziny językowej należał.
Lud Tartessos prawdopodobnie wyznawał kult Astarte i Baala, a jego tożsamość kulturowa w znacznej mierze została ukształtowana przez kontakty z Fenicjanami, z którymi handlowali metalami. Tartesyjczycy sami byli też zręcznymi metalurgami, tworzyli bogato dekorowane przedmioty z brązu, a ich charakterystycznymi wyborami były dzbany w kształcie gruszki, płaskie przypominające talerze piecyki z okrągłymi uszami, kadzielnice z motywami kwiatowymi, fibule i sprzączki do pasów.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.