Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Hakerzy mogą łatwo oszukać systemy sztucznej inteligencji

Rekomendowane odpowiedzi

W ubiegłym tygodniu podczas International Conference on Machine Learning (ICML) grupa naukowców pokazała żółwia wydrukowanego techniką 3D. Dla ludzi żółw wyglądał niemal jak żywy. Jednak algorytmy sztucznej inteligencji rozpoznały w obiekcie... strzelbę. W innym przypadku kij baseballowy wykonany techniką druku 3D został przez SI uznany za... filiżankę espresso.

Na naszych oczach sztuczna inteligencja, systemy maszynowego uczenia się, czynią tak wielkie postępy, że coraz częściej podnoszą się głosy zaniepokojenia, ostrzegające nas przed zbytnim rozwijaniem inteligencji maszyn. Jednak, jak się okazuje, systemy SI są zdumiewająco podatne na ataki. A w ostatnim czasie eksperci coraz częściej prezentują nam przykłady takich ataków. My, którzy pracujemy nad maszynowym uczeniem się nie jesteśmy przyzwyczajeni, by myśleć o bezpieczeństwie naszych systemów, mówi jeden z twórców żółwia 3D i badań nad atakiem na AI, Anish Athalye z MIT.

Specjaliści zajmujący się sztuczną inteligencją mówią, że przeprowadzenie takich ataków jest bardzo użyteczne z naukowego punku widzenia. Pozwalają one bowiem analizować sposób działania sieci neuronowych, które obecnie nie są dobrze rozumiane. Ataki to wspaniałe szkło powiększające, przez które możemy lepiej zrozumieć to, co nazywamy maszynowym uczeniem, mówi Dawn Song z Uniwersytetu Kalifornijskiego w Berkeley.

W ubiegłym roku Song i jej koledzy umieścili na standardowym znaku drogowym „STOP” kilka naklejek, które spowodowały, że system SI uznał znak za... ograniczenie prędkości do 45 mil na godzinę. Nietrudno wyobrazić sobie konsekwencje takiego ataku na samochód autonomiczny.

Ataki można podzielić na takie, w których napastnik ma wiedzę o algorytmach wykorzystywanych przez system i na takie, w których algorytmów tych nie zna. W pierwszym przypadku może obliczyć, w jaki sposób należy zmienić dane wejściowe do systemu wykorzystującego dane algorytmy, by otrzymać pożądane dane wyjściowe. W ten sposób można np. manipulować obrazem tak, by dla człowieka nie wyglądal on na zmanipulowany, ale by sztuczna inteligencja źle go rozpoznała.

Bardziej wymagające są ataki, gdy nie znamy algorytmów. Wówczas napastnik zna tylko danej wejściowe i wyjściowe. Przeprowadzenie takiego ataku jest trudne, ale nie niemożliwe. Podczas ostatniego ICML Athalye i jego zespół zaprezentowali tego typu atak przeciwko usłudze Google Cloud Vision. W sposób niewidoczny dla człowieka zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Jednym ze sposobów na uchronienie się przed tego typu atakami jest stworzenie formuły, pozwalającej algorytmom SI zweryfikować, czy dobrze rozpoznały dany obiekt. Jeśli możesz przeprowadzić weryfikację, oznacza to koniec zabawy dla napastników, mówi Pushmeet Kohli z DeepMind. Podczas ICML zaprezentowano nawet dwa takie algorytmy weryfikujące. Problem w tym, że obecnie nie da się ich skalować na duże sieci neuronowe współczesnych SI. Co prawda Kohli twierdzi, że w przyszłości się to uda, jednak Song uważa, że w świecie praktycznych zastosowań będą one miały poważne ograniczenia. Nie istnieje matematyczna definicja tego, kim jest pieszy. Czy możemy więc udowodnić, że autonomiczny samochód w żadnym przypadku nie uderzy w pieszego? Nie możemy, stwierdza uczona.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jako wieczny malkontent: jeśli chcą wprowadzić algorytm weryfikujący, czy sieć działa OK, to po jaki grzyb ta sieć? Nie lepiej zostawić sam algorytm? Kolejna rzecz - nikt nie wie, jak sieć działa, czy to atakujący, czy ten co ją "nauczył", a w takim układzie jedyne czego nie wiedziałby atakujący, to z którą siecią akurat ma do czynienia (co też ma znaczenie, bo tak jak z atakami na serwery internetowe, jeśli wiemy jakie jest tam oprogramowanie i w jakiej wersji, to wiemy też jak to można zhakować, albo przynajmniej jakie próby hakowania jeszcze nie zadziałały).

A tak ogólnie ta moda na maszynowe uczenie to wygląda mi na efekt postępującego rozleniwienia: po co się męczyć i kodować jakieś reguły w sieci np. systemu eksperckiego (bo to trzeba fachowca, który umie te reguły określić, a potem innego kto je zamieni w oprogramowanie), kiedy można zrobić funkcję mówiącą "źle/dobrze" i mieć nadzieję, że sieć nauczy się sama czegoś, co (tutaj nadzieja drugiego stopnia) jest tym o co nam chodziło.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

Nie istnieje matematyczna definicja tego, kim jest pieszy

Hmm. Zagadkowe słowa :) i wniosek.

W dniu 20.07.2018 o 13:22, KopalniaWiedzy.pl napisał:

zmienili oni zdjęcie przedstawiające dwóch narciarzy tak, że system Google'a uznał je za zdjęcie psa.

Bo takie są niespodzianki z SI. Z dużej ilości danych wyłapuje się jakieś małe fragmenty które prowadzą do podjęcia decyzji. To się może udawać w sprawach mało krytycznych np. zabawkach dla dzieci. Ale nie w przypadkach kiedy pomyłka=śmierć.

Moim zdaniem jest sens w tym pomyśle z artykułu.
Mózg ludzki wydaje mi się że działa podobnie. Identyfikacja jest przeprowadzana wielopoziomowo od SI po dość sztywne algorytmy. A jak mamy niezgodność SI z sztywnym algorytmem to jest komenda: stop, analizuj jeszcze raz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko to jest bez sensu, podobnie jak usilne próby budowania kolejnych antropomorficznych robotów, które albo straszą, albo śmieszą wyglądem. Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji. Jedyne co powinien wykrywać, to swoje położenie i położenie przeszkód (inne pojazdy, cykliści, ludzie) — co za różnica czy system wykryje narciarza na piaszczystej pseudo-drodze w Afryce czy psa? Przeszkoda na drodze, to przeszkoda. Powinien spróbować ominąć, zwolnić, zatrzymać się, przekazać kontrolę kierowcy, ewentualnie użyć sygnałów. Natomiast od nawigacji powinny być mapy, a nie znaki. Zresztą znaki też można rozszerzyć o wkomponowaną nalepkę QR.

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, wilk napisał:

Po to ten samochód jest autonomiczny, by nie stosować się do „ludzkich” informacji

A kto mówi o ludzkich informacjach? :)

Piszemy o ludzkich algorytmach. Takich które jak to napisałeś:

15 godzin temu, wilk napisał:

po prostu działający

Tak, one po prostu działają. Ewolucja eliminowała przez miliony lat te niedziałające.
Problem w zastosowaniu informatyki w takich życiowych sytuacjach jest taki że te same matematycznie obiekty - informatycznie nie są takie same tylko podobne :) I na razie jest to ogólnie problem nierozwiązywalny jak z matematycznie "=" przejść na "podobne".

Algorytmów ogólnych gotowych nie ma. Możliwe że istnieją jedynie dla wybranych przypadków. Dlatego używamy SI. 

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

Projektanci patrzą zbyt szeroko i chcą zrobić system uniwersalny, na każdą pogodę i w ogóle super. A wystarczy po prostu działający.

:D

Kim Dzon Un do swoich naukowców: przestańcie liczyć wszystkie zmienne, warianty i inne pier...oły. Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

W dniu ‎27‎.‎07‎.‎2018 o 19:51, wilk napisał:

. Natomiast od nawigacji powinny być mapy, a nie znaki

Hmm...nierozpoznanie przez SI interwencyjnie ustawionych znaków B1, B20, B62..zresztą wszystkich B, wygeneruje jakieś kłopoty .I ciekaw jestem, na jaka mapa ma wgrane znaki, które  pan policjant  może wygestykulować kiedy ma prawo i ochotę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, thikim napisał:

ludzkich informacjach

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca. To jest bez sensu. Ja rozumiem, że przy okazji chwytliwe granty i pole do rozwoju SI, ale to jest robienie wszystkiego naraz, przy okazji. Chcemy połączyć dwie deski, to przy okazji wynajdujemy spawanie, zgrzewanie, klejenie i nitowanie.

15 godzin temu, thikim napisał:

nie są takie same tylko podobne

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda. Może ocenić jej szybkość poruszania się i ominąć lub oddać kierownicę. A czy to pies, człowiek czy wypuszczony z zoo hipopotam, to nie ma znaczenia. Co innego, gdyby to miał być system śledzenia celów w zastosowaniu wojskowych, ale na drodze robienie drabinki „if-ów” jest bez sensu. Skoro wystarczy niewielka modyfikacja, by sieć się pogubiła, to znaczy, że ma zbyt silne sprzężenie zwrotne lub została przeuczona. Poza tym kolejna bzdura — jakim cudem sieć uczona do rozpoznawania znaków rozpoznała psa? Dlaczego była do tego uczona? Od tego powinny być osobne komponenty, a nie jeden system rozpoznawania wszystkich obrazów. Sieć uczona do znaków powinna zwracać wyłącznie wyniki z własnej dziedziny, nawet jeśli rozpoznawanie już siada.

3 godziny temu, 3grosze napisał:

Ta rakieta ma bezawaryjnie i celnie  dolecieć do USA. 

Śmieszki, heheszki, ale rakieta jest w pełni samodzielna i jej zawrócenie się przez przypadek i odwiedzenie Kima nie jest opcją. A pociski typu cruise to już zupełnie inna kategoria. W przypadku samochodu wystarczającym jest reakcja na przeszkodę. Samochód nie musi wiedzieć czy właśnie nie rozjechał pijanego rowerzysty czy niedowidzącej seniorki. To całkowicie bez znaczenia dla nawigacji. Ponownie — przeszkoda to przeszkoda. SI może być znacząco lepszym kierowcą, popełniać mniej błędów, ale człowiek i tak zawsze da radę wpaść pod koła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, wilk napisał:

Ale to pojazdu nie powinno w ogóle interesować. Przeszkoda to przeszkoda

No właśnie nie. Ściana deszczu to przeszkoda? Liście na drodze to przeszkoda? Odblask światła na drodze to przeszkoda? Samochód przed nami to przeszkoda?

Musi być algorytm który dany obiekt sklasyfikuje jako istotną przeszkodę. I nie zatrzyma się bo przed nami jedzie samochód.

6 godzin temu, wilk napisał:

Chodzi o ludzkie informacje, czyli odczytywanie znaków, sygnalizacji świetlnej, tego na co zwraca uwagę ludzki kierowca

A maszyna ma na to nie zwracać uwagi? :D W sumie po co patrzeć na sygnalizację świetlną :D

Maszyna ma oczywiście możliwość "zobaczenia" większej ilości rzeczy i są one istotne.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Inny samochód? Oczywiście, że to przeszkoda i tak powinien być traktowany. Albo próbujemy go wyprzedzić, ominąć, albo czekamy aż sobie pojedzie. Ściana deszczu może być przeszkodą, jeśli jest to wodospad, za którym kryje się prawdziwa ściana. Bez sensu dywagacje. Odblask światła raczej nie zostawia echa na czujniku zbliżeniowym. A może się mylę? Po co ma zwracać uwagę i analizować (błędnie) rozmaite zestawy sygnalizatorów, które w każdym kraju wyglądają inaczej, skoro sam sygnalizator może wysyłać informację o aktualnym stanie? Kpisz sobie, a wystarczy, że spojrzysz nie tak daleko, na kolej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ataki hakerskie czy zakłócanie komunikacji to wcale nie domena czasów najnowszych. Ofiarą jednego z nich padł równo 120 lat temu, 4 czerwca 1903 roku, sam twórca komunikacji radiowej, Giuglielmo Marconi. A dodatkowej pikanterii dodaje fakt, że ataku dokonano w czasie publicznej prezentacji, na której Marconi chciał udowodnić, że atak na jego system jest niemożliwy.
      Fale elektromagnetyczne, niezbędne do działania bezprzewodowego telegrafu, jako pierwszy wygenerował ok. 1888 roku Heinrich Hertz. Niewiele osób uznało wówczas, że urządzenie Hertza można będzie wykorzystać do zbudowania bezprzewodowego telegrafu. Po pierwsze dlatego, że maksymalna odległość, z jakiej je rejestrowano, wynosiła kilkaset metrów, po drugie zaś – urządzenie Hertza nie przypominało telegrafu. Było bardziej podobne do systemów komunikacji świetlnej, za pomocą której przesyłano informacje na statki pływające w pobliżu wybrzeża.
      Wszystko zmieniło się w 1896 roku, kiedy to Marconi dowiódł, że wygenerowane fale jest w stanie wykryć z odległości kilku kilometrów, a ponadto, wykorzystując telegraf, wysłał za ich pomocą wiadomość. Marconi stopniowo udoskonalał swój system i w ciągu kilku lat wysyłał informacje alfabetem Morse'a do statków znajdujących się setki kilometrów od wybrzeży. W ten sposób udowodnił, że stworzył bezprzewodowy telegraf, nadający się do komunikacji pomiędzy statkiem a wybrzeżem.
      Jego system miał jednak poważną wadę. Nadawał bowiem w szerokim zakresie fal radiowych. To zaś oznaczało, że komunikację może podsłuchać każdy, kto dysponuje prostym odbiornikiem.
      Problem ten był znany specjalistom. Profesor Oliver Lodge zaprezentował w 1897 roku jego teoretyczne rozwiązanie oraz opatentował urządzenie pozwalające na dostrojenie pasma nadawania do wąskiego zakresu. Proces dostrajania nazwał syntonią. Marconi początkowo nie przejmował się tym problemem, jednak bardzo szybko rzeczywistość rynkowa zmusiła go do zmiany podejścia. Głównym zainteresowanym wykorzystaniem bezprzewodowego telegrafu było wojsko. Dzięki temu, że pozwalał on na pozbycie się kabli, armia miałaby gwarancję, że wróg nie zakłóci komunikacji przecinając je. A okręty Marynarki Wojennej nie musiałyby podpływać do wybrzeża, by odebrać nowe rozkazy. Jednak wojsko chciało poufnej komunikacji, więc Marconi musiał się tym zająć. Jego system był zresztą coraz częściej krytykowany przez specjalistów właśnie z powodu nadawania w bardzo szerokim zakresie fal.
      Marconi nie mógł wykorzystać pracy Lodge'a. Po pierwsze dlatego, że była chroniona patentem. Po drugie zaś, i to był problem poważniejszy, nadajnik Lodge'a miał niewielką moc, nie nadawał się więc do długodystansowej komunikacji. Po dwóch latach intensywnych prac, metodą prób i błędów, Marconi w końcu rozwiązał problem, tworząc system długodystansowej komunikacji bezprzewodowej, w którym można było zastosować syntonię, czyli go dostroić.
      W 1900 roku wynalazca opatentował swoje rozwiązanie, a jego patent otrzymał numer 7777, dzięki czemu stał się znany jako „cztery siódemki”. Jednak patent zaskarżyli Lodge i Ferdinand Braun, którzy twierdzili, że Marconi wykorzystał ich rozwiązania. Włoch to przewidział, dlatego już wcześniej rozmawiał ze swoimi doradcami o możliwych kłopotach prawnych. Jednym z tych doradców był John Ambrose Fleming. Był to niezwykle poważany i szanowany specjalista od inżynierii i patentów. Przez lata naukowiec doradzał British Edison-Swan Company, wyrabiając sobie w środowisku świetną reputację bardzo wiarygodnego eksperta. To w dużej mierze właśnie dzięki opinii Fleminga i jego reputacji patent Marconiego przetrwał wyzwanie rzucone mu przez właścicieli innych patentów.
      System Marconiego nie był doskonały. Pojawiały się problemy. Na przykład w 1901 roku podczas wyścigu jachtów w Nowym Jorku wykorzystywano do komunikacji z jednostkami pływającymi konkurujące rozwiązania Marconiego oraz De Foresta. Okazało się, że w czasie wyścigu doszło do interferencji z jakimś trzecim, nieznanym systemem bezprzewodowej transmisji. Nie był to wielki problem, tym bardziej, że Marconi dowiódł w grudniu 1901 roku, iż jego system nadaje się do komunikacji transatlantyckiej. Jednak każde takie potknięcie wyłapywały i nagłaśniały firmy związane z komunikacją za pomocą kabli układanych na dnie Atlantyku. Czuły się one bowiem zagrożone przez bezprzewodową komunikację.
      W 1902 roku magazyn branżowy Electrician donosił, że Nevil Maskelyne, wykorzystując instrumenty, które nie były dostrojone przez Marconi Company, przechwycił w Anglii komunikację pomiędzy lądem a płynącym do Włoch jachtem „Carlo Alberto”. Maskelyne poinformował, że jest w stanie podsłuchiwać wszystkie stacje nadawacze firmy Marconiego i że zaczął podejrzewać, iż w żadnej z nich nie jest stosowany najnowszy system zapewniający poufność transmisji. Uznał, że być może system ten jest tak kosztowny, iż został zainstalowany tylko w najnowocześniejszej stacji w Poldhu. Wybrał się więc w jej okolice i ku swojemu zdumieniu z odległości ponad 20 kilometrów od stacji przechwycił jej komunikację z „Carlo Alberto”. Jeśli zatem system Marconiego tak łatwo podsłuchać, to o co chodzi z tą syntonią, o której tyle słyszeliśmy, pytał Maskelyne.
      Maskelyne pochodził z bogatej, znanej rodziny, był elektrykiem-samoukiem. Kilka lat wcześniej zainteresował się bezprzewodową telegrafią, a w 1899 roku zdobył rozgłos, prezentując technologię pozwalającą na bezprzewodowe wywołanie eksplozji prochu. Próbował też stworzyć własny system telegrafu bezprzewodowego, który – by nie naruszać patentu Marconiego – miał obywać się bez anten naziemnych. Gdy mu się to nie udało, zaczął krytykować Marconiego, stając się główną postacią wśród jego przeciwników. Wydaje się, że w pewnym momencie bardziej był zainteresowany atakowaniem Włocha, niż pracą nad własnymi wynalazkami.
      Słowa Maskelyne'a na nowo rozpaliły krytykę. Marconi postanowił udowodnić, że jego system jest odporny na interferencje z innymi rozwiązaniami. Po wielu testach zorganizowanych wspólnie z Flemingiem wynalazca ogłosił sukces. Maskelyne na łamach prasy zażądał dowodu.
      Marconi i Fleming zorganizowali odczyt w Royal Institution w Londynie. Był on połączony z pokazem. Maskelyne chciał wybrać się na wykład, ale uznał, że to zbyt dobra okazja. Postanowił podważyć zapewnienia Marconiego o braku interferencji z innymi systemami.
      Marconi znajdował się w jednej ze stacji nadawczych, a pokazem w Royal Institution kierował Fleming. Jeden z jego asystentów wspominał później, że jeszcze podczas wykładu, a przed pokazem, usłyszał stukanie telegrafu, który odbierał jakąś transmisję. Początkowo asystent pomyślał, że to załoga stacji pośredniej w Chelmsford dostraja swój sprzęt, jednak gdy w dźwiękach telegrafu Morse'a rozpoznał słowo „szczury”, wytężył słuch. Technik przy telegrafie włączył drukarkę i zaczęła wychodzić z niej taśma z tekstem, w którym znowu pojawiło się słowo „szczury”, a później wierszyk Z Włoch pewien młody przechera, ludzi całkiem sprytnie nabiera. Wierszyk miał jeszcze kilka dodatkowych linii, których technik nie zapamiętał. Mężczyzna spojrzał na widownię i ujrzał tam, siedzącego z twarzą niewiniątka, jednego z ludzi Maskelyne'a. Wiedział on, co się wydarzyło. Jednak publiczność się nie zorientowała i wykład oraz późniejszy pokaz przyjęto z aplauzem.
      Fleming na wieść o ataku wpadł w szał. Później poinformował o tym Marconiego. Zdecydowano się ujawnić incydent. Jednak Fleming był przekonany, że konwencjonalnymi metodami nie można było dokonać tego typu ataku. Napisał nawet w tej sprawie list do London Times. Po jego opublikowaniu Maskelyne, na łamach tej samej gazety, przyznał się do ataku i stwierdził, że dokonał go jak najbardziej konwencjonalnymi metodami. Afera poważnie zaszkodziła reputacji Fleminga, Marconi nie przedłużył z nim kontraktu. Jednak zdolny inżynier zdołał szybko odzyskać dobre imię, wniósł nowy wkład w komunikację radiową i już dwa lata później ponownie rozpoczął współpracę z Marconim.
      A tzw. afera Maskelyne'a wykazała, że interferencji z innymi systemami radiowymi można uniknąć tylko poprzez narzucenie monopolu, który zakazał produkcji urządzeń nadających w bardzo szerokim paśmie radiowym bez możliwości jego regulacji. Przyspieszyła też zmianę podejścia z takiego, w którym publiczne pokazy i wzbudzana nimi sensacja oraz rozgłos były niezbędne do osiągnięcia sukcesu, w takie, w którym istotne stały się ścisłe regulacje, przydział częstotliwości nadawania oraz ujednolicenie standardów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...