Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Internetowa "telepatia"

Rekomendowane odpowiedzi

W ostatnich latach przeprowadzono co najmniej kilka udanych prób odczytu prostych myśli na podstawie analizy aktywności elektrycznej mózgu. Naukowcy z University of Southampton poszli o krok dalej i postanowili... przekazać odczytane myśli przez Internet do kolejnej osoby.

Szefem zespołu pracującego nad innowacyjną techniką jest dr Christopher James. Celem doświadczenia było sprawdzenie, czy możliwe jest odczytanie, o czym myśli pierwszy z uczestników eksperymentu, przez drugiego uczestnika, połączonego z miejscem wykonywania eksperymentu za pomocą łącza internetowego.

Pierwszą z badanych osób podłączono do elektroencefalografu (EEG) - urządzenia odczytującego aktywność elektryczną mózgu. Badacze poprosili ją o wyobrażanie sobie podnoszenia raz lewej, a raz prawej ręki, po czym wyszukali fale charakterystyczne dla myślenia o każdej z tych czynności. Tak przygotowany sygnał trafił do drugiego ochotnika.

W komputerze odbiorcy zakodowanej informacji zainstalowano diodę LED, mrugającą z częstotliwością tak wysoką, że niemożliwe było świadome określenie odstępów pomiędzy kolejnymi błyskami. Dioda mogła przy tym mrugać nieco wolniej lub nieco szybciej, zależnie od tego, jaki sygnał dotarł do sterującego nią komputera.

Uczestnika patrzącego na diodę także podłączono do EEG, lecz tym razem skupiono się na analizie aktywności kory wzrokowej. Badacze potwierdzili w ten sposób, że w zależności od tego, którą rękę podniósł pierwszy z ochotników, u drugiego pojawiały się zupełnie różne fale mózgowe. Dowiedziono w ten sposób, że możliwe jest przekazanie prostych myśli przez Internet, a następnie podświadome odczytanie ich przez inną osobę.

Metoda opracowana przez badaczy z Southampton może już niedługo pomóc np. osobom sparaliżowanym, które będą mogły sterować licznymi urządzeniami za pomocą własnych myśli. Nie jest też wykluczone, że pojawią się technologie pozwalające na komunikację w miejscach, w których tradycyjne formy porozumiewania się byłyby znacznie ograniczone. Z wynalazku takiego mogliby skorzystać np. ratownicy czy pracownicy zakładów przemysłowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie to to doświadczenie oznacza, że można od jednej osoby do drugiej przesłać sygnał wygenerowany na podstawie aktywności mózgu i można pobudzić inny mózg, jeśli odpowiednio zaaplikuje mu się ten sygnał. Nic tu nie ma o "myślach". jeśli już to bliżej odczuciom wrażeniom... chociaż i tak to by była nadinterpretacja.

 

nawet jak byśmy wzięli jeden mózg pokryli precyzyjną siatką czujników, odczytali wszystkie sygnały i przesłali je do innego mózgu, aktywując te same miejsca, to prawdodpodobnie wywołalibyśmy całkiem inne myśli i wrażenia niż w pierwotnym mózgu. Mózgi by musiały być IDENTYCZNE, identycznie zbudowane, mieć identyczną sieć połączeń między neuronami i umieć dokładnie to samo. A to niemożliwe nawet przy bliźniakach jednojajowych. Jakakolwiek różnica w "pamięci" mózgu skutkowała by że pobudzenie fizycznie tego samego obszaru wywołało by inne wrażenie u drugiej osoby.

 

trzeba by zmapować i idealnie poznać dwa mózgi, i zrobić elektronicznego tłumacza, który przekazując myśli z jednego mózgu do drugiego tłumaczył by je tak żeby trafiały nie do tego samego obszaru w drugim mózgu, tylko do jego odpowiednika..

 

Najprościej było by przekazać informacje o ruchu kończyną i częścią ciała, tak żeby druga osoba powtórzyła ten ruch. Ale tak jak w temacie "telepatia" czy też przekazywanie "myśli" to niezdrowa nadinterpretacja tego eksperymentu. Już same wrażenia są niemożliwe do przekazania. Ja pomyślę o czymś przyjemnym, wrażeniu pozytywnym, np. zapachu mięty, a ktoś nienawidzi mięty i dla niego będzie to wrażenie negatywne... tłumacz by musiał wiedzieć co ja lubię i co lubi druga osoba i jak by chciał przekazywać pozytywne wrażenie o zapachu, to u mnie była by to mięta, a jemu by przetłumaczył na wrażenie zapachu fiołków które on lubi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niestety, z relacji nie dowiadujemy się niczego o tym, co sobie myślał odbiorca, gapiąc się w diodę. Bo to, że w zależności od cżęstotliwości mrugania diody będzie mieć zróżnicowane pobudzenie kory wzrokowej, jest oczywiste.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi o to, że po przez patrzenie na mryganie diody z pewną częstością w korze wzrokowej neurony zaczynają 'pulsować' z dokładnie taką samą częstością (dokładność aż do drugiego miejsca po przecinku). Tutaj niczego nie odkryto, bo takie rzeczy są już od dawna stosowane. Oprócz harmonicznego pobudzania światłem, można też to samo robić poprzez dźwięk i dotyk (oczywiście, wtedy w innych ośrodkach będzie widoczne 'drganie').

Na Uniwersytecie Warszawskim pracują nad podobnymi rzeczami. Poprzez patrzenie na mrygającą macierz diod, ochotnik mógł sterować robotem. Polecam w google wpisać "robot sterowany umysłem" albo wejść na http://brain.fuw.edu.pl i kliknąć na 'interfejs mózg komputer'.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi o to, że po przez patrzenie na mryganie diody z pewną częstością w korze wzrokowej neurony zaczynają 'pulsować' z dokładnie taką samą częstością (dokładność aż do drugiego miejsca po przecinku). Tutaj niczego nie odkryto, bo takie rzeczy są już od dawna stosowane. Oprócz harmonicznego pobudzania światłem, można też to samo robić poprzez dźwięk i dotyk (oczywiście, wtedy w innych ośrodkach będzie widoczne 'drganie').

 

To się zgadza, tylko ze nic dalej nie wiemy o tym, czy odbiorca podczas seansu myślał o machaniu rękami, czy o czymś zgoła innym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
      Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
      Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
      Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
      Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
      Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Uniwersytet Hebrajski w Jerozolimie udostępni całe archiwum Alberta Einsteina. Dzięki internetowi będziemy mogli zapoznać się zarówno z listami miłosnymi uczonego, jak i z jego notatkami, które tworzył pracując nad swoimi teoriami.
      Od 2003 roku w sieci dostępnych jest około 900 zdjęć manuskryptów oraz niekompletny spis obejmujący około połowy archiwum. Teraz, dzięki pieniądzom z Polonsky Foundation, która wcześniej pomogła zdigitalizować prace Izaaka Newtona, zapoznamy się z 80 000 dokumentów i innych przedmiotów, które zostawił Einstein.
      Projekt digitalizacji całości archiwów rozpoczęto 19 marca 2012 roku. Uruchomiono witrynę alberteinstein.info, na której można będzie zapoznawać się ze spuścizną fizyka. Obecnie można na niej oglądać 2000 dokumentów, na które składa się 7000 stron.
    • przez KopalniaWiedzy.pl
      BEREC, agenda Unii Europejskiej odpowiedzialna za regulacje na rynku telekomunikacyjnym poinformowała, że w UE powszechnie blokuje się dostęp do internetu. Według BEREC w ramach praktyk zarządzania ruchem najczęściej ogranicza się przepustowość lub blokuje w ogóle protokół P2P oraz telefonię internetową (VoIP). Ta ostatnia jest blokowana przede wszystkim w sieciach telefonii komórkowej i wynika to z zapisów w umowach zwieranych z klientami.
      Badania przeprowadzone przez BEREC pokazują, że około 25% dostawców internetu usprawiedliwia blokowanie czy ograniczanie ruchu względami „bezpieczeństwa i integralności“ sieci. Około 33% stosuje różne techniki zarządzania ruchem, gdyż obok standardowych usług świadczą też usługi wyspecjalizowane, np. oferują obok internetu telewizję czy telefonię.
      Obecnie BEREC prowadzi analizę uzyskanych danych. Zostaną one sprawdzone, skonsolidowane i na ich podstawie powstanie szczegółowy raport, który zostanie przedstawiony w drugim kwartale bieżącego roku.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...