Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Elon Musk chce łączyć człowieka z komputerem. Neuralink prezentuje implant mózgowy

Recommended Posts

Elon Musk ogłosił przełom w dziedzinie synchronizacji ludzkiego mózgu ze sztuczną inteligencją. Podczas pokazu na żywo Musk zaprezentował układ scalony zbudowany przez jego firmę Neuralink. To w pełni samodzielny implant mózgowy, który bezprzewodowo przesyła informacje o aktywności mózgu, nie wymagając przy tym żadnego zewnętrznego sprzętu. Działanie chipa zaprezentowano na przykładzie żywej świni.

Uczestnicy pokazu mogli zobaczyć grupę świń, z których jedna miała wszczepiony implant. Ekran nad nią na bieżąco pokazywał i rejestrował aktywność jej mózgu. Dotychczas by zarejestrować działanie mózgu konieczne było podłączenie badanej osoby lub zwierzęcia do zewnętrznego urządzenia, np. elektroencefalografu (EEG).

Celem Muska jest stworzenie implantu mózgowego, który bezprzewodowo połączy ludzki mózg ze sztuczną inteligencją i pozwoli na kontrolowanie komputerów, protez i innych maszyn jedynie za pomocą myśli. Implant może służyć też rozrywce. Za jego pomocą będzie bowiem można kontrolować gry.

Musk chce stworzyć implant, który będzie rejestrował i zapisywał aktywność milionów neuronów, przekładając ludzkie myśli na polecenia dla komputera i odwrotnie. Wszystko to miało by się odbywać za pomocą niewielkiego wszczepialnego implantu.
Prace nad implantem pozwalającym na stworzenie interfejsu mózg-komputer trwają od ponad 15 lat. Ich celem jest umożliwienie normalnego funkcjonowania ludziom z chorobami neurologicznymi czy paraliżem. Badania bardzo powoli posuwają się naprzód. Od 2003 w USA implanty mózgowe wszczepiono mniej niż 20 osobom. Wszystkie dla celów badawczych. Większość z takich systemów posiada jednak części, które wystają poza organizm, umożliwiając w ten sposób zasilanie i transmisję danych. Takie zewnętrzne części to ryzyko infekcji. Są ponadto niepraktyczne.

Neuralink twierdzi, że jej układ jest najbardziej zaawansowany z dotychczasowych. Zawiera procesor, nadajnik bluetooth, akumulator oraz tysiące elektrod. Każda z tych elektrod rejestruje aktywność do 4 neuronów.

Bolu Ajiboye, profesor inżynierii biomedycznej z Case Western Reserve Univeristy, który jest głównym naukowcem konsorcjum BrainGate pracującym nad implantami dla pacjentów neurologicznych, mówi, że jeśli chip Muska będzie przez dłuższy czas umożliwiał bezprzewodową transmisję danych, to mamy do czynienia dużym postępem na tym polu. W Neuralinku pracują mądrzy ludzie prezentujący innowacyjne podejście. Wiem, co oni tam robią i z niecierpliwością czekam na wyniki, stwierdza uczony.

Na razie jednak osiągnięcia Neuralink znamy z prezentacji, a nie z recenzowanych artykułów. Nie wiemy na przykład, a jaki sposób urządzenie transmituje tak dużą ilość danych bez generowania uszkadzającego mózg ciepła. Ponadto, jak zauważa Ajiboye, urządzenie jest dość duże jak na implant mózgowy. Jest to bowiem cylinder o średnicy 23 i długości 8 mm. Tymczasem urządzenie, które obecnie testuje BrainGate ma wymiary 4x4 mm. Zawiera też element wystający przez czaszkę oraz 100 elektrod. Tymczasem urządzenie Neuralinka korzysta z 1000 elektrod.

Podczas pokazu z udziałem Muska wykorzystano trzy świnie, z których jedna – imieniem Gertruda – miała wszczepiony implant. Widać było, że za każdym razem gdy Gertruda węszy, zwiększała się aktywność elektryczna jej mózgu.
Jednak rejestracja danych to nie wszystko. Najważniejsze jest ich dekodowanie. Wiele laboratoriów na całym świecie poświęciło wiele czasu na opracowywanie algorytmów mających na celu interpretację sygnałów z mózgu. Neuralink nam tego nie zaprezentował, mówi Ajiboye.

Pierwsze implanty Neuralinka mają mieć zastosowanie medyczne. Mogą np. trafić do ludzi z uszkodzonym rdzeniem kręgowym. Jednak Elon Musk stwierdził, że w przyszłości chce wyjść poza zastosowania medyczne. Słowa te wywołały duże poruszenie w mediach. Jako naukowcy specjalizujący się w dość szczególnej dziedzinie musimy być odpowiedzialni za słowa, ważyć obietnice jakie składamy i uważać na to, co opowiadamy o naszej technologii. Gdy pojawił się Elon Musk nasze prace przyciągnęły uwagę mediów. To dobrze, jednak rodzi to też wyzwania. A jednym z takich wyzwań jest odróżnienie propagandy od rzeczywistości.

 


« powrót do artykułu

Share this post


Link to post
Share on other sites

Tak żem czuł... Czysty marketing, kasa od inwestorów się kończy?

Share this post


Link to post
Share on other sites

Przecież z tego co pamiętam na początku była mowa o takich cudach jak przeglądanie internetu bezpośrednio w umyśle... Czyli uploud danych do mózgu, czegoś takiego na razie jeszcze długo nie będzie a przynajmniej nie z takimi małymi interfejsami korowymi obejmującymi tylko wycinek kory i z tego co wiem, ten nie ma możliwości stymulacji, a więc jest to jednokierunkowy korowy BCI. Ale pomijając marketing - interfejs fajny :)

Share this post


Link to post
Share on other sites
1 godzinę temu, Warai Otoko napisał:

Czyli uploud danych do mózgu, czegoś takiego na razie jeszcze długo nie będzie a przynajmniej nie z takimi małymi interfejsami korowymi obejmującymi tylko wycinek kory i z tego co wiem, ten nie ma możliwości stymulacji, a więc jest to jednokierunkowy korowy BCI.

To chyba nie jest największy problem. Dorosły mózg chyba nie jest aż tak plastyczny, żeby się zorientował i zbudował rozpoznawanie sygnału z nowego narządu. Gdyby wszczepiać takie implanty niemowlakom, może wtedy mózg zdołałby to wykorzystać. Pewnie opanujemy mózg na tyle,ze będzie możliwe wytwarzanie dowolnych wrażeń, myśli, informacji za pomocą stymulacji przezczaszkowej, ale  wtedy to zakładam czapeczkę aluminiową :D Choć pewnie do tego czasu to i białe karły zdążą wyparować.

Share this post


Link to post
Share on other sites
25 minut temu, Jajcenty napisał:

To chyba nie jest największy problem. Dorosły mózg chyba nie jest aż tak plastyczny, żeby się zorientował i zbudował rozpoznawanie sygnału z nowego narządu. Gdyby wszczepiać takie implanty niemowlakom, może wtedy mózg zdołałby to wykorzystać.

Nie za bardzo rozumiem :P Co nie jest problemem, ten "uploud" ? Dorosły mózg jest plastyczny całe życie, inaczej nie mógłbyś się uczyć, oczywiście sa limity. Mózg dziecka uczy się zupełnie inaczej, ale nie wiem jak to powiązać z tym co napisałeś :P

Share this post


Link to post
Share on other sites
Godzinę temu, Warai Otoko napisał:

Mózg dziecka uczy się zupełnie inaczej, ale nie wiem jak to powiązać z tym co napisałeś

Eksperyment: wszczepiam kamerę termowizyjną niemowlakowi i dorosłemu, gdzieś w okolice nerwu wzrokowego. Kamera zamienia obraz na impulsy niskonapięciowe, które dostarczam drutem do wnętrza czaszki. Mój postulat:

u dziecka wykształcą się struktury w mózgu pozwalające skorzystać z nowego zmysłu np. łapanie piłki w ciemności,

u dorosłego nic się nie wykształci - będzie mu tylko niewygodnie.

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

Ale to calkowite Sci-Fi, bo ja się na tym całkowicie nie znam.

 

Share this post


Link to post
Share on other sites
16 minut temu, Jajcenty napisał:

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

aa rozumiem teraz, czyli, że interfejs stymulujący, taki, żeby "odbierać internet mózgiem" msuiałby być wszczepiony niemowlakowi. Ma to sens, u dorosłych musiałby ten interfejs być "rozległy" i "dokładny" + bez treningu by się nie obyło. Mi chodzi o to, że takie interfejsy musiałby stymulować np. całą korę a i to by mogło nie wystarczyć, a nie tylko fragment jak w Neuralink. 

Share this post


Link to post
Share on other sites
2 godziny temu, Jajcenty napisał:

Eksperyment: wszczepiam kamerę termowizyjną niemowlakowi i dorosłemu, gdzieś w okolice nerwu wzrokowego. Kamera zamienia obraz na impulsy niskonapięciowe, które dostarczam drutem do wnętrza czaszki. Mój postulat:

u dziecka wykształcą się struktury w mózgu pozwalające skorzystać z nowego zmysłu np. łapanie piłki w ciemności,

u dorosłego nic się nie wykształci - będzie mu tylko niewygodnie.

Dlatego sądzę że implanty, albo muszą doskonale naśladować sygnały z urządzeń wejścia (oko, ucho, etc.), albo muszą być implantowane jak najwcześniej.

Ale to calkowite Sci-Fi, bo ja się na tym całkowicie nie znam.

 

@Jajcenty @Warai Otoko hm... a co kamerkami dla niewidomych gdzie impuls do mózgu szedł przez język, kiedyś oglądałem jakiś program o tym i dziennikarz był w stanie to podczepić i "widzieć" (całość miało bardzo małą rozdzielczość) nie wiem tylko czy musiał ćwiczyć czy to było jakoś podpięte "w okoliach nerwów oczu" chociaż z tego co pamiętam było to podpięte pod język.

Share this post


Link to post
Share on other sites
Posted (edited)

Musk jest świetnym marketingowcem. Wizjonerem jakby dużo mniejszym.
Na razie mamy świnię z bluetooth.
To co Musk robi to sprzedaje wizję przyszłości. Do której jest mu bardzo daleko.
Dobrze kojarzę że co noc trzeba to ustrojstwo ładować przypinając sobie do głowy kabelek magnetycznie lub podobnie?
Gdzie w sumie mamy już technologię pozwalającą ładować mikroukładziki bezpośrednio z ciała ludzkiego.
Owszem połączenie człowieka z siecią jest przyszłością. Ale Musk sprzedaje póki co film s-f na ten temat.
Film który był już w latach 90-tych:
https://efc.fandom.com/wiki/Cyber-Viral_Implant

Edited by thikim

Share this post


Link to post
Share on other sites
Godzinę temu, Afordancja napisał:

m... a co kamerkami dla niewidomych gdzie impuls do mózgu szedł przez język, kiedyś oglądałem jakiś program o tym i dziennikarz był w stanie to podczepić i "widzieć" (całość miało bardzo małą rozdzielczość) nie wiem tylko czy musiał ćwiczyć czy to było jakoś podpięte "w okoliach nerwów oczu" chociaż z tego co pamiętam było to podpięte pod język.

Na mnie robi to wrażenie bardziej zaawansowanej białej laski czy wyświetlacza Braille'a. A tu chodzi bardziej o zmysł. Informację do której jest nieświadomy dostęp, dzięki czemu można uruchomić odruchy typu unik czy wzdrygnięcie. W moim eksperymencie, na pytanie gdzie jesteś, dziecko odpowiada : 54.068824, 23.087012 :D

 

Share this post


Link to post
Share on other sites
1 godzinę temu, Jajcenty napisał:

W moim eksperymencie, na pytanie gdzie jesteś, dziecko odpowiada : 54.068824, 23.087012

Wigry? Kiepski pomysł. Pan Samochodzik to już chyba nie te czasy. ;)

1 godzinę temu, Jajcenty napisał:

Na mnie robi to wrażenie bardziej zaawansowanej białej laski

Łoj. Może jednak nie ta: https://www.youtube.com/watch?v=qkgOyeIsXOw (osobiście ją uwielbiam). ;)

1 godzinę temu, Jajcenty napisał:

A tu chodzi bardziej o zmysł.

Tu masz absolutnie rację, pozdrawiam.

Share this post


Link to post
Share on other sites
14 godzin temu, Jajcenty napisał:

Na mnie robi to wrażenie bardziej zaawansowanej białej laski czy wyświetlacza Braille'a. A tu chodzi bardziej o zmysł.

A czym jest zmysł? Zmysł to jest receptor + odpowiedni program (siec neuronowa/moduły) w mózgu. To o czym tutaj rozmawiamy to są interfejsy nerwowe, ten z językiem to też jest interfejs nerwowy. Każdy rejestrujący interfejs nerwowy można w pewnym sensie nazwać dodatkowym zmysłem ponieważ, będzie on wprowadzał zamiany plastyczne w mózgu. Kwestia konwencji terminologicznej. Oczywiście interfejsy mogą być różnych typów ale to już inny temat. 

Share this post


Link to post
Share on other sites
Godzinę temu, Warai Otoko napisał:

Kwestia konwencji terminologicznej. Oczywiście interfejsy mogą być różnych typów ale to już inny temat. 

Oczywiście. Jednak intuicyjnie wyczuwam znaczną różnicę między wędzidłem, a telepatią ;)

 

Share this post


Link to post
Share on other sites
4 minuty temu, Jajcenty napisał:

Oczywiście. Jednak intuicyjnie wyczuwam znaczną różnicę między wędzidłem, a telepatią ;)

Jasne :P dlatego mówię - są różne typy interfejsów, różnią się jakościowo i ilościowo, zresztą szeroki temat :P Ten z tym językiem to byłby stymulujący interfejs nerwowy, albo neuroproteza czuciowa, której funkcją byłoby własnie zastąpienie zmysłu wzroku. Natomiast interfejs Neuralink to jest rejestrujący interfejs korowy - może mieć różne funkcje, ale akurat własnie na pewno nie zastąpienie zmysłów (przynajmniej o ile nie ma możłiwości stymulacji). O telepatii też nie ma mowy bez tej stymulacji. A przynajmniej nie telepatii mózg-mózg, tylko jak już mózg-komputer-mózg. 

Share this post


Link to post
Share on other sites
2 godziny temu, ex nihilo napisał:

Może już czas zacząć się przyzwyczajać:

Ciekawa sprawa, w pewnym momencie widać, że człowiek ogląda twarz kobiety, a sieć neuronowa odtwarza ją jako twarz mężczyzny. Czyli sieć dopasowuje do tego, czego się wcześniej "naumiała". Przychodzi mi do głowy mnóstwo "fajnych" skojarzeń w kontekście niedawno przypomnianego w innym wątku pana Orwella, ech ;(

Share this post


Link to post
Share on other sites
4 godziny temu, ex nihilo napisał:

Super pomysł i duża nadzieja na poprawę jakości życia dla np sparaliżowanych

Ciekawe, byłem pewien, że to indywidualnie uczone modele, jeden człowiek - jeden zestaw liczb i w tym nie widziałbym nic sensacyjnego. Jednak, model wspólny dla kilku osób jest zaskakujący bo to by oznaczało mniej więcej tak samo przetwarzamy obraz. Mam kilka wątpliwości :) Model może być w miarę dobry dla osób biorących udział w eksperymencie, a już niekoniecznie dobry dla osób z którymi NN nie miała kontaktu. Np. eskimos widzący wielbłąda na pustyni może być trudny :D

Teraz pozostaje tylko czytać EEG zdalnie np. z satelitów i pozamiatane.

2 godziny temu, darekp napisał:

Przychodzi mi do głowy mnóstwo "fajnych" skojarzeń w kontekście niedawno przypomnianego w innym wątku pana Orwella, ech ;(

Na pewno mamy problem etyczny, ale 100% wariograf znacznie usprawnił wymiar sprawiedliwości. Jeszcze tylko implementacja wspomnień i mamy cały komplet. Mordujemy nielubianego sąsiada, wspomnienia z wydarzenia implementujemy drugiemu nielubianemu sąsiadowi, jeszcze tylko 'życzliwy donosi' i już. Możemy czekać aż znowu nam ze dwie osoby podpadną ;)

Edited by Jajcenty

Share this post


Link to post
Share on other sites
5 godzin temu, ex nihilo napisał:

Może już czas zacząć się przyzwyczajać:

Też o tym słyszałem już jakiś czas temu, ciekawe na ile uda im się poprawić dokładność. Jedno mnie zastanowiło, tam jest napisane: 

"generowania przypadkowych obrazów z danych kategorii na podstawie szumów i drugą do generowania podobnego szumu na podstawie EEG. Następnie wyćwiczyli obie sieci do interpretowania fal mózgowych i przekładania ich na realne obrazy, które będą jak najbardziej odzwierciedlały wszystko to, co widzi aktualnie osoba poddana testom."

Zastanawia mnie to "generowania przypadkowych obrazów z danych kategorii " - czy to oznacza, że obrazy tak na prawdę nie są przypadkowe tylko są jakby "losowane"(generowane, ale na podstawie przykładowych obrazów? a jeśli nie to jak zdefiniowali kategorie?) z danego zbioru? Inaczej sobie tego nie wyobraża za bardzo... Przynajmniej nie przy dzisiejszej technologii, a to by oznaczało, że modele mają wiedze a priori co do obrazów, więc od tego do "zczytywania" nieznanczyh wcześniej obrazów z mózgu jeszcze jednak daleka droga... 

43 minuty temu, Jajcenty napisał:

eskimos widzący wielbłąda na pustyni może być trudny

No i żeby odczytać czy eskimos patrzy na wielbłąda siec musiałaby wcześniej sama "patrzec na tego wielbłąda" :P  

 

44 minuty temu, Jajcenty napisał:

Teraz pozostaje tylko czytać EEG zdalnie np. z satelitów i pozamiatane.

To nam raczej nie grozi bo dysypacja energii pola elektromagnetycznego powoduje, że w odległości chyba 5 mm od skóry czaski jest już zupełnie nie wykrywalna, a przynajmniej nie w takiej postaci, że da się cokolwiek z tego odczytać o pracy mózgu. 

47 minut temu, Jajcenty napisał:

Jeszcze tylko implementacja wspomnień i mamy cały komplet.

No własnie ta implementacja - tego jeszcze w ogóle nie ma za bardzo, jest coś tam z tDCS i TMS ale słabo w porównaniu do interfejsów rejestrujących. Możesz w ściśle kontorlowanych warunkach, tymczasowo implementowac jakieś wrażenia (np. poczucie że ktoś jest w pomieszczeniu)  i ew. zakłucać zmysły. 

Share this post


Link to post
Share on other sites
2 minuty temu, Warai Otoko napisał:

To nam raczej nie grozi bo dysypacja energii pola elektromagnetycznego powoduje, że w odległości chyba 5 mm od skóry czaski jest już zupełnie nie wykrywalna, a przynajmniej nie w takiej postaci, że da się cokolwiek z tego odczytać o pracy mózgu. 

Dzisiaj tak jest. jutro się może się okazać, że EEG subtelnie interferuje z GSM i wystarczy zhakowany telefon że 'kraść' eeg osób w pomieszczeniu z telefonem :P No i Panowie Fizycy upierają się, że informacja nie ginie, w tym sensie nie dbają o Twoje obawy o S/N.

Share this post


Link to post
Share on other sites
44 minuty temu, Jajcenty napisał:

Dzisiaj tak jest. jutro się może się okazać, że EEG subtelnie interferuje z GSM i wystarczy zhakowany telefon że 'kraść' eeg osób w pomieszczeniu z telefonem :P No i Panowie Fizycy upierają się, że informacja nie ginie, w tym sensie nie dbają o Twoje obawy o S/N.

Nie wiem czy dobrze rozszyfrowuje Twoje "S/N", ale Panowie fizycy raczej nie sa najlepsi jeśli chodzi o informację (tylko energię i materię), tutaj raczej cybernetyka i teoria informacji  ma więcej do powiedzienia, przynajmniej jeśli mówa o elementach jakościowych. Krótko mówiąc - własnie tym się informacja charakteryzuje i tym różni od enrergi, że własnie ginie :P 

Wiem, że zaraz się ktoś przyczepi że w mechanice kwantowej informacje gra role etc. I faktycznie może i tak - nie wiem o tym za dużo, ale jeśli mówią oni że "kwantowa informacja" nie ginie, to pewnie problem polega jak zwykle na definicjach i używają oni po prostu słowa informacja niepoprawnie/inaczej, lub jak to często bywa z MK - dotyczy to tylko świata kwantowego ;P

A co do interferencji z GSM - no jasne, może i tak się okaże, ale dysypacja znów załatwia temat bo inaczej teledfon musiałbyś mieć cały czas przy skórze głowy. A nawet jeśli hakowałbyś tylko w momentach kiedy rozmawiasz to mógłbyś odczytać jedynie informację z fragmentu mózgu i to tylko z procesów odbywających się własnie w tym czasie! 

Share this post


Link to post
Share on other sites
11 minut temu, Warai Otoko napisał:

ale Panowie fizycy raczej nie sa najlepsi jeśli chodzi o informację (tylko energię i materię),

Nie znam szczegółów, ale gdzieś czytałem (jakaś bardzo popularnonaukowa książka z fizyki, nie pamiętam jaka), że np. to, że czarna dziura niszczy informację, przeszkadza teoretykom w jakichś rozważaniach teoretycznych i oni w to w jakiś sposób "nie wierzą", tzn. spodziewają się, że po odpowiednim poprawieniu teorii okaże się, że z czarnej dziury można odzyskać informację, która do niej wpadła. Może nawet tego nie zrozumiałem, może chodziło o coś innego, ale tak przy okazji mi się przypomniało.

P.S. Możliwe, że chodziło o jakieś trajektorie w przestrzeni fazowej, że coś się skleja, a nie powinno, czy jakoś tak(???)

Edited by darekp

Share this post


Link to post
Share on other sites
17 minut temu, darekp napisał:

Nie znam szczegółów, ale gdzieś czytałem (jakaś bardzo popularnonaukowa książka z fizyki, nie pamiętam jaka), że np. to, że czarna dziura niszczy informację, przeszkadza teoretykom w jakichś rozważaniach teoretycznych i oni w to w jakiś sposób "nie wierzą",

No ja tez nie wiem dokładnie w czym rzecz, ale tak jak pisałem wczesniej - myślę, że chodzi o kwestie definicji informacji. Czarna dziura niszczy informacje, ale jak zdefiniowaną? Jako co? W tym pewnie tkwi problem. 

Share this post


Link to post
Share on other sites
12 minut temu, darekp napisał:

W tym artykule informacja jest utożsamiana z entropią (czy też jej odwrotnością), co ma sens w sensie ilościowym - jak ma to miejsce w ilościowej/komunikacyjnej/klasycznej teorii informacji. Z tym, że w niej jest jedynie mowa własnie o ilości informacji i tyle. Jest tam też mowa o "przedmiotach które zawierają informację", w czym jest zawarta ta inafomacja? Jak? Chodzi po rpostu o entropię, a nie o informację w takim sensie jak rozumie ją współczensa filozofia informacji i cybernetyka i nie w takim sensie jak my ja potocznie rozumiemy. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Ponad 30% osób chorujących na COVID-19 doświadcza objawów neurologicznych, takich jak utrata węchu i smaku, bóle głowy, zmęczenie, mdłości i wymioty. Do tego mogą dołączać ostra choroba naczyniowo-mózgowa czy zaburzenia świadomości. Objawy te sugerują, że wirus SARS-CoV-2 może przedostawać się do mózgu. I rzeczywiście, zarówno w mózgach zmarłych jak i w płynie mózgowo-rdzeniowym znaleziono RNA wirusa, nie wiadomo jednak, w jaki sposób on się tam znalazł.
      Niemiecki zespół naukowy z Charite, Wolnego Uniwersytetu Berlińskiego, Instytutu Roberta Kocha i innych instytucji badawczych, odkrył RNA oraz białka wirusa w różnych anatomicznie obszarach nosogardła i mózgu. Autopsje zmarłych sugerują, że wirus może przedostawać się do mózgu poprzez nos.
      Na łamach Nature Neuroscience, w artykule Olfactory transmucosal SARS-CoV-2 invasion as a port of central nervous system entry in individuals with COVID-19 opisano badania, które przeprowadzono na 33 osobach zmarłych chorujących na COVID-19.
      Naukowcy zauważają, że wśród 7 koronawirusów, które infekują ludzi, co najmniej dwa endemiczne szczepy są w stanie przedostać się do centralnego układu nerwowego. Są to SARS-CoV oraz MERS-CoV, które ewolucyjnie są blisko spokrewnione z SARS-CoV-2. Teraz autorzy najnowszych badań donoszą, że RNA wirusa SARS-CoV-2 wykryli w centralnym układzie nerwowym 48% pacjentów, których poddali autopsji.
      Profesor Frank Heppner z Charité–Universitätsmedizin Berlin i jego zespół sprawdzili nosogardło – pierwsze miejsce, w którym może dochodzić do infekcji i replikacji wirusa – oraz mózgi 33 pacjentów (22 mężczyzn i 11 kobiet), które zmarły w czasie, gdy chorowały na COVID-19. Mediana wieku zmarłych wynosiła 71,6, a mediana czasu od wystąpienia objawów COVID-19 do zgonu to 31 dni.
      Autorzy badań odkryli RNA wirusa SARS-CoV-2 w nosogardle i mózgu wielu badanych. Najwięcej wirusowego RNA znajdowało się w błonie śluzowej nosa. Zauważyli też, że czas trwania choroby był ujemnie skorelowany z ilością wykrytego materiału wirusowego, co oznacza, że więcej śladów SARS-CoV-2 odkryto u osób, które chorowały krócej.
      Naukowcy donoszą też, że białko S wirusa, za pomocą którego infekuje on komórki, znajdowało się w pewnych typach komórek błony śluzowej. Nie można wykluczyć, że wirus wykorzystuje fakt, że komórki te sąsiadują z komórkami nabłonka i nerwowymi, dzięki czemu może dostać się do mózgu. U niektórych pacjentów białko S znaleziono w komórkach, w których dochodzi do ekspresji markerów neuronowych. Nie można więc wykluczyć, że wirus infekuje neurony węchowe oraz te obszary mózgu, do których docierają informacje o smaku i zapachu. Co więcej, ślady wirusa znaleziono też w innych obszarach mózgu, w tym w rdzeniu przedłużonym, w którym znajdują się m.in. ośrodek oddechowy, ośrodek sercowy czy ośrodki odpowiedzialne za wymioty.
      Spostrzeżenia niemieckich naukowców mogą wyjaśniać wiele objawów neurologicznych, które występują u chorujących na COVID-19.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      AlphaFold, sieć sztucznej inteligencji zbudowana w oparciu o słynny DeepMind dokonała olbrzymiego kroku w kierunku poradzenia sobie z jednym z najpoważniejszych wyzwań nauk biologicznych – określeniem kształtu białek z sekwencji ich aminokwasów. To zmieni medycynę, zmieni bioinżynierię. Zmieni wszystko, mówi Andrei Lupas, biolog ewolucyjny z Instytutu Biologii Rozwojowej im. Maxa Plancka w Tybindze, który oceniał możliwości podobnych programów. Lupas dobrze zna AlphaFold. Program pomógł określić mu strukturę białka, z którym jego laboratorium nie mogło sobie poradzić od dekady.
      Możliwość określenia prawidłowej struktury białek pozwoli zarówno na lepsze zrozumienie życia, jak i na szybsze opracowywanie supernowoczesnych leków. Obecnie znamy 200 milionów białek, ale w pełni rozumiemy strukturę i funkcję niewielkiego ułamka z nich. Jednak nawet opisanie tej niewielkiej liczby dobrze poznanych białek zajęło nauce wiele lat, a do ich badań konieczny był wyspecjalizowany sprzęt warty miliony dolarów.
      AlphaFold pokonał około 100 innych programów, które wraz z nim stanęły do zawodów CASP (Critical Assesment of Structure Prediction). Zawody odbywają się co dwa lata, a AlphaFold wystartował w nich po raz pierwszy w 2018 roku i od razu trafił na szczyt klasyfikacji. Jednak w tym roku jego możliwości zaskoczyły specjalistów. Nie dość, że znacząco wyprzedził konkurencję, to jego osiągnięcia były tak imponujące, iż mogą zwiastować rewolucję w biologii.
      W niektórych przypadkach wyniki uzyskane za pomocą AlphaFold nie różniły się niczym od tych osiąganych za pomocą metod eksperymentalnych stanowiących złoty standard, takich jak krystalografia rentgenowska czy mikroskopia krioelektronowa. Naukowcy mówią, że AlphaFold nie zastąpi – przynajmniej na razie – tych metod, ale już teraz pozwoli na badanie struktur biologicznych w zupełnie nowy sposób.
      Białka to podstawowe budulce organizmów żywych. Odpowiedzialne są za większość procesów zachodzących w komórkach. O tym, jak działają i co robią, decyduje ich struktura 3D. Odpowiedni kształt przyjmują one bez żadnej instrukcji, kierowane jedynie prawami fizyki.
      Od dziesięcioleci główną metodą określania kształtów białek były metody eksperymentalne. Badania tego problemu rozpoczęto w latach 50. ubiegłego wieku korzystając z metod krystalografii rentgenowskiej. W ostatniej dekadzie preferowanym narzędziem badawczym stała się mikroskopia krioelektronowa.
      W latach 80. i 90. zaczęto prace nad wykorzystaniem komputerów do określania kształtu protein. Jednak nie szło to zbyt dobrze. Metody, które sprawdzały się przy jednych białkach nie zdawały egzaminu przy badaniu innych. John Moult, biolog obliczeniowy z University of Maryland, wraz z kolegami wpadł na pomysł zorganizowania CASP, zawodów, które miały uporządkować prace nad wykorzystaniem komputerów do badania kształtów białek. W ramach tych zawodów przed zespołami naukowymi stawia się zadanie określenia właściwej struktury protein, których to struktura została wcześniej określona metodami eksperymentalnymi, ale wyniki tych badań nie zostały jeszcze upublicznione.
      Moult mówi, że eksperyment ten – uczony unika słowa „zawody” – znakomicie przysłużył się badaniom na tym polu, pozwolił na uporządkowanie metod i odrzucenie wielu nieprawdziwych twierdzeń. Tutaj naprawdę możemy przekonać się, która metoda jest obiecująca, która działa, a którą należy odrzucić, stwierdza.
      W 2018 roku na CASP13 po raz pierwszy pojawił się AlphaFold. To algorytm sztucznej inteligencji bazujący na słynnym DeepMind, który pokonał mistrza go Lee Sedola, przełamując kolejną ważną barierę dla sztucznej inteligencji.
      Już w 2018 roku AlphaFold zyskał sobie uznanie specjalistów. Jednak wówczas korzystał z bardzo podobnych technik, co inne programy. Najpierw wykorzystywał metody głębokiego uczenia się oraz dane strukturalne i genetyczne do określenia odległości pomiędzy parami aminokwasów w proteinie, a następnie – już bez użycia SI – wypracowywał „konsensus” dotyczący ostatecznego wyglądu proteiny. Twórcy AlphaFolda próbowali to udoskonalać korzystając z takiego właśnie modelu, ale natrafili na przeszkody nie do pokonania.
      Zmienili więc taktykę i stworzyli sieć sztucznej inteligencji, która wykorzystywała też informacje o fizycznych i geometrycznych ograniczeniach w zawijaniu białek. Ponadto nowy model zamiast przewidywać zależności pomiędzy poszczególnymi aminokwasami miał do zrobienia coś znacznie trudniejszego – przewidzieć ostateczny kształt białka.
      CASP trwa kilka miesięcy. Biorące w nim udział zespoły regularnie otrzymują niezbędne informacje o proteinach lub ich fragmentach – w sumie jest ich około 100 – i mają określić ich strukturę. Wyniki pracy tych zespołów oceniają niezależni eksperci, którzy sprawdzają, na ile wyniki uzyskane na komputerach są zgodne z rzeczywistą strukturą białek określoną wcześniej metodami eksperymentalnymi. Oceniający nie wiedzą, czyją pracę oceniają. Wyniki są anonimizowane. Dane z AlphaFold były w bieżącym roku opisane jako „grupa 427”. Jednak niektóre z przewidywań dostarczonych przez tę grupę były tak dokładne, że wielu sędziów domyśliło się, kto jest autorem pracy. Zgadłem, że to AlphaFold. Większość zgadła, mówi Lupas.
      AlphaFold nie sprawował się równo. Raz radził sobie lepiej, raz gorzej. Ale niemal 2/3 jego przewidywań dorównywało wynikom uzyskanym metodami eksperymentalnymi. Czasami nie było wiadomo, czy różnica wynika z niedoskonałości AlphaFold czy metod eksperymentalnych. Jak mówi Moult, największą różnicę pomiędzy AlphaFold a metodami eksperymentalnymi było widać, gdy rzeczywisty wygląd proteiny określano za pomocą rezonansu jądrowego. Jednak różnica ta może wynikać ze sposobu obróbki surowych danych uzyskanych tą metodą. AlphaFold słabo sobie radził też w określaniu indywidualnych struktur w grupach protein, gdzie kształt białka mógł być zaburzany obecnością innego białka.
      Ogólnie rzecz biorąc średnia wydajność modeli biorących udział w tegorocznym CASP była lepsza niż przed dwoma laty, a za większość postępu odpowiadał AlphaFold. Na przykład tam, gdzie proteiny określano jako średnio trudne najlepsze modele uzyskiwały 75 na 100 możliwych punktów, a AlphaFold uzyskał tam 90 punktów. Przekroczenie granicy 90 punktów uznaje się za dorównanie metodom eksperymentalnym.
      Mohammed AlQuraishi, biolog obliczeniowy z Columbia University, który też brał udział w CASP chwali osiągnięcie AlphaFold: myślę, że trzeba uczciwie powiedzieć, iż osiągnięcie to wstrząśnie dziedziną badania struktur białek. Sądzę, że wielu specjalistów przestanie się tym zajmować, gdyż główny problem został rozwiązany. To olbrzymi przełom, jedno z najważniejszych osiągnięć naukowych, jakie widziałem w swoim życiu.
      O tym, jak wielkie możliwości ma AlphaFold i jak olbrzymia rewolucja może nadchodzić niech świadczy przykład badań, jakie prowadził zespół Andreia Lupasa. Niemcy od dawna próbowali określić strukturę białka pewnej bakterii. Za pomocą krystalografii rentgenowskiej uzyskali surowe dane, jednak ich przełożenie na odpowiednią strukturę wymagało pewnych informacji o kształcie proteiny. Wszelkie próby rozwiązania zagadnienia spaliły na panewce. Spędziliśmy dekadę próbując wszystkiego. Model opracowany przez group 427 dostarczył nam tę strukturę w ciągu pół godziny, mówi Lupas.
      Demis Hassabis, współzałożyciel i szef firmy DeepMind, która obecnie należy do Google'a, mówi, że jego firma dopiero zaczyna rozumieć, czego biolodzy chcą od AlphaFold.
      AlphaFold już zresztą przydaje się w praktyce. Na początku 2020 roku algorytm opisał strukturę kilku białek wirusa SARS-CoV-2. Później okazało się, że przewidywania dotyczące białka Orf3a zgadzają się z wynikami uzyskanymi eksperymentalnie.
      Rozpowszechnienie się AlphaFold raczej nie doprowadzi do zamknięcia laboratoriów. Jednak dzięki niemu do określenia struktury protein wystarczą gorszej jakości, a więc i łatwiejsze do uzyskania, dane. Możemy się też spodziewać olbrzymiej liczby odkryć, gdyż już w tej chwili dysponujemy olbrzymią liczbą danych, które program będzie mógł wykorzystać. Dodatkową korzyścią jest fakt, że będzie można prowadzić bardziej zaawansowane badania. Nowa generacja biologów molekularnych będzie mogła zadać bardziej złożone pytania. Będą mogli skupić się bardziej na myśleniu niż na prowadzeniu eksperymentów, mówi Lupas.
      Naukowcy mają nadzieję, że dzięki AlphaFold poznamy funkcje tysięcy białek tworzących ludzkie DNA, a to z kolei pozwoli nam poznać przyczyny wielu chorób.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cerebras Systems, twórca niezwykłego olbrzymiego procesora dla sztucznej inteligencji, poinformował, że jest on szybszy niż procesy fizyczne, które symuluje. W symulacji, składającej się z 500 milionów zmiennych CS-1 zmierzył się z superkomputerem Joule, 69. najpotężniejszą maszyną na świecie. I wykonał swoje zadanie 200-krotnie szybciej niż ona.
      O powstaniu niezwykłego procesora oraz wyzwaniach inżynieryjnych z nim związanych informowaliśmy na początku bieżącego roku. Wówczas jego twórcy obiecywali, że do końca roku przekonamy się o jego wydajności. I słowa dotrzymali.
      CS-1 symulował proces spalania w elektrowniach węglowych. I przeprowadził symulację tego procesu szybciej, niż zachodzi sam proces. Firma Cerebras i jej partnerzy z US National Energy Technology Center (NETL) mówią, że CS-1 jest znacznie szybszy od jakiegokolwiek superkomputera bazującego na tradycyjnych układach CPU czy GPU.
      Jak wyjaśnia dyrektor Cerebras, Andrew Feldman, prognozowanie pogody, projektowanie skrzydeł samolotu, przewidywanie rozkładu temperatur w reaktorze jądrowym i wiele innych złożonych problemów jest rozwiązywanych poprzez badanie ruchu cieczy w przestrzeni i czasie. W czasie takiej symulacji dzieli się przestrzeń na sześciany, modeluje ruch cieczy w każdym z sześcianów i określa interakcje pomiędzy sześcianami. W symulacji może być milion lub więcej sześcianów i 500 000 zmiennych.
      Przeprowadzenie odpowiednich obliczeń wymaga olbrzymiej mocy, wielu rdzeni, olbrzymiej ilości pamięci umieszczonej jak najbliżej rdzeni obliczeniowych, wydajnych połączeń pomiędzy rdzeniami oraz pomiędzy rdzeniami a układami pamięci. Wymaga też długotrwałego trenowania odpowiednich modeli sieci neuronowych.
      Układ CS-1 na pojedynczym kawałku krzemu mieści 400 000 rdzeni, 18 gigabajtów pamięci oraz łącza umożliwiające przesyłanie pomiędzy rdzeniami danych z prędkością 100 Pb/s, a przesył pomiędzy rdzeniami a układami pamięci odbywa się z prędkością 9 PB/s.
      Specjaliści z NETL postanowili porównać możliwości superkomputera Joule z możliwościami CS-1. Joule korzysta z 84 000 rdzeni CPU i do pracy potrzebuje 450 KW. Cerebras używa zaledwie 20 KW. Joule przeprowadził odpowiednie obliczenia w ciągu 2,1 milisekundy. CS-1 zajęły one 6 mikrosekund, był więc ponad 200-krotnie szybszy.
      Jak mówi Feldman, olbrzymia wydajność CS-1 niesie ze sobą dwa wnioski. Po pierwsze obecnie nie istnieje żaden superkomputer zdolny do pokonania CS-1 w rozwiązywaniu tego typu problemów. Wynika to z faktu, że takie symulacje nie skalują się dobrze. Dokładanie kolejnych rdzeni do współczesnych superkomputerów nie tylko nie pomoże, ale może nawet spowalniać tak wyspecjalizowane obliczenia. Dowiodło tego chociażby porównanie CS-1 i Joule'a. Superkomputer pracował najbardziej wydajnie, gdy używał 16 384 z 84 000 dostępnych rdzeni. Problemy takie wynikają z połączeń pomiędzy rdzeniami i pomiędzy rdzeniami a układami pamięci.
      Jeśli chcemy na przykład symulować układ składający się z zestawu 370x370x370 sześcianów to CS-1 mapuje warstwy na sąsiadujące ze sobą rdzenie. Komunikacja między rdzeniami odbywa się błyskawicznie, więc szybko wymieniają one dane dotyczące sąsiadujących sześcianów, a obliczenia dla każdej z warstw są przechowywane w znajdujących się na tym samym krzemie układach pamięci, więc rdzenie również mają do niej bezpośredni dostęp.
      Dodatkowo, jako że CS-1 jest w stanie przeprowadzić symulacje procesów fizycznych szybciej niż te procesy się odbywają, może zostać też wykorzystany do kontrolowania pracy złożonych systemów obliczeniowych.
      Feldman poinformował, że wśród klientów korzystających z SC-1 są m.in. GlaxoSmithKline, Argonne National Laboratory, Lawrence Livermore National Laboratory, Pittsburgh Supercomputing Centre oraz niewymienione z nazwy firmy i instytucje z branż wojskowej, wywiadowczej oraz przemysłu ciężkiego.
      Co więcej Cerebras ma już gotowego następcę CS-1. Został on wykonany w technologii 7nm (CS-1 zbudowano w technologi 16nm), korzysta z 40 GB pamięci (CS-1 z 20 GB) i 850 000 rdzeni (CS-1 ma 400 000 rdzeni).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Henrique Andrade, student z brazylijskiego Escola Politécnica da Universidade de Pernambuco od wielu lat interesuje się starymi mapami swojego rodzinnego miasta Recife. Zgromadziłem wiele cyfrowych kopii takich map i odkryłem o swoim mieście rzeczy, które nie są powszechnie znane. Ludziom z Recife odebrano dostęp do przeszłości, przez co mają problem ze zrozumieniem, kim są i co mogą zrobić dla swojej przyszłości, mówi Andrade. Student wpadł jednak na bardzo interesujący pomysł.
      Młody człowiek namówił profesora Bruno Fernandesa do stworzenia algorytmu maszynowego uczenia się, który przetwarzałby stare mapy na obrazy satelitarne takie, jaki widzimy w serwisie Google Maps. Zdaniem Andrade pomoże to zrozumieć ludziom, jak ich otoczenie zmieniało się z czasem, w tym jaki wpływ społeczny i ekonomiczny miała urbanizacja.
      Obaj uczeni wykorzystali istniejące narzędzie do sztucznej inteligencji zwane Pix2pix, które opiera się na dwóch sieciach neuronowych. Pierwsza z nich tworzy obrazy na podstawie danych, które otrzymuje, a druga decyduje, czy obraz jest prawdziwy czy nie. Obie sieci zostały tak wytrenowane, by próbowały nawzajem się oszukać. Ostatecznyme efektem ich pracy są realistycznie wyglądające obrazy.
      Andrade i Fernandes opublikowali szczegóły w piśmie IEEE Geoscience and Remote Sensing Letters. Na potrzeby swojej pracy stworzyli „satelitarny” obraz Recife na podstawie mapy z 1808 roku i zestawili go z obecnym obrazem satelitarnym tego samego obszaru. Gdy patrzysz na te obrazy, lepiej pojmujesz, jak zmieniło się miasto w ciągu ostatnich 200 lat. Widać dramatyczne zmiany jego geografii. Zbiorniki wody zostały zasypane odpadami, ludzie usunęli też tereny zielone, mówi Andrade.
      Młody uczony dodaje, że dużą zaletą zastosowanej techniki jest fakt, że SI potrzebuje stosunkowo niewiele danych. Jednak muszą być one umieszczone w kontekście historycznym, a rozdzielczość wygenerowanych obrazów jest mniejsza, niż życzyliby sobie naukowcy. Pracujemy nad poprawieniem rozdzielczości i eksperymentujemy z różnymi danymi, zapewnia Andrade.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ramach Square Kilometre Array (SKA), wielkiego międzynarodowego przedsięwzięcia naukowego, powstaje olbrzymi radioteleskop, którego dwa regiony centralne będą znajdowały się w RPA i Australii. Kraje te wybrano dlatego, że anteny trzeba zbudować w słabo zaludnionych miejscach, by maksymalnie ograniczyć liczbę zakłóceń powodowanych przez człowieka. Wybrano miejsca, w których do których nie dociera nawet sygnał telefonii komórkowej. Jednak teraz miejscom tym zagraża Elon Musk i jego Starlink, które zanieczyszczą całe niebo sygnałami radiowymi.
      Firma Muska, SpaceX, wystrzeliła już setki niewielkich satelitów, które tworzą konstelację Starlink. W niedalekiej przyszłości satelitów ma być kilkanaście tysięcy. Celem Starlinka jest dostarczenie internetu w każdy zakątek globu i zarabianie pieniędzy dla Muska oraz SpaceX.
      Starlink już teraz zakłóca badania astronomiczne. Od momentu gdy powstał astronomowie korzystający z teleskopów optycznych skarżą się, że przelatujące satelity zaburzają obraz. Tego samego obawiają się radioastronomowie. Niebo będzie pełne tych rzeczy, mówi dyrektor generalny SKA Phil Diamond.
      Square Kilometre Array ma składać się z tysięcy antent, których łączna powierzchnia wyniesie 1 km2. Centralne regiony, z setkami anten, będą znajdowały się w RPA i Australii. Całość będzie pracowała jak jeden olbrzymi radioteleskop o niedostępnej dotychczas rozdzielczości. SQA będzie 50-krotnie bardziej czuły niż jakikolwiek inny instrument.
      Naukowcy mają nadzieję, że dzięki SKA zbiorą dane z okresu Wieków Ciemnych i Pierwszego Światła wszechświata. Zobaczą, jak zapalały się pierwsze gwiazdy i powstawały pierwsze galaktyki. To jest zresztą głównym powodem budowania SKA – chęć zbadania tego, co było między Wiekami Ciemnymi a Pierwszym Światłem. Ale nie tylko. Urządzenie będzie w stanie przeprowadzać testy ogólnej teorii względności, badać zachowanie czasoprzestrzeni w miejscach, gdzie jest ona ekstremalnie zagięta, pozwoli na zmapowanie miliarda galaktyk znajdujących się na krańcach obserwowalnego wszechświata, umożliwi poznanie formowania się i ewolucji galaktyk, dzięki niemu naukowcy będą mogli badać ciemną energię i ciemną materię czy testować podstawowe najważniejsze teorie kosmologiczne.
      SKA opublikowało właśnie analizę, z której wynika, że Spacelink i inne tego typu przedsięwzięcia będą powodowały interferencję na jednym z kanałów radiowych, przez co zakłócą poszukiwanie molekuł organicznych oraz molekuł wody w przestrzeni kosmicznej.
      SpaceX twierdzi, że pracuje nad rozwiązaniem tego problemu, jednak naukowcy chcą, by został on rozwiązany prawnie. United Nations Office for Outer Space Affairs (UNOOSA), które przyjrzało się analizie SKA, chce zapobiegać zanieczyszczaniu nieboskłonu przez satelity. Nie tylko ze względu na badania astronomiczne, ale także ze względów społecznych oraz ochrony środowiska naturalnego. Astronomowie mają też nadzieję, że podobne działania podejmie Międzynarodowa Unia Telekomunikacyjna (ITU). Spektrum radiowe to zasób zajmowany przez prywatne firmy, które zwykle nie mają szacunku dla nauki. Sądzę, że może to powstrzymać jedynie interwencja na szczeblu rządowym, mówi Michael Garrett, dyrektor w Jodrell Bank Centre for Astrophysics w Wielkiej Brytanii.
      Dotychczas SpaceX wystrzeliła ponad 700 satelitów Starlink. Ma zgodę na wystrzelenie w sumie 12 000 satelitów. Podobne plany mają też inne firmy, jak Amazon czy OneWeb. Dziesiątki tysięcy satelitów latających na niskiej orbicie nad naszymi głowami to poważny problem. Szczególnie dla astronomii optycznej i takich urządzeń, jak budowane właśnie Vera C. Rubin Observatory.
      Na razie astronomowie wspólnie ze SpaceX starają się w jakiś sposób zaradzić temu problemowi, jednak trudno powiedzieć czy i w jakim stopniu się to uda.
      Problemy będą się też pogarszały jeśli chodzi o radioastronomię. Konstelacja Starlink będzie korzystała z pasma radiowego w zakresie 10,7–12,7 GHz. To pasmo 5b, jedno z siedmiu używanych przez SKA. Z analiz wynika, że gdy Starlink będzie składał się z 6400 satelitów, SKA utraci w tym paśmie 70% czułości. Gdy zaś satelitów będzie 100 000 – jak obawiają się niektórzy – całe pasmo stanie się bezużyteczne dla radioastronomii. A to w tym paśmie można badać takie molekuły jak glicyna, jeden ze składników białek. Gdybyśmy wykryli ją w jakimś formującym się układzie planetarnym, byłoby to niezwykle interesujące. To właśnie nowy obszar badań, który zostanie otwarty przez SKA, mówi Diamond. W tym samym paśmie można też poszukiwać molekuł wody.
      Dotychczas problem zakłóceń rozwiązywano tworząc odpowiednie strefy ochronne wokół teleskopów. Nie mogły tam powstawać nadajniki, ograniczano działalność, która zaburzała prace naukowe. Jednak nadajniki radiowe latające nad głowami to zupełnie inny problem.
      Tony Beasley, dyrektor US National Radio Astronomy Observatory mówi, że problem był dyskutowany ze SpaceX. Rozważane są takie rozwiązania jak wyłączanie nadajników na satelitach, zmiana ich orbity czy skierowanie nadajników w inną stronę podczas przelotu nad obszarami, gdzie prowadzone są badania. Jednak wielu astronomów nie chce polegać wyłącznie na dobrej woli właścicieli satelitów. Dlatego też podczas spotkania UNOOSA zaproponowano, by na szczeblu międzynarodowym wprowadzić zakaz emitowania przez satelity sygnału radiowego podczas przelotu nad obszarami chronionym oraz by zobowiązać przedsiębiorstwa do wprowadzenia technologii zapobiegania przypadkowym zakłóceniom.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...