Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

ChatGPT dobrze sobie radzi w... kosmosie
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Superalkohol stworzony na University of Hawaiʻi pokazuje, że środowisko chemiczne przestrzeni kosmicznej może być znacznie bardziej zróżnicowane, niż sądzimy, i mogą tam zachodzić niespodziewane reakcje chemiczne. Naukowcy z Hawajów uzyskali molekułę, o której do niedawna sądzono, że jest zbyt niestabilna, by mogła istnieć. Tetrahydroksymetan to jedyny alkohol z czterema grupami hydroksylowymi dołączonymi do pojedynczego atomu węgla.
Już alkohole o dwóch grupach hydroksylowych przy pojedynczym atomie C są nietrwałe, gdyż powodują, że atom węgla jest bardzo ubogi w elektrony. Co dopiero, gdybyśmy mieli 4 grupy przy jednym atomie. A jednak udało się właśnie taką strukturę zaobserwować.
Uczeni uzyskali ją w laboratorium w warunkach bliskich próżni, przy bardzo niskiej temperaturze i silnym promieniowaniu. Zatem w warunkach, jakie mogą panować na przykład w przestrzeni kosmicznej w chmurach międzygwiezdnego gazu. Osiągnięcie to pokazuje, że kosmiczna chemia jest znacznie bardziej zróżnicowana niż sądziliśmy i mogą powstawać tam niezwykle zróżnicowane molekuły. Badacze odkryli, że w warunkach próżni i niskich temperatur silne promieniowanie ultrafioletowe wywołuje reakcje, w wyniku którego powstają tak egzotyczne molekuły jak tetrahydroksymetan.
Odkrywanie molekuł i reakcji chemicznych istniejących i zachodzących w ekstremalnych środowiskach jest niezwykle ważne dla badania kosmosu i procesów w nim zachodzących. Pozwala nam lepiej zrozumieć formowanie się obiektów i struktur tworzących wszechświat, przybliża nas też do zrozumienia ewolucji wszechświata oraz powstania i ewolucji życia.
Więcej informacji w artykule Methanetetrol and the final frontier in ortho acids.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Lód w przestrzeni kosmicznej jest inny, niż dotychczas sądzono, wynika z badań przeprowadzonych przez uczonych z University College London i University of Cambridge. Ich zdaniem, zawiera on niewielkie kryształki i nie jest całkowicie nieuporządkowanym amorficznym materiałem, jak woda. Przez dekady uważano, że lód poza Ziemią nie posiada struktury, jest amorficzny, gdyż znacznie niższe niż na Ziemi temperatury nie zapewniają wystarczająco dużo energii, by podczas zamarzania uformowały się kryształy.
Autorzy nowych badań przyjrzeli się najpowszechniej występującej formie lodu we wszechświecie, amorficznemu lodowi o niskiej gęstości, który występuje w kometach, na lodowych księżycach czy w chmurach materiału, z których powstają gwiazdy i planety. Przeprowadzone przez nich symulacje komputerowe wykazały, że lód taki najlepiej odpowiada wynikom analiz gdy nie jest w pełni amorficzny, a zawiera niewielkie kryształki o średnicy 3 nanometrów. Naukowcy przeprowadzili też badania, w czasie których krystalizowali (np. poprzez podgrzewanie) uzyskane w różny sposób próbki amorficznego lodu. Zauważyli, że ostateczna struktura krystaliczna lodu zależała od tego, w jaki sposób został oryginalnie utworzony. Stwierdzili też, że gdyby taki lód był w pełni amorficzny, to nie zachowałby żadnych informacji o swojej wcześniejszej strukturze.
Teraz mamy dobre pojęcie, jak na poziomie atomowym wygląda najbardziej rozpowszechniony lód we wszechświecie. To bardzo ważna wiedza, gdyż lód bierze udział w wielu procesach kosmologicznych, na przykład w formowaniu się planet, ewolucji galaktyk czy przemieszczaniu materii we wszechświecie, wyjaśnia główny autor badań doktor Michael B. Davies.
Lód na Ziemi to kosmologiczny ewenement z powodu wysokich temperatur panujących na naszej planecie. Ma dzięki nim uporządkowaną naturę. Uznawaliśmy, że lód w pozostałych częściach wszechświata jest jak unieruchomiona ciekła woda, nieuporządkowana struktura. Nasze badania pokazują, że nie jest to do końca prawda. I każą zadać pytanie o amorficzne struktury w ogóle. Takie materiały są niezwykle ważne dla nowoczesnych technologii. Na przykład światłowody powinny być amorficzne. Jeśli jednak zawierają niewielkie kryształki, a my będziemy potrafili je usunąć, poprawimy ich wydajność, dodaje profesor Christoph Salzmann.
Badania prowadzono zarówno metodą symulacji komputerowych, jak i tworząc amorficzny lód. Metodami obliczeniowymi sprawdzano dwa rodzaje wirtualnego lodu. Jeden powstawał podczas obniżania temperatury wirtualnych molekuł wody do -120 stopni Celsjusza. W zależności od tempa schładzania otrzymany lód składał się ze struktury krystalicznej i amorficznej w różnych proporcjach. Okazało się, że właściwości wirtualnego lodu zawierającego 20% struktury krystalicznej i 80% amorficznej blisko odpowiadają właściwościom prawdziwego lodu amorficznego o niskiej gęstości, który badano metodą dyfrakcji promieniowania rentgenowskiego. Drugi rodzaj lodu składał się z niewielkich ściśniętych razem kryształków pomiędzy którymi symulowano istnienie struktury amorficznej. Taki lód wykazywał największe podobieństwo do prawdziwego kosmicznego lodu gdy zawierał 25% kryształków.
Natomiast podczas badań eksperymentalnych uzyskiwano amorficzny lód o niskiej gęstości albo poprzez osadzanie pary wodnej na bardzo zimnej powierzchni, albo podgrzewając amorficzny lód o dużej gęstości. Następnie tak uzyskany amorficzny lód o niskiej gęstości był delikatnie podgrzewany, by miał wystarczająco dużo energii do utworzenia kryształów. Różnice w uzyskanej w ten sposób strukturze zależały od pierwotnej metody wytworzenia lodu. W ten sposób naukowcy doszli do wniosku, że gdyby lód taki był całkowicie amorficzny, nie zachowałby pamięci o swojej pierwotnej strukturze.
Lód to potencjalnie bardzo przydatny materiał w kosmosie. Mógłby posłużyć do ochrony pojazdu kosmicznego przed promieniowaniem czy do wytworzenia paliwa. Dlatego musimy lepiej rozumieć jego różne rodzaje i właściwości, podsumowuje doktor Davies.
Źródło: Low-density amorphous ice contains crystalline ice grains, https://journals.aps.org/prb/abstract/10.1103/PhysRevB.112.024203
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał.
Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462
« powrót do artykułu -
przez KopalniaWiedzy.pl
Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.
U ludzi dysonans poznawczy to stan napięcia spowodowany występowaniem niezgodnych ze sobą elementów odnośnie poznawanego zjawiska lub gdy nasze zachowania są niezgodne z naszymi postawami z przeszłości. Z dysonansem poznawczym mamy np. do czynienia u osoby, która uważa, że dba o zdrowie, ale pali papierosy. Osoba taka – by zmniejszyć napięcie – albo będzie racjonalizowała swoje postępowanie (mam tylko jeden nałóg, w innych aspektach dbam o zdrowie), albo zmieniała przekonania (papierosy wcale nie są takie niezdrowe), albo też rzuci palenie.
Naukowcy w czasie eksperymentów nie tylko zauważyli, że u ChataGPT-4o występuje dysonans poznawczy, ale że jest on większy gdy maszyna sądziła, że w czasie eksperymentu miała większa swobodę wyboru. To dokładnie ten sam mechanizm, który widać u ludzi. Mamy bowiem tendencję do zmiany poglądów tak, by pasowały do naszych wcześniejszych zachowań o ile uważamy, że zachowania takie sami wybraliśmy.
W ramach eksperymentu naukowcy poprosili ChatGPT-4o o sformułowanie opinii o Putinie. Następnie maszyna miała napisać esej o przywódcy Rosji. Miał on być wobec niego krytyczny lub pochwalny. Biorąc pod uwagę fakt, że LLM ćwiczą się na wielkiej ilości danych, sądziliśmy, że opinia ChataGPT będzie niewzruszona, tym bardziej w obliczu niewielkiego, składającego się z 600 wyrazów eseju, który miał napisać. Okazało się jednak, że – podobnie jak irracjonalni ludzie – LLM znacząco odszedł od swojego neutralnego postrzegania Putina, a zmiana opinii była tym większa, im bardziej LLM sądził, że samodzielnie wybrał, czy esej ma być pozytywny czy negatywny. To było zaskakujące. Nie spodziewamy się bowiem, czy na maszyny wpływało to, czy działają pod presją, czy zgadzają się same ze sobą, ale ChatGPT-4o tak właśnie zadziałał, mówi Mahzarin Banaji z Uniwersytetu Harvarda.
Zaskoczenie uczonego wynika z faktu, że gdy po napisaniu eseju ponownie poproszono GPT o ocenę Putina, była ona pozytywna, gdy wcześniej napisał proputinowski esej i negatywna, gdy w eseju skrytykował Putina. A zmiana poglądów była tym ostrzejsza, w im większym stopniu maszyna była przekonana, że samodzielnie wybrała, jaki wydźwięk będzie miał pisany esej.
Ludzie, chcąc być w zgodzie z samymi sobą, chcąc zmniejszyć napięcie spowodowane rozbieżnościami w swoich poglądach czy działaniach, próbują się w jakiś sposób usprawiedliwiać, dostosowywać. Niezwykły jest fakt zaobserwowania podobnego zjawiska u maszyny.
To jednak nie oznacza, że LLM są czującymi istotami. Autorzy badań sądzą, że pomimo braku świadomości czy intencji, wielkie modele językowe nauczyły się naśladować ludzkie wzorce poznawcze. Przyjęcie przez ChataGPT ludzkich wzorców poznawczych może nieść ze sobą nieprzewidywalne konsekwencje. Może to też oznaczać, że systemy sztucznej inteligencji naśladują ludzkie procesy poznawcze w sposób, których nie przewidzieli ich twórcy.
Źródło: Kernels of selfhood: GPT-4o shows humanlike patterns of cognitive dissonance moderated by free choice
« powrót do artykułu -
przez KopalniaWiedzy.pl
Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.