-
Liczba zawartości
37606 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
246
Zawartość dodana przez KopalniaWiedzy.pl
-
Ośrodek Broki to obszar ludzkiego mózgu odpowiedzialny za generowanie mowy, ośrodek Wernickego jest obszarem, dzięki którym rozpoznajemy głoski, wyrazy i zdania. W mózgach szympansów istnieją homologiczne struktury, odziedziczone po wspólnym przodku. Teraz odkryto w nich istnienie pęczka łukowatego, wiązki włókien, łączących u ludzi ośrodki Broki i Wernickego. Nasze odkrycie pokazuje, że architektura mózgu niezbędna do pojawienia się mowy, nie powstała u ludzi. Prawdopodobnie wyewoluowała ona z wcześniej istniejącej struktury. Pęczek łukowaty u szympansów jest zdecydowanie mniej rozbudowany niż u ludzi i być może nie umożliwia generowanie złożonego ludzkiego języka, mówi główny autor badań Yannick Becker z Instytutu im. Maxa Plancka. Odkrycie u szympansów struktury homologicznej do pęczka łukowatego rzuca wyzwanie obecnemu rozumieniu ewolucji języka i pokazuje, że struktury potrzebne do jego wytwarzania nie pojawiły się dopiero u rodzaju Homo. Autorzy badań, naukowcy z Instytutu im. Maxa Plancka, francuskiego Narodowego Centrum Badań Naukowych, Taï Chimpanzee Project na Wybrzeżu Kości Słoniowej oraz Ozouga Chimpanzee Project z Gabonu, użyli rezonansu magnetycznego z wykorzystaniem dyfuzji (dMRI) do obrazowania mózgów szympansów, które z przyczyn naturalnych zmarły w niewoli i na wolności. We wszystkich 20 przebadanych mózgach wyraźnie było widać pęczek łukowaty. To zaś wskazuje, że struktura ta istniała przed około 7 milionami lat u wspólnego przodka człowieka i szympansa. Uzyskane wyniki zmieniają nasze rozumienie ewolucji języka i zdolności poznawczych, mówi Angela D. Friderici, dyrektor Wydziału Neuropsychologii w Instytucie Ludzkich Nauk Poznawczych i Nauk o Mózgu im. Maxa Plancka. Teraz, dzięki naszemu międzynarodowemu konsorcjum badawczemu, które łączy afrykańskie rezerwaty, azyle dla zwierząt i europejskie ogrody zoologiczne możemy połączyć dane dotyczące zachowania wielkich małp w czasie ich całego życia ze strukturami w mózgu. To pozwoli nam jeszcze lepiej poznać neuronalne podstawy zdolności poznawczych człowiekowatych, dodaje Becker. « powrót do artykułu
-
Ludzkość wybiera się na Księżyc i Marsa, coraz bardziej szczegółowo bada planety Układu Słonecznego i zaczyna przyglądać się planetom pozasłonecznym, a tymczasem niewiele wiemy o samej Ziemi. Naukowcy z Ocean Discovery League, niedochodowej organizacji, której celem jest przyspieszenia badań nad głębiej położonymi partiami oceanów, poinformowali na łamach Science Advances, że po dekadach badań ludzkość widziała mniej niż 0,001% powierzchni dna w głębszych partiach oceanów. Czyli takich, położonych poniżej 200 metrów pod poziomem morza. Obszary znajdujące się na głębokości poniżej 200 metrów utrzymują zróżnicowane ekosystemy, wytwarzają tlen, regulują klimat, są niezbędne do zachowania zdrowia całej planety. A mimo to praktycznie nic o nich nie wiemy. Zajmują one 66% powierzchni Ziemi, to około 336 milionów kilometrów kwadratowych. Dotychczas obserwowaliśmy zaś około 3300 km2. To powierzchnia niemal 100-krotnie mniejsza od powierzchni Polski, zaledwie 5-krotnie większe od największego polskiego miasta, Gdańska. Obserwacje wizualne (czy to prowadzone przez badaczy na pokładach batyskafów czy też przez roboty wyposażone w kamery) są jednym z trzech najważniejszych – obok mapowania i pobierania próbek – metod badania dna morskiego. Pozwala ono na określenie kontekstu zbieranych próbek, obserwację życia, ocenę bioróżnorodności i obfitości organizmów, ocenę stanu biologii i geologii oceanów. To dzięki nim odkryto pierwsze kominy hydrotermalne, określono wpływ katastrofy Deepwater Horizon na dno morskie i opisano odradzanie się koralowców po katastrofie, znaleziono dobrze zachowane wraki na Morzu Czarnym. Obecnie, gdy wiemy, że ludzkość od wieków wpływa na oceany, czy to przez składowanie w nich śmieci, zanieczyszczanie odpadami z działalności rolniczej i przemysłowej, eksploatację zasobów biologicznych i geologicznych czy zakwaszanie wód oceanów, istnieje coraz większa potrzeba prowadzenia badań wizualnych. Tymczasem, jak się dowiadujemy, nie tylko poznaliśmy zaledwie 0,001% powierzchni dna oceanicznego położonego poniżej 200 metrów, ale te poznane obszary są skupione wokół kilku wybranych krajów. Z powodu dużych kosztów oraz trudności technicznych związanych z badaniami dna aż 65% powierzchni, którą wizualnie poznaliśmy, znajduje się w odległości 200 mil morskich od USA, Japonii i Nowej Zelandii, a aż 97% badań przeprowadziło zaledwie pięć krajów: USA, Japonia, Nowa Zelandia, Francja i Niemcy. To zaś oznacza, że niewiele możemy powiedzieć o tym, jak wygląda dno oceanów i nie można bezpiecznie wyciągać wniosków na podstawie tak niewielkiego poznanego obszaru w tak niewielu miejscach. Jest to szczególnie ważne w momencie, w którym coraz częściej mówi się o zintensyfikowaniu działań górniczych dna morskiego i wydobywaniu stamtąd surowców. Nie mamy bowiem najmniejszego pojęcia, co się na dnie znajduje, zatem co możemy zniszczyć prowadząc eksploatację oraz jaki wpływ zniszczenia te będą miały na całą planetę, w tym i na nas. « powrót do artykułu
-
- ocean
- dno oceaniczne
-
(i 1 więcej)
Oznaczone tagami:
-
Flamingi wykorzystują jeden z najbardziej złożonych systemów odżywiania się wśród ptaków. Każdy z nas widział ich niezwykły sposób pobierania pokarmu, w czasie którego ich głowa zwrócona jest do góry nogami. Wiemy, że filtrują pokarm z wody. Jednak, jak się okazuje, nie jest to proces pasywny. Ptaki potrafią odpowiednio kierować strumień wody w stronę dzioba. Biolog z Uniwersytetu Kalifornijskiego w Berkeley, Victor Ortega Jiménez, zainteresował się sposobem zdobywania pokarmu przez flamingi gdy odwiedził ogród zoologiczny. Zauważył, że jedzące ptaki drepczą w miejscu. Jednak nie widział, co dzieje się pod wodą. Rozpoczął więc badania, w czasie których najpierw przez kilka tygodni flamingi z zoo były uczone jedzenia z tac wypełnionych wodą. Następnie za pomocą szybkich kamer i laserów obrazowano cały proces. W końcu naukowcy stworzyli na drukarkach 3D modele głów flamingów, by lepiej przyjrzeć się ruchowi wody. W końcu zaś prawdziwy dziób flaminga umocowano na maszynie, które otwierała go i zamykała, a jednocześnie symulowano ruchy języka ptaka. Z badań wynika, że ptaki potrafią kierować wodę wraz z pożywieniem do swoich dziobów. Dreptanie w miejscu służy wzbiciu do góry osadów z dna wraz ze znajdującymi się tam ofiarami flamingów. Następnie ptaki wykonują szybkie ruchy głową w górę i w dół, by utworzyć podobne do tornado wiry. A dodatkowe ruchy dziobem i językiem prowadzą do powstania mniejszych wirów, dzięki czemu niezwykle efektywnie łapią zdobycz. Są w stanie schwytać w ten sposób 7-krotnie więcej krewetek. Naukowcy obliczyli też, jakie jest najbardziej efektywne tempo ruchów flaminga. Wytworzenie wirów wymaga poruszania głową z prędkością niemal 40 cm/s. Jednocześnie dolna część ich dzioba wykonuje około 12 ruchów na sekundę. W najbliższej przyszłości naukowcy chcą zbadać, co dzieje się wewnątrz dziobów żerujących flamingów. Mają nadzieję, że opisanie tych zjawisk pomoże na przykład w stworzeniu technologii pozwalającej efektywnie wychwytywać z wody glony lub mikroplastik. Zachowanie żerujących flamingów wygląda niepoważnie, ale tworzy to użyteczny przepływ wody, chwali badania kolegów Elizabeth Brainerd z Brown University. Niezwykły sposób odżywiania się flamingów służy nie tylko im. Od kilku lat wiadomo, że podążające za nimi płaskonogi trójbarwne chwytają nawet 2-krotnie więcej pożywienia, korzystając z wody wzburzanej przez flamingi. « powrót do artykułu
-
Ćwiczenia fizyczne o umiarkowanej intensywności pomagają w... utrzymaniu poziomu witaminy D w miesiącach zimowych. Zjawisko to zauważyli badacze z Uniwersytetów w Bath, Cambridge i Birmingham, którzy przyglądali się poziomowi witaminy D u osób z nadwagą i otyłych. Osoby te bowiem, czy to po ekspozycji na światło słoneczne czy po przyjęciu suplementów, doświadczają mniejszego wzrostu witaminy D3 we krwi, gdyż jej część odkłada się w tkance tłuszczowej. Naukowcy chcieli sprawdzić, jak w ciągu zimowych miesięcy zmienia się poziom witaminy D u osób otyłych i z nadwagą. Podzielili badanych na dwie grupy. Pierwsza z nich miała prowadzić zwyczajowy tryb życia, grupa druga codziennie przez 10 tygodni ćwiczyła. Ćwiczenia były o umiarkowanej intensywności i – co ważne – odbywały się w zamkniętych pomieszczeniach. W ciągu tygodnia odbywały się cztery sesje ćwiczeń: dwa spacery na bieżni, jedna dłuższa jazda na rowerze stacjonarnym oraz jedna interwałowa jazda o wysokiej intensywności. Badani nie mogli brać w tym czasie żadnych suplementów z witaminą D i mieli utrzymać masę ciała, zatem grupa ćwicząca przyjmowała więcej kalorii, by nie schudnąć. To ważny warunek, gdyż mniejsza tkanka tłuszczowa, to mniej witaminy D w niej gromadzonej, zatem więcej witaminy we krwi. Badania wykazały, że u osób, które ćwiczyły, doszło do 15-procentowego spadku poziomu witaminy D, podczas gdy u niećwiczących spadek sięgnął aż 25%. Co jeszcze ważniejsze, u osób ćwiczących w ogóle nie doszło do spadku niezwykle ważnej formy witaminy D, kalcytriolu (1,25(OH)2D3). To dodatkowo ważne spostrzeżenie, gdyż istnieją badania sugerujące, że sama suplementacja nie wystarczy, by utrzymać odpowiedni poziom tego związku. U osób, które nie ćwiczyły, poziom kalcytriolu zmniejszył się zaś o 15%. To pierwsze badania pokazujące, że same tylko ćwiczenia fizyczne mogą chronić nas przed zimowym spadkiem poziomu witaminy D. To przypomnienie, jak niewiele wiemy o tym, w jaki sposób aktywność fizyczna wpływa na nasze zdrowie, mówi główny autor badań doktor Oly Perkin z University of Bath. Już wcześniej ten sam zespół wykazał, że pojedyncza sesja ćwiczeń podnosi na krótko poziom witaminy D we krwi. Tutaj mamy pierwszy dowód, że regularne ćwiczenia utrzymują w normie witaminę D. « powrót do artykułu
-
- witamina D
- ćwiczenia
- (i 4 więcej)
-
Wielkie modele językowe (LLM) generują język podobnie jak ludzie
KopalniaWiedzy.pl dodał temat w dziale Technologia
Naukowcy z Uniwersytetu Oksfordzkiego i Allen Institute for AI ze zdumieniem zauważyli, że wielkie modele językowe (LLM) – takie jak używane np. przez ChatGPT – generalizują wzorce językowe podobnie jak ludzie, poprzez analogie a nie ścisłe trzymanie się zasad. Badacze postanowili sprawdzić, na ile prawdziwe jest powszechnie panujące przekonanie, że LLM generują swoje wypowiedzi na podstawie obowiązujących zasad, które wydedukował z danych treningowych. Tymczasem okazało się, że – podobnie jak ludzie – modele językowe posługują się przykładami i analogiami podczas tworzenia nieznanych sobie słów. Badając, jak LLM generują wypowiedzi naukowcy porównali sposób tworzenia słów przez ludzi ze sposobem tworzenia ich przez model GPT-J. Zadaniem i ludzi i maszyny była zamiana przymiotników w rzeczowniki. W języku angielskim odbywa się ona przez dodanie sufiksu „-ness” lub „-ity”. I tak „happy” zamienia się w „happiness”, a „available” w „availability”. Naukowcy wymyślili 200 przymiotników, takich jak „cormasive” czy „friquish” i poprosili LLM, by zamienił je z rzeczowniki, korzystając ze wspomnianych sufiksów. Odpowiedzi uzyskane od komputera porównano z odpowiedziami otrzymanymi od ludzi oraz z przewidywaniami wiarygodnych modeli poznawczych. Jeden z tych modeli dokonuje generalizacji na podstawie zasad, drugi zaś posługuje się analogiami tworzonymi na podobieństwie do znanych przykładów. Okazało się, że LLM działa podobnie jak ludzie, posługuje się analogiami. Tak jak większość osób nie korzysta z zasad, a z podobieństw. Na przykład słowo „friquish” zamienił na „friquishness” na podstawie jego podobieństwa do słów takich jak „selfish”, a z „cormasive” zrobił „cormasivity”, gdyż jest podobne do wyrazów takich jak „sensitive”. Naukowcy przekonali się też, że dane treningowe mają znaczący wpływ na sposób tworzenie słów przez LLM. Gdy bowiem przeanalizowano jego odpowiedzi na pytania o niemal 50 000 rzeczywiście istniejących wyrazów stwierdzili, że posługując się metodami statystycznymi można z wielką precyzją przewidzieć, jakiej odpowiedzi udzieli LLM. Wyglądało to tak, jakby model językowy przechowywał w pamięci ślad każdego wyrazu, jaki napotkał podczas treningu i gdy napotykał coś nowego, zadawał sobie pytanie „Co mi to przypomina?”. Uczeni znaleźli też główną różnicę pomiędzy ludźmi a LLM. Ludzie tworzą sobie mentalny słownik, w którym przechowują zestawy wszystkich form danego wyrazu, jaki uważają za znaczący w swoim języku, niezależnie od tego, jak często formy te występują. Potrafimy bardzo łatwo rozpoznać – a raczej osoby anglojęzyczne potrafią rozpoznać – że wyrazy „friquish” czy „cormasive” nie są prawdziwymi słowami, jakich obecnie się używa. Radzimy sobie z takimi potencjalnymi neologizmami tworząc generalizacje na podstawie zróżnicowania słów, jakie przechowujemy w swoich słownikach mentalnych. Tymczasem LLM generalizuje wszystko, co napotkał podczas treningu. Nie tworzy grup czy też zestawów form tego samego wyrazu. Chociaż LLM potrafią w imponujący sposób generować wypowiedzi, okazało się, że nie myślą aż tak abstrakcyjnie jak ludzie. To prawdopodobnie dlatego potrzebują znacznie więcej danych niż ludzie by nauczyć się języka, mówi profesor Janet Pierrehumbert. « powrót do artykułu-
- LLM
- wielki model językowy
-
(i 2 więcej)
Oznaczone tagami:
-
Po ponad czterech latach obserwacji prowadzonych wśród dzikich szympansów w Taï National Park na Wybrzeżu Kości Słoniowej naukowcy odkryli, że u zwierząt tych – podobnie jak u ludzi – występują różne typy przywiązania w relacji dziecko–matka. Zauważyli jednocześnie, że nie występuje u nich – częsty wśród ludzi i u schwytanych przez ludzi szympansiątek trzymanych w niewoli – zdezorganizowany styl przywiązania, z którym wiążą się zaburzenia emocjonalne i psychiczne. To zaś sugeruje, że styl ten nie jest dobrą strategią przetrwania w naturze. Związek, jaki mamy z rodzicami w dzieciństwie, kształtuje nas jako osoby dorosłe. Od dawna wiadomo, że w styl przywiązania rodziców i dziecka odgrywa kluczową rolę przez całe nasze życie. Grupa naukowców z Instytutu Nauk Poznawczych im. Marca Jeanneroda z Uniwersytetu w Lyonie, Instytutu Antropologii Ewolucyjnej im. Maxa Plancka i Tai Chimpanzee Project na Wybrzeżu Kości Słoniowej postanowili sprawdzić, czy i wśród dzikich szympansów występują różne typy przywiązania. Obserwacje wykazały, że u dzikich szympansów występuje bezpieczny styl przywiązania. Szympansiątka czują się bezpiecznie, w chwilach słabości mogą zwrócić się do matki, która je pocieszy, pewnie eksplorują swoje środowisko wiedząc, że matka jest w pobliżu i je wspiera. Zaobserwowano też unikowy styl przywiązania. Takie szympansiątka są bardziej niezależne, nie szukają u matek pocieszania tak często, jak w bezpiecznym stylu przywiązania. U ludzi styl ten związany jest z tłumieniem emocji przez dziecko, którego rodzic jest emocjonalnie niedostępny. Tym, czego nie obserwowano u dzikich szympansów był zdezorganizowany styl przywiązania. Występuje on aż u 23,5% ludzkich dzieci i u 61% osieroconych szympansiątek trzymanych w niewoli. W tym stylu przywiązania dzieci odczuwają potrzebę bliskości ze strony rodzica, ale jednocześnie się go boją, zachowuje się on wobec nich agresywnie. Taki styl wychowania może prowadzić do problemów emocjonalnych, wyobcowania społecznego i dłutogrwałych problemów psychicznych. Dziecko nie wie, jak powinno zachować się, gdy jest zestresowane i potrzebuje pocieszenia. Taki styl wychowania widać niemal u co czwartego dziecka H. sapiens i u 2/3 szympansiątek, szczególnie osieroconych. U nich ma to prawdopodobnie związek z brakiem stałego opiekuna. Jednak w naturze, gdzie małe szympansy rozwijają się w stabilnych rodzinach, naukowcy nie zaobserwowali żadnych dowodów na występowanie zdezorganizowanego stylu przywiązania. Brak oznak występowania takiego stylu wspiera hipotezę mówiącą, że zdezorganizowany styl przywiązania nie jest dobrą strategią przetrwania. Jeśli w ogóle występuje on u dzikich szympansów, to zwierzęta, które go doświadczyły, prawdopodobnie giną zanim są zdolne do reprodukcji. Nasze badania pozwalają nam lepiej zrozumieć rozwój społeczny szympansów i pokazują, że wcale tak bardzo się od nich nie różnimy. Jednocześnie każą nam się zastanowić czy współczesne instytucje lub sposoby wychowania rozwinięte przez człowieka nie odeszły od najlepszych dla dziecka praktyk, mówi główna autorka badań Eléonore Rolland. Powszechność zdezorganizowanego stylu wychowania wśród ludzi i zniewolonych osieroconych szympansiątek wskazuje, jak dużą rolę odgrywa środowisko w kształtowaniu relacji, dodaje Catherine Crockford. « powrót do artykułu
-
Koreańscy uczeni poinformowali na łamach Occupational & Environmental Medicine, że długie godziny pracy – zdefiniowane tutaj jako praca przez co najmniej 52 godziny w tygodniu – mogą zmieniać strukturę mózgu. Zmiany dotyczą przede wszystkim obszarów powiązanych z regulacją emocji i funkcjami wykonawczymi, jak pamięć robocza i rozwiązywanie problemów. Nadmierna praca powoduje zmiany adaptacyjne w mózgu, które mogą negatywnie wpływać na nasze zdrowie. Dostarczamy nowych neurobiologicznych dowodów łączących wydłużony czas pracy ze zmianami strukturalnymi mózgu, podkreślając potrzebę dalszych badań, by zrozumieć długoterminowe skutki poznawcze i emocjonalne przepracowania, czytamy w opublikowanym artykule. Nauka zna psychologiczne skutki przepracowania, jednak niewiele wiadomo, w jaki sposób wpływa ono na strukturę mózgu. Już wcześniej pojawiały się sugestie mówiące, że związane z nadmierną pracą chroniczny stres i brak odpoczynku mogą zmieniać budowę mózgu, jednak były one poparte niewielką liczbą dowodów. Autorzy najnowszych badań przyjrzeli się 110 ochotnikom. Grupa składała się z lekarzy, pielęgniarek oraz innych pracowników służby zdrowia. Wśród nich były 32 osoby (28%), które pracowały co najmniej 52 godziny w tygodniu. Osoby, które spędzały więcej czasu w pracy to zwykle osoby młodsze (przeważnie poniżej 45. roku życie) i lepiej wykształcone, niż osoby pracujące mniej. Różnice w objętości poszczególnych obszarów mózgu oceniano za pomocą badań morfometrycznych opartych o pomiar voksela (VBM). Analizy wykazały istnienie znaczących zmian u osób, które pracowały powyżej 52 godzin tygodniowo. Miały one średnio o 19-procent większą objętość zakrętu czołowego środkowego, który jest zaangażowany w skupienie uwagi, pamięć roboczą i przetwarzanie języka. Powiększonych było też 16 innych regionów, w tym zakręt czołowy górny, odpowiedzialny m.in. za funkcje wykonawcze (podejmowanie decyzji, myślenie abstrakcyjne, planowanie). Autorzy badań podkreślają, że badania przeprowadzili na niewielkiej grupie osób i uchwyciły one tylko różnie istniejące w konkretnym momencie. Nie można zatem na ich podstawie wyciągać jednoznacznych wniosków co do skutków i przyczyn. Nie wiadomo, czy zmiany te są skutkiem czy przyczyną przepracowywania się. Mimo to badania wskazują na istnienie potencjalnego związku pomiędzy zmianami objętości mózgu a długimi godzinami pracy. Zmiany zaobserwowane u osób przepracowujących się mogą być adaptacją do chronicznego stresu, stwierdzili naukowcy. « powrót do artykułu
-
Zapraszamy na kosmiczny Hackathon SPACESHIELD
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Przypominamy, że już za kilkanaście dni, w weekend 24–25 maja, odbędzie się Hackathon SPACESHIELD Hack, organizowany przez Stalowowolską Agencję Rozwoju Regionalnego w ramach projektu SPACE 4 TALENTS. SPACESHIELD Hack odbędzie się w obiektach Wydziału Mechaniczno – Technologicznego Politechniki Rzeszowskiej w Stalowej Woli i przyciągnie ponad 200 uczestników – studentów, ekspertów branżowych oraz pasjonatów obronności, cyberbezpieczeństwa i nowych technologii. Celem wydarzenia jest nie tylko rozwój kreatywnych rozwiązań technologicznych, ale także budowanie mostów pomiędzy sektorem publicznym, prywatnym oraz akademickim w obszarach kluczowych dla współczesnej gospodarki i bezpieczeństwa. Zarejestruj się! W Hackathonie SPACESHIELD może wziąć udział każda osoba pełnoletnia, która jest gotowa stawić czoła wyzwaniom, ma głowę pełną pomysłów i chce przyczynić się do rozwoju technologii kosmicznych i obronnych. Wystarczy zarejestrować się wypełniając formularz na stronie www.spaceshield.pl. Dlaczego warto? Dlatego, że będziecie w stanie zbudować rozwiązania na potrzeby zarówno sektora kosmicznego, jak i tematów lokalnych. Czyli tak naprawdę będziecie mogli zastanowić się, jak budować rozwiązania kosmiczne tak, by pomagały Wam na co dzień – zachęca Maciek Myśliwiec ze Space Agency. Dwa dni burzy mózgów, wspólnej pracy, wymiany doświadczeń i inspirujących rozmów. Hackathon SPACESHIELD Hack to ogromna szansa dla każdego uczestnika – zapowiada się naprawdę genialne wydarzenie, jeśli tylko macie czas i chęć zmierzyć się z bardzo ciekawymi wyzwaniami, poznać genialnych ludzi, spotkać fantastycznych mentorów i ekspertów to zapraszam Was do Stalowej Woli na Hackathon SPACESHIELD Hack – dodaje Marcin Giza z Fundacji SpaceShip. Organizatorzy zadbali o to, by udział w wydarzeniu był całkowicie bezpłatny – uczestnikom zapewniono noclegi oraz wyżywienie. Na miejscu odbędą się również merytoryczne wystąpienia, warsztaty oraz dodatkowe atrakcje. 50 000 PLN dla najlepszych projektów W trakcie wydarzenia zespoły pracują nad swoimi projektami, które następnie podlegają ocenie ekspertów z branży – my jako organizatorzy zapewniamy przestrzeń i dostęp do mentorów, którzy będą w pierwszej fazie mogli wesprzeć uczestników. Wszystko zależy od tego jaki pomysł powstanie, jakie ma szanse na komercjalizację i jak ambitnie zespół podchodzi do realizacji i wdrożenia swojego zadania – powiedział Jacek Śledziński Prezes Zarządu StARR. Najlepsi uczestnicy powalczą o imponujące nagrody, których pula to w tej chwili 50 000 zł, w formie gotówkowej, nagród rzeczowych, kursów, szkoleń i wyjazdów na kosmiczne wydarzenia. Dodatkową nagrodą będzie kwalifikacja najlepszych rozwiązań na wydarzenia i konkursy startupowe, w tym autorski SPACESHIELD Summit, na którym projekty będą mogły znaleźć wsparcie oraz inwestorów. To doskonała okazja, by wziąć udział w tworzeniu technologii przyszłości! Burza mózgów i realne wyzwania Zadania, z którymi zmierzą się uczestnicy, sklasyfikowane zostały w 4 kategoriach: space, defence, dual-use oraz open i pozostaną tajemnicą do dnia wydarzenia. Zostały one wypracowane podczas Antyhackathonu, który odbył się w marcu i stanowił unikalne przygotowanie do majowego hackathonu. Ponad 20 ekspertów z branży kosmicznej, obronnej, związanej z cyberbezpieczeństwem i nowymi technologiami opracowało zadania odpowiadające rzeczywistym wyzwaniom. Było to pierwsze tego typu wydarzenie w Europie, łączące interdyscyplinarne podejście do problemów sektora high-tech i deep-tech - Jestem pierwszy raz na takim wydarzeniu jak antyhackathon. Jest to bardzo potrzebne, to jedna z lepszych decyzji, ponieważ widać, że Stalowa Wola organizuje to spotkanie pod potrzeby, pod konkretne branże, a nie tylko po to, żeby się odbyło – podsumowała Noemi Zabari, polska astrofizyczka z Astroteq.ai. Na hackathonie nie zabraknie autorytetów z dziedziny kosmosu i nauki. Jednym z mentorów wydarzenia będzie John F. Hall, wieloletni dyrektor w NASA, który od lat współpracuje z Polską Akademią Kosmiczną. Podczas hackathonu uczestnicy będą mieli wsparcie kilkudziesięciu mentorów i ekspertów, którzy podzielą się swoją wiedzą i doświadczeniem. Patronat honorowy nad wydarzeniem objęli: Polska Agencja Kosmiczna POLSA, Ministerstwo Nauki i Szkolnictwa Wyższego, Narodowe Centrum Badań i Rozwoju, Wojskowa Akademia Techniczna, PARP, Wojewoda Podkarpacki, Miasto Stalowa Wola, i Polskie Towarzystwo Miłośników Astronomii. Projekt współfinansowany jest z Unii Europejskiej, ze środków Europejskiego Funduszu Rozwoju Regionalnego (ERDF), w ramach Europejskiej Inicjatywy Miejskiej (European Urban Initiative – EUI). Patronat medialny nad całym wydarzeniem objęli: Nauka w Polsce, Mam StartUp, Kosmonauta.net, Prawo i Kosmos, Astronomia24, Kopalnia Wiedzy, Telewizja Stella, TVP3 Rzeszów, Radio Rzeszów, Sztafeta, Czytaj Rzeszów, Super Nowości, Kurier Rzeszowski, Reach4, FXMAG, Just Join It, Gospodarka Podkarpacka, Crossweb, Rakietomania. Partnerami projektu są: Miasto Stalowa Wola, Stalowowolska Agencja Rozwoju Regionalnego sp. z o.o. (StARR), Politechnika Rzeszowska im. Ignacego Łukasiewicza, Fundacja Polska Innowacyjna, Rebels Valley, Akademia Leona Koźmińskiego i Stowarzyszenie Innspace. « powrót do artykułu-
- SPACESHIELD
- hackathon
-
(i 1 więcej)
Oznaczone tagami:
-
Badacze z MIT i Dana-Farber Cancer Institute znaleźli około 500 ukrytych peptydów, występujących wyłącznie w guzach nowotworu trzustki. Wykazali też, że są w stanie tak przygotować limfocyty T, by atakowały te peptydy. Podczas badań na myszach limfocyty T atakowały organoidy guza pobranego z komórek chorego i znacząco spowalniały wzrost guza. Nowotwór trzustki jest bardzo trudny w leczeniu. Znaleźliśmy jego niespodziewane słabości i być może uda się nam je wykorzystać w procesie terapeutycznym, stwierdził profesor Tyler Jacks. Rak trzustki jest niezwykle śmiercionośny. Pięć lat od jego wykrycia przeżywa jedynie około 10% pacjentów. W ostatnich czasach badania pokazały, że nadzieją na zwiększenie skuteczności leczenia może być zastosowanie odpowiednio przygotowanych limfocytów T. Terapie te polegają na takim zaprogramowaniu receptora limfocytu T tak, by rozpoznawał specyficzne peptydy (antygeny) na komórkach nowotworowych. Naukowcy z MIT i Dana-Farber poszukiwali takich nowych antygenów. Z próbek pobranych od pacjentów tworzyli organoidy i je analizowali. W ten sposób znaleźli ukryte peptydy. Już wcześniej znajdowano je w innych guzach nowotworowych, teraz po raz pierwszy zostały zidentyfikowane w nowotworze trzustki. W sumie naukowcy zidentyfikowali około 1700 ukrytych peptydów. Gdy zaczęliśmy analizować dane szybko okazało się, że to najbardziej obfita nieznana klasa antygenów, więc postanowiliśmy się na niej skupić, mówi doktor Zackery Ely. Szczegółowe porównanie wykazało, że około 2/3 ze znalezionych peptydów występuje też w zdrowych tkankach, a pozostałych około 500 wydaje się występować wyłącznie w komórkach nowotworu trzustki. Uważamy, że mogą być one bardzo dobrym celem dla przyszłych immunoterapii, cieszy się naukowcy. Zaprogramowane przez nich limfocyty T były w stanie zniszczyć organoidy przygotowane z komórek nowotworowych, a gdy organoidy te zostały wszczepione myszom, limfocyty znacznie ograniczały wzrost guza. Mimo, że całkowicie go nie zlikwidowały, wyniki eksperymentu były niezwykle obiecujące. Badacze mają nadzieję, że w przyszłości uda się wzmocnić działanie limfocytów. Naukowcy rozpoczęli też już pracę nad szczepionką, która brałaby na cel niektóre ze zidentyfikowanych ukrytych peptydów, co mogłoby stymulować układ odpornościowy pacjenta do ataku na nowotwór trzustki. « powrót do artykułu
-
- nowotwór trzustki
- trzustka
-
(i 3 więcej)
Oznaczone tagami:
-
Niektóre kobiety przyjmujące antykoncepcję jednoskładnikową – zawierającą tylko progesteron – narażone są na częstsze ataki astmy. Astma częściej dotyka kobiet niż mężczyzn i kobiety narażone są na 2-krotnie większe ryzyko zgonu z jej powodu niż mężczyźni. Żeby zapobiegać tym zgonom, musimy lepiej rozumieć, dlaczego kobiety są bardziej narażone. Jedna z hipotez mówi, że główną rolę odgrywają tutaj hormony płciowe. Jednak badania ich wpływu może być trudne. Na przykład, trudno precyzyjnie określić czas rozpoczęcia dojrzewania czy menopauzy. Możemy natomiast badać kobiety stosujące antykoncepcję, gdyż dokładnie wiemy, kiedy zaczęły i kiedy przestały ją stosować, mówi główna autorka badań, doktor Chloe Bloom z Imperial College London. Naukowcy wykorzystali informacje dotyczące 261 827 kobiet z astmą w wieku 18–50 lat. Porównywali dane dotyczące kobiet, które nigdy nie stosowały antykoncepcji, które stosowały pigułkę jednoskładnikową oraz dwuskładnikową. Zwracali uwagę na ataki astmy – przepisanie doustnych sterydów – związane z astmą wizyty w szpitalnych oddziałach ratunkowych oraz zgony z powodu astmy. Przeanalizowali lata 2004–2020. Analizy wykazały, że dwuskładnikowa pigułka antykoncepcyjna nie wpływała na częstotliwość ataków. Jednak u niektórych kobiet przyjmujących pigułkę jednoskładnikową dochodziło do częstszych ataków. Dotyczyło to kobiet przed 35. rokiem życia, tych, które używały mniej leków na astmę oraz tych, które miały silniejszy stan zapalny związany z astmą. W przypadku kobiet poniżej 35. roku życia ryzyko było o 39% wyższe, u biorących mniej leków było o 20% wyższe, a u pań z astmą eozynofilną było ono o 24% wyższe. Nasze badania są pierwszymi na tak dużej grupie kobiet, w których były badaniami długoterminowymi, brały pod uwagę takie szczegóły jak używanie pigułek antykoncepcyjnych i wieloletnią historię medyczną. Badania zaprojektowaliśmy w taki sposób, że przypominały one testy kliniczne, ale stosowane do prawdziwych danych z życia codziennego. To kolejny element układanki, która ma pozwolić na wyjaśnienie, dlaczego kobiety są bardziej narażone na astmę niż mężczyźni, dodaje doktor Bloom. « powrót do artykułu
-
- astma
- pigułka antykoncepcyjna
-
(i 2 więcej)
Oznaczone tagami:
-
W kamieniołomie Măgura Călanului w Rumunii znaleziono zestaw kilkunastu narzędzi kamieniarza z przedrzymskiej epoki żelaza. Dzięki znalezieniu narzędzi w miejscu, w którym były wykorzystywane, gdzie pozostawiły ślady na skałach, naukowcy będą w stanie lepiej poznać techniki wydobywania i obróbki kamienia w starożytnej Dacji. Niestety kontekst historyczny narzędzi został zniszczony przez rabusiów, nie poznamy więc wszystkich informacji, do których można by dotrzeć, gdyby na narzędzia trafili archeolodzy. Na zestaw narzędzi trafił mieszkaniec pobliskiej wioski, który znalazł je pod drzewem. Najprawdopodobniej zostały wydobyte przez rabusiów, którym nie chciało się nosić ciężkiego żelaza. Znalazca zaniósł narzędzia do muzeum Zamku Korwina w Hunedoarze. Z tego też powodu trudno dokładnie datować znalezisko, jednak skądinąd wiadomo, że narzędzi takich używano przed rokiem 106, kiedy to Rzymianie ostatecznie podbili część Dacji, tworząc prowincję Dacia Felix. Kamieniołom Măgura Călanului przestał być wykorzystywany w III wieku, gdy Rzymianie opuścili Dację. Znaleziony zestaw składa się z pięciu młotków kamieniarskich, w tym dwóch z rzadkim ząbkowaniem, pięciu różnej wielkości klinów do rozłupywania skał, specjalistycznego młotka do ostrzenia dłut wraz z kowadłem, dłuta oraz szpicaka do precyzyjnego modelowania kamienia. Młotki z ząbkowaniem to charakterystyczne narzędzie dackich kamieniarzy. Nie ma ono odpowiednika ani w Grecji, ani w Rzymie. Wykorzystywane były do wykańczania elementów na budowle z kamienia ciosanego. Z gładko obrobionych kamieni budowano zarówno mury obronne, jak i świątynie czy budowle reprezentacyjne. Znalezione kliny są niewielkie, co wskazuje, że zestaw albo nie był wykorzystywany do rozłupywania dużych kamieni, albo jest niekompletny. Młotek do ostrzenia to jeden z wielu przykładów podobnych narzędzi znajdowanych w całej Rumunii. Znacznie bardziej interesujące jest przenośne kowadło. Jedyne porównywalne przykłady znamy z rzymskiej Brytanii oraz Galii. Natomiast niezwykłe jest znalezienie obu tych narzędzi jednocześnie. To pierwsze takie odkrycie w kontekście kamieniołomu. Wskazuje, że kamieniarz ostrzył narzędzia na bieżąco, a nie dopiero w miejscu zamieszkania po zakończeniu pracy czy też nie zlecał tej pracy kowalowi. Naukowcy mają nadzieję, że w przyszłości uda im się połączyć znalezione narzędzia z konkretnymi śladami na kamieniach i poznać dzięki temu techniki kamieniarskie starożytnej Dacji. Ponadto badania samych narzędzi dostarczą bardzo cennych informacji na temat samych technik wytwarzania narzędzi i pochodzenia materiału, z którego zostały wykonane. « powrót do artykułu
-
- Rumunia
- kamieniarz
-
(i 5 więcej)
Oznaczone tagami:
-
Wyobraźcie sobie, że macie upuścić jajko z pewnej wysokości tak, by się nie rozbiło. W jakiej pozycji je upuścicie: by spadło na bok czy na któryś z końców? Przekonanie, że jajko jest bardziej wytrzymałe na uderzenia w jeden z końców jest tak powszechne, że mowa jest o tym i podczas szkolnych eksperymentów, i w materiałach wideo w internecie. Inżynierowie z MIT postanowili sprawdzić, czy jest to prawdą. Przeprowadzili szereg eksperymentów i odkryli, że jajko jest bardziej wytrzymałe, gdy upadnie na bok. Ich badania zostały opisane na łamach Communications Physics i pokazują, że warto weryfikować nawet od dawna „ustalone” powszechne przekonania. Badacze zauważyli, że przy uderzeniu boki jajka uginają się, absorbując energię upadku. Są mniej sztywne niż oba końce, ale dzięki temu lepiej pochłaniają energię. Przekonanie, że to końce są bardziej wytrzymałe jest tak wielkie, można było na tym usłyszeć również na MIT podczas dorocznego konkursu upuszczania jajka organizowanego dla studentów pierwszego roku Wydziału Inżynierii. "Co roku powtarzaliśmy za literaturą fachową, jak należy ustawić jajko, by uniknąć pęknięcia podczas upuszczania. Jednak jakieś trzy lata temu zaczęliśmy zastanawiać się, czy jego końce są naprawdę bardziej wytrzymałe", mówi profesor Tal Cohen. Zaczęło się od tego, że po jednym z takich konkursów naukowcy zabrali pozostałe jajka do laboratorium i przeprowadzili testy. Gdy przeanalizowaliśmy dane, nie dały one jasnej odpowiedzi, mówi Cohen. Naukowcy zaprojektowali więc dwa rodzaje eksperymentów. Pierwszy to statyczny test zgniatania, podczas którego stopniowo zwiększano nacisk na skorupkę, mierząc jej sztywność i wytrzymałość. Drugi był dynamicznym testem upuszczania jajka i oceny prawdopodobieństwa pęknięcia skorupki. W czasie testu zgniatania okazało się, że niezależnie od położenia jajka, pierwsze pęknięcia skorupki pojawiały się po przyłożeniu takiej samej siły. Jednak zauważyliśmy tutaj kluczową różnicę. Jajko ściskane od boku uginało się bardziej, mocniej ustępowało pod wpływem takiej samej siły, mówi doktorant Joseph Bonavia. Wyniki eksperymentów sprawdzono następnie za pomocą modeli matematycznych. Potwierdziły one obserwacje, a uczeni dowiedzieli się dzięki nim, że mimo iż pęknięcia pojawiały się przy przyłożeniu takiej samej siły, to jajko ułożone horyzontalnie absorbowało więcej energii. To zaś sugerowało, że w sytuacjach, gdy zaabsorbowanie energii odgrywa dużą rolę, jak przy upadku, bardziej wytrzymałe może być jajko upuszczone w pozycji horyzontalnej. Przeprowadziliśmy więc eksperymenty, by sprawdzić, czy to prawda, mówią naukowcy. Eksperymenty jednoznacznie potwierdziły, że wnioski wysunięte na podstawie testów praktycznych były prawdziwe. Jajka upuszczone na bok rzadziej pękały po zrzuceniu z tej samej wysokości, niż jajka upuszczone na jeden z końców. Lepiej bowiem absorbowały energię uderzenia. Przekonanie o tym, że jajka są mniej wytrzymałe z boku może być wzmacniane naszym codziennym doświadczeniem. W końcu rozbijając jajko w kuchni uderzamy w jego bok. Jednak, jak zauważają naukowcy, sytuacja jest tutaj inna niż przy upuszczeniu jajka. Gdy celowo rozbijamy jajko, by nie uszkodzić żółtka, uderzamy skoncentrowaną siłą w konkretny punkt. To inna sytuacja niż przy upadku, w którym najważniejszym elementem jest możliwość rozprowadzenia energii uderzenia po całej skorupce. Pionowo zorientowane jajko, mimo że bardziej wytrzymałe, jest bardziej kruche pod wpływem nagłego uderzenia. Z boku jajko się ugina i absorbuje energię. Naukowcy radzą, by wyobrazić sobie... nasze nogi. W pewien sposób są one „słabsze” gdy są ugięte. Jednak lepiej absorbują wówczas uderzenie. Gdy skoczymy z wysokości, uginamy nogi, by zaabsorbować uderzenie i lepiej rozprowadzić energię. « powrót do artykułu
-
W Polsce na stwardnienie rozsiane (SM) cierpi około 60 tysięcy osób. Jest więc ono jedną z najpowszechniej występujących chorób układu nerwowego. W jej przebiegu układ odpornościowy atakuje otoczkę mielinową nerwów, prowadząc do ich uszkodzenia. W zależności od miejsca ataku, choroba daje bardzo wiele objawów, włącznie z zaburzeniami widzenia czy paraliżem. Przyczyny stwardnienia rozsianego wciąż nie zostały poznane, jednak najprawdopodobniej są one liczne. Wśród nich wymienia się też rolę mikrobiomu jelit. Już wcześniejsze badania wskazywały na istnienie różnić w składzie mikrobiomu pomiędzy osobami cierpiącymi na SM, a zdrowymi. Jednak znacznie tych różnic nie zostało rozpoznane, gdyż wpływ na mikrobiom mają też czynniki genetyczne czy dieta. Trudno więc stwierdzić, na ile różnice mają związek ze stwardnieniem rozsianym, a na ile są spowodowane innymi czynnikami. Naukowcy z Niemiec i USA, chcąc zmniejszyć niepewność dotyczącą roli mikrobiomu w SM przeprowadzili badania na 101 parach bliźniąt jednojajowych, z których jedno cierpiało na stwardnienie rozsiane. Mieli więc do czynienia z osobami, które niemal nie różniły się genetycznie, a ponadto do wczesnej dorosłości mieszkały razem, więc były poddane wpływom bardzo podobnych czynników środowiskowych. Uczeni przeanalizowali próbki kału od 81 par bliźniąt i znaleźli 51 taksonów w przypadku których występowały różnice w ilości mikroorganizmów u osób zdrowych i chorych. Cztery pary bliźniąt zgodziły się też na pobranie wycinka jelita cienkiego. Natępnie mikroorganizmy tam znalezione zostały przeszczepione trangenicznym myszom. U zwierząt, których jelito cienkie zostało skolonizowane przez mikroorganizmy żyjące w jelicie cienkim osób z MS, znacznie częściej dochodziło do pojawienia się objawów przypominających stwardnienie rozsiane. Następnie naukowcy przeanalizowali odchody myszy wykazujących objawy stwardnienia rozsianego i uznali, że bakteriami najbardziej podejrzanymi o powodowanie choroby są dwaj członkowie rodziny Lachnospiraceae: Lachnoclostridium sp. i Eisenbergiella tayi. Oba gatunki występują w jelitach w niewielkiej ilości, dlatego dotychczas tylko w szeroko zakrojonych i dobrze kontrolowanych badaniach pojawiały się wyniki wskazujące, że mogą mieć one coś wspólnego z MS. Teraz po raz pierwszy pojawił się dowód na ich szkodliwe działanie. Warto przy okazji przypomnieć, że Lachnospiraceae wiązane są też z depresją i atakami na komórki układu odpornościowego. Autorzy badań nie wykluczają, że i inne mikroorganizmy biorą udział w patogenezie stwardnienia rozsianego. W trakcie przyszłych badań warto też skupić się na roli Lachnoclostridium sp. i Eisenbergiella tayi, lepiej poznać ich wpływ na myszy oraz przełożyć uzyskane wyniki na ludzi. Jeśli okazałoby się, że do rozwoju MS przyczynia się niewielka grupa bakterii, możliwe stało by się opracowanie nowych metod leczenia. « powrót do artykułu
- 1 odpowiedź
-
Chrysopoeia to używany przez alchemików termin na transmutację (przemianę) ołowiu w złoto. Alchemicy zauważyli, że tani i powszechnie występujący ołów ma podobną gęstość do złota i na tej podstawie próbowali opracować metodę zamiany jednego materiału w drugi. Po wielu wiekach badań i rozwoju nauki ludzkość dowiedziała się, że ołów i złoto to różne pierwiastki i metodami chemicznymi nie uda się zamienić jednego w drugi. Dopiero na początku XX wieku okazało się, że pierwiastki mogą zmieniać się w inne, na przykład drogą rozpadu radioaktywnego, fuzji jądrowej czy też można tego dokonać bombardując je protonami lub neutronami. W ten sposób dokonywano już w przeszłości zamiany ołowiu w złoto. Teraz w eksperymencie ALICE w Wielkim Zderzaczu Hadronów zarejestrowany nowy mechanizm transmutacji ołowiu w złoto. Doszło do niej podczas bardzo bliskiego minięcia się atomów ołowiu. W LHC naukowcy zderzają ze sobą jądra ołowiu, uzyskując plazmę kwarkowo-gluonową. Jednak interesują ich nie tylko bezpośrednie zderzenia jąder atomowych. Z punktu widzenia fizyki niezwykle ciekawe są też sytuacje, gdy do zderzeń nie dochodzi, ale jądra mijają się w niewielkiej odległości. Intensywne pola elektromagnetyczne otaczające jądra mogą prowadzić do interakcji, które są przedmiotem badań. Ołów, dzięki swoim 82 protonom, ma wyjątkowo silne pole elektromagnetyczne. Co więcej w Wielkim Zderzaczu Hadronów jądra ołowiu rozpędzane są do 99.999993% prędkości światła, co powoduje, że linie ich pola elektromagnetycznego zostają ściśnięte, przypominając naleśnik. Układają się poprzecznie do kierunku ruchu, emitując krótkie impulsy fotonów. Często dochodzi wówczas do dysocjacji elektromagnetycznej, gdy wskutek interakcji z fotonem w jądrze zachodzi oscylacja, w wyniku której wyrzucane są z niego protony lub neutrony. By w ten sposób ołów zmienił się w złoto (które posiada 79 protonów), jądro ołowiu musi utracić 3 protony. To niezwykłe, że nasz detektor jest stanie analizować zderzenia, w których powstają tysiące cząstek, a jednocześnie jest tak czuły, że wykrywa procesy, w ramach których pojawia się zaledwie kilka cząstek. Dzięki temu możemy badać elektromagnetyczną transmutację jądrową, mówi rzecznik prasowy eksperymentu ALICE, Marco Van Leeuwen. Uczeni wykorzystywali kalorymetry do pomiarów interakcji fotonów z jądrami, w wyniku których dochodziło do emisji 0, 1, 2 lub 3 protonów z towarzyszącym co najmniej 1 neutronem. W ten sposób jądra ołowiu albo pozostawały jądrami ołowiu, albo zamieniały się w tal, rtęć lub złoto. Złoto powstawało rzadziej niż tal czy rtęć. Maksymalne tempo jego wytwarzania wynosiło około 89 000 jąder złota na sekundę. Analiza danych z ALICE wykazała, że w całym LHC w latach 2015–2018 powstało 86 miliardów atomów złota. Współcześni fizycy są więc bardziej skuteczni niż alchemicy. Podobnie jednak jak oni, nie obsypią swoich władców złotem. Te 86 miliardów atomów to zaledwie 29 pikogramów (2,9x10-11 grama). « powrót do artykułu
- 2 odpowiedzi
-
Najstarszy dowód na użycie halucynogenów w peruwiańskich Andach
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Na długo zanim pojawiło się imperium Inków, na terenie dzisiejszego Peru istniała kultura Chavín. Jej przedstawiciele tworzyli wielkie kamienne budowle, znali metalurgię, udomowili lamy. Żyli w hierarchicznym społeczeństwie rolniczym, na czele którego stała niewielka elita. Teraz, dzięki pracy archeologów z Peru, Chile, Argentyny i USA dowiedzieliśmy się, że jednym z atrybutów władzy w kulturze Chavín był dostęp do środków halucynogennych. Uczeni znaleźli bowiem najstarsze bezpośrednie dowody używania halucynogenów w peruwiańskich Andach. W centrum monumentalnej struktury ceremonialnej na stanowisku Chavín de Huántar znaleziono fifki wykonane z kości. Analiza resztek znajdujących się wewnątrz fifek wykazała obecność nikotyny pochodzącej od dzikiego krewniaka tytoniu oraz pozostałości nasion Anadenanthera colubrina. To należące do bobowatych drzewo zawiera halucynogeny podobne do DMT. Nasiona tego drzewa używane są od tysięcy lat jako halucynogeny. O ile jednak w innych badanych kulturach były one szeroko stosowane, wydaje się, że w przypadku kultury Chavín dostęp ten ograniczał się do elity. Fifki zostały znalezione w niewielkich prywatnych pomieszczeniach, które jednocześnie mogły pomieścić ograniczoną liczbę osób. Wspólne rytualne zażywanie halucynogenów w wybranym gronie mogło być wyróżnikiem elity i jedną z metod sprawowania kontroli nad społecznością. W przyjmowaniu środków psychoaktywnych chodziło nie tylko o wizje. Było to częścią ściśle kontrolowanego rytuału, prawdopodobnie zarezerwowanego do niewielkiej wybranej grupy, co wzmacniało ich pozycję w hierarchii społecznej, wyjaśnia doktor Daniel Contreras. Elita Chavín, poprzez kontrolowanie dostępu do zmienionych stanów świadomości tworzyła potężną ideologię, dzięki której przekonywała swoich pobratymców, że sprawowane przez nich przywództwo jest powiązane z siłami nadnaturalnymi i stanowi część porządku rzeczy. Contreras od niemal 30 lat wchodzi w skład zespołu profesora Johna Ricka badającego Chavín de Huántar. Naukowcy uważają, że takie ceremonie z użyciem psychodelików były kluczowym elementem kształtowania się wczesnych struktur klasowych. Rytuały prawdopodobnie nie ograniczały się do zażywania substancji psychoaktywnych. Archeolodzy znaleźli też instrumenty wykonane z muszli oraz pomieszczenia, których kształt sugeruje, że mogły wzmacniać dźwięki. Jednym ze sposobów usprawiedliwienia nierówności jest stworzenie odpowiedniej ideologii, na przykład imponujących ceremoniałów, które powodują, że ludzie uwierzą, iż cały ten projekt to dobry pomysł, podsumowuje Contreras. « powrót do artykułu -
Cyna z Wysp Brytyjskich w znacznej mierze ukształtowała położone we wschodniej części Śródziemiomorza cywilizacje epoki brązu. Do takich wniosków doszli naukowcy z Durham University, którzy przeprowadzili analizy rud cyny i cynowych przedmiotów. Uczeni zbadali m.in. cynę znalezioną na statkach, które zatonęły u południowo-zachodnich wybrzeży Brytanii, południowych wybrzeży Francji oraz wybrzeży Izraela. Wśród specjalistów zajmujących się epoką brązu od dawna znany jest „problem cyny”. Brąz to stop miedzi cyną lub innymi metalami. W starożytności był to głównie właśnie stop miedzi i cyny, przede wszystkim w stosunku 9:1. Złoża cyny występują jednak znacznie rzadziej niż miedzi. Jedyne duże złoża cyny, które mogłyby zaspokoić potrzeby cywilizacji Śródziemiomorza epoki brązu występują w Europie Zachodniej i Środkowej oraz w Azji Środkowej. W Europie znajdują się cztery duże regiony jej wydobycia. W Kornwalii i Devonie (historyczne wydobycie jest szacowane na 2,5 miliona ton), Erzgebirge na pograniczu Niemiec i Czech (300 tys. ton), na Półwyspie Iberyjskim (150 tys ton) oraz w Bretanii i Masywie Centralnym (10 tys. ton). Wśród naukowców trwała więc debata czy cywilizacje epoki brązu były zasilane cyną z Europy czy też z Azji Środkowej. Najstarsze znane miejsca wydobycia cyny znajdują się w Anatolii, gdzie była lokalnie pozyskiwana w niewielkich ilościach w III tysiącleciu przed Chrystusem. Pod koniec III tysiąclecia prowadzono też wydobycie w Azji Środkowej, a już około 2200 roku p.n.e. wyroby z brązu stanowią znaczną część wyrobów metalurgicznych w Azji Zachodniej. Jednak w Europie w tym samym czasie wyrobów z brązu (miedź + cyna) jest niewiele, a im bardziej na zachód, tym ich mniej. Szeroko używane były wówczas stopy miedzi z arsenem. Jednak w latach 2200–2100 p.n.e. doszło do znaczącej zmiany. Wówczas to na terenie Brytanii całkowicie przestawiono się na produkcję brązu z miedzi i cyny. Cyna zwykle stanowiła 10% stopu. Z czasem to pełnej adopcji takiego brązu doszło w całej Europie. Zespół pracujący pod kierunkiem doktora Alana Williamsa i doktora Benjamina Robertsa chciał poznać źródło cyny, która zasilała cywilizacje epoki brązu we wschodniej części Morza Śródziemnego. Badania materiału znalezionego na wrakach z Brytanii, Francji i Izraela wykazały, że jego skład izotopowy oraz znajdujące się w nim pierwiastki śladowe są w pełni zgodne z rudami cyny i przedmiotami z południowo-zachodniej Brytanii. Badania wskazują, że pełen rozwój epoki brązu na wschodzie Śródziemiomorza był możliwy dzięki wykorzystaniu źródeł z Europy, a nie z Azji. W tej chwili nie wiemy, jakimi drogami cyna z Brytanii trafiała do Lewantu. Czy transportowano ją wyłącznie morzem, czy też wykorzystywano również drogi lądowe i szlaki rzeczne. To kwestia, której rozstrzygnięcie w przyszłości pozwoli na lepsze poznanie procesu zaznajamiania się z brązem i postępu cywilizacyjnego w Europie i basenie Morza Śródziemnego. « powrót do artykułu
-
- Śródziemiomorze
- cyna
-
(i 2 więcej)
Oznaczone tagami:
-
Głęboko pod dnem Atlantyku, 400 kilometrów od wybrzeży Gwinei-Bissau, naukowcy z Heriot-Watt University odkryli gigantyczne fale osadów. Znajdujące się kilometr pod dnem wielkie fale mułu i piasku to świadectwo oddzielania się Afryki od Ameryki Południowej. Powstały one w czasie epizodu znanego jako Equatorial Atlantic Gateway, ostatecznego oderwania się obu kontynentów od siebie i utworzenia takiego Oceanu Atlantyckiego, jakim znamy go obecnie. Dzięki odkryciu fal dowiedzieliśmy się, że Atlantyk powstał znacznie wcześniej, niż dotychczas sądzono. Doktorzy Débora Duarte i Uisdean Nicholson wykorzystali podczas badań dane sejsmiczne i rdzenie pozyskane w 1975 roku w ramach Deep Sea Drilling Project. Znaleźli tam pięć warstw osadów, które wykorzystali do zrekonstruowania procesu pękania kontynentu Gondwany. Szczególnie interesująca była jedna z warstw, zawierająca szerokie pola osadów oraz wzgórza mułu, które powstają w wyniku oddziaływania silnych prądów na dnie, mówi doktor Nicholson. Wyobraźcie sobie fale o długości 1 kilometra i wysokości kilkuset metrów. To wielkie pole utworzone w konkretnej lokalizacji dokładnie w momencie ostatecznego oddzielenia się Ameryki Południowej i Afryki. Pole takie powstało, gdyż gęsta słona woda wpłynęła w nowo utworzoną szczelinę. To był gigantyczny wodospad pod powierzchnią oceanu. Do takiego zjawiska doszło ze względu na dużą różnicę gęstości pomiędzy słonawymi wodami z centralnej części Atlantyku i ekstremalnie słonymi wodami z części południowej. Gdy otworzyło się przejście, gęste bardziej słone wody gwałtownie popłynęły na północ, tworząc gigantyczne fale osadów, wyjaśnia uczony. Dotychczas uważano, że Equatorial Atlantic Gateway otworzył się 113–83 miliony lat temu. Jednak fale osadów pokazują, że doszło do tego około 117 milionów lat temu. To był naprawdę ważny czas w historii Ziemi, doszło do dużych zmian klimatycznych. Jeszcze 117 milionów lat temu Ziemia się ochładzała i proces ten trwał już jaki czas. Olbrzymie ilości węgla wyły pochłaniane przez zbiorniki wodne, prawdopodobnie jeziora, w dzisiejszej równikowej części Atlantyku. I wtedy, pomiędzy 117 a 110 milionów lat temu doszło do znaczącego ocieplenia się klimatu. Sądzimy, że doszło do tego, gdyż jeziora te zostały zatopione przez słoną wodę. W miarę, jak kontynenty coraz bardziej się od siebie oddalały, pochłanianie węgla było coraz mniej efektywne, co doprowadziło do ocieplenia. W końcu, w miarę jak przejście pomiędzy kontynentami stawało się szersze i głębsze, pojawił się pełny układ cyrkulacji atlantyckiej, co skutkowało długotrwałym ochłodzeniem w późnej kredzie. To pokazuje, że wydarzenie do odegrało naprawdę ważną rolę w zmianie klimatu w mezozoiku, dodaje Duarte. « powrót do artykułu
-
Na Uniwersytecie w Linköping powstała pipeta, za pomocą której do indywidualnych neuronów można podawać jony bez naruszania delikatnego środowiska pozakomórkowego. Możliwość precyzyjnego kontrolowania koncentracji jonów pomaga w badaniu ich wpływu na komórki oraz współpracy pomiędzy poszczególnymi komórkami. Kiedyś ta technologia może zostać wykorzystana do niezwykle precyzyjnego leczenia chorób neurologicznych, takich jak epilepsja, mówi profesor Daniel Simon. Naukowcy chcieliby się dowiedzieć, jak zmiany w koncentracji jonów wpływają na neurony i komórki gleju. Wcześniejsze próby zbadania tego problemu polegały na wpompowaniu do środowiska międzykomórkowego płynu z jonami. To jednak oznaczało zaburzenie delikatnej równowagi biochemicznej. Nie wiadomo było, czy obserwowane wówczas zmiany w aktywności neuronów i gleju spowodowane są przez substancje podawane wraz z płynem, zmiany ciśnienia czy też sam ruch płynu. Dlatego też naukowcy z Laboratorium Elektroniki Organicznej na Uniwersytecie w Linköping stworzyli pipetę, za pomocą której w pobliże wybranych neuronów można podawać jony, bez naruszania środowiska międzykomórkowego. To zaś umożliwia badania ich wpływu na neurony i komórki gleju. Pipeta ma zaledwie 2 mikrometry średnicy. To 25-krotnie mniej niż średnica ludzkiego włosa i 5-krotnie mniej niż średnica neuronów. Wstępne eksperymenty zostały przeprowadzone na preparatach z hipokampu myszy. Neurony nie reagowały na zmiany w koncentracji jonów tak szybko, jak się spodziewaliśmy. Z kolei astrocyty reagowały bardzo szybko i dynamicznie. Dopiero gdy astrocyty zostały „nasycone”, dochodziło do aktywacji neuronów. To pokazuje dynamikę interakcji pomiędzy różnymi typami komórek mózgowych, której inne metody badawcze nie wyłapywały, dodaje Theresia Arbring Sjöström. « powrót do artykułu
-
Łagodne zmiany strukturalne stawów kolanowych powszechnie występują już u osób po 30. roku życia. Czynnikiem najsilniej powiązanym z pojawianiem się tych zmian jest wysokie BMI, informują fińscy naukowcy z Uniwersytetu w Oulu. Przyjrzeli się oni 297 osobom, których średnia wieku wynosiła 33,7 roku. Uszkodzenie stawów kolanowych, nie dające jeszcze objawów, stwierdzono u ponad połowy z nich. Najczęściej stwierdzanym defektem, zidentyfikowanym u ponad połowy badanych, były niewielkie uszkodzenia chrząstki, zwykle pomiędzy rzepką a kością udową. U około 25% badanych znaleziono uszkodzenia chrząstki pomiędzy kością udową a kością piszczelową. U połowy z tej grupy znaleziono też niewielkie osteofity. Masa ciała wydaje się mieć największy wpływ na pojawianie się strukturalnych zmian w stawie kolanowym, wzrost ma znacznie mniejszy wpływ w porównaniu z BMI. To pokazuje, jak ważne jest utrzymywanie odpowiedniej masy ciała, by zapobiegać chorobom stawów, mówi Joona Tapio. U zdecydowanej większości badanych nie pojawiły się żadne objawy związane z uszkodzeniem stawów. To zaś pokazuje, że uszkodzenia są obecne na długo, zanim zaczynamy je odczuwać. Fińscy naukowcy podkreślają, że konieczne są długoterminowe badania, które pozwolą stwierdzić, jak tego typu zmiany postępują w czasie. « powrót do artykułu
-
- kolano
- staw kolanowy
-
(i 1 więcej)
Oznaczone tagami:
-
Mogłoby się wydawać, że co jak co, ale dobrze wiemy, jakie gatunki dużych zwierząt zamieszkują Ziemię. Otóż nic bardziej mylnego, o czym świadczy fakt odkrycia dwóch nieznanych dotąd gatunków krokodyli. To nie tylko zmienia pogląd nauki na krokodyla amerykańskiego (Crocodylus acutus), ale oznacza też, że niewiele wiemy o bioróżnorodności na naszej planecie, o współzależnościach pomiędzy gatunkami i o ich roli w środowisku. I możemy nigdy się nie dowiedzieć, gdyż bioróżnorodność gwałtownie się zmniejsza. A skoro potrafią zaskoczyć nas krokodyle, to tylko możemy się domyślać, jak mało wiemy o mniejszych i mniej znanych zwierzętach. Odkrycia nowych gatunków dokonali naukowcy z Kanady, Meksyku i Panamy. Zbadali oni genom krokodyli zamieszkujących wyspę Cozumel oraz atol Banco Chinchorro. Oba miejsca znajdują się w pobliżu Jukatanu. Gdy porównali sekwencje DNA tych zwierząt z krokodylami żyjącymi na Karaibach, w Ameryce Środkowej i na pacyficznym wybrzeżu Meksyku, okazało się, że poziom zróżnicowania genetycznego między nimi jest tak duży, że stanowią one nowe, nienazwane gatunki. Tego się nie spodziewaliśmy. Sądziliśmy, że Crodocylus acutus to jeden gatunek występujący od Baja California po Wenezuelę i na całych Karaibach. nasze badania są pierwszymi, podczas których odkryliśmy różnice genetyczne i anatomiczne występujące u tych zwierząt, mówi główny autor badań, José Avila-Cervantes. Odkrycie ma duże znaczenie z punktu widzenia ochrony przyrody. Oba nowe gatunki żyją w niewielkich izolowanych populacjach o liczbie osobników poniżej 1000 sztuk. Populacje wydają się stabilne, ale sam fakt izolacji oraz niewielka liczba zwierząt powodują, że są narażone. Tempo utraty bioróżnorodności może być mniejsze tylko wówczas, jeśli rozpoznamy gatunki, które są najbardziej narażone. Teraz kluczowym jest ochrona habitatów tych krokodyli. Należy ograniczyć budowę infrastruktury na Cozumel i Banco Chinchorro oraz wdrożyć strategie ochronne, by gatunki te przetrwały, stwierdza profesor Hans Larsson. « powrót do artykułu
-
- krokodyl
- krokodyl amerykański
-
(i 2 więcej)
Oznaczone tagami:
-
Zawarte w tworzywach sztucznych ftalany przyczyniły się do śmierci ponad 356 000 osób w samym tylko 2018 roku, stwierdzają na łamach The Lancet eBioMedicine naukowcy z Wydziału Medycyny Uniwersytetu Nowojorskiego. Od dekad wiadomo, że pewne ftalany obecne w kosmetykach, detergentach, plastiku czy repelentach są szkodliwe dla zdrowia. Gdy zostają wchłonięte – na przykład z powszechnym w naszym pożywieniu, powietrzu i wodzie mikroplastikiem, zwiększają ryzyko wielu różnych chorób, od otyłości i cukrzycy po nowotwory. Teraz naukowcy z Uniwersytetu Nowojorskiego przyjrzeli się ftalanowi dwu-2-etyloheksylu (DEHP), który powszechnie dodawany jest do plastiku jako plastyfikator. Z innych badań wiemy, że wystawienie na działanie DEHP prowadzi do nadmiernej reakcji układu odpornościowego wyrażającej się stanem zapalnym w arteriach, co z czasem przekłada się na zwiększone ryzyko zawału serca i udaru. Z przeprowadzonej właśnie analizy wynika, że wystawienie na działanie DEHP przyczyniło się w 2018 roku do 356 238 zgonów na całym świecie. To 13% wszystkich zgonów z powodu chorób układu krążenia wśród osób w wieku 55–64 lat. Znajdując powiązana pomiędzy ftalanami, a jedną z głównych przyczyn zgonów na świecie, dodajemy kolejne elementy do wielkiego zbioru dowodów wskazujących, że te środki chemiczne stanową olbrzymie zagrożenie dla ludzkiego zdrowia, mówi główna autorka badań, Sara Human. W ramach badań naukowcy przeanalizowali dane dotyczące ekspozycji na DEHP na całym świecie. Wśród analizowanych danych były m.in. wyniki badań moczu pod kątem obecności produktów rozpadu DEHP. Naukowcy zauważyli, że największe zagrożenie ftalany stanowią w Azji Wschodniej oraz na Bliskim Wschodzie. Przyczyną takiego stanu rzeczy może być fakt, że w tamtych rejonach ilość zużywanego plastiku szybko rośnie, a jednocześnie producenci podlegają mniejszym ograniczeniom niż gdzie indziej. Widać wyraźne różnice pomiędzy ryzykiem w różnych częściach świata, dodaje doktor Leonardo Trasande. To pokazuje, że potrzebne są regulacje na poziomie światowym, by ograniczyć ekspozycję na te toksyny, dodaje. Uczony podkreśla, że badania skupiały się tylko na DEHP i tylko na jednej grupie wiekowej, zatem rzeczywiste ryzyko stwarzane przez ftalany jest większe. Na następnym etapie badań naukowcy chcą sprawdzić, jak przepisy ograniczające użycie ftalanów mogą wpływać na liczbę zgonów oraz rozszerzyć swoje badania na inne aspekty zdrowotne związane z ekspozycją na ftalany, jak na przykład na przedwczesne porody. « powrót do artykułu
-
- plastik
- tworzywo sztuczne
-
(i 3 więcej)
Oznaczone tagami:
-
O Surtsey, najmłodszej wyspie Europy, opowiada nam Dr Paweł Wąsowicz – biolog, botanik, dyrektor Działu Botaniki w Islandzkim Instytucie Nauk Przyrodniczych (Natural Science Institute of Iceland). Od 2012 roku prowadzi badania naukowe na Islandii, koncentrując się na taksonomii, biogeografii i ekologii roślin, w szczególności na zagadnieniach związanych z migracjami roślin, sukcesją na terenach wulkanicznych oraz wpływem gatunków obcych na rodzimą florę. Od 2013 roku jest stałym członkiem corocznych wypraw badawczych na Surtsey – najmłodszą wyspę wulkaniczną Europy. Jest jedynym Polakiem i jednym z nielicznych naukowców na świecie, którzy prowadzą bezpośrednie badania terenowe na tej wpisanej na listę światowego dziedzictwa UNESCO wyspie. Dr Wąsowicz jest autorem i współautorem licznych publikacji naukowych z zakresu botaniki, ekologii wysp, biologii inwazji i biogeografii roślin. Wyniki jego badań były publikowane w renomowanych międzynarodowych czasopismach naukowych. Uczestniczy w międzynarodowych projektach badawczych i odgrywa aktywną rolę w pracach eksperckich związanych z ochroną przyrody, zwłaszcza w zakresie zarządzania gatunkami obcymi w Europie. Poza działalnością naukową dr Wąsowicz zajmuje się popularyzacją wiedzy przyrodniczej – współpracuje z mediami, tworzy materiały edukacyjne oraz bierze udział w inicjatywach promujących ochronę środowiska na Islandii i poza jej granicami. Wkrótce będziemy obchodzili 62. rocznicę pojawienia się w Europie najmłodszej wyspy wulkanicznej. Może Pan przybliżyć nam historię Surtsey? Surtsey wynurzyła się z oceanu 14 listopada 1963 roku, około 32 km na południe od Islandii. Erupcja trwała aż do czerwca 1967 roku, wyrzucając na powierzchnię około 1,1 km3 lawy i materiałów piroklastycznych. Wyspa osiągnęła wtedy maksymalną powierzchnię 2,65 km2, lecz z powodu silnej erozji morskiej obecnie ma już tylko około 1,4 km2. Nazwę otrzymała na cześć Surtra, ognistego olbrzyma z nordyckiej mitologii. Od początku traktowano ją jako naturalne laboratorium, w którym można śledzić rozwój życia i ekosystemów na zupełnie nowym lądzie. ©Paweł Wąsowicz Roślinność pionierska w północnej części Surtsey. Na zdjęciu widoczne są m.in. Honckenya peploides, Mertensia maritima oraz Leymus arenarius – gatunki tworzące pierwsze zespoły roślinne na ubogiej w azot tefrze, tuż nad brzegiem oceanu. To właśnie one zapoczątkowują proces tworzenia się gleby i umożliwiają dalszą kolonizację wyspy przez inne organizmy. Wyspa natychmiast została objęta ochroną. Obejmuje ona, między innymi, zakaz wstępu. Przed czym lub kim wyspę należy chronić? Już w 1965 roku Surtsey objęto ścisłą ochroną – ustanowiono całkowity zakaz wstępu dla osób postronnych, by chronić ją przed wpływem człowieka. Celem było zachowanie wyspy jako miejsca, gdzie sukcesja pierwotna może przebiegać w pełni naturalnie. Badania są możliwe tylko po uzyskaniu specjalnego zezwolenia. Dzięki izolacji oraz ochronie Surtsey uznano w 2008 roku za obiekt Światowego Dziedzictwa UNESCO. Skąd na Surtsey rośliny? Jakimi drogami przybywają? Rośliny przybywają na wyspę na różne sposoby: unoszone przez wiatr, wodę morską, a przede wszystkim – przenoszone przez ptaki. Badania wykazały, że aż 75% gatunków dotarło dzięki ptakom, 11% przez wiatr, a 9% przez wodę. Nasiona przybywały na wyspę zarówno wewnątrz ptasich przewodów pokarmowych, jak i przyczepione do ich piór czy przyniesione w materiałach gniazdowych. Niektóre gatunki – jak Cakile maritima – dotarły dzięki morskim prądom i zakiełkowały na świeżej tefrze już w 1965 roku. ©Paweł Wąsowicz Mewa siodłata (Larus marinus) – największy gatunek mewy na świecie. Na Surtsey gatunek ten tworzy duże kolonie lęgowe i odgrywa kluczową rolę w rozwoju roślinności, dostarczając glebie substancji odżywczych poprzez odchody i resztki pokarmowe. Jakie gatunki dotychczas tam zidentyfikowano i jakie znaczenie ich pojawienie się ma dla samej wyspy oraz jej ekosystemu? Do 2024 roku potwierdzono obecność 58 gatunków roślin naczyniowych. Wczesna flora składała się z roślin nadmorskich, takich jak Leymus arenarius, Honckenya peploides czy Mertensia maritima. Obecność roślin umożliwiła rozwój gleby, a następnie osiedlanie się kolejnych organizmów. Wraz z rozwojem kolonii mew od połowy lat 80. XX w. liczba gatunków roślin gwałtownie wzrosła – dzięki nawożeniu przez ptaki i lepszym warunkom glebowym. « powrót do artykułu
-
Fuzja jądrowa to obietnica czystego, bezpiecznego i praktycznie nieskończonego źródła energii. Badania nad nią trwają od dziesięcioleci i nic nie wskazuje na to, byśmy w najbliższym czasie mogli zastosować ją w praktyce. Naukowcy dokonują powolnych, mniejszych lub większych, kroków na przód w kierunku jej opanowania. Uczeni z University of Texas, Los Alamos National Laboratory i Type One Energy Group rozwiązali właśnie poważny problem, który od 70 lat nękał jeden z rodzajów reaktorów fuzyjnych – stellaratory – spowalniając prace nad nimi. Jego rozwiązanie przyda się również w udoskonaleniu tokamaków, innego – znacznie bardziej popularnego – projektu reaktora fuzyjnego. Jednym z poważnych wyzwań stojących przed wykorzystaniem w praktyce fuzji jądrowej jest utrzymanie wysokoenergetycznych cząstek wewnątrz reaktora. Gdy takie wysokoenergetyczne cząstki alfa wyciekają, uniemożliwia to uzyskanie wystarczająco gorącej i gęstej plazmy, niezbędnej do podtrzymania reakcji. Inżynierowie opracowali złożone metody zapobiegania wyciekom za pomocą pól magnetycznych, jednak w polach takich występują luki, a przewidzenie ich lokalizacji i zapobieżenie im wymaga olbrzymich mocy obliczeniowych i wiele czasu. Na łamach Physical Review Letters ukazał się artykuł, w którym wspomniani wcześniej naukowcy informują o opracowaniu metody 10-krotnie szybszego przewidywania miejsc pojawiania się luk, bez poświęcania dokładności. Rozwiązaliśmy problem, który był nierozwiązany od 70 lat. Będzie to znaczący przełom w sposobie projektowania reaktorów, mówi profesor Josh Burry z University of Texas. W stellaratorach wykorzystywany jest układ cewek, za pomocą których generowane są pola magnetyczne. Nazywany jest on „magnetyczną butelką”. Miejsca występowania dziur w magnetycznej butelce można precyzyjnie przewidywać korzystając z zasad dynamiki Newtona. Jednak działanie takie wymaga olbrzymich ilości czasu i wielkich mocy obliczeniowych. Co więcej, by zaprojektować stellarator idealny konieczna byłaby symulacja setek tysięcy różnych projektów i stopniowe dostosowywanie do każdego z nich układu magnetycznej butelki. By więc oszczędzić czas i pieniądze podczas obliczeń standardowo używa się teorii perturbacji, która daje wyniki przybliżone. Są one jednak znacznie mniej dokładne. Autorzy najnowszych badań podeszli do problemu w inny sposób, wykorzystując teorię symetrii. Obecnie nie ma innego niż nasz teoretycznego sposobu na rozwiązanie kwestii uwięzienia cząstek alfa. Bezpośrednie zastosowanie zasad dynamiki Newtona jest zbyt kosztowne, a teoria perturbacji związana jest z poważnymi błędami. Nasza teoria jest pierwszą, która radzi sobie z tymi ograniczeniami, dodaje Burry. Co więcej, nowa praca może pomóc też w rozwiązaniu podobnego, ale innego problemu występującego w tokamakach. W nich z kolei problemem są wysokoenergetyczne elektrony, które dziurawią osłony reaktora. Nowa metoda może pozwolić na zidentyfikowanie luk w polach magnetycznych, przez które elektrony wyciekają. « powrót do artykułu
-
- stellarator
- fuzja jądrowa
-
(i 2 więcej)
Oznaczone tagami:
-
Kiedy przyglądamy się na ekranach komputerów spektakularnym efektom wizualnym w najnowszych grach czy filmach, rzadko analizujemy to, w jaki sposób możemy w ogóle je zobaczyć. Tymczasem karty graficzne, bo to właśnie ich zasługa, to jedne z najbardziej złożonych urządzeń w świecie technologii. Te małe i niepozorne urządzenia potrafią w ułamkach sekund wykonywać obliczenia, które jeszcze kilkadziesiąt lat temu zajęłyby superkomputerom kilka dni. Co warto wiedzieć o współczesnych kartach graficznych? Wielkość ze skromnych początków, czyli historia i ewolucja kart graficznych Hasło znane z herbu brytyjskiego odkrywcy Francisa Drake’a, który jako jeden z pierwszych zdołał opłynąć świat, doskonale oddaje historię i rozwój kart graficznych. W latach 70. i 80. XX wieku pierwsze układy graficzne obsługiwały jedynie proste grafiki 2D, często oferując zaledwie kilka kolorów. Przełom nastąpił w 1996 roku, gdy firma 3dfx wypuściła Voodoo Graphics – pierwszą masowo produkowaną kartę dedykowaną akceleracji 3D. Kolejne lata to rywalizacja gigantów: NVIDIA (z przełomowym GeForce 256, pierwszym oficjalnie nazwanym GPU) oraz ATI (później przejęte przez AMD). Z każdą generacją wydajność rosła wręcz wykładniczo. Dzisiejsze karty mają więcej mocy obliczeniowej niż najbardziej zaawansowane superkomputery z początku wieku. Architektura i działanie GPU CPU i GPU to typy procesorów używane w komputerach, ale mają różne funkcje. CPU (Central Processing Unit) jest głównym procesorem, który wykonuje większość obliczeń i zarządza całym komputerem. GPU (Graphics Processing Unit) to natomiast bardziej specjalistyczny procesor, który przyśpiesza operacje związane z grafiką, np. w grach lub programach do obróbki grafiki. Jednostka CPU składa się z kilku rdzeni zoptymalizowanych pod kątem sekwencyjnego przetwarzania szeregowego, natomiast jednostki GPU zbudowane są z tysięcy mniejszych, wydajnych rdzeni zaprojektowanych z myślą o przetwarzaniu wielu zadań jednocześnie. Jest on przeznaczony do renderowania obrazów, filmów i animacji i sprawdza się podczas wydajnej obsługi danych wizualnych. NVIDIA nazywa je rdzeniami CUDA, AMD – Stream Processors, a Intel – Execution Units. Zastosowania wykraczające poza gry Choć karty graficzne kojarzymy głównie z grami, ich prawdziwa siła tkwi we wszechstronności. Dzięki masowej równoległości obliczeń GPU zrewolucjonizowały wiele dziedzin. W medycynie przyspieszają analizę obrazów diagnostycznych i symulacje molekularne przy projektowaniu leków. Naukowcy używają ich do modelowania klimatu i symulacji astrofizycznych. Inżynierowie projektują na nich złożone struktury i przeprowadzają symulacje. Szczególnie spektakularna jest ich rola w sztucznej inteligencji – trenowanie modeli deep learning przyspieszyło dzięki nim kilkaset razy. To właśnie karty graficzne napędzają boom AI, jaki obserwujemy w ostatnich latach. Ciekawostki technologiczne i rekordy Świat kart graficznych pełen jest rekordów. Uznawana przez wielu za najmocniejszą konsumencką kartę graficzną na rynku – NVIDIA GeForce RTX 4090 – osiąga wydajność ponad 80 teraflopsów w obliczeniach FP32. To moc obliczeniowa porównywalna z superkomputerami sprzed zaledwie dekady! Dobre karty graficzne znajdziesz między innymi tutaj: https://www.morele.net/kategoria/karty-graficzne-12/,,,,,,,,0,,,,8143O2252854/1/ Miłośnicy ekstremalnego podkręcania używają ciekłego azotu, aby schłodzić karty do temperatur poniżej -150°C i wycisnąć z nich jeszcze więcej mocy. Rekordy taktowania przekraczają 3 GHz, podczas gdy standardowe zegary wynoszą około 2,2 GHz. Warto też wspomnieć o tym, że topowe modele potrafią pobierać ponad 450W mocy. To więcej niż pralka w trybie ekologicznym. Niektóre z nich wymagają nawet trzech złączy zasilania 8-pin, a producenci zalecają zasilacze o mocy 1000W lub więcej. Przyszłość technologii GPU Przyszłość kart graficznych rysuje się w jeszcze jaśniejszych barwach. Ray tracing – technologia symulująca rzeczywiste zachowanie światła – staje się standardem, oferując fotorealistyczne odbicia, cienie i oświetlenie. Algorytmy oparte na AI, jak NVIDIA DLSS czy AMD FSR, pozwalają generować obrazy w wyższych rozdzielczościach przy mniejszym obciążeniu sprzętu. Producenci pracują nad kartami, które zaoferują większą moc przy niższym zużyciu energii. Jednocześnie rozwija się technologia chipletów, gdzie GPU składa się z wielu mniejszych układów zamiast jednego monolitu. « powrót do artykułu
-
- karty graficzne
- ciekawostki
-
(i 1 więcej)
Oznaczone tagami:
-
W ostatnim półwieczu producenci komputerów dokonali olbrzymich postępów pod względem miniaturyzacji i wydajności układów scalonych. Wciąż jednak bazują one na krzemie i w miarę zbliżania się do fizycznych granic wykorzystywania tego materiału, miniaturyzacja staje się coraz trudniejsza. Nad rozwiązaniem tego problemu pracują setki naukowców na całym świecie. Jest wśród nich profesor King Wang z University of Miami, który wraz z kolegami z kilku amerykańskich uczelni ogłosił powstanie obiecującej molekuły, która może stać się podstawą do budowy molekularnego komputera. Na łamach Journal of American Chemical Society uczeni zaprezentowali najlepiej przewodzącą prąd cząsteczkę organiczną. Co więcej, składa się ona z węgla, siarki i azotu, a więc powszechnie dostępnych pierwiastków. Dotychczas żadna molekuła nie pozwala na tworzenie elektroniki bez olbrzymich strat. Tutaj mamy pierwszą molekułą, która przewodzi prąd na dystansie dziesiątków nanometrów bez żadnej straty energii, zapewnia Wang. Uczeni są pewni swego. Testy i sprawdzanie molekuły pod wszelkimi możliwymi kątami trwały przez ponad dwa lata. Zdolność cząsteczek do przewodzenia elektronów wykładniczo zmniejsza się wraz ze wzrostem rozmiarów molekuły. Tym, co jest unikatowe w naszej molekule, jest fakt, że elektrony mogą przemieszczać się przez nie bez straty energii. Teoretycznie jest to wiec najlepszy materiał do przewodzenia elektronów. Pozwoli on nie tylko zmniejszyć rozmiary elektroniki w przyszłości, ale jego struktura umożliwi stworzenie komputerów funkcjonujących tak, jak nie jest to możliwe w przypadku materiałów opartych na krzemie, dodaje Wang. Nowa molekuła może posłużyć do budowy molekularnych komputerów kwantowych. Niezwykle wysokie przewodnictwo naszej cząsteczki to rezultat intrygującej interakcji spinów elektronów na obu końcach molekuły. W przyszłości taki system molekularny może pełnić rolę kubitu, podstawowej jednostki obliczeniowej komputerów kwantowych, cieszy się uczony. « powrót do artykułu
-
- molekuła
- komputer molekularny
-
(i 1 więcej)
Oznaczone tagami: