Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37636
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Glejak wielopostaciowy to jeden z najczęściej spotykanych i najbardziej agresywnych pierwotnych nowotworów mózgu. Występuje on u od 0,6 do 5 osób na 100 000, a liczba jego przypadków rośnie na całym świecie. Średni spodziewany czas życia od postawienia diagnozy wynosi zaledwie 15 miesięcy. Na University of Toronto postała właśnie nowa technika mikrochirurgiczna, która może pomóc w leczeniu tej choroby. Związane z nią nadzieje są tym większe, że może być wykorzystana do leczenie guzów opornych na inne terapie i umiejscowionych w tych obszarach mózgu, w których interwencja chirurgiczna jest wykluczona. Obecnie standardowe leczenie glejaka polega na usunięciu guza i zastosowaniu radio- oraz chemioterapii. Niestety, komórki glejaka bardzo szybko się namnażają i naciekają na sąsiadującą tkankę, przez co ich chirurgiczne usunięcie jest bardzo trudne. Tym bardziej, że mamy do czynienia z mózgiem, w którym nie możemy wycinać guza z dużym marginesem. Jakby tego było mało, glejak szybko nabiera oporności na chemioterapię. Bardzo często więc u pacjentów dochodzi do wznowy nowotworu, który wkrótce przestaje reagować na dostępne metody leczenia. Yu Sun, profesor na Wydziale Nauk Stosowanych i Inżynierii oraz Xi Huang z Wydziału Medycyny University of Toronto mają nadzieję na zmianę stanu rzeczy za pomocą robotycznych nano-skalpeli, które mogą precyzyjnie zabijać komórki nowotworu. Naukowcy stworzyli węglowe nanorurki, które wypełnili cząstkami tlenku żelaza. Tak uzyskane magnetyczne nanorurki (mCNT) są pokryte przeciwciałami, które rozpoznają specyficzną dla komórek glejaka proteinę CD44. Nanorurki są następnie wstrzykiwane w miejsce występowania guza i samodzielnie poszukują proteiny CD44. Gdy ją znajdą, przyczepiają się do komórki i do niej wnikają. A kiedy są już na miejscu, wystarczy włączyć zewnętrzne pole magnetyczne, pod wpływem którego mCNT zaczynają wirować, uszkadzając od wewnątrz komórki glejaka i prowadzą do ich śmierci.     Jako że nanorurki niszczą komórki za pomocą oddziaływania mechanicznego, nie ma ryzyka, że komórki zyskają oporność na ten sposób oddziaływania. Nowa metoda może zatem być odpowiedzią zarówno na problem uodparniania się guza na chemioterapię, jak i na niemożność tradycyjnego usunięcia guza metodami chirurgicznym. Podczas przeprowadzonych już badań na myszach naukowcy wykazali, że ich metoda zmniejszyła rozmiary guza i wydłużyła życie myszy z oporną na chemioterapię formą glejaka wielopostaciowego. Inną korzyścią z zastosowania mechanicznego oddziaływania mCNT jest fakt, że obok fizycznego niszczenia struktury komórek, nanorurki mogą modulować specyficzne biochemiczne szlaki sygnałowe, co będziemy starali się wykorzystać do opracowania łączonej terapii biorącej na cel nieuleczalne guzy mózgu, mówi Wang. « powrót do artykułu
  2. Panele fotowoltaiczne zamontowane na dachach zakładów przemysłowych mogą zaspokoić do 35% zapotrzebowania amerykańskiego przemysłu na energię, informują naukowcy z Nortwestern University. To olbrzymi niewykorzystany potencjał. Obecnie bowiem panele zainstalowane w miejscach działania firm produkcyjnych dostarczają im zaledwie 0,1% energii. Tymczasem przemysł odpowiada za 38% zużycia energii w Stanach Zjednoczonych i 37% emisji gazów cieplarnianych. Potencjał dachów pozostaje niewykorzystany nie tylko zresztą w przemyśle. Instalowane tam panele zapewniłyby 13,6% energii zużywanej w USA, a obecnie wytwarzają zaledwie 2,2% energii. Uczeni przedstawili na łamach Environmental Research: Sustainability and Infrastructure wyniki badań nad możliwością pozyskiwania energii słonecznej na własną działalność przez różne gałęzie amerykańskiego przemysłu. Wykorzystali przy tym dane z badań Manufacturing Energy Consumption Survey przeprowadzonych przez Departament Energii. Na ich podstawie wyliczyli potencjalną ilość energii, jaka jest możliwa do pozyskania z paneli słonecznych umiejscowionych na dachu przeciętnego budynku, w którym odbywa się produkcja. Z obliczeń wynika, że panele montowane na dachach mogą zapewnić – w zależności od sektora przemysłu i pory roku – od 5 do 35 procent zapotrzebowania na energię. Najbardziej na ich zainstalowaniu zyskałyby przemysły meblarski, tekstylny oraz odzieżowy. Tego typu zakłady są w stanie całkowicie samodzielnie zaspokoić swoje roczne uśrednione zapotrzebowanie na energię z własnych paneli słonecznych. Przemysł jest na całym świecie jednym z głównych użytkowników energii i jednym z głównym emitentów gazów cieplarnianych. Nic więc dziwnego, że skupia się na nim wiele wysiłków mających doprowadzić do zmniejszenia emisji gazów cieplarnianych przez ludzi. Naukowcy z Northwestern University wykazali, że instalowanie paneli słonecznych na dachach budynków może być dla firm produkcyjnych opłacalnym sposobem na pozyskanie energii. Przedsiębiorstwa dysponują bowiem dużymi powierzchniami płaskich dachów, na których montowanie paneli słonecznych jest łatwe i tanie, co w obliczu spadających cen ogniw i ich rosnącej wydajności staje się opłacalnym rozwiązaniem. Szczególnie kuszący może być fakt, że wiosną i latem na 40% powierzchni USA panują takie warunki, które wielu znajdującym się tam firmom produkcyjnym pozwoliłyby w 100% zaspokoić zapotrzebowanie na energię z własnych paneli słonecznych. « powrót do artykułu
  3. Po 50 latach do australijskiego Royal National Park powróciły dziobaki. Reintrodukcja tego niezwykłego gatunku była możliwa dzięki pracy naukowców z Uniwersytetu Nowej Południowej Walii, WWF-Australia i Taronga Conservation Society Australia. Właśnie wypuścili oni cztery samice na brzeg rzeki Hacking, a zwierzęta szybko pomknęły w kierunku wody. W sumie w tym samym miejscu zostanie wypuszczonych 6 samic i 4 samce. Działania takie mają na celu nie tylko wprowadzić dziobaka w miejsce, w którym niegdyś występował, ale też zwiększyć różnorodność genetyczną gatunku i jego szanse na przetrwanie. Pomysł reintrodukcji dziobaka w Royal National Park narodził się przed trzema laty. Wymagał on szczegółowych badań i wielu przygotowań. Specjaliści musieli zabrać dziobaki z innych regionów, upewniając się, że nie zaszkodzą miejscowej populacji i nie zubożą jej puli genetycznej. Jednocześnie zaś, jako że zwierzęta pochodziły z różnych miejsc, zapewniono nowej populacji odpowiednie zróżnicowanie genetyczne. Jednocześnie trwały przygotowania i badania w samym Royal National Park. Eksperci przez wiele miesięcy sprawdzali tam jakość wody oraz dostępność pożywienia. Szczególnie zmartwieniem była powódź z 2021 roku, w czasie której zalane zostały hałdy węgla. Jednak badania wykazały, że nie doszło do obniżenia jakości wody. "Szczegółowo monitorowaliśmy jakość wody i dostępność pożywienia podczas ekstremalnych powodzi, badaliśmy poziom zanieczyszczeń wówczas oraz rok po powodzi", zapewnia profesor Richard Kingsford. Dziobaki żywią sie niewielkimi bezkręgowcami, w tym nimfami ważek, chruścików i małymi krewetkami. Przez cały ubiegły rok u brzegów Hacking River zwierzęta te występowały w obfitości, a ostatnich badań dokonywano jeszcze przed miesiącem. Naukowcy upewnili się tym samym, że dziobaki będą miały co jeść. « powrót do artykułu
  4. Po 15 latach poszukiwań naukowcom udało się zarejestrować wodę wydobywającą się z komety z głównego pasa asteroid. Odkrycia dokonano dzięki Teleskopowi Webba, którego spektroskop pokazał, że warkocz komety 238P/Read składa się z pary wodnej. Jednocześnie nie zarejestrowano w komie znaczących ilości dwutlenku węgla. To zaś wskazuje, że aktywność komety Read napędzana jest przez sublimację lodu w parę wodną i sugeruje, że komety z głównego pasa znacząco różnią się od innych komet. W głównym pasie asteroid obecne są obiekty, które, gdy znajdą się w peryhelium, wykazują aktywność podobną do komet (np. pojawia się u nich koma). To bardzo silna przesłanka na sublimację lodu. Obecność tych komet wskazuje na istnienie wody w głównym pasie, jednak nie udawało się jej wykryć za pomocą żadnego teleskopu. Główny pas asteroid znajduje się pomiędzy Marsem a Jowiszem, a orbity większości z tamtejszych komet są kołowe. Dotychczas rejestrowano jedynie wydobywający się z nich pył. Astronomowie sądzą, że większość komet z głównego pasa asteroid nie zawiera zbyt dużo wody, gdyż od miliardów lat znajdują się w ciepłych wewnętrznych obszarach Układu Słonecznego. Tymczasem gros innych komet – jak np. słynna kometa Halleya – większość czasu spędza w zimnych obszarach zewnętrznych i mają silnie wydłużone orbity, rzadko zapuszczając się w pobliże naszej gwiazdy. Dlatego też wciąż pojawiały się wątpliwości, czy komety z głównego pasa zbudowane są z lodu. Aż do teraz. Od czasu odkrycia komet głównego pasa zebraliśmy znaczącą liczbę dowodów wskazujących na to, że ich aktywność napędzana jest przez sublimację. Jednak dotychczas były to dowody pośrednie. Wyniki uzyskane przez JWST to pierwszy bezpośredni dowód na sublimację wody i jakiekolwiek wydobywanie się gazu z komet głównego pasa. Poszukiwania takiego gazu były prowadzone od 2008 roku za pomocą najpotężniejszych teleskopów naziemnych, mówi współautor najnowszych badań, Henry Hsieh z Planetery Science Institute. W przeszłości stał on na czele zespołu, który odkrył komety głównego pasa asteroid. W artykule opublikowanym właśnie przez Hsieha i jego zespół czytamy, że komety z głównego pasa mają znacząco różny skład od innych komet. W ich składzie niemal nie występuje dwutlenek węgla, którego duże ilości budują inne komety. Na tej podstawie można zaś stwierdzić, że komety z głównego pasa reprezentują słabo poznaną podklasę obiektów. Zatem ich zbadanie jest bardzo ważne dla lepszego zrozumienia obecności substancji lotnych we wczesnym Układzie Słonecznym i jego ewolucji. Jedna z hipotez dotyczących obecności wody na Ziemi mówi, że pochodzi ona z głównego pasa asteroid. Teraz zyskaliśmy potwierdzenie, że obszarze tym rzeczywiście znajduje się woda, zatem mogła ona zostać przyniesiona stamtąd na naszą planetę. « powrót do artykułu
  5. We wsi Grójec koło Ćmielowa w Świętokrzyskiem znajduje się rozległy lessowy cypel górujący o 40 metrów nad doliną rzeki Kamiennej. Miejscowi nazywają to miejsce „Grodziskiem” lub „Zjawienną Górą”. Wiosną ubiegłego roku w regionie tym latał samolot, który wykonywał zdjęcia lotnicze na potrzeby Geoportalu Krajowego. Miejsce to było już niejednokrotnie fotografowane z powietrza i nie zauważono tam niczego szczególnego. Jednak tym razem fotografie wykonano na tyle wcześnie, że na polach nic nie rosło. Dzięki temu Kamil Bilski ze Stowarzyszenia „Wspólne Dziedzictwo” z Opatowa zauważył na fotografiach niezwykłe struktury. Nazwy „Grodzisko” i „Grójec” sugerują istnienie tutaj wczesnośredniowiecznego grodu. Jednak obecnie nie widać żadnych śladów takiej budowli. Co więcej, aż do końca XVIII wieku w staropolszczyźnie „grodzisko” czy „grójec” oznaczało nie gród, a jakiś teren ogrodzony, na przykład pastwisko. Dopiero w XIX wieku słowa te zaczęto kojarzyć ze strukturą obronną. I prawdopodobnie „Grodzisko” w Grójcu pochodzi od ogrodzonego pastwiska. Jednak znacznie bardziej interesująca jest nazwa „Zjawienna Góra”. Taka i podobne nazwy występujące jeszcze w kilku miejscach w Polsce, sugerują, że coś się tutaj zjawiło, objawiło lub objawiało. W czasach pogańskich mogło być to jakieś bóstwo, później najczęściej chodzi o Matkę Boską lub jednego ze świętych. Wiemy na przykład, że w Radomyślu ze wzgórzem „Zjawienie” od XV wieku związany jest kult Matki Boskiej. Z kolei w Feliksówce na wzniesieniu „Zjawienie” znajdują się trzy półkoliste wały, a u jego podnóża znajduje się kapliczka św. Romana i cudowne źródełko, do którego pielgrzymowano co najmniej od XVIII wieku. Archeolodzy przypuszczają, że we wczesnym średniowieczu znajdował się gród kultowy – pogańskie miejsce obrzędowe oddzielone symbolicznie od strefy profanum. Wróćmy jednak do „Zjawiennej Góry” w Grójcu. Niejednokrotnie znajdowano tam gliniane naczynia oraz wyroby krzemienne i kamienne z kultury lubelsko-wołyńskiej ceramiki malowanej, neolitycznej kultury pucharów lejkowych, kultury mierzanowickiej czy łużyckiej, kultury przeworskiej z okresu rzymskiego. Nie były prowadzone jednak żadne prace archeologiczne, stąd możemy tylko przypuszczać, że w tym miejscu zamieszkiwano, a co najmniej przechodzono przez nie od tysięcy lat. Na wspomnianych już zdjęciach lotniczych pan Kamil Bilski zauważył trzy półksiężycowate rowy o szerokości 3-6 metrów, biegnące od wschodniej po zachodnią krawędź cypla, prosty rów, kilkadziesiąt różnych obiektów, w tym kwadratowe półziemianki i okrągłe lub owalne jamy. Poza nimi widać też linie okopów z II wojny światowej. Co prawda bez badań archeologicznych trudno określić, z jakiego okresu pochodzą widoczne obiekty, jednak doktor Marek Florek z sandomierskiej delegatury Wojewódzkiego Urzędu Ochrony Zabytków w Kielcach oraz Uniwersytetu Marii Curie-Skłodowskiej w Lublinie i stawia dwie hipotezy. Zgodnie z pierwszą z nich rowy powstały w środkowym neolicie i są pozostałością osady obronnej ludności kultury lubelsko-wołyńskiej ceramiki malowanej z IV tysiąclecia p.n.e. Druga zaś hipoteza mówi, że są to średniowieczne fosy sprzed końca X wieku, które związane były z funkcjonującym na „Zjawiennej Górze” pogańskim miejscem kultowym. Z kolei kwadratowe półziemianki mogą pochodzić albo z okresu rzymskiego, albo – co bardziej prawdopodobne – z wczesnego średniowiecza. Jamy zaś powstawały w różnych okresach. Doktor Florek zapowiada, że jesienią zostaną przeprowadzone wstępne rozpoznania archeologiczne na „Zjawiennej Górze”. « powrót do artykułu
  6. Zasada prawej ręki to jedna z najbardziej podstawowych i najczęściej stosowanych reguł ruchu drogowego w Polsce. Zapominanie o niej nie tylko grozi stworzeniem niebezpiecznych sytuacji na drodze, ale również ukaraniem kierowcy mandatem. Na szczęście ta reguła jest tak uniwersalna i często używana, że większość osób stosuje się do niej automatycznie. Sen z powiek może spędzać co najwyżej młodym, czekającym na egzamin na prawo jazdy kierowcom. Czym dokładnie jest zasada prawej ręki i kiedy należy ją stosować? Czym jest zasada prawej ręki? Zasada prawej ręki to uniwersalna reguła, do której powinien się stosować każdy kierowca. Obowiązuje w każdym miejscu, w którym nie ma dokładnych oznaczeń drogowych. To w dużej mierze dzięki niej na drogach panuje porządek, a kierowcy wiedzą, jak się zachować na słabo oznakowanym terenie. Głównym jej celem jest usystematyzowane i upłynnienie ruchu, a także zminimalizowanie ryzyka kolizji pomiędzy pojazdami. Reguła prawej ręki dotyczy konkretnie tego, który pojazd może jako pierwszy ruszyć, skręcić lub wjechać na dany teren. Jak wskazuje nazwa „reguła prawej ręki” – kierowcy powinni ustępować pierwszeństwa pojazdom znajdującym się po prawej stronie. Co to oznacza w praktyce? Zasada prawej ręki najczęściej stosowana jest na skrzyżowaniach równorzędnych. Według niej kierowcy powinni ustępować pierwszeństwa pojazdom nadjeżdżającym z prawej strony i mieć nadrzędność przejazdu nad pojazdami pojawiającymi się z lewej strony. Dzięki temu kolejność wjazdu na skrzyżowanie jest usystematyzowana i każdy uczestnik wie, kiedy może się włączyć do ruchu drogowego. Kiedy należy zastosować zasadę prawej ręki? Reguła prawej ręki znajdzie zastosowanie w każdej sytuacji, gdy ruch na drodze nie jest regulowany ani komunikacją świetlną, ani znakami drogowymi. Wtedy, aby nie doszło do kolizji - stosowane jest prawo pierwszeństwa pojazdu znajdującego się z prawej strony. Obecnie ta reguła nie jest tak często stosowana jak kiedyś, ponieważ w większości miejsc znajdują się znaki drogowe lub sygnalizacja świetlna. Jednak nie wyszła ona całkowicie z użytku i w mniejszych miejscowościach lub wsiach wciąż korzysta z niej wielu kierowców. Gdzie można zastosować regułę prawej ręki? Zasada prawej ręki nie jest ważniejsza niż znaki drogowe, sygnalizacja świetlna, ani policjant kierujący ruchem, dlatego należy ją stosować tylko w miejscach, gdy nie ma innej możliwości. Gdzie kierowca może wykorzystać tę regułę? Strefa ograniczonej prędkości – w mieście często kierowcy napotykają wydzielone przestrzenie oznaczone B-43. Zazwyczaj właśnie tam jest najwięcej skrzyżowań równorzędnych, przy których nie ma sygnalizacji świetlnej i znaków. Dlatego wjeżdżając w strefę ograniczonej prędkości prawdopodobnie kierowcy będą musieli stosować zasadę prawej ręki. Rondo – przed większością skrzyżowań okrężnych w Polsce znajduje się znak A-7, który zwalnia kierowców ze stosowania zasady prawej ręki. Widząc taki znak należy ustąpić pierwszeństwa pojazdom już znajdującym się na rondzie. Autostrady i drogi ekspresowe – oprócz stosowania prawa pierwszej ręki na skrzyżowaniach, powinno się również o nim pamiętać poruszając się na trzypasmowych drogach szybkiego ruchu. Jeśli kierowca chce zmienić pas z lewego na środkowy, to powinien przepuścić najpierw samochód wykonujący ten sam manewr, ale od prawej strony. Jeśli chcesz poznać jeszcze inne przypadki, w których kierowcy powinni stosować zasadę prawej ręki zajrzyj na stronę: https://rankomat.pl/samochod/zasada-prawej-reki. Kiedy prawo prawej ręki nie obowiązuje? Reguła prawej ręki nie obowiązuje oczywiście wtedy, gdy na drodze znajduje się policjant kierujący ruchem, ustawione są znaki drogowe lub działa sygnalizacja świetlna. Tą zasadą należy się kierować jedynie w sytuacjach, gdy nie ma innego wyjścia. Warto również pamiętać, że prawo drogowe nie jest uniwersalne dla każdego kraju i niekoniecznie za granicą również obowiązuje reguła prawej ręki. W większości miejsc rzeczywiście kierowcy nie powinni mieć żadnego problemu i mogą bezpiecznie stosować tę metodę. Jednak w krajach, w których obowiązuje lewostronny ruch, jak np. Wielka Brytania zasada prawej ręki się nie sprawdzi. Dlatego przed każdą zagraniczna podróżą samochodem warto przed wyjazdem zapoznać się z zasadami ruchu drogowego kraju, do którego się udajesz. Czym grozi niestosowanie reguły prawej ręki? Pierwszą i najpoważniejszą konsekwencją niestosowania się do zasad ruchu drogowego jest ryzyko kolizji. W przypadku niezachowania reguł dotyczących pierwszeństwa szczególnie wzrasta to prawdopodobieństwo. Kolizja pomiędzy dwoma wyjeżdżającymi samochodami nie tylko może obu kierowców narazić na problemy zdrowotne, ale sprawcę również na finansowe. W związku ze zmianą przepisów, od 2022 roku kierowca, który wymusił pierwszeństwo może zostać obciążony mandatem do 350zł i 6 punktami karnymi. Dodatkowo, jeśli przyczyną kolizji jest złamanie zasady prawej ręki kara może zwiększyć się do 1000zł. Warto być świadomym kierowcą i stosować się do zasad ruchu drogowego, dbając zarówno o swoje bezpieczeństwo, jak i pozostałych uczestników ruchu. « powrót do artykułu
  7. Zakup nowego komputera to zwykle duże wydarzenie. Jeżeli zależy nam na dobrym sprzęcie, musimy przygotować dość istotny budżet - w szczególności w przypadku laptopów, które naturalnie są droższe od desktopów. Na co zwrócić uwagę przy wyborze modelu dla siebie? Czy warto kupić Macbooka, czy może jednak lepiej pozostać przy komputerze opartym o system Windows? Na jakie parametry, plusy i minusy Macbooka powinniśmy zwrócić uwagę, aby podjąć możliwie jak najkorzystniejszą dla nas decyzję? Komputery Apple - czym różnią się od klasycznych desktopów i laptopów? Laptop Apple - największe zalety Macbook Air czy Macbook Pro - który model wybrać? Dla kogo wybór laptopa od Apple będzie dobrą decyzją? O czym jeszcze pamiętać przy zakupie laptopa? Komputery Apple - czym różnią się od klasycznych desktopów i laptopów? Wybór komputera to kwestia bardzo osobista. Możemy potrzebować różnych konfiguracji zależnie od tego, do czego planujemy sprzęt wykorzystać. Niewątpliwą zaletą klasycznych desktopów jest fakt, że sami możemy dobrać części, skonfigurować je i - w razie potrzeby - wymienić. W przypadku laptopów oraz produktów od Apple otrzymujemy gotowy zestaw, bez większej możliwości wpłynięcia na to, co znajduje się pod obudową. Komputer Apple ma jednak pewne zalety, których desktop nie posiada i może być lepszym wyborem dla określonej grupy użytkowników. Jak rozpoznać, czy się do niej zaliczamy? Laptop Apple - największe zalety Jeżeli zastanawiamy się, czy opłaca się nam kupić Macbooka Air lub inny model od Apple, warto najpierw zapoznać się ze specyfikacją sprzętu. Nie da się ukryć, że produkty Apple słyną z wysokiej ceny, jednak w parze z nią idzie także wysoka jakość. W przypadku laptopów jest to szczególnie istotne, ponieważ urządzenia tej marki słyną z długiego czasu pracy na jednej baterii. Dzięki temu nie musimy martwić się w podróży, biurze czy też podczas pracy w plenerze, że nie zdążymy wykonać wszystkich ważnych zadań. Dodatkowo też dłuższy czas pracy bez ładowania oznacza, że możemy zostawić laptopa do naładowania w czasie gdy nie jest nam potrzebny. Ze względu na wysoką jakość użytych części i dopasowanie co do milimetra, praca z Macbookiem jest przyjemna, a urządzenie nawet po latach użytkowania wygląda jak nowe. Macbook Air czy Macbook Pro - który model wybrać? Jeżeli nie lubimy obchodzić się z systemem Windows, MacOS będzie kolejnym powodem, dla którego warto rozważyć zakup Macbooka. To, jaki konkretnie model wybierzemy powinno zależeć od naszych potrzeb. Osoby pracujące z laptopem, dla których istotne są rozbudowane parametry i więcej opcji oprogramowania powinny zdecydować się na wersję Pro. Z kolei Macbook Air to dobry wybór do codziennego, domowego użytku, gdy chcemy pogodzić dobrą cenę z należytą jakością i wygodą korzystania z zakupionego sprzętu.Więcej na ten temat znajdziesz na stronie: https://www.euro.com.pl/laptopy-i-netbooki,_Apple.bhtml. Dla kogo wybór laptopa od Apple będzie dobrą decyzją? Ekosystem Apple najlepiej będą w stanie wykorzystać osoby, które posiadają już inne urządzenia marki. Jeżeli korzystasz na co dzień z iPhone'a czy iPada, dobranie do nich laptopa z nadgryzionym jabłkiem będzie naturalną konsekwencją, a wszystkie produkty bezproblemowo połączysz ze sobą w jedną zgraną sieć. Bardzo często również warto kupić laptop Apple do zastosowań profesjonalnych - wielu grafików, fotografów, programistów czy montażystów wideo pracuje w oparciu o tę markę. Dzieje się tak nie tylko ze względu na jakość samego urządzenia, ale również dostępność oprogramowania niemożliwego do wykorzystania na systemie Windows. Istnieje również wiele zamienników programów standardowych, jak na przykład oprogramowania Microsoft Office, co umożliwia sprawną pracę biurową oraz kreatywną. O czym jeszcze pamiętać przy zakupie laptopa? Wybierając laptop lub komputer dla siebie powinniśmy przede wszystkim dobrze się zastanowić nad tym, czego oczekujemy od nowego sprzętu. Apple Macbook może być naturalnie dobrą opcją dla wielu osób, jednak jeżeli lepiej czujemy się w środowisku Windows - lub jeżeli wszystkie inne sprzęty, z jakich korzystamy go obsługują - to wybór laptopa z innym oprogramowaniem może nie być najlepszym pomysłem. Będzie nam ciężko skłonić poszczególne produkty do funkcjonowania ze sobą nawzajem, co niepotrzebnie doprowadzi do frustracji i problemów. Wady Macbooka to również wysoka cena, która odstrasza wielu kupców, a także ograniczona paleta kolorów i brak dostępu do aplikacji z systemu Windows. Poszukując nowego komputera lub laptopa dla siebie naturalnie zastanawiamy się, czy lepiej zdecydować się na produkt od Apple, czy może coś bazującego na systemie Windows. Upewnijmy się, że oglądane modele będą w stanie sprostać wyzwaniom, jakie przed nimi postawimy, a także że czas pracy na baterii będzie odpowiadał naszym potrzebom. Dodatkowo również warto pamiętać o różnicach w oprogramowaniu i dostępnych aplikacjach, szczególnie jeżeli planujemy wykorzystać urządzenie do zastosowań profesjonalnych. « powrót do artykułu
  8. W jednym z laboratoriów na Imperial College London odtworzono wirujący dysk plazmy, z tych, jakie otaczają czarne dziury i tworzące się gwiazdy. Eksperyment pozwala lepiej modelować procesy, zachodzące w takich dyskach, a naukowcy mają nadzieję, że dzięki temu dowiedzą się, jak rosną czarne dziury i powstają gwiazdy. Gdy materia zbliża się do czarnej dziury, jest rozgrzewana i staje się plazmą, czwartym stanem materii składającym się z naładowanych jonów i wolnych elektronów. Zaczyna też się obracać, tworząc dysk akrecyjny. W wyniku obrotu powstają siły odśrodkowe odrzucające plazmę na zewnątrz, jednak siły te równoważy grawitacja czarnej dziury. Naukowcy chcą poznać odpowiedź na pytanie, w jaki sposób czarna dziura rośnie, skoro materia – w formie plazmy – pozostaje na jej orbicie. Najbardziej rozpowszechniona teoria mówi, że niestabilności w polu magnetycznym plazmy prowadzą do pojawienia się tarcia, plazma traci energię i wpada do czarnej dziury. Dotychczas mechanizm ten badano za pomocą ciekłych wirujących metali. Za ich pomocą sprawdzano, co dzieje się, gdy pojawi się pole magnetyczne. Jednak metale te zamknięte są w rurach, co nie oddaje w pełni swobodnie poruszającej się plazmy. Doktor Vincente Valenzuela-Villaseca i jego zespół wykorzystali urządzenie Mega Ampere Generator for Plasma Implosion Experiments (MAGPIE) do stworzenia wirującego dysku plazmy. Za jego pomocą przyspieszyli osiem strumieni plazmy i doprowadzili do ich zderzenia, w wyniku czego powstała obracająca się kolumna plazmy. Odkryli, że im bliżej środka, tym plazma porusza się szybciej. To ważna cecha dysków akrecyjnych. MAGPIE generuje krótkie impulsy plazmy, przez co w utworzonym dysku dochodziło tylko do jednego obrotu. Jednak liczbę obrotów będzie można zwiększyć wydłużając czas trwania impulsów plazmy. Przy dłużej istniejących dyskach możliwe będzie też zastosowanie pól magnetycznych i zbadanie ich wpływu na plazmę. Zaczynamy badać dyski akrecyjne w nowy sposób, zarówno za pomocą Teleskopu Horyzontu Zdarzeń, jak i naszego eksperymentu. Pozwoli nam to przetestować różne teorie i sprawdzić, czy zgadzają się one z obserwacjami, mówi Valenzuela-Villaseca. Ze szczegółami badań można zapoznać się na łamach Physical Review Letters. « powrót do artykułu
  9. Rijksmuseum kupiło na Europejskich Targach Sztuk Pięknych (TEFAF) XVII-wieczny kielich ze szkła rubinowego. To jedna z wczesnych prac słynnego mistrza szklarskiego i alchemika - Johanna Kunckela von Löwensterna. Głęboka czerwona barwa szkła rubinowego to efekt dodania do masy szklanej m.in. bardzo rozdrobnionego złota. Połączenie spektakularnego koloru kielicha z wysokiej jakości grawerunkami sprawia, że obiekt staje się nową gwiazdą kolekcji Rijksmuseum - napisano na stronie instytucji. Kunckel prowadził udane badania eksperymentalne nad wytopem szkła rubinowego. Jest autorem podręcznika szklarskiego Ars Vitraria experimentalis. W 1678 r. został zatrudniony przez elektora Brandemburgii Fryderyka Wilhelma. By upewnić się, że mistrz może pracować nad swoim szkłem w tajemnicy, z dala od zazdrosnych oczu konkurentów, elektor podarował mu Pawią Wyspę (Pfaueninsel). Obowiązywał zakaz wstępu na jej teren pod groźbą kary. Sam władca często tam zaś bywał, obserwując postępy czynione przez alchemika i producenta szkła. Wyroby Kunckela cieszyły się dużą popularnością wśród europejskiej elity. Powodem była nie tylko wyjątkowa barwa, ale i magiczne właściwości przypisywane m.in. złotu. Zachowało się zaledwie ok. 20 rubinowych obiektów z tego wczesnego okresu; czara kielicha w kształcie muszli sprawia, że wyróżnia się on na ich tle. Na czarze kielicha zakupionego przez Rijksmuseum przedstawiono scenę z puttami dokazującymi między pędami winorośli. Grawerunki przypisuje się mistrzowi Gottfriedowi Spillerowi. Kielich powstał w Poczdamie, ok. 1685-1690 r. « powrót do artykułu
  10. Ludzkie DNA jest jest wszędzie. W piasku na plaży, w oceanie, unosi się w powietrzu. Bez przerwy rozsiewamy je wokół siebie. Z jednej strony to dobra wiadomość dla naukowców, z drugiej zaś, rodzi to poważne dylematy etyczne. Jak bowiem donoszą naukowcy z University of Florida, którzy przeprowadzili badania nad obecnością DNA H. sapiens w środowisku, rozprzestrzeniany przez nas materiał genetyczny jest bardzo dobrej jakości. Tak dobrej, że możliwe jest zidentyfikowanie mutacji powiązanych z chorobami czy określenie przodków społeczności żyjącej w miejscu pobrania próbek. Można je nawet połączyć z konkretnymi osobami, jeśli oddadzą próbki do badań porównawczych. Z tego wszechobecnego kodu genetycznego mogą korzystać zarówno naukowcy, którzy badając ścieki określą kancerogenne mutacje czy analizując glebę znajdą nieznane osady sprzed wieków, jak i policjanci, analizujący środowiskowe DNA (eDNA) unoszące się w powietrzu na miejscu przestępstwa. Naukowcy z Florydy mówią, że potrzebne są uregulowania prawne i określenie zasad etycznych dotyczących korzystania z DNA pozostawionego w środowisku. Przez cały czas prowadzenia badań nie mogliśmy wyjść ze zdumienia ani nad tym, jak wiele ludzkiego DNA wszędzie znajdujemy, ani nad jego jakością. W większości przypadków jakość ta była niemal tak dobra, jak jakość próbek pobranych bezpośrednio od człowieka, mówi profesor David Duffy, który kierował pracami. Już wcześniej Duffy i jego zespół znakomicie zaawansowali badania nad zagrożonymi żółwiami morskimi i powodowanym przez wirusa nowotworem, który je trapił, pobierając próbki DNA żółwi ze śladów na piasku, pozostawionych przez przemieszczające się zwierzęta. Naukowcy wiedzieli, że ludzkie DNA może trafić do próbek z DNA żółwi. Zaczęli się zastanawiać, jak wiele jest tego ludzkiego DNA w środowisku i jakiej jest ono jakości. Naukowcy znaleźli dobrej jakości ludzkie DNA w oceanie i rzekach w pobliżu swojego laboratorium, zarówno w samym mieście, jak i w odległych regionach, odkryli je też w piasku odizolowanych plaż. Po uzyskaniu zgody od National Park Service naukowcy wybrali się na odległą wyspę, na którą nie zapuszczają się ludzie. Tam ludzkiego DNA nie znaleźli. Byli jednak w stanie zsekwencjonować ludzki genom ze śladów stop pozostawionych na piasku. Duffy wybrał się też na swoją rodzimą Irlandię. Pobierał próbki wzdłuż jednej z rzek i wszędzie znalazł materiał genetyczny ludzi. Wszędzie, z wyjątkiem odległych od osad źródeł rzeki. Naukowcy zbadali też powietrze w klinice weterynaryjnej. Znaleźli tam DNA pracowników, leczonych zwierzą oraz wirusów. Teraz gdy stało się jasne, że ze środowiska z łatwością można pozyskać materiał genetyczny wysokiej jakości, potrzebne są odpowiednie rozwiązania prawne. Za każdym razem, gdy dokonujemy postępu technologicznego, niesie on ze sobą zarówno korzyści, jak i zagrożenia. I tym razem nie jest inaczej. Musimy wcześnie o tym informować, by społeczeństwa zdążyły opracować odpowiednie rozwiązania, mówi Duffy. « powrót do artykułu
  11. Motyle – zarówno te dzienne jaki i nocne, czyli ćmy – to jeden z najbardziej rozpowszechnionych rzędów owadów. Ćmy pojawiły się około 300 milionów lat temu. W 2019 roku dowiedzieliśmy się, że przed około 100 milionami lat grupa nocnych motyli zaczęła latać za dnia, by korzystać z bogatych w nektar kwiatów. Tym samym udowodniono, że nieprawdziwa jest hipoteza, jakoby motyle dzienne pojawiły się już po zagładzie dinozaurów, by uniknąć polujący na ćmy nietoperzy. Dotychczas jednak sądzono, że motyle dzienne po raz pierwszy wyewoluowały w Azji. Teraz okazuje się, że to nieprawda. Akito Kawahara, kurator zbiorów motyli we Florida Museum of Natural History, i jego zespół przeprowadzili analizy genetyczne niemal 2300 gatunków motyli reprezentujących wszystkie rodziny i 92% rodzajów z rzędu Lepidoptera. Stworzyli największe na świecie drzewo genealogiczne motyli i dowiedli, że motyle dzienne po raz pierwszy wzbiły się do lotu w Ameryce Północnej i Środkowej. Żywiły się wówczas roślinami z rodziny bobowatych. To było moje marzenie z dzieciństwa. To coś, co chciałem zrobić od czasu pierwszej wizyty w Amerykańskim Muzeum Historii Naturalnej gdy byłem dzieckiem i gdy na drzwiach biura kuratora zobaczyłem drzewo genealogiczne motyli. To jednocześnie najtrudniejsze badania naukowe, w jakich brałem udział. Wymagały one wielkiego wysiłku ze strony ludzi na całym świecie, cieszy się Kawahara. Obecnie istnieje około 19 000 gatunków motyli dziennych. Zrekonstruowanie ich historii na przestrzeni 100 milionów lat było trudnym zadaniem. Wymagało zebrania danych o miejscach występowania poszczególnych gatunków motyli oraz roślin, z których korzystają. Dane takie nie były jednak przechowywane w jednym miejscu, znaczna ich część nie była zdigitalizowana, konieczne było przeszukiwanie publicznie dostępnych baz danych, poszukiwanie książek oraz artykułów naukowych, tłumaczenie ich z różnych języków, przeglądanie zbiorów muzealnych i innych miejsc, w których znajdowały się użyteczne informacje o motylach. Naukowcy przeanalizowali też 11 niezwykle rzadkich skamieniałości motyli, które wykorzystali do kalibracji swojego drzewa genetycznego. Dzięki temu dowiedzieli się np. że motyle dzienne bardzo szybko się różnicowały, jedne grupy pokonywały w toku ewolucji olbrzymie odległości, inne zaś pozostawały w miejscu, mimo, że wokół nich swój bieg zmieniały rzeki, pojawiały się i znikały pasma górskie, przemieszczały się kontynenty. Dzięki olbrzymiej pracy naukowców wiemy, że motyle dzienne pojawiły się po raz pierwszy gdzieś w Ameryce Środkowej i zachodnich częściach Ameryki Północnej. W tym czasie Ameryka Północna była przedzielona szerokim morzem, a Ameryka Północna i Południowa nie były jeszcze połączone. Mimo to motyle były w stanie pokonywać wielkie przestrzenie nad wodami i podbijały świat. Nie zawsze leciały najkrótszą drogą. Mimo że wówczas Ameryka Południowa i Afryka znajdowały się dość blisko siebie, motyle najpierw przeleciały do Azji, na Bliski Wschód i do Afryki Wschodniej. Dotarły nawet do Indii, które wówczas były wyspą. Największym ich wyczynem było zaś dotarcie do Australii, połączonej wówczas z Antarktyką. Oba kontynenty były ostatnią pozostałością Pangei. Nie można wykluczyć, że motyle żyły przez pewien czas w Antarktyce. A przed około 45 milionami lat zjawiły się w Europie. Nie wiadomo, dlaczego zajęło im to tak dużo czasu, ale skutki tej późnej migracji widać do dzisiaj. W Europie, w porównaniu z innymi kontynentami, nie ma zbyt wielu gatunków motyli. A te które są, często występują w innych częściach świata, na przykład na Syberii i w Azji, mówi Kawhara. Gdy już motyle zasiedlały jakiś obszar, szybko się różnicowały w zależności od występujących na nim roślin. Gdy z Ziemi zniknęły dinozaury, istniały już niemal wszystkie współczesne rodziny motyli, a każda z nich była w sposób szczególny powiązana z konkretnymi roślinami. Gdy naukowcy porównali historię ewolucyjną motyli oraz roślin, na których żerują, stwierdzili, że dochodziło tutaj do wspólnej ewolucji. Naukowcy zauważyli, że obecnie 67,7% gatunków motyli to gatunki, które korzystają z jednej rodziny roślin, a 32,3% gatunków korzysta z dwóch lub więcej rodzin. Motyle żywiące się na bobowatych i wiechlinowatych często korzystają tylko z nich. Większość gatunków nie korzysta z roślin z innych rodzin. Bobowate i wiechlinowate są szeroko rozpowszechnione i występują niemal we wszystkich ekosystemach. Wiekszość z nich posiada też potężne chemiczne środki obronne odstraszające owady. Jednak od milionów lat rośliny te pozwalają, by motyle z nich korzystały. Grupa Kawahary zauważyła też, że aż 94,2% gatunków motyli pożywiających się na więcej niż jednej rodzinie roślin, wybiera rośliny blisko spokrewnione. To zaś potwierdza wcześniejsze badania, z których wynikało, że spokrewnione ze sobą motyle żywią się na spokrewnionych ze sobą roślinach. Ewolucja motyli i roślin okrytonasiennych jest ze sobą nierozerwalnie związana od samych początków istnienia tych roślin, a bliskie związki pomiędzy tymi organizmami doprowadziły do pojawienia się wspaniałej różnorodności i roślin, i zwierząt, dodaje profesor Pamela Soltiz z Florida Museum. « powrót do artykułu
  12. Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja. Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów. Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski. Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji. WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku. Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał. « powrót do artykułu
  13. Muzeum Vincenta van Gogha w Amsterdamie zmieniło tytuł jednego z obrazów z „Czerwone kapusty i cebule” na „Czerwone kapusty i czosnek”. A wszystko za sprawą czujności jednego ze zwiedzających - kucharza i twórcy sztuk wizualnych Ernsta de Witte. De Witte bywał już wcześniej w Muzeum van Gogha, ale dopiero niedawno podpis pod martwą naturą z 1887 r. przykuł jego uwagę. Coś się nie zgadzało... Ernst ma 20 lat doświadczenia w branży kulinarnej. Obecnie jest szefem kuchni w Restaurant Feu w Utrechcie. Maluje od 4 lat. Jego pasja rozwinęła się w czasie pandemii. Mając pewność co do poprawności swojej identyfikacji, de Witte skontaktował się z muzeum. Przedstawiciele instytucji poprosili o dowody. Kucharz przygotował więc z żoną prezentację, w której pokazał, jak van Gogh malował czosnek i zestawił to z obrazem ze zbiorów Kröller-Müller Museum przedstawiającym cebulę (Stilleven rond een bord met uien). Wśród dostarczonych materiałów znalazł się oprócz tego filmik porównujący różne odmiany czosnku i cebuli. Na główki czosnku w [analizowanym] obrazie van Gogha nałożyłem [też] własny rysunek, by pokazać, że wykonane przez niego linie przedstawiają [właśnie] ząbki czosnku - napisał de Witte w mailu przesłanym serwisowi Artnet News. Wspomagany przez biologa zespół badawczy z Muzeum van Gogha potwierdził, że de Witte ma rację: jeden z obiektów z obrazu był nieprawidłowo identyfikowany od publicznego debiutu dzieła w berlińskiej galerii Paula Cassirera w 1928 r. Rzecznik Muzeum van Gogha przyznał, że instytucja stale monitoruje swoje zbiory i zdarzało się już, że zmieniano tytuł dzieła, ponieważ okazywało się, że przedstawia ono coś innego niż pierwotnie sądzono. Wydarzenia te zainspirowały Ernsta zarówno jako kucharza, jak i malarza. Jako szef kuchni w Restaurant Feu przygotował wyjątkowe danie z czerwonej kapusty i czosnku. Jako artysta posługujący się pędzlem stworzył obraz pt. „Vincent's dinner” (in. „Red Cabbage and Garlic”). Na danie składają się gotowana czerwona kapusta, krem z wędzonego czosnku, coulis z czerwonej kapusty, puder z czerwonej kapusty oraz winegret z absyntem, melisą i estragonem. Jest ono serwowane z piwem warzonym z absyntem. Gdy winegret zetknie się z czerwoną kapustą, kolor zaczyna blednąć, tak jak czerwone/niebieskie barwniki w obrazach van Gogha - tłumaczy de Witte. A z opisu obrazu „Czerwone kapusty i czosnek” na stronie muzeum dowiadujemy się, na przykład, że obrus, który teraz wydaje się szaroniebieski, był niegdyś fioletowy... « powrót do artykułu
  14. Naukowcy z Instytutu Biologii Ssaków (IBS) PAN w Białowieży pochwalili się, że dotarło do nich niezwykłe zwierzę – albinotyczna ryjówka aksamitna. To pierwszy taki znany okaz w Polsce i zaledwie drugi lub trzeci na świecie. Znaleźli go Państwo Wioletta i Jerzy Rybiałek z Dolnego Śląska. Niezwykłe ubarwienie zwierzęcia zaintrygowało ich do tego stopnia, że skontaktowali się z Instytutem. Przy okazji świetnie trafili, gdyż ryjówka widnieje w logo Instytutu. Profesor Jan Wójcik, który od kilkudziesięciu lat bada ryjówki, mówi, że informacja od znalazców zelektryzowała naukowców. Albinizm zdarza się u ryjówek bardzo rzadko. Zorganizowaliśmy transport zamrożonego okazu do Białowieży, aby poddać go bardziej szczegółowym badaniom i określić gatunek znalezionego zwierzęcia, mówi uczony. Naukowcy stwierdzili, że mają do czynienia z ryjówką aksamitną o pełnym albinizmie pokrywy włosowej. W IBS już wcześniej opisano kilka okazów różnych gatunków ryjówek z białym przebarwieniami na futrze, ale w kolekcji zoologicznej instytutu – która jest jedną z największych kolekcji ssaków na świecie – nie ma całkowicie albinotycznego osobnika. Wiemy natomiast, że albinotyczną ryjówkę znaleziono w latach 60. XX wieku w ZSRR. Drugi okaz został znaleziony w latach 80. w Holandii, chociaż prawdopodobnie nie był on całkowicie biały. Albinizm, zwany też bielactwem, pojawia się w wyniku wady genetycznej i polega na zaburzeniach w syntezie melaniny. Albinotyczne osobniki żyją zwykle krócej, gdyż zwracają uwagę swoim ubarwieniem, często cierpią też na problemy ze wzrokiem. Po wstępnych badaniach wyjątkowa ryjówka trafiła z powrotem do zamrażarki, a naukowcy zastanawiają się, jak ją zabezpieczyć i zachować. Chcieliby bowiem mieć możliwość zarówno prowadzenia dalszych badań, jak i wyeksponowania niezwykłego zwierzęcia w swojej kolekcji. Ryjówka trafiła do logo IBS, gdyż właśnie od tego zwierzęcia rozpoczęła się historia instytutu. Jego początki sięgają lat 50. i badań profesora Augusta Dehnela, założyciela i pierwszego dyrektora placówki, który odkrył, że ryjówki zmniejszają rozmiary ciała – w tym mózgu – podczas hibernacji. Od tamtej pory podobne zjawisko zaobserwowano też u innych niewielkich ssaków, a ostatnio udowodniono jego występowanie u kretów. « powrót do artykułu
  15. Głowomłot tropikalny, gatunek ryby z rodziny młotowatych, wstrzymuje oddech by utrzymać temperaturę ciała podczas nurkowania na większe głębokości, gdzie poluje na kałamarnice. To było całkowite zaskoczenie. Nie spodziewaliśmy się, że rekiny wstrzymują oddech podczas nurkowania jak morskie ssaki. To niezwykłe zachowanie wspaniałego zwierzęcia, mówi główny autor badań Mark Royer z Shark Research Group na University of Hawai'i. Skrzela są naturalnymi radiatorami, które szybko doprowadziłyby do wychłodzenia krwi, mięśni i organów, gdyby głowomłoty nie wstrzymywały oddechu. Głowomłot tropikalny życie w ciepłych wodach, ale zanurza się na głębokości, gdzie temperatura wody spada do 5 stopni Celsjusza. By efektywnie polować, jego ciało musi utrzymać ciepło. Oczywistym jest, że oddychające powietrzem atmosferycznym ssaki wstrzymują oddech podczas nurkowania. Ale nie spodziewaliśmy się zaobserwować takiego zachowania u rekinów. To zachowanie wskazuje, że strategie polowania głowomłotów tropikalnych są podobne do strategii ssaków morskich, jak grindwal. Oba gatunki wyewoluowały do polowania na głęboko pływającą zdobycz i oba robią to wstrzymując na krótko oddech w tych fizycznie wymagających środowiskach. Naukowcy z Hawajów dokonali niezwykłego odkrycia po przyczepieniu głowomłotom tropikalnym urządzeń, które mierzyły temperaturę mięśni, głębokość nurkowania, orientację ciała i poziom aktywności. Zauważyli, że mięśnie ryby utrzymywały temperaturę podczas nurkowania na duże głębokości, ale pod koniec każdego nurkowania, gdy rekin zbliżał się do powierzchni, gwałtownie się chłodziły. Model komputerowy zasugerował, że głowomłot musi przestawać oddychać, by zapobiec utraty temperatury przez skrzela. Dodatkowym dowodem był materiał wideo, pokazujący rekina z zamkniętymi skrzelami na głębokości 1044 metrów, podczas gdy przy powierzchni skrzela są szeroko otwarte. Nagłe ochłodzenie mięśni pod koniec nurkowania wskazuje, że rekiny zaczynają oddychać gdy wciąż znajdują się w dość zimnych wodach. Wstrzymanie oddechu zapobiega utracie ciepła, ale odcina dopływ tlenu. Chociaż rekiny te wstrzymują oddech na 17 minut, to na największych głębokościach spędzają tylko 4 minuty, a następnie szybko wracają do cieplejszych dobrze napowietrzonych wód powierzchniowych. Odkrycie to pozwala nam zrozumieć, jak głowomot tropikalny jest w stanie nurkować na znaczne głębokości i zdobywać tam pożywienie. Pokazuje ono również, że ryba musi utrzymać delikatną równowagę fizjologiczną, mówi Royer. « powrót do artykułu
  16. Pierścienie Saturna są bardzo młode, znacznie młodsze niż sama planeta. Fizyk Sascha Kempf z University of Colorado w Boulder dostarczył najsilniejszych dowodów wskazujących, że pierścienie gazowego olbrzyma liczą nie więcej niż 400 milionów lat. Są więc o ponad 4 miliardy lat młodsze niż planeta, którą otaczają. Pierścienie zatem to króciutki epizod w historii planety. Tym bardziej, że z danych przekazanych przez sondę Cassini wynika, iż Saturn szybko niszczy swoje pierścienie. Pierścienie jako pierwszy zauważył Galileusz w 1610 roku. Nie wiedział jednak, czym są. Na jego rysunkach wyglądają nieco podobnie jak uszy dzbana. Dopiero w XIX wieku James Scott Maxwell stwierdził, że pierścienie nie są strukturą stałą, a zbudowaną z wielu indywidualnych części. Obecnie wiemy, że Saturn posiada 7 pierścieni zbudowanych z kawałków lody, a większość z nich jest mniejsza niż głazy na Ziemi. W sumie jednak lód ten ma taką masę jak połowa masy księżyca Mimas. Przez większość XX wieku astronomowie sądzili, że pierścienie powstały jednocześnie z planetą. Nie potrafili jednak wyjaśnić, dlaczego są one tak „czyste”. Obserwacje wskazywały bowiem, że w 98% zbudowane są z lodu. Było niemal niemożliwe, by materiał skalny stanowił tak niewielki odsetek pierścieni istniejących przez miliardy lat. Misja sondy Cassini, która przybyła w okolice Saturna w 2004 roku, stała się niepowtarzalną okazją do wyjaśnienia zagadki pierścieni. Sonda miała na pokładzie urządzenie o nazwie Cosmic Dust Analyzer, w który łapała kawałki międzyplanetarnego pyłu. W ciągu 13 lat złapała zaledwie 163 ziarna pyłu znajdującego się w sąsiedztwie Saturna. To jednak wystarczyło Kempfowi i jego kolegom. Na podstawie danych zebranych przez Cassini obliczyli oni, że każdego roku na lodowe pierścienie opada znacznie mniej niż 1 gram pyłu na stopę kwadratową powierzchni. To bardzo mało, ale gromadzi się on latami, więc stanowi coraz większy odsetek materiału pierścieni. Biorąc zaś pod uwagę wielkość pierścieni, stosunek pyłu do lodu oraz tempo opadania pyłu na pierścienie, naukowcy mogli wyliczyć maksymalny wiek pierścieni. Już wcześniej uważano, że pierścienie są bardzo młode, jednak nikt dotychczas nie dostarczył równie przekonujących dowodów. W najbliższych latach powinniśmy poznać kolejne tajemnice pierścieni Saturna. W przyszłym roku ma bowiem wystartować misja Europa Clipper, na pokładzie której znajdzie się znacznie bardziej zaawansowany analizator pyłu. « powrót do artykułu
  17. Niedawna decyzja prezydenta Nigerii wywołała burzę w niemieckim parlamencie oraz krytykę ze strony opozycji, która nazwała naiwnym bezwarunkowy zwrot zrabowanych zabytków. To, co dzieje się w Niemczech i Nigerii jest uważnie obserwowane przez muzea na całym świecie i może zaważyć na losie wielu słynnych zabytków, które trafiły do Europy w epoce kolonialnej. W ostatnich latach doszło do wyraźnego zintensyfikowania debaty nad zwrotem dzieł sztuki byłym europejskim koloniom. Najsłynniejszym przykładem takich dzieł są słynne brązy z Beninu. To zbiór tysięcy wspaniałych rzeźb i plakietek o wysokiej wartości artystycznej, które powstawały przez setki lat i zdobiły pałac władcy Królestwa Beninu. To wyjątkowe zabytki, a ich historia jest na tyle dobrze znana, że nie ma wątpliwości, w jaki sposób trafiły poza Benin. Zostały zrabowane z pałacu królewskiego w czasie brytyjskiej ekspedycji karnej w 1897 roku. Obecnie dwa największe zbiory brązów z Beninu znajdują się w Berlinie i Londynie. Nigeria, na której terenie leży dawne Królestwo Beninu, od kilkudziesięciu lat stara się o zwrot brązów. Niedawno rząd Niemiec oficjalnie uznał, że ponad 1100 zabytków z pięciu muzeów, należy do Nigerii. Tym samym Niemcy stały się pierwszym krajem, który jasno zobowiązał się do zwrotu brązów z Beninu. W ubiegłym roku 22 brązy trafiły bez żadnych warunków wstępnych do Nigerii. A przed kilkoma tygodniami prezydent tego kraju wydał dekret, zgodnie z którym zabytki te są własnością oby (króla) Beninu, Ewuare II. Co więcej, w dekrecie odchodzącego prezydenta czytamy, że także i zwrócone w przyszłości brązy staną się własnością króla. Ewuare II będzie decydował, gdzie zabytki się znajdują. To zaś wzbudziło obawy, że brązy trafią do prywatnej kolekcji i będą niedostępne dla osób postronnych. Tym bardziej, że decyzja prezydenta wyraźnie pomija Narodową Komisję Muzeów i Zabytków, która prowadzi negocjacje w sprawie zwrotu zabytków. Komisja nie zajęła oficjalnego stanowiska w tej sprawie, podobno jednak chce wprowadzenia poprawek do prezydenckiego rozporządzenia. Działania prezydenta mogą też wskazywać, że wszelkie zwracane Nigerii zabytki mogą stać się prywatną własnością spadkobierców tradycyjnych władców czy plemion. Niemieccy urzędnicy przyznają nieoficjalnie, że są zaskoczeni. Negocjowaliśmy z rządem Nigerii przekazanie brązów Narodowej Komisji Muzeów i Zabytków, podpisaliśmy umowy z Komisją. Komu tak naprawdę je oddajemy?, pytają. Niejasności wokół dalszych losów brązów z Beninu już mają swoje konsekwencje. Muzeum Archeologii i Antropologii Cambridge University odwołało zaplanowane na jutro przekazanie 116 brązów nigeryjskiej delegacji. A opozycyjni posłowie w Bundestagu krytykują rząd za podjęcie „naiwnej” decyzji. Strona rządowa, broniąc się przed oskarżeniami, mówi, że stawianie warunków dotyczących zwracanych zabytków byłoby ze strony Niemiec przejawem neokolonializmu. Postępowanie rządu Nigerii oraz oby Beninu będzie z pewnością szczegółowo śledzone przez rządy oraz instytucje kultury z Europy i niewątpliwie wpłynie na dalsze kwestie związane ze zwrotem zabytków byłym koloniom. « powrót do artykułu
  18. Amerykańska ustawa CHIPS and Science Act, która wywołała spory między USA a Unią Europejską, przynosi pierwsze efekty. Jej celem jest m.in. zachęcenie do budowy w USA nowych fabryk półprzewodników. Firmy mogą liczyć na ulgi podatkowe czy dopłaty. Przeznaczono na ten cel 39 miliardów USD i najwyraźniej zachęciło to gigantów. Micron zapowiedział, że zainwestuje do 100 miliardów dolarów w nową fabrykę w stanie Nowy Jork, TMSC – który buduje wartą 12 miliardów USD fabrykę w Arizonie – wybuduje drugi zakład, zwiększając wartość inwestycji do 40 miliardów, Samsung chce za 17 miliardów wybudować fabrykę w Teksasie, a Intel rozpoczął wartą 20 miliardów USD inwestycję w dwie fabryki w Ohio. Każda z tych fabryk będzie potrzebowała setek inżynierów i techników. Tymczasem obecnie USA wytwarzają 12% światowych półprzewodników, podczas gdy w roku 1990 było to 37%. Nic więc dziwnego, że w ostatnich dekadach zapotrzebowanie na odpowiednio wykształconą kadrę zmniejszało się, co spowodowało stagnację na rynku edukacyjnym. Wraz z CHIPS Act zaczęło się to zmieniać. Za zainteresowaniem przemysłu idzie oferta edukacji. Bo zapotrzebowanie będzie olbrzymie. Pod koniec ubiegłego roku amerykański przemysł półprzewodnikowy poszukiwał około 20 000 pracowników. Profesor Peter Bermel z Purdue University szacuje, że nawet jeśli skutkiem CHIPS Act będzie umiarkowany wzrost na amerykańskim rynku półprzewodników, to w ciągu najbliższych 5 lat potrzebnych będzie co najmniej 50 000 dodatkowych pracowników. Dlatego też koledże i uczelnie wyższe zwiększają swoją ofertę dla studentów, a przemył półprzewodnikowy próbuje im w tym pomóc. Intel, który chce w Ohio stworzyć „Silicon Heartland” przeznaczył 50 milionów dolarów dla 80 szkół wyższych w tym stanie. Za te pieniądze szkoły chcą doposażyć swoje pracownie, wynająć specjalistów i poszerzyć ofertę dla studentów. Intel zaś wspomoże je swoimi radami, doświadczeniem, stypendiami oraz dostępem do własnych centrów badawczych. Będzie to o tyle łatwiejsze, że już w 2011 roku władze stanowe przyjęły inicjatywę, w ramach której wspomagają uczelnie w zwiększeniu liczby studentów kierunków inżynieryjnych, technologicznych i medycznych. Dzięki niej na przykład, od 2021 roku studenci Ohio State University mogą uczyć się procesów wytwarzania układów scalonych w uniwersyteckim laboratorium, bez potrzeby korzystania z bardzo drogiego specjalistycznego clean-roomu. Uczelnia pracuje też nad narzędziami rzeczywistości wirtualnej i rzeczywistości rozszerzonej, dzięki którym studenci poczują się tak, jakby pracowali w prawdziwej fabryce półprzewodników. Kilkaset kilometrów dalej firma SkyWater Technology buduje wartą 1,8 miliarda dolarów fabrykę, a sąsiadujący z niż Purdu University uruchomił interdyscyplinarny Semiconductor Degrees Program, dzięki któremu studenci różnych wydziałów mogą nabyć umiejętności potrzebnych podczas pracy w przemyśle półprzewodnikowym. Uniwersytet rozpoczął też program edukacji pracowników na potrzeby SkyWater. Nie wszystkie stanowiska w przemyśle półprzewodnikowym wymagają ukończenia wyspecjalizowanych studiów. Zdaniem Intela, kluczem do sukcesu są pracownicy po lokalnych szkołach średnich. Intel rozbudowuje swoje fabryki w Arizonie, Nowym Meksyku i Oregonie. Będzie potrzebował dodatkowych 7000 pracowników. Około 40% tych stanowisk czeka na ludzi po dwuletnich szkołach, a tylko na 20% stanowisk wymagany jest tytuł licencjata, magistra lub doktora. Inne firmy również inwestują w swoich przyszłych pracowników. Samsung i Silicon Labs wspomagają lokalne koledże i szkoły techniczne oferując szkolenia, stypendia czy letnie staże. Samsung na przykład dołączył do lokalnej inicjatywy Austin Community College, w ramach której uczniowie, którzy chcą dodatkowo zdobyć zawód technika przemysłu półprzewodnikowego, szkolą się przez 2 dni w tygodniu. Piątkowym uczniom firma pokrywa całość kosztów nauki. Problemy z kadrą techniczną są widoczne na całym świecie. W dużej mierze są one spowodowane popularnością studiów informatycznych. Bardzo wiele osób o zainteresowaniach technicznych wybiera karierę programisty. Jednak, jako że programiści również są potrzebni, przemysł półprzewodnikowy nie próbuje zachęcać ich do zmiany zawodu, a stara się, by więcej osób decydowało się na pracę na rynku nowoczesnych technologii. CHIPS and Science Act został podpisany przez prezydenta Bidena w sierpniu 2022 roku. Spotkał się z ostrą krytyką ze strony Unii Europejskiej, która oskarżyła USA o protekcjonizm. Ustawa przewiduje dofinansowanie rozwoju amerykańskiego przemysłu półprzewodnikowego łączną kwotą w wysokości 280 miliardów dolarów. « powrót do artykułu
  19. Co to jest cytomegalowirus (CMV)? Cytomegalowirus wywołuje chorobę zwaną cytomegalią. Jej objawy podobne są do mononukleozy, a należą do nich: przedłużająca się gorączka, trombocytopenia, leukopenia i łagodne zapalenie wątroby. Wirus ten jest nieszkodliwy dla większości ludzi, jednak u niektórych może powodować ciężkie choroby. CMV należy do grupy wirusów opryszczki, która pozostaje w naszym organizmie przez całe życie i może reaktywować się w dowolnym momencie. Na problemy wywołane cytomegalią narażone są 3 grupy osób: Noworodki urodzone przez matki zakażone CMV (wrodzona infekcja CMV). Statystycznie u jednego na pięć dzieci z wrodzonym CVM rozwinie się niepełnosprawność, w tym upośledzenie umysłowe, mały rozmiar głowy, żółtaczka, infekcja oczu, głuchota, opóźnienie rozwoju. Pacjenci w trakcie chemioterapii lub po przeszczepie narządów. W przypadku zarażenia osoby te mogą zachorować na poważniejszą chorobę. Ludzie o osłabionej odporności, którzy nie mogą zwalczyć infekcji (chorzy na HIV lub AIDS), u nich CMV również może rozwinąć poważną infekcję [1]. Objawy zakażenia Cytomegalowirusem U zdrowych osób wirus cytomegalii często nie powoduje żadnych objawów. Niewielka liczba pacjentów doświadczy bólu gardła, zmęczenia, bólu mięśni i migdałków. Objawy te mogą trwać od dwóch do trzech tygodni.  Chorzy z osłabionym układem odpornościowym mogą natomiast rozwinąć cięższe przypadłości, obejmujące infekcję krwi, ośrodkowego układu nerwowego, jelit, wątroby, nerek, płuc lub oczu. Transmisja zakażenia Jedynym źródłem CMV są ludzie, jednak ryzyko zarażenie przez przypadkowy kontakt jest niewielkie. Wirus przenosi się z zakażonych osób na inne osoby poprzez bezpośredni kontakt z płynami ustrojowymi, przenoszącymi wirusa takimi jak mocz, ślina, wydzielina z pochwy, nasienie i mleko matki. Cytomegalowirus może być wydalany ze śliną i moczem z przerwami przez wiele miesięcy, a nawet lat. Dorośli zarażają zwykle krócej niż dzieci. Osoby z osłabionym układem odpornościowym mogą doświadczyć nawrotu CMV lub mogą zakazić się nowym szczepem wirusa. Transmisja cytomegalowirusa polega na kontakcie zakażonych płynów ustrojowych z błonami śluzowymi zdrowej osoby, takimi jak usta, nos lub oczy. Do zarażenia może dojść również podczas kontaktu seksualnego, a także po przeszczepie narządu lub szpiku kostnego, lub po transfuzji zakażonej krwi. Szczególnie niebezpieczne jest, gdy do zarażenia wirusem dojdzie u kobiety w ciąży (zwłaszcza w pierwszej połowie ciąży), która nieświadomie zarazi nienarodzone dziecko. Niebezpieczeństwo transmisji CMV występuje również podczas porodu, a po nim można zarazić się przez mleko zakażonej matki karmiącej piersią [2].   Wrodzona infekcja wirusem CMV Wrodzona infekcja cytomegalowirusem ma szerokie spektrum objawów klinicznych niewidocznych przy urodzeniu u większości noworodków. U pozostałych dzieci z wrodzoną CVM (ok 10%) tuż po porodzie występują objawy takie jak żółtaczka związana z hiperbilirubinemią bezpośrednią, wybroczyny będące skutkiem małopłytkowości, plamica, powiększenie wątroby i śledziony, małogłowie, śródmózgowe zwapnienia, utrata słuchu i zapalenie siatkówki oka. Wśród noworodków dotkniętych tą infekcją powszechne są opóźnienia rozwojowe w okresie niemowlęcym i we wczesnym dzieciństwie. Szacuje się, że śmierć spowodowana wrodzonym zakażeniem CMV występuje u 3 – 10% niemowląt z objawami choroby lub od 0,3 – 1% wszystkich niemowląt z wrodzonym zakażeniem CMV. Dzieci zarażone cytomegalowirusem przed urodzeniem narażone są w dużym stopniu na niedosłuch czuciowo – nerwowy (SNHL). W USA 20% wszystkich ubytków słuchu przy urodzeniu i 25% wszystkich ubytków słuchu u dzieci w wieku do 4 lat można przypisać właśnie temu zakażeniu.   U niemowląt urodzonych w terminie zakażenie nabyte w okresie śródporodowym z wydzieliny szyjki macicy matki lub w okresie poporodowym z mlekiem kobiecym zwykle nie ma związku z klinicznymi objawami chorobowymi. Zagrożenie pojawia się u wcześniaków, u których infekcja poporodowa spowodowana mlekiem matki lub transfuzją od dawców CMV – dodatnich może przyczynić się do zapalenia wątroby, śródmiąższowego zapalenia płuc, nieprawidłowości hematologicznych tj. trombocytopenia (mała liczba płytek krwi) i leukopenia (mała liczba leukocytów) oraz zespółu posocznicy wirusowej [1]. Testy diagnostyczne wykrywające wirusa CMV Rozpoznanie cytomegalii nie jest łatwe ze względu na wszechobecność wirusa CMV, wysoki wskaźnik bezobjawowych zarażeń, częstość reaktywowanych infekcji, reinfekcje różnymi szczepami CMV i równoczesne zakażenia innymi patogenami. Na rynku dostępne są różnego rodzaju testy serologiczne, w tym testy immunofluorescencyjne, testy aglutynacji lateksowej i testy immunoenzymatyczne służące do wykrywania swoistych przeciwciał CMV zarówno w klasie IgG, jak i IgM. Testy na obecność przeciwciał IgG w pojedynczych próbkach surowicy są przydatne w diagnostyce badań pod kątem przebytej infekcji u osób zagrożonych reaktywacją wirusa lub w badaniach wykluczających potencjalnych dawców i biorców przeszczepów. Aby wykluczyć niedawną infekcję przydatne może okazać się oznaczenie CMV IgG w dwóch surowicach pobranych w odstępie co najmniej 2 tygodni oraz oznaczenie IgM w pojedynczej próbce surowicy. U kobiet w ciąży obecność przeciwciał w klasie IgM oraz CVM IgG o niskiej awidności może sugerować świeżą infekcję [1]. Badania przesiewowe w pierwszym trymestrze ciąży w kierunku zakażenia CMV ocenia się w ramach zespołu TORCH, czyli wraz testami na różyczkę, toksoplazmozę, opryszczkę pospolitą i inne zakażenia, a noworodek jest oceniany po urodzeniu pod kątem anomalii specyficznych dla CMV [3]. Potwierdzenie wrodzonej infekcji wirusem cytomegalii wymaga wykrycia CMV metodą PCR w moczu, ślinie, wydzielinie z dróg oddechowych, krwi lub płynie mózgowo-rdzeniowym noworodka pobranym w ciągu 3 tygodni od urodzenia [1].     Leczenie Leczenie zakażeń cytomegalowirusem u osób z prawidłową odpornością zazwyczaj nie jest wymagane. U pacjentów chorych na AIDS lub zarażonych HIV postępowanie zależy od ich stanu immunologicznego i towarzyszących objawów. Protokoły leczenia umiarkowanych i ciężkich postaci choroby obejmują leki przeciwwirusowe. U osób zdrowych leki stosuje się jedynie w celu złagodzenia objawów klinicznych, ponieważ infekcja ma dobre rokowania. Pacjenci z obniżoną odpornością oraz ciężko chorzy, u których występuje zajęcie wielu narządów mają wysokie ryzyko zachorowalności i śmiertelności. W tych przypadkach reaktywacja zakażenia CMV jest bardzo częsta. W populacji ogólnej nie należy się obawiać zakażenia wirusem CMV, mimo że często występuje on wśród dzieci i dorosłych. Zagrożenie pojawia się jedynie u pacjentów z obniżoną odpornością oraz u kobiet w okresie ciąży i połogu, u których infekcja w dużej mierze zależy od czasu i związana jest z wiekiem ciążowym. Największe anomalie zdrowotne u płodu pojawiają się, gdy zakażenie nastąpi na wczesnym etapie ciąży lub w okresie 3 miesięcy przed zajściem w ciążę. Wrodzona CMV jest odpowiedzialna za zniekształcenia czaszkowe i zewnątrzczaszkowe u noworodka i jest najczęstszą niegenetyczną przyczyną niedosłuchu czuciowo – nerwowego płodu. Badania przesiewowe i środki higieny są najlepszymi metodami zapobiegania wrodzonej cytomegalii i związanym z nią powikłaniom [3]. [1] American Academy of Pediatrics. “Cytomegalovirus Infection” - Kimberlin D.W., Brady M.T., Jackson M.A., Long S.S., eds. Red Book: 2018 Report of the Committee on Infectious Diseases. 31ed. Itasca, IL: American Academy of Pediatrics; 2018: [strony 310-317] [2] Cytomegalovirus (CMV). http://conditions.health.qld.gov.au/HealthCondition/condition/14/217/35/cytomegalovirus-cmv,  wersja 5, 2023 [3] “An Overview of Cytomegalovirus Infection in Pregnancy” – Plotogea M., Isam A.J., Frincu F., Zgura A., I inni. Diagnostics 2022, 12(10),2429; https://doi.org/10.3390/diagnostics12102429 « powrót do artykułu
  20. Homocysteina to aminokwas, powstający w wyniku metabolizmu metioniny, będącej aminokwasem pozyskiwanym z codziennej diety. Prawidłowe funkcjonowanie organizmu jest uwarunkowane obecnością homocysteiny, gdyż ogrywa ona ważną rolę w wielu procesach. Między innymi uczestniczy w przemianach lipidów [1], a także pośrednio bierze udział w dwóch kluczowych szlakach metabolicznych: cyklu zapewniającym jednostki jednowęglowe, niezbędne do biosyntezy nukleotydów i aminokwasów oraz metabolizmie aminokwasów zawierających siarkę, które regenerują metioninę i dostarczają cysteinę [2]. W metabolizmie homocysteiny biorą udział witamina B6 i B12 oraz kwas foliowy. Pomimo bardzo istotnej roli w przebiegu szeregu reakcji biochemicznych zachodzących w organizmie, istnieją sytuacje, w których homocysteina stanowi zagrożenie dla zdrowia. Mutacja w genie enzymu reduktazy metylenotetrahydrofolianowej jest powiązana z podwyższoną ekspresją całkowitej homocysteiny, szczególnie u kobiet z niską podażą kwasu foliowego.  Stężenie homocysteiny powyżej 15 µmol/L uznaje się za zbyt wysokie w organizmie. Taki stan nazywany jest hiperhomocysteinemią i może być wynikiem działania różnych czynników. Wśród najczęstszych należy wymienić: wady genetyczne niedobór witaminy B6 i B12 brak kwasu foliowego leki niedoczynność tarczycy dysfunkcje nerek starzenie się. Hiperhomocysteinemia jest stanem niebezpiecznym dla organizmu człowieka [1]. Może prowadzić do takich mechanizmów patofizjologicznych, jak: zwiększenie stresu oksydacyjnego, upośledzenie funkcji śródbłonka naczyniowego, stymulowanie proliferacji komórek mięśni gładkich naczyń krwionośnych, indukowane zapalenie naczyń krwionośnych oraz aktywacja czynników krzepnięcia [3]. Wiąże się to z wysokim ryzykiem rozwinięcia się chorób sercowo-naczyniowych, zmian miażdżycowych, chorób zatorowych oraz dysfunkcji tętnic wieńcowych [1]. Jeśli bardzo wysoki poziom homocysteiny zostanie pozostawiony bez kontroli, istnieje duże ryzyko zgonu pacjenta z powodu udaru [4]. Zauważono wyższy poziom homocysteiny w organizmie kobiet będących w prawidłowo rozwijającej się ciąży niż w organizmie kobiet nieciężarnych. Jej poziom u kobiet w ciąży może się także różnić w zależności od położenia geograficznego, kultury czy charakterystyki społecznej. W najnowszych badaniach wykazano związek pomiędzy hiperhomocysteinemią, a licznymi powikłaniami w trakcie ciąży, nawracającymi poronieniami, przedwczesnymi porodami, stanem przedrzucawkowym, cukrzycą ciążową, odklejaniem się łożyska, a także ograniczeniem wzrostu płodu. Dodatkowo odkryto powiązanie pomiędzy zbyt wysokim stężeniem homocysteiny w organizmie matki i niską masą urodzeniową noworodka. Wykazano także, że obniżenie poziomu homocysteiny poprzez suplementację kwasu foliowego może okazać się pomocne w przypadku kobiet, u których pojawiły się powikłania ciąży w wyniku hiperhomocysteinemii [1]. Stężenie homocysteiny powyżej górnej granicy wartości referencyjnych ma także związek z rozwojem i progresją choroby Parkinsona. Osoby dotknięte tym schorzeniem wykazują znacznie wyższe wartości stężenia homocysteiny w osoczu niż osoby zdrowe. Powiązanie napędzonego rozwoju i progresji choroby Parkinsona z hiperhomocysteinemią wynika między innymi z nasilenia mechanizmu apoptozy komórek nerwowych, stresu oksydacyjnego oraz uszkodzeń DNA, czyli mechanizmów, w których homocysteina uczestniczy [5]. Zbyt wysokie stężenie homocysteiny w organizmie zauważono także u osób dotkniętych cukrzycą, chorobą Alzheimera, demencją, zespołem Downa, niedokrwistością megaloblastyczną, a także wadami cewy nerwowej. Hiperhomocysteinemia występuje również u osób cierpiących na niektóre rodzaje choroby nowotworowej, jednak obserwuje się ją najczęściej w zaawansowanym stadium choroby i częściej u osób w podeszłym wieku niż u osób młodych. We wczesnych etapach nowotworu zazwyczaj poziom homocysteiny mieści się w granicach wartości referencyjnych. Może mieć to związek z wykorzystaniem kwasu foliowego do proliferacji komórek w procesie rozwoju nowotworu, a jego stężenie w organizmie jest odwrotnie proporcjonalne do stężenia homocysteiny [6]. 1. Chuce Dai, Yiming Fei, Jianming Li,Yang Shi, Xiuhua Yang.  A Novel Review of Homocysteine and Pregnancy Complications. Biomed Res Int. 2021 May 6;2021:6652231. doi: 10.1155/2021/6652231. 2. H. Jakubowski. Homocysteine Modification in Protein Structure/Function and Human Disease. Physiol Rev. 2019 Jan 1;99(1):555-604. doi: 10.1152/physrev.00003.2018. 3. Shuai Yuan, Amy M Mason, Paul Carter, Stephen Burgess, Susanna C Larsson. Homocysteine, B vitamins, and cardiovascular disease: a Mendelian randomization study. BMC Med. 2021 Apr 23;19(1):97. doi: 10.1186/s12916-021-01977-8. 4. Tauheed Hasan, Reetika Arora, Aniket Kumar Bansal, Reshmee Bhattacharya, Gurumayum Suraj Sharma, Laishram Rajendrakumar Singh. Disturbed homocysteine metabolism is associated with cancer. Exp Mol Med. 2019 Feb 21;51(2):1-13. doi: 10.1038/s12276-019-0216-4. 5. Xiaoyan Fan, Lixia Zhang, Haijun, Guang Chen, Gangqiao, Xueqiang Ma, Yuelei Jin. Role of homocysteine in the development and progression of Parkinson's disease. Ann Clin Transl Neurol . 2020 Nov;7(11):2332-2338. doi: 10.1002/acn3.51227. 6. Tauheed Hasan, Reetika Arora, Aniket Kumar Bansal, Reshmee Bhattacharya, Gurumayum Suraj Sharma, Laishram Rajendrakumar Singh. Disturbed homocysteine metabolism is associated with cancer. Exp Mol Med. 2019 Feb 21;51(2):1-13. doi: 10.1038/s12276-019-0216-4 « powrót do artykułu
  21. Macie co jeść, nie brakuje wam dachu nad głową, nie marzniecie, więc jeśli chodzi o hierarchię potrzeb, radzicie sobie nieźle. Mimo to z jakiegoś powodu nie czujecie się do końca szczęśliwi. Mikroagresje, trudne relacje rodzinne, toksyczna pozytywność i gaslighting to tylko niektóre przykłady tego, co nazywamy małymi traumami. To one często prowadzą do pojawienia się zaburzeń lękowych, perfekcjonizmu, zajadania chandry czy kłopotów ze snem. Wmówiono nam, że małe traumy nie istnieją. Świat zawsze wydaje się pełny wielkich, trudnych do rozwiązania problemów, więc często nie zwracamy uwagi na niewielkie, codzienne urazy. Trollowanie w internecie jest formą dręczenia Badania wskazują, że ludzie angażujący się w tego rodzaju zachowania najczęściej posiadają cechy charakteru z obszaru ciemnej triady, czyli kombinacji psychopatii, makiawelizmu i narcyzmu. Wszystkie te cechy łączą brak empatii i bezwzględność. Narcyzm dodaje megalomanię, natomiast makiawelizm jest związany z manipulacją interpersonalną, wymuszaniem i wykorzystywaniem ludzi. Wreszcie psychopatia ma silny związek z zachowaniem antyspołecznym. Widzimy więc, jak destrukcyjna potrafi być ta triada. Chociaż trolle internetowe zazwyczaj atakują osoby o wysokim statusie społecznym, jak celebrytów czy influencerów, mogą również niszczyć swoich przyjaciół i całkiem obce im osoby. Małe traumy mogą pojawiać się w wielu aspektach życia i działać jak ogień, powoli wypalający nasze zdrowie emocjonalne. Jeżeli jednak zrozumiemy, w jaki sposób te psychiczne rany i otarcia na nas wpływają, i kiedy poznamy siłę kumulującego się oddziaływania nierozwiązanych małych traum, możemy wykorzystać te doświadczenia do zbudowania zdrowego psychicznego układu odpornościowego. Ten rodzaj emocjonalnego treningu tworzy odporność i elastyczność, która pomaga nam radzić sobie z poważniejszymi problemami, takimi jak przełomowe wydarzenia, które spotykają każdego z nas w którymś momencie życia.
  22. Większość osób przypuszcza, że szczyt samobójstw przypada na miesiące zimowe. Jednak w rzeczywistości najwięcej zamachów na własne życie ma miejsce na przełomie wiosny i lata, gdy nastroje ludzi powinny się poprawiać, a nie pogarszać. Od dawna zjawisko to intrygowało specjalistów. Teraz naukowcy zidentyfikowali miesiąc, w którym ludzie mają najwięcej myśli samobójczych oraz godzinę, kiedy takie myśli ich nachodzą. Naukowcy z University of Nottingham, Harvard University i Uniwersytetu w Amsterdamie przez sześć lat gromadzili kwestionariusze od ponad 10 000 osób w USA, Wielkiej Brytanii i Kanady. Osoby te były pytane o nastrój, myśli oraz kwestie związane z samobójstwem i czynieniem sobie krzywdy. Uczeni dowiedzieli się, że szczyt myśli samobójczych przypada na grudzień, a największe niebezpieczeństwo odebrania sobie życia ma miejsce w godzinach pomiędzy 4 a 6. Naukowcy opracowali też model wyjaśniający, dlaczego mija kilka miesięcy pomiędzy szczytem myśli samobójczych, a próbą ich zrealizowania. Zauważyli tez, że w ciągu 6 lat badań doszło do wzmocnienia negatywnego obrazu siebie u badanych. Dobrze wiemy, że zimą u ludzi z problemami psychicznymi dochodzi do pogorszenia się nastroju. Zaskoczeniem jest więc fakt, że to wiosną, gdy należałoby spodziewać się poprawy nastroju, mamy do czynienia z największym ryzykiem odebrania sobie życia. Przyczyny takiego stanu rzeczy są złożone, ale nasze badania pokazują, myśli i nastroje samobójcze są najsilniejsze w grudniu, a najsłabsze w czerwcu. Pomiędzy tymi miesiącami istnieje największe ryzyko zachowań samobójczych. Sądzimy, że przyczyną jest fakt, iż stopniowe poprawianie się nastroju i zyskiwanie energii przez ludzi z problemami może pozwolić im na zaplanowanie i zrealizowanie samobójstwa. Dodatkowym czynnikiem może być dokonywanie porównania pomiędzy własnym nastrojem, a nastrojem innych, który poprawia się szybciej, mówi główny autor badań, doktor Brian O'Shea z University of Nottingham. Osoby biorące udział w online'owym badaniu wypełniały zadania, za pomocą których specjaliści oceniali ich nastrój. Odpowiadali też na pytania kwestionariuszowe. Badani należeli do jednej z trzech grup. Były to osoby, które w przeszłości próbowały popełnić samobójstwo, osoby, które myślały o samobójstwie lub zadawały sobie obrażenia oraz osoby, które ani same się nie raniły, ani nie myślały o samobójstwie. Badania, z wynikami których można zapoznać się na lamach Translational Psychiatry, mogą wskazywać ten okres, w którym interwencja specjalisty może najbardziej pomóc osobom narażonym na próby samobójcze. « powrót do artykułu
  23. Po czterech latach (ostatni stacjonarny finał był w 2019) spowodowanych pandemią tegoroczny Finał XVIII edycji konkursu Fizyczne Ścieżki powrócił do formuły stacjonarnej i odbył się w Narodowym Centrum Badań Jądrowych w Otwocku 20-21 kwietnia 2023 roku. W trakcie dwudniowego finału Konkursu, organizowanego przez Narodowe Centrum Badań Jądrowych i Instytut Fizyki Polskiej Akademii Nauk, zakwalifikowani do niego uczniowie zaprezentowali swoje prace w jednej z trzech kategorii: Pokaz Zjawiska Fizycznego, Praca Naukowa lub Esej. Podobnie jak na prawdziwym seminarium naukowym podczas Finału po prezentacji pracy jej autorzy odpowiadali na pytania Jury oraz osób zasiadających na widowni. Po obejrzeniu efektownych Pokazów Zjawisk Fizycznych, wysłuchaniu prezentacji Prac Naukowych oraz odczytu Esejów, jurorzy udali się na obrady, w wyniku których wyłonili laureatów Konkursu. Zwieńczeniem seminarium finałowego było uroczyste wręczenie uczniom i nauczycielom pamiątkowych dyplomów i nagród. Żaden konkurs nie budziłby emocji, gdyby nie możliwość zdobycia atrakcyjnych nagród. W przypadku Fizycznych Ścieżek za jedną z najważniejszych można uznać bezwarunkowy wstęp na wydziały fizyki wybranych uniwersytetów oraz wszystkie kierunki wybranych uczelni technicznych (więcej informacji można znaleźć na stronie Konkursu fizycznesciezki.pl lub stronach współpracujących uczelni). Wysiłek uczniów włożony w przygotowanie i zaprezentowanie pracy został doceniony przez pana Marszałka Adama Struzika, który dla laureatów ufundował nagrody finansowe. Symboliczne czeki w imieniu pana Marszałka wręczył jego reprezentant pan prezes Dariusz Grajda. Konkurs został również wsparty przez Starostę Otwockiego i Prezydenta Otwocka, którzy ufundowali nagrody w postaci książek dla uczniów i nauczycieli. Ponadto uczniowie oraz opiekunowie prac naukowych otrzymali nagrody rzeczowe zakupione dzięki darowiźnie Fundacji PGE. Podczas Gali Finałowej oprócz nagród konkursowych wręczono Nagrodę im. Prof. Ludwika Dobrzyńskiego – inicjatora i spiritus movens konkursu Fizyczne Ścieżki. Nagroda ta jest formą wyróżnienia dla nauczycieli i opiekunów naukowych, którzy wykazali się wyjątkowym zaangażowaniem w przygotowanie uczestników do Konkursu. W tym roku przyznano ją nauczycielom ze Słupska - pani Grażynie i Jarosławowi Linderom. Państwo Linder mogą się pochwalić licznymi finalistami i laureatami Konkursu. Wśród nich wielu zdecydowało się kontynuować swoje młodzieńcze zainteresowania, podejmując naukę na uczelniach wyższych na kierunkach nauk ścisłych lub inżynieryjnych. Poniżej pełna lista zwycięzców XVIII edycji konkursu Fizyczne Ścieżki: Kategoria: Pokaz Zjawiska Fizycznego I miejsce zajął: Paweł Wakuluk „Generator Marxa czyli wytwarzanie sztucznych błyskawic” II miejsce ex aequo zajęli: Łukasz Rogalski „Pokaz zjawisk fizycznych w tunelu aerodynamicznym” III LO im. Juliusza Słowackiego w Piotrkowie Trybunalskim oraz Joanna Tokarz, Anna Tokarz „Ze świecą w poszukiwaniu zjawisk fizycznych” I Liceum Ogólnokształcące im. Jana Smolenia w Bytomiu III miejsce ex aequo zajęli: Mateusz Bieniek, Norbert Majewski, Tomasz Cholewiński „Model akumulatora gazowego” Zespół Szkół Edukacji Technicznej w Łodzi oraz Aleksandra Solecka, Milena Bonk, Paweł Klamut „Gdzie pierogi nauczyły się pływać?” I Liceum Ogólnokształcące im. Komisji Edukacji Narodowej w Sanoku Kategoria: Praca Naukowa I miejsce zajął: Michał Mielnicki „Wpływ ciągłej wymiany dielektryka na pojemność kondensatora” V LO im. Augusta Witkowskiego w Krakowie II miejsce zajęli: Anita Godyń, Daniel Kmiecik „Jaśniej czy ciemniej? – niech rozstrzygną to pomiary fotometryczne” Zespół Szkół Ekonomiczno-Chemicznych w Trzebini W kategorii Esej: II miejsce ex aequo otrzymały: Aleksandra Badora „Dlaczego to fizyk może rozwiązać wielką zagadkę matematyczną?” Publiczne LO nr II z Oddziałami Dwujęzycznymi im. Marii Konopnickiej w Opolu oraz Magdalena Listek „Laboratorium o rozsuwanych ścianach” V LO im. Augusta Witkowskiego w Krakowie III miejsce otrzymała: Olga Ociepa „Postzubrinowskie wojny grawitacyjne” Waldorfskie Liceum Ogólnokształcące im. Cypriana Kamila Norwida w Bielsku-Białej « powrót do artykułu
  24. Tuż przed Dniem Dziecka Narodowy Instytut Fryderyka Chopina (NIFC) przygotował niespodziankę  - kolejne dwie książeczki z serii „Mały Chopin”: „Frycek i jego pierwszy koncert” oraz „Frycek i karmelkowa tajemnica”. Jak podkreślono na stronie NIFC, seria „Mały Chopin” to krótkie historyjki powstałe z inspiracji barwną biografią Fryderyka Chopina. Opowieści te – chociaż umiejscowione w przeszłości – są wciąż aktualne, a Frycek sprawdza się w roli kolegi każdego dziecka! Autorką tekstów oraz ilustracji do wszystkich czterech książeczek jest Aga Pietrzykowska (AgaPE), która prowadzi STUDIO PE. Warto podkreślić, że seria wydawnicza zdobyła Nagrodę Główną w kategorii Książki dla dzieci w wieku 0-7 lat w XXI Edycji Konkursu „Świat Przyjazny Dziecku” (jest on organizowany przez Komitet Ochrony Praw Dziecka). „Frycek i jego pierwszy koncert” został wydany w 3 językach: polskim, angielskim i  japońskim. Książeczka w miękkiej okładce ma 28 stron (tak samo zresztą, jak inne pozycje serii). Książka „Frycek i karmelkowa tajemnica” jest dostępna w 2 językach: polskim i angielskim. Aga Pietrzykowska jest malarką, ilustratorką, autorką książek i kuratorką sztuki. Studiowała na Wydziale Grafiki ASP w Warszawie. Ukończyła także kulturoznawstwo na Uniwersytecie Warszawskim. Jak napisano w jej biogramie, publikuje ilustracje w magazynach, maluje murale, projektuje okładki książek, wydaje autorskie książki kreatywne, plakaty oraz plansze edukacyjne. Wszystkie książeczki z serii „Mały Chopin” można kupić m.in. TUTAJ. « powrót do artykułu
  25. Astronomowie z University of Southampton donoszą o zaobserwowaniu najpotężniejszej znanej kosmicznej eksplozji. Jest ona 10-krotnie jaśniejsza niż jakakolwiek znana supernowa i 3-krotnie jaśniejsza niż najpotężniejsze rozerwanie gwiazdy przez siły pływowe czarnej dziury. Eksplozję AT2021lwx naukowcy obserwują od trzech lat. To bardzo długo, w porównaniu np. z supernowymi, które są widoczne przez kilka miesięcy. Do AT2021lwx doszło przed 8 miliardami lat, gdy wszechświat liczył sobie około 6 miliardów lat. Specjaliści sądzą, że to, co obserwują to proces niszczenia olbrzymiej chmury gazu – tysiące razy większej od Słońca – przez czarną dziurę. Części chmury wpadły do czarnej dziury, a powstałe w wyniku tego fale uderzeniowe przemiszczają się przez resztę chmury, która otoczyła czarną dziurę, tworząc kształt obwarzanka. AT2021lwx została wykryta w 2020 roku przez Zwicky Transient Facility i potwierdzona przez Asteroid Terrestrial-impact Last Alert System. Te instalacje przeglądają nocne niebo w poszukiwaniu obiektów gwałtownie zmieniających jasność. Takie zmiany mogą wskazywać na obecność supernowej czy przelatujące komety lub asteroidy. Jednak w momencie wykrycia skala eksplozji nie była znana. Pojawienie się na niebie jasnego obiektu zostało zauważone przez algorytm poszukujący supernowych. Jednak supernowe nigdy nie trwają tak długo. Naukowcy przeprowadzili więc szereg badań za pomocą różnych teleskopów. Przeanalizowali spektrum światła, zmierzyli linie absorpcji i emisji, co pozwoliło im na określenie odległości do obiektu. Gdy już znamy odległość i wiemy, jak jasny się nam obiekt wydaje, możemy obliczyć jasność obiektu u źródła. Gdy to zrobiliśmy, zdaliśmy sobie sprawę, że jest on ekstremalnie jasny, mówi profesor Sebastian Hönig. Jedynymi obiektami, które dorównują AT2021lwx jasnością są kwazary, supermasywne czarne dziury, do których ciągle wpada gaz pędzący z olbrzymią prędkością. W przypadku kwazarów dochodzi do zmian jasności. Raz są jaśniejsze, raz ciemniejsze. Przyjrzeliśmy się danym archiwalnym, z dekady sprzed odkrycia AT2021lwx. Niczego tam nie było i nagle pojawia się najjaśniejszy obiekt we wszechświecie, dodaje profesor Mark Sullivan. Zjawisko można interpretować na wiele różnych sposobów, jednak najbardziej prawdopodobnym wyjaśnieniem jest niszczenie przez czarną dziurę gigantycznej chmury gazu, głównie wodoru. Naukowcy mają nadzieję, że w najbliższych latach dzięki nowym urządzeniom, jak Vera Rubin Observatory, znajdą więcej obiektów podobnych do AT2021lwx i będą mogli lepiej je zbadać. « powrót do artykułu
×
×
  • Dodaj nową pozycję...