Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36948
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Tysiące kilometrów pod naszymi stopami znajduje się wewnętrzne jądro Ziemi. To struktura o średnicy ponad 1200 km zbudowana z żelaza w formie stałej. Dwoje badaczy z Uniwersytetu w Pekinie stwierdziło właśnie, że dosłownie przed kilkunastu laty ruch obrotowy jądra niemal ustał, a następnie zaczęło się ono obracać w drugą stronę i obecnie obraca się w kierunku przeciwnym do ruchu obrotowego Ziemi. Wciąż niewiele wiemy o samym jądrze oraz jego ruchu, a wiedzę tę zdobywamy badając fale sejsmiczne przechodzące przez środek planety. Yi Yang i Xiaodong Song z Pekinu najpierw przeanalizowali dane pochodzące z początku lat 90. XX wieku, a następnie porównali je danymi zbieranymi od 1964 roku. Z ich analiz wynika, że w 2009 roku ruch obrotowy jądra wewnętrznego niemal się zatrzymał, a następnie zaczęło się ono obracać w przeciwnym kierunku. Sądzimy, że jądro wewnętrzne obraca się raz w jedną, raz w drugą stronę, względem powierzchni Ziemi, mówią naukowcy. Ich zdaniem cały cykl trwa około 70 lat, co oznacza, że do zmiany kierunku ruchu obrotowego jądra dochodzi co 35 lat. Z badań wynika, że poprzednia zmiana miała miejsce na początku lat 70. XX wieku, a kolejna zajdzie w połowie lat 40. XXI wieku. Inni eksperci przestrzegają jednak, przed wyciąganiem zbyt pochopnych wniosków. Przypominają, że wiele rzeczy dotyczących budowy wnętrza Ziemi jest dla nas tajemnicą i istnieją liczne hipotezy dotyczące tej kwestii. To bardzo dobre badania przeprowadzone przez świetnych naukowców. Użyli oni wielu danych, ale – moim zdaniem – żaden z modeli nie pasuje dobrze do wszystkich danych, jakimi dysponujemy, mówi John Vidale, sejsmolog z University of Southern California. Vidale sam jest autorem ubiegłorocznej pracy, w której stwierdza, że jądro zmienia kierunek ruchu co sześć lat. W swoich badaniach opierał się on na falach sejsmicznych wygenerowanych podczas dwóch eksplozji jądrowych z końca lat 60. i początku lat 70. Uczony przypomina też, że istnieją dane sugerujące, iż jądro obracało się w latach 2001–2013, a obecnie jest niemal nieruchome. Z kolei Hrvoje Tkalcic z Australijskiego Uniwersytetu Narodowego jest autorem badań mówiących, że cały cykl zmiany ruchu obrotowego jądra trwa 20–30 lat. Geofizycy porównują swoje próby zbadania wnętrza Ziemi do próby badania wnętrza organizmu bez możliwości rozcięcia pacjenta czy przeprowadzenia obrazowania tomografem. Niektórzy mówią, że jądro wewnętrzne może zawierać jeszcze jedno jądro. Coś tam się dzieje i w końcu się tego dowiemy. Ale może to zająć kolejną dekadę, stwierdza Vidale. Yang i Song na łamach swojej pracy stwierdzają, że zaobserwowane przez nich zmiany kierunku ruchu obrotowego jądra są zgodne z innymi obserwacjami, szczególnie tymi dotyczącymi długości dnia i pola magnetycznego planety. Ich zdaniem to dowód, że wszystkie warstwy planety są ze sobą połączone dynamicznymi interakcjami, zachodzącymi prawdopodobnie za pośrednictwem sprzężenia grawitacyjnego i zachowania momentu pędu. « powrót do artykułu
  2. Systemy podtrzymywania życia, woda, żywność, habitaty, instrumenty naukowe i wiele innych elementów będzie niezbędnych do przeprowadzenia załogowej misji na Marsa. Jednym z najważniejszych z nich są systemy produkcji energii. Te obecnie stosowane w misjach kosmicznych są albo niebezpieczne – wykorzystują rozpad pierwiastków promieniotwórczych – albo też niestabilne wraz ze zmianami pór dnia i roku, bo korzystają z energii słonecznej. Wybór miejsca lądowania każdej z misji marsjańskich to skomplikowany proces. Eksperci muszą bowiem określić miejsca, których zbadanie może przynieść jak najwięcej korzyści i w których w ogóle da się wylądować. W przypadku misji załogowych sytuacja jeszcze bardziej się skomplikuje, gdyż dodatkowo będą musiały być to miejsca najlepiej nadające się do życia, np. takie, w których można pozyskać wodę. Grupa naukowców pracujących pod kierunkiem Victorii Hartwick z NASA wykorzystała najnowsze modele klimatyczne Marsa do przeanalizowania potencjału produkcji energii z wiatru na Czerwonej Planecie. Dotychczas podczas rozważań nad produkcją energii na Marsie nie brano pod uwagę atmosfery. Jest ona bowiem bardzo rzadka w porównaniu z atmosferą Ziemi. Ku swojemu zdumieniu naukowcy zauważyli, że pomimo rzadkiej marsjańskiej atmosfery wiejące tam wiatry są na tyle silne, by zapewnić produkcję energii na dużych obszarach Marsa. Badacze odkryli, że w niektórych proponowanych miejscach lądowania prędkość wiatru jest wystarczająca, by stanowił on jedyne lub uzupełniające – wraz z energią słoneczną bądź jądrową – źródło energii. Pewne regiony Marsa są pod tym względem obiecujące, a inne – interesujące z naukowego punktu widzenia – należałoby wykluczyć biorąc pod uwagę jedynie potencjał energii wiatrowej lub słonecznej. Okazało się jednak, że energia z wiatru może kompensować dobową i sezonową zmienność produkcji energii słonecznej, szczególnie na średnich szerokościach geograficznych czy podczas regionalnych burz piaskowych. Co zaś najważniejsze, proponowane turbiny wiatrowe zapewnią znacznie bardziej stabilne źródło energii po połączeniu ich z ogniwami fotowoltaicznymi. Naukowcy przeanalizowali hipotetyczny system, w którym wykorzystane zostają panele słoneczne oraz turbina Enercon E33. To średniej wielkości komercyjny system o średnicy wirnika wynoszącej 33 metry. Na Ziemi może ona dostarczyć 330 kW mocy. Z analiz wynika, że na Marsie dostarczałaby średnio 10 kW. Obecnie szacuje się, że 6-osobowa misja załogowa będzie potrzebowała na Marsie minimum 24 kW mocy. Jeśli wykorzystamy wyłącznie ogniwa słoneczne, produkcja energii na potrzeby takiej misji będzie większa od minimum tylko przez 40% czasu. Jeśli zaś dodamy turbinę wiatrową, to odsetek ten wzrośnie do 60–90 procent na znacznych obszarach Marsa. Połączenie wykorzystania energii słonecznej i wiatrowej mogłoby pozwolić na przeprowadzenie misji załogowej na tych obszarach Czerwonej Planety, które wykluczono ze względu na słabą obecność promieniowania słonecznego. Te regiony to np. obszary polarne, które są interesujące z naukowego punktu widzenia i zawierają wodę. Autorzy badań zachęcają do prowadzenia prac nad przystosowaniem turbin wiatrowych do pracy w warunkach marsjańskich. Tym bardziej, że wykorzystanie wiatru może wpłynąć na produkcję energii w wielu miejscach przestrzeni kosmicznej. Hartwick mówi, że jest szczególnie zainteresowana potencjałem produkcji energii z wiatru w takich miejscach jak Tytan, księżyc Saturna, który posiada gęstą atmosferę, ale jest zimny. Odpowiedź na tego typu pytania będzie jednak wymagała przeprowadzenia wielu badań interdyscyplinarnych. « powrót do artykułu
  3. Strażnicy z Parku Narodowego Conway w Queensland znaleźli rekordowych rozmiarów ropuchę agę (Rhinella marina). Zwierzę, najprawdopodobniej samica, ważyło aż 2,7 kg. Nic więc dziwnego, że przez skojarzenia z Godzillą zyskało miano ropuchozilli. Kylee Gray opowiada, że wąż pełznący przez drogę zmusił ekipę do zatrzymania samochodu. Gdy strażniczka wysiadła z auta i spojrzała pod nogi, zaskoczył ją widok potężnej ropuchy. Pochyliłam się i złapałam ją. Nie mogłam uwierzyć, że jest tak duża i ciężka. Pokaźnych rozmiarów okaz został umieszczony w kontenerze i zabrany do bazy. Aga tej wielkości może zjeść wszystko: [...] od owadów, przez gady, po małe ssaki. Australijczycy przypuszczają, że mieli do czynienia z samicą, bo u R. marina samice są znacznie większe od samców. Strażnicy nie są pewni, w jakim była wieku. Wspominają jednak, że dzikie agi mogą dożywać nawet 15 lat. Bardzo możliwe, że ropuchozilla osiągnęła taki właśnie wiek. Ponieważ introdukowana w Australii aga jest gatunkiem inwazyjnym, ropuchozillę poddano eutanazji. Ciało przekazano do Queensland Museum na dalsze badania. Placówka była zainteresowana okazem, ponieważ może się on okazać rekordowo duży. Zgodnie z wpisem w Księdze rekordów Guinnessa, dotąd największy był samiec o imieniu Prinsen (Książę), należący do Håkana Forsberga z Åkers Styckebruk w Szwecji. W marcu 1991 r. ważył on 2,65 kg. Od czubka pyska do kloaki mierzył 38 cm, a po pełnym rozciągnięciu 53,9 cm. Jak przypomniano w komunikacie Departamentu Środowiska i Nauki Queensland, w 1935 r. R. marina wprowadzono na te tereny, by kontrolować populację chrząszcza Dermolepida albohirtum. Eksperyment się jednak nie powiódł, bo ropuchy bardzo się rozmnożyły i nie wywarły widocznego wpływu na populację szkodnika trzciny cukrowej. Samice agi mogą złożyć do 30 tys. jaj. Gatunek kolonizuje szeroki zakres habitatów. Nie jest co prawda rozpowszechniony w lasach deszczowych, lecz może je penetrować, korzystając z dróg i ścieżek (tak było zapewne w opisywanym przypadku). Toksyczne dla wielu zwierząt ropuchy olbrzymie konkurują z rodzimą fauną o schronienia i zasoby pokarmowe. Żywią się głównie owadami, ale są oportunistami pokarmowymi i mogą także zaspokajać głód małymi kręgowcami. « powrót do artykułu
  4. We wczesnych społecznościach rolniczych północno-zachodniej Europy przemoc była codziennością, wskazują badania brytyjsko-szwedzko-niemieckiej grupy naukowej. Naukowcy przyjrzeli się szczątkom ponad 2300 rolników ze 180 stanowisk archeologicznych z okresu pomiędzy 8000 a 4000 lat temu i zauważyli, że w przypadku ponad 10% z nich widoczne są obrażenia od broni. Wbrew rozpowszechnionemu poglądowi o pokojowej współpracy, w neolicie dochodziło do konfliktów, w których zabijano całe społeczności. Badania sugerują, że rozpowszechnienie się hodowli roślin i zwierząt i związana z tym zmiana trybu życia z łowiecko-zbierackiego na osiadły, mogły doprowadzić do sformalizowania konfliktów zbrojnych. Naukowcy przyjrzeli się szczątkom ludzkim z Danii, Francji, Niemiec, Wielkiej Brytanii, Hiszpanii i Szwecji. Na szkieletach szukali śladów urazów, przede wszystkim zadanych w czaszkę tępym narzędziem. W ponad 10% przypadków znaleziono uszkodzenia czaszki odpowiadające wielokrotnym uderzeniom tępym narzędziem. Odkryto też obrażenia penetrujące, być może od strzał. W niektórych przypadkach obrażenia były powiązane z masowymi pochówkami, co sugeruje zniszczenie całych społeczności. Ludzkie kości do najlepsze i najbardziej wiarygodne dowody na przemoc. W ostatnich latach zaś znacznie zwiększyły się nasze możliwości odróżnienia śmiertelnych obrażeń od złamań kości, które miały miejsce po śmierci, potrafimy też odróżnić przypadkowe zranienia od napaści z bronią, mówi doktor Linda Fibiger z Uniwersytetu w Edynburgu. Naukowcy zastanawiają się też, dlaczego przemoc stała się tak powszechna w tym czasie. Ich zdaniem, najbardziej prawdopodobnym wyjaśnieniem jest zmiana stosunków ekonomicznych. Wraz z rolnictwem pojawiły się nierówności i ci, którym wiodło się gorzej zaczęli organizować napaści i dochodziło do zbiorowej przemocy, co było alternatywną strategią na odniesienie sukcesu, dodaje doktor Martin Smith z Bournemouth University. Badania zostały opisane w artykule Conflict, violence, and warfare among early farmers in Northwestern Europe. « powrót do artykułu
  5. Rosnąca popularność samochodów elektrycznych (EV) często postrzegana jako problem dla sieci elektroenergetycznych, które nie są dostosowane do nowego masowego źródła obciążenia. Naukowcy z Uniwersytetu w Lejdzie oraz amerykańskiego Narodowego Laboratorium Energii Odnawialnej podeszli do zagadnienia z innej strony. Z analizy wynika, że w ciągu najbliższych lat EV mogą stać się wielkim magazynem energii ze źródeł odnawialnych, stabilizując energetykę słoneczną i wiatrową. Energia z wiatru i słońca to najszybciej rosnące źródła energii. So to jednak źródła niestabilne, nie dostarczają energii gdy wiatr nie wieje, a słońce nie świeci. Z analizy, opublikowanej na łamach Nature Communications, dowiadujemy się, że rolę stabilizatora mogą odegrać samochody elektryczne. Obecnie większość ich właścicieli ładuje samochody w nocy. Autorzy badań uważają, że właściciele takich pojazdów mogliby podpisywać odpowiednie umowy z dostawcami energii. Na jej podstawie dostawca energii sprawowałby kontrolę nad ładowaniem samochodu w taki sposób, by z jednej strony zapewnić w sieci odpowiednią ilość energii, a z drugiej – załadować akumulatory do pełna. Właściciel samochodu otrzymywałby pieniądze za wykorzystanie jego pojazdu w taki sposób, wyjaśnia główny autor badań, Chengjian Xu. Co więcej, gdy pojemność akumulatorów zmniejsza się do 70–80 procent pojemności początkowej, zwykle nie nadają się one do zastosowań w transporcie. Jednak nadal przez wiele lat mogą posłużyć do stabilizowania sieci elektroenergetycznych. Dlatego też, jeśli kwestia taka zostanie uregulowana odpowiednimi przepisami, akumulatory takie mogłyby jeszcze długo służyć jako magazyny energii. Z wyliczeń holendersko-amerykańskiego zespołu wynika, że do roku 2050 samochody elektryczne oraz zużyte akumulatory mogą stanowić wielki bank energii o pojemności od 32 do 62 TWh. Tymczasem światowe zapotrzebowanie na krótkoterminowe przechowywanie energii będzie wówczas wynosiło od 3,4 do 19,2 TWh. Przeprowadzone analizy wykazały, że wystarczy, by od 12 do 43 procent właścicieli samochodów elektrycznych podpisało odpowiednie umowy z dostawcami energii, a świat zyska wystarczające możliwości przechowywania energii. Jeśli zaś udałoby się wykorzystać w roli magazynu energii połowę zużytych akumulatorów, to wystarczy, by mniej niż 10% kierowców podpisało umowy z dostawcami energii. Już w roku 2030 w wielu regionach świata EV i zużyte akumulatory mogą zaspokoić popyt na krótkoterminowe przechowywanie energii. Oczywiście wiele tutaj zależy od uregulowań prawnych oraz od tempa popularyzacji samochodów elektrycznych w różnych regionach świata. Autorzy badań zauważają też, że wielką niewiadomą jest tempo degradacji akumulatorów przyszłości, które będzie zależało m.in. od postępu technologicznego, czy też tempo rozwoju systemów zarządzania energią. Nie wiadomo także, czy nie zajdą radykalne zmiany w samym systemie transportowym. Nie można wykluczyć np. zmiany przyzwyczajeń i rozpowszechnienia się komunikacji zbiorowej czy systemów wspólnego użytkowania pojazdów, na dostępność samochodów i akumulatorów może też wpłynąć rozpowszechnienie się pojazdów autonomicznych. « powrót do artykułu
  6. Nie możemy bezpośrednio obserwować wczesnego wszechświata, ale być może będziemy w stanie obserwować go pośrednio, badając, w jaki sposób fale grawitacyjne z tamtej epoki wpłynęły na materię i promieniowanie, które obecnie widzimy, mówi Deepen Garg, student z Princeton Plama Physics Laboratory. Garg i jego promotor Ilya Dodin zaadaptowali do badań wszechświata technikę ze swoich badań nad fuzją jądrową. Naukowcy badali, w jaki sposób fale elektromagnetyczne rozprzestrzeniają się przez plazmę obecną w reaktorach fuzyjnych. Okazało się, że proces ten bardzo przypomina sposób rozprzestrzeniania się fal grawitacyjnych. Postanowili więc wykorzystać te podobieństwa. Fale grawitacyjne, przewidziane przez Alberta Einsteina w 1916 roku, zostały wykryte w 2015 roku przez obserwatorium LIGO. To zaburzenia czasoprzestrzeni wywołane ruchem bardzo gęstych obiektów. Fale te przemieszczają się z prędkością światła. Garg i Dodin, wykorzystując swoje spostrzeżenia z badań nad falą elektromagnetyczną w plazmie, opracowali wzory za pomocą których – jak mają nadzieję – uda się odczytać właściwości odległych gwiazd. W falach grawitacyjnych mogą być „zapisane” np. o gęstości materii, przez którą przeszły. Być może nawet uda się w ten sposób zdobyć dodatkowe informacje o zderzeniach gwiazd neutronowych i czarnych dziur. To miał być prosty, krótki, sześciomiesięczny program badawczy dla mojego studenta. Gdy jednak zaczęliśmy zagłębiać się w problem, okazało się, że niewiele o nim wiadomo i można na tym przykładzie wykonać pewne podstawowe prace teoretyczne, przyznaje Dodin. Naukowcy chcą w niedługiej przyszłości wykorzystać swoje wzory w praktyce. Zastrzegają, że uzyskanie znaczących wyników będzie wymagało sporo pracy. « powrót do artykułu
  7. Tempo, w jakim ludzkość traci z oczu gwiazdy, jest większe niż dotychczas sądzono. Z powodu rosnącego zanieczyszczenia światłem ludzie na całym świecie widzą coraz mniej gwiazd na nocnym niebie. Jasność nocnego nieboskłonu zwiększa się o 7–10% rocznie. To znacznie szybciej, niż wynikało dotychczas z samych tylko pomiarów satelitarnych emisji sztucznego światła. Naukowcy z niemieckich GeoForschungsZentrum (GFZ), Ruhr-Universität Bochum oraz amerykańskiego NOIRLab (National Optical-Infrared Astronomy Research Laboratory) przeanalizowali ponad 50 000 obserwacji nieba wykonanych nieuzbrojonym okiem przez astronomów-amatorów w latach 2011–2022. Obserwacje były prowadzone w ramach projektu „Globe at Night”. Okazało się, że zanieczyszczenie nocnego nieba światłem zwiększa się znacznie szybciej, niż wynikałoby to z samych tylko pomiarów satelitarnych. Ludzie na całym świecie przez długi czas po zachodzie Słońca widzą rozświetlającą niebo poświatę. Takie ciągłe oświetlenie, brak naturalnej ciemności wpływa negatywnie na wszystkie organizmy żywe, w tym na ludzi. Poświata ma negatywny wpływ na zwierzęta nocne i dzienne, niszczy też ważną część ludzkiego dziedzictwa kulturowego, mówi współautorka badań, Constance Walker. Wiele procesów fizjologicznych roślin i zwierząt jest uzależnionych od cykli dobowych, regulowanych przez światło. Zanieczyszczenie światłem ma też negatywny wpływ na badania astronomiczne. Dotychczas stopień zanieczyszczenia światłem w skali globalnej próbowano szacować za pomocą satelitów, ale nie były to badania zbyt dokładne. Dlatego też naukowcy postanowili skorzystać z pomocy ludzi i ich oczu. Uczestnicy projektu „Globe at Night” patrzyli w nocne niebo i oceniali widoczność gwiazd, przypisując ją do ośmiostopniowego online'owego kwestionariusza. Każdy stopień odpowiada widoczności nieboskłonu w różnych warunkach oświetleniowych. Tempo, w jakim gwiazdy stają się niewidoczne dla mieszkańców środowisk miejskich jest dramatyczne, podsumowuje Kyba. W Europie jasność nocnego nieba zwiększa się o 6,5% rocznie, w Ameryce Północnej jest to 10,4%. Średnia dla wszystkich zbadanych lokalizacji na świecie wynosi 9,6% rocznego wzrostu. Kyba wyjaśnia, co to oznacza. Dziecko, które urodziło się w miejscu, z którego można było obserwować 250 gwiazd, zobaczy tylko 100 gwiazd w dniu swoich 18. urodzin. Dane zabrane przez obserwatorów na Ziemi dramatycznie różnią się od danych satelitarnych. Satelity przekazywały, że sztuczna poświata zmniejsza się w tempie 0,3% rocznie dla Europy i 0,8% rocznie dla Ameryki Północnej. Kyba sądzi, że te kolosalne różnice wynikają ze zmiany stosowanego oświetlenia. Satelity są najlepiej rejestrują światło skierowane w górę. Tymczasem za większość szkodliwej poświaty odpowiada światło skierowane poziomo. Jeśli więc zwiększyła się emisja światła z fasad budynków czy reklam wielkoformatowych, ma to wielki wpływ na poświatę, ale na zdjęciach satelitarnych nie będzie to widoczne, mówi naukowiec. Kolejną przyczyną może być powszechne na całym świecie przejście z lamp sodowych emitujących pomarańczowe światło na białe LED-y, które emitują znacznie więcej światła niebieskiego. Nasze oczy są w nocy bardziej wrażliwe na światło niebieskie, a światło to bardziej rozprasza się w atmosferze, zatem w większym stopniu przyczynia się do powstawania poświaty. Jednak te satelity, które fotografują całą Ziemię noc, nie są przystosowane do rejestrowania światła niebieskiego, dodaje Kyba. Oczywiście poleganie na obserwacjach z Ziemi też ma swoje ograniczenia. Najwięcej danych udało się bowiem zebrać z najbardziej zanieczyszczonych światłem Europy i Ameryki Północnej, a połowa obserwacji z Azji pochodziła z Japonii. Danych z krajów rozwijających się jest mało, a naukowcy podejrzewają, że to tam może dochodzić do najszybszych, najbardziej dramatycznych zmian. Projekt „Globe at Night” jest kontynuowany, więc naukowcy zachęcają każdego chętnego, by wziął udział w obserwacjach. Jeśli pomoże im wystarczająco duża liczba osób, będą mogli stworzyć mapę zanieczyszczenia światłem dla poszczególnych państwa, a może i miast. « powrót do artykułu
  8. Dzięki innowacyjnemu przenośnemu laserowi dowiedzieliśmy się, że złoto z Troi, oddalonej od niej o 60 kilometrów Poliochni z wyspy Lemnos oraz z Ur w Mezopotamii pochodzi z tej samej okolicy, było więc przedmiotem długodystansowego handlu. Nowatorskie podejście badawcze pozwoliło na poznanie tajemnic złotej biżuterii, która dotychczas nie była badana, gdyż jest tak cenna, że nie zgadzano się na jej przewożenie czy wykonywanie badań pozostawiających na niej widoczne ślady. Badania zainicjowali Ernest Pernicka z Uniwersytetu w Tybindze oraz Barbara Horejs z Austriackiej Akademii Nauk. Stali oni na czele międzynarodowego zespołu złożonego ze specjalistów z Curt-Engelhorn-Zentrum Archäometrie, Austriackiej Akademii Nauk i Narodowego Muzeum Archeologicznego w Atenach. Od czasu, gdy w 1873 roku Henryk Schliemann odkrył w Troi Skarb Priama, naukowcy zastanawiali się, skąd pochodziło złoto, z którego został wykonany. Teraz dowiedzieliśmy się, że jego źródłem były złoża wtórne, jak np. rzeki, a skład chemiczny kruszcu ze Skarbu Priama jest identyczny jak złota z Polichni, Urn oraz obiektów znalezionych na terenie Gruzji. To oznacza, że pomiędzy tymi lokalizacjami prowadzono długodystansowy handel, mówi Pernicka. Narodowe Muzeum Archeologiczne w Atenach nie zgadza się ani na zabieranie Skarbu Priama poza muzeum, ani na prowadzenie badań, które zostawiłyby na nim widoczne ślady. Dotychczas żadna z metod badawczych, która mogłaby odpowiedzieć na pytanie o pochodzenie złota, nie spełniała obu tych warunków jednocześnie. Dlatego też grupa Pernicki i Horejs wykorzystała przenośny laser, który wytopił niewidoczną gołym okiem dziurkę o średnicy 120 mikrometrów. Pobraną w ten sposób próbkę zbadano za pomocą spektrometrii mas w Curt-Engelhorn-Zentrum Archäometrie w Mannheim. W dawnej złotej biżuterii można znaleźć też ślady srebra, miedzi, cynku, palladu i platyny. To pozwala na określenie chemicznego profilu złoża, z którego złoto pochodzi. Na przykład wysoka koncentracja cynku, palladu i platyny w Skarbie Priama wskazała uczonym, że złoto zostało wymyte przez rzekę, z której zostało pozyskane w formie złotego piasku. Naukowcy wykazali też, że mieliśmy tutaj do czynienia z masową produkcją, a nie indywidualną. To bowiem jedyne wyjaśnienie faktu, że w złotych dyskach tworzących pochodzące z różnych miejsc naszyjniki o podobnym wyglądzie, występuje identyczna ilość palladu i platyny. Naukowcy przebadali 61 przedmiotów z epoki brązu z lat 2500–2000 p.n.e. To pozwoliło też na rozwiązanie zagadki złota z Ur. W Mezopotamii nie ma bowiem naturalnych złóż złota. Występują za to w Zachodniej Anatolii, gdzie leży Troja, zatem spekulowano, że złoto z biżuterii z Ur mogło pochodzić stamtąd. Nie było to jednak pewne, gdyż złoto występuje też w innych miejscach z którymi Ur łączyły silne relacje handlowe. Zaś badania porównawcze złotych wyrobów wykazały olbrzymie podobieństwa pomiędzy biżuterią znalezioną na wielkim obszarze rozciągającym się od Morza Egejskiego po dolinę Indusu i współczesny Pakistan. Znaleziono na nim pieczęcie, standaryzowane odważniki, podobne kolczyki czy kamienie szlachetne. Wszystkie te badania pokazują, już 4500 lat temu istniały ramy, na których powstały współczesne społeczeństwa z ich relacjami handlowymi. W tej chwili jednak naukowcy nie byli w stanie wskazać dokładnego miejsca pozyskiwania złota, z którego powstała biżuteria z Troi, Poliochni i Ur. Stosunek pierwiastków śladowych sugeruje, że źródłem złota była Gruzja epoki brązu. Wciąż jednak mamy za mało danych z innych regionów i obiektów, by to potwierdzić, mówi Pernicka. « powrót do artykułu
  9. Odnaleziono kolejny fragment barokowej fontanny z Neptunem, która niegdyś zdobiła plac Nowy Targ we Wrocławiu. Okazało się, że jedna z czterech muszli - trzymanych oryginalnie przez syreny i trytony - pełniła funkcję ozdoby w ogródku mieszkanki Wielowsi Średniej. Jak podaje serwis Wroclaw.pl, na muszlę natrafiła dziennikarka Radia Wrocław. Przeprowadzała wywiad z mieszkańcami podsycowskiej miejscowości i to oni skierowali ją w konkretne miejsce. Siedemnastego stycznia br. niemal kompletny element został przewieziony do Wrocławia. Wratislavianista dr Tomasz Sielicki – który wpadł na trop fontanny – przypomina, że w zeszłym roku odnaleziono rzeźbę Neptuna [korpus z prawie całą lewą nogą; górna część sięga linii żuchwy], jedną z muszli, jedną ze ślimacznic, kapitel z resztkami delfinów, głowę delfina oraz dolną partię syreny bądź trytona. Wiosną poszukiwania będą kontynuowane. Choć priorytetem jest odnalezienie głowy Neptuna, inne elementy są również na wagę złota, bo pomogą w ewentualnym odtworzeniu fontanny. Dr Sielicki szacuje, że dotąd odnaleziono ok. 50% całości. Wszystkie zebrane części oddano w depozyt do Muzeum Miejskiego Wrocławia. W pracowni kamieniarskiej na Starym Cmentarzu Żydowskim czekają na stabilne dodatnie temperatury; wtedy zostaną oczyszczone. Mówiąc o przyszłości, dr Sielicki wspomina o 2 ewentualnych scenariuszach. Pozostałości fontanny można by gdzieś wyeksponować albo, co wymagałoby większych środków pieniężnych, pokusić się o odtworzenie zabytku. Wratislavianista uważa, że da się to zrobić dzięki wykorzystaniu odnalezionych elementów i odkuciu nowych na wzór historycznych. Sprawa dalszych losów zabytku pozostaje otwarta.   « powrót do artykułu
  10. W dzisiejszym świecie bezpieczeństwo przekazywania informacji stało się niezwykle istotnym elementem naszego codziennego życia. Większość z nas, nawet nie zdaje sobie sprawy, jak często korzysta z dobrodziejstw dziedziny nauki, jakim jest kryptografia. Za każdym razem, kiedy przeglądamy internet, wysyłamy do kogoś wiadomość czy logujemy się do banku towarzyszy nam szyfrowanie. Firma Alfatronik na co dzień zajmująca się produkcją i dystrybucją urządzeń z zakresu bezpieczeństwa i detektywistyki postanowiła nam nieco opowiedzieć o zagadnieniu, jakim jest kryptografia. Czym jest i jakie są pomysły na jej udoskonalanie oraz co ma wspólnego z przyznaną w tym roku nagrodą Nobla z dziedziny fizyki, dowiedzą się państwo z poniższego artykułu. We wtorek, 4 października 2022 roku Komitet Noblowski poinformował, że trójka naukowców — Alain Aspect z Francji, John F. Clauser z USA i Anton Zeilinger z Austrii, zajmujący się mechaniką kwantową, zostali laureatami Nagrody Nobla z dziedziny fizyki. Co ciekawe Prof. Anton Zeilinger oraz Alain Aspect od lat współpracują z Międzynarodowym Centrum Teorii Technologii Kwantowych Uniwersytetu Gdańskiego. Nagroda ta dotyczy eksperymentów związanych z fizyką kwantową ze splątanymi fotonami, ustalająca naruszenie nierówności Bella. Co fizyka kwantowa ma wspólnego z kryptografią, okazuje się, że całkiem sporo. Żeby przybliżyć ten temat, należy wytłumaczyć, czym jest kryptografia? Jak podaje Wikipedia, kryptografia — to dziedzina  wiedzy o przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem. Jest to oczywiście wersja skrócona tej definicji, ale na potrzeby tego artykułu powinna nam wystarczyć. Następnym pytaniem, jakie się nasuwa, jest – Czy można informacje zaszyfrować w taki sposób, aby nikt niepowołany nie był w stanie jej odczytać? Jest to zagadnienie, które od lat zaprząta głowy najwybitniejszych umysłów tego świata. W standardowym szyfrowaniu mamy informacje, która zostaje przesłana od nadawcy do odbiorcy, ale pomiędzy nimi może znajdować się także osoba podsłuchująca. Co zrobić, aby osoba ta nie była w stanie odczytać przekazywanej informacji. Można w tym celu wykorzystać, chociażby nasz alfabet. Jednym z pierwszych i najprostszych sposobów szyfrowania wiadomości jest podmienianie liter na inne, np. zamiast „a” piszemy „b”, zamiast „b” piszemy „c” itd. Tu dla przykładu zamieniliśmy literę alfabetu na następną z kolei. Oczywiście takie rozwiązanie byłoby zbyt proste. Bardzo możliwe, że podsłuchujący zorientowałby się jakiej metody użyliśmy i szybko odczytałby wiadomość. Jeżeli natomiast mielibyśmy tablice, na której przydzielone do siebie litery są dość losowe, rozszyfrowanie takiej wiadomości mogłoby się okazać już dużo bardziej skomplikowane. Taką tablicę z przydzielonymi do siebie znakami nazywamy kluczem. Oczywiście, aby nadać wiadomość, a potem ją odebrać i odczytać, klucz taki musiał posiadać zarówno nadawca, jak i odbiorca. Takie metody szyfrowania były wykorzystywane już ponad dwa tysiące lat temu, chociażby u Rzymian. Szyfry te z biegiem czasu zaczęły być łamane za pomocą np. statystyki. Okazuje się bowiem że w każdym języku litery w treści wykorzystywane są z konkretną częstotliwością. Przykładowo dla języka polskiego najczęściej wykorzystywaną literą jest litera „a” następnie „i” „o” „e” itd. Znając tę częstotliwość, można było z łatwością podstawić odpowiednie znaki i rozszyfrować wiadomość. Jednak nie o łamaniu szyfrów mamy zamiar opowiedzieć,  dzisiejsza kryptografia jest bowiem dużo bardziej skomplikowana. Bazuje ona bardzo często na liczbach pierwszych, a ich rozszyfrowywanie wymagałoby użycia maszyn obliczeniowych ogromnej mocy. Zazwyczaj stopień skomplikowania szyfru dobierany jest w taki sposób, aby najszybszym aktualnie komputerom, rozszyfrowanie zajęło dziesiątki lat. Mowa jest oczywiście o bardzo istotnych systemach zabezpieczeń jak, chociażby zabezpieczenia bankowe. Największym jednak zagrożeniem dziś jest jednak obawa przed przechwyceniem klucza, bowiem jak już wcześniej wspominaliśmy, klucz musi posiadać zarówno nadawca, jak i odbiorca. Co za tym idzie, on również musi być w jakiś sposób dostarczony do stron chcących się ze sobą komunikować. Niesie to ze sobą ryzyko przechwycenia i odczytania klucza deszyfrującego. Tu z pomocą przychodzi nasz tytułowy bohater, czyli mechanika kwantowa. Przede wszystkim trzeba powiedzieć, czym owa mechanika jest. Jest to teoria praw ruchu obiektów, w której przewidywania mechaniki klasycznej (ogólnie przyjęte prawa fizyki) nie sprawdzają się. Opisuje ona przeważnie świat mikroskopowy – obiekty o bardzo małych rozmiarach czy masach. W tym przypadku będziemy mówili o fotonach, czyli w dużym uproszczeniu o cząsteczkach światła. Foton taki posiada swoją polaryzację – przyjmijmy, że na potrzeby artykułu określimy to jako kierunek jego obrotu. Kierunek ten może być pionowy bądź poziomy. Okazuje się, że potrafimy tworzyć pary fotonów, które są ze sobą splątane (powiązane), czyli występuje pomiędzy nimi zależność. Po takim splątaniu można zaobserwować, że fotony te mają względem siebie zawsze stan przeciwny. Czyli jeżeli jeden foton kręci się w górę, to drugi z pary na pewno będzie kręcił się w dół. Jednocześnie należy mieć na uwadze, że nie da się zbadać stanu danego fotonu, nie zaburzając go. Czyli po sprawdzeniu, w którą stronę foton się obraca, jego stan ulega losowej zmianie, a para fotonów nie jest już ze sobą splątana. Co za tym idzie, zachowują się względem siebie niezależnie. Jak wykorzystać to zjawisko w kryptografii? Otóż opisał to już nasz rodzimy profesor Artur Ekert, ale gdy robił to ponad 30 lat temu, nie wiedział jak ważne się to stanie. Jego pomysł uniemożliwia podsłuchiwanie treści. Można bowiem wykorzystać te splątane fotony do przesyłania klucza deszyfrującego, co umożliwi nadawcy i odbiorcy zweryfikowanie czy klucz taki nie został odczytany przez osobę podsłuchującą. Jeżeli wartości przesyłanego pomiędzy nimi klucza nie będzie dokładnie odwrotna względem siebie, oznacza to, że klucz taki został odczytany przez kogoś innego. Jeżeli jednak klucz nam się zgadza, możemy zapisać nim wiadomość i przesłać pomiędzy nadawcą a odbiorcą. Mamy jednocześnie pewność, że nikt nie zna klucza. A jego czysto losowa budowa uniemożliwia złamanie jego samego. Wypada dodać jedynie, że powyższa metoda jest dość uproszczona i w jej komercyjnej wersji stosuje się nieco bardziej skomplikowane równania Bella, alby obliczać wyniki prawdopodobieństwa. Tam jednak także czerpiemy garściami z właściwości świata kwantowego — informacja praktycznie nie istnieje (jest w super pozycji) przed zbadaniem, a dokładniej występuje we wszystkich pozycjach jednocześnie. Zjawisko to doskonale obrazuje eksperyment myślowy, znany jako Kot Schrödingera. Warto zaznaczyć, że stany splątania cząstek są jednorazowe do momentu ich poznania. Obecnie pracuje się także nad rozwiązaniem samego szyfrowania i przekazywania informacji w całości w sposób kwantowy — nie tylko do kodowania kluczy. Jednak na chwilę obecną są dostępne jedynie hipotezy takiego rozwiązania. Artykuł zawiera wiele uproszczeń — zachęcamy jednak do zapoznania się ze źródłami, które z pewnością przybliżą bardziej omawiane powyżej zagadnienie. Źródło: Kryptografia kwantowa – jak fizyka chroni przed podsłuchami? | prof. Artur Ekert             prof. Artur Ekert, "W poszukiwaniu szyfru doskonałego" « powrót do artykułu
  11. Profesor Jay Stock z kanadyjskiego Western University twierdzi, że konsumpcja mleka w niektórych regionach świata w okresie od 7000 do 2000 lat temu doprowadziła do zwiększenia masy i rozmiarów ciała ludzi. W tym samym czasie w innych regionach świata dochodziło do redukcji wielkości ludzkiego organizmu. Stock i jego zespół zauważyli, że do zwiększenia rozmiarów ciała H. sapiens doszło tam, gdzie z przyczyn ewolucyjnych częściej występowały geny pozwalające dorosłym ludziom na trawienie mleka. Naukowcy porównali 3507 szkieletów z 366 stanowisk archeologicznych. To szczątki ludzi, którzy żyli na przestrzeni ostatnich 25 000 lat. Dowiedzieli się, że pomiędzy 15 a 10 tysięcy lat temu u ludzi z Eurazji i Afryki Północno-Wschodniej doszło do zmniejszenia rozmiarów i masy ciała. W tym mniej więcej czasie w różnych regionach świata zaczęło rozwijać się rolnictwo, a wcześni rolnicy zabierali ze sobą nasiona roślin oraz zwierzęta hodowlany i wkraczali z nimi na tereny eurazjatyckich łowców-zbieraczy. Jednak w niektórych regionach, w tym w centrum i na północy Europy rośliny udomowione w zachodniej Azji nie chciały się przyjąć. Tamtejsze społeczności zaczęły przechodzić z produkcji serów i jogurtów na rzecz bezpośredniej konsumpcji mleka, która ma więcej laktozy. Możliwość trawienia laktozy oznaczała, że ludzie w większym stopniu byli w stanie wykorzystać mleko, by zaspokoić swoje potrzeby energetyczne. W wyniku tych procesów ludzie z północy Europy częściej tolerują mleko, niż ludzie z południa i są od nich wyżsi. Badania bazowały głównie na szkieletach pochodzących z Europy, ale prawdopodobnie ten sam mechanizm można by zauważyć w innych częściach świata. Picie mleka to ważne kulturowo zjawisko na różnych kontynentach i do dzisiaj widzimy ślady genetyczne tego zwyczaju. U ludzi z zachodu Afryki, Wielkich Rowów Afrykańskich, czy Rogu Afryki oraz niektórych części Arabii i Mongolii częściej występują geny pozwalające dorosłym na trawienie laktozy. Sądzę, że ten mechanizm napędzał też różnice regionalne we wzroście w Afryce. Na przykład Masajowie są bardzo wysocy i mają bogatą kulturę picia mleka. Niestety, brakuje mi obecnie danych, by przetestować tę hipotezę, mówi Stock. Uczony dodaje, że zmniejszanie rozmiarów ludzkiego ciała nie miało miejsca – jak się uważa – w związku z pojawieniem się rolnictwa. Zachodziło ono już wcześniej. Z uzyskanych danych wynika, że ludzie stawali się coraz mniejsi po maksimum ostatniego zlodowacenia, gdy środowisko naturalne było mniej produktywne. W wyniku zlodowacenia żywność stała się mniej dostępna i mniej zróżnicowana. Pojawienie się rolnictwa również negatywnie wpłynęło na zróżnicowanie pożywienia, z którego korzystali ludzie. Jednocześnie jednak rolnictwo zapewniło obfite i stabilne źródła pożywienia. Widzimy z tego, że pojawienie się rolnictwa miało w różnych częściach świata różny wpływ na biologię i zdrowie człowieka. Globalne różnice w rozmiarach ciała są częściowo odbiciem tych procesów, dodaje Stock. « powrót do artykułu
  12. Na obrzeżach Puszczy Białowieskiej zaobserwowano rekordowo duże stado żubrów. Liczyło ono aż 170 osobników. Pracownicy Instytutu Biologii Ssaków PAN w Białowieży mówią, że dotychczas ani w puszczy, ani w jej okolicach nie zauważono tak licznych stad. Zdaniem ekspertów powstało ono z połączenia się kilku mniejszych stad w jedno, a był to wynik nagłego ataku zimy. Gdy jest mróz i obficie pada śnieg, żubry tworzą większe stada niż zwykle. Monitorujemy stada żubrów w kilku miejscach w Polsce i za granicą, i dotychczas największe stado, liczące 136 osobników, było przez nas obserwowane tej zimy na obrzeżach Puszczy Knyszyńskiej, stwierdził profesor Rafał Kowalczyk z IBS PAN, który kieruje pracami zespołu badającego żubry. Dzięki zdjęciom z drona można było policzyć zwierzęta i przyjrzeć się strukturze stada. Dzięki temu wiemy na przykład, że w jego skład wchodziło niemal 40 cieląt. Liczba żubrów w Polsce regularnie rośnie. Ostatniej zimy w samej Puszczy Białowieskiej naliczono 779 tych zwierząt. Jak informują naukowcy, część z nich sezonowo migruje z lasów na tereny otwarte. Takie migracje obserwuje się od lat 90. ubiegłego wieku. Żubry wykazują preferencję do terenów otwartych, ponadto przyciągają je atrakcyjne uprawy ozimego rzepaku i zbóż czy skoszone pola kukurydzy, na których pozostały liczne kolby. Zimą w lesie nie są w stanie znaleźć odpowiedniej ilości równie atrakcyjnego pokarmu. Naukowcy podkreślają, że rolnicy nie powinni obawiać się znacznego zmniejszenia plonów wskutek zgryzania przez żubry rzepaku czy ozimin. Rośliny odrastają i rozkrzewiają się. W niektórych krajach celowo wypasa się na nich bydło. Profesor Kowalczyk podkreśla, że nie powinny nas dziwić duże stada społecznych zwierząt, jakimi są żubry. Z drugiej jednak strony uczony mówi, że wprowadzanie żubrów na obszary leśne, szczególnie ubogie bory iglaste, prędzej czy później skutkuje migracjami tych zwierząt na tereny otwarte w poszukiwaniu pokarmu. Obserwujemy to w Puszczy Knyszyńskiej, ale też w niedawno utworzonej populacji w Puszczy Augustowskiej. Niepokoi, że kolejne stada tworzone są w lasach iglastych. Ostatnio wypuszczono żubry w Lasach Janowskich, gdzie w ponad 80 proc. drzewostanów dominuje sosna. A zapowiadane jest wprowadzenie żubrów do Borów Dolnośląskich. To skazuje te zwierzęta na zimowe dokarmianie, a w przyszłości na konflikty, gdy zaczną migrować na tereny otwarte. Dla żubrów najlepsza jest mozaika środowisk, jak łąki i doliny rzeczne, które są bogate w pokarm także zimą. Zdaniem uczonego, dobrym pomysłem byłoby wprowadzanie żubrów na rozległe słabo zaludnione tereny, np. byłe poligony wojskowe. To pozwoli zarówno uniknąć konfliktów, jak i zmniejszyć potrzebę opieki ze strony człowieka. Metody zootechniczne w ochronie żubrów są jednym z zagrożeń dla gatunku, powodującym wzrost ryzyka inwazji pasożytniczych i chorób oraz prowadzącym do uzależnienia żubrów od człowieka i zmniejszenia ich bojaźni, stwierdza prof. Kowalczyk. « powrót do artykułu
  13. Badania przeprowadzone pod kierunkiem naukowców z University of Southern California dowodzą, że za rozpowszechnianie się fałszywych informacji – fake newsów – jest w głównej mierze odpowiedzialna struktura serwisów społecznościowych, a nie nieświadomość indywidualnych użytkowników. Platformy społecznościowe, poprzez nagradzanie konkretnych zachowań, powodują, że 15% osób zwyczajowo przekazujących informacje odpowiada za rozpowszechnianie 30–40% fake newsów. Zwykle sądzi się, że to użytkownicy, którzy nie potrafią krytycznie podejść do napotkanej informacji są głównymi odpowiedzialnymi za szerzenie dezinformacji. Jednak badania przeprowadzone na ponad 2400 użytkowników Facebooka wykazały, że to sama platforma ponosi główną odpowiedzialność. Naukowcy zadali sobie pytanie, co motywuje użytkowników serwisów społecznościowych. Z ich analiz wynika, że – podobnie jak gry wideo – platformy społecznościowe posługują się systemem nagród, który zachęca użytkowników do jak najdłuższego pozostania w serwisie oraz umieszczania i udostępniania informacji. System ten stworzono tak, by użytkownicy, którzy często zamieszczają i przekazują dalej informacje, szczególnie te najbardziej sensacyjne, mieli jak największe zasięgi. Przykuwanie uwagi jak największej liczby osób to ich nagroda. Bazujący na nagrodzie system uczenia się powoduje, że użytkownicy wyrabiają sobie nawyk przekazywania dalej tych informacji, które przyciągają uwagę innych. Gdy taki nawyk się wyrobi, użytkownik automatycznie przekazuje dalej informację na podstawie bodźców pochodzących z samej platformy społecznościowej, bez krytycznego do niej podejścia i rozważania możliwości, że rozsiewa fake newsy, stwierdzają autorzy badań. Nasze badania wykazały, że fałszywe informacje rozpowszechniają się nie z powodu jakichś deficytów występujących u użytkowników. Przyczyną naprawdę jest sama struktura serwisów społecznościowych, mówi profesor psychologii Wendy Wood. Wyrobione zwyczaje użytkowników mediów społecznościowych są większym czynnikiem napędowym dla fake newsów niż indywidualne cechy każdego użytkownika. Co prawda z wcześniejszych badań wiemy, że niektórzy ludzie nie przetwarzają informacji w sposób krytyczny, a inni są motywowani już wcześniej posiadanymi poglądami, co również wpływa na ich możliwość rozpoznania fałszywych informacji. Jednak wykazaliśmy, że struktura nagrody w mediach społecznościowych odgrywa większą rolę w rozprzestrzenianiu fake newsów niż te cechy osobnicze, dodaje Gizem Ceylan, która stała na czele grupy badawczej. W badaniach wzięło udział 2476 użytkowników Facebooka w wieku od 18 do 89 lat. Ich zadaniem było m.in. wypełnienie ankiety bazującej na procesie podejmowania decyzji. Zajmowało to około 7 minut. Naukowcy ze zdumieniem zauważyli, że sam sposób, w jaki osoby te używały mediów społecznościowych mógł 2-, a nawet 3-krotnie, zwiększać liczbę rozprzestrzenianych przez nich fake newsów. Sposób używania platformy miał silniejszy wpływ na rozpowszechnianie nieprawdziwych informacji niż ich poglądy polityczne czy brak krytycznego podejścia. Okazało się, że osoby, które często używały platformy społecznościowej rozsiewały 6-krotnie więcej fake newsów niż osoby rzadko jej używające oraz nowi użytkownicy. Takie zachowania są wzmacniane przez algorytmy, które – na podstawie zaangażowania użytkownika – nadają priorytet kolejnym treściom, jakie mu podsuwają. Naukowcy przeprowadzili też eksperyment, w ramach którego sprawdzali, czy zmiana systemu nagród w mediach społecznościowych mogłaby doprowadzić do spadku popularności fake newsów. Okazało się, że gdy użytkownicy byli nagradzani za udostępnianie prawdziwych informacji a nie informacji najpopularniejszych – jak to ma miejsce obecnie – liczba rozpowszechnianych prawdziwych informacji zwiększyła się dwukrotnie. Z badań wynika zatem, że nawet wyrobiony odruch dalszego przekazywania informacji nie musi oznaczać, że przekazywane będą fake newsy. System nagrody na mediach społecznościowych można zbudować tak, by promował on informacje prawdziwe, a nie te najbardziej popularne, czyli najbardziej sensacyjne. Stworzenie takiego systemu to najlepszy sposób na powstrzymanie rozprzestrzeniania się fake newsów. Wyniki badań zostały opublikowane na łamach PNAS. « powrót do artykułu
  14. Międzynarodowy zespół astronomów poinformował o odkryciu jednych z najgorętszych gwiazd we wszechświecie. Temperatura powierzchni każdej z 8 gwiazd wynosi ponad 100 000 stopni Celsjusza. Są więc one znacznie gorętsze niż Słońce. Autorzy badań przeanalizowali dane pochodzące z Southern African Large Telescope (SALT). Ten największy na Półkuli Południowej teleskop optyczny posiada heksagonalne zwierciadło o wymiarach 10x11 metrów. Naukowcy przeprowadzili przegląd danych pod kątem bogatych w hel karłów i odkryli niezwykle gorące białe karły oraz gwiazdy, które się wkrótce nimi staną. Temperatura powierzchni najbardziej gorącego z nich wynosi aż 180 000 stopni Celsjusza. Dla porównania, temperatura powierzchni Słońca to „zaledwie” 5500 stopni Celsjusza. Jedna ze zidentyfikowanych gwiazd znajduje się w centrum odkrytej właśnie mgławicy o średnicy 1 roku świetlnego. Dwie inne to gwiazdy zmienne. Wszystkie z gorących gwiazd znajdują sie na zaawansowanych etapach życia i zbliżają do końca etapu białch karłów. Ze względu na niezwykle wysoką temperaturę gwiazdy te są ponadstukrotnie jaśniejsze od Słońca, co jest niezwykłą cechą jak na białe karły. Białe karły to niewielkie gwiazdy, rozmiarów Ziemi, ale o olbrzymiej masie, porównywalnej z masą Słońca. To najbardziej gęste z gwiazd wciaż zawierających normalną materię. Z kolei gwiazdy, które mają stać się białymi karłami są od nich kilkukrotnie większe, szybko się kurczą i w ciągu kilku tysięcy lat zmienią się w białe karły. Gwiazdy o temperaturze powierzchni 100 000 stopni Celsjusza lub więcej są niezwykle rzadkie. Byliśmy bardzo zdziwieni, gdyż znaleźliśmy ich aż tak wiele. Nasze odkrycie pomoże w zrozumieniu ostatnich etapów ewolucji gwiazd, mówi Simon Jeffery z Armagh Observatory and Planetarium, który stał na czele grupy badawczej. « powrót do artykułu
  15. Telefon komórkowy to nieodłączny kompan niemalże każdego. Decydujemy się na marki i modele, które cieszą się dobrą opinią użytkowników. Oprócz wysyłania wiadomości oraz rozmów telefonicznych smartfon posiada liczne funkcje, które często przekonują nas do zakupu. O wyborze decyduje procesor, ekran dynami amoled czy czytnik kart pamięci microSD. Marki prześcigają się nowych funkcjach i udogodnieniach. Telefony Samsung są bardzo częstym wyborem Polaków. Z czego to wynika? Dlaczego Samsung Galaxy to popularny model? Na te pytania odpowie poniższy artykuł.  Smartfony Samsung- z czego wynika ich popularność? Smartfony Samsung cieszą się dużą popularnością zarówno wśród najmłodszych użytkowników, jak i tych starszych. W swojej ofercie Samsung proponuje modele na każdą kieszeń. Modele koreańskiej marki są bardzo wytrzymałe, a co za tym idzie służą długie lata. Smartfony Samsung działają na systemie android, który jest bardzo intyicyjny i prosty w obsłudze. Telefony posiadają aparat przedni, aparat tylny, odbiornik GPS oraz głośniki stereo.  Większość modeli marki Samsung zaopatrzona jest w udogodnienia, które przekonują klientów do zakupu. Smartfony nowszej generacji posiadają między innymi czytnik linii papilarnych. Zwiększa to poczucie bezpieczeństwa w przypadku trafienia smartfona w niepowołane ręce. Dużym ułatwieniem jest obecność dual sim (micro sim), co z pewnością przekona posiadaczy dwóch numerów telefonu. Modele są zaopatrzone w czujnik zbliżeniowy, dzięki czemu podczas rozmowy telefonicznej nie ma ryzyka naciśnięcia klawiszy, a co za tym idzie przerwania połączenia. Pamięć wewnętrzna w modelach z serii Galaxy pozwala na płynne korzystanie ze smartfona. Na działanie telefonów bez przeszkód pozwalają procesory Snapdragon oraz MediaTek. Samsung zaopatruje telefony w czipy własnej produkcji o nazwie Exynos. Autorskie chipsety zwiększają wydajność produktów, a co za tym idzie usprawniają działanie telefonów. Szeroka gama produktów Samsung pozwala na dostosowanie modelu do swoich potrzeb.  Samsung Galaxy - który model wybrać?  Telefony Samsung Galaxy to modele, którym zaufało wielu użytkowników. Jednym z modeli, które sprawdza się dla osób pracujących za pomocą smarfona jest model Galaxy Note. Duża przekątna ekranu pozwala bez przeszkód pisać nawet długie teksty. Smartfony docenią także osoby przeglądające sieć oraz oglądające filmy przy pomocy smartfona. Miłośnicy nowoczesnych, futurystycznych designów z pewnością docenią model Galaxy Fold. Smartfony są zaopatrzone w zestaw kamer, który z powodzeniem zastąpi najlepszy aparat fotograficzny. Częstotliwość odświeżania ekranu na poziomie 120 Hz gwarantuje szybkość i płynność pracy systemu. Samsung Galaxy Xcover to rozwiązanie dla miłośników mniejszych modeli, przy jednoczesnym zachowaniu rozdzielczości HD+. Dużą popularnością i zaufaniem klientów cieszy się Samsung Galaxy S22 Ultra. Model został okrzyknięty hitem 2022 roku z wielu względów. Jednym z nich było zastosowanie rysika, zaczerpniętego z modeli Note. Największa pojemność baterii oraz zastosowanie szkła Gorilla Glass przekonało wielu miłośników funkcjonalności i bezpieczeństwa.  Już w lutym Samsung odkrywa swoje kolejne karty. Niesamowita jakość produktów marki Samsung daje gwarancję, że nowy model przypadnie do gustu miłośnikom technicznych nowinek. Na: https://www.mediaexpert.pl/lp,samsung-premiera trwa wielkie odliczanie do prezentacji nowego modelu Samsunga Galaxy. Czym może nas zaskoczyć? Kwestia ta rozwiąże się już niebawem. Odwiedź stronę i dowiedz się więcej. « powrót do artykułu
  16. Okna dachowe to nie tylko rozwiązanie bardzo praktyczne, ale również efektowne i ekologiczne. Sprawdź nasze rady i dowiedz się, jak wybrać odpowiednie okna dachowe i dlaczego warto zdecydować się na takie rozwiązanie! Jak okna dachowe wpływają na doświetlenie poddasza? Popularne sposoby otwierania okien dachowych Z jakiego materiału najczęściej powstają okna dachowe? Otwieranie dolne, czy górne? Jakie okna dachowe są uznawane za energooszczędne? Kluczowe zalety okien dachowych Wiele możliwości aranżacji Bezpieczeństwo i ochrona przed włamaniem Uniwersalne Ułatwiają kontrolowanie dachu Okna dachowe montowane są na połaci dachu. Z tego względu są one często nazywane oknami połaciowymi. Jeśli jesteś posiadaczem domu lub mieszkania na poddaszu, rozważ ich montaż. Jest to rozwiązanie o wielu zaletach, które znacząco poprawiają komfort codziennego funkcjonowania na piętrze. Jak okna dachowe wpływają na doświetlenie poddasza? Okna dachowe to rozwiązanie, które odpowiada przede wszystkim za maksymalne doświetlenie poddasza. Ze względu na klimat panujący w Polsce, a także ilość czasu spędzanego w pomieszczeniach zamkniętych, tak istotną kwestią jest zadbanie o odpowiednią ilość światła słonecznego. W przypadku mieszkań na poddaszu, okna połaciowe są najbardziej optymalnym rozwiązaniem. Pozwalają wpuścić do wnętrza największą ilość naturalnego światła, zwłaszcza gdy wybrane zostaną modele o dużej powierzchni. Jeśli jesteś zainteresowany montażem okien dachowych, zapoznaj się z ofertą dostępną na: https://renowa24.pl/pol_m_okna-dachowe_okna-dachowe-FAKRO-3975.html Popularne sposoby otwierania okien dachowych Okna dachowe dostępne obecnie na rynku występują w kilku wariantach, różniących się między sobą przede wszystkim sposobem otwierania. Najczęściej można spotkać modele obrotowe, uchylno-obrotowe, balkonowe oraz wersje o podwyższonej osi obrotu. W zależności od wielkości pomieszczenia, rodzaju dachu oraz osobistych preferencji, należy wybrać wersję najlepiej dopasowaną do konkretnego przypadku. Dzięki temu możliwe będzie uzyskanie wersji optymalnej i najbardziej komfortowej. Z  jakiego materiału najczęściej powstają okna dachowe? Okna dachowe są najczęściej produkowane z PVC, aluminium oraz drewna. W zależności od preferencji oraz właściwości każdego z nich można wybrać wersję odpowiednią dla danego domu. Okna drewniane występują w wersji malowanej lakierem akrylowym, ekologicznym oraz poliuretanowym. Najbardziej odporny na uszkodzenia i wilgoć, a zarazem zalecany do kuchni oraz łazienek jest lakier poliuretanowy. Otwieranie dolne, czy górne? Okna dachowe występują w wersjach otwieranych na górze lub na dole ramy. W zależności od rodzaju pomieszczenia, wysokości, na jakiej umieszczone zostanie okno oraz osobistych preferencji można wybrać każde z rozwiązań. Otwieranie górne pozwala wygodnie przechodzić pod otworzonym oknem, natomiast otwieranie dolne jest uznawane za rozwiązanie bardzo optymalne, zwłaszcza dla okien montowanych wysoko. Jakie okna dachowe są uznawane za energooszczędne? Okna dachowe uznawane są za rozwiązanie energooszczędne. Występują w wersjach trzy oraz czteroszybowych, dzięki czemu doskonale izolują ciepło wewnątrz budynku. Mogą być z powodzeniem stosowane w domach pasywnych. Warto mieć także na uwadze, że okna dachowe prowadzą do szybkiego nagrzewania się pomieszczeń. Nawet podczas krótkich słonecznych chwil w okresie jesienno-zimowym. Kluczowe zalety okien dachowych Okna dachowe to rozwiązanie nieuniknione w wielu sytuacjach, lecz przede wszystkim wybór o szeregu zalet. Które z nich są kluczowe? Wiele możliwości aranżacji Okna dachowe to przede wszystkim baza dla wielu klimatycznych aranżacji. Klasyczne rozwiązanie łączy w sobie urok minionych lat, jak i pełną nowoczesność. Dodatkowo pozwala nawet z ciemnego pomieszczenia stworzyć jasny oraz słoneczny pokój. Bezpieczeństwo i ochrona przed włamaniem Okna dachowe są jednym z najbardziej bezpiecznych rozwiązań dostępnych obecnie na rynku. Złodziej prawdopodobnie nie wybierze okna dachowego w sytuacji, gdy będzie chciał włamać się do budynku. Pomieszczenia na poddaszu wyposażone w okna dachowe są najlepiej zabezpieczonymi miejscami w całym domu. Uniwersalne Wiele wersji okien dachowych jest produkowanych w bardzo uniwersalny sposób. Mogą być montowane w zasadzie na każdym dachu, ponieważ ich rozpiętość wynosi od 15 do 90 stopni. Ułatwiają kontrolowanie dachu Okna dachowe są również bardzo wygodnym sposobem nieustannego kontrolowania dachu. Zarówno pod względem technicznej kondycji wykończenia, jak i np. stanu rynien. W przypadku domów niewyposażonych w okna dachowe konieczne jest regularne korzystanie z drabiny i kontrolowanie pokrycia. Mając dobrze dobrane okna dachowe, nie ma takiej konieczności. Okna dachowe są ciekawym, bardzo praktycznym rozwiązaniem. Jeśli posiadasz dom lub mieszkanie z poddaszem, warto zdecydować się na nowoczesne, energooszczędne okno dachowe. Przede wszystkim zadba ono o odpowiednią ilość światła słonecznego. « powrót do artykułu
  17. Norweskie Muzeum Historii informuje o odkryciu najstarszego kamienia runicznego. Jesienią 2021 roku archeolodzy z Muzeum badali cmentarzysko w pobliżu Tyrifjorden niedaleko Oslo. W jednym z grobów trafili na kamień runiczny, a spalone kości i węgiel drzewny pozwoliły na przeprowadzenie datowania. Okazało się, że to najstarszy znany zabytek tego typu. Runy zostały wyryte na kamieniu pomiędzy początkiem naszej ery a rokiem 250. Inskrypcja może mieć nawet 2000 lat, nic zatem dziwnego, że cieszy się ogromnym zainteresowaniem specjalistów. Od miejsca znalezienia niezwykły zabytek został nazwany „kamieniem ze Svingerud”. Runiczny napis został wykonany na piaskowcu o wymiarach 31x32 cm, a jego autor posługiwał się wczesnym językiem nordyckim, który jest protoplastą języków nordyckich współczesnej Skandynawii. Badający zabytek specjaliści zauważyli, że wyróżnia się tam osiem run, układających się w napis „idiberug”. Nie są jednak zgodni, co do interpretacji. Czy autor napisu wykonywał go „dla Idibery”, chciał wyrzeźbić nazwę lub imię „Idibergu” czy też chodziło o nazwisko rodowe „Idiberung”. Wiemy, że zmieniał się zarówno sposób pisania run, jak i zachodziły znaczne zmiany w samym języku. Dlatego też interpretacja najstarszego ze znanych napisów runicznych nie jest łatwa. Eksperci zwracają uwagę, że na kamieniu widzimy kilka typów inskrypcji. Niektóre linie są uporządkowane, tworząc siatkę, znajdziemy tam też niewielkie zygzaki i inne elementy. Nie wszystkie znaki mają sens, niektóre wyglądają tak, jakby się ktoś bawił pismem lub go próbował. Nie można wykluczyć, że autor napisu dopiero uczył się wycinać runy. Runy to najstarsza forma pisma znana na terenie Norwegii. Wiemy, że były używane od początku naszej ery aż do średniowiecza. Alfabet runiczny zwany jest fuþarkiem. Jego nazwa pochodzi od sześciu pierwszych run. Na kamieniu z Svingerud widzimy inskrypcję z trzema pierwszymi runami: ᚠ (f), ᚢ (u) and ᚦ (th). Niektóre z run przypominają litery alfabetu łacińskiego, ale oznaczają inne dźwięki. Być może pismo runiczne było w jakimś stopniu inspirowane łaciną, ale nie znamy jego początków. Najstarszy znany kamień runiczny można będzie oglądać od 21 stycznia do 26 lutego w Muzeum Historii w Oslo. « powrót do artykułu
  18. Dziesiątego stycznia na Wydziale Historii Uniwersytetu im. Adama Mickiewicza w Poznaniu (UAM) pracę doktorską obronił 83-letni Ignacy Skrzypek, archeolog z wykształcenia i zamiłowania. To najstarszy doktorant w historii Wydziału. Pan Ignacy obronił pracę doktorską pt. „Dzieje muzealnictwa na Pomorzu Zachodnim do roku 1945”. Przez wiele lat był kierownikiem Działu Archeologii Muzeum w Koszalinie. W galerii na stronie tej instytucji nadal można zresztą zobaczyć jego zdjęcie z wykopalisk. Z wielką radością przyjęliśmy wiadomość o tym, że koszaliński archeolog Ignacy Skrzypek obronił właśnie doktorat! Pan Ignacy (przez przyjaciół zwany Wojtkiem) przez całe swoje zawodowe życie związany był - poniekąd nadal jest - z naszym Muzeum, w którym przez wiele lat kierował Działem Archeologii. Rozprawa doktorska dotyczyła jednak jego drugiej naukowej pasji - [regionalistyki] i dziejów pomorskiego muzealnictwa - napisano na profilu Muzeum na Facebooku. Jak podkreślono w komunikacie UAM, Skrzypek jest cenioną postacią zarówno w środowisku badaczy dziejów Pomorza Zachodniego, jak i tamtejszych muzealników. W bazie BazHum można się zapoznać z jego pracami, w tym z artykułem z 1994 roku pt. „Powstawanie zbiorów muzealnych na Pomorzu” [PDF]. Obronie przewodniczył dr hab. Przemysław Matusik, prof. UAM (jego główne zainteresowania badawcze obejmują m.in. historię XIX w.). « powrót do artykułu
  19. Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów. Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie. Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury. Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów. « powrót do artykułu
  20. Google ujawniło swoją pilnie strzeżoną tajemnicę. Koncern, jako pierwszy dostawca chmury obliczeniowej i – prawdopodobnie – pierwszy wielki właściciel centrów bazodanowych, zdradził ile wody do chłodzenia zużywają jego centra obliczeniowe. Dotychczas szczegóły dotyczące zużycia wody były traktowane jak tajemnica handlowa. Firma poinformowała właśnie, że w ubiegłym roku jej centra bazodanowe na całym świecie zużyły 16,3 miliarda litrów wody. Czy to dużo czy mało? Google wyjaśnia, że to tyle, ile zużywanych jest rocznie na utrzymanie 29 pól golfowych na południowym zachodzie USA. To też tyle, ile wynosi roczne domowe zużycie 446 000 Polaków. Najwięcej, bo 3 miliardy litrów rocznie zużywa centrum bazodanowe w Council Bluffs w stanie Iowa. Na drugim miejscu, ze zużyciem wynoszącym 2,5 miliarda litrów, znajduje się centrum w Mayes County w Oklahomie. Firma zapowiada, że więcej szczegółów na temat zużycia wody przez jej poszczególne centra bazodanowe na świecie zdradzi w 2023 Environmental Report i kolejnych dorocznych podsumowaniach. Wcześniej Google nie podawało informacji dotyczących poszczególnych centrów, obawiając się zdradzenia w ten sposób ich mocy obliczeniowej. Od kiedy jednak zdywersyfikowaliśmy nasze portfolio odnośnie lokalizacji i technologii chłodzenia, zużycie wody w konkretnym miejscu jest w mniejszym stopniu powiązane z mocą obliczeniową, mówi Ben Townsend, odpowiedzialny w Google'u za infrastrukturę i strategię zarządzania wodą. Trudno się jednak oprzeć wrażeniu, że Google'a do zmiany strategii zmusił spór pomiędzy gazetą The Oregonian a miastem The Dalles. Dziennikarze chcieli wiedzieć, ile wody zużywają lokalne centra bazodanowe Google'a. Miasto odmówiło, zasłaniając się tajemnicą handlową. Gazeta zwróciła się więc do jednego z prokuratorów okręgowych, który po rozważeniu sprawy stanął po jej stronie i nakazał ujawnienie danych. Miasto, któremu Google obiecało pokrycie kosztów obsługi prawnej, odwołało się od tej decyzji do sądu. Później jednak koncern zmienił zdanie i poprosił władze miasta o zawarcie ugody z gazetą. Po roku przepychanek lokalni mieszkańcy dowiedzieli się, że Google odpowiada za aż 25% zużycia wody w mieście. Na podstawie dotychczas ujawnionych przez Google'a danych eksperci obliczają, że efektywność zużycia wody w centrach bazodanowych firmy wynosi 1,1 litra na kilowatogodzinę zużytej energii. To znacznie mniej niż średnia dla całego amerykańskiego przemysłu wynosząca 1,8 l/kWh. « powrót do artykułu
  21. Rdzeniak to najczęstszy, a przy tym wyjątkowo złośliwy, nowotwór ośrodkowego układu nerwowego u dzieci. Mniej niż 45% pacjentów żyje dłużej niż 5 lat od zdiagnozowania tej choroby. Naukowcy z University of Colorado oraz Szpitala Uniwersyteckiego w Düsseldorfie odkryli właśnie kombinację leków, której zastosowanie może poprawić prognozy u dzieci, u których rozwój rdzeniaka związany jest z większą liczbą kopii onkogenu MYC, co pogarsza prognozy przeżycia. W guzach tego nowotworu liczba kopii MYS jest zwiększona, przez co rośnie ryzyko nawrotów. Ponadto jest to też związane z większym ryzykiem rozprzestrzeniania się nowotworu w mózgu i wzdłuż rdzenia kręgowego, mówi profesor Siddahartha Mitra z Kolorado. Szukaliśmy lepszych opcji leczenia tych dzieci, dodaje uczony. Zespół Mitry odkrył, że jednoczesne zastosowanie dwóch leków, które już przeszły I fazę testów klinicznych pod kątem leczenia innych guzów litych powoduje, że rdzeniak jest bardziej podatny na leczenie. Dzięki wykorzystaniu leku tacedinaline naukowcy zauważyli, że MYC nie tylko wspomaga rozwój nowotworu, ale ułatwia mu też ukrycie się przed układem odpornościowym. Zastosowanie tacedynaliny powoduje zaś, że guz staje się lepiej widoczny dla komórek odpornościowych. Drugim z zastosowanych leków było zaś przeciwciało monoklonalne anty-CD47. Blokuje ono antygen CD47, który znajduje się na powierzchni komórki nowotworowej i jest dla makrofagów sygnałem, by nie atakowały tej komórki. Dzięki połączeniu tacedinaline i anty-CD47, guz nowotworowy stał się wysoce apetyczny dla makrofagów. W ten sposób można zachęcić układ odpornościowy, by stał się „medycznym PacManem” pożerającym komórki nowotworowe. Tradycyjne leki przeciwnowotworowe dla dorosłych nie działają dobrze u dzieci, gdyż dzieci szybko się rozwijają i ich komórki wciąż ulegają szybkim podziałom. Zaproponowana przez nas kombinacja leków może dać pacjentom cierpiącym na rdzeniaka lepsze szanse na przeżycie, stwierdza Mitra. Kolejnym krokiem będzie rozpoczęcie badań klinicznych mających na celu określenie krótko- i długoterminowych skutków takiego leczenia. « powrót do artykułu
  22. Eric Finkelstein, 34-letni nowojorczyk, pobił rekord Guinnessa, jedząc w największej liczbie restauracji z gwiazdką Michelina w ciągu jednego dnia. Udało mu się skosztować potraw z 18 takich restauracji. Najpierw jednak poświęcił aż 14 miesięcy na zaplanowanie przedsięwzięcia i jak sam podkreśla, nie chodziło wyłącznie o rezerwacje. Mieszkając przez wiele lat w Nowym Jorku, Eric prawie nigdy nie stołował się w restauracjach. Gdy podczas pandemii czasowo wyprowadził się z Wielkiego Jabłka, zaczął doceniać to, co w ten sposób tracił. Gdy w 2021 r. wrócił, sporządził listę miejsc, w których chciałby zjeść. Dołączył także do online'owej grupy, gdzie po raz pierwszy przeczytał o wyzwaniu. Choć dotąd Finkelstein miał na koncie rekordy w zupełnie innej dziedzinie - oba wiązały się z tenisem stołowym - postanowił spróbować swoich sił... Ambitny nowojorczyk skontaktował się z ponad 80 restauracjami. Odpowiedzi dostał tylko z 10, przy czym, jak się okazało, w najnowszym przewodniku Michelina 4 z nich straciły swoją gwiazdkę (co gorsza, Eric dowiedział się o tym 20 dni przed próbą pobicia rekordu). Ostatecznie udało się zdobyć kolejne rezerwacje w restauracjach, którym podobał się pomysł Finkelsteina. Dwudziestego szóstego października ubiegłego roku Eric zaczął swój rajd po najlepszych nowojorskich restauracjach od sałatki z grillowanego awokado, a skończył na chawanmushi. Na dania wydał 494 dolary (bez podatku i napiwków). Szacuje, że w tym dniu spożył ok. 5 tys. kalorii. Zgodnie z zasadami, pomiędzy restauracjami Eric mógł się przemieszczać wyłącznie pieszo lub środkami komunikacji miejskiej. Trzydziestoczterolatek wziął to pod uwagę, planując trasę i godziny rezerwacji. Udało się i w ciągu 11 godzin odwiedził 18 restauracji z gwiazdką ze swojej listy. Jego rekord został oficjalnie uznany pod koniec grudnia. W wywiadzie udzielonym CNN-owi Eric powiedział, że po odwiedzeniu 2/3 restauracji zaczął się obawiać, czy da radę zjeść więcej. Następnego dnia właściwie pościłem - podsumował. « powrót do artykułu
  23. Astronomowie z Indii i Kanady zarejestrowali emisję radiową w paśmie 21 cm pochodzącą z wyjątkowo odległej galaktyki. Ich osiągnięcie otwiera drogę do lepszego poznania wszechświata, szczególnie jego odległych części. Daje ono np. nadzieję na znalezienie odpowiedzi na pytanie, w jaki sposób w odległych galaktykach powstają gwiazdy. Galaktyki emitują różne rodzaje sygnałów radiowych. Dotychczas mogliśmy rejestrować ten konkretny sygnał tylko z bliższych galaktyk, co ograniczało naszą wiedzę, mówi Arnab Chakraborty, doktorant na kanadyjskim McGill University. Emisja w paśmie 21 centymetrów pochodzi z atomów wodoru, który szczególnie interesuje naukowców. Atomowy wodór to podstawowy budulec gwiazd, ma też olbrzymi wpływ na ewolucję galaktyk. Zatem, by lepiej zrozumieć ewolucję wszechświata, naukowcy chcą zrozumieć ewolucję gazu w różnych punktach jego historii. A dzięki indyjskiemu Giant Metrewave Radio Telescope oraz wykorzystaniu techniki soczewkowania grawitacyjnego udało się zarejestrować emisję z atomów wodoru znajdujących się w bardzo odległej galaktyce. Dotychczas najbardziej odległą galaktyką, dla której zarejestrowano emisję w paśmie 21 cm, był obiekt oddalony od nas o 4,1 miliarda lat. Przesunięcie ku czerwieni tej galaktyki wynosiło z=0.376. Przesunięcie ku czerwieni to zjawisko polegające na wydłużaniu się fali promieniowania elektromagnetycznego w miarę oddalania się źródła emisji od obserwatora. W przypadku światła widzialnego falami o największej długości są fale barwy czerwonej, stąd nazwa zjawiska. Kanadyjsko-indyjski zespół zarejestrował teraz emisję z galaktyki, dla której z wynosi 1.29, co oznacza, że jest ona oddalona od nas o 8,8 miliarda lat świetlnych. Przechwycony sygnał został z niej wyemitowany, gdy wszechświat liczył sobie zaledwie 4,9 miliarda lat. Ze względu na gigantyczną odległość, do chwili, gdy przechwyciliśmy sygnał, emisja z pasma 21 cm przesunęła się do pasma 48 cm, mówi Chakraborty. Zarejestrowanie tak słabego sygnału z tak wielkiej odległości było możliwe dzięki zjawisku soczewkowania grawitacyjnego, w wyniku którego fale emitowane ze źródła są zaginane jak w soczewce przez obecność dużej masy – na przykład galaktyki – pomiędzy źródłem a obserwatorem. W tym przypadku soczewkowanie wzmocniło sygnał 30-krotnie, dzięki czemu mogliśmy zajrzeć tak głęboko w przestrzeń kosmiczną, wyjaśnia profesor Nirupam Roy. Badania wykazały, że masa wodoru atomowego w obserwowanej galaktyce jest niemal dwukrotnie większa niż masa gwiazd. Uzyskane wyniki dowodzą, że już za pomocą obecnie dostępnych technologii jesteśmy w stanie coraz bardziej szczegółowo badać coraz odleglejsze obszary wszechświata i śledzić jego ewolucję. « powrót do artykułu
  24. Na specjalnej konferencji prasowej chińscy naukowcy poinformowali o sensacyjnych wynikach wykopalisk w mauzoleum Terakotowej Armii. Prace prowadzono w najważniejszym, 1. sektorze mauzoleum, w którym znajduje się cały pułk armii. Trzecie prowadzone tam wykopaliska rozpoczęły się w 2009 roku i objęły powierzchnię około 430 metrów kwadratowych. W ich trakcie odkryto zawalony tunel prowadzący do sektora, poznano szczegóły organizacji formacji wojskowej, a specjaliści lepiej zrozumieli sam proces powstawania figur. Na obszarze ostatnich wykopalisk znaleziono ponad 200 terakotowych figur ludzi, 16 koni z terakoty, 4 rydwany oraz broń i narzędzia do ich produkcji. Chińscy eksperci mogli dzięki temu lepiej zbadać rodzaje broni oraz sposób jej użycia oraz sposób ustawiania formacji Terakotowej Armii. Wstępnie poznali szczegóły dotyczące stopni wojskowych i ich ustawienia w szyku oraz rolę specjalnych figur. Dzięki nowym odkryciom dowiedzieliśmy się, że figury, po ustawieniu, były dekorowane i dopiero po zakończeniu tych prac wyposażano je w broń. Sensacyjnym znaleziskiem jest odkrycie szczątków zawalonego tunelu. Wskazują one, że ktoś próbował dostać się do mauzoleum przez podkop. Musiał być to ktoś, kto brał udział w budowie Terakotowej Armii, znał zatem strukturę całości. Eksperci sądzą, że mogli być to żołnierze dynastii Qin – Terakotowa Armia stanowi część olbrzymiego kompleksu grobowego pierwszego cesarza Chin z dynastii Qin – którzy poddali się wojskom Xianga Yu i doń przyłączyli. Historycy sądzą, że Xiang Yu – który ostatecznie pokonał Qin – rozkazał tym żołnierzom, by zniszczyli mauzoleum pierwszego cesarza, a istnienie tunelu to dowód, że doszło do takiej próby. « powrót do artykułu
  25. Sieć Badawcza Łukasiewicz, w skład której wchodzą 22 instytuty badawcze w całej Polsce, zaprezentowała na Zamku Królewskim w Warszawie wyposażonego w technologie sztucznej inteligencji awatara Ignacego Łukasiewicza. W ten sposób instytucja uczciła 200. rocznicę urodzin swojego patrona. To pierwsza w historii cyfrowa rekonstrukcja polskiego wynalazcy. We współpracy z polskim studiem Juice naukowcy Łukasiewicza zbudowali obszerną bazę wiedzy dla Ignacego. Zespół animatorów i ekspertów od uczenia maszynowego przez wiele miesięcy pracował nad wizerunkiem, głosem i charakterem powstającej postaci – czytamy w komunikacie Sieci. Awatar jest wyświetlany na ekranie wielkości dorosłego człowieka. Ignacy udziela odpowiedzi w czasie rzeczywistym. W rozmowie z nim można poruszyć wiele różnych tematów i pogawędzić o osiągnięciach naukowych i biznesowych Łukasiewicza, jego życiu prywatnym, historii czy świecie współczesnym. Piotr Dardziński, prezes Sieci Badawczej Łukasiewicz, przypomniał, że polski wynalazca skutecznie połączył naukę z biznesem. Na Podkarpacie przyjeżdżali wysłannicy najbogatszego człowieka na świecie, Johna Rockefellera, by poznać tajniki wydobycia i destylacji ropy. Cieszę się, że to właśnie on jest pierwszym Polakiem, który zyskał drugie, cyfrowe życie - dodał Dardziński. Krzysztof Noworyta z Juice, który kierował zespołem tworzącym awatara, uważa, że byty cyfrowe to nasza przyszłość. Zapewnia, że dzięki zastosowanym technologiom można rozwijać zarówno wiedzę, jak i możliwości interakcji postaci, co daje nam niemal nieograniczone możliwości. Za technologie rozpoznawania mowy odpowiadała zaś firma Virbe. Jej prezes, Krzysztof Wróbel, mówi, że użyte rozwiązania pozwalają na przełożenie każdej wypowiedzi na tekst, który jest następnie przetwarzany na kontekstowe odpowiedzi, jakie słyszy rozmówca Łukasiewicza. Na potrzeby projektu na bazie przetwarzania maszynowego stworzono komponent do rozpoznawania intencji użytkownika. By go zbudować, wytrenowano sieć neuronową, która potrafi rozpoznać 400 tematów rozmowy. Użyto przy tym rozwiązań Closed-Domain Chatbot, dzięki czemu nie ma ryzyka, że wynalazca odpowie w sposób napastliwy, wulgarny czy obraźliwy. Awatar Łukasiewicza będzie na co dzień dostępny w różnych miejscach. Obecnie trwa planowanie trasy jego podróży. « powrót do artykułu
×
×
  • Dodaj nową pozycję...