Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

PIE: statystyczny Polak zużywa rocznie ok. 160 kg opakowań – mniej niż w UE
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jaskinia w Obłazowej na Podhalu to bardzo ważne stanowisko archeologiczne z paleolitu. Prace archeologiczne prowadzone tam są od 1985 roku, a w ich trakcie dokonano odkryć, które całkowicie zmieniły poglądy na prehistorię polskiej części Karpat Zachodnich. Dzięki nim wiemy, że jaskinia była wielokrotnie zamieszkiwana przez neandertalczyków od około 100 do 40 tysięcy lat p.n.e., a przez kolejne tysiąclecia korzystał z niej H. sapiens.
Najbardziej niezwykłym znaleziskiem w jaskini w Obłazowej jest bumerang wykonany z ciosu mamuta. Do czasu jego znalezienia sądzono, że bumerang został wynaleziony przez australijskich Aborygenów. Przedmiot z jaskini w Obłazowej jest niezwykle podobny do bumerangów z Queensland, a badania wykazały, że mógł być używany jako bumerang, który nie powracał po rzucie.
Od dawna uważany jest za jeden z najstarszych, o ile nie najstarszy bumerang na świecie. Z nowych badań wynika zaś, że jest znacznie starszy, niż dotychczas sądzono, a to zmienia pogląd nie tylko na historię samego narzędzia, ale i na zasiedlenie jaskini przez Homo sapiens.
Bumerang został znaleziony w Warstwie VII, a obok odkryto kość ludzkiego palca. Międzynarodowy zespół, w skład którego wchodzili uczeni z Uniwersytetu Jagiellońskiego i naukowcy z Włoch, Kanady, Szwajcarii, Niemiec i Wielkiej Brytanii, datował kość na pomiędzy 34 100 a 33 310 lat przed naszą erą, czyli na okres rozwoju kultury oryniackiej. Datowanie Warstwy VII wykazało zaś, że pochodzi ona z okresu 40 860 a 36 600 lat przed naszą erą. Największą sensacją jest zaś wiek bumerangu. Narzędzie pochodzi najprawdopodobniej z okresu 40 340 a 37 330 lat przed naszą erą.
Potwierdza to przypuszczenia, że bumerang z Podhala może być najstarszym tego typu narzędziem na świecie. Najstarszym zaś drewnianym bumerangiem jest narzędzie znalezione w Australii Południowej i datowane na od 8300 do 7000 lat przed naszą erą.
Źródło: Boomerang and bones: Refining the chronology of the Early Upper Paleolithic at Obłazowa Cave, Poland, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0324911
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów.
Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków.
Dlaczego potrójny iloczyn jest tak ważny?
Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz.
Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility?
Rekordowy stellarator pokonał tokamaki
Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy.
Czytaj:
Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową
Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków
Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty.
Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem
Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni.
Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza.
Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka.
Czym jest fuzja jądrowa
Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.
Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dostęp do internetu jest współcześnie niemalże niezbędny. Wiele codziennych spraw załatwiamy właśnie za pośrednictwem sieci, a do tego coraz więcej urządzeń potrzebuje połączenia internetowego, by w ogóle móc działać. Jak zatem przekłada się to na generalną liczbę zużywanych przez nas GB i jaka oferta może okazać się w tym wszystkim najlepsza – abonament czy internet na kartę bez limitu?
Ile zużywamy internetu? Poziom zużywanego internetu przez określone gospodarstwo domowe wcale nie jest łatwy do obliczenia. Nie ma większego problemu, aby uzyskać dane dotyczące generalnego zużycia GB, ale może być ciężko przyporządkować to do konkretnego domostwa. Wiąże się z tym m.in. kwestia różnych sposobów łączenia się z siecią – bo o ile wiemy, w jakim miejscu pracuje internet stacjonarny, o tyle problemem może być dopasowanie do niego zużywanego przez domowników np. internetu na kartę bez limitu.
Pojawiają się jednak w tym zakresie różnego rodzaju badania, w tym m.in. te publikowane w znanych na światową skalę raportach OpenVault (firma zajmująca się rozwiązaniami z zakresu technologii szerokopasmowej i dostarczająca danych opartych na wzorcach konsumpcji właśnie łączy szerokopasmowych). Jej raporty tworzone są na podstawie wyników pochodzących od milionów klientów, którzy korzystają z internetu szerokopasmowego (głównie pochodzących z USA, choć nie tylko).
Zużywanie internetu w USA Według raportu OpenVault za 3 kwartał 2024 roku, przeciętne gospodarstwo domowe w USA, które miało dostęp do szerokopasmowego internetu, zużywało miesięczne 590,1 GB danych. W porównaniu z analogicznym okresem rok wcześniej, tzn. 3 kwartałem 2023, stanowiło to wzrost o ponad 7%. Co więcej, raport wskazał też, że w badanym przedziale czasowym średnia prędkość pobierania wynosi 564 Mb/s, a wysyłania 31 Mb/s – te wyniki również mówiły o wzrostach.
Ocenione zostały również takie kategorie użytkowników, jak „Super power”, czyli osoby zużywające 2 TB miesięcznie lub więcej, oraz „Extreme Power” – zużywające co najmniej 5 TB miesięczne. Obie te grupy uległy powiększeniu, z czego druga aż o 44% względem roku poprzedniego.
Opisywany tu raport wskazał także na różnice w wykorzystywaniu ilości danych i prędkości internetu w zależności od dochodów gospodarstwa domowego – te o niższych dochodach odnotowują średnio najwolniejsze prędkości (530 Mb/s), zaś te w najwyższym przedziale dochodowym mają najszybsze łącza (średnio 713 Mb/s). Oczywiście zauważono także, że zużycie danych rośnie wraz ze wzrostem wielkości gospodarstwa domowego. Jedno- i dwuosobowe średnio zużywają 606 GB danych miesięcznie lub mniej, a gospodarstwa domowe z czterema lub większą liczbą członków wykorzystują średnio ponad 1 TB danych.
Internet w Europie Jeśli chodzi o Stary Kontynent, u nas zużycie internetu wydaje się na niższym poziomie. Przykładowo raport OpenVault z końcówki 2022 roku wskazał, że w badanym okresie w Stanach Zjednoczonych średnie zużycie danych wynosiło 586.7 GB, zaś w Europie 268.1 GB. Co jednak ciekawe, wskazano, że w tamtym czasie większy rozwój rok do roku zaobserwowano jednak u nas (12,5% vs. 9,4% w USA).
Warto też podkreślić, jakie malują się przed nami perspektywy. Przedstawiony w 2023 roku raport analityków z Arthur D. Little wskazał, że konsumpcja danych szerokopasmowego internetu w europejskich domach wzrośnie z poziomu 225 GB miesięcznie w 2022, nawet do 900 GB w 2030.
Ciekawe predykcje opisała w jednym z artykułów także agencja Reuters. Podano, że w Europie Zachodniej ruch w obszarze danych mobilnych, w tym zapewne także ten związany z internetem na kartę bez limitu, w 2028 roku wzrośnie do 56 GB miesięcznie (dla porównania w 2022 roku wynosił 20 GB). W Europie Środkowo-Wschodniej ma to być zaś 37 GB vs. 14 GB w 2022. Podano także, że według GSMA (Global System for Mobile Communications Association – międzynarodowa organizacja zrzeszająca operatorów sieci komórkowych), w 2022 roku już ponad 460 milionów Europejczyków, czyli 85% populacji, miało dostęp do mobilnego internetu. Oczywiście liczby te ciągle rosną, co wynika m.in. z rosnącej popularności platform streamingowych czy gier online. Nie bez znaczenia na pewno jest też rozwijający się obszar internetu rzeczy (IoT – ang. internet od things).
Internet na kartę bez limitu czy abonament – co wybrać? Opisane wyżej wskaźniki zużywanych danych internetowych w USA oraz Europie mogą być ciekawym punktem odniesienia w momencie decydowania o wyborze telefonu czy internetu samego w sobie. Obecnie dostępnych jest tak wiele ofert, że naprawdę może okazać się to trudne. Wskazówki jednak pokazują, że nieograniczony dostęp do sieci jest podstawą, a łącza szerokopasmowe – w tym światłowód, jak i sieć 5G – będą się tylko rozwijać.
Niezależnie zatem, czy zdecydujesz się na abonament, prepaid, światłowód czy mobilny internet na kartę – powinien być bez limitu. Obawiasz się, że to niemożliwe? A jednak! Przykładowo w Play każda z tych opcji współpracy może zagwarantować nielimitowane połączenie. By móc w pełni wykorzystywać potencjał nowoczesności!
« powrót do artykułu -
przez KopalniaWiedzy.pl
W Unii Europejskiej transport drogowy jest jedynym ważnym sektorem działalności gospodarczej, w którym emisja CO2 wciąż rośnie od 1990 roku. Niewykluczone jednak, że właśnie jesteśmy świadkami zmiany tego trendu. Międzynarodowa Rada Czystego Transportu (International Council on Clean Transportation, ICCT), niedochodowa organizacja doradczo-badawcza, opublikowała nową edycję swojego raportu Vision 2050, w którym analizuje globalne polityki dotyczące czystego transportu oraz rozwoju rynkowego.
Analizie poddawane są trendy w sprzedaży samochodów, przepisy prawne, rozwiązania polityczne, zużycie energii, analizowane możliwe scenariusze rozwoju wydarzeń do roku 2050. W tegorocznym raporcie szczególnie skupiono się na rozwiązaniach politycznych wprowadzonych w ciągu ostatnich 3 lat. Analitycy ICCT przewidują, że w bieżącym roku emisja z transportu drogowego sięgnie na terenie UE niemal 800 milionów ton dwutlenku węgla i będzie to maksymalna wartość historyczna. Od przyszłego roku emisja z pojazdów będzie spadała i około roku 2035 zmniejszy się o około 25% w porównaniu z rokiem bieżącym.
Z naszej analizy wynika, że europejski sektor transportowy znajduje się w historycznym punkcie przegięcia. Dekadę po podpisaniu Porozumienia Paryskiego w Europie dochodzi do zmiany i przejścia na pojazdy elektryczne, które są bardziej efektywne energetycznie i charakteryzują się znacznie mniejszą emisją. Jednak nasza analiza zawiera też ostrzeżenie, odejście od obecnych celów redukcji CO i złagodzenie wymagań wobec producentów samochodów może spowodować, że do spadku emisji nie dojdzie, stwierdził Felipe Rodriguez, zastępca dyrektora ICCT na Europę.
Analitycy ICCT porównali stan prawny obowiązujący w Unii Europejskiej w 2021 roku z przepisami wprowadzonymi w ciągu kolejnych 3 lat. Stwierdzili, że nowe przepisy i standardy emisji dla ciężarówek w znaczący sposób zbliżają kraje UE do osiągnięcia celów Porozumienia Paryskiego. Podobny pozytywny trend widać też w skali globalnej. Być może i w skali całego globu konsumpcja paliw płynnych i emisja z transportu osiągną szczyt w 2025 roku, a później zaczną spadać. Dużo bowiem wskazuje na to, że zmniejszenie emisji z transportu w Chinach, UE i USA będzie większe, niż jej zwiększenie na pozostałych obszarach planety.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.