
Chiny dominują na 3, a USA na 7 obszarach nauki. Raport wspomina też Polskę
dodany przez
KopalniaWiedzy.pl, w Ciekawostki
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Jaskinia w Obłazowej na Podhalu to bardzo ważne stanowisko archeologiczne z paleolitu. Prace archeologiczne prowadzone tam są od 1985 roku, a w ich trakcie dokonano odkryć, które całkowicie zmieniły poglądy na prehistorię polskiej części Karpat Zachodnich. Dzięki nim wiemy, że jaskinia była wielokrotnie zamieszkiwana przez neandertalczyków od około 100 do 40 tysięcy lat p.n.e., a przez kolejne tysiąclecia korzystał z niej H. sapiens.
Najbardziej niezwykłym znaleziskiem w jaskini w Obłazowej jest bumerang wykonany z ciosu mamuta. Do czasu jego znalezienia sądzono, że bumerang został wynaleziony przez australijskich Aborygenów. Przedmiot z jaskini w Obłazowej jest niezwykle podobny do bumerangów z Queensland, a badania wykazały, że mógł być używany jako bumerang, który nie powracał po rzucie.
Od dawna uważany jest za jeden z najstarszych, o ile nie najstarszy bumerang na świecie. Z nowych badań wynika zaś, że jest znacznie starszy, niż dotychczas sądzono, a to zmienia pogląd nie tylko na historię samego narzędzia, ale i na zasiedlenie jaskini przez Homo sapiens.
Bumerang został znaleziony w Warstwie VII, a obok odkryto kość ludzkiego palca. Międzynarodowy zespół, w skład którego wchodzili uczeni z Uniwersytetu Jagiellońskiego i naukowcy z Włoch, Kanady, Szwajcarii, Niemiec i Wielkiej Brytanii, datował kość na pomiędzy 34 100 a 33 310 lat przed naszą erą, czyli na okres rozwoju kultury oryniackiej. Datowanie Warstwy VII wykazało zaś, że pochodzi ona z okresu 40 860 a 36 600 lat przed naszą erą. Największą sensacją jest zaś wiek bumerangu. Narzędzie pochodzi najprawdopodobniej z okresu 40 340 a 37 330 lat przed naszą erą.
Potwierdza to przypuszczenia, że bumerang z Podhala może być najstarszym tego typu narzędziem na świecie. Najstarszym zaś drewnianym bumerangiem jest narzędzie znalezione w Australii Południowej i datowane na od 8300 do 7000 lat przed naszą erą.
Źródło: Boomerang and bones: Refining the chronology of the Early Upper Paleolithic at Obłazowa Cave, Poland, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0324911
« powrót do artykułu -
przez KopalniaWiedzy.pl
Widzicie tutaj okładkę pierwszego i najdłużej wydawanego pisma naukowego na świecie. A w nim: ostatnie osiągnięcia w dziedzinie udoskonalania soczewek, pierwsze obserwacje Wielkiej Czerwonej Plamy na Jowiszu, przewidywania ruchów komety, recenzję „Experimental History of Cold” Roberta Boyle'a, raport Boyle'a na temat zdeformowanego cielaka, informacje o pewnej rudzie ołowiu znalezionej w Niemczech, dane o polowaniach na walenie na Bermudach i artykuł poruszający problemy wykorzystania zegarów wahadłowych do wyznaczania położenia statków na morzu.
Pierwszy numer „Philosophical Transactions” ukazał się z inicjatywy i nakładem Henry'ego Oldenburga, pierwszego sekretarza brytyjskiego The Royal Society. Stało się to zaledwie 4,5 roku po powstaniu Royal Society i było to pierwsze na świecie pismo poświęcone wyłącznie nauce.
Jego pełny tytuł, nadany przez Oldenburga, brzmiał „Philosopical Transactions, Giving some Account of the present Undertakings, Studies, and Labours of the Ingenious in many considerable parts of the World”.
Z dokumentu Royal Society, datowanego na 1 marca 1664 roku wg kalendarza juliańskiego (11 marca 1665 kalendarza gregoriańskiego) dowiadujemy się, że Towarzystwo zaleciło, by „Philosophical Transactions były przygotowywane przez pana Oldenburga i wydawane w każdy pierwszy poniedziałek miesiąca o ile wydawca będzie miał wystarczająco dużo materiałów i by każdy numer był zatwierdzany przez Radę Towarzystwa po wcześniejszym jego przejrzeniu przez kilku członków”. Wydaje się, że Oldenburg zawarł z Royal Society umowę, na podstawie której zatrzymywał wszelkie zyski z wydawania pisma.
Pierwszy w historii magazyn naukowy nie przyniósł swojemu twórcy kokosów, zapewniając wpływy ledwie wystarczające na zapłacenie czynszu za dom. Do swojej śmierci w 1677 roku Oldenburg wydał 136 numerów „Philosophical Transactions”. Jak więc łatwo się można przekonać, pismo było wydawane bardzo regularnie, niemal co miesiąc.
Od samego początku Oldenburg postawił na wysoką jakość. W serii listów do Roberta Boyle'a, w których opisywał swój pomysł na wydanie pisma, stwierdzał: „musimy bardzo skrupulatnie odnotowywać osobę oraz czas wszelkich nowych odkryć oraz same odkrycia, by zachować je dla przyszłych pokoleń”. Już sam fakt, że każdy numer pisma miał być przed wydaniem przeglądany przez kilku członków Towarzystwa pokazuje, jaką wagę przywiązywano do jakości i wiarygodności. Z czasem z tego przeglądu zrodził się w latach 30. XIX wieku systematyczny proces recenzencki.
Niedługo po śmierci Oldenburga zdecydowano, że wydawcami „Philosophical Transactions” będą kolejni sekretarze Towarzystwa, którzy mieli wydawać je na własny koszt. Gdy około 1750 roku „Philosophical Transactions” stało się przedmiotem krytyki, The Royal Society szybko odpowiedziało, że nie jest odpowiedzialne za wydawanie pisma. Jednak już w 1752 roku Towarzystwo oficjalnie przejęło pieczę nad pismem. Stwierdzono wówczas, że będzie ono wydawane "do użytku i dla pożytku Towarzystwa", ma być finansowane ze subskrypcji członków Towarzystwa, a wydawaniem zajmie się specjalny komitet.
Pismo przynosiło straty. Roczny koszt wydawania wynosił średnio 300 funtów, a ze sprzedaży uzyskiwano nieco ponad 150 funtów. Sprzedaż postępowała powoli, mijało około 10 lat zanim z danego wydania pozostało do sprzedania mniej niż 100 sztuk pisma.
W XIX wieku sytuacja nie uległa zmianie. Wręcz przeciwnie, koszty znowu rosły, a najpoważniejszym ich źródłem były rysunki umieszczane w piśmie. Ilustracje były nieodłącznym elementem pism naukowych tamtego okresu. Tam, gdzie były potrzebne szczegóły, trzeba było grawerować metalowe płyty, z których robiono odbitki. Łatwiejsze było tworzenie diagramów. Tutaj wykorzystywano wycinanie w drewnie.
Około 1850 roku pismo stało się poważnym obciążeniem dla finansów The Royal Society. Na przykład w 1852 roku pochłonęło ono 1094 funtów, a ze sprzedaży uzyskano jedynie 276 funtów. Wydawano 1000 kopii, z czego 500 otrzymywali członkowie Towarzystwa, a nawet do 150 bezpłatnych kopii rozdawano autorom artykułów. Było więc jasne, że sprzedaż będzie znacznie ograniczona.
W 1887 roku pismo podzielono na serię „A” wyspecjalizowaną w naukach fizycznych i serię „B” specjalizującą się w naukach biologicznych. Pod koniec XIX wieku powołano sześć specjalistycznych komitetów: matematyczny, biologiczny, zoologiczny, fizjologiczny, geologiczny oraz chemiczno-fizyczny, które zajmowały się recenzowaniem artykułów.
W XX wieku koszty wydawania znowu wzrosły. Pierwszy zysk zanotowano w 1932 roku, jednak było to jednostkowe wydarzenia. Dopiero od 1948 roku zaczęto regularnie notować zyski. Stało się to możliwe dzięki temu, że coraz więcej brytyjskich i międzynarodowych instytucji zaczęło subskrybować „Transactions”.
Do początku lat 70. to właśnie subskrypcje instytucjonalne były głównym kanałem sprzedaży. Na przykład w latach 1970-1971 sprzedano 43 760 egzemplarzy „Transactions”, z czego osoby indywidualne nie będące subskrybentami kupiły zaledwie 2070 sztuk. Pierwszy online'owy numer „Transactions” ukazał się w 1997 roku.
W ciągu kilku wieków swojej działalności pismo publikowało artykuły wielu gigantów nauki. Ukazywały się w nim teksty Isaaca Newtona, który wraz z publikacją w 1672 roku artykuł „O nowej teorii światła i kolorów” rozpoczynał karierę naukową. W jednym z wydań z 1677 roku możemy przeczytać artykuł Antona van Leeuwenhoeka, w którym po raz pierwszy szczegółowo opisano wiele różnych bakterii. W „Philosophical Transactions” znajdziemy też 19 artykułów Benjamina Franklina czy raporty Williama Roya na temat pomiarów terenowych w Szkocji, które stały się podstawą do powstania rządowej agencji zajmujące się tworzeniem map Wielkiej Brytanii.
W „Transactions” publikowała też Caroline Hershel, która opisała nową kometę czy Mary Somerville zajmująca się badaniem promieni słonecznych. Znajdziemy tam również artykuł Charlesa Darwina oraz 40 tekstów Michaela Faradaya. Do „Philosophical Transactions” pisali Alan Turing i Stephen Hawking.
„Philosophical Transactions of the Royal Society” ukazuje się do dzisiaj, zarówno online, jak w formie drukowanej, i wciąż należy do ścisłej światowej czołówki pism naukowych.
Jeśli chcielibyście poczytać pierwszy (i kolejne) numer pisma, zajrzyjcie tutaj: https://www.biodiversitylibrary.org/item/183299
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów.
Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków.
Dlaczego potrójny iloczyn jest tak ważny?
Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz.
Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility?
Rekordowy stellarator pokonał tokamaki
Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy.
Czytaj:
Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową
Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków
Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty.
Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem
Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni.
Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza.
Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka.
Czym jest fuzja jądrowa
Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.
Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.
« powrót do artykułu -
przez KopalniaWiedzy.pl
We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.