Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Wizjonerzy mamią nas wizjami komputerów kwantowych od dobrych dwudziestu lat. I pomimo nieustannego postępu w tej dziedzinie, w zasadzie wciąż jedyne osiągnięcia to laboratoryjne przykłady, a największy zbudowany „komputer" składał się z... aż trzech qubitów, czyli kwantowych bitów. Największym problemem, jak się uważa, będzie niezawodność takich konstrukcji i odporność na błędy, trudno bowiem zapanować nad stanem każdego pojedynczego atomu czy elektronu. Jak uważają angielscy i australijscy naukowcy, sprawa niekoniecznie musi być aż tak trudna.

Doktor Sean Barrett z Imperial College London i Thomas Stace z University of Queensland w australijskim Brisbane sugerują dość proste rozwiązanie problemu błędów - korekcję. Korekcja błędów stosowana jest dzięki odpowiednim algorytmom w dzisiejszej elektronice, a wykorzystywana jest zwykle przy korzystaniu z pamięci masowych. Same programy korygujące muszą jednak działać niezawodnie...

Korekcja błędnych danych w komputerze kwantowym musi jednak dotyczyć samego procesu przetwarzania, powinna zatem być jakoś powiązana z samym sposobem działania kwantowego mechanizmu. Taki sposób właśnie zaprojektował zespół pod kierunkiem dra Barreta. To system kontekstowego kodowania danych, który pozwala poprawnie działać algorytmom nawet w przypadku ubytku lub przekłamania 25% qubitów. Polega on na rozmieszczeniu elementów na trójwymiarowej matrycy, podczas odczytu z której brane są pod uwagę również sąsiadujące elementy.

Taki kwantowy komputer byłby, zdaniem angielsko-australijskiego zespołu, znacznie łatwiejszy do skonstruowania. Tym niemniej, to wciąż są na razie prace teoretyczne i do pojawienia się komercyjnych konstrukcji może upłynąć kolejnych dwadzieścia lat.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria.
      Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę.
      Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom.
      Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen.
      Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu.
      Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad.
      Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto.
      To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy.
      Ze szczegółami badań Finów można zapoznać się na łamach Nature.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańscy fizycy ostrzegają, że w przyszłości komputery kwantowe będą musiały być chronione grubą warstwą ołowiu lub... przechowywane głęboko pod ziemią. Są bowiem niezwykle wrażliwe na zewnętrzne zakłócenia, w tym na promieniowanie jonizujące. Promieniowanie to może znacząco skracać czas koherencji kubitów (kwantowych bitów), a to z kolei niekorzystnie wpłynie na możliwość praktycznego wykorzystania technologii kwantowych.
      William Oliver i jego koledzy z Massachusetts Institute of Technology (MIT) oraz Pacific Northwest National Laboratory zmierzyli i modelowali wpływ promieniowania jonizującego na aluminiowe kubity umieszczone na krzemowym podłożu. Podczas swoich eksperymentów naukowcy wykorzystali dwa kubity, które poddano działaniu dobrze znanego źródła promieniowania jonizującego, cienkiego dysku wykonanego z miedzi-64. Naukowcy mierzyli tempo dekoherencji kubitów. Badali też, jak łatwo w wyniku oddziaływania promieniowania w kubitach pojawiają się kwazicząsteczki. Uzyskane w ten sposób informacje połączyli z danymi dotyczącymi promieniowania jonizującego w laboratorium MIT, pochodzącego zarówno z promieniowania kosmicznego jak i z naturalnych izotopów radioaktywnych. W tym przypadku były to głównie izotopy obecne w betonowych ścianach laboratorium.
      Okazało się, że w warunkach panujących w laboratorium górna granica czasu koherencji kubitów wynosi 3–4 milisekund. Po tym czasie następuje dekoherencja, zatem kubity stają się nieprzydatne do przeprowadzania obliczeń.
      Uczeni zweryfikowali uzyskane wyniki za pomocą dodatkowego niezależnego eksperymentu sprawdzając, jak można kubity chronić przed promieniowaniem jonizującym. W tym eksperymencie siedem kubitów – a raczej pojemnik z chłodziwem, w którym je przechowywano – zostało otoczonych 10-centymetrową warstwą ołowiu. Podnosząc i opuszczając osłonę byli w stanie zbadać wpływ promieniowania jonizującego oraz osłony na te same kubity. Potwierdzili, że limit czasu koherencji wynosi około 4 ms. Jednocześnie odkryli, że 10-centymetrowa osłona wydłuża ten czas o około 10%.
      Jednak biorąc pod uwagę fakt, że istnieją silniejsze od promieniowania jonizującego źródła dekoherencji kubitów, Oliver i jego zespół wyliczają, że 10-centymetrowa osłona wydłuża czas koherencji zaledwie o 0,2%. To niewiele, ale zdaniem naukowców stosowanie takich osłon będzie koniecznością. Zmniejszenie lub pozbycie się wpływu promieniowania jonizującego będzie krytycznym elementem praktycznego wykorzystania nadprzewodzących komputerów kwantowych, napisali na łamach Nature.
      Jedną z opcji, przynajmniej na początku rozwoju informatyki kwantowej, mogłoby być umieszczenie komputerów pod ziemią. To jednak wymaga dalszych badań. Oliver mówi, że najlepszym rozwiązaniem będzie stworzenie kubitów, które są mniej podatne na zakłócenia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W marcu przedstawiciele firmy Honeywell zapowiadali, że w ciągu trzech miesięcy zaprezentują najpotężniejszy komputer kwantowy na świecie. Słowa dotrzymali. Firma poinfomrmowała właśnie, że jej system uzyskał największą wartość „kwantowej objętości”.
      Miara Quantum Volume (QV) została opracowana przez IBM-a. Trzeba jednak podkreślić, że nie jest powszechnie akceptowaną skalą pomiaru wydajności komputerów kwantowych. Nie jest też jasne, jak ma się ona do „kwantowej supremacji” ogłoszonej przez Google'a w ubiegłym roku. Przypomnijmy, że Google ogłosił ją twierdząc, że jego komputer wykonał w ciągu 200 sekund obliczenia, na które klasyczny superkomputer potrzebowałby 10 000 lat, zatem nie wykona ich w rozsądnym czasie. Przedstawiciele IBM-a poinformowali, że to naciągane stwierdzenia, gdyż klasyczny superkomputer poradziłby sobie z nimi w 2,5 doby.
      QV ma być obiektywnym, niezależnym od użytego sprzętu czy rozwiązań technologicznych, sposobem pomiary wydajności komputera kwantowego. Bierze on pod uwagę liczbę kubitów, błędy pomiarowe czy wydajność komputera. Honeywell informuje, że wartość QV jego 6-kubitowego systemu wynosi 64. Zdecydowanie pokonał więc najpotężniejszy z komputerów oceniany tym systemem, IBM-owską 53-kubitową maszynę Raleigh, która osiągnęła QV=32.
      Mimo, że QV nie jest powszechnie akceptowaną miarą, to Honeywell uważa, że jest najlepszą z dostępnych. Bierze ona pod uwagę nie tylko liczbę dostępnych kubitów, mówi Tony Uttlej, prezes działu Quantum Solutions w Honeywell. Jak wyjaśnia, sama liczba kubitów niewiele mówi o możliwościach komputera kwantowego, gdyż w prawdziwych obliczeniach niekoniecznie odnosi się korzyści z większej liczby kubitów.
      Maszyna Honeywella wykorzystuje jony iterbu uwięzione w pułapce elektromagnetycznej. Kubit jest reprezentowany przez spin jonów. Całość chłodzona jest ciekłym helem do temperatur niewiele wyższych od zera absolutnego. Lasery manipulują kubitami, przeprowadzając obliczenia. Główną zaletą tego systemu i tym, co dało mu przewagę w QV jest długotrwałe – trwające kilka sekund – utrzymanie stanu kwantowego kubitów. Tak długi czas koherencji pozwala na wykonanie niezbędnych pomiarów stanu kubitów.
      Honeywell twierdzi zatem, że posiada najpotężniejszy komputer kwantowy na świecie. Firma ma zamiar udostępniać go komercyjnie. Inne przedsiębiorstwa będą mogły dzięki temu wykonywać złożone obliczenia. Uttley mówi, że godzina korzystania z komputera zostanie wyceniona na około 10 000 USD. Firma nie zdradza ilu ma w tej chwili klientów. Poinformowała jednak, że jednym z nich jest bank JPMorgan Chase, którego eksperci wykorzystują maszynę Honeywella do budowania modelu wykrywania oszustw bankowych. Firmy, które nie zatrudniają własnych specjalistów ds. obliczeń kwantowych mogą zaś korzystać z maszyny za pośrednictwem firm Zapata Computing i Cambridge Quantum Computing.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Scharakteryzowanie i optymalizacja obliczeń kwantowych wykonywanych przez kubity, czyli podstawowe jednostki komputera kwantowego to zadanie, jakie postawili przed sobą polscy fizycy i informatycy, zrzeszeni w projekcie TEAM-NET, kierowanym przez prof. Marka Kusia. Rezultaty ich badań będą kolejną cegiełką dołożoną do budowy komputera kwantowego, nad którym usilnie pracują naukowcy i przedsiębiorstwa z całego świata. Na realizację projektu TEAM-NET uczeni otrzymali dofinansowanie od Fundacji na rzecz Nauki Polskiej, w wysokości ponad 17 mln zł.
      Czym jest komputer kwantowy i czym różni się od komputera klasycznego? We współcześnie używanych na co dzień komputerach dane są zapisywane w systemie binarnym czyli poprzez sekwencje bitów, z których każdy znajduje się w jednym z dwóch stanów: 0 lub 1. Grupy takich bitów są przesyłane między różnymi podzespołami jednego komputera lub też między różnymi komputerami w sieci. Co istotne, komputer klasyczny wykonuje operacje w określonej kolejności, jedna po drugiej, i nie jest w stanie wykonywać kilku czynności jednocześnie. Dlatego im bardziej złożone jest zadanie, tym dłużej trwa szukanie rozwiązań, a do rozwiązania wielu ze współczesnych problemów moc obliczeniowa klasycznych komputerów jest już wręcz niewystarczająca.
      Kilka sekund zamiast kilku lat dzięki kubitom
      Komputery kwantowe pozwolą rozwiązywać skomplikowane problemy z wielu dziedzin nauki i przemysłu dużo szybciej i efektywniej niż najlepsze komputery klasyczne. W ciągu kilka sekund potrafią one wykonać obliczenia, które komputerowi klasycznemu mogą zająć nawet kilka lat – tłumaczy prof. Centrum Fizyki Teoretycznej PAN w Warszawie, czyli ośrodka będącego liderem projektu TEAM-NET. A to dlatego, że w komputerach kwantowych informacje zapisywane są w kubitach (od angielskiego quantum bit). Kubit od zwykłego bitu różni się tym, że nie ma ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją. Oznacza to, że jednocześnie znajduje się i w stanie 0, i w stanie 1. A zatem, kubit niesie w sobie znacznie więcej informacji niż zero-jedynkowy bit. Na dodatek, kubity mogą być ze sobą splątane: dwa kubity to już cztery splątane ze sobą wartości, trzy kubity – osiem wartości, i tak dalej. Stanów pojedynczych kubitów  nie można traktować jako niezależnych, bo zmiana jednego wpływa na wszystkie pozostałe. Właśnie dzięki splątaniu kubitów, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, co daje mu potężną moc obliczeniową. Choć sprawa komplikuje się z uwagi na konieczność „odczytania” wyników takiego obliczenia, co nieuchronnie niszczy stan kwantowy.
      Komputer kwantowy, gdy już powstanie, pozwoli na błyskawiczne wyszukiwanie potrzebnych informacji w ogromnych ilościach danych oraz umożliwi przeprowadzanie najbardziej skomplikowanych, wielopłaszczyznowych symulacji z nieograniczoną liczbą czynników. Technologia ta z pewnością znajdzie zastosowanie w naukach o życiu, medycynie i przemyśle farmaceutycznym, gdzie posłuży do odkrywania nowych leków. Innym sektorem oczekującym na powstanie komputerów kwantowych jest bankowość i cała branża finansowa, która skorzysta m.in. na możliwości doskonałego symulowania zachowań giełdy.
      Kruchość kubitów
      W tej chwili nie możemy jednak określić, kiedy powstanie komputer kwantowy. Wciąż mierzymy się z wieloma bardzo poważnymi ograniczeniami i nie wiadomo, kiedy uda się je przezwyciężyć. Konstrukcja działającego komputera kwantowego jest niezwykle trudna choćby ze względu na nieunikniony wpływ szumu i dekoherencji układów kwantowych – podkreśla prof. Marek Kuś.
      Chodzi o to, że kubity są bardzo niestabilne i ekstremalnie wrażliwe na wpływ otoczenia. Nawet najdrobniejsze wahania temperatury, hałasu, ciśnienia czy pola magnetycznego mogą prowadzić do wybicia kubitów ze stanu współzależnych superpozycji, czyli do zjawiska określanego przez fizyków jako dekoherencja. Jeśli kubity nie utrzymują stanu superpozycji, dochodzi do błędów w obliczeniach, a im więcej kubitów połączymy, tym więcej takich błędów będzie generowanych. Obecnie kubity mogą utrzymać swój stan kwantowy tylko przez około 100 mikrosekund, zanim dojdzie do dekoherencji. Z tego powodu komputery kwantowe muszą znajdować się w specjalnie przygotowanym środowisku. Wymagają m.in. chłodzenia na poziomie temperatury bliskiej zera bezwzględnego oraz umieszczenia w wysokiej próżni, pod ciśnieniem 10 mld razy niższym niż ciśnienie atmosferyczne.
      Oznacza to, że komputery kwantowe szybko nie zagoszczą w naszych domach czy biurach. W niedalekiej przyszłości możemy się spodziewać natomiast urządzeń zbudowanych z niewielu niedoskonałych kubitów. Nasz projekt ma na celu scharakteryzowanie mocy obliczeniowej i zbadanie możliwych praktycznych zastosowań takich urządzeń. Skupiać się będziemy nie na budowie samego urządzenia, ale na przetestowaniu jego oprogramowania i scharakteryzowaniu algorytmów, które zoptymalizują jego działanie. Aby zrealizować ten cel, utworzymy sieć współpracujących ze sobą czterech grup badawczych, zajmujących się nowatorskimi aspektami obliczeń kwantowych: kwantowym uczeniem maszynowym, kontrolą złożonych układów kwantowych, kwantową korekcją błędów i problemem identyfikacji zasobów odpowiedzialnych za tzw. przyspieszenie kwantowe – precyzuje prof. Marek Kuś. W skład konsorcjum naukowego wejdą, oprócz Centrum Fizyki Teoretycznej PAN w Warszawie, także Wydział Nauk Fizyki, Astronomii i Informatyki Stosowanej Uniwersytetu Jagiellońskiego oraz Instytut Informatyki Teoretycznej i Stosowanej PAN w Gliwicach.
      O programie TEAM-NET
      Program TEAM-NET Fundacji na rzecz Nauki Polskiej pozwala na sfinansowanie interdyscyplinarnych badań naukowych, realizowanych przez sieć współpracujących zespołów badawczych, kierowanych przez wybitnych, doświadczonych naukowców. Celem tego programu jest, oprócz umożliwienia prowadzenia w Polsce nowatorskich badań naukowych, także wzmocnienie ponadregionalnej współpracy pomiędzy jednostkami naukowymi oraz budowanie kompetencji dotyczących wykorzystywania dostępnej infrastruktury i usług badawczych. Zgodnie z założeniami konkursowymi, budżet każdego zgłoszonego projektu badawczego może wynosić do 3,5 mln zł na zespół na 36 miesięcy. Finansowanie może być przyznane na okres od 36 do 48 miesięcy.
      Nabór wniosków do konkursu TEAM-NET był prowadzony w październiku 2018 r., a w marcu 2019 r. Fundacja na rzecz Nauki Polskiej ogłosiła jego wyniki. Do konkursu zgłoszono 39 projektów, z których po ocenie merytorycznej 11 otrzymało dofinansowanie, na łączną kwotę ponad 201 mln zł.
      Konkurs TEAM-NET jest realizowany przez FNP ze środków UE pochodzących z Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Inteligentny Rozwój.

      « powrót do artykułu
×
×
  • Create New...