Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W najbliższym czasie będziemy świadkami największej od 30 lat zmiany w metodach formatowania dysków twardych. Pozwoli to na udoskonalenie technologii, jednak użytkownicy starszych systemów operacyjnych mogą mieć w związku z tym kłopoty.

Dyski twarde są obecnie formatowane w bloki o wielkości 512 bajtów. Taki format został przejęty z dyskietek i spopularyzowany przez IBM-a.

Sprawdzał się on dobrze do czasu, gdy HDD miały stosunkowo niewielkie pojemności. Jednak dzielenie przestrzeni dyskowej na tak małe bloki oznacza spore straty w pojemności urządzenia. Każdy taki bloczek zawiera znacznik informujący o jego początku oraz przestrzeń zarezerwowaną na korekcję błędów. Ponadto pomiędzy poszczególnymi bloczkami należy zostawić nieco przestrzeni. W dużych dyskach twardych przy takim formatowaniu sporo miejsca jest przeznaczanych na potrzeby samego HDD lub w ogóle marnowane. Dlatego też postanowiono, że od początku 2011 roku dyski będą formatowane w 4-kilobajtowe sektory. Pozwoli to kilkukrotnie zmniejszyć ilość marnowanego miejsca, a jednocześnie zapisać w sektorze dwa razy więcej informacji potrzebnych do korekcji błędów. Dzięki takim zabiegom na dysku z 4-kilobajtowymi sektorami użytkownik będzie mógł zapisać od 7 do 11 procent więcej danych.

Tutaj pojawia się problem dla posiadaczy starszych wersji systemów operacyjnych, takich jak np. Windows XP. Pojawiły się one bowiem jeszcze zanim zdecydowano o nowym sposobie formatowania. Dlatego też nowe dyski, z 4-kilobajtowymi sektorami, gdy będą używane ze starszymi OS-ami, wykorzystają wbudowane mechanizmy, emulujące działanie dysku z 512-bajtowymi sektorami. Na codzień emulacja ta powinna przebiegać niezauważenie, jednak w pewnych okolicznościach niekorzystnie odbije się to na wydajności HDD, który może pracować nawet o 10% wolniej.

Problem z nowymi dyskami nie będzie dotyczył użytkowników Windows 7, Windows Vista, OSX Tiger, Leopard i Snow Leopard oraz Linuksa z jądrem opublikowanym po wrześniu 2009 roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A czy taką zmianę można przeprowadzić samodzielnie i przed 2011 sformatować dysk w nowy sposób?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale po co, skoro w 2012 koniec świata? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego miałem wrażenie, że większe sektory używane są od dawna?

Poza tym, w czym problem w napisaniu sterownika pod WinXP, czy inny system? Chyba że to kolejny sposób wymuszania kupna nowszych wersji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

państwo pozwolą, że wyjaśnię.

nie żaden "bloczek" tylko SEKTOR. większe sektory nie są używane od dawna, kolega ma na myśli KLASTRY, składające się z takiej ilości sektorów, jaką się ustali podczas formatowania.

sektor jest fizycznie najmniejszym obszarem zapisu informacji na dysku i rzeczywiście posiada na początku znacznik a na końcu sumę kontrolną. dzięki zwiększeniu wielkości sektora zmniejsza się liczba tych znaczników i sum kontrolnych, stąd oszczędność miejsca.

 

teraz owacje na stojąco, kurtyna.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A czy taką zmianę można przeprowadzić samodzielnie i przed 2011 sformatować dysk w nowy sposób?

 

Rzuciłem okiem na udostępnione dokumenty dotyczące tego tematu i wychodz na to, że nie. To kwestia fizycznej konstrukcji dysku. Ale przemysł umówił się, że HDD z 4-kilobajtowym sektorem będzie wyposażone w mechanizmy emulujące tak długo, jak długo OS-y i aplikacje nie będą potrafiły samodzielnie tego obsługiwać. Wszystko wskazuje na to, że co najmniej do 2013 na rynek będą trafiały HDD z taką emulacją.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Dlatego też postanowiono, że od początku 2011 roku dyski będą formatowane w 4-kilobajtowe sektory."

 

no nie wiem na ile jest w tym prawdy (zwłaszcza w stwierdzeniu "postanowiono"). przede wszystkim nie 4kb sektory tylko własnie 4 kb bloki danych. przynajmniej tak to działa w istniejącym już od jakiegoś czasu ext4.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no nie wiem na ile jest w tym prawdy (zwłaszcza w stwierdzeniu "postanowiono"). przede wszystkim nie 4kb sektory tylko własnie 4 kb bloki danych. przynajmniej tak to działa w istniejącym już od jakiegoś czasu ext4.

 

Nie myl klastrów/bloków z sektorami.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście nikt nie wspomina, że takie dyski będą bardziej "awaryjne".

 

Chyba nie trzeba nikomu tłumaczyć co będzie jeżeli zaczniemy obcinać długość sum kontrolnych (lub wydłużać bloki danych zachowując obecną długość sum).

 

Z tą pojemnością też nie będzie tak różowo. Co z tego, że zaoszczędzimy na przestrzeni adresowej skoro najmniejszy plik w systemie (nawet zerowy) będzie miał 4k.. w zasadzie każdy plik będzie zaokrąglany w górę do wielokrotności 4k...

 

Ostatecznie okaże się, że nasze dyski mają 10% więcej pojemności, ale przy okazji są bardziej awaryjne a Windows jakimś cudem też spuchnie o te 10%..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oczywiście nikt nie wspomina, że takie dyski będą bardziej "awaryjne".

 

Chyba nie trzeba nikomu tłumaczyć co będzie jeżeli zaczniemy obcinać długość sum kontrolnych (lub wydłużać bloki danych zachowując obecną długość sum).

 

W oryginalnej wiadomości napisano:

"Pozwoli to kilkukrotnie zmniejszyć ilość marnowanego miejsca, a jednocześnie zapisać w sektorze dwa razy więcej informacji potrzebnych do korekcji błędów."

 

 

witrak()

 

--

"Lepiej milczeć i wyglądać na głupca niż odezwać się i rozwiać wszelkie wątpliwości"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Myślę, że niektóre osoby dały się zwieść tytułowi, w końcu zmianie ulegnie nie tyle formatowanie dysku co sama budowa. Na dysku były bloczki po 512bajtów teraz będą po 4kb, reszta tak jak zauważył wiatrak()

 

Dyski twarde już od dawna nie są formatowane na system plików 512b ze względu na związane z tym rozmiarem klastrów ograniczenie rozmiaru partycji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tą pojemnością też nie będzie tak różowo. Co z tego, że zaoszczędzimy na przestrzeni adresowej skoro najmniejszy plik w systemie (nawet zerowy) będzie miał 4k.. w zasadzie każdy plik będzie zaokrąglany w górę do wielokrotności 4k...

 

Czyli nie inaczej niż jest obecnie. :D Klastry w NTFS mają domyślnie 4kB. W FAT16/32 wahały się w zależności od typu systemu plików i rozmiaru partycji od 512B-64kB. Czyli nawet 1 bajtowy plik zajmował kilka(naście) kilobajtów. (http://support.microsoft.com/kb/140365/pl)

 

Możliwe, że z powodu wzrostu rozmiaru sektorów zniknie też potrzeba klastrowania systemu plików (klastry zmniejszały fragmentację oraz obciążenie mechanizmu).

 

Dyski twarde już od dawna nie są formatowane na system plików 512b ze względu na związane z tym rozmiarem klastrów ograniczenie rozmiaru partycji.

 

Tutaj trzeba rozróżnić formatowanie niskopoziomowe (opisane w artykule) od wysokopoziomowego (pod dany system operacyjny - opisane przez Ciebie).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tutaj trzeba rozróżnić formatowanie niskopoziomowe (opisane w artykule) od wysokopoziomowego (pod dany system operacyjny - opisane przez Ciebie).

A czy ja twierdzę coś innego? zresztą nawet formatowaniem niskopoziomowym nie zmienisz struktury fizycznej dysku twardego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nie zmienisz, trudno by było jak. :D Tylko, że nie wiem po co mieszać w to klastry, co już jako pierwszy zaznaczył p. Michał Wolak.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No nie zmienisz, trudno by było jak. :D Tylko, że nie wiem po co mieszać w to klastry, co już jako pierwszy zaznaczył p. Michał Wolak.

Tylko po to, aby zasugerować, że tytuł jest mylny dla sporej części społeczeństwa, co widać w komentarzach następujących po p. Michale Wolaku... zresztą odnosiłem się do de0(w mniejszym stopniu) czy (w większym stopniu)gravisrs-a

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak czytam to co tu piszecie i aż postanowiłem skorzystać z funkcji przypomnienia hasła.

 

Artykuł dotyczy czegoś co powinniśmy nazwać preformatowaniem. Formatowanie niskopoziomowe to raczej czasy dysków MFM. Później już się tego nie dało zrobić. chociaż funkcjonowało coś co było zwnane Low Level Format jednak w tym kontekście było to formatowanie "sredniopoziomowe" to znaczy po fizycznych sektorach bez interwencji w ich strukturę. Dziś można identyczne efekty osiągnąć poprzez zerowanie dysku. Nazwanie tego procederu z artykułu formatowaniem jest mylące bo w zasadzie wykonywanie jest tylko raz i to w fabryce, dodatkowo podczas tego procederu głowica jest pozycjonowana przez system zewnętrzny ponieważ właśnie wtedy nanoszone są dane które umożliwiają głowicy pozycjonowanie w przyszłosći.

Rozmiar sektora jest dość umowny to znaczy raczej powinniśmy mówić o użytecznej pojemności sektora, w rzeczywistości zajmuje on troszkę więcej placu, chociażby właśnie więcej o dane wykorzystywane przez dysk do pozycjonowania.

 

Problem niekompatybilności bierze się z stąd ze klaster nie może być mniejszy od sektora bo logicznie będziemy adresować przestrzeń fizycznie nie adresowalną (fizycznie w pewnym uproszczeniu). I dla tego stare systemy mogą mieć z tym porblem. A dysk będzie wewnętrzne emulował starą strukturę mapując ja na nową, to może nie być wydajne, bo de facto powstanie kolejna warstwa logiczna po drodze. Już fizyczna struktura klasów jest mocno naciągną i umowna dzięki chociażby mechanizmowi relokacji uszkodzonych sektorów. Generalnie to co myślimy ze się dzieje na dysku jest dość mocną abstrakcją tego co tam się dzieje w rzeczywistości.

 

Dwukrotnie więcej danych korekcyjnych nie jest potrzebne obywatelowi do szczęścia tylko dyskowi do funkcjonowania. Ze względu na ciągły wzrost gęstości zapisu dyski coraz bardziej będą odczytywać coś na kształt danych które dopiero po dodatkowej obróbce staną się na powrót tym co tam zapisaliśmy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W oryginalnej wiadomości napisano:

"Pozwoli to kilkukrotnie zmniejszyć ilość marnowanego miejsca, a jednocześnie zapisać w sektorze dwa razy więcej informacji potrzebnych do korekcji błędów."

 

 

witrak()

 

--

"Lepiej milczeć i wyglądać na głupca niż odezwać się i rozwiać wszelkie wątpliwości"

 

 

Pojemność sektora zwiększa się 8x, długość sum kontrolnych tylko 2x. Stosunkowo sumy kontrolne są krótsze. Zamiast obrażać przedmówców polecam zapoznanie się z podręcznikiem do matematyki.

 

--

 

Matematyka na maturze powinna być obowiązkowa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli nie inaczej niż jest obecnie. :D Klastry w NTFS mają domyślnie 4kB.

 

Tak, ale można je formatować na 512, a teraz już nie będzie można... tzn będzie teraz wątpliwa pod względem efektywności emulacja dla klastrów < 4kb.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pojemność sektora zwiększa się 8x, długość sum kontrolnych tylko 2x.

 

Zależność między długością sumy kontrolnej a długością chronionych danych nie jest liniowa. W CRC np. jest to coś koło 2n, gdzie n to długość sumy kontrolnej. Czyli (teoretycznie) przy 512 B potrzebna jest suma kontrolna o długości 9 bitów, wystarczy 3 bity więcej i możemy chronić 4 kB. Wszystko zależy od zastosowanego algorytmu i ile błędów chcemy korygować "w locie". Więc dwa razy to znaczne zwiększenie bezpieczeństwa danych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No właśnie, a jakie algorytmy się stosuje w HDD? Bo CRC to jest już cokolwiek archaiczna. Stosowano ją choćby w dyskietkach co najmniej od końca lat siedemdziesiątych, a możliwe, że wczesniej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W mojej poprzedniej wypowiedzi wkradł się błąd: powinno być tam bajtów a nie bitów. Co do HDD to tutaj piszą, że stosuje się kodowanie Reeda-Solomona.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po 11 latach od premiery wysłużony Windows 7 odchodzi na emeryturę. Dzisiaj dobiegł końca okres rozszerzonego wsparcia dla tego systemu. Microsoft nie będzie już udostępniał dla niego poprawek bezpieczeństwa. Warto więc w ciągu najbliższych miesięcy pomyśleć o zaktualizowaniu systemu do nowej wersji.
      Na poprawki, ale już płatne, będą mogli liczyć jedynie użytkownicy wersji Enterprise oraz Pro. Użytkownicy edycji Enterprise będą musieli zapłacić 25 USD, a wersji Pro - 50 USD za rozszerzenie wsparcia do stycznia 2021 roku. Wsparcie będzie można przedłużyć o kolejne dwa lata, w każdym roku płacąc dwukrotnie więcej niż w roku wcześniejszym.
      Microsoft już od wielu miesięcy przypominał użytkownikom Windows 7, że okres wsparcia dobiega końca. Użytkownicy więc o tym wiedzieli. Ponadto jutro wyświetli im się pełnoekranowe powiadomienie, że okres wparcia właśnie się zakończył.
      Koncern z Redmond próbuje przekonać jak najwięcej użytkowników Windows 7 by zaczęli korzystać z Windows 10. Częściowo się to udaje. Jak bowiem donoszą firmy analityczne, rynek pecetów notuje właśnie pierwsze globalne wzrosty sprzedaży od roku 2011. Jest to związane z faktem, że firmy i użytkownicy indywidualni postanowili, przy okazji zmiany systemu operacyjnego, wymienić też komputery.
      Windows 7 jest wciąż niezwykle popularnym systemem i, jak twierdzą analitycy, mogą minąć jeszcze nawet 2 lata zanim jego rynkowe udziały spadną poniżej 10%. Przypomnijmy, że w przypadku równie popularnego Windows XP Microsoft wielokrotnie publikował łaty pomimo zakończenia okresu wsparcia.
      Windows 7 to prawdopodobnie ostatni system operacyjny, który będzie sprawiał Microsoftowi tego typu problemy. Wsparcie dla Windows 8 kończy się w 2023 roku i cały proces powinien przejść bez większych zakłóceń, gdyż system ma mniej niż 5% udziałów w rynku.
      Jeśli zaś chodzi o Windows 10 to jego model publikacji jest zupełnie inny. Dotychczas doświadczyliśmy zakończenia wsparcia dla wielu wersji Windows 10 i nie rodziło to żadnych większych problemów. W bieżącym roku zakończy się wsparcie dla trzech kolejnych wersji. W przypadku tego OS-u wystarczy, by użytkownicy dokonywali regularnych aktualizacji do kolejnych wersji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Agenci federalni uzyskali dostęp do dysku Ramony Fricosu, o której sprawie już wcześniej wspominaliśmy. W najbliższym czasie sąd nie będzie zatem musiał rozstrzygać, czy i jak można zmusić podsądnego do ujawnienia hasła.
      W ubiegłym tygodniu sąd apelacyjny podtrzymał wyrok sądu niższej instancji, który stwierdził, że Fricosu musi podać hasło. Adwokat podejrzanej sugerował, że zapomniała ona hasła, więc oczekiwano ciekawych rozstrzygnięć prawnych dotyczących prawa do prywatności i ochrony przed samooskarżeniem.
      Jednak wczoraj adwokatowi Fricosu dostarczono dokument, w którym poinformowano go o odszyfrowaniu dysku oraz o jego zawartości.
      Nie wiadomo, w jaki sposób śledczy dostali się do urządzenia. Prawnik oskarżonej przypuszcza, że zdradził je jej mąż, który również będzie odpowiadał w tej samej sprawie.
    • przez KopalniaWiedzy.pl
      Sąd Apelacyjny dla Jedenastego Okręgu orzekł, że odszyfrowanie danych na dysku twardym może być uznane za złożenie zeznań. Tymczasem Piąta Poprawka zabrania zmuszania obywateli do składania obciążających ich zeznań. Takie orzeczenie oznacza, że podejrzanego nie można zmuszać do podania hasła do dysku.
      Orzeczenie takie wydano w sprawie US vs. John Doe. Jest to sprawa o posiadanie pornografii dziecięcej przez niewymienioną z nazwiska osobę. Podejrzany nie został o nic formalnie oskarżony, jednak spędził w więzieniu osiem miesięcy za obrazę sądu, gdyż odmówił podania haseł do siedmiu dysków twardych. Prokuratura podejrzewa, że na dyskach znajduje się dziecięca pornografia. Doe, odmawiając podania haseł, powoływał się na Piątą Poprawkę. Teraz Sąd Apelacyjny potwierdził jego racje i zwolnił go z więzienia.
      Doe nadal może zostać zmuszony do ujawnienia zawartości dysków, jeśli tylko prokuratura udowodni, że jest on w stanie to zrobić. Jeśli tak się stanie, Doe otrzyma od sądu immunitet, który uniemożliwi prokuraturze wykorzystanie zdobytych w ten sposób informacji przeciwko niemu.
      Początkowo prokuratura i sąd niższej instancji zagwarantowały Doe, że nie będzie ścigany za upowszechnianie treści z dysków, chciały go jednak sądzić za samo posiadanie treści pedofilskich jeśli takie zostałyby znalezione. Sąd Apelacyjny uznał jednak, że to zbyt skromny immunitet.
      Orzeczenie Sądu Apelacyjnego nie będzie miało zastosowania do każdej sprawy o odszyfrowanie danych. W omawianym powyżej przypadku prokuratura nie wie, co jest na dyskach. Sąd uznał, że proces podawania hasła nie jest równoznaczny z procesem przekazywania kluczy do drzwi, gdyż wymaga sięgnięcia do pewnej wiedzy zawartej w umyśle i jako taki może być traktowany jako zeznanie. Gdyby jednak prokuratura wiedziała, co znajduje się na dyskach, wówczas podejrzany musiałby ujawnić ich zawartość, gdyż już nawet przed tym ujawnieniem wnioski śledczych byłyby „przesądzone“. Zgodnie z logiką orzeczeń Sądu Najwyższego w takim przypadku przekazanie hasła staje się procesem fizycznym i nie jest uznawane za zeznanie.
      We wspominanej przez nas wcześniej sprawie przeciwko Ramonie Fricosu prokuratorzy mają wiedzę o zawartości jej dysku twardego z podsłuchów.
      Trzeba też pamiętać, że orzeczenia Sądu Apelacyjnego są wiążące tylko dla sądów niższej instancji z jego własnego okręgu.
    • przez KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • przez KopalniaWiedzy.pl
      Intel poinformował o powstaniu nowej serii dysków SSD skierowanej na rynek konsumencki. Urządzenia Intel SSD 520 Series wyposażono w interfejs SATA III, który zapewnia przepustowość rzędu 6 Gb/s oraz w układy NAND wykonane w technologii 25 nanometrów. Intel twierdzi, że to jego najbardziej wytrzymała rodzina SSD.
      Intel SSD 520 wykonuje do 80 000 operacji wejścia-wyjścia na sekundę (IOPS) przy losowym zapisie bloków 4K oraz 50 000 IOPS przy losowym odczycie bloków 4K. Dysk charakteryzuje też wysoka wydajność odczytu i zapisu sekwencyjnego — odpowiednio do 550 megabajtów na sekundę (MB/s) i 520 MB/s.
      W skład rodziny Intel SSD 520 wchodzą dyski o pojemnościach (w partiach po 1000 sztuk): 60 GB za 149 dol., 120 GB za 229 dol., 180 GB za 369 dol., 240 GB za 509 dol. i 480 GB za 999 dol. Urządzenia są objęte 5-letnią ograniczoną gwarancją.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...