Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Unia Europejska stworzy „cyfrowego bliźniaka” Ziemi

Rekomendowane odpowiedzi

Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.

Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.

Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.

Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.

Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.

W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.

Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.

Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.

Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.

Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.

Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Do końca przyszłego roku w Krakowie stanie jeden z najpotężniejszych superkomputerów na świecie. Akademickie Centrum Komputerowe CYFRONET AGH zostało wytypowane przez Europejkie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (EuroHPC JU) jako jedno z 5 miejsc w Europie, w których zostaną zainstalowane komputery tworzące ogólnoeuropejską sieć przetwarzania danych.
      Najpotężniejszym z komputerów sieci będzie JUPITER. To pierwszy w Europie system eksaskalowy – czyli przeprowadzający ponad 1018 operacji zmiennoprzecinkowych na sekundę. Zostanie on zainstalowany w Jülich Supercomputing Centre w Niemczech. Pozostałe cztery maszyny to DAEDALUS, który trafi do Grecji, LEVENTE (Węgry), CASPIr (Irlandia) oraz krakowski EHPCPL.
      Przedstawiciele Cyfronetu zapewniają, że projekt maszyny jest na bardzo zaawansowanym stadium. Nie mogą jednak ujawnić szczegółów, gdyż w superkomputerze zostaną wykorzystane technologie, które nie są jeszcze dostępne na rynku, zatem objęte są przez producentów tajemnicą. Zapewniono nas jednak, że nowy superkomputer będzie o rząd wielkości bardziej wydajny od innych polskich superkomputerów i gdy powstanie, prawdopodobnie będzie jednym z 50 najpotężniejszych maszyn na świecie.
      Obecnie w Cyfronecie stoi najpotężniejszy superkomputer w Polsce, Athena. Maszyna o mocy 5,05 PFlopa znajduje się na 105. pozycji listy 500 najbardziej wydajnych superkomputerów na świecie i jest jednym z 5 polskich superkomputerów tam wymienionych. Wiadomo, że EHPCPL będzie kilkukrotnie bardziej wydajny od Atheny.
      Celem EuroHPC JU jest stworzenie w Europie jednej z najpotężniejszych infrastruktur superkomputerowych na świecie. Już w tej chwili działają maszyny LUMI (151,9 PFlop/s) w Finlandii, MeluXina (10,52 PFlop/s) w Luksemburgu, Karolina (6,75 PFlop/s) w Czechach, Discoverer (4,52 PFlop/s) w Bułgarii i Vega (3,82 PFlop/s) na Słowenii. Budowane są też LEONARDO (Włochy), Deucalion (Portugalia) oraz MareNostrum 5 (Hiszpania). Fiński LUMI to 3. najpotężniejszy superkomputer świata i 3. najbardziej wydajny pod względem energetycznym komputer na świecie. Polska Athena zajmuje zaś wysoką 9. pozycję na liście najbardziej wydajnych energetycznie komputerów świata.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Polska ma bardzo małe zasoby wody pitnej, dowiadujemy się z opublikowanego przez GUS raportu „Polska na drodze zrównoważonego rozwoju”. Są one tak małe, że znajdują się poniżej poziomu bezpieczeństwa wodnego. Według ONZ krajami zagrożonymi niedoborami wody są te, w których zasoby świeżej wody wynoszą poniżej 1,7 tys. m3 na mieszkańca. W UE do takich krajów należą Polska, Czechy, Cypr i Malta.
      W Unii Europejskiej najlepsza sytuacja pod względem zasobów wody słodkiej występuje w Chorwacji. Tam na mieszkańca przypada 28,8 tys. m3 wody. Kolejne na liście są Finlandia (20 tys. m3), Szwecja (19,3 tys. m3) oraz Łotwa (18,9 tys. m3), a pierwszą piątkę zamyka Słowenia (15,5 tys. m3). Z kolei cztery kraje znajdują się poniżej poziomu bezpieczeństwa wodnego. Są to Polska (1,6 tys. m3), Czechy (1,5 tys. m3), Cypr (0,4 tys. m3) oraz Malta (0,2 tys. m3).
      Głównym źródłem zaopatrzenia w wodę są w naszym kraju wody powierzchniowe. W 2019 r. pobraliśmy 7,4 km3 wód powierzchniowych oraz 1,8 km3 wód podziemnych. Większość, bo aż 70% zużył przemysł, 20% spożytkowano na potrzeby gospodarki komunalnej, a 10% wykorzystuje się do nawodnień w rolnictwie, leśnictwie oraz napełniania stawów rybnych.
      W naszych rzekach płynie też woda gorszej jakości niż średnia europejska. Do określenia jakości wód używa się pomiaru biochemicznego zapotrzebowania tlenu (BZT). Pokazuje on, ile tlenu potrzebują mikroorganizmy, by rozłożyć substancje organiczne znajdujące się w wodzie. To wskaźnik, który pokazuje też, jak ścieki są podatne na biologiczne oczyszczanie.
      Im wyższy poziom BZT, tym większe zanieczyszczenie. W Polsce do rozkładu substancji organicznych potrzebne jest 2,74 mg tlenu na litr wody. To znacznie więcej niż średnia w Europie, która wynosi 2 mg/litr. Pod względem zanieczyszczenia jesteśmy niewiele lepsi od krajów o najbardziej zanieczyszczonych rzekach jak Rumunia czy Cypr, gdzie BTZ to 3mg/l. Sporo nam za to brakuje do prymusów – Irlandii i Słowenii. W krajach tych BTZ to >1 mg/l.
      Z dobrych wiadomości można dodać, że nie grozi nam stres wodny. W Polsce wykorzystujemy 6,87% odnawialnych zasobów wody pitnej. To co prawda więcej niż w roku 2010, kiedy odsetek ten wynosił 5,62%, ale wciąż mniej niż średnia dla Europy wynosząca 8,39%. Za wysoki poziom stresu wodnego uznaje się poziom przekraczający 20%. Jednak wskaźnik ten nie uwzględnia przestrzennego i sezonowego zróżnicowania dostępności do wody.
      Najlepiej ilustruje to przykład całego globu. W skali świata ludzie pobierają rocznie 17% odnawialnych zasobów słodkiej wody. Nie można mówić więc o stresie wodnym. Jednak różnice regionalne są dramatyczne. W Afryce Północnej pobierane jest niemal 102,9% odnawialnych zasobów wody pitnej. Na częściej sytuacja się poprawia, gdyż kilka lat temu było to o 5 punktów procentowych więcej. Jednak niedobory wody zaczynają grozić Azji Środkowej, gdzie pobiera się 87,9% odnawialnych zasobów wody pitnej, podczas gdy jeszcze niedawno było to 79,5%. Z problemami może borykać się też Azja Południowa, gdzie pobór ten wynosił 70,7% w roku 2017, podczas gdy w roku 2015 było to 63,2%.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tajwański TSMC, poinformował że jest jeszcze zbyt wcześnie, by stwierdzić, czy w Niemczech powstaną fabryki tej firmy. Rozmowy w tej sprawie są na bardzo wczesnym etapie. Są one prowadzone pod egidą Komisji Europejskiej.
      Wiadomo, że KE rozmawia z takimi gigantami jak Intel i TSMC w sprawie wybudowania fabryk półprzewodników na terenie Europy. Fabryki takie miałyby zwiększyć produkcję układów scalonych i uchronić Unię Europejską przed ich niedoborami spowodowanymi problemami w światowym łańcuchu dostaw.
      Ulokowane w Europie fabryki TSMC, największego na świecie producenta półprzewodników na zlecenie, miałyby uchronić europejskich producentów samochodów, smartfonów i innej elektroniki przed kolejnymi problemami z dostawami, które zostały zakłócone z powodu pandemii.
      Na poważnie rozważamy propozycję ulokowania fabryk w Niemczech, jednak to bardzo wczesny etap, powiedział przewodniczący zarządu TSMC Mark Liu poadczas dorocznego spotkania z udziałowcami. Rozmawiamy z naszymi największymi niemieckimi klientami, by przekonać się, czy to na pewno najlepsze i najbardziej efektywne rozwiązanie dla nich.
      W lipcu TSMC podpisało umowy na budowę fabryk w USA i w Japonii. Rządy wielu państw martwi fakt, że tak olbrzymia część półprzewodników produkowanych jest na Tajwanie, skąd trzeba je przywozić. Dodatkowym problemem jest położenie Tajwanu. Znajduje się on bardzo blisko Chin, które traktują wyspę jako zbuntowaną prowincję i nie wykluczają użycia siły w celu przejęcia na niej władzy.
      Wiemy zatem, że TSMC zainwestuje 12 miliardów dolarów w rozszerzenie swojej działalności w Arizonie. Tajwański koncern, którego jednym z ważniejszych klientów jest Apple, będzie sprzedawał swoje produkty amerykańskim klientom działających na rynkach infrastruktury i bezpieczeństwa narodowego. Liu dodał, że klienci ci pomogą TSMC ponieść koszty zagranicznej ekspansji.
      W bieżącym roku TSMC ogłosiło, że w ciągu najbliższych 3 lat ma zamiar zainwestować 100 miliardów dolarów w powiększenie swoich możliwości produkcyjnych. Pandemia COVID-19 stworzyła bowiem świetne możliwości dla wieloletniego wzrostu, gdyż znacząco zwiększyła zapotrzebowanie na zaawansowane półprzewodniki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Unia Europejska domaga się, by platformy społecznościowe przedstawiały comiesięczne raporty, w których poinformują, jak walczą z dezinformacją związaną z epidemią COVID-19. Nowe zasady będą dotyczyły m.in. Google'a, Facebooka, Twittera oraz innych firm, które są zobowiązane do przestrzegania europejskiego kodeksu dot. postępowania z dezinformacją.
      Jesteśmy świadkami fali fałszywej i mylącej informacji, kłamstw, teorii spiskowych oraz celowych działań zagranicznych ośrodków. Celem niektórych z tych działań jest zaszkodzenie Unii Europejskiej i krajów członkowskich, próba podważenia demokracji, zaufania do UE i autorytetów narodowych. Co gorsza, rozsiewanie takich informacji w czasach koronawirusa może zabijać, mówi wiceprezydent Komisji Josep Borrell.
      W związku z tym Komisja Europejska chce, by platformy, które w 2018 roku zobowiązały się do przestrzegania wspomnianego kodeksu postępowania, składały comiesięczne relacje ze swoich działań na rzecz promowania wiarygodnych treści, zwiększania świadomości użytkowników oraz ograniczania dezinformacji dotyczącej koronawirusa i powiązanej z nią reklamy. Ponadto chce, by serwisy społecznościowe prowadziły przejrzystą politykę informowania użytkowników o tym że mają do czynienia z dezinformacją.
      Komisja wskazała jednocześnie Rosję i Chiny jako kraje, które celowo rozsiewają nieprawdziwe informacje na temat epidemii. Podobnego zresztą zdania są Amerykanie. Również i oni stwierdzają, że oba te państwa prowadzą kampanię dezinformacji zarówno za pośrednictwem mediów państwowych oraz nieoficjalnie na platformach społecznościowych. Celem tej kampanii jest poprawienie wizerunku tych państw i ich władz oraz zaszkodzenie wizerunkowi państw Zachodu.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...