Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

UE chce od Facebooka i Google'a comiesięcznych raportów dot. walki z dezinformacją nt. COVID-19

Recommended Posts

Unia Europejska domaga się, by platformy społecznościowe przedstawiały comiesięczne raporty, w których poinformują, jak walczą z dezinformacją związaną z epidemią COVID-19. Nowe zasady będą dotyczyły m.in. Google'a, Facebooka, Twittera oraz innych firm, które są zobowiązane do przestrzegania europejskiego kodeksu dot. postępowania z dezinformacją.

Jesteśmy świadkami fali fałszywej i mylącej informacji, kłamstw, teorii spiskowych oraz celowych działań zagranicznych ośrodków. Celem niektórych z tych działań jest zaszkodzenie Unii Europejskiej i krajów członkowskich, próba podważenia demokracji, zaufania do UE i autorytetów narodowych. Co gorsza, rozsiewanie takich informacji w czasach koronawirusa może zabijać, mówi wiceprezydent Komisji Josep Borrell.

W związku z tym Komisja Europejska chce, by platformy, które w 2018 roku zobowiązały się do przestrzegania wspomnianego kodeksu postępowania, składały comiesięczne relacje ze swoich działań na rzecz promowania wiarygodnych treści, zwiększania świadomości użytkowników oraz ograniczania dezinformacji dotyczącej koronawirusa i powiązanej z nią reklamy. Ponadto chce, by serwisy społecznościowe prowadziły przejrzystą politykę informowania użytkowników o tym że mają do czynienia z dezinformacją.

Komisja wskazała jednocześnie Rosję i Chiny jako kraje, które celowo rozsiewają nieprawdziwe informacje na temat epidemii. Podobnego zresztą zdania są Amerykanie. Również i oni stwierdzają, że oba te państwa prowadzą kampanię dezinformacji zarówno za pośrednictwem mediów państwowych oraz nieoficjalnie na platformach społecznościowych. Celem tej kampanii jest poprawienie wizerunku tych państw i ich władz oraz zaszkodzenie wizerunkowi państw Zachodu.


« powrót do artykułu

Share this post


Link to post
Share on other sites

też upadacie cytując CNN, to największa lewacka tuba propagandowa, kłamcy do potęgi, już niezliczoną ilość razy wpadli na kłamstwach i manipulacjach w sprawie covid, a ludzie jak pelikany cały czas łykają te brednie, covid to fikcja dla wprowadzenia NWO i czwartej rewolucji przemysłowej

  • Downvote (-1) 1

Share this post


Link to post
Share on other sites
Posted (edited)
3 hours ago, haihaharir said:

CNN, to największa lewacka tuba propagandowa, kłamcy do potęgi, już niezliczoną ilość razy wpadli na kłamstwach i manipulacjach

No patrz, to tak jak prawicowe media w Polsce.

3 hours ago, haihaharir said:

ludzie jak pelikany cały czas łykają te brednie, covid to fikcja dla wprowadzenia NWO i czwartej rewolucji przemysłowej

A ty co łykasz? Jak dorośniesz, to może trochę zmądrzejesz i spokorniejesz. Póki co, kup sobie wisiorek z tahionizowanego orgonitu. Nie pomoże, ale tobie na pewno już nie zaszkodzi.

 

>> CZĘŚĆ DLA NORMALNYCH FORUMOWICZÓW <<

Przy okazji teorii spiskowych. Przypomniało mi się, że na kwantowo.pl był niedawno ciekawy artykuł. Analiza dobra, jak wszystkie teksty na kwantowo, tylko nie wiadomo czy się śmiać czy płakać.

https://www.kwantowo.pl/2020/05/03/jak-propagowac-teorie-spiskowe-poradnik/

 

Edited by cyjanobakteria
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Cytat

Celem tej kampanii jest poprawienie wizerunku tych państw i ich władz oraz zaszkodzenie wizerunkowi państw Zachodu.

Czyli tak sobie można przeanalizować... jeżeli Chiny i Rosja prowadzą kampanię "dezinformacyjną" w której chcą zaszkodzić wizerunkowi państw UE czyli ich nieudolności w zwalczaniu COVID, defacto pomagają tym państwom w utrzymaniu tego stanu, gdyż potwierdzają obecność pandemii. ....której tak naprawdę nie ma oczywiście jest to teza biorąc pod uwagę, że jest się człowiekiem myślącym i potrafiącym szukać informacji w niezależnych źródłach.

Share this post


Link to post
Share on other sites
1 hour ago, h4r said:

jest się człowiekiem myślącym i potrafiącym szukać informacji w niezależnych źródłach

Pewnie będę tego żałował, ale z ciekawości zapytam. Z jakich źródeł myślący człowiek teraz czerpie wiedzę? ;)

Share this post


Link to post
Share on other sites
16 godzin temu, cyjanobakteria napisał:

Pewnie będę tego żałował, ale z ciekawości zapytam. Z jakich źródeł myślący człowiek teraz czerpie wiedzę? ;)

Nie ma jednego źródła. To może być równie dobrze jeden z reportaży TV. Człowiek myślący odczytuje podane mu informacje, ale sam musi zinterpretować lub zbadać tego źródło. Podam przykład.. na początku epidemii w TV i sieci pokazały się zdjęcia setek trumien rzekomo wypełnionych ofiarami covid. Wystarczyło trochę pokopać i dowiedzieć się, że owe zdjęcia mają już kilka lat i przedstawiają zupełnie coś innego. Każda informacja, która do nas dociera powinna być podawana w wątpliwość , biorąc pod uwagę że większość mediów jest w rękach prywatnych osób, które korzystają z posiadania takiego narzędzia. Natomiast skutek jest zupełnie inny, ludzie wierzą już w coś co się poda do wiadomości w "zaufanych" codziennych mediach. Są już tak oswojeni, że wszystko co się ukaże i będzie wierutną bzdurą, będzie dla nich najważniejsze. Czy rozwiałem Twoje wątpliwości ?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Zespołu ds. COVID-19 przy Prezesie PAN opublikowali swoje stanowisko w sprawie możliwości osiągnięcia w Polsce odporności zbiorowiskowej na wirusa SARS-CoV-2. Dokument opatrzony został wymownym tytułem „O złudnej nadziei, że szybkie osiągnięcie odporności zbiorowiskowej jest atrakcyjnym celem”.
      Eksperci zauważają, że próg odporności zbiorowiskowej jest póki co szacowany na podstawie teoretycznych obliczeń. Z większości modeli matematycznych wynika, że do wygaszenia epidemii konieczne jest, by od 50 do 70 procent populacji było odpornych na zakażenie. Jednak odsetek ten mógłby być mniejszy, gdyby infekcja szerzyła się głównie przez super-roznosicieli, czyli osoby masowo zakażające innych. W takim przypadku, do wygaszenia epidemii wystarczy, by odpornych było 10–20% populacji.
      Problem jednak w tym, że dotychczasowe dane wydają się przeczyć, by super-roznosiciele odgrywali dominującą rolę w rozprzestrzenianiu COVID-19. Nie stwierdzono bowiem wystarczająco dużej liczby osób o tak bardzo rozbudowanych kontaktach, by mogły stać się super-roznosicielami. Ponadto wiosną w niektórych regionach Europy, jak Lombardia czy Madryt, COVID-19 przechorowało około 15–20 procent populacji, a mimo to obecnie znowu notuje się wzrost zachorowań, co oznacza, że nie wytworzyła się tam odporność zbiorowiskowa. To zaś wskazuje, że albo odsetek osób odpornych musi być wyższy, niż pokazują modele, albo też osoby, które wiosną przeszły chorobę, już utraciły odporność.
      Pozostaje więc drugi z progów odporności zbiorowiskowej, czyli około 60%. Innymi słowy, powstaje pytanie, czy należy pozwolić, by epidemia swobodnie się szerzyła po to, by samodzielnie wygasła, gdy zachoruje ok. 60% populacji. Tutaj odpowiedź tkwi w liczbach.
      Osiągnięcie takiego progu zachorowań oznacza, że w ciągu kilku miesięcy w Polsce musiałoby zachorować około 22 milionów osób. Z już dostępnych polskich danych dot. przebiegu COVID-19 wiemy, że wśród osób poniżej 40. roku życia hospitalizacji przez co najmniej 10 dni wymaga od 0,4 do 4,7 procent zakażonych, zaś w grupie wiekowej powyżej 80. roku życia odsetek ten wzrasta do 6,1–36,4 procent. Warto też wspomnieć o liczbie zgonów. O ile w grupie poniżej 40. roku życia są one sporadyczne, to w grupie 60–80 lat odsetek zgonów stanowi do 2,1%, a w grupie powyżej 80. roku życia jest to do 8% zakażonych. Zatem jeśli pozwolimy wirusowi swobodnie się szerzyć, epidemii nie przeżyje wiele osób starszych. Oczywiście można odseparować osoby powyżej 60. roku życia i pozwolić się szerzyć epidemii wśród osób młodszych. To umożliwiłoby osiągnięcie odporności zbiorowiskowej bez zbyt dużej liczby zgonów.
      Tutaj jednak pojawia się problem wydajności całego systemu opieki zdrowotnej. W takim przypadku w ciągu kilku miesięcy trzeba by hospitalizować nawet milion osób. Polska służba zdrowia nie jest w stanie sobie z tym poradzić. A jeśli nawet znalazłoby się tyle łóżek w szpitalach, oznaczałoby to, że opieki zdrowotnej nie uzyskają osoby z chorobami przewlekłymi czy wymagające nagłej interwencji.
      Zatem, aby strategia osiągania odporności zbiorowiskowej miała szanse powodzenia, jak wynika z analiz przeprowadzonych przez badaczy dla Wielkiej Brytanii, należy i tak spowolnić tempo rozwoju epidemii wśród osób młodszych, nakazując dystansowanie, noszenie maseczek i ewentualnie zamykając szkoły, czy miejsca pracy. Jak wynika z tych oszacowań byłby to okres od 7 do 12 miesięcy balansowania pomiędzy zwiększaniem i zmniejszaniem restrykcji. Osoby starsze musiałyby cały ten czas pozostawać w izolacji, nie widywać swych dzieci i wnuków. Co to oznacza? Oznacza to brak opieki medycznej, brak szpitali, brak pomocy w codziennych obowiązkach. Oznacza zamknięcie w domach i kompletną izolację, osób często wykluczonych ze świata komunikatorów cyfrowych. Oznacza bardzo dużą liczbę zgonów z powodu zaniedbań chorób przewlekłych, czy po prostu brak dostępu do leczenia i leków. Empiryczne doświadczenia z innych krajów (Szwecja, Wielka Brytania) wskazują, że odseparowanie dużych grup społecznych jest niemożliwe, czytamy w komunikacie PAN.
      Nawet jednak, gdyby przyjęto taką strategię, to nie wiadomo, czy by się ona sprawdziła. Uczeni z PAN zauważają, że wciąż nie wiemy, na ile trwała jest nabyta odporność na SARS-CoV-2. Już teraz wiemy, że poziom przeciwciał obniża się z czasem. Wiadomo też, że odporność na inne koronawirusy trwa od kilu miesięcy do 2 lat. Nie można więc wykluczyć, czy osoby, które przeszły COVID-19 mogą zarazić się ponownie. Być może osoby takie będą kolejne zakażenia przechodziły łagodniej. Jest to możliwe. Jednak nie wygasi epidemii.
      Zdaniem uczonych z PAN, mogą czekać nas kolejne fale zachorowań, które miały miejsce w przypadku innych chorób, zanim nie pojawiły się skuteczne szczepionki.
      Stanowisko międzynarodowych środowisk naukowych nie pozostawia miejsca na interpretację. W obecnej chwili rozważanie strategii naturalnej odporności środowiskowej, "jest to niebezpieczny błąd logiczny nie poparty dowodami naukowymi".
      Czemu więc uważamy, że szczepionka zadziała inaczej?, pytają naukowcy. Przy szczepieniu możemy podawać dawki przypominające bez ryzyka dla osoby szczepionej, możemy trenować nasz układ immunologiczny tak aby utrzymał w pamięci wzorzec SARS-CoV-2 przez dłuższy czas, wyjaśniają uczeni.
      Przewodniczącym zespołu ds. COVID-19 jest prezes Polskiej Akademii Nauk prof. Jerzy Duszyński. W jego skład wchodzą: prof. Krzysztof Pyrć (UJ), dr Aneta Afelt (UW), prof. Radosław Owczuk (Gdański Uniwersytet Medyczny), dr hab. Anna Ochab-Marcinek (Instytut Chemii Fizycznej PAN), dr hab. Magdalena Rosińska (Narodowy Instytut Zdrowia Publicznego – Państwowy Zakład Higieny), prof. Andrzej Rychard (Instytut Filozofii i Socjologii PAN) oraz dr hab Tomasz Smiatacz (Gdański Uniwersytet Medyczny). W pracach zespołu mogą też brać udział zaproszeni eksperci.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grypa i COVID-19 różnią się m.in. tym, kogo i w jaki sposób atakują. Okazuje się, że z powodu COVID-19 częściej hospitalizowani są mężczyźni, ponadto są oni młodsi, mają mniej chorób współistniejących i przyjmują mniej leków niż osoby hospitalizowane z powodu grypy. Takie wnioski płyną z badań, jakie przeprowadzili specjaliści z organizacji Observational Health Data Sciences and INformatics (OHDSI).
      OHDSI to międzynarodowa sieć baz danych oraz badaczy zajmujących się statystyką medyczną, których prace są koordynowane przez Wydział Informatyki Biomedycznej na Columbia University.
      Na potrzeby najnowszych badań przyjrzano się danym ponad 34 000 osób hospitalizowanych z powodu zarażenia SARS-CoV-2.
      Okazało się, że że w USA i Hiszpanii hospitalizowani byli częściej mężczyźni, ale w Korei Południowej do szpitala częściej trafiały kobiety. Wiek pacjentów był różny, ale w Hiszpanii i USA najwięcej pacjentów stanowiły osoby w wieku 60–75 lat i, jak wspomnieliśmy, byli to mężczyźni. Tymczasem w przypadku grypy grupa pacjentów jest starsza i większość jej stanowią kobiety.
      Bardzo wiele osób z COVID-19 miało choroby współistniejące. Na przykład nadciśnienie występowało – w zależności od źródła danych (placówki leczniczej) – u 24–70% hospitalizowanych, cukrzyca u 13–43%, a astma u 4–15%. Jeśli jednak porównamy te dane z danymi osób hospitalizowanych w ostatnich latach z powodu grypy, okazuje się, że osoby hospitalizowane z powodu COVID-19 były generalnie w lepszym stanie zdrowia. U osób hospitalizowanych z powodu grypy częściej współistniały takie choroby jak przewlekła obturacyjna choroba płuc, choroby układu krążenia i demencja.
      Badania te pozwalają nam lepiej zrozumieć profile pacjentów hospitalizowanych z powodu COVID-19. Pomimo toczącej się dyskusji o rzekomym gorszym zdrowiu i mniejszej spodziewanej długości życia u osób chorujących na COVID-19 widzimy, że osoby takie nie są w gorszym stanie zdrowia, niż osoby hospitalizowane z powodu grypy. To dodatkowo pokazuje, że odsetek zgonów na COVID-19 jest wysoki, mówi jeden z autorów badań Edward Burn.
      Gdy OHDSI ogłosiła, że ma zamiar przeprowadzić powyższe badania, pierwsze dane otrzymała od Korean Health Insurance Review & Asessment Service (HIRA). Później dołączyły inne instytucje. Dane zbierano na poziomie poszczególnych instytucji, w których leczeni byli chorzy.
      Badania te będą stanowiły podstawę współpracy pomiędzy OHDSI oraz EHDEN Consortium, które właśnie szczegółowo analizuje dane europejskich pacjentów leczonych z powodu COVID. Opisanie podstawowych cech demograficznych, scharakteryzowanie przebiegu choroby, leczenia i jego wyników w zależności od wieku, płci i chorób współistniejących znakomicie wspomoże podejmowanie właściwych decyzji w czasie pandemii, mówi inny z autorów najnowszych badań, Daniel Prieto-Alhambra.
      Szczegóły badań opublikowano na łamach Nature Communications w artykule Deep phenotyping of 34,128 adult patients hospitalised with COVID-19 in an international network study

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nawet 500 000 rekinów może zostać zabitych każdego roku, by wyprodukować... szczepionkę przeciwko COVID-19. Organizacje starające się chronić rekiny przed zagładą ostrzegają, że wiele z opracowywanych obecnie szczepionek na COVID-19 wykorzystuje skwalen, występujący m.in. w wątrobie rekina. Jeśli takie szczepionki się upowszechnią, może okazać się, że rekiny zostaną poddane jeszcze większej presji ze strony człowieka.
      Ekolodzy wyliczają, że 17 spośród niemal 200 opracowywanych szczepionek znajduje się obecnie w fazie testów klinicznych i preklinicznych Z nich 5 wykorzystuje skwalen. Na przykład do jednej dawki szczepionki MF59 używa się 9,75 miligramów skwalenu. Gdyby ta szczepionka się sprawdziła, to przy założeniu, że do skutecznego działania wymaga 2 dawek, będzie to oznaczało, iż trzeba zabić 500 000 rekinów rocznie, aby pozyskać wystarczającą ilość skwalenu na zapewnienie szczepionki wszystkim ludziom.
      Trzeba coś z tym zrobić już teraz, gdyż niewykluczone, że świat będzie potrzebował przez wiele lat szczepionki przeciwko COVID-19 oraz przeciwko wielu innym koronawirusom. Prawdziwe niebezpieczeństwo czai się w przyszłości. Uzależnienie się od tłuszczu z wątroby rekina by produkować szczepionkę jest czymś chorym. Dzikie zwierzęta nie są stabilnym źródłem takich surowców, a ich populacje nie wytrzymają rosnącej presji. Już w tej chwili rekiny są zagrożone przez to, co robią ludzie, mówi Stefanie Brendl, dyrektor organizacji Shark Allies.
      Już teraz dla samego tylko skwalenu zabija się około 3 000 000 rekinów rocznie. Tłuszcz ten jest wykorzystywany w dużej mierze w przemyśle kosmetycznym. Wiele gatunków rekinów znajduje się na krawędzi zagłady. Ludzie w sumie zabijają niemal 100 milionów rekinów rocznie. Większość z nich ginie w męczarniach, gdyż żywym zwierzętom odcina się płetwy. Inne są zabijane
      Młotowate, żarłacze białe oraz rekiny wielorybie to najczęściej zabijane gatunki dla skwalenu. Tłuszcz ten zapewnia zwierzętom pływalność. Dlatego też więcej występuje go u gatunków żyjących w głębszych partiach oceanów. Takie gatunki z kolei to gatunki większe, dłużej żyjące, ale i dłużej rosnące. Ich populacja trudniej się więc odradza. Jeśli ludzie będą zabijali dodatkowo setki tysięcy tych zwierząt rocznie, wiele gatunków czeka zagłada.
      Ekolodzy domagają się, by przemysł farmaceutyczny zaczął pozyskiwać skwalen z innych źródeł, takich jak oliwki, trzcina cukrowa, bakterie czy drożdże. Jednak, jak sami zauważają, produkcja skwalenu z takich źródeł jest o około 30% droższa i trwa dłużej niż zabicie rekina i pozyskanie skwalenu z jego wątroby.
      Przemysł odniesie olbrzymie zyski z produkcji szczepionki. Najwyższy więc czas, by zadać im pytanie, czy mają zamiar korzystać ze stabilnych źródeł surowców, mówi Brendl.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dotychczas słyszeliśmy, że „kiedyś” powstanie pełnowymiarowy komputer kwantowy, zdolny do przeprowadzania obliczeń różnego typu, który będzie bardziej wydajny od komputerów klasycznych. Teraz IBM zapowiedział coś bardziej konkretnego i interesującego. Firma publicznie poinformowała, że do końca roku 2023 wybuduje komputer kwantowy korzystający z 1000 kubitów. Obecnie najpotężniejsza kwantowa maszyna IBM-a używa 65 kubitów.
      Plan IBM-a zakłada, że wcześniej powstaną dwie maszyny pozwalające dojść do zamierzonego celu. W przyszłym roku ma powstać 127-kubitowy komputer, a w roku 2022 IBM zbuduje maszynę operującą na 433 kubitach. Rok później ma zaprezentować 1000-kubitowy komputer kwantowy. A „kiedyś” pojawi się komputer o milionie kubitów. Dario Gil, dyrektor IBM-a ds. badawczych mówi, że jest przekonany, iż firma dotrzyma zarysowanych tutaj planów. To coś więcej niż plan i prezentacja w PowerPoincie. To cel, który realizujemy, mówi.
      IBM nie jest jedyną firmą, która pracuje nad komputerem kwantowym. Przed rokiem głośno było o Google'u, który ogłosił, że jego 53-kubitowy komputer kwantowy rozwiązał pewien abstrakcyjny problem osiągając przy tym „kwantową supremację”, a więc rozwiązując go znacznie szybciej, niż potrafi to uczynić jakakolwiek maszyna klasyczna. Stwierdzenie to zostało jednak podane w wątpliwość przez IBM-a, a niedługo później firma Honeywell ogłosiła, że ma najpotężniejszy komputer kwantowy na świecie.
      Google zapowiada, że w ciągu 10 lat zbuduje kwantową maszynę wykorzystującą milion kubitów. Tak przynajmniej zapowiedział Hartmut Neven, odpowiedzialny w Google'u za prace nad kwantową maszyną, który jednak nie podał żadnych konkretnych terminów dochodzenia do celu.
      IBM zadeklarował konkretne daty po to, by jego klienci i współpracownicy wiedzieli, czego można się spodziewać. Obecnie dziesiątki firm kwantowe używają maszyn kwantowych IBM-a,by rozwijać własne technologie kwantowe. Poznanie planów Błękitnego Giganta i śledzenie jego postępów, pozwoli im lepiej planować własne działania, mówi Gil.
      Jednym z partnerów IBM-a jest firma Q-CTRL, rozwija oprogramowanie do optymalizacji kontroli i wydajności poszczególnych kubitów. Jak zauważa jej założyciel i dyrektor, Michael Biercuk, podanie konkretnych terminów przez IBM-a może zachęcić fundusze inwestycyjne do zainteresowania tym rynkiem. Fakt, że wielki producent sprzętu wkłada dużo wysiłku i przeznacza spore zasoby może przekonać inwestorów, mówi.
      Zdaniem Bierucka 1000-kubitowa maszyna będzie niezwykle ważnym krokiem milowym w rozwoju komputerów kwantowych. Co prawda będzie 1000-krotnie zbyt mało wydajna, by w pełni wykorzystać potencjał technologii, ale przy tej liczbie kubitów możliwe już będą wykrywanie i korekta błędów, które trapią obecnie komputery kwantowe.
      Jako, że stany kwantowe są bardzo delikatne i trudne do utrzymania, badacze opracowali protokoły korekcji błędów, pozwalające na przekazanie informacji z jednego fizycznego kubita do wielu innych. Powstaje w ten sposób „kubit logiczny”, którego stan można utrzymać dowolnie długo.
      Dzięki 1121-kubitowej maszynie IBM będzie mógł stworzyć kilka kubitów logicznych i doprowadzić do interakcji pomiędzy nimi. Taka maszyna będzie punktem zwrotnym w pracach nad komputerami kwantowymi. Specjaliści będą mogli skupić się nie na walce z błędami w indywidualnych kubitach, a na wysiłkach w celu udoskonalenia architektury i wydajności całej maszyny.
      IBM już w tej chwili buduje olbrzymi chłodzony helem kriostat, który ma w przyszłości chłodzić komputer kwantowy z milionem kubitów.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...