Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Timothy Berners-Lee, uważany za "ojca WWW", powiedział w wywiadzie dla BBC, że martwi go, iż Internet jest wykorzystywany do dezinformowania ludzi. Jako przykład podał tutaj Wielki Zderzacz Hadronów, o którym można było przeczytać, iż jego uruchomienie spowoduje koniec świata.

Berners-Lee wraz z kolegami z CERN-u założyli fundację, której celem będzie m.in. pomoc internautom w ocenie, czy dana witryna jest wiarygodnym źródłem informacji.

W Sieci krąży olbrzymia ilość informacji, a że uwagę ludzką bardzo przyciągają sensacyjne doniesienia, powstały tysiące stron prezentujących wyssane z palca informacje, które czasami okazują się bardzo szkodliwe czy niebezpieczne. Wystarczy wspomnieć tutaj o indyjskiej nastolatce, która tak bardzo uwierzyła w koniec świata spowodowany przez LHC, że popełniła samobójstwo.
Berners-Lee mówi, że pożądane byłoby stworzenie systemu ocen wiarygodności witryn. W Sieci dana witryna może bardzo szybko stać się kultową i nagle strona, którą interesowało się 12 osób z problemami osobistymi staje się witryną odwiedzaną przez tysiące ludzi - mówi Berners-Lee. I wspomina o różnych teoriach spiskowych, które są często bardzo szkodliwe.

Głównym celem założonej przez niego fundacji nie jest jednak promowanie wiarygodnych witryn, a zapewnienie ludziom jak najszerszego dostępu do Sieci. The Web Foundation chce, by z Internetu mogli korzystać wszyscy i by był on coraz łatwiejszy w użyciu. Dlatego też fundacja będzie pracowała nad technologiami łatwego dostępu do Internetu przez telefony komórkowe. Uczeni chcą też zastanowić się, w jaki sposób z WWW mogą korzystać osoby, które nie potrafią czytać i pisać.
Kolejnym celem fundacji będzie praca nad zdemokratyzowaniem Sieci. Obecnie bowiem coraz większy wpływ na nią mają wielkie korporacje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Berners-Lee wraz z kolegami z CERN-u założyli fundację, której celem będzie m.in. pomoc internautom w ocenie, czy dana witryna jest wiarygodnym źródłem informacji.

Oni na pewno uczestniczą w spisku i maskują prawdę. Skoro powstała ta fundacja, to tylko dlatego, że coś jest na rzeczy. Czarna dziura naprawdę tam powstanie! :>

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest właśnie "bolączka" dzisiejszego internetu. Bardzo ciężko znaleźć rzetelne informacje. Do tego jeszcze wszędobylskie reklamy i sklepy internetowe. Po wpisaniu w wyszukiwarkę jakiegokolwiek rzeczownika zostajemy zalewani ofertami "... tutaj kupisz najtaniej ...", "... najlepsze ceny w sieci ..." itd. Normalny użytkownik nie ma zamiaru robić zakupów przy każdym skorzystaniu z wyszukiwarki. To, że każdy może napisać w internecie co chce (oczywiście do odpowiednich granic) jest zaletą, a zarazem największą wadą WWW. Jakby tak wydzielić odpowiednią część internetu, w której nie było by reklam, sklepów, ogłoszeń i blogów. Powstała by taka duuuuuuuża KW, w której każdy, kto szuka informacji mógłby znaleźć coś dla siebie. Tylko jest jeden mały problem - kto by za to wszystko płacił ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W czym problem? Jeżeli studiujesz, Twoja uczelnia na 99% ma wykupiony abonament na większość czasopism naukowych. Wrzucasz na Google'a zapytanie, dostajesz w odpowiedzi tytuły publikacji, które Ciebie interesują. Potem tylko pobierasz te teksty i czytasz. Możesz byc praktycznie w 100% pewny, że są rzetelne. Poza tym są przecież fora prowadzone przez naukowców i dla naukowców, strony czasopism popularnonaukowych... Wcale nie jest tak źle, tylko trzeba umieć szukać. Problem w tym, że ci, którzy rozsiewają po internecie idiotyzmy i ci, ktorzy je czytają, tego nie potrafią. Stworzenie drugiej Sieci wcale nie rozwiązałoby problemu, bo tym najważniejszym ciągle pozostałaby ludzka głupota i/lub naiwność.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@mikroos

Co do wyszukiwania to wypowiadałem się w imieniu wszystkich użytkowników, nie w swoim. Masz rację, taką rolę spełniają fora. Ale nie każdy zna sposoby formułowania zapytań w google, i nie każdy chce marnować czas na odfiltrowywanie niechcianych informacji. A co do drugiej sieci, to tylko nie nierealna idea ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale powtarzam: problemem nie jest brak dostępu do informacji. Problemem jest przede wszystkim lenistwo. No, albo cheć wybicia się za wszelką cenę własnym nonkonformizmem, zgodnie z pradawną zasadą "na złość mamie odmrożę sobie uszy" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@mikroos, @itneron - w Waszych postach zmieniłem tytuł, bo zmieniłem go też i w notce, więc chciałem, żeby wszystko pasowało.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem z oceną czy dana informacja jest prawdziwa czy wyssana z palca to nie tylko problem dzisiejszego internetu. Występował on on zawsze - od słowa przekazywanego ustnie aż po druk. Spójrzcie proszę co się dzisiaj choćby dzieje z historią. "Historię piszą zwycięzcy". Wszystko jest subiektywne. Nie ma prawdy obiektywnej. Rzeczywiście, w pewnym zawężonym kręgu dotyczącym informacji ogólnych może dałoby się "cenzurować" informacje na stronach internetowych. Ale do tego potrzeba całej masy ludzi, którzy weryfikowaliby co jest prawdą a co nie. Dochodzimy w ten sposób znów do absurdu - "weryfikatorzy" mogliby w sposób zaplanowany kierować naszym postrzeganiem rzeczywistości poprzez przepuszczanie tylko wybranych treści.

Najlepszym wyznacznikiem "obiektywności" jako takiej jest nasza inteligencja oraz sceptycyzm i związane z nim weryfikowanie wiadomości z innymi źródłami.

Jeśli chodzi o treść artykułu to powiem brutalnie: jeśli ktoś nie potrafił poradzić sobie z wyssanymi z palca doniesieniami o końcu świata po uruchomieniu LHC no to przykro mi bardzo - bardziej mi to podchodzi pod "NAGRODĘ DARWINA".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mówcie proszę, że nieumiejętność dostania się do rzeczowych informacji jest wynikiem lenistwa. Nie każdy wie gdzie szukać, nie każdy ma swoją "kopalnię wiedzy", nie każdy może znaleźć swoje forum... Nie mówię tu o ludziach głupich czy leniwych. Wyobrażacie sobie że dwunastolatek łatwo znajdzie wiarygodne informację na jakiś nieoczywisty temat ? Wpisze w googlach słowo "czarna dziura" i jeśli nie trafi na strony porno to trafi pewnie na strony ze ściagami, i inne podobne. Na każdej będzie pisało co innego. Myślicie, że jego - nie użyję tu słowa "inteligencja" czy "sceptycyzm" - WIEDZA w danym temacie pozwoli mu na zweryfikowanie poprawności treści które czyta ? To samo się tyczy wszystkich osób - które z braku wiedzy w danym temacie są skazane na przyjmowanie (w pewnym zakresie) informacji z niezweryfikowanych źródeł. Moja mama niejednokrotnie zaskakuje mnie swoimi teoriami czy FAKTAMI, które wyczytała w necie, a nie czyta plotkowych serwisów i innych tego typu śmieci.

Myślę, że jakiś znacznik uwzględniany/wyświetlany przez przeglądarkę czy wyszukiwarkę i informujący nas, że dane na tej stronie są zweryfikowane i ogólnie przyjęte jako prawda jest genialnym rozwiązaniem i to rozwiązaniem potrzebnym bardzo w danych czasach. Jeśli komuś dane zweryfikowane nie będą pasować do jego teorii świata czy czegokolwiek innego (tak, spiskowych też), to znaczy, że sam potrafi sobie znaleźć inne satysfakcjonujące go źródła.

Nie brońmy ludziom dostępu do ZWERYFIKOWANEJ INFORMACJI...

 

PS. Ja z racji mojej niewiedzy co to w ogóle jest prąd (szczerze mówiąc nigdy mnie to nie ciekawiło), nadal mam dylemat i swoiste rozdwojenie teorii/informacji które uzyskałem na temat piorunochronów. Czy one istnieją po to aby ściągać wyładowania atmosferyczne i je neutralizować, czy po to aby wyrównywać poziomy potencjałów ziemi i "siatki piorunochronowej" pokrywającej budynek i w ten sposób "ukrywać" go przed wyładowaniami ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Weryfikacja informacji już istnieje i działa w naturalny sposób, jeśli informacja występuje w wielu nie powiązanych ze sobą stronach które wcześniej publikowały rzetelne informacje (gdyż potwierdziły się w praktyce) można z dość wysokim prawdopodobieństwem przyjąć że jest ona prawdziwa.

Oczywiście istnieje szansa, że i taka informacja nie jest prawdziwa - jednak żaden mechanizm uwiarygodnienia stron internetowych nie zapewni 100% wiarygodności.

Dlatego do każdej informacji (nie tylko w internecie) trzeba podchodzić z rozsądkiem.

 

ps. thibris, piorunochrony oczywiście mają zmniejszyć opór stawiany przez budynek do minimalnej wartości, przez co ewentualne uderzenie pioruna nie wywoła tak dużych uszkodzeń gdyż popłynie piorunochronem a nie poprzez elementy wewnątrz budynku (np. przewody elektryczne, rury itp)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość cogito

to jak autoryzacja stron.

ja myśle że jest zbyt wiele informacji żey je kontrolować

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

temat dość stary, już od lat zajmują się tym zagadnieniem bibliotekoznawcy, którzy tworzą serwisy tematyczne kontrolowanej jakości właśnie po to aby można było znaleźć informacje wiarygodne i rzetelne, zweryfikowane przez ludzi którzy zajmują się daną dziedziną nauki, po to istnieją repozytoria pre- i postprintów itp. zasoby, kwestia tego czy potrafimy odfiltrować to co niepotrzebne, zwykły szum informacyjny od tego co wartościowe i interesujące dla nas, to jak z wizytą w kiosku ruchu, są tam liczne czasopisma: brukowce i specjalistyczne publikacje, nikt nie każe nam kupować wszystkiego co tam jest, podobnie z internetem, wg. mnie po prostu w szkołach już na pierwszych zajęć z technologi informacyjnej powinno się uczyć jak skutecznie szukać potrzebnych nam informacji, niestety nawet na studiach, o zgrozo, rzadko kiedy tego uczą

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Uczeni pracujący przy eksperymencie ATLAS w CERN donieśli o zaobserwowaniu pierwszego przypadku jednoczesnego powstania trzech masywnych bozonów W (produkcja WWW), które pojawiły się w wyniku zderzeń prowadzonych w Wielkim Zderzaczu Hadronów.
      Bozony W, jako nośniki oddziaływań elektrosłabych, odgrywają kluczową rolę w testowaniu Modelu Standardowego. Po raz pierwszy zostały odkryte przed 40 laty i od tamtej pory są przedmiotem badań fizyków.
      Naukowcy z ATLAS przeanalizowali dane zarejestrowane w latach 2015–2018 i oznajmili, że zauważyli produkcję WWW z poziomem ufności rzędu 8,2 sigma. To znacznie powyżej 5 sigma, gdy już można powiedzieć o odkryciu. Osiągnięcie tak dużej pewności nie było łatwe. Naukowcy przeanalizowali około 20 miliardów zderzeń, wśród których zauważyli kilkaset przypadków produkcji WWW.
      Bozon W może rozpadać się na wiele różnych sposobów. Specjaliści skupili się na czterech modelach rozpadu WWW, które dawały największe szanse na odkrycie poszukiwanego zjawiska, gdyż powodują najmniej szumów tła. W trzech z tych modeli dwa bozony W rozpadają się w elektrony lub miony o tym samym ładunku oraz neutrina a trzeci bozon W rozpada się do pary kwarków. W czwartym z modeli wszystkie bozony W rozpadają się w leptony (elektrony lub miony) i neutrino.
      Dzięki odkryciu specjaliści będą mogli poszukać teraz interakcji, które wykraczają poza obecne możliwości LHC. Szczególnie interesująca jest możliwość wykorzystania procesu produkcji WWW do badania zjawiska polegającego na wzajemnym rozpraszaniu się dwóch bozonów W.
      Więcej na temat najnowszego odkrycia w artykule Observation of WWW production in pp collisions at s√=13 TeV with the ATLAS detector [PDF].

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z całego świata będą po raz drugi debatować nad przyszłością nowego kierunku badań w Wielkim Zderzaczu Hadronów pod Genewą, który ma zaowocować szczegółowymi pomiarami wysokoenegetycznych neutrin oraz otworzy nowe drogi poszukiwań ciemnej materii. Współautorem dyskutowanej propozycji nowego eksperymentu FLArE jest dr Sebastian Trojanowski z AstroCeNT i Zakładu Fizyki Teoretycznej NCBJ.
      Planowane ponowne uruchomienie Wielkiego Zderzacza Hadronów jest jednym z najbardziej wyczekiwanych wydarzeń w świecie fizyki. Przy tej okazji, zostanie również zainicjowany nowy kierunek badań w LHC, obejmujący pomiary wysokoenergetycznych neutrin oraz poszukiwania śladów nowej fizyki w kierunku wzdłuż osi wiązki zderzenia protonów. Ten nietypowy sposób wykorzystania zderzacza został zaproponowany przez autorów koncepcji detektora FASER (odnośniki w uzupełnieniu). Jednym z jego pomysłodawców był dr Sebastian Trojanowski związany z ośrodkiem badawczym AstroCeNT przy Centrum Astronomicznym im. Mikołaja Kopernika PAN oraz z Narodowym Centrum Badań Jądrowych.
      Choć eksperyment FASER ma dopiero zacząć zbierać dane w najbliższym czasie, to już zadajemy sobie pytanie, jak rozwinąć ten pomysł do jeszcze ambitniejszego projektu w dalszej przyszłości – mówi dr Trojanowski. Dyskusje na ten temat zgromadzą w dniach 27-28 maja (w formule zdalnej) około 100 badaczy z całego świata zajmujących się fizyką cząstek elementarnych. Na spotkaniu inżynierowie z CERN zaprezentują również wstępne plany dotyczące budowy nowego laboratorium podziemnego, które mogłoby pomieścić większą liczbę eksperymentów skupionych wzdłuż osi wiązki zderzenia. Jest to projekt długofalowy, który ma na celu maksymalizację potencjału badawczego obecnego zderzacza, który powinien służyć nauce jeszcze wiele lat.
      Wśród kilku eksperymentów proponowanych do umieszczenia w nowym laboratorium jest m.in. bezpośredni spadkobierca detektora FASER. Eksperyment, nazwany roboczo FASER 2, znacząco poszerzyłby potencjał odkrywczy obecnego detektora. Choć ani obecny, ani proponowany przyszły eksperyment nie dają możliwości bezpośredniej obserwacji ciemnej materii, to umożliwiają one poszukiwanie postulowanych teoretycznie niestabilnych cząstek, które mogą pośredniczyć w jej oddziaływaniach.
      O krok dalej idą autorzy kwietniowego artykułu opublikowanego w czasopiśmie Physical Review D, prof. Brian Batell z Uniwersytetu w Pittsburgu w USA, prof. Jonathan Feng z Uniwersytetu Kalifornijskiego w Irvine oraz dr Trojanowski. Proponują oni sposób na bezpośrednią obserwację lekkich cząstek ciemnej materii w nowym laboratorium. W tym celu sugerują umieszczenie tam nowego detektora, nazwanego FLArE (ang. Forward Liquid Argon Experiment), wykorzystującego technologię ciekło-argonowej komory projekcji czasowej oraz wstępny sygnał w postaci błysku (ang. flare) scyntylacyjnego. Detektor taki byłby nowym narzędziem do bezpośredniego poszukiwania cząstek ciemnej materii poprzez badanie ich oddziaływań przy bardzo wysokich energiach oraz przy laboratoryjnie kontrolowanym strumieniu takich cząstek. Jest to metoda wysoce komplementarna względem obecnych podziemnych eksperymentów poszukujących cząstek pochodzących z kosmosu lub produkowanych przez promieniowanie kosmiczne – argumentuje dr Trojanowski.
      Pomysł na nowy detektor FLArE został błyskawicznie włączony we wstępne plany inżynieryjne nowego laboratorium oraz w dyskusje eksperymentalne, również te dotyczące przyszłych badań neutrin w LHC. Czas pokaże, czy projekt ten będzie kolejnym sukcesem na miarę FASERa, czy też zostanie zastąpiony jeszcze lepszym rozwiązaniem – komentuje dr Trojanowski. Jedno jest pewne: fizycy nie próżnują i nie ustają w wysiłkach w celu lepszego poznania praw rządzących naszym światem.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Wielkim Zderzaczu Hadronów zainstalowano nowe urządzenie o nazwie FASER (Forward Search Experiment), którego współtwórcą jest dr Sebastian Trojanowski. FASER będzie badał cząstki, co do których naukowcy mają podejrzenie, że wchodzą w interakcje z ciemną materią. Testy nowego urządzenia potrwają do końca roku.
      To krok milowy dla tego eksperymentu. FASER będzie gotowy do zbierania danych z Wielkiego Zderzacza Hadronów, gdy tylko na nowo podejmie on pracę wiosną 2022 roku, mówi profesor Shih-Chieh hsu z University of Washington, który pracuje przy FASER.
      Eksperyment będzie badał interakcje z wysokoenergetycznymi neutrinami i poszukiwał nowych lekkich słabo oddziałujących cząstek, które mogą wchodzić w interakacje z ciemną materią. Stanowi ona około 85% materii we wszechświecie. Zbadanie cząstek, które mogą z nią oddziaływać, pozwoli na określenie właściwości ciemnej materii.
      W pracach eksperymentu FASER bierze udział 70 naukowców z 19 instytucji w 8 krajach.
      Naukowcy sądzą, że podczas kolizji w Wielkim Zderzaczu Hadronów powstają słabo reagujące cząstki, które FASER będzie w stanie wykryć. Jak informowaliśmy przed dwoma laty, w LHC mogą powstawać też niewykryte dotąd ciężkie cząstki.
      FASER został umieszczony w nieużywanym tunelu serwisowym znajdującym się 480 metrów od wykrywacza ATLAS. Dzięki niewielkiej odległości FASER powinien być w stanie wykryć produkty rozpadu lekkich cząstek. Urządzenie ma 5 metrów długości, a na jego początku znajdują się dwie sekcje scyntylatorów. Będą one odpowiedzialne za usuwanie interferencji powodowanej przez naładowane cząstki. Za scyntylatorami umieszczono 1,5-metrowy magnes dipolowy, za którym znajduje się spektrometr, składający się z dwóch 1-metowych magnesów dipolowych. Na końcu, początku i pomiędzy magnesami znajdują się 3 urządzenia rejestrujące zbudowane z krzemowych detektorów. Na początku i końcu spektrometru znajdują się dodatkowe stacje scyntylatorów. Ostatnim elementem jest elektromagnetyczny kalorymetr. Będzie on identyfikował wysokoenergetyczne elektrony i fotony oraz mierzył całą energię elektromagnetyczną.
      Całość jest schłodzona do temperatury 15 stopni Celsjusza przez własny system chłodzenia. Niektóre z elementów FASERA zostały zbudowane z zapasowych części innych urządzeń LHC.
      FASER zostanie też wyposażony w dodatkowy detektor FASERv, wyspecjalizowany w wykrywaniu neutrin. Powinien być on gotowy do instalacji pod koniec bieżącego roku.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed czterema miesiącami zamknięto Tevatron, niezwykle zasłużony dla nauki akcelerator cząstek z amerykańskiego Fermilab. Jednak prowadzone w nim w przeszłości prace ciągle umożliwiają dokonywanie kolejnych odkryć.
      Akcelerator dostarczył olbrzymiej ilości danych, których analiza i interpretacja ciągle nie zostały zakończone.
      Podczas konferencji we Włoszech poinformowano, że dane z Tevatronu wskazują, iż podczas zderzeń protonów z antyprotonami pojawiały się liczne sygnały, których źródłem może być bozon Higgsa o masie pomiędzy 117-131 GeV. Statystyczne prawdopodobieństwo wynosi 2,6 sigma, co oznacza, że istnieje 0,5% szansy, iż sygnały są przypadkowe. Jest więc ono zbyt niskie, by jednoznacznie rozstrzygnąć o istnieniu bozonu w tym przedziale, jednak znaczenie odkrycia polega na tym, iż potwierdza ono obserwacje dokonane w Wielkim Zderzaczu Hadronów. Wynika z nich, że Boska Cząstka, o ile istnieje, może mieć masę około 125 gigaelektronowoltów.
      Dane z Tevatronu są tym cenniejsze, iż akcelerator pracował w inny sposób niż LHC i obserwował inne rodzaje rozpadu cząstek, zatem można stwierdzić, że podobne wyniki uzyskano różnymi metodami. Ponadto LHC uzyskało swoje wyniki z 5 odwrotnych femtobarnów, ale przy energii 7 teraelektronowoltów. Ilość danych z Tevatrona to 10 odwrotnych femtobarnów uzyskanych przy energii 2 TeV.
      W bieżącym roku, jak informowaliśmy, LHC będzie pracował z energią 8 TeV. To powinno pozwolić na uzyskanie danych o statystycznym prawdopodobieństwie wynoszącym 5 sigma. To wystarczy, by ogłosić odkrycie bozonu Higgsa. O ile, oczywiście, on istnieje.
    • przez KopalniaWiedzy.pl
      CERN poinformował, że w bieżącym roku energia strumieni cząstek w Wielkim Zderzaczu Hadronów (LHC) zostanie zwiększona do 4 teraelektronowoltów (TeV). Będzie zatem o 0,5 TeV większa niż w latach 2010-2011. Ma to pomóc w zebraniu jak największej ilości danych przed wyłączeniem akceleratora na dłuższy czas.
      Cele, które naukowcy chcą osiągnąć w bieżącym roku to uzyskanie 15 odwrotnych femtobarnów w eksperymentach ATLAS i CMS. Odwrotny femtobarn oznacza liczbę interakcji cząsteczek na 1 femtobarn. Naukowcy mają zatem zamiar aż trzykrotnie zwiększyć ilość pozyskanych danych. Jeden odwrotny femtobarn to w praktyce około 70 bilionów zderzeń.
      Gdy rozpoczynaliśmy w 2010 roku prace z LHC zdecydowaliśmy się na pracę z wiązkami o najniższej bezpiecznej energii. Dwa lata pracy z wiązkami i wiele pomiarów wykonanych w 2011 roku upewniło nas, że możemy bezpiecznie podnieść poprzeczkę i rozpocząć bardziej ambitne eksperymenty, zanim na długi czas zamkniemy LHC - mówi Steve Myers dyrektor CERN ds. akceleratorów i technologii.
      Pod koniec bieżącego roku LHC zostanie zamknięty na około 20 miesięcy. Podczas tej przerwy Wielki Zderzacz Hadronów będzie przystosowywany do pracy z maksymalną przewidzianą mocą - 7 TeV na wiązkę. Urządzenie zostanie ponownie uruchomione pod koniec 2014 roku, a pełną moc osiągnie w roku 2015.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...