Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polak profesor Artur Ekert ma szansę na Nobla z fizyki

Rekomendowane odpowiedzi

Jutro w Sztokholmie zostanie ogłoszony laureat tegorocznej Nagrody Nobla z fizyki. Wśród kandydatów do tego wyróżnienia znajduje się Polak, profesor Artur Ekert z Uniwersytetu Oksfordzkiego.

Jak poinformowała szwedzka agencja informacyjna TT, powołując się na rankingi cytowań amerykańskiej firmy Clarivate Analytics, Ekert miałby być branym pod uwagę ze względu na dużą liczbę cytowań jego prac. Ponadto przemawiają za nim jego badania nad technologiami informatycznymi, w tym nad kryptografią kwantową.

Artur Ekert urodził się 1961 roku we Wrocławiu. Studiował fizykę na Uniwersytecie Jagiellońskim i Uniwersytecie Oksfordzim. W latach 1987-1991 był doktorantem na Oksfordzie, gdzie studiował pod kierunkiem wybitnego fizyka Davida Deutscha, twórcy pierwszego kwantowego algorytmu obliczeniowego. W swojej pracy doktorskiej Ekert pokazał, jak można wykorzystać splątanie kwantowe do zabezpieczenia informacji.

Po ukończeniu studiów doktoranckich Ekert został na Uniwersytecie Oksfordzkim, gdzie był założycielem grupy naukowej, która z czasem przekształciła się w Centre for Quantum Computation. Jest profesorem fizyki na Uniwersytecie Oksfordzkim oraz profesorem honorowym na Narodowym Uniwersytecie Singapurskim. Jest laureatem Medalu Maxwella przyznawanego przez Institute of Physics, Medalu Hughesa przyznawanego przez Royal Society oraz Nagrody Kartezjusza Unii Europejskiej.

Uczony specjalizuje się w przetwarzaniu informacji w systemach kwantowo-mechanicznych.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dumni??? z  czego ze tak zapytam ??... moze z tego ze Ekert zmienil obywatelstwo ??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Tegoroczną Nagrodą Nobla z chemii podzielą się Benjamin List z Niemiec i David MacMillan z USA, zdecydowała Szwedzka Królewska Akademia Nauk. Nagrodę przyznano za rozwój asymetrycznej katalizy organicznej. Prace Lista i MacMillana mają olbrzymi wpływ na tworzenie nowych leków, a przy okazji czynią procesy chemiczne bardziej przyjazne środowisku naturalnemu.
      Bardzo wiele dziedzin nauki i obszarów działalności przemysłowej jest zależnych od możliwości tworzenia molekuł o pożądanych właściwościach. Takich, dzięki którym powstaną wytrzymałe materiały, w których będzie można przechowywać energię czy molekuł służących do walki z chorobami. Stworzenie takich cząsteczek wymaga użycia odpowiednich katalizatorów, substancji pozwalających kontrolować i przyspieszać reakcje chemiczne, ale które nie wchodzą w skład finalnego produktu tych reakcji. Katalizatory są wszechobecne. Mamy je też w naszych organizmach, gdzie katalizatorami są enzymy, biorące udział w wytwarzaniu związków chemicznych niezbędnych do życia.
      Przez całe dziesięciolecia uważano, że katalizatorami mogą być jedynie metale lub enzymy. Jednak w 2000 roku dowiedzieliśmy się, że istnieje trzeci rodzaj katalizatorów, gdy Benjamin List i David MacMillan – niezależnie od siebie – odkryli proces asymetrycznej katalizy organicznej, który opiera się na niewielkich molekułach organicznych.
      Ten pomysł na przeprowadzenie katalizy jest tak prosty i genialny, że aż rodzi się pytanie, dlaczego nikt nie wpadł na to wcześniej, powiedział Johan Åqvist, przewodniczący zespołu przyznającego Nagrodę Nobla z chemii.
      Naukowcy przez dziesięciolecia mogli tylko z zazdrością patrzeć na możliwości enzymów, dzięki którym natura tworzy niezwykle złożone cząsteczki. Nauka jednak powoli szła do przodu i nasze możliwości również się zwiększały. Na przełomie wieków, dzięki Listowi i MacMillanowi nasze zdolności w tym zakresie znacząco się zwiększyły. Obaj uczeni przenieśli możliwości tworzenia molekuł na całkowicie nowy poziom. Opracowali proce, który nie tylko jest mniej szkodliwy dla środowiska, ale przede wszystkim znacząco zwiększa możliwości tworzenie molekuł asymetrycznych.
      Chemicy przez długie lata mieli problem z tym, że wiele molekuł występuje w dwóch postaciach – odbić lustrzanych, które jednak nie są identyczne. Są obiektami chiralnymi, o różnych właściwościach. Za przykład może tutaj posłużyć limonen, cząsteczka odpowiadająca za zapach cytryny, której lustrzane odbicie daje zapach pomarańczy. Problem w tym, że zwykle potrzebujemy konkretnej wersji danej molekuły. Jest to wyjątkowo ważne przy produkcji leków. A gdy w procesie katalizy powstaną obie wersje, trzeba te wymieszane bliźniaczo podobne molekuły zidentyfikować i od siebie oddzielić, co nie jest łatwym zadaniem.
      W XIX wieku chemicy zauważyli niezwykłe zjawisko. Na przykład gdy do nadtlenku wodoru (H202) dodali srebra, dochodziło do pojawienia się wody (H2O) i tlenu (O2), jednak wydawało się, że cała ta reakcja nie miała żadnego wpływu na srebro. W 1835 roku szwedzki chemik Jacob Berzelius opisał taki proces na kilkunastu różnych przykładach i nazwał to zjawisko katalizą.
      Z czasem odkryto olbrzymią liczbę katalizatorów, dzięki którym można było łączyć lub rozdzielać molekuły. Proces katalizy zaczęto wykorzystywać tak powszechnie, że obecnie około 35% światowego PKB w jakiś sposób jest z nim związane. Jednak przed rokiem 2000 wszystkie znane katalizatory były albo metalami albo enzymami. Metale są świetnymi katalizatorami, ale mają poważną wadę – są bardzo wrażliwe na działanie tlenu i wody. Zatem do pracy często potrzebują beztlenowego suchego środowiska, a jego uzyskanie w wielkoskalowych procesach przemysłowych jest bardzo trudne. Ponadto wiele świetnych katalizatorów to szkodliwe dla środowiska i człowieka metale ciężkie.
      Drugim z rodzajów katalizatorów są enzymy. Jako, że są niezwykle wydajne, w latach 90. ubiegłego wieku prowadzono intensywne prace nad stworzeniem nowych enzymów do katalizy. Prace takie trwały też w Scripps Research Institute, w którym pracował Benjamin List.
      Naukowiec obserwując sposób działania enzymów zwrócił uwagę na fakt, że mimo iż często zawierają one metale, to wiele enzymów katalizuje procesy chemiczne bez pomocy metali. Wykorzystują jedynie aminokwasy. List zaczął więc się zastanawiać, czy aminokwasy te muszą być częścią enzymów, by prowadzić katalizę czy też mogą działać samodzielnie lub będąc częścią jakiejś prostszej cząstki.
      Naukowiec wiedział, że latach 70. prowadzono prace nad wykorzystaniem aminokwasu o nazwie prolina w procesie katalizy, ale je zarzucono. List przypuszczał, że stało się tak, gdyż pomysł nie wypalił. Mimo to, postanowił spróbować. Przeprowadził test, by sprawdzić, czy prolina może być katalizatorem reakcji aldolowej, w której atomy węgla z dwóch różnych molekuł łączą się ze sobą. Ku jego zdumieniu aminokwas świetnie się w tej roli sprawdził. W trakcie kolejnych eksperymentów List wykazał, że prolina nie tylko jest wydajnym katalizatorem, ale również może być wykorzystana w katalizie asymetrycznej, w trakcie której znacznie częściej powstaje tylko jedno z dwóch odbić lustrzanych molekuły. W porównaniu z metalami i enzymami prolina ma wiele zalet. Jest prostą, tanią i przyjazną środowisku molekułą. Naukowiec przygotował artykuł, który zaakceptowano do publikacji. Miał się on ukazać w lutym 2000 roku.
      Jednak List nie był jedynym, który w tym czasie pracował nad takim rozwiązaniem.
      David MacMillan pracował na Uniwersytecie Harvarda z metalami w roli katalizatorów. O ile w laboratorium łatwo jest o dobre warunki do pracy takich katalizatorów, to w przemyśle jest to bardzo trudne. Dlatego gdy przeniósł się z Harvarda na Uniwersytet Kalifornijski w Berkeley zarzucił prace nad metalami i zaczął projektować proste molekuły organiczne, które – podobnie jak metale – miały uwalniać lub więzić elektrony. Wybrał kilka molekuł i testował je w roli katalizatorów reakcji Dielsa-Aldera, której produktem jest węglowodór cykliczny.
      Okazało się, że wykorzystane molekuły bardzo dobrze się sprawują, a niektóre z nich świetnie sobie radzą w reakcjach asymetrycznych. W wyniku ich pracy w ponad 90% przypadków powstawała tylko jedna z dwóch wersji poszukiwanej cząsteczki. W styczniu 2000 roku, na miesiąc przed ukazaniem się artykułu z wynikami pracy Lista, uczony przesłał do czasopisma naukowego swój własny artykuł. Nazwał w nim zaobserwowane przez siebie zjawisko katalizą organiczną.
      Od 2000 roku prace nad katalizą organiczną ruszyły z kopyta. W procesie tym nie tylko wykorzystuje się proste łatwe do uzyskania molekuły, ale w niektórych przypadkach cząsteczki te, podobnie jak enzymy, potrafią działać w systemie „pracy ciągłej”. Wcześniej konieczne było po każdym etapie procesu chemicznego wyizolowanie i oczyszczenie produktu przejściowego, w przeciwnym razie na końcu całego procesu uzyskiwano zbyt dużo produktu ubocznego. Dzięki katalizie organicznej często można przeprowadzić wiele kroków procesu produkcyjnego jednym ciągiem. Dzięki takiej reakcji kaskadowej znacząco zmniejsza się liczba odpadów w przemyśle chemicznym.
      Przykładem, jak bardzo wynalazek Lista i MacMillana zrewolucjonizował produkcję chemiczną niech będzie strychnina. Gdy w 1952 roku została po raz pierwszy zsyntetyzowana, konieczne było użycie 29 różnych reakcji chemicznych, jedynie 0,00009% oryginalnego materiału utworzyło strychninę. Reszta się zmarnowała. W 2011 roku dzięki katalizie organicznej produkcję strychniny uproszczono do 12 kroków, a sam proces był 7000 razy bardziej wydajny.
      Benjamin List urodził się w 1968 roku we Frankfurcie nad Menem w Niemczech. prace doktorską obronił na Uniwersytecie Goethego. Obecnie jest profesorem na Uniwersytecie w Kolonii i dyrektorem Instytutu Badań nad Węglem im. Maxa Plancka. Jest też głównym badacze w Instytucie Projektowania Reakcji Chemicznych na Hokkaido University.
      David MacMillan urodził się w 1968 roku w Bellshill w Szkocji. W wieku 22 lat wyjechał do USA by rozpocząć studia doktoranckie na Uniwersytecie Kalifornijskim w Irvine. Później pracował na Uniwersytecie Harvarda i Uniwersytecie Kalifornijskim w Berkeley. Obecnie jest pracownikiem Princeton University. Był też założycielem i pierwszym dyrektorem pisma Chemical Science, wydawanego przez brytyjskie Royal Society of Chemistry.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od swych początków mechanika kwantowa nie przestaje zadziwiać trudną do zrozumienia niezwykłością. Czemu jedna cząstka wydaje się przechodzić przez dwie szczeliny jednocześnie? Dlaczego zamiast konkretnych przewidywań możemy mówić tylko o ewolucji prawdopodobieństw? Zdaniem teoretyków z uniwersytetów w Warszawie i Oksfordzie, najważniejsze cechy świata kwantów mogą wynikać ze szczególnej teorii względności, która do tej pory z mechaniką kwantową wydawała się nie mieć wiele wspólnego.
      Od czasu pojawienia się mechaniki kwantowej i teorii względności fizykom spędza sen z powiek niekompatybilność tych trzech konstrukcji (trzech, bowiem teorie względności są dwie: szczególna i ogólna). Powszechnie przyjmowano, że opis mechaniki kwantowej jest bardziej fundamentalny i to teorię względności trzeba będzie do niego dopasować. Dr hab. Andrzej Dragan z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) oraz prof. Artur Ekert z Uniwersytetu w Oksfordzie (UO) właśnie zaprezentowali rozumowanie prowadzące do innego wniosku. W artykule "Kwantowa zasada względności", opublikowanym w czasopiśmie New Journal of Physics, dowodzą oni, że cechy mechaniki kwantowej decydujące o jej unikatowości i tak nieintuicyjnej egzotyce, na dodatek przyjmowane w niej "na wiarę" (jako aksjomaty), można wyjaśnić w ramach szczególnej teorii względności. Trzeba się tylko zdecydować na pewien dość nieortodoksyjny krok.
      Albert Einstein zbudował szczególną teorię względności na dwóch postulatach. Pierwszy jest znany jako zasada względności Galileusza (która, notabene, jest szczególnym przypadkiem zasady kopernikańskiej). Mówi ona, że fizyka jest taka sama w każdym układzie inercjalnym (czyli albo pozostającym w spoczynku, albo poruszającym się ruchem jednostajnym prostoliniowym). Drugi postulat, zbudowany na wyniku słynnego eksperymentu Michelsona-Morleya, narzucał wymóg stałości prędkości światła w każdym układzie odniesienia.
      Einstein uważał drugi postulat za kluczowy. W rzeczywistości kluczowa jest zasada względności. Już w 1910 roku Władimir Ignatowski pokazał, że bazując tylko na niej, można odtworzyć wszystkie zjawiska relatywistyczne szczególnej teorii względności. Efektownie proste rozumowanie, prowadzące bezpośrednio od zasady względności do relatywistyki, przedstawił też w 1992 roku profesor Andrzej Szymacha z naszego wydziału - mówi dr Dragan.
      Szczególna teoria względności to spójna struktura, która dopuszcza trzy matematycznie poprawne rodzaje rozwiązań: świat cząstek poruszających się z prędkościami podświetlnymi, świat cząstek poruszających się z prędkością światła i świat cząstek poruszających się z prędkościami nadświetlnymi. Ten trzeci wariant zawsze odrzucano jako niemający nic wspólnego z rzeczywistością.
      Postawiliśmy pytanie: co się stanie, gdy – na razie bez wnikania w fizyczność czy niefizyczność rozwiązań – potraktujemy serio nie część szczególnej teorii względności, lecz ją całą, razem z reżimem nadświetlnym? Spodziewaliśmy się paradoksów przyczynowo-skutkowych. Tymczasem zobaczyliśmy dokładnie te efekty, które tworzą najgłębszy rdzeń mechaniki kwantowej - mówią dr Dragan i prof. Ekert.
      Początkowo obaj teoretycy rozważali przypadek uproszczony: czasoprzestrzeń ze wszystkimi trzema rodzinami rozwiązań, ale składającą się tylko z jednego wymiaru przestrzennego i jednego czasowego (1+1). Cząstka pozostająca tu w spoczynku w jednym reżimie rozwiązań, w drugim wydaje się poruszać nadświetlnie, co oznacza, że sama nadświetlność jest względna.
      W tak skonstruowanej czasoprzestrzeni w naturalny sposób pojawiają się wydarzenia niedeterministyczne. Jeśli bowiem w jednym reżimie w punkcie A dochodzi do nawet całkowicie przewidywalnego wygenerowania cząstki nadświetlnej emitowanej ku punktowi B, gdzie informacji o powodach emisji po prostu nie ma, to z punktu widzenia obserwatora w drugim reżimie wydarzenia przebiegają od punktu B do punktu A, a więc zaczynają się od wydarzenia zupełnie nieprzewidywalnego. Okazuje się, że analogiczne efekty pojawiają się także w przypadku emisji cząstek podświetlnych.
      Obaj teoretycy wykazali ponadto, że po uwzględnieniu rozwiązań nadświetlnych naturalnie pojawia się ruch cząstki po wielu torach jednocześnie, a opis przebiegu zdarzeń wymaga wprowadzenia sumy zespolonych amplitud prawdopodobieństwa świadczących o istnieniu superpozycji stanów, zjawiska dotychczas kojarzonego wyłącznie z mechaniką kwantową.
      W przypadku czasoprzestrzeni z trzema wymiarami przestrzennymi i jednym czasowym (3+1), czyli odpowiadającej naszej fizycznej rzeczywistości, sytuacja jest bardziej skomplikowana. Zasada względności w swojej oryginalnej postaci nie jest zachowywana, reżimy podświetlny i nadświetlny są rozróżnialne. Jednak badacze zauważyli, że gdy zmodyfikuje się zasadę względności do postaci - "Możliwość opisu zdarzenia w sposób lokalny i deterministyczny nie powinna zależeć od wyboru inercjalnego układu odniesienia" - ograniczy ona rozwiązania do tych, w których wszystkie wnioski z rozważań w czasoprzestrzeni (1+1) pozostają ważne.
      Zwróciliśmy przy okazji uwagę na możliwość ciekawej interpretacji roli poszczególnych wymiarów. W reżimie wyglądającym dla obserwatora na nadświetlny niektóre wymiary czasoprzestrzenne wydają się zmieniać swoje fizyczne role. Tylko jeden wymiar świata nadświetlnego ma charakter przestrzenny: ten, wzdłuż którego porusza się cząstka. Pozostałe trzy wymiary wydają się wymiarami czasowymi - mówi dr Dragan.
      Charakterystyczną cechą wymiarów przestrzennych jest to, że cząstka może się w nich przemieszczać w każdą stronę lub pozostawać w spoczynku, podczas gdy w wymiarze czasowym zawsze propaguje się w jedną stronę (co w potocznym języku nazywamy starzeniem). Trzy wymiary czasowe reżimu nadświetlnego przy jednym przestrzennym (1+3) oznaczałyby więc, że cząstki w nieuchronny sposób starzeją się w trzech czasach jednocześnie. Proces starzenia się cząstki w reżimie nadświetlnym (1+3), obserwowany z reżimu podświetlnego (3+1), wyglądałby tak, jakby cząstka przemieszczała się jak fala kulista, prowadząc ku słynnej zasadzie Huygensa (każdy punkt ośrodka, do którego dotarło czoło fali, można traktować jako źródło nowej fali kulistej) oraz ku dualizmowi korpuskularno-falowemu.
      Cała dziwność, która pojawia się przy rozważaniu rozwiązań odnoszących się do reżimu wyglądającego na nadświetlny, okazuje się nie być dziwniejsza od tego, co od dawna mówi powszechnie akceptowana i doświadczalnie zweryfikowana teoria kwantowa. Przeciwnie, uwzględniając reżim nadświetlny, można – przynajmniej teoretycznie – wyprowadzić ze szczególnej teorii względności część postulatów mechaniki kwantowej, które zazwyczaj przyjmowano jako niewynikające z innych, bardziej fundamentalnych przyczyn – podsumowuje dr Dragan.
      Niemal od stu lat mechanika kwantowa czeka na głębszą teorię, która pozwoliłaby wyjaśnić naturę jej zagadkowych zjawisk. Gdyby rozumowanie zaprezentowane przez fizyków z FUW i UO oparło się próbie czasu, historia okrutnie zakpiłaby ze wszystkich fizyków. Poszukiwana od dekad "nieznana" teoria, wyjaśniająca niezwykłość mechaniki kwantowej, byłaby bowiem strukturą znaną już od pierwszych prac nad teorią kwantów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Tegoroczne Nagrody Nobla z dziedziny fizyki zostały przyznane za wkład w zrozumienie ewolucji wszechświata i miejsca Ziemi w kosmosie. Otrzymali je James Peebles za teoretyczne odkrycia w dziedzinie kosmologii fizycznej oraz Michel Mayor i Didier Queloz za odkrycie egzoplanety krążącej wokół gwiazdy typu Słońca.
      James Peebles to Kanadyjczyk pracujący obecnie na Princeton University. Michel Mayor jest Szwajcarem, pracuje na Uniwersytecie w Genewie. Podobnie zresztą jak Didier Queloz, który dodatkowo zatrudniony jest na Cambridge University.
      Profesor Peebles, odpowiadając podczas konferencji prasowej na pytanie o możliwość istnienia życia na innych planetach, stwierdził: Ironią jest, że możemy być pewni, że istnieje wiele planet zdolnych do podtrzymania życia [...], ironią jest, że mamy wizję życia na innych planetach, ale możemy być pewni, że nigdy nie zobaczymy tych form życia, tych planet. To pokazuje, jak wielkie są możliwości i jak wielkie są ograniczenia nauki, powiedział noblista.
      Niestety, wbrew naszym oczekiwaniom, tegorocznym laureatem nie został profesor Artur Ekert, o którego szansach na nagrodę informowaliśmy wczoraj.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od czasu przyznania pierwszej Nagrody Nobla w 1901 roku najwięcej wyróżnień odebrali mieszkańcy USA. Do Stanów Zjednoczonych trafiło aż 371 nagród. Na drugiej pozycji znajdziemy Wielką Brytanię ze 129 laureatami, do Niemiec powędrowało 108 nagród, a do Francji trafiło 68.
      Profesor Claudius Gros z Instytutu Fizyki Teoretycznej na Uniwersytecie Goethego we Frankfurcie wykazał, że produktywność naukowa wymienionych krajów, która skutkuje Nagrodą Nobla, jest zdeterminowana przez dwa czynniki. Pierwszy z nich to wysoki poziom naukowy tych krajów w długim terminie, drugi zaś to okres, w którym dany kraj zdobył szczególnie dużo wyróżnień.
      Analizy przeprowadzone przez Grosa wykazały, że w przypadku Francji i Niemiec okres szczególnych sukcesów naukowych wyróżnionych Nagrodą Nobla przypadł na początek XX wieku. W przypadku zaś USA okres taki to druga połowa XX wieku. Epoka dominacji USA zbliża się do końca. Od czasu szczytu w latach 70. ubiegłego wieku „produktywność noblowska” w USA spadła o 2,4 raza", mówi uczony. Jeśli tren taki się utrzyma, to od roku 2025 amerykańska „produktywność noblowska” będzie mniejsza od niemieckiej, a od roku 2028 mniejsza od francuskiej.
      Szczególne miejsce zajmuje tutaj Wielka Brytania, która może poszczycić się stałą i bardzo wysoką „produktywnością noblowską” na mieszkańca. Nie jest jednak pewne czy, szczególnie w obliczu faktu, że coraz więcej ważnych badań przeprowadzanych jest przez przemysł prywatny, Wielka Brytania utrzyma w przyszłości swoją pozycję. Gros zauważa, że nadal – niezależnie od przyznawanych Nagród Nobla – będziemy mieli do czynienia z postępem nauki finansowanej z podatków. Naukowiec podkreśla, że przewidywane przezeń zmiany w „produktywności noblowskiej”, mogą być nieco mylące. Dzieje się tak m.in. dlatego, że pojawiają się nowe istotne obszary badań, jak np. nauki komputerowe, w których dominują Stany Zjednoczone, a które nie są uwzględniane podczas przyznawania Nagród Nobla. Przewidywane przez Grosa zmiany w „produktywności noblowskiej” nie muszą zatem świadczyć o upadku nauki w jakimś kraju, a o jego przeorientowaniu się na bardziej obiecujące pola badawcze.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ekonomiści Benjamin F. Jones z Northwestern University i Bruce A. Weinberg z Ohio State University zauważyli, że rośnie średnia wieku noblistów. W latach 1901-1960 średni wiek, w którym dokonano okrycia nagrodzonego później Nagrodą Nobla z medycyny, fizyki lub chemii był niższy niż 40 lat. Natomiast od roku 1961 wzrósł on do ponad 40 lat.
      Zdaniem Jonesa różnica ta nie wynika z faktu, że starsi naukowcy są mądrzejsi niż niegdyś, ale z systemu kształcenia. Obecnie młodzi naukowcy, zamiast spędzać czas na własnych badaniach, skupiają się na studiach doktoranckich i postdoktoranckich.
      Od dawna uważa się, że ludzie są najbardziej innowacyjni we wcześniejszych latach swojego życia - mówi Jones. Jednocześnie od kilkudziesięciu lat kładzie się nacisk na dłuższe zdobywanie formalnego wykształcenia, co oznacza, że czas przeznaczany niegdyś na badania i innowacje, jest obecnie spędzany na nauce. Zdaniem Jonesa powoduje to, że naukowiec w czasie całej kariery zawodowej poświęca pracy badawczej nawet o 30% mniej czasu niż kiedyś. To, jak mówi Jones, niepożądane zjawisko.
      Dla ekonomisty postęp technologiczny jest bardzo ważny, ponieważ jest on podstawowym paliwem rozwoju ekonomicznego. [...] Ekonomiści już od pewnego czasu zauważyli, że wkłada się coraz więcej wysiłku w prace badawczo-rozwojowe, że w działach R&D pracuje coraz więcej ludzi i trafia tam coraz więcej pieniędzy. Jednocześnie widzimy, że tempo rozwoju światowej ekonomii nie zwiększa się. A to oznacza, że indywidualny wkład pracownika działu badawczo-rozwojowego jest coraz mniejszy. Jedną z przyczyn może być mniejsza produktywność na polu innowacji - dodaje uczony.
      Weinberg i Jones zauważyli, że coraz dłużej kształci się doktorantów, a studia postdoktoranckie urosły do rangi instytucji. To z kolei oznacza, że naukowiec później niż kiedyś zostaje samodzielnym badaczem. Co prawda uczeni coraz później też dostają swój pierwszy duży grant, jednak fakt ten nie odgrywa decydującej roli, gdyż w takich naukach jak np. matematyka, gdzie wielkie granty nie są potrzebne, również można zaobserwować rosnącą średnią wieku laureatów nagród.
      Drugą z przyczyn wzrostu średniej wieku jest zmiana sposobu oceniania pracy naukowej. Wcześniej nagrodę przyznawano głównie za prace teoretyczne, a młodsi naukowcy mogą być bardziej skłonni do niekonwencjonalnego myślenia. Obecnie nagrody przyznawane są za osiągnięcia eksperymentalne, wymagające większego doświadczenia. Potwierdzeniem tej tezy może być np. obserwacja, że gdy rodziła się fizyka kwantowa i dokonywano wielu odkryć wychodzących poza klasyczne myślenie o fizyce, gwałtownie spadła średnia wieku noblistów z fizyki.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...