Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Jak polski inzynier trafił do Doliny Krzemowej

Rekomendowane odpowiedzi

Rozmawiamy z Adamem Kiepulem, absolwentem Wydziału Elektroniki Politechniki Wrocławskiej (1996), który od 1997 pracuje w Dolinie Krzemowej jako inżynier aplikacji procesorów i rdzeni MIPS, kolejno w Philips Semiconductors, NEC Electronics oraz PMC-Sierra.

Na czym polega Pańska praca?

Inżynier aplikacji musi odnaleźć się w różnych rolach. Podstawowym obowiązkiem jest udzielanie wsparcia technicznego klientom, począwszy od odpowiedzi na proste pytania o architekturę czy cechy użytkowe procesora aż po rozwiązywanie złożonych problemów technicznych. Na przykład jeśli system klienta nie pracuje prawidłowo to inżynier aplikacji jest na „pierwszej linii frontu” - współpracuje z deweloperami po stronie klienta, aby zidentyfikować sekwencję instrukcji i innych zdarzeń, która z takiego czy innego powodu nie daje spodziewanych rezultatów. Następnie, jeśli okaże się, że wina nie leży po stronie programu czy problemu z płytą lub innym komponentem, tylko po stronie procesora, inżynier aplikacji współpracuje z projektantami poszczególnych części procesora, aby znaleźć błąd i opracować jego „obejście”. Do obowiązków należy także opracowywanie specjalnych przykładowych programów specyficznych dla danego procesora i jego architektury, testowanie i ocena narzędzi (kompilatorów, debuggerów itp.), a czasem również ręczna optymalizacja kodu klienta w celu uzyskania lepszej wydajności na danym procesorze. Do tego dochodzi tworzenie wszelkiego rodzaju dokumentacji jak instrukcje użytkownika, noty aplikacyjne itp., opracowywanie i przeprowadzanie szkoleń technicznych dla klientów, pomoc i towarzyszenie specjalistom od marketingu czy sprzedaży w spotkaniach z klientami, reprezentowanie firmy na specjalistycznych targach, seminariach itd.

Jak wygląda droga z polskiej politechniki do Krzemowej Doliny? Czego się trzeba uczyć, by pracować w takiej firmie jak Pańska?

Wydaje mi się, że zawsze najważniejsze jest, aby mieć jasno postawiony cel i wytrwale pracować nad jego realizacją. Przydatny jest także łut szczęścia. To brzmi na pewno jak banał, ale w wielu przypadkach naprawdę istotne jest to, aby znaleźć się w odpowiednim miejscu w odpowiednim czasie i do tego jeszcze być na to w pełni przygotowanym.

Techniką, a elektroniką i komputerami w szczególności, interesowałem się od dzieciństwa. Mając chyba 13 lat przeczytałem w jednym z pierwszych numerów magazynu „Bajtek” historię o Jobsie i Wozniaku czyli o powstaniu firmy Apple. Pamiętam, że ten właśnie artykuł oraz nieco późniejszy - o Dolinie Krzemowej i jej „klimatach”, jak się to dziś mówi - były dla mnie niczym swego rodzaju olśnienie i stały się wyraźnymi impulsami, które spowodowały, że nagle zrozumiałem, iż kiedyś po prostu muszę „tam” być. Wtedy znaczyło to znacznie więcej niż dziś. Były to ostatnie lata PRL-u i dla większości ludzi takie postanowienie nastolatka, który nie skończył jeszcze 8-klasowej wówczas podstawówki, wydawało się zwyczajną dziecinną mrzonką. Jednak wszystko co wtedy i później robiłem, było kolejnymi logicznymi krokami przybliżającymi mnie do tego celu. Pilnie uczyłem się matematyki, fizyki oraz języka angielskiego, a jednocześnie pochłaniałem literaturę i magazyny z dziedziny elektroniki i informatyki. Archaiczny już dziś język BASIC poznałem jeszcze koło 6. klasy dzięki kursom Rolanda Wacławka w „Młodym Techniku”. Pod koniec podstawówki znałem już język maszynowy procesora Z80 (serca m.in. komputera Sinclair ZX Spectrum) jak również podstawy techniki cyfrowej i systemów mikroprocesorowych. W liceum nauczyłem się jeszcze języka maszynowego procesorów 6502 / 6510, na których oparte były popularne wówczas 8-bitowe komputery domowe Atari i Commodore. Już wtedy potrafiłem „od zera” napisać złożony program w assemblerze, wykorzystujący rejestry sprzętu, przerwania itp.

Taka wiedza i doświadczenie są niezwykle istotne i ogromnie procentują podczas studiów, jak również później – już w karierze zawodowej. Wydaje mi się, ze ogromną zaletą, ale też jednocześnie swego rodzaju słabością polskiego systemu kształcenia technicznego na poziomie wyższym jest ogromny nacisk na podstawy teoretyczne. Na studiach zapoznajemy się z teoriami, które najwybitniejsze umysły opracowały np. 80 lat temu, bez których dziś po prostu nie byłoby elektroniki i informatyki. To z jednej strony wymusza i kształtuje pewną dyscyplinę intelektualną, sposób myślenia oraz zdobywania wiedzy. Z drugiej jednak strony na polskich politechnikach, w porównaniu z zachodnimi, poświęca się znacznie mniej czasu na stronę praktyczną i faktyczne przygotowanie do zawodu inżyniera. Być może teraz jest nieco inaczej, ale tak było w połowie lat 90., kiedy ja kończyłem studia.

Jeśli miałbym doradzać dzisiejszym uczniom i studentom, którzy chcieliby przeżyć podobną przygodę za granicą, to zachęcałbym do dwóch rzeczy: język(i) oraz praktyczna wiedza związana z zawodem i daną specjalnością. Jeśli pracuje się w kraju anglosaskim to oczywiście wystarczy angielski, jednak jeśli myśli się o pracy np. we Francji, Szwajcarii czy Norwegii to równie ważna jest znajomość miejscowego języka. Jeśli ktoś chciałby projektować procesory, to na pewno musi opanować nie tylko teoretyczne podstawy elektroniki i techniki cyfrowej, ale także języki opisu układów jak VHDL i Verilog, jak również języki programowania, zwłaszcza skryptowe jak np. PERL.

Jeszcze jedna uwaga: nie chcę nikogo zniechęcać, ale obawiam się, że dziś dostać się do Doliny Krzemowej jest dużo trudniej niż w r. 1997, kiedy ja tu przyjechałem. Mój przypadek jest dobrą ilustracją tego, że niezbędne są sprzyjające okoliczności oraz szczęście. W 1996 skończyłem Elektronikę na Politechnice Wrocławskiej. Moją specjalizacją były oczywiście systemy mikroprocesorowe. Jeszcze pod koniec studiów wysłałem do oddziału Philips Semiconductors w Zurychu podanie o przyjęcie na praktykę i, ku memu ogromnemu zaskoczeniu, zostałem przyjęty, mimo, że liczba miejsc jest bardzo ograniczona, a liczba podań jest naprawdę ogromna. Jako praktykant przez 4 miesiące zajmowałem się testowaniem układów scalonych, które sterują wyświetlaczami LCD w telefonach komórkowych. Miałem okazję wykazać się tam wiedzą zdobytą podczas studiów, ale myślałem wciąż o prawdziwych procesorach, a kiedy dowiedziałem się, że oddział w Dolinie Krzemowej poszukuje inżyniera do grupy projektującej rdzenie MIPS, bez wahania wysłałem swoje CV. Po dwóch rozmowach kwalifikacyjnych przez telefon, dzięki opinii przełożonych z Zurychu otrzymałem propozycję pracy w tej grupie jako inżynier aplikacji. Był to moment przełomowy. Jednak należy pamiętać, że były to inne czasy – szczyt prosperity w Dolinie Krzemowej, kiedy panował prawdziwy głód wysoko wykwalifikowanych pracowników i sprowadzano ich z całego świata, w oparciu o specjalną wizę H1B, sponsorowaną przez pracodawcę, który musiał udowodnić, iż nie jest w stanie znaleźć odpowiednio wykwalifikowanego kandydata na dane stanowisko wśród obywateli USA. Od tamtej pory jednak wiele się zmieniło. Wielki upadek „bańki” tzw. dot-com’ów, a także przeniesienie licznych stanowisk pracy do Indii i Chin zaowocowały masowymi zwolnieniami. Wielu fachowców wróciło do swoich krajów, a liczni Amerykanie o wysokich kwalifikacjach nie mogą obecnie znaleźć pracy. Obawiam się, że w tej sytuacji moja droga, tzn. poprzez wizę H1B, dziś jest praktycznie niemożliwa. Jednak wciąż można się tu dostać. Jeden z możliwych sposobów to studia na amerykańskiej uczelni. To jednak wciąż nie gwarantuje, iż później będzie można tu legalnie pozostać i podjąć pracę. Dlatego lepszym rozwiązaniem wydaje mi się podjęcie pracy w Polsce lub innym kraju Unii, a następnie przeniesienie do oddziału amerykańskiego. Nie muszę też chyba wspominać, że zdolni naukowcy pracujący na polskich uczelniach mają dodatkowe atuty i możliwości współpracy z firmami z Doliny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miło przeczytać kolejną rozmowę z polskim naukowcem/inżynierem. Świetny pomysł z tą serią wywiadów!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dzięki :)

Zapraszam zatem do zaproponowania pytań do naszego kolejnego gościa :)

 

Kto będzie kolejnym gościem?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Rozmawiamy z doktorem habilitowanym Gościwitem Malinowskim, profesorem Instytutu Studiów Klasycznych, Śródziemnomorskich i Orientalnych Uniwersytetu Wrocławskiego, starożytnikiem, filologiem klasycznym, hellenistą. Profesor Malinowski jest założycielem Instytutu Konfucjusza na Uniwersytecie Wrocławskim
      Filologia klasyczna kojarzy się z łaciną, greką... czym poza tym się zajmuje?
      Poznanie języka to właściwie dopiero bilet wstępu do badań naukowych czy pracy twórczej. Znając język możemy przystąpić do badań nad językiem, literaturą, kulturą i historią. I tak się składa, że łacina  i greka umożliwiają badania i nad antykiem,  i nad średniowieczem,  i nad początkami epoki nowożytnej. Tak że co kto lubi. Metryka Homera, tragedia grecka, ustroje polityczne, wojskowość macedońska, prawo rzymskie, teologia i Ojcowie Kościoła, filozofia scholastyczna, poezja renesansowa, botanika siedemnastowieczna wyliczać można by długo, to wszystko stoi otworem przed filologiem klasycznym.
      Czy, a jeśli tak to w jaki sposób, filologia klasyczna korzysta ze zdobyczy techniki?
      Filologia klasyczna należy do tych nauk humanistycznych, które chyba najszybciej zaczęły korzystać z możliwości, jakich dostarczyła komputeryzacja badań naukowych. Już wcześniej szczupłość źródeł antycznych w porównaniu np. z obfitością archiwów późnośredniowiecznych czy nowożytnych, sprawiła że filolodzy klasyczni nie chcieli uronić żadnej informacji o antyku dostępnej nam dzisiaj. Stąd od początku powstawały indeksy, konkordancje, korpusy zabytków, leksykony, tezaurusy, realne encyklopedie itd. Kiedy okazało się, że można do katalogowania i rejestrowania zabytków antycznych użyć maszyn liczących, filolodzy klasyczni zaczęli to robić jako pierwsi z humanistów. Pomysł stworzenia bazy danych zawierającej wszystkie greckie teksty starożytne i bizantyjskie zrodził się równolegle z pomysłem peceta, komputera osobistego. Dlatego też obecnie filolog jest właściwie nie tyle przykuty do biblioteki, ile do internetu. Bibliografia L’Annee Philoloqiue daje mu pewność, że żadna publikacja naukowa w jego temacie od 1928 r. w górę nie zostanie przeoczona. Thesaurus Linguae Graecae umożliwia wyszukanie dowolnej sekwencji literowej w tekstach greckich, w pełnym korpusie tekstów greckich. Podobnej bazy dla inskrypcji greckich dostarcza Packard Humanities, papirolodzy mają swoje bazy Trismegistos i inne. Badacze literatury łacińskiej, literatury łacińskiej średniowiecza itd. swoje. Właściwie mając dostęp do dobrej biblioteki uniwersyteckiej on-line, jestem w stanie zrobić w ciągu jednego dnia rekonesans badawczy na dowolny temat z dziedziny antyku.
      Wiele osób sądzi, że wydawanie pieniędzy na nauki humanistyczne jest marnotrawstwem oraz że budżet powinien finansować tylko nauki techniczne. Filologia klasyczna wydaje się jedną z najbardziej "niepraktycznych" nauk humanistycznych. Co odpowiedziałby Pan zwolennikom tak skrajnie "praktycznego" podejścia do szkolnictwa wyższego?
      Powiedziałbym, że w takim myśleniu tkwi podstawowy błąd. Otóż z założenia z budżetu finansuje się wyłącznie rzeczy „niepraktyczne”, gdyż rzeczy „praktyczne” powinny być poddawane działaniu rynku i w ten sposób uzyskiwać finansowanie. Nauki techniczne powinny utrzymywać się wyłącznie z zamówień przemysłu, gdyż ich celem jest rozwiązywanie technologicznych problemów produkcji. Natomiast z budżetu finansuje się rzeczy niepraktyczne, które nie mają bezpośredniego przełożenia na rynek, ale jednak się przydają społecznościom. Takie niepraktyczne rzeczy to policja, wojsko (w Europie w większości przypadków niepraktyczne od 1945 r.), budowle publiczne, sztuka, drogi (jeździ się miło, ale kto wyłożyłby własne pieniądze na ich budowę) i wreszcie  nauka (nie tylko humanistyka, ale także np. nauki ścisłe, jak fizyka czy astronomia). Nie ma natomiast lepszej dla społeczności formy finansowania nauki niż utrzymywanie publicznego szkolnictwa wyższego. W akademiach naukowych uczeni są bowiem zamknięci w wieży z kości słoniowej, na uniwersytetach przekazują swoje osiągnięcia kolejnym rocznikom studentów. Studentów, którzy nie powinni na uniwersytecie uzyskiwać żadnej praktycznej umiejętności, gdyż nie taka jest rola uniwersytetów. Praktykę przyniesie życie zawodowe, uniwersytet ma natomiast przekazać wiedzę i nauczyć radzenia sobie z tą wiedzą. I dlatego studia humanistyczne, jeśli oparte są na zdrowych podstawach, czyli w naszym europejskim wydaniu na językach klasycznych, umożliwiają nie gorzej od innych zdobycie wiedzy w jakimś zakresie i co ważniejsze dla formacji intelektualnej danego człowieka zdobycie praktycznej umiejętności radzenia sobie z wiedzą, analizowania, syntetyzowania, katalogowania, planowania etc., etc. I dlatego osoba z wyższym wykształceniem, która na studiach była w stanie nauczyć się dwóch trudnych języków starożytnych, i w oparciu o te języki potrafiła rozwiązywać problemy naukowe posługując się logicznym rozumowaniem, taka osoba poradzi sobie z wiedzą w każdej innej dziedzinie: administracji publicznej, biznesie, logistyce etc. Co więcej dzięki spędzeniu kilku lat na zdobywaniu wiedzy w jakimś wycinku, taka osoba ma pojęcie o obcym kraju, o własnej historii, o doktrynach filozoficznych itd., czyli jest w stanie wziąć udział w zbiorowej refleksji społecznej nad podstawowym pytaniem: „po co i jak żyć”. Z tego też powodu uważam, że kształcenie humanistów, ale dobrych humanistów, a nie atrap humanistopodobnych, jest jak najbardziej praktyczną działalnością, przynoszącą społeczności posiadającej własnych lojalnych humanistów wielokrotnie większe zyski, niż społeczności takowych humanistów pozbawionej, która nawet posiadając jednostki z praktyczną wiedzą zawodową ponosić będzie straty z braku osób potrafiących wytyczyć dla niej sensowne cele.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Firma Adapteva ogłosiła, że wkrótce zacznie produkować próbną wersję 64-rdzeniowego procesora wykonanego w technologii 28 nanometrów. Układ E64G4 korzysta z technologii Epiphany, która została stworzona pod kątem takich zastosowań jak rozpoznawanie mowy czy przetwarzanie grafiki.
      Adapteva specjalizuje się w tworzeniu aplikacji na rynek finansowy, wojskowy i inżynieryjny, teraz zaś chce zaistnieć na rynku urządzeń przenośnych.
      W firmę zainwestowano zaledwie 2 miliony dolarów, teraz przygotowuje ona swój czwarty układ scalony i wkrótce przestanie przynosić straty. Andreas Olofsson, założyciel i szef Adaptevy mówi, że mimo iż same maski litograficzne kosztują miliony dolarów, to przedsiębiorstwo może działać, gdyż wybrało model multiproject wafer (MPW), w którym koszty masek podzielone są pomiędzy klientów firmy. Ponadto Adapteva działa na rynkach, na których produkuje się niewielkie serie drogich układów. Pojedynczy procesor może kosztować nawet 1000 dolarów.
      Od lata 2011, kiedy to Adapteva wyprodukowała swój pierwszy układ scalony, 16-rdzeniowy procesor wykonany w technologii 65 nanometrów, wpływy przedsiębiorstwa wyniosły milion dolarów.
      Obecnie ma powstać czwarta generacja układu Epiphany. Kość będzie składała się z 64 rdzeni RISC, z których każdy zostanie wyposażony w 32 kilobajty pamięci podręcznej. Całość zmieści się na powierzchni 8,2 mm2 i będzie, jak twierdzi Adapteva, najbardziej efektywnym energetycznie układem scalonym. Jego wydajność ma wynieść 70 GFlops/wat.
      Kość taktowana będzie zegarem o częstotliwości do 700 MHz.
      Ambicje firmy jednak się na tym nie kończą. Architektura Epiphany ma umożliwić produkcję procesora składającego się z 4096 rdzeni.
      Układy na zamówienie Adaptevy są produkowane w fabrykach Globalfoundries.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...