Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Komputery powstały po to, by dać odpowiedzi na trudne logiczne pytania. I przez dziesięciolecia służyły właśnie temu celowi - precyzyjnemu rozwiązywaniu zadań. W ostatnim czasie sytuacja się jednak zmienia i coraz częściej jesteśmy skłonni poświęcić precyzję na rzecz prędkości.

Przykładem niech będzie sposób działania wyszukiwarek. Rezultaty uzyskane z Google'a czy Yahoo! nie są najbardziej precyzyjne z możliwych, jednak internauci wolą szybko uzyskać nieco mniej dokładną odpowiedź, niż dłużej czekać na najlepszą z możliwych. Stąd też np. dokładna kolejność pierwszych kilku czy kilkunastu wyników wyszukiwania nie jest ważna.

Grupa badaczy z MIT-u pracująca pod kierunkiem profesora Martina Rinarda postanowiła wykorzystać takie podejście i stworzyła system automatycznie wyszukujący w kodzie komputerowym miejsc, w których nieco dokładności może zostać poświęconej na rzecz znacznego przyspieszenia pracy programu.

Udało im się osiągnąć zadziwiające rezultaty. Podczas testów skrócili o połowę czas potrzebny do zakodowania transmisji wideo w celu przesłania jej przez sieć. Jakość obrazu pozostała przy tym niezmieniona. Takie samo podejście może zostać wykorzystane wszędzie tam, gdzie konieczne jest przetwarzanie danych w czasie rzeczywistym, a więc np. w oprogramowaniu do analiz giełdowych czy systemach śledzenia i monitorowania wykorzystujących sieci czujników.

Opracowany przez zespół Rinarda system może działać dwojako. Potrafi wskazać programiście te miejsca kodu, w których możliwe jest poświęcenie precyzji na rzecz prędkości. Jest też w stanie samodzielnie dokonać odpowiednich zmian. Przykładem takiego zastosowania niech będzie wideokonferencja przeprowadzana z użyciem laptopa. Gdy program do konferencji jest jedynym uruchomionym na maszynie, kodowanie sygnału wideo może odbywać się tradycyjnymi metodami. Jeśli jednak komputer wykonuje jednocześnie inne zadania, mógłby automatycznie przełączać kodowanie w tryb wymagający zużycia mniej mocy procesora.

Uczeni z MIT-u wykorzystali bardzo prosty trick. Rozbudowane programy komputerowe wykorzystują liczne pętle, czyli wielokrotnie powtarzane procesy. Rinard oraz współpracujący z nim naukowcy Stelios Sidiroglou-Douskos, Hank Hoffman i Sasa Misailovic nazwali swoją technikę "perforacją pętli". Polega ona na "wybijaniu dziur" w pętlach, co po prostu polega na pomijaniu pewnych kroków w pętli. System automatycznie ocenia, ile takich kroków można pominąć by znacząco przyspieszyć pracę programu, a jednocześnie nie poświęcić zbyt wiele z precyzji jego działania.

Sam system opracowany przez grupę Rinarda jest pętlą - przeszukuje on program, "wybija" w nim dziury, a następnie uruchamia program i wylicza, jak jego działanie wpłynęło na wydajność programu. Następnie oceniane jet, która z "perforacji" najlepiej wpływa na zwiększenie wydajności, a jednocześnie oznacza najmniejsze straty w precyzji.

Pomysł uczonych z MIT-u jest niezwykle prosty, a jednocześnie zapewnia olbrzymi wzrost wydajności. Jednocześnie jest sprzeczny z intuicją programistów, którzy starają się udoskonalać swój kod, a teraz słyszą, że mogą część swojej pracy wyrzucić do kosza, a jednocześnie nie poświęcą zbyt dużo z precyzji działania programu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

niebezpieczna zabawa. w odpowiedzialnym sofcie, np. medycznym może to narobić sporo problemów; absolutnie nie do zastosowania w poważnych projektach. co z tego, że mi szybciej policzy dynamikę przepływu krwi w modelowanej sztuczej komorze serca, jeżeli zrobi to z błędem? to już wolę, by mi ansys liczył 3 dni ale poprawnie.... pomysł ciekawy, ale... prowadzi do bylejakości wyników na których niw można polegać. wyłącznie do zabawy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomysł dość niecodzienny, choć zrozumiały w przypadku transmisji A/V, gdzie i tak dokonywana jest stratna kompresja. Aczkolwiek co do poniższego przykładu byłbym ostrożny:

 

systemach śledzenia i monitorowania wykorzystujących sieci czujników

 

Coś takiego może doprowadzić do narastających błędów. Kompletnie odpada też w obliczeniach matematycznych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
niebezpieczna zabawa. w odpowiedzialnym sofcie, np. medycznym może to narobić sporo problemów;

Nie zgodzę się. Tak by było gdybyśmy zakładali że system medyczny jest bezbłędny. Niestety elementem systemu medycznego są ludzie, przykładowo lekarze, mylący się bardzo często. Na wynik leczenia ma dużo większy wpływ błąd lekarza, dużo osób ginie przez błąd lekarza. Tak więc wprowadzenie drobnych niedokładności w sofcie nic nie zmieni. To będzie jak dodanie do załóżmy 10 % błędów ludzkich 0,01 % błędu maszyny. Pomijalne. A o takie błędy w stosunku do całości tu chodzi.

Kompletnie odpada też w obliczeniach matematycznych.

Absolutnie nie odpada. Sieci neuronowe, logika rozmyta, rachunek zaburzony. To są przecież już od wielu lat rozwijane dziedziny matematyki i informatyki gdzie właśnie wprowadza się celowo pewną niedokładność.

Dlatego dziwi mnie trochę że tak późno tym się zajęto jeśli zajmowano się tym już od 20 lat. W sumie wspomnieli google, te systemy działają już od dawna. Różnica jest taka że stworzono system do wyszukiwania i automatycznego korygowania innych systemów.

To jest właśnie to nowatorstwo a nie poświęcanie dokładności na rzecz szybkości co robi się już od wielu lat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sieci neuronowe, logika rozmyta, rachunek zaburzony. To są przecież już od wielu lat rozwijane dziedziny matematyki i informatyki gdzie właśnie wprowadza się celowo pewną niedokładność.

 

OK, tylko, że to się wprowadza z poziomu algorytmu/formuły matematycznej, która przewiduje te (zaplanowane) czynniki niepewności, a nie poprzez psucie już gotowego modelu obliczeń. Aczkolwiek pomysł ciekawy, wart śledzenia jego rozwoju.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość shadowmajk

Sieci neuronowe, logika rozmyta, rachunek zaburzony.

 

Hmm... a ja czasem łowię ryby :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na wynik leczenia ma dużo większy wpływ błąd lekarza, dużo osób ginie przez błąd lekarza.

często w wyniku źle postawionej diagnozy - uzyskanej np. na skutek obrazów z rezonansu magnetycznego... chciałbyś być źle zdiagnozowany ? ale zostawmy konowałów w spokoju gdyż...

 

... ja mówiłem o innym zagadnieniu  - o konkretnym przykładzie - załóżmy że z błędnych oblizeń wynika, że skrzydełko sztucznej zastawki może mieć grubość 0.2mm (zamiast 0.4) i ... nie wytrzymuje ciśnienia; zastawka ulega zniszczeniu, pacjent umiera.  czy dla ciebie taki błąd jest pomijalny/dopuszczalny ? a gdybyś to Ty wylądował na stole i miał dostać sztuczną zastawkę/komorę ? chciałbyć mieć świadomość że soft użyty do zaprojektowania dopuszcza błędy obliczeniowe ? to są poważne zastosowania o których mówiłem. błędy lekarskie nie mają nic do tego i nie są przdmiotem tej dyskusji. przedmiotem jest świadome dopuszczenie do powstania niedokładnych obliczeń - i to że są obszary w których jest to niedopuszczalne. pozdro.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm... a ja czasem łowię ryby :D

ja też. można w spokoju podumać i odpocząć od zawiłości tego świata :D 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Szkoda, że nie ma podanych szczegółów działania algorytmu.

Na pierwszy rzut oka nie wygląda to na nic rewolucyjnego, po prostu kolejny algorytm, który ma za zadanie optymalizować kod.

Trzeba zdać sobie sprawę z tego, że obecnie programiści nie zawsze piszą optymalny kod, zdając się na optymalizację wykonywaną przez kompilatory.

Przeglądając różne kody, można zauważyć wiele sytuacji, w których pewne operacje mogą być realizowane przed pętlą. Dobrym przykładem jest deklarowanie zmiennych wewnątrz pętli zamiast jednorazowej deklaracji i nadpisywania wartości w każdej iteracji. Warto też zauważyć, że w niektórych przypadkach takie działanie jest pożądane - głównie w celu zwiększenia czytelności kodu.

Możliwe, że naukowcy opracowali algorytm wykrywania tych operacji, które mogą być bez problemu realizowane przed pętlą. Drugą rzeczą, jaka przychodzi mi na myśl jest zmniejszenie ilości bitów przeznaczonych na reprezentację danych w przypadku zmiennych, które nie są używane w celu osiągnięcia wyniku, czyli tego, co jest przekazywane gdzieś dalej lub wyświetlane użytkownikowi.

 

Nie wiecie czy można gdzieś zapoznać się z tą pracą?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kocurxtr,wilk

zespół Rinarda świadom ograniczeń swojego triku od razu zaznaczył gdzie go można zastosować:transmisja wideo,bieżąca analiza giełdy,itp. Ale faktycznie,monitorowanie sieci czujników to za odważne stwierdzenie,bo czujniki są w różnych,mniej lub bardziej ważnych miejscach  :D 

A dlatego  :D,bo gdzieś było doświadczenie o ludzkich gazach jelitowych,które czujnik wykrywał.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
,bo gdzieś było doświadczenie o ludzkich gazach jelitowych,które czujnik wykrywał

Gdzieś też były wyniki diagnostyki chorób przez lekarzy i program. Program wygrywał...

Czy jak badanie prowadzi lekarz to jego błąd przestaje być krytyczny?

Dziwi mnie że program żeby być akcpetowanym musi mieć błąd <0,00001 %

podczas gdy lekarz stawiający tę samą i w tej samej sytuacji diagnozę może mieć błąd na poziomie 50 % i wszystko jest ok.

Moją siostrę leczyło 4 różnych lekarzy. 3 diagnozy były nieprawidłowe, omal nie doprowadziły ją poprzez złe leczenie do śmierci. Jaka był błąd stawiania diagnozy? 75 % I wiecie co? Wszystko było w porządku, a jak moja mama wyprosiła wreszcie zgodę na wyjazd siostry do USA na leczenie to jeszcze ją objechał jeden polski ordynator szpitala że pacjenta zabiera.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bo lobby lekarskie rządzi.W lotnictwie zresztą też jest podobnie.10.04 w Smoleńsku, komputer by nie lądował.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

kocurxtr,wilk

zespół Rinarda świadom ograniczeń swojego triku od razu zaznaczył gdzie go można zastosować:transmisja wideo,bieżąca analiza giełdy

z bierzącą analizą giełdy już bym się wstrzymał :D ale np. dla takiego skype'a to ciekawa sprawa - można podnieść jakość obrazu w pop-komunikacji czy np, jakość transmisji do HD w "niepoważnych' zastosowaniach etc. itd... :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Co do dokładności obliczeniowej są sytuacje/algorytmy w których utrata dokładności nie spowoduje katastrofy są też takie dla których dane są nieliniowe do tego stopnia że niedokładność rzędu ułamka procenta może nie mieć żadnego wpływu na wynik ale może też spowodować gigantyczne różnice od rzeczywistego.

 

Bo lobby lekarskie rządzi.W lotnictwie zresztą też jest podobnie.10.04 w Smoleńsku, komputer by nie lądował.

Tej sytuacji bym nie mieszał szczególnie że nie wiemy co tak naprawdę się stało ... i pewnie nigdy się już nie dowiemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
..poświęcić precyzję na rzecz prędkości.

 

gwoli scislosci.. predkosc jest przypisana raczej do obiektow materialnych. w tym przypadku chodzi o szybkosc (dzialania).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan.
      Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych.
      To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię.
      Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować.
      Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
      Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
      Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
      Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
      Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
      Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
      Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
      Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
      Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
      Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
      Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas Fifth International Symposium on Networks-on-Chip 2011 specjaliści z MIT-u zdobyli nagrodę za najlepsze opracowanie naukowe symulatora układu scalonego. Ich program Hornet modeluje działanie wielordzeniowego procesora znacznie lepiej niż inne tego typu oprogramowanie. Potrafił znaleźć w oprogramowaniu błędy, których inne symulatory nie zauważyły.
      Teraz Hornet został znakomicie udoskonalony i wyposażony w nowe funkcje. Jego nowa wersja potrafi symulować zużycie energii, komunikację między rdzeniami, interakcję pomiędzy CPU a pamięcią oraz obliczyć czas potrzebny na wykonanie poszczególnych zadań.
      Symulatory są niezwykle ważne dla firm produkujących układy scalone. Zanim przystąpi się do produkcji kości przeprowadzane są liczne testy ich działania na symulatorach.
      Dotychczasowe symulatory przedkładały szybkość pracy nad dokładność. Nowy Hornet pracuje znacznie wolniej niż jego starsze wersje, jednak dzięki temu pozwala na symulowanie 1000-rdzeniowego procesora z dokładnością do pojedynczego cyklu. Hornet jest nam w stanie wyliczyć, że ukończenie konkretnego zadania będzie np. wymagało 1.223.392 cykli - mówi Myong Cho, doktorant z MIT-u.
      Przewaga Horneta nad konkurencją polega też na tym, że inne symulatory dobrze oceniają ogólną wydajność układu, mogą jednak pominąć rzadko występujące błędy. Hornet daje większą szansę, że zostaną one wyłapane.
      Podczas prezentacji Cho, jego promotor profesor Srini Devadas i inni studenci symulowali na Hornecie sytuację, w której wielordzeniowy procesor korzysta z nowej obiecującej techniki przetwarzania danych pacjentów. Hornet zauważył, że niesie ona ze sobą ryzyko wystąpienia zakleszczenia, czyli sytuacji, w której różne rdzenie, aby zakończyć prowadzone obliczenia, czekają nawzajem na dane od siebie. Powoduje to, że zadania nie mogą być zakończone, gdyż rdzenie nawzajem siebie blokują. Żaden inny symulator nie zasygnalizował tego problemu. Hornet pozwolił też na przetestowanie zaproponowanego przez naukowców sposobu na uniknięcie zakleszczenia.
      Zdaniem jego twórców Hornet, ze względu na swoje powolne działanie, posłuży raczej do symulowania pewnych zadań, a nie działania całych aplikacji. Przyda się zatem tam, gdzie zajdzie potrzeba upewnienia się, czy nie występują żadne nieprawidłowości czy też do statystycznego zbadania możliwości wystąpienia błędów.
    • przez KopalniaWiedzy.pl
      Studenci najsłynniejszej uczelni technicznej świata - MIT-u (Massachusetts Institute of Technology) - mogą otrzymać od władz uczelni certyfikat ukończenia kursu... piractwa. I nie chodzi tutaj o piractwo komputerowe, a to prawdziwe, morskie.
      Uczelnia postanowiła uczynić oficjalnym zwyczaj, który był praktykowany przez jej studentów przez co najmniej 20 lat. MIT wymaga, by uczący się ukończyli w czasie studiów co najmniej 4 różne kursy wychowania fizycznego. Teraz ci, którzy z powodzeniem ukończą strzelanie z pistoletu, łuku, żeglarstwo i szermierkę otrzymają oficjalny certyfikat
      Carrie Sampson Moore, dziekan wydziału wychowania fizycznego, mówi, że co roku kontaktowali się z nią studenci, prosząc o wydanie zaświadczenia o ukończeniu kursu pirata. Zawsze mówiłam im, że to inicjatywa studencka i byli bardzo rozczarowani - stwierdziła Moore.
      Od początku bieżącego roku postanowiono, że uczelnia zacznie wydawać oficjalne certyfikaty. Drukowane są one na zwoju pergaminu z równą starannością jak inne uczelniane dyplomy. Właśnie otrzymało je czterech pierwszych piratów, a w kolejce czekają następni.
      Mimo, iż cała ta historia może brzmieć niepoważnie, to certyfikat i warunki jego uzyskania są traktowane przez uczelnię całkiem serio. Przyszli piraci nie mogą liczyć na żadną taryfę ulgową, a otrzymanie świadectwa ukończenia kursu wiąże się ze złożeniem przysięgi. Stephanie Holden, która znalazła się w czwórce pierwszych piratów, zdradziła, że musiała przysiąc, iż ucieknie z każdej bitwy, której nie będzie mogła wygrać i wygra każdą bitwę, z której nie będzie mogła uciec.
    • przez KopalniaWiedzy.pl
      Jak dowiadujemy się z książki Case, Argument Structure and Word Order autorstwa profesora Shigeru Miyagawy, lingwisty z MIT-u, języki są znacznie bardziej podobne, niż się nam wydaje.

      W języku angielskim znalezienie dopełnienia bliższego jest stosunkowo proste. Występuje ono zaraz przy czasowniku. W zdaniu „I gave a book to Mary“ (Dałem książkę Marysi) dopełnienie bliższe „book“ znajdziemy przy czasowniku „gave“, a dopełnienie dalsze „Mary“ jest od niego oddalone. Inaczej jednak ma się sprawa z językiem japońskim, którego szyk jest znacznie bardziej luźny. Tam dopełnienie bliższe oznaczone jest przyrostkiem -o. W zdaniu „Taroo-wa hon-o kinoo katta“ porządek wyrazów jest następujący - „Taro książkę wczoraj kupił“. „Książka“ (hon-o) jest dopełnieniem bliższym, jednak nie sąsiaduje ono z wyrazem „kupił“ (katta).

      Dla kogoś uczącego się języka, szczególnie gdy w jego rodzinnym języku szyk zdania jest bardziej sztywny niż w japońskim, może być to poważnym problemem. Japoński i angielski wydają się bardzo różnić od siebie. Jednak profesor Miyagawa dowodzi, że z punktu widzenia lingwisty różnice nie są aż tak wielkie.

      Mamy do czynienia z interesującym napięciem pomiędzy różnicami a podobieństwami. Ludzkie języki są zadziwiająco różne. Każdy z nich ma unikalne właściwości odróżniające go od 6500 czy 7000 innych języków. Jeśli jednak spojrzymy na nie z punktu widzenia lingwisty zauważymy, że istnieją właściwości wspólne wszystkim językom.

      Uczony wykazuje w swojej książce, że pomiędzy angielskim a japońskim następuje rodzaj pewnej wymiany. Japoński i angielski przyjmują reguły, które drugi język porzucił. Miyagawa zauważył, że w VIII i IX wieku w japońszczyźnie przyrostek -o nie był używany na oznaczenie dopełnienia bliższego. Używano go do oznaczania emfazy. W tym samym czasie język angielski używał znaków gramatycznych (takich jak obecny dopełniacz saksoński) na oznaczenie dopełnienia bliższego występującego w bierniku. Ponadto szyk zdania był znacznie bardziej luźny niż we współczesnym angielskim. Dopełnienie bliższe mogło pojawić się w wielu miejscach zdania.

      Patrząc z punktu widzenia gramatyki stary japoński jest jak współczesny angielski. A stary angielski i łacina są jak współczesny japoński, stwierdza Miyagawa. Do takiej „wymiany zasad“ pomiędzy japońskim a angielskim dochodziło, gdy języki te nie miały ze sobą żadnej styczności, zatem nie można zjawiska tego tłumaczyć wzajemnym wpływem.

      Znalezienie takich wzorców jest bardzo trudne. Wiele z nich wymaga bowiem szczegółowych wieloletnich badań. Profesor Miyagawa zawarł w książce wyniki swojej 30-letniej pracy naukowej oraz przegląd prac innych autorów. Jego spostrzeżenia zostały wzmocnione niedawno opublikowaną pracą Yuko Yanagidy z Tsukuba University. Również ona zauważyła, że w starym japońskim występuje sposób oznaczania dopełnienia bliższego, który jest podobny do metody używanej czasem we współczesnym angielskim. W jednej z fraz występuje bowiem połączenie dopełnienia bliższego i czasownika „tuki-sirohu“, co przypomina np. współczesne angielskie „bird-watching“, a podobną konstrukcję można znaleźć w języku Czukczów „qaa-tym-ge“..

      Szczególnie zadowoleni z książki Miyagawy są lingwiści badający ewolucję języków. Niezbyt wiele języków zachowało historyczne zapiski i tylko niektóre z nich przydają się do badania zmian. Większość takich jeżyków to języki indoeuropejskie. Dobrze przeprowadzona analiza zmian w języku japońskim jest zatem niezwykle cenna - powiedział David Lightfood z Georgetown University.

      Miyagawa zauważył też inne podobieństwa. Na przykład w języku japońskim występuje, podobnie jak i w angielskim tzw. „efekt blokujący“. Polega on na tym, że np. w angielskim można zastąpić wyraz „curious“ wyrazem „curiosity“, ale nie można zastąpić wyrazu „glorious“ słowem „gloriosity“. Dzieje się tak, gdyż istnieje wyraz „glory“. W japońskim efekt blokujący występuje na bardzo szeroką skalę. Nikt jednak nie przeprowadził wcześniej takiego porównania - mówi Miyagawa.

      Pracę profesora chwali też John Whitman z Cornell University. Lingwiści mają tendencję do myślenia, że ich własny język zawsze stosował się do tych samych podstawowych reguł. Ale Shigeru Miyagawa wykazał, że japoński sprzed 1000 lat był różny od współczesnego języka - mówi. Jego zdaniem kolejnym krokiem w tego typu badaniach powinno być podzielenie badanych okresów na mniejsze części. Miyagawa pokazał zmiany na przestrzeni setek lat. Warto byłoby zobaczyć, jak zmienia się język np. co 50 lat.
       
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...