Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Niemal od samego początku rozwój komputerów i informatyki opiera się na cyfrowej logice binarnej. Wyjątki są bardzo nieliczne: słynny ENIAC działał w systemie dziesiętnym (ale też cyfrowym), w połowie XX wieku przez pewien czas korzystano z liczących maszyn analogowych. Te epizody są już dawno jednak zapomniane i dziś dominuje sztywna i jednoznaczna logika binarna. Nawet procesy i obliczenia analogowe, rachunek prawdopodobieństwa są dziś jedynie symulowane. Tak samo szum, dane losowe - są liczone przez dwójkowe algorytmy.

Być może już niedługo zamiast symulować, będzie można obliczenia statystyczne i rachunek prawdopodobieństwa wykonywać bezpośrednio. Powstała właśnie firma, Lyric Semiconductor, stworzyła procesor całkiem nowego typu: probabilistyczny. Stany na jego wejściach, wyjściach i bramkach reprezentują nie logiczne 0 i 1, ale ich prawdopodobieństwo. Binarne bramki logiczne zastąpione są tzw. bramkami bayesowskimi. Jak mówi pomysłodawca i założyciel firmy, Ben Vigoda, trzeba było zaczynać całkowicie od zera. Podstawą teoretyczną były jego badania przeprowadzone podczas pisania pracy doktorskiej. Opracowanie podstaw tworzenia takich układów scalonych trwało w tajemnicy od 2006 roku.

Pierwszy w pełni programowalny probabilistyczny procesor ma się pojawić za trzy lata, ale już teraz Lyric Semiconductor ma gotowy pierwszy produkt: chip dokonujący korekcji błędów. W porównaniu z wykonującym takie same funkcje układem binarnym, nowy układ jest 30 razy mniejszy i potrzebuje 12 razy mniej prądu. Chociaż jego działanie opiera się na całkowicie innych zasadach, będzie mógł być łączony ze zwykłą elektroniką, choć może być to pewnym wyzwaniem dla inżynierów.

Korekcja błędów jest powszechnie stosowana, więc pole zastosowań jest nieograniczone. W miarę wzrostu pamięci masowych i przepustowości łącza, rośnie ryzyko przekłamań, przypadkowych zmian bitów z zera na jedynkę, lub odwrotnie. Aby temu zapobiec stosuje się dane kontrolne, które pozwalają odtworzyć poprawną wartość. Do tego potrzebne są jednak spore, statystyczne obliczenia, które procesor Bena Vigody wykonuje sprawniej i szybciej. Jeśli jego wartość potwierdzi się komercyjnie, bez wątpienia znajdzie się on w pamięciach masowych: twardych dyskach, układach pamięci flash, napędach optycznych, w elektronice systemów transmisyjnych: ruterów, modemów, kart sieciowych, itd.

W pełni programowalny procesor będzie nieoceniony w procesach szyfrowania i deszyfrowania, obróbce danych (np. odszumianie), procesach sztucznej inteligencji (rozpoznawanie obrazów, rozumienie mowy przez komputer). Proponowanie nowych znajomych na Facebooku, sugerowanie stron w wyszukiwarce, filtrowanie spamu w poczcie elektronicznej, rekomendacje produktów w sklepach internetowych - tu wszędzie wykonywane są obliczenia probabilistyczne. Nowy układ ma więc szansę zrewolucjonizować elektronikę.

Pojawiały się co prawda niedawno koncepcje procesorów odrzucających pełną jednoznaczność obliczeń i pozwalających na czynnik losowy podczas niektórych typów obliczeń, gdzie stuprocentowa dokładność nie jest konieczna (np. dekodowanie dźwięku i obrazu), ale w porównaniu z dziełem Vigody to były zaledwie ćwierćśrodki.

Prace nad powstaniem probablilistycznego układu częściowo finansowała DARPA (U.S. Defense Advanced Research Projects Agency - agencja badawcza Departamentu Obrony USA).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z tego artykułu nie wynika w jakim systemie pracuje procesor ,czyżby to była jakaś tajemnica ,czy może wyjścia nóżek to węzły gałęzi drzew probabilistycznych lub coś w tym stylu?

W każdym razie jakaś część procka musi być cyfrowa, jeśli mamy mówić o współpracy ze współczesną elektr.cyfrową.

Czyli jest to układ specjalizowany ,co oznacza ,że będzie pracował jako układ dodatkowy do obliczen statystycznych dla głównego procesora, patrząc na mały rozmiar i pobieraną moc.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mimo dość długaśnego tekstu nie zdradzono żadnych szczegółów na temat tego procesora. Może tajemnica.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tradycyjne pytanie , można to skopiować na osnews ? Zgodnie z zasadami portalu :) ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W imieniu szefa mogę chyba odpowiedzieć: można, jedyny warunek to odnośnik do źródła (do strony głównej KW) pod tekstem. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Apropos szczegółów technicznych tego procka to nikt ich nie poda gdyż to kompletnie nowe rozwiązanie na rynku i Lyrics będzie chciał zarobić na patentach .

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ale jeśli są patenty, to i tak nikt im technologii tak nie zabierze. Zwłaszcza na podstawie kilku słów, które mogliby powiedzieć o zasadach działania. Bo ja też jestem ciekaw.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podejrzewam że za pomocą elementów półprzewodnikowych stworzyli bramki które zamiast algebry boola reprezentują operacje na zbiorach prawdopodobieństwa , do tego zintegrowano koprocesor matematyczny wykonuje już samą część obliczeniową , po wyznaczeniu trasy wykonania rozkazu .

 

W tym wszystkim jest zastanawiające JAK stworzono bramki Bayentsowskie w zwykłym krzemie , ale tego się dowiemy za dekade :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli mają na to patent, to odpowiednia dokumentacja powinna być w biurze patentowym USA. Wydaje mi się, że te dokumenty są również dostępne online.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W imieniu szefa mogę chyba odpowiedzieć: można, jedyny warunek to odnośnik do źródła (do strony głównej KW) pod tekstem. :)

 

A do dalszych kopii z osnews też? Dodałem info o źródle, by nie mieć moralniaka.

 

http://pl.wikinews.org/wiki/Elektronika:_pierwszy_procesor_probabilistyczny_zaprezentowany_przez_Lyric_Semiconductor

 

Ale sytuacja jest niejednoznaczna, bo jeśli osnews jest na cc-by, to kopiuję podając autora z osnews i tam link. Jeśli nie ma warunku, że kopiując dalej trzeba też dać autora/link z kopalni wiedzy, to nie trzeba... Puściłem już maila ogólnego do kw - jako autor dysponujesz prawami autorskimi do tekstu, ale żeby nie było niejednoznacznych sytuacji, to wolę wyjaśnić :D. Chyba lepiej po prostu oznaczyć tekst licencją kompatybilną z tą na osnews (cc-by 1.0/2.0/2.5/3.0) z dodaniem warunku linku do źródła - skoro kopiować można. Pozdrawiam

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A może sztuczka polega na tym ze procesor jest po porostu analogowy w środku. I obliczenia wykonuje analogowo a na koniec wynik jest digitalizowany.

Jakoś  sygnały ze tak powiem ciągle lepiej pasują mi do prawdopodobieństwa. Tak jak sygnały dyskretne do algebry Bool`a. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wyszukiwarka podana przez Mariusza nie chciała nic wypluć na "Lyric Semiconductor", ale przypadiem znalazłem inną i jest patent Lyric Semiconductor: ANALOG COMPUTATION. O ile oceniłem z pobieżnego rzutu okiem, w środku są kondensatory o zmiennej pojemności, ale sterowane cyfrowo. Jeśli ktoś wyrozumie więcej i się podzieli wiedzą w strawnej formie, będę wdzięczny (pewnie nie tylko ja). :)

 

Swoją drogą, w początkach ery komputerów komputery analogowe, lub mieszane (analogowo-cyfrowe) były rzeczą normalną, zanim wszystko wzięły tranzystory. Jestem ciekaw, jak się mają tamte technologie do patentu Lyrica.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

I pojawił się jakiś? Słyszał ktoś o tym coś nowego?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Nie zawsze doceniamy jej znaczenie, ale bez niej trudno byłoby wyobrazić sobie dzisiejszy świat. To ona wspiera decyzje najwyższego szczebla, ułatwia wszelkie prognozy, symulacje i analizy, a także wspiera rozwój społeczeństwa informacyjnego i gospodarki. Mowa tu o statystyce publicznej, w ramach której udostępniane są istotne informacje dot. współczesnych zjawisk. Dziś przedstawiamy rozwiązanie, które  zmienia oblicze statystyki publicznej w Polsce.
      Statystyka publiczna dopiero w XIX w. na dobre weszła do życia społeczno-politycznego. Dziś trudno wyobrazić sobie współczesny świat bez dostępu do bieżących danych statystycznych, będących podstawą działania społeczeństwa informacyjnego. We wszystkich krajach należących do ONZ, do gromadzenia informacji istotnych z punktu widzenia funkcjonowania państwa, powołuje się odrębne instytucje upoważnione do zbierania i przetwarzania danych. W Polsce określa to Ustawa z dnia 29 czerwca 1995 r. o statystyce publicznej. Badania prowadzone w jej ramach dotyczą różnych dziedzin życia społecznego, gospodarczego, w tym sytuacji demograficznej oraz stanu środowiska naturalnego. Poprzez zauważalny wzrost liczby zastosowań statystyki w różnorodnych dyscyplinach, nie tylko naukowych, ale też finansach, telekomunikacji, marketingu oraz zarządzaniu, można mówić o jej niebagatelnym wpływie na rozwój społeczeństwa i gospodarki, którego podstawą jest wartościowa informacja. Opisywana tendencja poszerzania zakresu wykorzystania statystyki nieodzownie wiąże się z rozpowszechnieniem nowoczesnych narzędzi teleinformatycznych. Powstaje coraz więcej możliwości, nie tylko komunikowania się na odległość, ale również załatwiania spraw bez konieczności fizycznej obecności w danym miejscu. Asortyment usług świadczonych drogą elektroniczną systematycznie się zwiększa, również w sferze działań instytucji publicznych.
      Polska statystyczna
      Postęp w statystyce publicznej mocno zauważalny jest w Polsce. Do jej głównych założeń należy tworzenie wielowarstwowych baz danych, zapewnienie nieograniczonego dostępu do informacji oraz edukacja statystyczna. W ostatnim czasie duży nacisk kładzie się na tworzenie elektronicznego systemu umożliwiającego łatwy i co ważne powszechny dostęp do publikowanych danych. Znaczącym motorem napędowym rozwoju elektronicznej administracji (wykorzystującej nowe technologie w celu poprawy swoich usług), stały się środki z funduszy Unii Europejskiej. Szczególnie temu służy 7 Oś Priorytetowa Programu Operacyjnego Innowacyjna Gospodarka na lata 2007-2013, w ramach której realizowany jest Projekt „Portal Geostatystyczny – Faza II”.

      Portal Geostatystyczny to narzędzie oparte o technologie wykorzystujące dane geoprzestrzenne bazujące na tzw. Systemach Informacji Geograficznej GIS (ang. Geographic Information System). Celem jest tu wspieranie procesów decyzyjnych, bazujących na gromadzeniu, przetwarzaniu oraz wizualizacji danych geograficznych połączonych z danymi statystycznymi. W portalu są także zawarte rozwiązania będące odniesieniem do specyfikacji znajdujących się w przepisach wykonawczych do Dyrektywy INSPIRE, ustanawiającej Infrastrukturę Informacji Przestrzennej we Wspólnocie Europejskiej, a także w Ustawie z dnia 4 marca 2010 r. o infrastrukturze informacji przestrzennej. Przykładem jest np. publikowanie wyników badań statystycznych w siatce kilometrowej (grid).


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Świat pędzi do przodu. Nowe technologie, powszechny dostęp do informacji i coraz większa potrzeba „bycia na bieżąco” stają się nieuniknioną częścią naszej rzeczywistości. Na te szybko postępujące zmiany cywilizacyjne musieli zareagować specjaliści w dziedzinie  statystyki publicznej, przecierając nowe szlaki w sposobie prezentacji danych. W ostatnim czasie statystyka publiczna mocno stawia na postęp i pionierskie rozwiązania, co daje szanse na zaskakujące efekty działań.
      Statystyka publiczna dopiero w XIX w. na dobre weszła do życia społeczno-politycznego. Dziś trudno wyobrazić sobie współczesny świat bez dostępu do bieżących danych statystycznych, będących podstawą działania społeczeństwa informacyjnego. We wszystkich krajach należących do ONZ, do gromadzenia informacji istotnych z punktu widzenia funkcjonowania państwa, powołuje się odrębne instytucje upoważnione do zbierania i przetwarzania danych. W Polsce określa to Ustawa z dnia 29 czerwca 1995 r. o statystyce publicznej. Badania prowadzone w jej ramach dotyczą różnych dziedzin życia społecznego, gospodarczego, w tym sytuacji demograficznej oraz stanu środowiska naturalnego. Poprzez zauważalny wzrost liczby zastosowań statystyki w różnorodnych dyscyplinach, nie tylko naukowych, ale też finansach, telekomunikacji, marketingu oraz zarządzaniu, można mówić o jej niebagatelnym wpływie na rozwój społeczeństwa i gospodarki, którego podstawą jest wartościowa informacja. Opisywana tendencja poszerzania zakresu wykorzystania statystyki nieodzownie wiąże się z rozpowszechnieniem nowoczesnych narzędzi teleinformatycznych. Powstaje coraz więcej możliwości, nie tylko komunikowania się na odległość, ale również załatwiania spraw bez konieczności fizycznej obecności w danym miejscu. Asortyment usług świadczonych drogą elektroniczną systematycznie się zwiększa, również w sferze działań instytucji publicznych.
      Polska statystyczna
      Postęp w statystyce publicznej mocno zauważalny jest w Polsce. Do jej głównych założeń należy tworzenie wielowarstwowych baz danych, zapewnienie nieograniczonego dostępu do informacji oraz edukacja statystyczna. W ostatnim czasie duży nacisk kładzie się na tworzenie elektronicznego systemu umożliwiającego łatwy i co ważne powszechny dostęp do publikowanych danych. Znaczącym motorem napędowym rozwoju elektronicznej administracji (wykorzystującej nowe technologie w celu poprawy swoich usług), stały się środki z funduszy Unii Europejskiej. Szczególnie temu służy 7 Oś Priorytetowa Programu Operacyjnego Innowacyjna Gospodarka na lata 2007-2013, w ramach której realizowany jest Projekt „Portal Geostatystyczny – Faza II”.

      Portal Geostatystyczny to narzędzie oparte o technologie wykorzystujące dane geoprzestrzenne bazujące na tzw. Systemach Informacji Geograficznej GIS (ang. Geographic Information System). Celem jest tu wspieranie procesów decyzyjnych, bazujących na gromadzeniu, przetwarzaniu oraz wizualizacji danych geograficznych połączonych z danymi statystycznymi. W portalu są także zawarte rozwiązania będące odniesieniem do specyfikacji znajdujących się w przepisach wykonawczych do Dyrektywy INSPIRE ustanawiającej Infrastrukturę Informacji Przestrzennej we Wspólnocie Europejskiej, a także w Ustawie z dnia 4 marca 2010 r. o infrastrukturze informacji przestrzennej. Przykładem jest np. publikowanie wyników badań statystycznych w siatce kilometrowej (grid).


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Google udostępniło swoje najnowsze statystyki - obejmujące okres od lipca do grudnia 2010 roku - dotyczące liczby oficjalnych nakazów usunięcia treści ze swoich serwisów. Koncern w większości uznaje takie nakazy za zasadne i usuwa wskazane informacje.
      Najwięcej tego typu żądań - 263 - pojawiło się w Brazylii i dotyczyły one ponad 12 000 rekordów. Najwięcej pochodziło od policji i władz wykonawczych. Domagano się przede wszystkim usunięcia z serwisu Orkut treści zniesławiających inne osoby. Kilkadziesiąt razy brazylijskie sądy nakazywały też usunięcie zniesławiających treści z YouTube'a.
      W Korei Południowej pojawiło się 139 wniosków o usunięcie treści i dotyczyły one ponad 32 000 rekordów. Niemal wszystkie żądania wysunęła Koreańska Agencja Bezpieczeństwa Informacji i dotyczyły one obecnych w wyszukiwarce numerów identyfikacyjnych przyznawanych przez rząd obywatelom.
      Kolejne na liście są Niemcy, gdzie pojawiło się 118 wniosków dotyczących niemal 2000 rekordów. Żądania wysyłały zarówno sądy jak i policja czy inne urzędy. Najwięcej z nich odnosiło się do wyszukiwarki i materiałów zniesławiających oraz YouTube'a i umieszczonych tam treści naruszających prywatność oraz posługujących się „mową nienawiści".
      Libijskie urzędy i policja nakazały w 68 wnioskach usunięcie 203 rekordów z serwisu YouTube.
      Z kolei z Indii pochodziło 67 wniosków dotyczących 282 rekordów. Wydawały je przede wszystkim policja oraz urzędy i dotyczyły one przede wszystkim YouTube'a i wyszukiwarki.
      Ze Stanów Zjednoczonych pochodziły 54 wnioski wydane w większości przez sądy. Dotyczyły one przede wszystkim zniesławienia na Google Groups, w wyszukiwarce czy w serwisie YouTube. Żądano usunięcia 1421 rekordów.
      Za USA uplasowała się Wielka Brytania z 38 wnioskami, w których domagano się usunięcia ponad 93 000 rekordów.  Niemal wszystkie kontrowersyjne rekordy pochodziły z Google AdWords.
      Na liście nie wymieniono Polski, a na temat Chin nie ma żadnych danych. Google nie może ich ujawnić, gdyż działania cenzorskie w Państwie Środka są objęte tajemnicą państwową.
       
    • przez KopalniaWiedzy.pl
      Wizjonerzy mamią nas wizjami komputerów kwantowych od dobrych dwudziestu lat. I pomimo nieustannego postępu w tej dziedzinie, w zasadzie wciąż jedyne osiągnięcia to laboratoryjne przykłady, a największy zbudowany „komputer" składał się z... aż trzech qubitów, czyli kwantowych bitów. Największym problemem, jak się uważa, będzie niezawodność takich konstrukcji i odporność na błędy, trudno bowiem zapanować nad stanem każdego pojedynczego atomu czy elektronu. Jak uważają angielscy i australijscy naukowcy, sprawa niekoniecznie musi być aż tak trudna.
      Doktor Sean Barrett z Imperial College London i Thomas Stace z University of Queensland w australijskim Brisbane sugerują dość proste rozwiązanie problemu błędów - korekcję. Korekcja błędów stosowana jest dzięki odpowiednim algorytmom w dzisiejszej elektronice, a wykorzystywana jest zwykle przy korzystaniu z pamięci masowych. Same programy korygujące muszą jednak działać niezawodnie...
      Korekcja błędnych danych w komputerze kwantowym musi jednak dotyczyć samego procesu przetwarzania, powinna zatem być jakoś powiązana z samym sposobem działania kwantowego mechanizmu. Taki sposób właśnie zaprojektował zespół pod kierunkiem dra Barreta. To system kontekstowego kodowania danych, który pozwala poprawnie działać algorytmom nawet w przypadku ubytku lub przekłamania 25% qubitów. Polega on na rozmieszczeniu elementów na trójwymiarowej matrycy, podczas odczytu z której brane są pod uwagę również sąsiadujące elementy.
      Taki kwantowy komputer byłby, zdaniem angielsko-australijskiego zespołu, znacznie łatwiejszy do skonstruowania. Tym niemniej, to wciąż są na razie prace teoretyczne i do pojawienia się komercyjnych konstrukcji może upłynąć kolejnych dwadzieścia lat.
    • przez KopalniaWiedzy.pl
      Do wieku przedszkolnego dzieci potrafią wnioskować o emocjach czy preferencjach innych ludzi, posługując się... statystyką.
      Tamar Kushnir z Uniwersytetu Cornella, Fei Xu z Uniwersytetu Kalifornijskiego w Berkeley oraz Henry M. Wellman z University of Michigan przeprowadzili serię eksperymentów z maluchami obserwującymi zachowanie lalek bądź dorosłych osób. W pierwszym z nich 3-4-latki oglądały pacynkę nazywaną Wiewiórem, która wybierała z pudła pełnego zabawek pięć przedmiotów tego samego rodzaju, np. 5 niebieskich kwiatków, i z zapałem się nimi bawiła. Zmieniano jednak zawartość kartonu. Dla jednej trzeciej dzieci znajdowały się tam wyłącznie zabawki jednego rodzaju (100%), druga jedna trzecia stykała się ze scenariuszem pół na pół (niebieskie kwiatki plus czerwone kółka), a pozostała 1/3 widziała, że wybierane przez Wiewióra zabawki stanowiły w pudle mniejszość, bo jedynie 18%. Potem maluchy proszono, by podały pacynce ulubioną zabawkę. Okazało się, że dzieci oferowały lalce niebieskie kwiatki, jeśli sama wybierał je z kartonu, w którym znajdowały się również inne przedmioty.
      Dla kilkulatków ważne było, jaką część zawartości pudła stanowiły niebieskie kwiatki. Częściej dawały je pacynce, gdy stanowiły 18% składu, a nieco rzadziej przy wersji 50:50. Gdy Wiewiór miał do wyboru wyłącznie niebieskie kwiaty, dzieci proponowały mu losową zabawkę. Sugeruje to, że brzdące wnioskowały, że lalka najbardziej lubi niebieskie rośliny, jeśli próbka nie pasowała do proporcji zabawek w populacji, czyli kartonie. Statystycy mówią w takich okolicznościach o doborze nielosowym.
      W drugim eksperymencie 1,5-2-letnie dzieci także wnioskowały o preferencjach dorosłego na podstawie przeprowadzanego przez niego doboru nielosowego. Obserwowany człowiek wybierał 5 zabawek, które stanowiły 18 lub 82% składu pudełka i podobnie jak Wiewiór, ochoczo się nimi bawił. Dzieci stwierdzały, że dorosły ma jakieś preferencje, gdy wybrana zabawka należała do mniejszości.
      Rozszyfrowując innych ludzi, maluchy przysłuchują się np. wypowiedziom i poszukują oznak emocji. Nikt ich jednak wcześniej nie posądzał o wykorzystywanie reguł związanych ze statystyką.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...