Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

„Bramy chaosu" - to brzmi jak tytuł powieści fantasy. A tu zaskoczenie, bo bramy, a dokładniej bramki chaosu (chaogates, czyli chaobramki) to nowa technologia konstruowania układów elektronicznych, którą stworzył zespół pod kierunkiem Williama Ditto, dyrektora School of Biological Health Systems Engineering na Arizona State University. Chaobramki mają być alternatywą dla standardowych, zero-jedynkowych układów scalonych, a wykorzystywać mają logikę opartą o matematyczną teorię chaosu. Jak to działa?

Do stworzenia nowego rodzaju układów logicznych zespół wykorzystał chaotyczne wzorce sygnałów (wybrane z nieograniczonego zestawu chaotycznych wzorów) do kodowania i manipulacji danymi wejściowymi, żeby otrzymać w efekcie pożądane dane wyjściowe, co posłużyło za plan projektu. Takie podejście oferuje możliwość wykorzystania bogatych możliwości, jakie daje nieliniowa dynamika przetwarzania do stworzenia układów potrafiących się samodzielnie przekonfigurowywać w układ bramek logicznych najbardziej odpowiedni do wykonania zadania. Takie zmieniające się bramki logiczne nazwano właśnie chaobramkami. Koncepcja została przedstawiona w periodyku Chaos.

Wedle słów samego wynalazcy: chaobramki to cegiełki nowego, opartego o chaos, systemu komputerowego, który wykorzystuje gigantyczne możliwości chaotycznego tworzenia wzorców w celach obliczeniowych. Wyobraźmy sobie komputer, który potrafi zmienić swoje wewnętrzne działanie, tworząc miliard własnych układów na sekundę, dostosowując się do tego, co w czasie tej sekundy robi użytkownik; rekonfiguruje się sam, tworząc najszybszy możliwy komputer dla osiągnięcia wyznaczonego celu.

ChaoLogix, firma elektroniczna założona na Florydzie przez Williama Ditto i jego współpracowników już realizuje te zapowiedzi, tworząc pierwsze prototypy. Posiada ona opatentowaną technologię pozwalającą wytwarzać takie układy w krzemie, w jednym procesie technologicznym ze standardowymi, binarnymi bramkami logicznymi i pamięcią.

Według autorów, technologia pozwoli na tworzenie bezpiecznych układów scalonych, o wiele trudniejszych do sprzętowego przełamania zabezpieczeń oraz samoprzekształcających się układów, oferujących wyjątkowe możliwości na przykład w dziedzinie gier.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No tak tylko ze jest to dość podobne w moim odczuciu do sieci neuronowych jakoś specjalnej różnicy poza chaotycznością nie wiedzę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
No tak tylko ze jest to dość podobne w moim odczuciu do sieci neuronowych jakoś specjalnej różnicy poza chaotycznością nie wiedzę.[/size] 

Chaos w sieci neuronowej?? występuje po piwie, normalnie to najwyzy stopień organizacji spotykany w przyrodzie.

 

 

 

PS: mózg obsługuje 200 000 000 włókien nerwowych w rdzeniu, mega pixel na oko, 200 000 receptorów zimna, 30 000 receptorów ciepła, 1 000 000 receptorów dotyku, 200 000 receptorów bólu , kazdy mięsień wyzwalany narastającą serią impulsów, do tego trawienie, oddychanie, słuch, smak, zapach, feromony, odruchy, równowaga , planowanie, wspomnienia, pamięć, dwa rodzaje widzenia i pewnie 50 innych funkcji o których pojęcia nie mam . Gdzie tu miejsce na chaos??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chaos w sieci neuronowej?? występuje po piwie, normalnie to najwyzy stopień organizacji spotykany w przyrodzie.

 

 

 

PS: mózg obsługuje 200 000 000 włókien nerwowych w rdzeniu, mega pixel na oko, 200 000 receptorów zimna, 30 000 receptorów ciepła, 1 000 000 receptorów dotyku, 200 000 receptorów bólu , kazdy mięsień wyzwalany narastającą serią impulsów, do tego trawienie, oddychanie, słuch, smak, zapach, feromony, odruchy, równowaga , planowanie, wspomnienia, pamięć, dwa rodzaje widzenia i pewnie 50 innych funkcji o ktJeżeli órych pojęcia nie mam . Gdzie tu miejsce na chaos??

 

Wydaje mi się, że Tolo miał na myśli "sieci neuronowe" jako paradygmat programowania, a nie strukturę biologiczną.

Poza tym, nie uważasz, że skoro mamy tyle tysięcy neuronów na prawie każdą funkcję, to wynika to z faktu, że był gdzieś tam chaos? W końcu dlaczegoś jest ten potencjał progowy w neuronie. Statystycznie, każdy neuron co chwilę odpali, ale ponieważ będzie to samotny neuron, więc nie przekaże sygnału dalej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z sieciami neuronowymi ma to bardzo niewielki związek, ale mimo wszystko większy niż z chaosem - w którym interesuje nas zachowanie podczas ewolucji: przy wielu iteracjach ... podczas gdy tutaj korzystamy z jednej iteracji odwzorowania logistycznego - tylko z tego że np. wartości 4x(1-x) pokrywają w sposób nieliniowy cały przedział (można by chyba też użyć np. linowego (2x modulo 1) ... http://en.wikipedia.org/wiki/Chaos_computing

Czyli że możemy robić takie FPGA nie tylko sterowane w standardowy: zerojedynkowo linowy sposób, ale także w ładniej marketingowo brzmiący: wykorzystujący nieliniowość - bardziej skomplikowaną operację i dużo większe wejścia sterujące (żeby to miało choć odrobinę sensu, pewnie jednak robione analogowo).

Nieliniowości rzeczywiście może poprawić bezpieczeństwo, w sensie że umożliwia lepszą kryptografię niż opartą na linowych operacjach - ale od tej lokalnej: na poziomie bramek, dużo lepsza powinna być makroskopowa (... jak w  asymetrycznych systemach liczbowych) ... a na prawdziwy skok w FPGA to musimy poczekać do memrystorów ...

ps. W artykule z wikipedii wszystkie bramki muszą być symetryczne, ale chyba można to obejść dla np. implikacji poprzez przypisanie różnych wag wejściom.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Osobiście sam miałem podobny pomysł ale w aspekcie napisania samouczącego i samoorganizującego się programu :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W ziemskiej historii stężenie tlenu w atmosferze wahało się - bywało ono i niższe i wyższe niż obecne 21 procent. Do tej pory niewiele było badań nad wpływem stężenia tlenu na formy życia, dlatego badanie współczesnych owadów pod tym kątem przyniosło wiele ciekawych odkryć.
      Dotychczasowe teorie sugerowały, że prehistoryczne, olbrzymie ważki mogły osiągać swoje rozmiary - do 70 centymetrów rozpiętości skrzydeł - właśnie dzięki wysokiej zawartości tlenu w powietrzu. Zweryfikować to zdanie zdecydował się profesor John van den Brooks z Arizona State University w Tempe. Przystąpił do eksperymentu mającego sprawdzić poziom zawartości tlenu w powietrzu na rozwój szeregu owadów, nie tylko ważek, ale między innymi również karaluchów, żuków, koników polnych i mączników młynarków. Wszystkie podzielono na wiele grup, które przez kilka pokoleń przebywały w warunkach różnego stężenia tlenu, od 12% (najniższe stężenie, jakie znamy z przeszłości ziemi), przez obecne 21% do 31% (najwyższe, jakie znamy). Przykładowo najłatwiejsze w hodowli karaluchy podzielona na aż 7 grup, trudne w utrzymaniu ważki (których ręcznym karmieniem zajmowało się aż kilku studentów) na jedynie trzy.
      Spośród dwunastu różnych gatunków owadów aż dziesięć faktycznie malało wskutek hipooksji (zaniżonej ilości tlenu w tkankach, żyjąc w atmosferze ubogiej w tlen, zgodnie z założonym modelem. Hiperoksja (zwiększone stężenie tlenu w tkankach) w atmosferze bogatej w tlen powodowało jednak mniej przewidywalne wyniki. Ważki rzeczywiście rosły do znacznie większych rozmiarów, potwierdzając wstępne założenie. Karaluchy jednak, wbrew intuicji, malały. Ponadto ich rozwój spowolnił się aż dwukrotnie.
      W poszukiwaniu mechanizmu, który łączy poziom tlenu z rozmiarem osobników postanowiono się przyjrzeć przetchlinkom, czyli aparatowi oddechowemu owadów. Wyhodowane w różnych warunkach osobniki karalucha poddano badaniu w synchrotronie rentgenowskim w Argonne National Lab. Okazało się, że bogata w tlen atmosfera powoduje zmniejszenie się rozmiaru przetchlinek, „oszczędzoną" zaś w ten sposób energię karaluchy inwestują w rozwój innych funkcji życiowych, na przykład rozmnażania.
      Następnym etapem studiów będzie analiza aparatów oddechowych owadów zachowanych w pokładach bursztynu. Docelowo prof. van den Brooks zamierza wykorzystać analizę przetchlinek skamieniałości owadów jako znacznik poziomu tlenu w atmosferze dawnych epok.
    • przez KopalniaWiedzy.pl
      Współcześnie życie na naszej planecie jest ściśle uzależnione od tlenu. Nie zawsze jednak było go tak pod dostatkiem, jak dziś. Przez większość swojej historii sięgającej 4,5 miliarda lat atmosfera ziemska zawierała jedynie śladowe ilości tlenu. W jaki sposób tlen gromadził się w atmosferze i jak ten proces wiązał się z rozwojem życia i ewolucją? Do niedawna nie było to wiadome.
      Przez większość ziemskiej historii w oceanach kwitło życie, ale były to jedynie bakterie i inne mikroorganizmy. Wytwarzały one tlen w procesie fotosyntezy, ale nie było go raczej wystarczająco wiele, żeby mógł gromadzić się w atmosferze i hydrosferze. Tym niemniej, około 2,3 miliarda lat temu ilość tlenu wzrosła. Czy jednak była już wtedy tak wysoka jak obecnie? Czy pierwsze wyższe organizmy miały do dyspozycji dużo tlenu, czy mało?
      Na pytanie to udało się odpowiedzieć naukowcom dopiero niedawno. Ariel Anbar, biogeochemik na Arizona State University i prowadzący uniwersytecki program astrobiologiczny (ASU Astrobiology Program) odkrył sposób na dokładne zmierzenie stężenia tlenu w ziemskiej prehistorii. Kluczem okazały się czarne łupki, skały osadowe powstałe z osadów na dnie dawnych oceanów. Są one bogate w molibden. Pierwiastek ten występuje w siedmiu stabilnych izotopach, których proporcje można łatwo i dokładnie zmierzyć. Izotopy molibdenu układają się w skałach frakcjami, a stopień ich frakcjonowania zależny jest od obecności tlenu.
      W ten sposób, wiążąc frakcje izotopów molibdenu z wiekiem osadów określono stężenie tlenu w różnych momentach historii. Okazało się, że zawartość tlenu w atmosferze porównywalna do obecnej pojawiła się niedawno, bo dopiero około 500 milionów lat temu. Naukowcy powiązali ten fakt z pojawieniem się na ziemi roślin naczyniowych, których najstarsze skamieniałości datowane są na około 400 milionów lat temu.
      Tkanka roślin naczyniowych jest - w porównaniu z tkanką wcześniejszych form roślinnych - dość odporna na rozkład. Organiczny węgiel pochodzący z roślin naczyniowych zatem jest bardziej skłonny do pozostawania w osadach niż wiązania się z tlenem. Dominacja roślin naczyniowych spowodowała zatem wzrost stężenia tlenu w atmosferze. Większy poziom tlenu utorował drogę do ewolucji wyższych form zwierzęcych, rozpoczynając współczesny eon fanerozoiczny. Tak zatem ewolucja nie tylko zależna jest od obecności tlenu, ale sama na tę obecność wpływa.
    • przez KopalniaWiedzy.pl
      W naukach astronomicznych i geologicznych wciąż coś się zmienia. Nowe odkrycia bez przerwy modyfikują i uzupełniają istniejące teorie. Ostatnią nowością jest korekta wieku naszego Układu Słonecznego który okazuje się starszy o niemal dwa miliony lat.
      Układy planetarne tworzą się, kiedy obłok gazu (głównie wodoru i helu) oraz pyłu kosmicznego zapada się pod wpływem grawitacji. Rosnąca siła grawitacji, gęstość i temperatura powoduje powstanie dysku protoplanetarnego, z którego później wykształcą się planety, centralne zgrubienie dysku - protogwiazda ostatecznie przekształca się w słońce. W dysku protoplanetarnym stopniowo formują się coraz cięższe substancje i większe okruchy stałej materii. Od tego momentu można zmierzyć wiek układu planetarnego - wtedy zaczynają cykać „zegary", czyli mniej stabilne izotopy pierwiastków.
      Takie właśnie minerały odkryto w półtorakilogramowym węglowym chondrycie - meteorycie znalezionym w 2004 roku na Saharze. Były to tzw. inkluzje - bogate w wapno i aluminium okruchy materii o rozmiarze od milimetra do centymetra, które powstały właśnie w pierwotnym dysku protoplanetarnym.
      Naukowcy z Arizona State University dokonali oceny wieku tych minerałów metodą izotopową - mierząc proporcje izotopów ołowiu zawartych w inkluzjach ocenili wiek minerałów na prawie cztery i pół miliarda (dokładnie na 4,45682 miliarda) lat.
      To najstarszy materiał z naszego Układu Słonecznego, jakiego wiek kiedykolwiek udało się obliczyć. Zatem i sam Układ musi być starszy, jego wiek, w zależności od teorii, jak dotąd szacowano na mniej o 300 tysięcy do 1,9 miliona lat.
      Artykuł na temat wieku naszego Układu Słonecznego zamieszczono w periodyku Nature Geoscience.
    • przez KopalniaWiedzy.pl
      W związku z rosnącą popularnością urządzeń z ekranami wielodotykowymi amerykańska Narodowa Fundacja Nauki (NSF) postanowiła sfinansować badania dotyczące wpływu takich urządzeń na zdrowie człowieka. Badania przeprowadzi zespół Kanava Kahola z Arizona State University, któremu przyznano grant w wysokości 1,2 miliona dolarów. "Wyświetlacze wielodotykowe mogą być wspaniałym narzędziem ułatwiającym korzystanie z urządzenia, ale nie wiemy, jak wpływają na układ mięśniowo-szkieletowy" - stwierdził Kahol.
      Na początku badań ochotnicy zostaną wyposażeni w urządzenia rejestrując siły działające na dłonie, siłę mięśni potrzebną do pracy z wyświetlaczami oraz elektroniczne rękawice rejestrujące ruchy dłoni. Później na podstawie tak uzyskanych informacji zostaną stworzone modele biomechaniczne, które mają pozwolić na stwierdzenie, jakie obciążenie jest wywoływane przez poszczególne gesty.
      "Wyniki badań dostarczymy Microsoftowi, Apple'owi i innym producentom, by mogli je wykorzystać podczas projektowania nowych urządzeń" - mówi profesor Kahol
    • przez KopalniaWiedzy.pl
      Niedawno okazało się, że naukowcy przeszacowali tempo topnienia lodowców w Himalajach. Teraz przyszedł czas na korektę danych dotyczących lodowców na Alasce.
      Erik Schiefer, geolog z Northern Arizona University, jest współautorem nowych wyliczeń dotyczących zanikania alaskańskich lodów. Brał on udział w pracach zespołu kierowanego przez Etienne Berthier z Universite de Toulouse. Uczeni obliczyli, że wody dostarczane przez lodowce Alaski przyczyniają się do zwiększenia poziomu oceanów w mniejszym stopniu, niż dotychczas sądzono. Według nowych szacunków powodują one, że poziom oceanów podnosi się rocznie o 0,0047, a nie o 0,0067 cala. Liczby wydają się małe, jednak należy pamiętać, że sumują się one w przeciągu dziesięcioleci.
      Zespół Berthier, korzystając z pomocy satelitów, zebrał dane z 75% alaskańskich lodowców. Wcześniejsze badania opierały się na znacznie mniejszych próbach pozyskiwanych dzięki pomiarom z pokładów samolotów, które porównywano do danych z lat 50. i 60. ubiegłego wieku. Schiefer mówi, że do przeszacowania doszło z dwóch powodów. Po pierwsze, nie wzięto pod uwagę wpływu znajdujących się na lodowcach szczątków skalnych, które chronią lód przed Słońcem. Po drugie, cieńszy lód na brzegach lodowców topi się w innym tempie, niż grubszy w innych jego miejscach.
      Naukowiec zauważył jednocześnie, że inne badania wykazują, iż w ciągu ostatnich 40 lat tempo topnienia lodowców zwiększyło się dwukrotnie. Zdaniem Schiefera, będzie ono nadal rosło.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...