Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'architektura' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 8 wyników

  1. Serwis Bloomberg twierdzi, że w przyszłym miesiącu, podczas targów CES, Microsoft pokaże pełną wersję Windows obsługującą, obok x86, również architekturę ARM. Poufne plany koncernu zdradziły dziennikarzom dwie anonimowe osoby. Pojawienie się Windows dla ARM pozwoli koncernowi z Redmond na zdecydowane wejście na rynek tabletów i urządzeń przenośnych, gdyż znaczna część z nich korzysta właśnie z tej architektury. Procesory ARM produkują tacy giganci jak Qualcomm, Texas Instruments czy Samsung. Robert Breza, analityk z firmy RBC Capital Markets uważa, że Windows obsługujący ARM to najlepszy dla Microsoftu sposób na zaistnienie na rynku tabletów. Koncern z Redmond praktycznie na nim nie istnieje. Wersje Windows obsługujące ARM istnieją już od dawna. Nie są to jednak "duże" systemy, znane nam z desktopów, ale edycje dla urządzeń wbudowanych. Informacje Bloomberga są tym bardziej prawdopodobne, że, jak informowaliśmy, Microsoft kupił przed kilkoma miesiącami pełną licencję ARM.
  2. Podczas Intel Developer Forum koncern zdradził kolejne szczegóły dotyczące kolejnej generacji 32-nanometrowej architektury. Pierwsze układy Sandy Bridge mają trafić na rynek najpóźniej w kwietniu przyszłego roku. Będą one korzystały z metalowej bramki i izolatorów o wysokiej stałej dielektrycznej. Cechą charakterystyczną nowej architektury ma być jej pierścieniowa budowa, dzięki której wbudowany w procesor rdzeń graficzny będzie mógł dzielić pamięć cache i inne zasoby z rdzeniami CPU. Początkowo Sandy Bridge nie będą obsługiwały DirecX 11 gdyż, jak tłumaczyli przedstawiciele Intela, obecnie na rynku nie ma gier korzystających wyłącznie z DirectX 11. Nowe procesory mają wspierać DirectX 10.1 oraz OpenCL 1.1. Architektura Sandy Bridge jest nieco podobna do Nehalem i Westmere, jednak warto zauważyć tutaj bardzo istotne zmiany. Trzeba przede wszystkim wspomnieć o wzbogaceniu jej o rozkazy AVX (Advanced Vector Extension). To zestaw instrukcji przeznaczonych do obliczeń zmiennoprzecinkowych, korzystający z 256-bitowych rejestrów. Jeszcze ważniejszy jest fakt aż czterokrotnego zwiększenie przepustowości pamięci cache oraz wspomniane już dzielenie jej przestrzeni pomiędzy rdzenie CPU i graficzne. Nowe kości obsługuję PCI Express oraz Embedded Display Port. Intel podjął taką decyzję kierując się obecną sytuacją rynkową oraz chęcią zmniejszenia zapotrzebowania na energię całego systemu korzystającego z Sandy Bridge. Oczywiście po dołączeniu chipsetu platforma obsłuży też inne standardy, takie jak HDMI. Chipset jest też potrzebny do obsługi USB. Na razie jednak nie wiadomo, kiedy platforma Sandy Bridge będzie obsługiwała USB 3.0 czy łącza optyczne LighPeak. Można się tylko domyślać, że z czasem pojawią się kolejne wersje platformy Sandy Bridge obsługującej nowe standardy. Przedstawiciele Intela mówili też, że integrując układ graficzny z procesorem skupili się na oszczędności energii i wydajności. Stąd pomysł na dzielenie pamięci cache czy też na udoskonalony tryb Turbo, dzięki któremu w miarę potrzeby więcej zasobów może być przydzielanych rdzeniom graficznym. Architektura Sandy Bridge trafi do wszystkich typów procesorów Intela. Od układy dla notebooków po serwerowe Xeony pracujące w wieloprocesorowych konfiguracjach. Już w pierwszym kwartale przyszłego roku w sklepach znajdzie się kilkanaście modeli procesorów korzystających z architektury Sandy Bridge. Będą to kości zbudowane z 2 lub 4 rdzeni, taktowane zegarem od 2,5 do 3,4 GHz (do 3,8 GHz w trybie Turbo) i wykorzystujące od 3 do 8 megabajtów pamięci cache trzeciego poziomu (L3). Ich pobór mocy wyrażony emisją ciepła (TDP) wyniesie od 35 do 95 watów.
  3. Mapowanie mózgu trwa już od ponad 100 lat, nadal jednak nikt nie wie, na jakiej zasadzie poszczególne części czy ośrodki są ze sobą połączone. By ujawnić przebieg "okablowania" fragmentu szczurzego mózgu, naukowcy z Uniwersytetu Południowej Kalifornii posłużyli się najnowszymi zdobyczami nauki. Narodowe Instytuty Zdrowia przeznaczyły aż 30 mln dolarów na stworzenie konektomu (connectome od ang. connect – łączyć) ludzkiego mózgu. Richard H. Thompson i Larry W. Swanson mapowali ośrodek nagrody związany z przyjemnością czerpaną z jedzenia. Okazało się, że połączenia tworzyły pętle, co sugeruje, że - przynajmniej w tej części mózgu gryzonia – diagram komunikacyjny wygląda jak rozproszona sieć. Neurolodzy hołdujący tradycyjnym poglądom uważają, że mózg jest zorganizowany hierarchicznie, a niższymi ośrodkami zarządza kora. Inni popierają nowszą teorię, forsującą model mózgu z płaską siecią przypominającą Internet. Zaczęliśmy w jednym miejscu i przyglądaliśmy się połączeniom. Natrafiliśmy na bardzo złożone serie pętli. Nie było schematu organizacyjnego ani dołu czy góry – wyjaśnia Swanson. Wykorzystana w ramach studium metoda śledzenia obwodów pozwala na badanie sygnałów przychodzących i wychodzących z dwóch dowolnych ośrodków mózgu. Thompson wynalazł ją i ulepszał przez 8 lat. Większość stosowanych dotąd technik koncentruje się na jednym sygnale w jednym miejscu i jednym kierunku. My zaś u tego samego zwierzęcia możemy się przyglądać 4 "nitkom" obwodu naraz. To była nasza techniczna innowacja – cieszy się Swanson. Model Internetu pozwoliłby wyjaśnić, jak mózg radzi sobie z miejscowymi uszkodzeniami. Da się przecież wyłączyć niemal każdy pojedynczy element Internetu, a reszta będzie nadal działać. Swanson dodaje, że zazwyczaj istnieje alternatywna trasa przez układ nerwowy. Ciężko byłoby powiedzieć, że jakakolwiek część jest absolutnie niezbędna. Amerykanin po raz pierwszy omówił swój rozproszony model mózgu w opublikowanej w 2003 r. książce pt. "Architektura mózgu: Zrozumienie podstawowego planu". Przyznaje, że na razie to tylko niepotwierdzona teoria, ale warto rozważyć wersję inną niż hierarchiczna. Kora, dzięki której myślimy, jest niezwykle istotna, ale nie pozostaje jedyną determinującą nasze zachowanie częścią układu nerwowego. Ze szczegółami badań można się zapoznać w artykule opublikowanym na łamach pisma Proceedings of the National Academy of Sciences.
  4. Nauka wykonywania skomplikowanych zadań wzrokowo-ruchowych, takich jak żonglowanie, zmienia architekturę mózgu, a konkretnie istoty białej, wpływając na usprawnienie komunikacji między różnymi rejonami mózgu. Daje to nadzieję na opracowanie skutecznej terapii dla ludzi z uszkodzeniami mózgu (Nature Neuroscience). Wcześniejsze badania dotyczące żonglowania koncentrowały się na istocie szarej (skupiskach ciał neuronów), a nie na białej (skupiskach wypustek nerwowych – aksonów i dendrytów), tymczasem zespół Jana Scholza z Uniwersytetu Oksfordzkiego stwierdził, że zwykłe manipulowanie zaledwie trzema piłeczkami zwiększa objętość tej ostatniej aż o 5%. Brytyjczycy zebrali zespół 24 młodych i zdrowych ochotników (kobiet i mężczyzn). Wszyscy przeszli 6-tygodniowe przeszkolenie, po którym umieli wykonać co najmniej 2 cykle kaskady z wykorzystaniem 3 piłek. W okresie tym adeptów zachęcano też do samodzielnego trenowania po pół godziny dziennie. Przed i po rozpoczęciu nauki zbadano ich za pomocą obrazowania tensora dyfuzji (DTI), czyli metodą pozwalającą ocenić strukturalne zmiany w istocie białej mózgu poprzez obserwację ruchów dyfuzyjnych cząsteczek wody. Identyczne badania wykonano u 24 osób z grupy kontrolnej, które nie uczyły się żonglować. Naukowcy odkryli, że w mózgach nieżonglujących nic się nie zmieniło, lecz u ochotników ćwiczących podrzucanie piłeczek zwiększyła się ilość istoty białej w bruździe śródciemieniowej - części płata ciemieniowego, która odpowiada za połączenie tego, co widzimy, z tym, jak się ruszamy. Identyczną przemianę zauważono u wszystkich żonglerów, bez względu na to, jak dobrze nauczyli się to robić. Akademicy sądzą, że na rozwój mózgu wpływa zatem sam proces uczenia, a nie osiągnięcia. Ekipa Scholza zaobserwowała także wzrost ilości istoty szarej, ale różnice w przyroście i "czasowaniu" sugerują, że zmiany dotyczące substancji białej i szarej są od siebie niezależne. By nauczyć się żonglować, konieczne są jednak i jedne, i drugie. Więcej istoty białej pozwala szybciej się poruszać, lecz potrzebujemy też istoty szarej, żeby się upewnić, że dłonie znajdują się we właściwym miejscu. Brytyjczycy zeskanowali mózgi żonglujących po miesięcznej przerwie. Stwierdzili, że ilość istoty białej się nie zmieniła, a szarej nawet wzrosła. Wg Scholza, to dlatego nie zapominamy raz wyuczonej umiejętności. Naukowiec ma nadzieję, że ustalenia jego zespołu pozwolą opracować wykorzystujące żonglowanie programy terapeutyczne dla pacjentów z uszkodzeniami mózgu lub że w przyszłości uda się opisać mechanizm, za pośrednictwem którego żonglerka zmienia mózg. Wtedy leki wzmagające plastyczność mózgu stałyby się rzeczywistością.
  5. Nvidia zaprezentowała nową architekturę procesorów graficznych. Fermi ma być nie tylko następcą obecnie wykorzystywanej architektury G80. To także pierwszy procesor graficzny ogólnego przeznaczenia. Jen-Hsun Huang podczas wstępnej prezentacji nowej architektury przedstawił ją jako architekturę GPU, jednak Fermi to coś więcej niż procesor graficzny. Dlatego też Nvidia pozycjonuje go bardzo ostrożnie, wskazując na jego przydatność we współpracy z CUDA. Procesory wykonane w architekturze Fermi będą zawierały 512 rdzeni CUDA, czyli dwukrotnie więcej niż obecne GPU Nvidii, oraz 3 miliardy tranzystorów. Firma zapewnia, że udało się jej ośmiokrotnie zwiększyć szybkość wykonywania operacji zmiennoprzecinkowych podwójnej precyzji. Kość składa się z 16 multiprocesorów strumieniowych (SM), na które przypadają po 32 rdzenie. Każdy z nich ma do dyspozycji 64 kilobajty przestrzeni pamięci L1, którą można skonfigurować albo jako 48 kB pamięci współdzielonej + 16 kB cache L1 lub też 16 kB współdzielone + 48 kB L1. Na każdy SM przypada również 768 kilobajtów współdzielonej pamięci L2. Nvidia zastosowała też zunifikowaną przestrzeń adresową, dzięki czemu Fermi w pełni wspiera oprogramowanie napisane nie tylko w C, ale również w C++. Usprawnieniu operacji i lepszemu wykorzystaniu C i C++ służy też zaimplementowanie technologii Nvidia Parallel DataCache, dzięki której oba rodzaje pamięci cache obsługują wszystkie przeprowadzane operacje, które są dokonywane w ściśle określonym porządku. Dzięki wykorzystaniu pamięci L1 do przechowywania danych rejestru (wcześniej były one przechowywane bezpośrednio w pamięci RAM) uzyskano znaczne skrócenie czasu dostępu do danych. Natomiast współdzielona pamięć L2 umożliwia błyskawiczną wymianę danych pomiędzy poszczególnymi SM. Fermi to pierwszy układ graficzny, w którym zaimplementowano obsługę ECC (Error Correcting Code), chroniącą dane przed błędami powodowanymi przez wpływ promieniowania kosmicznego. Jedną z ważnych technologii wykorzystanych w Fermim jest Nvidia GigaThread Engine. Pozwala on na jednoczesne wykonywanie różnych obliczeń w kontekście tej samej aplikacji. Dzięki temu programy wykorzystujące liczne mikrojądra mają do dyspozycji całą dostępną moc obliczeniową. W przypadku tradycyjnego, sekwencyjnego przetwarzania mikrojąder, wykorzystuje się tylko część dostępnej mocy. Fermi współpracuje z 384-bitowymi kośćmi GDDR5 i jest w stanie obsłużyć do terabajta pamięci. Obsługuje technologie DirectX 11, OpenGL 3.2 oraz OpenCL. Przy okazji prezentacji architektury Fermi poinformowano, że Nvidia i Microsoft stworzyły środowisko programistyczne Nexus. Zostało ono opracowane na potrzeby masowych obliczeń równoległych i jest zintegrowane z Microsoft Visual Studio. Nexus będzie, oczywiście, korzystał z możliwości Fermiego. Producent Fermiego podkreśla jego przydatność w obliczeniach naukowych i związek z CUDA, jednak z drugiej strony porównuje go do G80. Fermi może więc być układem wykorzystywanym zarówno superkomputerach jak i pecetach miłośników gier komputerowych.
  6. Hydroksyapatyt jest minerałem stanowiącym rusztowanie dla tkanki łącznej kości. Materiał można pozyskiwać z innych źródeł i wykorzystywać jako podporę przy odtwarzaniu amputowanych czy uszkodzonych tkanek. Ostatnio naukowców z Włoch zainspirowała hierarchiczna struktura wzrostu drzewa, która przypomina budowę samej kości. Postanowili je więc wykorzystać do uzyskania protezy. Anna Tampieri i zespół z Institute of Science and Technology for Ceramics w Faenzie stwierdzili, że tego typu architektura nie występowała w materiałach używanych dotąd do uzyskania hydroksyapatytu. Przez to nie udawało się otrzymać protez, które wytrzymywałyby ciężar ciała i naprężenia. Chemicy podgrzali drzewo, by doprowadzić do rozkładu części organicznych. W ten sposób stworzyli formę dla protezy. Następnie posłużyli się wapniem, tlenem i dwutlenkiem węgla i uzyskali węglan wapnia. Dzięki donorowi grupy fosforanowej przekształcili go potem w hydroksyapatyt. Wewnętrzna struktura drewnianej protezy nie jest identyczna z kością, ale okazała się na tyle podobna, że komórki i naczynia krwionośne ją przenikają. Gwarantuje to lepszą asymilację i sprawia, że cała konstrukcja staje się mocniejsza. Tampieri podkreśla, że drzewny hydroksyapatyt można stosować nie tylko w protezach kości. Wg niej, jako materiał doskonale znoszący wysokie temperatury i napięcia mechaniczne nadaje się np. na powłoki statków kosmicznych.
  7. Poniższa informacja to żart primaaprilisowy. Jak doniosło wczorajsze wydanie The Wall Street Journal, niewykluczone, że za kilka lat ostatecznie pożegnamy się z architekturą x86. Z nieoficjalnych doniesień wynika, że Intelowi nie opłacają się dalsze prace nad tą technologią. Obecnie Intel produkuje układy w technologii 32 nanometrów i pracuje nad 22-nanometrowymi kośćmi. Nie od dzisiaj wiadomo, że przekroczenie granicy 22 nanometrów będzie niezwykle trudne. Dziennikarze WSJ dowiedzieli się, że przedstawiciele Intela wyliczyli, iż ich firma musiałaby zainwestować około 35 miliardów dolarów w same prace badawczo-rozwojowe. Przygotowanie fabryk, koszty sprzedaży i marketingu dwukrotnie zwiększą tę kwotę. Trzeba ponadto brać pod uwagę, że przejście na proces mniejszy niż 22 nanometry wymaga wielkich inwestycji w całym przemyśle półprzewodnikowym. Analitycy mówią tutaj o kwotach rzędu 600-800 miliardów dolarów. Specjaliści są sceptyczni jeśli chodzi o opłacalność takiego przedsięwzięcia. By zwrot z inwestycji dokonał się w zwykłym dla tego przemysłu terminie, sprzedaż procesorów wykonanych w technologii mniejszej niż 22 nanometry musiała by być większa o około 70% od obecnego popytu na CPU. Wzrost ten jest niemożliwy także i z tego powodu, że takie procesory byłyby o około 15-20 procent droższe. The Wall Street Journal donosi o nieoficjalnych rozmowach toczonych pomiędzy Intelem a IBM-em. Intel chce podobno odkupić od IBM-a prawa do architektury Power. Jest ona łatwiejsza w skalowaniu, ponadto procesory Power udaje się taktować znacznie szybszym zegarem niż x86. Przedstawiciele Intela uważają, że zakup Power dałby im czas do około 2020 roku na opracowanie nowej architektury. Bardzo możliwe, że IBM sprzeda całość praw do Power. Od kilku lat firma stopniowo wycofuje się z rynku półprzewodników, komputerów oraz klienta indywidualnego i skupia się na rynku usług, oprogramowania i sprzętu dla biznesu. Sprzedaż produkcji procesorów pozwoli jej na znaczą redukcję kosztów operacyjnych oraz uwolni od konieczności finansowania prac badawczo-rozwojowych nad procesorami. Zaoszczędzone pieniądze IBM będzie mógł przeznaczyć na prace R&D na rynku superkomputerów oraz komputerów kwantowych. Nie wiadomo, co stanie się z architekturą x86. Analitycy uważają, że Intel może próbować ją sprzedać AMD. W ten sposób uwolniłby się od oskarżeń o działania monopolistyczne, a jednocześnie "zamknąłby" swojego konkurenta w niszy przestarzałej, odchodzącej do lamusa technologii.
  8. AMD oficjalnie zaprezentowało rodzinę czterordzeniowych procesorów o nazwie Phenom i pokazała pierwszą samodzielnie przez siebie stworzoną platformę FASN8. Nowe procesory mają, w połączeniu z kartami ATI Radeon HD 2000, których sprzedaż rozpoczęto właśnie dzisiaj, zapewnić użytkownikowi niezwykłe doznania wizualne. Z kolei FASN8 to ośmiordzeniowa platforma AMD. W jej skład wchodzą dwa czterordzeniowe procesory Phenom, obsługująca DirectX 10 karta Radeon HD 2900 XT oraz nowy wysokowydajny chipset, który światło dzienne ujrzy w drugiej połowie bieżącego roku. Procesory Phenom mają bardzo efektywnie zarządzać energią i zasobami całego systemu. Producent wbudował w nie kontroler pamięci DDR2, zastosował technologię HyperTransport oraz 128-bitowe jednostki zmiennoprzecinkowe. Rdzenie Phenoma kontaktują się ze sobą bezpośrednio, zamiast korzystać z zewnętrznej magistrali. Ponadto Direct Connect Architecture została stworzona tak, by wszystkie cztery rdzenie miały optymalny dostęp do kontrolera pamięci i magistrali HyperTransport. W ramach rodziny Phenom powstaną też układy FX, przeznaczone dla najbardziej wymagających użytkowników. Nowe procesory będą współpracowały z podstawkami AM2 i AM2+. Rynkowa premiera Phenomów będzie miała miejsce w drugiej połowie bieżącego roku. Wcześniej na sklepowe półki trafi dwurdzeniowa Barcelona.
×
×
  • Dodaj nową pozycję...