Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Microsoft o procesorze HoloLens

Rekomendowane odpowiedzi

Microsoft zdradził pierwsze szczegóły na temat procesora dla HoloLens. Produkowany przez TSMC 28-nanometrowy układ wykorzystuje 24 rdzenie Tensilica DSP, 8 megabajtów cache'u i 65 milionów tranzystorów. Zmieszczono też w nim gigabajt pamięci LPDDR3. Rdzenie Tensilica zostały wybrane ze względu na ich elastyczność. Microsoft dodał do nich 300 własnych instrukcji. Jeśli nie doda się własnych instrukcji, dokładność wykonywania obliczeń nie jest taka, jakiej sobie życzymy - mówił Nick Baker z Microsoftu.

Wiadomo też, że nowy układ jest w stanie przeprowadzić w ciągu sekundy bilion operacji na pikselach i zużywa przy tym mniej energii niż 4-watowy intelowski Cherry Trail SoC, który jest głównym procesorem HoloLens. HoloLens Processing Unit (HPU) przyjmuje dane z pięciu kamer, czujnika odległości i czujnika ruchu. Rozpoznaje też gesty i jest w stanie tworzyć mapy otoczenia. Dane są kompresowane i wysyłane do intelowskiego procesora.

HPU zapewnia 200-krotnie szybsze przetwarzanie danych w porównaniu z akceleratorami programowymi. Wiadomo też, że układ jest częścią HoloLens Developer's Kit, który został udostępniony w marcu i kosztuje 3000 USD.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"...jest w stanie przeprowadzić w ciągu sekundy bilion operacji..."

 

Bilion operacji na sekundę? Przypominam, że angielskie "billion" to po naszemu "miliard". No chyba że jajogłowi z M$ faktycznie wykombinowali jak wykonać bilion operacji na sekundę. Tylko gdzie znaleźć bilion pikseli? Musielibyśmy pracować w rozdzielczości 10,000 x 10,000 i z prędkością 10,000 klatek na sekundę...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"...jest w stanie przeprowadzić w ciągu sekundy bilion operacji..."

 

Bilion operacji na sekundę? Przypominam, że angielskie "billion" to po naszemu "miliard". No chyba że jajogłowi z M$ faktycznie wykombinowali jak wykonać bilion operacji na sekundę. Tylko gdzie znaleźć bilion pikseli? Musielibyśmy pracować w rozdzielczości 10,000 x 10,000 i z prędkością 10,000 klatek na sekundę...

Zakładając, że obraz był czarno-biały, nie zmieniał się w czasie, nie działała żadna inna operacja oraz, że każda z tych operacji trwała 1 cykl zegarowy - a te założenia są błędne..

Jeżeli ten układ ma wyspecjalizowane jednostki pod daną operacje - to czemu nie bilion instrukcji na sekundę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bilion operacji na sekundę? Przypominam, że angielskie "billion" to po naszemu "miliard". No chyba że jajogłowi z M$ faktycznie wykombinowali jak wykonać bilion operacji na sekundę. Tylko gdzie znaleźć bilion pikseli? Musielibyśmy pracować w rozdzielczości 10,000 x 10,000 i z prędkością 10,000 klatek na sekundę...

Aktualnie produkowane CPU mobilne osiągają wydajność na poziomie 1GFLOP i więcej. Osiągnięcie podobnej i nawet sporo wyższej wydajności w układzie specjalizowanym nie stanowi na dzień dzisiejszy żadnego problemu.

Przetwarzanie obrazu jest to proces znacznie bardziej skomplikowany i wymagający obliczeniowo niżby to wynikało z ilości przetwarzanych pikseli. Wystarczy popatrzeć na wydajność topowych GPU (9000 Gflops), która ciągle jest zbyt mała do Raytracingu w czasie rzeczywistym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raytracowanie w czasie rzeczywistym? Z tego co kojarzę, w przemyśle filmowym nie robi się tego nawet w czasie nie-rzeczywistym. Wystarczająco dobre rezultaty dają serie uproszczonych efektów dopasowanych do danej sekwencji, niż pełny raytrace w wysokiej rozdzielczości i jeszcze z odpowiednio dużym AA. Co i tak nie jest w stanie pobić metod Lucasa, który np. zamiast engine'ów do generowania dużej ilości ludzików, użył pomalowanych patyczków z watą.

 

A tak w ogóle ten HPU podobno niczym sie nie różni od układów GPU (nie licząc tego, że jest od nich dużo słabszy).

Edytowane przez Przemek Kobel

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cholera, prawdę mówicie. Zwracam honor. Chyba muszę nadgonić zaległości :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Raytracowanie w czasie rzeczywistym? Z tego co kojarzę, w przemyśle filmowym nie robi się tego nawet w czasie nie-rzeczywistym. .......

Nie robi się tego, ponieważ brak mocy obliczeniowej i tyle, nie ma w tym żadnej filozofii ani drugiego dna. Nawet potwory obliczeniowe oparte na 12 Teslach są do tego za słabe.

"nie robi się tego nawet w czasie nie-rzeczywistym" = w czasie rzeczywistym.

Skoro twoim zdaniem używają uproszczonych modeli to ciekawe dlaczego generowanie kilkudziesięciu-sekundowej sceny zajmuje render-farmom całe godziny (czasami nawet dni).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...