Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Przełomowy ray-tracing

Rekomendowane odpowiedzi

Niewielka firma Caustic Graphics z San Francisco, ogłosiła przełom w sprzętowej akceleracji ray-tracingu. Przedsiębiorstwo zapewnia, że jej technologia już teraz jest w stanie 20-krotnie przyspieszyć związane z nim obliczenia, a na początku 2010 roku osiągnie 200-krotne przyspieszenie.

Tak olbrzymi postęp możliwy jest dzięki specjalnym algorytmom, które są implementowane w układach scalonych. Opracowana przez Caustic Graphics platforma CausticRT umożliwi przyspieszenie ray-tracingu za pomocą GPU i CPU. Składa się ona z koprocesora CausticOne oraz API CausticGL bazującego na OpenGL. Dzięki nim powinny pojawić się niezwykle realistyczne efekty w grach i filmach.

Jon Peddie, z firmy Jon Peddie Research mówi: Caustic Graphics dokonało przełomu dzięki niewielkiemu akceleratorowi sprzętowemu i bardzo innowacyjnemu oprogramowaniu.

Caustic jest zarządzana przez osoby, które wcześniej pracowały w takich firmach jak Autodesk, Apple, ATI, Intel czy Nvidia.

Szczegółową ofertę Caustic Graphics poznamy już w kwietniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli wstrzymywanie się przed upgradem sprzętu jak najbardziej wskazane. :) nie tylko ze względu na kurs dolara ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież tak było i będzie zawsze, że upgrade się w danej chwili "nie opłaca", bo jutro będzie lepszy sprzęt ;) to nic nowego przecież

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Opłacało się kupić kompa w sierpniu jak dolar stał po 2,2zł a nie teraz jak stoi 3,7 ;) To jednen z wyjątków potwierdzających regółę że warto czekać :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na te układy na pewno przyjdzie poczekać dość długo. Jeśli chodzi o zasobność naszych portfeli to jeszcze dłużej ;)

Ja z upgrade komputera nie czekałem - kupiłem około rok temu i dałem dość średnie pieniądze za sprzęt high-endowy. Do dzisiaj nie mam żadnych problemów w uruchomieniu najnowszych produkcji w najwyższych możliwych detalach. Śmiało mogę powiedzieć że ogranicza mnie monitor LCD :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niedawno sprawdzałem z ciekawości wartość mojego komputera i okazało się że teraz jest droższy o ~15%, niż gdy kupowałem go w czerwcu ubiegłego roku ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Też nie mam problemu z wydajnością nawet w nowych grach na moim 5 letnim (z mini upgrejdem) sprzęcie. Do tego wystarczy w miare konkretna grafika, natomiast programy w szczególnosći do obróbki grafiki i renderowania, do tego office w tle i komputerek nie wyrabia, 2 rdzenie to było by coś ;)(nielicząc opery z kilkoma zakładkami). Chociaż nowe giery w HD i full AA to miła sfera mażeń :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ja idealnie sie wstrzelilem i zmienilem leciwy juz kompa z agp i na s939 na nowy w pazdzierniku '08 2 tygodnie po zakupie ceny poszly w gore tak, ze za te same czesci musialbym zaplaci ~500zl wiecej  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli będzie to 20 razy szybsze niż obecnie i nie nastąpi żaden spadek jakości, to faktycznie będzie to spory przełom. A jeszcze fajniej jakby to wykorzystywało Radiosity. Artykuł ten niestety nie wspomina, że ów karta będzie tylko akceleratorem dodatkowym, nie zastąpi zwykłej karty graficznej. Coś w deseń kultowego wręcz VooDoo. Aż z sentymentu odpaliłem swój zaliczeniowy ray-tracer w C++. Szkoda, że rendering 5 sfer, 6 trójkątów, płaszczyzny i mgły w 1024x768 i przy głębokości do pięciu odbić, zajmuje aż 10 sekund. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      AMD zaprezentowała dzisiaj kartę graficzną Radeon HD 7970. Firma twierdzi, że to najbardziej wydajna jednoprocesorowa karta na świecie, która korzysta z jedynego GPU wykonanego w technologii 28 nanometrów. Procesor wykorzystuje nową mikroarchitekturę Graphics Core Next. W porównaniu z poprzednią generacją architektura ta jest o 150% bardziej wydajna na każdy milimetr kwadratowy powierzchni.
      Bazujący na Tahiti GPU kość Radeon HT 7970 korzysta z 2048 procesorów strumieniowych, 384-bitowej szyny pamięci GDDR5 i 4,31 miliarda tranzystorów. Powierzchnia procesora wynosi zaledwie 365 milimetrów kwadratowych.
      Układ Radeon 7970 taktowany jest zegarem o częstotliwości 925 megaherców, a jego teoretyczna szczytowa wydajność wynosi 3,79 teraflopsa. To nieco ponad teraflops więcej niż wydajność karty Radeon 6970. Szyna pamięci nowej karty taktowana jest 1,375-gigahercowym zegarem, co pozwala jej na przesłanie 264 gigabajtów danych w ciągu sekundy. Przepustowość szyny 6970 wynosi 176 GB/s.
    • przez KopalniaWiedzy.pl
      Podczas konferencji Supercomputing 2010 główny inżynier Nvidii, Bill Dally, zaprezentował projekt układu graficznego, który będzie napędzał eksaflopsowe komputery. System Echelon, który na razie istnieje tylko na papierze, będzie charakteryzował się wydajnością rzędu 10 teraflopsów. Wykona on pojedynczą operację zmiennoprzecinkową zużywając do tego celu zaledwie 10 pikodżuli, czyli 20-krotnie mniej niż obecne układy Fermi.
      Echelon składa się ze 128 procesorów strumieniowych, z których każdy zbudowany jest z 8 rdzeni. W efekcie otrzymamy 1024-rdzeniowy procesor, którego każdy rdzeń jest w stanie wykonać w jednym takcie zegara cztery operacje zmiennoprzecinkowe o podwójnej precyzji. Odpowiada to wydajności 10 teraflopsów.
      Echelon będzie zatem korzystał z dwukrotnie większej liczby rdzeni niż obecne najbardziej wydajne GPU Nvidii, z których każdy wykona czterokrotnie więcej operacji w takcie zegara. Poważne zmiany zajdą też w podsystemie pamięci. Echelon będzie miał do dyspozycji 256 megabajtów dynamicznie konfigurowalnej SRAM. Pamięć będzie można podzielić aż na sześć różnych poziomów, przydzielając każdemu z rdzeni własną przestrzeń. Dzięki takiej konfiguracji dane będą znajdowały się możliwe blisko miejsca przetwarzania, co pozwoli zaoszczędzić olbrzymią ilość energii zużywanej obecnie na ich przesyłanie. Ponadto chip zostanie wyposażony w mechanizm rozgłaszania, dzięki któremu wyniki poszczególnych działań będą mogły zostać udostępnione dowolnemu węzłowi, który będzie ich potrzebował. Struktura pamięci podręcznej układu będzie spójna pod względem logicznym ze strukturą CPU, co ułatwi tworzenie oprogramowania dla Echelona.
      Nvidia pracuje nad Echelonem w ramach finansowanego przez DARPA projektu Ubiquitous High Performance Computing. Firma rywalizuje tutaj z Intelem, MIT-em i Sandia National Laboratory. DARPA postawiła przed uczestnikami programu zadanie zbudowania do 2014 roku prototypowego petaflopsowego systemu, który ma zużywać nie więcej niż 57 kilowatów mocy. Taki system ma stać się podstawą do zbudowania do 2018 roku eksaflopsowego superkomputera.
    • przez KopalniaWiedzy.pl
      Gąbki Amphimedon queenslandica z Wielkiej Rafy Koralowej dzielą z ludźmi niemal 70% genów, także te związane z różnymi chorobami, włączając w to nowotwory.
      Pracami międzynarodowego zespołu przeprowadzającego sekwencjonowanie kierował Bernard Degnan z University of Queensland, który ma nadzieję, że uzyskane wyniki przyczynią się do przełomu choćby w badaniach nad komórkami macierzystymi.
      Analiza działania komórek macierzystych u gąbek może prowadzić do odkrycia głębokich i ważnych powiązań z genami wpływającymi na ludzką biologię komórek macierzystych. Degnan ujawnia, że eksperymenty wymagały posłużenia się wyjątkowo czystym DNA z embrionów gąbek.
      Szczątki znalezione w 2009 r. w osadach dennych pokazują, że gąbki występowały już 635 mln lat temu - to najstarszy dowód na istnienie organizmów wielokomórkowych na Ziemi. W ramach najnowszych badań poszukiwano mechanizmów genetycznych, które umożliwiły indywidualnym komórkom wspólne działanie w ramach większej całości (na razie beztkankowej). Genom A. queenslandica rzuca też sporo światła na pierwotne sposoby radzenia sobie z jednym z podstawowych zagrożeń wynikających z kolektywnego życia – rakiem.
      Gąbka dysponuje ponad 18 tys. genów, które kodują m.in. metody przylegania komórek do siebie, zorganizowanego wzrostu oraz rozpoznawania obcych. Co ciekawe, u zwierząt tych występują analogi genów, które u organizmów wyższych z kodują tkankę mięśniową i neurony.
      Douglas Erwin ze Smithsonian Institute sądzi, że taka złożność wskazuje, iż gąbki muszą pochodzić od znacznie bardziej rozwiniętego przodka niż dotąd sądzono. Wg genetyk Mansi Srivastavy z MIT-u, podstawy życia wielokomórkowego rozwinęły się w trwającym od 150 do 200 mln lat okienku. To w tym czasie dokonała się mniej więcej 1/3 zmian genetycznych, odróżniających człowieka od ostatniego wspólnego przodka z organizmami jednokomórkowymi. Czemu więc nie miałyby one zajść u naszych gąbkopodobnych praszczurów?
      U gąbek pojawiły się też zabezpieczenia przed namnażaniem pojedynczych komórek kosztem większości. Analiza genomu A. queenslandica zademonstrowała, że najpierw wyewoluowały mechanizmy programowanego samobójstwa (apoptozy), a dopiero później uśmiercania wadliwych komórek przez sąsiadów.
    • przez KopalniaWiedzy.pl
      W drugim kwartale bieżącego roku AMD dostarczyło na rynek więcej procesorów graficznych niż Nvidia. Pomiędzy kwietniem a czerwcem do AMD należało 51% rynku GPU, do Nvidii - 49%. Jeszcze rok wcześniej AMD mogło pochwalić się jedynie 41-procentowym udziałem.
      Do tak znacznego wzrostu niewątpliwie przyczynił się fakt, że AMD jako pierwsze rozpoczęło sprzedaż kart obsługujących technologię DirectX 11, rozpowszechnianą wraz z systemem Windows 7.
      Z kolei Nvidia nie była w stanie dostarczyć odpowiedniej liczby kart GTX 470 i GTX 480, a ostatnia przegrana przed sądem z firmą Rambus spowodowała, że Apple nie wykorzystuje GPU Nvidii w swoich najnowszych komputerach.
      Z danych Mercury Research wynika też, że największym graczem na rynku układów graficznych pozostaje Intel, który może pochwalić się udziałami rzędu 54,3%. AMD ma 24,5% rynku, a Nvidia - 19,8%.
    • przez KopalniaWiedzy.pl
      Jak donosi serwis Daily Tech, Intel zrezygnował z układu Larrabee, o którego prezentacji niedawno informowaliśmy. Powodem podjęcia takiej decyzji była zbyt mała wydajność układu.
      Procesor miał zadebiutować w przyszłym roku, a jego wydajność miała sięgać 2 teraflopsów. Okazało się jednak, że konkurencja zaskoczyła Intela. ATI najpierw pokazało procesor Radeon HD 5870 o wydajności 2,72 TFlops, a niedawno na rynku zadebiutował koleny GPU tej firmy - Radeon HD 5970, którego wydajność przekracza 5 teraflopsów. To był ostatni gwóźdź do trumny intelowskiego GPGPU.
      Koncern poinformował, że Larrabee nie spełnił jego oczekiwań. W związku z tym układ na pewno nie trafi na rynek. Będzie rozwijany jako platforma testowa, która ma w przyszłości umożliwić Intelowi wkroczenie na rynek samodzielnych układów graficznych.
      Przedstawiciele Intela zapowiedzieli, że w przyszłym roku przedstawią nowe plany rozwoju firmowych GPU.
      Przypomnijmy, że to już kolejna podjęta przez tę firmę próba zaistnienia na rynku GPU. W 1998 roku Intel rozpoczął sprzedaż układów i740, które miały spopularyzować szynę AGP. Szyna się przyjęła, jednak układy nie spełniły oczekiwań klientów i szybko zniknęły z rynku.
      Intel pozostaje zatem największym na świecie producentem wbudowanych rdzeni graficznych, jednak wciąż nie jest w stanie zaistnieć na rynku samodzielnych GPU.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...