Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Hitachi zwiększa rozdzielczość

Rekomendowane odpowiedzi

Na rozpoczynających się właśnie targach CEATEC Japan firma Hitachi chce pokazać swoją technologię "superrozdzielczości". Umożliwia ona konwersję obrazów DVD (720x480) i tradycyjnej telewizji do rozdzielczości bliskiej 1920x1080. Z kolei obrazy HDTV mogą zostać przetworzone do jeszcze wyższej rozdzielczości.

Hitachi nie zdradza szczegółów działania technologii. Jej przedstawiciel, Koichi Hamada, główny specjalista w Laboratorium Badawczym Systemów Wbudowanych Hitachi, stwierdził: Rozdzielczość jest szacowana na podstawie analizy sygnałów luminacji na wejściu przed rozpoczęciem konwersji do wyższej rozdzielczości.

Wiadomo, że nowa technologia jest w stanie selektywnie przetwarzać poszczególne części obrazu SDTV i HDTV, które współistnieją na tym samym ekranie. Ponadto odróżnia części, które powinny być ostre (np. pierwszy plan) od mniej wyraźnych (tło). Innymi słowy, zwiększanie rozdzielczości obrazu nie wpływa negatywnie na perspektywę. Hamada dodaje, że obecnie stosowane technologie zwiększania rozdzielczości obrazu są nieefektywne, gdyż mogą być używane tylko przy określonych rozdzielczościach i konwertują obraz do z góry zadanych rozdzielczości. Służą więc jedynie zmianie obrazu SDTV na HDTV.

Japońska firma zapowiada, że wyposażone w technologię superrozdzielczości telewizory LCD i PDP trafią na rynek po 2010 roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nie wiem po grzyba zwiekszac jeszcze rozdzielczosc obrazow HD ale i tak fajnie bo jak wyjdzie cos super nowego na co i tak nie bedzie mnie stac to moze to co juz jest bedzie tansze ;) a DVD tez jeszcze daje rade tylko niestety nie daja wciaz rady lcd i plazmy nawet te za 4000zl..

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

cóż za ironia - ludzie będą lada moment kupowali jeszcze droższe telewizory, a potem będą je ustawiali w pomieszczeniu w taki sposób, że nawet nie będą w stanie dostrzec najmniejszej różnicy. Potem będą kupowali wypasione kino domowe, a i tak układ mebli w salonie uniemożliwi im prawidłowy odbiór dźwięków. Konsumpcjonizm i snobizm jest do tego stopnia uroczy, że osoby odpowiedzialne za kreowanie podobnych produktów na pewno mają świetną zabawę napędzając ten wariacki popyt ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość Tomekx2

Dzięki takim rozwiązaniom starsze stają się tańsze. Gdyby nikt tego nie kupował nie byłoby postępu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Próżność. To mój ulubiony grzech..." ;)

I tak to marketingowa bzdura, bo więcej szczegółów nie pojawi się np. na obrazie z pustynią/plażą - nie będzie dzięki temu więcej ziarenek piasku, to tylko zwykłe przeskalowanie i antyaliasing, by nie było "pikselozy". No, ale laski lecą na całościenne plazmy, oj tak.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A mi się wydaje, iż będzie to po prostu jeszcze jedna technologia implementowana w odbiornikach TV obok setek innych i tyle... Po prostu ewolucja a nie rewolucja. Sam jestem namiętnym oglądaczem HDTV. Każdy krok ku polepszeniu jakości obrazu jest OK. I tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zwiększanie rozdzielczości do HD nie jest takie głupie, ale tylko jeśli wprowadzone było by teraz, ponieważ po 2010 może już nie być czego do poprawiania  ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Najpopularniejszą techniką wykorzystywaną przy produkcji układów scalonych jest fotolitografia. problem jednak w tym, że długość fali światła ogranicza rozdzielczość tej techniki, a zatem ogranicza możliwości zmniejszania poszczególnych elementów.
      Tymczasem do produkcji prototypowych układów wykorzystywana jest litografia elektronowa, która pozwala na uzyskanie większej rozdzielczości. Jej wadą jest natomiast znacznie mniejsza prędkość pracy niż przy fotolitografii. Co prawda można ją przyspieszyć, ale kosztem zmniejszenia rozdzielczości.
      Dotychczas najdoskonalsza litografia elektronowa pozwalała na uzyskanie rozdzielczości rzędu 25 nanometrów, czyli niewiele większej od eksperymentalnej 32 nanometrów zaprezentowanej przez niektórych producentów urządzeń.
      Tymczasem w MIT Research Laboratory of Electronic zaprezentowano szybką litografię elektronową, która pozwala na uzyskanie rozdzielczości 9 nanometrów. W połączeniu w innymi właśnie powstającymi technologiami pozwala to mieć nadzieję, że w przyszłości metoda ta będzie wykorzystywana w masowej produkcji układów scalonych.
      Dotychczas rozdzielczość zwiększano stosując światło o coraz mniejszej długości fali. Pracuje się nad wykorzystaniem ekstremalnie dalekiego ultrafioletu. Jest to jednak trudne zadanie, gdyż konieczne jest dostosowywanie układów optycznych do coraz mniejszej długości fali, a same źródła takiego światła są bardzo mało wydajne.
      Litografia polega, w skrócie, na pokryciu plastra krzemu światłoczułym materiałem tzw. fotorezystem i naświetleniu go według odpowiedniego wzorca. Tam, gdzie światło pada na fotorezyst, materiał zostanie utwardzony. Następnie usuwamy warstwy utwardzone bądź nieutwardzone, tworząc w ten sposób schemat połączeń.
      Główna różnica pomiędzy litografią elektronową a fotolitografią jest taka, że w tej pierwszej metodzie układ scalony jest tworzony ścieżka po ścieżce, co wymaga bardzo dużo czasu. W fotolitografii światło pada przez odpowiednią maskę od razu na całą powierzchnię odpowiednio przygotowanego plastra krzemowego i za jednym razem tworzy wymagany wzór.
      Litografię elektronową można przyspieszyć jeśli spowodujemy, by na fotorezyst padało mniej elektronów. Jednak mniej elektronów oznacza mniejszą energię promienia, a elektrony o niższej energii ulegają większemu rozproszeniu i jest ono tym bardziej widoczne, im głębiej w fotorezyst wnikają. Dlatego też podczas litografii elektronowej używa się generalnie wyższych energii, co jednak skutkuje wolniejszą pracą.
      Magistraci Vitor Manfrinato, Lin Lee Cheong i Donald Winston we współpracy z profesorami Karlem Berggrenem i Henym Smithem, wykorzystali dwie sztuczki, które pozwoliły im na zmniejszenie energii strumienia elektronów.
      Po pierwsze użyli cieńszej warstwy fotorezystu, co zmniejszyło rozpraszanie elektronów, a po drugie wykorzystali roztwór... soli kuchennej do utwardzenia tych regionów fotorezystu, które otrzymały nieco większą dawkę elektronów. Obszary, do których dotarło nieco mniej elektronów nie uległy utwardzeniu.
      Profesor fizyki Pieter Kruit z Uniwersytetu Technologicznego w Delft i współzałożyciel firmy Mapper, która zbudowała system do litografii elektronowej składający się ze 110 równoległych źródeł elektronów, jest pod wrażeniem prac uczonych z MIT-u. Zauważa, że systemy o niższej energii są nie tylko szybsze, ale też mniejsze i łatwiejsze w budowie. W miarę zwiększania energii strumienia elektronów dochodzi się bowiem do takiego momentu, że całość staje się tak duża, a izolacji pomiędzy poszczególnymi elektrodami musi być tak wiele, że stworzenie takiego systemu jest niemożliwe.
      Kruit wątpi jednocześnie, czy producenci układów scalonych wykorzystają dokładnie taki fotorezyst, jaki powstał na MIT. Jego zdaniem jest on nieco zbyt czuły. Ilość energii dostarczanej do elektrod urządzeń litograficznych nieznacznie się waha i przy zbyt czułym fotorezyście wahania te będą widoczne w wielkości podzespołów powstających na układzie scalonym. „Ale to kwestia niewielkiej modyfikacji fotorezystu, a jego producenci cały czas wprowadzają takie modyfikacje" - zauważa Kruit.
    • przez KopalniaWiedzy.pl
      Microsoftowy Kinect był początkowo dość chłodno przyjmowany, szybko jednak stał się wielkim przebojem i nie tylko zwiększa sprzedaż Xboksa 360, ale okazał się niezwykle wszechstronnym urządzeniem, dla którego użytkownicy znajdują coraz to nowe zastosowania. Tymczasem, jak donosi serwis Eurogamer, Microsoft planuje czterokrotne zwiększenie czułości Kinecta.
      Teoretycznie to bardzo proste zadanie. Obecnie rozdzielczość czujników urządzenia to 320x240 przy 30 klatkach na sekundę i jest ona ograniczona przez firmware. Inżynierowie z Redmond chcą ją zwiększyć do 640x480, co pozwoliłoby urządzeniu nie tylko wykrywać sylwetkę gracza i jego ramiona, ale także ruchy poszczególnych palców. Problem jednak w tym, że do Kinecta można jednocześnie podłączyć kilka urządzeń USB. Kontroler USB wewnątrz urządzenia jest w stanie przesyłać do 35 megabajtów danych na sekundę, ale wykorzystuje tylko 16 MB/s. Czterokrotne zwiększenie rozdzielczości czujników, oznacza czterokrotnie większy przepływ danych. Prawdopodobnie Microsoft będzie musiał ograniczyć liczbę urządzeń, które użytkownik będzie mógł jednocześnie podczas gry podłączyć do Kinecta, by w ten sposób zwolnić łącza na przesyłanie dodatkowych danych z czujników.
      Koncern Ballmera odmówił komentarza w tej sprawie, jednak trzeba przyznać, że zwiększenie możliwości urządzenia w momencie, gdy zdobywa ono coraz większą popularność, przyczyni się jego rozpowszechnienia i jeszcze bardziej zwiększy sprzedaż Xboksa 360.
      Sprzedaż tej konsoli rośnie już od paru miesięcy. W okresie czerwiec-październik zwiększyła się ona aż o 63% w porównaniu z analogicznym okresem roku ubiegłego. Jeszcze lepiej było w listopadzie, gdy zanotowano 68-procentowy wzrost sprzedaży. Jakby tego było mało, średnia tygodniowa sprzedaż Xboksa 360 pobiła w listopadzie wszelkie rekordy.  Nabywców znajdowało aż 344 000 urządzeń tygodniowo. Grudniowa sprzedaż powinna być jeszcze lepsza i może sięgnąć 1,7 miliona sztuk.
      Konsola Microsoftu pod względem generowanych przychodów bije konkurencję na głowę. Biorąc pod uwagę całość rynku najnowszych konsoli, do Xboksa 360 należało 49% rynku oprogramowania (29% PS3, 24% Wii), 49% rynku sprzętu (21% PS3, 30% Wii) oraz 64% rynku akcesoriów (19% PS3, 17% Wii). To pokazuje, jak ważny stał się Kinect, gdyż to właśnie Microsoft zawdzięcza dobre wyniki w segmencie sprzętu i akcesoriów. Klienci są też skłonni wydać więcej na konsolę. W październiku wydawali na Xboksa 360 średnio mniej niż 250 USD, a w listopadzie przeznaczali na jego zakup około 290 dolarów.
      Pamiętajmy przy tym, że Microsoft wciąż nie wyjął z rękawa najważniejszych kart i nie dokonał obniżek cen sprzętu. Dobre wyniki sprzedaży Kinecta i jego ewentualne ulepszenie dają firmie możliwość wyboru. Nie muszą bowiem obniżać cen urządzenia, które klienci chętnie kupują. Mogą bowiem zaoferować im coś nowego, po co chętnie sięgną. Na obniżki przyjdzie czas, gdy zainteresowanie konsolą zacznie słabnąć lub też gdy konkurencja pokaże urządzenie mogące zagrozić pozycji Kinecta.
    • przez KopalniaWiedzy.pl
      Jedna osoba jest w stanie zapamiętać, choć niedokładnie, 4 elementy z 10, podczas gdy inna tylko dwa, ale za to drobiazgowo. Nic więc dziwnego, że psycholodzy od dawna zastanawiali się, czy lepsza rozdzielczość wspomnień przekłada się na wyższy iloraz inteligencji. Najnowsze studium doktoranta Keisuke Fukudy z University of Oregon wskazuje na to, że nie. Klarowność obiektów przechowywanych w pamięci krótkotrwałej (ang. short-term memory, STM) nie ma związku z tzw. inteligencją płynną, uznawaną w teorii Charlesa Spearmana za inteligencję zdeterminowaną przez czynnik genetyczny.
      Zgodnie z rezultatami studium, większa liczba obiektów przechowywanych w pamięci krótkotrwałej wiąże się z wyższą inteligencją płynną, zaś rozdzielczość wspomnień, choć ważna w wielu sytuacjach (np. dla radiologa oglądającego zdjęcia pacjenta z podejrzeniem poważnej choroby), nie wydaje się z nią skorelowana. Stanowi ona odzwierciedlenie doświadczenia danej osoby w specyficznych dziedzinach percepcji. Przykład? Japońskie znaki są dla przedstawicieli kultury zachodniej bardzo do siebie podobne, podczas gdy dla Japończyka wyraźnie różne.
      W ramach wcześniejszych studiów akademicy z Oregonu ustalili, że ogólna pojemność pamięci krótkotrwałej to rzeczywiście 3 do 5 obiektów i że pojemność STM jest dobrym prognostykiem jednostkowego IQ. Jakie jednak aspekty pojemności pamięci wyjaśniają powiązania z inteligencją płynną? To właśnie miały wyjaśnić eksperymenty Fukudy, który współpracował z profesorem Edwardem Awhem. Wzięło w nich udział 79 studentów. Na ekranie komputera pokazywano im na moment 4 lub 8 elementów. Potem przez sekundę wyświetlał się wygaszacz, a następnie ochotnikom demonstrowano jeden z obiektów i pytano, czy poprzednio znajdował się w tym miejscu. Badając zdolność do wykrywania dużych i małych zmian w obrębie zapamiętanych elementów, Fukuda mógł oszacować zarówno liczbę obiektów utrzymywanych w pamięci, jak i rozdzielczość wspomnień. Następnie oba aspekty STM odniesiono do wyników uzyskanych w testach na inteligencję.
    • przez KopalniaWiedzy.pl
      Jednym z podstawowych ograniczeń aparatury badawczej - czy to mikroskopu, czy ultrasonografu - jest zawsze rozdzielczość. Wynika ona wręcz z praw fizyki, które decydują, że najmniejszy element jaki może być postrzegany ma rozmiar równy długości fali, której używamy do badań. Stąd bierze się znana każdemu niewyraźność obrazu USG: stosowane w nim fale ultradźwiękowe mają długość około jednego milimetra i taka też jest rozdzielczość badania.
      Inżynierowie z University of California w Berkeley: Jie Zhu i Xiaobo Yin znaleźli sposób na „oszukanie" praw fizyki i zwiększenie rozdzielczości ponad możliwą. W jaki sposób? Dzięki metamateriałom, których niezwykłe właściwości nie raz opisywaliśmy. Pokazowa aparatura przygotowana przez nich pozwoliła osiągnąć rozdzielczość pięćdziesiąt razy większą niż wynikająca z długości użytej fali, a to wcale nie jest kres możliwości, bo można i więcej - byle oczywiście przygotować odpowiedni metamateriał.
      Urządzenie sporządzone w uniwersyteckich laboratoriach Nano-scale Science & Engineering Center ma postać tysiąca sześciuset pustych w środku, miedzianych rurek upakowanych w sztabkę o długości 16 centymetrów na 6,3 cm na 6,3 cm. Wykorzystane jako dodatkowy odbiornik przy badaniu falą dźwiękową pozwala wyłapywać tłumione fale, które niosą dodatkową informację o badanym obiekcie. Połączenie ich z odbiorem normalnie rozchodzących się, odbijanych i odbieranych fal pozwala na zwiększenie precyzji, zależne tylko od rozmiaru wykorzystanych miedzianych rurek. W przykładowym zastosowaniu wykorzystano falę akustyczną o częstotliwości 2 kHz, co pozwalałoby normalnie na uzyskanie rozdzielczości około 20 centymetrów. Z zastosowaniem metamateriału uzyskana rozdzielczość wynosiła 4 milimetry, czyli 50 razy mniej.
      W zastosowaniach praktycznych takie urządzenie umieszczałoby się na zakończeniu sondy ultradźwiękowej, uzyskując mniej ziarnisty, a bardziej szczegółowy obraz.
    • przez KopalniaWiedzy.pl
      Japońska publiczna telewizja NHK ma zamiar wkrótce zaprezentować system telewizyjny Ultra High Definition (UHDTV). Rozpoczęcie próbnego nadawania sygnału w tym systemie przewiduje się na rok 2020.
      Obraz UHDTV zawiera niemal 16-krotnie więcej informacji niż obecnie stosowany HDTV. Jego rozdzielczość wynosi aż 7680x4320 pikseli.
      NHK zaprezentowało już kamerę, która używa trzech czujników CMOS o rozdzielczości 33 milionów pikseli każdy. Na jej potrzeby powstały nie tylko czujniki, ale też specjalne soczewki oraz układ korygujący aberracje chromatyczne w czasie rzeczywistym.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...