Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Firma Topaz Labs jest pierwszym przedsiębiorstwem, które rozpowszechnia technologię obróbki obrazu dostępną dotychczas jedynie służbom wywiadowczym. Technologia Super Resolution (SRT) pozwala zwiększyć rozdzielczość zdjęć oraz filmów wideo.

Może się przydać przede wszystkim niezależnym filmowcom, którzy będą mogli nakręcić obraz w standardowej rozdzielczości 720x480 pikseli, a następnie zwiększyć ją do 1920x1080. SRT będzie można też wykorzystać do poprawienia rozdzielczości wszystkich tych filmów i programów telewizyjnych, które zostały nakręcone w rozdzielczości 720x480.

Co więcej, obrazy sfilmowane w rozdzielczości 1920x1080 mogą zostać przekonwertowane do rozdzielczości 4000 pikseli.

SRT analizuje kolejne klatki filmu, zbiera możliwie jak najwięcej informacji, a następnie wykorzystuje je do zwiększenia rozdzielczości każdej klatki.

Powstał już pierwszy film, do obróbki którego wykorzystano SRT. Demonstrację możliwości wspomnianej technologii można zobaczyć w Sieci.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No ok, zasadniczo jakość przeskalowanego filmu można poprawić różnymi sztuczkami poprzez analizę kilku klatek, ale w przypadku statycznego obrazu znikąd tej nieistniejącej informacji nie dodamy, a w podanych parametrach przekształceń brakuje jej sześciokrotnie więcej niż jej jest. Będzie to zawsze tylko jakaś interpolacja (coś jak przeskalowanie w IrfanView i potem nałożenie filtru sharpen). Stąd śmieszy mnie to jak na filmach pokazują ujęcie samochodu z kamery przemysłowej, po czym technik robi najazd na powiększoną i rozmytą pikselozę tablicy rejestracyjnej, click, i mamy krystalicznie czysty obraz numerów. ;) Tak samo jak na powiększanej ciągle mapie nigdy nie pojawi się nagle jakiś czołg.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
SRT analizuje kolejne klatki filmu, zbiera możliwie jak najwięcej informacji, a następnie wykorzystuje je do zwiększenia rozdzielczości każdej klatki.

 

To już nie film tylko fotomontaż 8)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Najpopularniejszą techniką wykorzystywaną przy produkcji układów scalonych jest fotolitografia. problem jednak w tym, że długość fali światła ogranicza rozdzielczość tej techniki, a zatem ogranicza możliwości zmniejszania poszczególnych elementów.
      Tymczasem do produkcji prototypowych układów wykorzystywana jest litografia elektronowa, która pozwala na uzyskanie większej rozdzielczości. Jej wadą jest natomiast znacznie mniejsza prędkość pracy niż przy fotolitografii. Co prawda można ją przyspieszyć, ale kosztem zmniejszenia rozdzielczości.
      Dotychczas najdoskonalsza litografia elektronowa pozwalała na uzyskanie rozdzielczości rzędu 25 nanometrów, czyli niewiele większej od eksperymentalnej 32 nanometrów zaprezentowanej przez niektórych producentów urządzeń.
      Tymczasem w MIT Research Laboratory of Electronic zaprezentowano szybką litografię elektronową, która pozwala na uzyskanie rozdzielczości 9 nanometrów. W połączeniu w innymi właśnie powstającymi technologiami pozwala to mieć nadzieję, że w przyszłości metoda ta będzie wykorzystywana w masowej produkcji układów scalonych.
      Dotychczas rozdzielczość zwiększano stosując światło o coraz mniejszej długości fali. Pracuje się nad wykorzystaniem ekstremalnie dalekiego ultrafioletu. Jest to jednak trudne zadanie, gdyż konieczne jest dostosowywanie układów optycznych do coraz mniejszej długości fali, a same źródła takiego światła są bardzo mało wydajne.
      Litografia polega, w skrócie, na pokryciu plastra krzemu światłoczułym materiałem tzw. fotorezystem i naświetleniu go według odpowiedniego wzorca. Tam, gdzie światło pada na fotorezyst, materiał zostanie utwardzony. Następnie usuwamy warstwy utwardzone bądź nieutwardzone, tworząc w ten sposób schemat połączeń.
      Główna różnica pomiędzy litografią elektronową a fotolitografią jest taka, że w tej pierwszej metodzie układ scalony jest tworzony ścieżka po ścieżce, co wymaga bardzo dużo czasu. W fotolitografii światło pada przez odpowiednią maskę od razu na całą powierzchnię odpowiednio przygotowanego plastra krzemowego i za jednym razem tworzy wymagany wzór.
      Litografię elektronową można przyspieszyć jeśli spowodujemy, by na fotorezyst padało mniej elektronów. Jednak mniej elektronów oznacza mniejszą energię promienia, a elektrony o niższej energii ulegają większemu rozproszeniu i jest ono tym bardziej widoczne, im głębiej w fotorezyst wnikają. Dlatego też podczas litografii elektronowej używa się generalnie wyższych energii, co jednak skutkuje wolniejszą pracą.
      Magistraci Vitor Manfrinato, Lin Lee Cheong i Donald Winston we współpracy z profesorami Karlem Berggrenem i Henym Smithem, wykorzystali dwie sztuczki, które pozwoliły im na zmniejszenie energii strumienia elektronów.
      Po pierwsze użyli cieńszej warstwy fotorezystu, co zmniejszyło rozpraszanie elektronów, a po drugie wykorzystali roztwór... soli kuchennej do utwardzenia tych regionów fotorezystu, które otrzymały nieco większą dawkę elektronów. Obszary, do których dotarło nieco mniej elektronów nie uległy utwardzeniu.
      Profesor fizyki Pieter Kruit z Uniwersytetu Technologicznego w Delft i współzałożyciel firmy Mapper, która zbudowała system do litografii elektronowej składający się ze 110 równoległych źródeł elektronów, jest pod wrażeniem prac uczonych z MIT-u. Zauważa, że systemy o niższej energii są nie tylko szybsze, ale też mniejsze i łatwiejsze w budowie. W miarę zwiększania energii strumienia elektronów dochodzi się bowiem do takiego momentu, że całość staje się tak duża, a izolacji pomiędzy poszczególnymi elektrodami musi być tak wiele, że stworzenie takiego systemu jest niemożliwe.
      Kruit wątpi jednocześnie, czy producenci układów scalonych wykorzystają dokładnie taki fotorezyst, jaki powstał na MIT. Jego zdaniem jest on nieco zbyt czuły. Ilość energii dostarczanej do elektrod urządzeń litograficznych nieznacznie się waha i przy zbyt czułym fotorezyście wahania te będą widoczne w wielkości podzespołów powstających na układzie scalonym. „Ale to kwestia niewielkiej modyfikacji fotorezystu, a jego producenci cały czas wprowadzają takie modyfikacje" - zauważa Kruit.
    • przez KopalniaWiedzy.pl
      Microsoftowy Kinect był początkowo dość chłodno przyjmowany, szybko jednak stał się wielkim przebojem i nie tylko zwiększa sprzedaż Xboksa 360, ale okazał się niezwykle wszechstronnym urządzeniem, dla którego użytkownicy znajdują coraz to nowe zastosowania. Tymczasem, jak donosi serwis Eurogamer, Microsoft planuje czterokrotne zwiększenie czułości Kinecta.
      Teoretycznie to bardzo proste zadanie. Obecnie rozdzielczość czujników urządzenia to 320x240 przy 30 klatkach na sekundę i jest ona ograniczona przez firmware. Inżynierowie z Redmond chcą ją zwiększyć do 640x480, co pozwoliłoby urządzeniu nie tylko wykrywać sylwetkę gracza i jego ramiona, ale także ruchy poszczególnych palców. Problem jednak w tym, że do Kinecta można jednocześnie podłączyć kilka urządzeń USB. Kontroler USB wewnątrz urządzenia jest w stanie przesyłać do 35 megabajtów danych na sekundę, ale wykorzystuje tylko 16 MB/s. Czterokrotne zwiększenie rozdzielczości czujników, oznacza czterokrotnie większy przepływ danych. Prawdopodobnie Microsoft będzie musiał ograniczyć liczbę urządzeń, które użytkownik będzie mógł jednocześnie podczas gry podłączyć do Kinecta, by w ten sposób zwolnić łącza na przesyłanie dodatkowych danych z czujników.
      Koncern Ballmera odmówił komentarza w tej sprawie, jednak trzeba przyznać, że zwiększenie możliwości urządzenia w momencie, gdy zdobywa ono coraz większą popularność, przyczyni się jego rozpowszechnienia i jeszcze bardziej zwiększy sprzedaż Xboksa 360.
      Sprzedaż tej konsoli rośnie już od paru miesięcy. W okresie czerwiec-październik zwiększyła się ona aż o 63% w porównaniu z analogicznym okresem roku ubiegłego. Jeszcze lepiej było w listopadzie, gdy zanotowano 68-procentowy wzrost sprzedaży. Jakby tego było mało, średnia tygodniowa sprzedaż Xboksa 360 pobiła w listopadzie wszelkie rekordy.  Nabywców znajdowało aż 344 000 urządzeń tygodniowo. Grudniowa sprzedaż powinna być jeszcze lepsza i może sięgnąć 1,7 miliona sztuk.
      Konsola Microsoftu pod względem generowanych przychodów bije konkurencję na głowę. Biorąc pod uwagę całość rynku najnowszych konsoli, do Xboksa 360 należało 49% rynku oprogramowania (29% PS3, 24% Wii), 49% rynku sprzętu (21% PS3, 30% Wii) oraz 64% rynku akcesoriów (19% PS3, 17% Wii). To pokazuje, jak ważny stał się Kinect, gdyż to właśnie Microsoft zawdzięcza dobre wyniki w segmencie sprzętu i akcesoriów. Klienci są też skłonni wydać więcej na konsolę. W październiku wydawali na Xboksa 360 średnio mniej niż 250 USD, a w listopadzie przeznaczali na jego zakup około 290 dolarów.
      Pamiętajmy przy tym, że Microsoft wciąż nie wyjął z rękawa najważniejszych kart i nie dokonał obniżek cen sprzętu. Dobre wyniki sprzedaży Kinecta i jego ewentualne ulepszenie dają firmie możliwość wyboru. Nie muszą bowiem obniżać cen urządzenia, które klienci chętnie kupują. Mogą bowiem zaoferować im coś nowego, po co chętnie sięgną. Na obniżki przyjdzie czas, gdy zainteresowanie konsolą zacznie słabnąć lub też gdy konkurencja pokaże urządzenie mogące zagrozić pozycji Kinecta.
    • przez KopalniaWiedzy.pl
      Jedna osoba jest w stanie zapamiętać, choć niedokładnie, 4 elementy z 10, podczas gdy inna tylko dwa, ale za to drobiazgowo. Nic więc dziwnego, że psycholodzy od dawna zastanawiali się, czy lepsza rozdzielczość wspomnień przekłada się na wyższy iloraz inteligencji. Najnowsze studium doktoranta Keisuke Fukudy z University of Oregon wskazuje na to, że nie. Klarowność obiektów przechowywanych w pamięci krótkotrwałej (ang. short-term memory, STM) nie ma związku z tzw. inteligencją płynną, uznawaną w teorii Charlesa Spearmana za inteligencję zdeterminowaną przez czynnik genetyczny.
      Zgodnie z rezultatami studium, większa liczba obiektów przechowywanych w pamięci krótkotrwałej wiąże się z wyższą inteligencją płynną, zaś rozdzielczość wspomnień, choć ważna w wielu sytuacjach (np. dla radiologa oglądającego zdjęcia pacjenta z podejrzeniem poważnej choroby), nie wydaje się z nią skorelowana. Stanowi ona odzwierciedlenie doświadczenia danej osoby w specyficznych dziedzinach percepcji. Przykład? Japońskie znaki są dla przedstawicieli kultury zachodniej bardzo do siebie podobne, podczas gdy dla Japończyka wyraźnie różne.
      W ramach wcześniejszych studiów akademicy z Oregonu ustalili, że ogólna pojemność pamięci krótkotrwałej to rzeczywiście 3 do 5 obiektów i że pojemność STM jest dobrym prognostykiem jednostkowego IQ. Jakie jednak aspekty pojemności pamięci wyjaśniają powiązania z inteligencją płynną? To właśnie miały wyjaśnić eksperymenty Fukudy, który współpracował z profesorem Edwardem Awhem. Wzięło w nich udział 79 studentów. Na ekranie komputera pokazywano im na moment 4 lub 8 elementów. Potem przez sekundę wyświetlał się wygaszacz, a następnie ochotnikom demonstrowano jeden z obiektów i pytano, czy poprzednio znajdował się w tym miejscu. Badając zdolność do wykrywania dużych i małych zmian w obrębie zapamiętanych elementów, Fukuda mógł oszacować zarówno liczbę obiektów utrzymywanych w pamięci, jak i rozdzielczość wspomnień. Następnie oba aspekty STM odniesiono do wyników uzyskanych w testach na inteligencję.
    • przez KopalniaWiedzy.pl
      Jednym z podstawowych ograniczeń aparatury badawczej - czy to mikroskopu, czy ultrasonografu - jest zawsze rozdzielczość. Wynika ona wręcz z praw fizyki, które decydują, że najmniejszy element jaki może być postrzegany ma rozmiar równy długości fali, której używamy do badań. Stąd bierze się znana każdemu niewyraźność obrazu USG: stosowane w nim fale ultradźwiękowe mają długość około jednego milimetra i taka też jest rozdzielczość badania.
      Inżynierowie z University of California w Berkeley: Jie Zhu i Xiaobo Yin znaleźli sposób na „oszukanie" praw fizyki i zwiększenie rozdzielczości ponad możliwą. W jaki sposób? Dzięki metamateriałom, których niezwykłe właściwości nie raz opisywaliśmy. Pokazowa aparatura przygotowana przez nich pozwoliła osiągnąć rozdzielczość pięćdziesiąt razy większą niż wynikająca z długości użytej fali, a to wcale nie jest kres możliwości, bo można i więcej - byle oczywiście przygotować odpowiedni metamateriał.
      Urządzenie sporządzone w uniwersyteckich laboratoriach Nano-scale Science & Engineering Center ma postać tysiąca sześciuset pustych w środku, miedzianych rurek upakowanych w sztabkę o długości 16 centymetrów na 6,3 cm na 6,3 cm. Wykorzystane jako dodatkowy odbiornik przy badaniu falą dźwiękową pozwala wyłapywać tłumione fale, które niosą dodatkową informację o badanym obiekcie. Połączenie ich z odbiorem normalnie rozchodzących się, odbijanych i odbieranych fal pozwala na zwiększenie precyzji, zależne tylko od rozmiaru wykorzystanych miedzianych rurek. W przykładowym zastosowaniu wykorzystano falę akustyczną o częstotliwości 2 kHz, co pozwalałoby normalnie na uzyskanie rozdzielczości około 20 centymetrów. Z zastosowaniem metamateriału uzyskana rozdzielczość wynosiła 4 milimetry, czyli 50 razy mniej.
      W zastosowaniach praktycznych takie urządzenie umieszczałoby się na zakończeniu sondy ultradźwiękowej, uzyskując mniej ziarnisty, a bardziej szczegółowy obraz.
    • przez KopalniaWiedzy.pl
      Canon poinformował o opracowaniu 120-megapikselowego czujnika APS-H. Nowe urządzenie pozwala na wykonywanie zdjęć o wymiarach 13280 x 9184 pikseli. Osiągi czujnika są imponujące. Zwykle tak gęste upakowanie elementów światłoczułych i przesyłanie tak olbrzymich informacji wiąże się z niemożnością szybkiego wykonywania zdjęć. Jednak Canon zapewnia, że czujnik umożliwia wykonanie 9,5 ujęcia na sekundę.
      Sto dwadzieścia megapikseli to ponadsiedmiokrotnie więcej niż mamy do dyspozycji w profesjonalnym aparacie EOS-1D.
      Opracowanie czujnika nie oznacza jednak, że szybko trafi on na rynek. Warto tutaj przypomnieć, że już w 2007 roku Canon zaprezentował 50-megapikselowy CMOS. Wciąż jednak nie pojawiły się aparaty, które by go wykorzystywały.
      Niewykluczone, że czujniki o tak wielkiej rozdzielczości nigdy nie pojawią się w ofercie dla klientów indywidualnych.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...