Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags 'rozdzielczość'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 12 results

  1. Najpopularniejszą techniką wykorzystywaną przy produkcji układów scalonych jest fotolitografia. problem jednak w tym, że długość fali światła ogranicza rozdzielczość tej techniki, a zatem ogranicza możliwości zmniejszania poszczególnych elementów. Tymczasem do produkcji prototypowych układów wykorzystywana jest litografia elektronowa, która pozwala na uzyskanie większej rozdzielczości. Jej wadą jest natomiast znacznie mniejsza prędkość pracy niż przy fotolitografii. Co prawda można ją przyspieszyć, ale kosztem zmniejszenia rozdzielczości. Dotychczas najdoskonalsza litografia elektronowa pozwalała na uzyskanie rozdzielczości rzędu 25 nanometrów, czyli niewiele większej od eksperymentalnej 32 nanometrów zaprezentowanej przez niektórych producentów urządzeń. Tymczasem w MIT Research Laboratory of Electronic zaprezentowano szybką litografię elektronową, która pozwala na uzyskanie rozdzielczości 9 nanometrów. W połączeniu w innymi właśnie powstającymi technologiami pozwala to mieć nadzieję, że w przyszłości metoda ta będzie wykorzystywana w masowej produkcji układów scalonych. Dotychczas rozdzielczość zwiększano stosując światło o coraz mniejszej długości fali. Pracuje się nad wykorzystaniem ekstremalnie dalekiego ultrafioletu. Jest to jednak trudne zadanie, gdyż konieczne jest dostosowywanie układów optycznych do coraz mniejszej długości fali, a same źródła takiego światła są bardzo mało wydajne. Litografia polega, w skrócie, na pokryciu plastra krzemu światłoczułym materiałem tzw. fotorezystem i naświetleniu go według odpowiedniego wzorca. Tam, gdzie światło pada na fotorezyst, materiał zostanie utwardzony. Następnie usuwamy warstwy utwardzone bądź nieutwardzone, tworząc w ten sposób schemat połączeń. Główna różnica pomiędzy litografią elektronową a fotolitografią jest taka, że w tej pierwszej metodzie układ scalony jest tworzony ścieżka po ścieżce, co wymaga bardzo dużo czasu. W fotolitografii światło pada przez odpowiednią maskę od razu na całą powierzchnię odpowiednio przygotowanego plastra krzemowego i za jednym razem tworzy wymagany wzór. Litografię elektronową można przyspieszyć jeśli spowodujemy, by na fotorezyst padało mniej elektronów. Jednak mniej elektronów oznacza mniejszą energię promienia, a elektrony o niższej energii ulegają większemu rozproszeniu i jest ono tym bardziej widoczne, im głębiej w fotorezyst wnikają. Dlatego też podczas litografii elektronowej używa się generalnie wyższych energii, co jednak skutkuje wolniejszą pracą. Magistraci Vitor Manfrinato, Lin Lee Cheong i Donald Winston we współpracy z profesorami Karlem Berggrenem i Henym Smithem, wykorzystali dwie sztuczki, które pozwoliły im na zmniejszenie energii strumienia elektronów. Po pierwsze użyli cieńszej warstwy fotorezystu, co zmniejszyło rozpraszanie elektronów, a po drugie wykorzystali roztwór... soli kuchennej do utwardzenia tych regionów fotorezystu, które otrzymały nieco większą dawkę elektronów. Obszary, do których dotarło nieco mniej elektronów nie uległy utwardzeniu. Profesor fizyki Pieter Kruit z Uniwersytetu Technologicznego w Delft i współzałożyciel firmy Mapper, która zbudowała system do litografii elektronowej składający się ze 110 równoległych źródeł elektronów, jest pod wrażeniem prac uczonych z MIT-u. Zauważa, że systemy o niższej energii są nie tylko szybsze, ale też mniejsze i łatwiejsze w budowie. W miarę zwiększania energii strumienia elektronów dochodzi się bowiem do takiego momentu, że całość staje się tak duża, a izolacji pomiędzy poszczególnymi elektrodami musi być tak wiele, że stworzenie takiego systemu jest niemożliwe. Kruit wątpi jednocześnie, czy producenci układów scalonych wykorzystają dokładnie taki fotorezyst, jaki powstał na MIT. Jego zdaniem jest on nieco zbyt czuły. Ilość energii dostarczanej do elektrod urządzeń litograficznych nieznacznie się waha i przy zbyt czułym fotorezyście wahania te będą widoczne w wielkości podzespołów powstających na układzie scalonym. „Ale to kwestia niewielkiej modyfikacji fotorezystu, a jego producenci cały czas wprowadzają takie modyfikacje" - zauważa Kruit.
  2. Microsoftowy Kinect był początkowo dość chłodno przyjmowany, szybko jednak stał się wielkim przebojem i nie tylko zwiększa sprzedaż Xboksa 360, ale okazał się niezwykle wszechstronnym urządzeniem, dla którego użytkownicy znajdują coraz to nowe zastosowania. Tymczasem, jak donosi serwis Eurogamer, Microsoft planuje czterokrotne zwiększenie czułości Kinecta. Teoretycznie to bardzo proste zadanie. Obecnie rozdzielczość czujników urządzenia to 320x240 przy 30 klatkach na sekundę i jest ona ograniczona przez firmware. Inżynierowie z Redmond chcą ją zwiększyć do 640x480, co pozwoliłoby urządzeniu nie tylko wykrywać sylwetkę gracza i jego ramiona, ale także ruchy poszczególnych palców. Problem jednak w tym, że do Kinecta można jednocześnie podłączyć kilka urządzeń USB. Kontroler USB wewnątrz urządzenia jest w stanie przesyłać do 35 megabajtów danych na sekundę, ale wykorzystuje tylko 16 MB/s. Czterokrotne zwiększenie rozdzielczości czujników, oznacza czterokrotnie większy przepływ danych. Prawdopodobnie Microsoft będzie musiał ograniczyć liczbę urządzeń, które użytkownik będzie mógł jednocześnie podczas gry podłączyć do Kinecta, by w ten sposób zwolnić łącza na przesyłanie dodatkowych danych z czujników. Koncern Ballmera odmówił komentarza w tej sprawie, jednak trzeba przyznać, że zwiększenie możliwości urządzenia w momencie, gdy zdobywa ono coraz większą popularność, przyczyni się jego rozpowszechnienia i jeszcze bardziej zwiększy sprzedaż Xboksa 360. Sprzedaż tej konsoli rośnie już od paru miesięcy. W okresie czerwiec-październik zwiększyła się ona aż o 63% w porównaniu z analogicznym okresem roku ubiegłego. Jeszcze lepiej było w listopadzie, gdy zanotowano 68-procentowy wzrost sprzedaży. Jakby tego było mało, średnia tygodniowa sprzedaż Xboksa 360 pobiła w listopadzie wszelkie rekordy. Nabywców znajdowało aż 344 000 urządzeń tygodniowo. Grudniowa sprzedaż powinna być jeszcze lepsza i może sięgnąć 1,7 miliona sztuk. Konsola Microsoftu pod względem generowanych przychodów bije konkurencję na głowę. Biorąc pod uwagę całość rynku najnowszych konsoli, do Xboksa 360 należało 49% rynku oprogramowania (29% PS3, 24% Wii), 49% rynku sprzętu (21% PS3, 30% Wii) oraz 64% rynku akcesoriów (19% PS3, 17% Wii). To pokazuje, jak ważny stał się Kinect, gdyż to właśnie Microsoft zawdzięcza dobre wyniki w segmencie sprzętu i akcesoriów. Klienci są też skłonni wydać więcej na konsolę. W październiku wydawali na Xboksa 360 średnio mniej niż 250 USD, a w listopadzie przeznaczali na jego zakup około 290 dolarów. Pamiętajmy przy tym, że Microsoft wciąż nie wyjął z rękawa najważniejszych kart i nie dokonał obniżek cen sprzętu. Dobre wyniki sprzedaży Kinecta i jego ewentualne ulepszenie dają firmie możliwość wyboru. Nie muszą bowiem obniżać cen urządzenia, które klienci chętnie kupują. Mogą bowiem zaoferować im coś nowego, po co chętnie sięgną. Na obniżki przyjdzie czas, gdy zainteresowanie konsolą zacznie słabnąć lub też gdy konkurencja pokaże urządzenie mogące zagrozić pozycji Kinecta.
  3. Jedna osoba jest w stanie zapamiętać, choć niedokładnie, 4 elementy z 10, podczas gdy inna tylko dwa, ale za to drobiazgowo. Nic więc dziwnego, że psycholodzy od dawna zastanawiali się, czy lepsza rozdzielczość wspomnień przekłada się na wyższy iloraz inteligencji. Najnowsze studium doktoranta Keisuke Fukudy z University of Oregon wskazuje na to, że nie. Klarowność obiektów przechowywanych w pamięci krótkotrwałej (ang. short-term memory, STM) nie ma związku z tzw. inteligencją płynną, uznawaną w teorii Charlesa Spearmana za inteligencję zdeterminowaną przez czynnik genetyczny. Zgodnie z rezultatami studium, większa liczba obiektów przechowywanych w pamięci krótkotrwałej wiąże się z wyższą inteligencją płynną, zaś rozdzielczość wspomnień, choć ważna w wielu sytuacjach (np. dla radiologa oglądającego zdjęcia pacjenta z podejrzeniem poważnej choroby), nie wydaje się z nią skorelowana. Stanowi ona odzwierciedlenie doświadczenia danej osoby w specyficznych dziedzinach percepcji. Przykład? Japońskie znaki są dla przedstawicieli kultury zachodniej bardzo do siebie podobne, podczas gdy dla Japończyka wyraźnie różne. W ramach wcześniejszych studiów akademicy z Oregonu ustalili, że ogólna pojemność pamięci krótkotrwałej to rzeczywiście 3 do 5 obiektów i że pojemność STM jest dobrym prognostykiem jednostkowego IQ. Jakie jednak aspekty pojemności pamięci wyjaśniają powiązania z inteligencją płynną? To właśnie miały wyjaśnić eksperymenty Fukudy, który współpracował z profesorem Edwardem Awhem. Wzięło w nich udział 79 studentów. Na ekranie komputera pokazywano im na moment 4 lub 8 elementów. Potem przez sekundę wyświetlał się wygaszacz, a następnie ochotnikom demonstrowano jeden z obiektów i pytano, czy poprzednio znajdował się w tym miejscu. Badając zdolność do wykrywania dużych i małych zmian w obrębie zapamiętanych elementów, Fukuda mógł oszacować zarówno liczbę obiektów utrzymywanych w pamięci, jak i rozdzielczość wspomnień. Następnie oba aspekty STM odniesiono do wyników uzyskanych w testach na inteligencję.
  4. Jednym z podstawowych ograniczeń aparatury badawczej - czy to mikroskopu, czy ultrasonografu - jest zawsze rozdzielczość. Wynika ona wręcz z praw fizyki, które decydują, że najmniejszy element jaki może być postrzegany ma rozmiar równy długości fali, której używamy do badań. Stąd bierze się znana każdemu niewyraźność obrazu USG: stosowane w nim fale ultradźwiękowe mają długość około jednego milimetra i taka też jest rozdzielczość badania. Inżynierowie z University of California w Berkeley: Jie Zhu i Xiaobo Yin znaleźli sposób na „oszukanie" praw fizyki i zwiększenie rozdzielczości ponad możliwą. W jaki sposób? Dzięki metamateriałom, których niezwykłe właściwości nie raz opisywaliśmy. Pokazowa aparatura przygotowana przez nich pozwoliła osiągnąć rozdzielczość pięćdziesiąt razy większą niż wynikająca z długości użytej fali, a to wcale nie jest kres możliwości, bo można i więcej - byle oczywiście przygotować odpowiedni metamateriał. Urządzenie sporządzone w uniwersyteckich laboratoriach Nano-scale Science & Engineering Center ma postać tysiąca sześciuset pustych w środku, miedzianych rurek upakowanych w sztabkę o długości 16 centymetrów na 6,3 cm na 6,3 cm. Wykorzystane jako dodatkowy odbiornik przy badaniu falą dźwiękową pozwala wyłapywać tłumione fale, które niosą dodatkową informację o badanym obiekcie. Połączenie ich z odbiorem normalnie rozchodzących się, odbijanych i odbieranych fal pozwala na zwiększenie precyzji, zależne tylko od rozmiaru wykorzystanych miedzianych rurek. W przykładowym zastosowaniu wykorzystano falę akustyczną o częstotliwości 2 kHz, co pozwalałoby normalnie na uzyskanie rozdzielczości około 20 centymetrów. Z zastosowaniem metamateriału uzyskana rozdzielczość wynosiła 4 milimetry, czyli 50 razy mniej. W zastosowaniach praktycznych takie urządzenie umieszczałoby się na zakończeniu sondy ultradźwiękowej, uzyskując mniej ziarnisty, a bardziej szczegółowy obraz.
  5. Canon poinformował o opracowaniu 120-megapikselowego czujnika APS-H. Nowe urządzenie pozwala na wykonywanie zdjęć o wymiarach 13280 x 9184 pikseli. Osiągi czujnika są imponujące. Zwykle tak gęste upakowanie elementów światłoczułych i przesyłanie tak olbrzymich informacji wiąże się z niemożnością szybkiego wykonywania zdjęć. Jednak Canon zapewnia, że czujnik umożliwia wykonanie 9,5 ujęcia na sekundę. Sto dwadzieścia megapikseli to ponadsiedmiokrotnie więcej niż mamy do dyspozycji w profesjonalnym aparacie EOS-1D. Opracowanie czujnika nie oznacza jednak, że szybko trafi on na rynek. Warto tutaj przypomnieć, że już w 2007 roku Canon zaprezentował 50-megapikselowy CMOS. Wciąż jednak nie pojawiły się aparaty, które by go wykorzystywały. Niewykluczone, że czujniki o tak wielkiej rozdzielczości nigdy nie pojawią się w ofercie dla klientów indywidualnych.
  6. Nasz mózg zdobywa dane potrzebne do zidentyfikowania twarzy głównie z oczu. Na drugim miejscu pod względem informacyjności uplasowały się nos i usta (PLoS Computational Biology). Badacze z Uniwersytetu Barcelońskiego ustalili to, analizując 868 męskich i tyle samo kobiecych fizjonomii w taki sposób, jak robi to mózg. Chociaż wydawałoby się, że ważny jest każdy szczegół, wiele badań wykazało, że bez względu na odległość dzielącą go od zdjęcia, zamiast wyostrzonego mózg woli obraz o gorszej rozdzielczości ("ziarnisty"). Dopiero studium Hiszpanów wyjaśniło, czemu się tak dzieje. Najbardziej użyteczne informacje o twarzy uzyskujemy ze zdjęć, na których rozmiar oczu wynosi mniej więcej 30 na 30 pikseli. Mechanizmy rozpoznawania fizjonomii wyspecjalizowały się w oczach, ponieważ w porównaniu do nosa i ust, zapewniają one najmniej szumu informacyjnego.
  7. Naukowcy z IBM-a i Center for Probing the Nanoscale na Uniwersytecie Stanforda wykorzystali zmodyfikowany rezonans magnetyczny (MRI) do wykonania zdjęcia o rozdzielczości 100 milionów razy większej, niż można uzyskać za pomocą standardowego MRI. Osiągnięcie uczonych umożliwi obserwacje trójwymiarowych struktur w nanoskali. Udoskonalenie opracowanej właśnie techniki pozwoli np. na obserwowanie, w jaki sposób poszczególne białka wchodzą ze sobą w interakcje. Ta technologia zrewolucjonizuje nasze spojrzenie na wirusy, bakterie, białka i inne elementy biologiczne - mówi Mark Dean z IBM-a. Uczeni wykorzystali technikę zwaną mikroskopią sił rezonansu magnetycznego (MRFM). Jej zalety to, przede wszystkim, możliwość zajrzenia pod powierzchnię badanych obiektów oraz całkowita nieszkodliwość dla badanego materiału biologicznego. Wykorzystanie MRFM pozwoliło na obserwację struktur wewnątrz wirusa mozaiki tytoniu. Sam wirus ma wielkość 18 nanometrów, a naukowcy mogli oglądać obiekty wielkości 4 nm. MRI to potężne narzędzie, ale jego przydatność w roli mikroskopu zawsze była ograniczona. Mamy nadzieję, że nano MRI umożliwi nam oglądanie wewnętrznych struktur molekuł białek, co jest kluczowe dla zrozumienia funkcji biologicznych - mówi Dan Rugar, szef zespołu badawczego. Naukowcy umieścili wirusa mozaiki tytoniu na miniaturowej krzemowej dźwigience, a w pobliżu umiejscowiono niewielką magnetyczną igłę. Po włączeniu pola magnetycznego, atomy wodoru w wirusie na przemian odpychały i przyciągały igłę, powodując drgania dźwigni, na której wirus został umieszczony. Drgania te odczytywano za pomocą lasera, jednocześnie skanując igłę. Dane z wibracji dźwigni i oddziaływania atomów wodoru na igłę zostały przeanalizowane i posłużyły do utworzenia trójwymiarowego obrazu o niespotykanej dotąd rozdzielczości. Oczywiście istnieją inne techniki tworzenia podobnych obrazów, jednak mają one poważne ograniczenia. Obrazowanie za pomocą promieni X wymaga wcześniejszego skrystalizowania próbki, co nie zawsze jest możliwe, a rezonans jądrowy nie nadaje się do obserwacji dużych molekuł. Z kolei technika krio-elektronowa prowadzi do zniszczenia materiału i dla osiągnięcia dobrej rozdzielczości wymaga wykonania wielu zdjęć.
  8. Już w grudniu rozpoczną prace pierwsze elementy teleskopu wyposażonego w aparaty fotograficzne o gigantycznej rozdzielczości 1,5 gigapiksela. W ramach projektu Panoramic Survey Telescope and Rapid Response System (Pan-STARRS) powstają cztery teleskopy, które z Hawajów będą śledziły asteroidy i inne zbliżające się do Ziemi obiekty. Dzięki olbrzymiej rozdzielczości aparatu, możliwe będzie zauważenie obiektów o średnicy zaledwie 300 metrów. Zespół urządzeń będzie trzy razy w miesiącu wykonywał zdjęcia całego nieba widocznego z Mount Haleakala na wyspie Maui. Dzięki niemu naukowcy chcą śledzić obiekty zagrażające naszej planecie. Każdy z aparatów korzysta z matrycy CCD wielkości aż 20 centymetrów kwadratowych. Największą ich zaletą jest fakt, iż każda komórka CCD jest sterowana z osobna tak, by redukowała zakłócenia powodowane przez atmosferę. To niezwykle przydatne narzędzie dla astronomów. Możliwość optycznych obserwacji kosmosu jest mocno ograniczona niekorzystnym oddziaływaniem atmosfery na uzyskiwane obrazy. Dzięki możliwości sterowania pojedynczymi komórkami CCD widzimy wyjątkowo ostry obraz. Każda z kamer wykorzystuje matrycę, na którą składają się 64x64 komórki CCD. Z kolei rozdzielczość każdej z komórek to 600x600 pikseli. Jak więc łatwo obliczyć, rozdzielczość aparatów wynosi dokładnie 1 474 560 000 pikseli. Istnieje oczywiście inny sposób na uzyskanie z Ziemi obrazów o bardzo dobrej rozdzielczości. Wielkie teleskopy Keck dają przecież obraz równie wyraźny jak Teleskop Hubble'a. Uzyskiwany jest on dzięki wykrywaniu aberracji w obrazie jasnej gwiazdy znajdującej się w pobliżu obserwowanego obiektu. Wykrywając te zakłócenia można przeprowadzić odpowiednie korekty, uwzględniające oddziaływanie atmosfery na uzyskiwany obraz. Problem jednak w tym, że aż w 99% obserwacji nie mamy w pobliżu obiektu żadnej gwiazdy referencyjnej. Specjaliści radzą sobie w ten sposób, że oświetlają górne warstwy atmosfery laserem, pobudzając do świecenia cienką warstwę atomów sodu, które pełnią rolę punktu odniesienia. Taki system sprawdza się jednak przy wielkich 10-metrowych teleskopach Keck. Znacznie mniejszy Pan-STARRS o średnicy zaledwie 1,8 metra będzie korzystał z wielokrotnie tańszych aparatów cyfrowych, a otrzymany obraz może być tak dobry jak uzyskiwany przez astronomów z Kecka.
  9. Na rozpoczynających się właśnie targach CEATEC Japan firma Hitachi chce pokazać swoją technologię "superrozdzielczości". Umożliwia ona konwersję obrazów DVD (720x480) i tradycyjnej telewizji do rozdzielczości bliskiej 1920x1080. Z kolei obrazy HDTV mogą zostać przetworzone do jeszcze wyższej rozdzielczości. Hitachi nie zdradza szczegółów działania technologii. Jej przedstawiciel, Koichi Hamada, główny specjalista w Laboratorium Badawczym Systemów Wbudowanych Hitachi, stwierdził: Rozdzielczość jest szacowana na podstawie analizy sygnałów luminacji na wejściu przed rozpoczęciem konwersji do wyższej rozdzielczości. Wiadomo, że nowa technologia jest w stanie selektywnie przetwarzać poszczególne części obrazu SDTV i HDTV, które współistnieją na tym samym ekranie. Ponadto odróżnia części, które powinny być ostre (np. pierwszy plan) od mniej wyraźnych (tło). Innymi słowy, zwiększanie rozdzielczości obrazu nie wpływa negatywnie na perspektywę. Hamada dodaje, że obecnie stosowane technologie zwiększania rozdzielczości obrazu są nieefektywne, gdyż mogą być używane tylko przy określonych rozdzielczościach i konwertują obraz do z góry zadanych rozdzielczości. Służą więc jedynie zmianie obrazu SDTV na HDTV. Japońska firma zapowiada, że wyposażone w technologię superrozdzielczości telewizory LCD i PDP trafią na rynek po 2010 roku.
  10. Firma Topaz Labs jest pierwszym przedsiębiorstwem, które rozpowszechnia technologię obróbki obrazu dostępną dotychczas jedynie służbom wywiadowczym. Technologia Super Resolution (SRT) pozwala zwiększyć rozdzielczość zdjęć oraz filmów wideo. Może się przydać przede wszystkim niezależnym filmowcom, którzy będą mogli nakręcić obraz w standardowej rozdzielczości 720x480 pikseli, a następnie zwiększyć ją do 1920x1080. SRT będzie można też wykorzystać do poprawienia rozdzielczości wszystkich tych filmów i programów telewizyjnych, które zostały nakręcone w rozdzielczości 720x480. Co więcej, obrazy sfilmowane w rozdzielczości 1920x1080 mogą zostać przekonwertowane do rozdzielczości 4000 pikseli. SRT analizuje kolejne klatki filmu, zbiera możliwie jak najwięcej informacji, a następnie wykorzystuje je do zwiększenia rozdzielczości każdej klatki. Powstał już pierwszy film, do obróbki którego wykorzystano SRT. Demonstrację możliwości wspomnianej technologii można zobaczyć w Sieci.
  11. Naukowcy z Mid Sweden University opracowali urządzenie wykorzystujące kolorowe promienie rentgenowskie. Oznacza to wiele korzyści dla dających się prześwietlić pacjentów. Po pierwsze, stosowano by o połowę mniejsze dawki promieniowania. Po drugie, uzyskiwano by obraz o wiele wyższej rozdzielczości i więcej kolorów o lepszej jakości. Po trzecie, co na pewno ucieszy zarówno chorych, jak i onkologów, guzy stawałyby się widoczne na wcześniejszych etapach rozwoju. Medipix ma także służyć pomocą stomatologom i badaczom określającym gęstość różnych materiałów. Kolorowe cyfrowe promienie X bazują na technologii dobrze znanej fizykom jądrowym, którzy poszukują nowych cząstek elementarnych. Największym wyzwaniem było ponoć skonstruowanie aparatu, miniaturowej wersji urządzenia stosowanego przez "nukleonaukowców". Rozmiar pojedynczej komórki w czujniku aparatu nie może być większy niż 55x55 mikrometrów, w dodatku elektronika musi być odporna na oddziaływanie promieni rentgenowskich. Szwedzi rozwiązali te problemy konstrukcyjne. W tym roku mają się ukazać 3 rozprawy na ten temat ich autorstwa.
  12. Hitachi rozpoczęło masową produkcję nowego wyświetlacza do telefonów. Tym, co wyróżnia 2,9-calowy ekran jest wyjątkowo wysoka rozdzielczość, wynosząca 800x480. Pozwoli ona na wygodniejsze przeglądanie witryn internetowych na ekranie telefonu komórkowego. Obecnie w większości telefonów komórkowych spotykamy wyświetlacze o rozdzielczości QVGA (320x240), a w palmtopach możemy korzystać ze standardu VGA (640x480). Wyświetlacz Hitach jest więc olbrzymim postępem w stosunku do tego, z czym obecnie mają do czynienia posiadacze komórek. Do zbudowania nowego wyświetlacza japońska firma wykorzystała matrycę IPS-LCD. Większość telefonów wciąż korzysta z matryc TN.
×
×
  • Create New...