Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Microsoft jest autorem prawdopodobnie najpotężniejszego... aparatu cyfrowego do fotografii lotniczej. Urządzenie UltraCamXp charakteryzuje się rozdzielczością 17,310x11,310 pikseli (196 megapikseli). Jest ono w stanie wykonywać zdjęcia steroskopowe o sandardowym odchyleniu geometrycznym wynoszącym 1 cal i przesyłać dane z prędkością 2,5 gigabitów na sekundę. Wielka rozdzielczość aparatu powoduje, że przy zdjęciach robionych z wysokości 300 metrów jeden piksel odpowiada 1,8 centymetra na powierzchni Ziemi.

UltraCamXp zostanie wkrótce użyte do poprawienia jakości zdjęć umieszczanych w serwisie Live Maps. Tego typu zdjęcia, które możemy oglądać też na Google Maps, są wykonywane technikami ortofotograficznymi. Później są szczegółowo analizowane, dzięki czemu wiadomo, jakie obiekty się na nich znajdują, składane razem i umieszczane na serwerach, z których możemy je oglądać.

Microsoft został producentem specjalistycznych aparatów po nabyciu austriaciej firmy Vexcel Imaging. Wcześniej koncern miał do dyspozycji 64-megapikselowe UltraCamL. Teraz, dzięki UltraCamXp będzie w stanie wykonać jeszcze bardziej dokładne zdjęcia.

Nowe urządzenie wyposażone zostało w 14 procesorów, dzięki którym jest w stanie przetwarzać zdjęcia w czasie rzeczywistym. Całość waży aż 55 kilogramów. Aparatowi towarzyszą zestawy pamięci masowych o pojemności 4,2 terabajta. Każdy z nich jest w stanie przechować około 6600 nieskompresowanych zdjęć. Po zapełnieniu pamięci, możliwe jest podłączenie następnej.

Microsoft ma zamiar sprzedawać swoje aparaty firmom i instytucjom specjalizującym się w ortofotografii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ważną kwestią są rozmiary pikseli, nie tylko ich ilość. W aparatach kompaktowych kolejne megapiksele są uzyskiwane poprzez zmniejszenie ich rozmiarów. To powoduje że dociera mniej światła do jednego piksela. To jest niekorzystne, powoduje duże szumy.

W przypadku specjalizowanych kamer i aparatów takich jak wspomniany wyżej nie trzeba iść na kompromisy odnośnie wielkości matrycy i jej ceny. Stąd ilość megapikseli ma znaczenie. Inna sprawa że niełatwo dokonać tu postępu. Zwiększenie dwukrotnie rozdzielczości zdjęć to 4-krotne zwiększenie powierzchni matrycy i ilości pikseli.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kolejna wersja aparatu będzie się nazywać UltraCamVista, czy przejdziemy od razu na UltraCamSeven ? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
      Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
      Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
      Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
      Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Aparat, który zostanie umieszczony na teleskopie Vera C. Rubin Observatory, wykonał pierwsze testowe fotografie, ustalając tym samym nowy światowy rekord rozdzielczości pojedynczego zdjęcia. W czasie testów urządzenie wielkości SUV-a wykonało fotografie o rozdzielczości 3200 megapikseli. To rozdzielczość tak duża, że pozwala na zarejestrowanie piłeczki golfowej z odległości 25 kilometrów.
      Próby aparatu zostały przeprowadzone w SLAC National Accelerator Laboratory, gdzie urządzenie jest budowane. Nie fotografowano podczas nich odległych piłeczek golfowych, a bliżej położone przedmioty, jak np. powierzchnię brokuła. Wykonanie tych zdjęć to duże osiągnięcie. Mamy bardzo wyśrubowaną specyfikację i naprawdę z każdego milimetra kwadratowego wycisnęliśmy wszystko, co możliwe, zwiększając w ten sposób możliwości badawcze, mówi Aaron Roodman, który jest odpowiedzialny za złożenie i przetestowanie aparatu.
      Płaszczyzna ogniskowa aparatu ma szerokość 60 centymetrów i składa się ze 189 czujników CCD o rozdzielczości 16 megapikseli każdy. CCD wraz z towarzyszącą im elektroniką zostały połączone w grupy po 9 CCD w każdej. Powstało w ten sposób 21 modułów, które wraz z 4 dodatkowymi modułami, które służą pozycjonowaniu aparatu, umieszczono na podstawie. Każdy z takich modułów kosztował około 3 milionów dolarów.
      Każdy z pikseli ma szerokość około 10 mikrometrów, a całość jest niezwykle płaska. Nierówności na całej płaszczyźnie ogniskowej nie przekraczają 1/10 grubości ludzkiego włosa. Dzięki tak małym pikselom i tak płaskiej powierzchni, możliwe jest wykonywanie zdjęć w niezwykle wysokiej rozdzielczości. W połączeniu z możliwościami lustra teleskopu Vera C. Rubin Observatory pozwoli na rejestrowanie obiektów, które są 100 milionów razy mniej jasne, niż minimalna jasność wymagana, by zauważyło je ludzkie oko. To właśnie te możliwości sprawiają, że środowisko naukowe z niecierpliwością czeka na uruchomienie nowego obserwatorium.
      W ciągu 10 lat aparat wykona zdjęcia około 20 miliardów galaktyk. To zwiększy naszą wiedzę o ewolucji galaktyk, pozwoli na bardzo precyzyjne przetestowanie modeli ciemnej materii i ciemnej energii. To obserwatorium będzie niezwykłym miejscem, gdzie można będzie badać zarówno nasz Układ Słoneczny, jak i obiekty znajdujące się na skraju obserwowalnego wszechświata, mówi Steven Ritz z University of California, który jest głównym naukowcem projektu aparatu.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
      Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
      Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa hakerska Shiny Hunters włamała się na GitHub-owe konto Microsoftu, skąd ukradła 500 gigabajtów danych z prywatnych repozytoriów technologicznego giganta. Dane te zostały następnie upublicznione na jednym z hakerskich forów. Nic nie wskazuje na to, by zawierały one jakieś poufne czy krytyczne informacje.
      Ataku dokonali ci sami przestępcy, którzy niedawno ukradli dane 91 milionów użytkowników największej indonezyjskiej platformy e-commerce Tokopedii i sprzedali je za 5000 USD. Jak mówią eksperci, Shiny Hunters zmienili w ostatnim czasie taktykę.
      Na dowód dokonania ataku na konto Microsoftu hakerzy dostarczyli dziennikarzom zrzut ekranowy, na którym widzimy listę prywatnych plików developerów Microsoftu. Początkowo przestępcy planowali sprzedać te dane, ale w końcu zdecydowali się udostępnić je publicznie.
      Jako, że w ukradzionych danych znajduje się m.in. tekst i komentarze w języku chińskim, niektórzy powątpiewają, czy rzeczywiście są to pliki ukradzione Microsoftowi. Jednak, jak zapewniają redaktorzy witryny Hack Read, ukradziono rzeczywiście pliki giganta z Redmond. Przedstawiciele Shiny Hunters informują, że nie mają już dostępu do konta, które okradli. Microsoft może zatem przeprowadzić śledztwo i poinformować swoich klientów o ewentualnych konsekwencjach ataku. Sama firma nie odniosła się jeszcze do informacji o włamaniu.
      GitHub to niezwykle popularna platforma developerska używana do kontroli wersji, z której korzysta 40 milionów programistów z całego świata. W październiku 2018 roku została ona zakupiona przez Microsoft za kwotę 7,5 miliarda dolarów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...