Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Samsung umieścił sztuczną inteligencję wewnątrz układu pamięci

Rekomendowane odpowiedzi

Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych.

Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park.

Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego.

Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania.

Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach.

HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory.

Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC).


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Posiadanie dużego telewizora w salonie kojarzy się z kinowymi wrażeniami we własnym domu. Jednak wybór zbyt wielkiego ekranu do małego pokoju może zamiast przyjemności przynieść dyskomfort – zarówno dla oczu, jak i dla aranżacji wnętrza. Z drugiej strony zbyt mały telewizor w przestronnym salonie sprawi, że domownicy będą mrużyć oczy, próbując dostrzec szczegóły z kanapy. Kluczem jest dobranie rozmiaru telewizora odpowiednio do wielkości pomieszczenia, odległości widzów od ekranu oraz stylu życia użytkowników. Najlepiej jest zatem znaleźć złoty środek – tak by oglądanie ulubionych filmów i seriali było komfortowe, a nowy ekran stał się naturalną częścią wystroju.
       
      Rozmiar ekranu a przestrzeń w salonie Weź miarę i oceń miejsce. Zanim zdecydujesz się na konkretną przekątną, dokładnie zmierz przestrzeń, w której planujesz ustawić lub powiesić telewizor. Sprawdź faktyczne wymiary odbiornika, nie tylko przekątną ekranu – uwzględnij ramki oraz ewentualną podstawę. Nowoczesne telewizory mają coraz cieńsze ramy i smukłe profile, dzięki czemu nawet większy ekran może prezentować się lekko. Mimo to warto upewnić się, że urządzenie zmieści się między meblami lub na ścianie z zapasem miejsca po bokach. Unikniesz w ten sposób efektu „przytłoczenia” pokoju zbyt dużym panelem oraz problemów podczas montażu.
      Proporcje względem ściany. Duży ekran przyciąga wzrok, ale powinien harmonijnie komponować się z resztą pomieszczenia. Zadbaj, by szerokość telewizora nie przekraczała zdecydowanie szerokości szafki RTV czy wnęki, w której ma się znaleźć. Jeśli planujesz zawieszenie na ścianie, rozważ, jak telewizor wkomponuje się w tę powierzchnię – czy zostawi dookoła dość „oddechu”, czy też zajmie prawie całą ścianę. Estetycznie lepiej wygląda ekran, wokół którego widać jeszcze fragmenty ściany lub dekoracji, niż telewizor wciśnięty na styk między półkami.
      Wielkość pokoju a przekątna. Ogólna zasada mówi, że im większe pomieszczenie, tym większy telewizor można do niego dobrać. W przestronnym salonie 75-calowy ekran może wyglądać naturalnie, podczas gdy w małym pokoju dziennym już 55 cali może okazać się maksimum. Pamiętaj, że telewizor Samsung 55 cali to dziś dość uniwersalny wybór do standardowego salonu – zapewnia duży obraz, ale zwykle nie dominuje nad resztą wyposażenia. Ostatecznie jednak rozmiar powinien odpowiadać indywidualnym preferencjom i warunkom lokalowym. Jeśli masz taką możliwość, wytnij z kartonu prostokąt o wymiarach zbliżonych do planowanego telewizora i przyłóż go do ściany – łatwiej ocenisz, czy dany format nie będzie zbyt duży lub za mały w danej przestrzeni.
       
      Odległość od kanapy – klucz do komfortu Rozmiar telewizora powinien iść w parze z odległością, z jakiej będziesz go oglądać. Zarówno zbyt bliskie, jak i zbyt dalekie siedzenie od ekranu nie jest wskazane. Jeżeli usiądziesz za blisko dużego telewizora, Twój wzrok może nie obejmować całego obrazu, co zmusza oczy do ciągłego wędrowania po ekranie – to męczy wzrok i może powodować ból głowy. Z kolei zbyt duża odległość od małego ekranu sprawi, że szczegóły obrazu staną się nieczytelne, a seans przestanie być angażujący.
      Zasady i przeliczniki. Istnieją praktyczne sposoby na obliczenie optymalnej odległości. Tradycyjna reguła podpowiada, że na każdy cal przekątnej powinno przypadać ok. 4–4,5 cm dystansu między widzem a telewizorem. Dla przykładu ekran 50-calowy najlepiej oglądać z około 2,1 m, a 55-calowy – z około 2,3 m. Takie wartości zapewniają dobre wrażenia i jednocześnie chronią wzrok. Co ważne, wraz z rozwojem technologii można pozwolić sobie na nieco bliższe siedzenie, zwłaszcza przy telewizorach o wysokiej rozdzielczości. Samsung sugeruje, że dla najbardziej wciągającego efektu ekran powinien wypełniać około 40° naszego pola widzenia – co przekłada się na dystans równy mniej więcej 1,2 raza długości przekątnej. W praktyce dla telewizora ~55 cali oznacza to odległość około 1,7–2 m, jeśli korzystamy z treści 4K, które i tak pozostaną ostre z bliska.
      Dopasuj do rozdzielczości. Pamiętaj, że zalecany dystans zależy też od jakości obrazu. Starsze telewizory Full HD wymagały większej odległości, bo z bliska było widać piksele. Natomiast przy nowoczesnym ekranie 4K lub 8K możesz usiąść bliżej bez utraty jakości – wysoka rozdzielczość sprawia, że obraz jest szczegółowy nawet z małej odległości. Dzięki temu w mniejszych pokojach można ustawić większy telewizor, o ile tylko sygnał ma odpowiednio dobrą jakość (np. materiały UHD z serwisów VOD lub odtwarzacza Blu-ray). Zawsze jednak kieruj się własnym komfortem – optymalna odległość to taka, przy której oczy nie męczą się nawet podczas dłuższego seansu, a cały ekran mieści się w Twoim polu widzenia bez potrzeby kręcenia głową.
       
      Na koniec pamiętaj: Idealny rozmiar telewizora to taki, który pasuje do Twojego pomieszczenia i zwyczajów. Uwzględnij wielkość pokoju, odległość od kanapy oraz to, jak i kiedy najczęściej oglądasz. Zwróć uwagę na nowe technologie poprawiające komfort – od rozdzielczości 4K/8K, przez powłoki antyrefleksyjne, po tryby ochrony wzroku. Dzięki temu Twój nowy telewizor nie tylko zapewni świetny obraz, ale też wspaniale wkomponuje się w codzienne życie domowników, dostarczając rozrywki w sposób wygodny i efektowny. Happy end jest na wyciągnięcie ręki – wystarczy odpowiednio dobrać calaż do własnego M. Powodzenia!

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Połączenie tradycyjnych technik i sztucznej inteligencji może przynieść nowe, niezwykle ważne informacje na temat przyszłości. Niektóre ze zwojów znad Morza Martwego mogą być nawet o wiek starsze, niż sądzono, a część z nich może być kopiami, które powstały jeszcze za życia oryginalnych autorów. Do takich wniosków doszedł międzynarodowy zespół badawczy kierowany przez Mladena Popovicia z Uniwersytetu w Groningen. Naukowcy wykorzystali datowanie radiowęglowe, paleografię oraz model sztucznej inteligencji Enoch – to imię jednego z biblijnych proroków – do datowania zwojów.
      Od czasu odkrycia zwoje znad Morza Martwego wpłynęły na postrzegania początków chrześcijaństwa, historii Żydów i rozwoju religii. Generalnie zwoje datowane są na od III wieku przed Chrystusem, po II wiek naszej ery. Jednak daty powstania poszczególnych z nich są bardzo niepewne. Większość datowana jest na podstawie badań paleograficznych, czyli badań stylu pisma. Jednak paleografia dla tak starych zapisków opiera się na słabych podstawach, a badania utrudnia fakt, że większość zwojów nie jest datowana i brak jest innych datowanych dokumentów z tego okresu, które mogłyby posłużyć za materiał porównawczy. Dysponujemy niewieloma datowanymi manuskryptami aramejskimi i hebrajskimi z V i IV wieku przed naszą erą oraz datowanymi manuskryptami z początku II wieku n.e. Jak więc widać, luka, dla której nie mamy materiału porównawczego, pokrywa się z najbardziej prawdopodobnym okresem powstania zwojów.
      Naukowcy z Uniwersytetów w Groningen, Danii Południowej, w Pizie oraz Uniwersytetu Katolickiego w Lowanium, pracujący w ramach projektu The Hands That Wrote the Bible połączyli datowanie radiowęglowe 24 zwojów z analizą paleograficzną wykonaną przez model sztucznej inteligencji. Datowane zwoje posłużyły jako wiarygodny punkt wyjścia dla określenia wieku manuskryptów metodą paleograficzną. Model Enoch wykorzystywał sieć neuronową wyspecjalizowaną w wykrywaniu wzorców i różnic w piśmie w zdigitalizowanych manuskryptach. Maszyna nauczyła się analizować zarówno geometryczne zmiany śladów atramentu na poziomie mikro – badając takie elementy jak zmiany nacisku, tekstury czy kierunku – jak i sam kształt liter.
      Po treningu naukowcy przeanalizowali za pomocą Enocha 135 z około 1000 zwojów. Pierwsze wnioski z analizy zostały właśnie przedstawione na łamach PLOS One. Wynika z nich, że wiele zwojów jest starszych niż sądzono. Wyniki badań pokazały też, że należy zmienić pogląd na dwa style starożytnego pisma – hasmonejski i herodiański. Manuskrypty napisane w stylu hasmonejskim mogą być bowiem starsze niż obecne szacunki datujące je na lata 150–50 p.n.e. Również styl herodiański pojawił się wcześniej niż przypuszczano. To zaś wskazuje, że oba style pisma były używane jednocześnie od końca II wieku przed Chrystusem, a nie – jak się uważa – od połowy pierwszego wieku p.n.e.
      Nowe datowanie manuskryptów w znaczącym stopniu zmienia nasze rozumienie zjawisk politycznych i intelektualnych, jakie zachodziły we wschodniej części Śródziemiomorza w okresie hellenistycznym i rzymskim. Rzuca nowe światło na poziom wykształcenia, opanowania umiejętności pisania i czytania, na urbanizację, rozwój kultury, wydarzenia polityczne, pojawienie się dynastii hasmonejskiej oraz rozwój różnych grup religijnych, w tym wczesnych chrześcijan.
      Ponadto okazało się, że rękopisy 4QDanielc (4Q114) – czyli zwój znaleziony w 4. jaskini w Qumran, który zawiera fragment Księgi Daniela i jest trzecim (stąd litera c) rękopisem Daniela z tej jaskini, a 4Q114 to numer katalogowy – oraz 4QQoheleta (4Q109) są pierwszymi znanymi rękopisami biblijnymi, które mogą pochodzić z czasów życia ich autorów. Nie wiemy, kto ukończył Księgę Daniela, ale powszechnie uważa się, że została ona napisana około 160 roku przed naszą erą. Odnośnie Księgi Koheleta, której autorstwo tradycja przypisuje królowi Salomonowi, naukowcy są zgodni, że postała ona w okresie hellenistycznym, w III wieku p.n.e. Wykonane właśnie datowanie radiowęglowe 4Q114 oraz analiza 4Q109 za pomocą Enocha wskazują, że manuskrypty powstały – odpowiednio – w II i III wieku, zatem w czasie, gdy żyli ich prawdopodobni autorzy. Mamy więc do czynienia z kopiami wykonanymi jeszcze za ich życia.
      Źródło: Dating ancient manuscripts using radiocarbon and AI-based writing style analysis

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z CSIRO (Commonwealth Scientific and Industrial Research Organisation) agendy naukowej rządu Australii, stworzyli algorytm sztucznej inteligencji, który lepiej niż ludzcy specjaliści rozpoznaje płeć na podstawie wyglądu czaszki. Przyda się ono wszędzie tam, gdzie potrzebna jest dokładna szybka identyfikacja płci, na przykład podczas śledztw kryminalnych czy prac prowadzonych w związku z katastrofami naturalnymi.
      Nowe narzędzie, stworzone przy pomocy naukowców z University of Western Australia, potrafi określić płeć na podstawie samej tylko czaszki z 97-procentową dokładnością. To znacznie lepszy wynik, niż 82-procentowa dokładność uzyskiwana przez ekspertów medycyny sądowej posługujących się tradycyjnymi metodami.
      Algorytm sztucznej inteligencji sprawdzono na próbce 200 skanów z tomografu komputerowego, a uzyskane wyniki porównano z wynikami ludzi. "Nasze narzędzie określa płeć około 5-krotnie szybciej niż ludzie. To oznacza, że rodziny czekające na informacje o bliskich szybciej mogą otrzymać informacje. Narzędzie to może być dużą pomocą podczas badań antropologicznych, bardziej precyzyjnie określając płeć i pozwalając uniknąć błędów robionych przez ludzi", mówi doktor Hollie Min, jedna z autorek algorytmu.
      Twórcy nowego narzędzia mają zamiar nadal je trenować, uwzględniając różne ludzkie populacje, co powinno nie tylko poprawić efektywność algorytmu, ale i spowodować, że będzie bardziej uniwersalny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
      Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
      Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
      Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...