Skocz do zawartości
Forum Kopalni Wiedzy

Forum

  1. Nasza społeczność

    1. Sprawy administracyjne i inne

      Uwagi odnośnie funkcjonowania serwisu i forum.

      2094
      odpowiedzi
    2. Luźne gatki

      O wszystkim i nie na temat.

      13031
      odpowiedzi
  2. Komentarze do wiadomości

    1. 18678
      odpowiedzi
    2. 41211
      odpowiedzi
    3. 13069
      odpowiedzi
    4. 6109
      odpowiedzi
    5. 2695
      odpowiedzi
    6. 21406
      odpowiedzi
    7. 14795
      odpowiedzi
    8. 6722
      odpowiedzi
    9. 25315
      odpowiedzi
  3. Artykuły

    1. Artykuły

      Artykuły sponsorowane.

      1131
      odpowiedzi
  4. Inne

    1. 214
      odpowiedzi
    2. 296
      odpowiedzi
  • Kto jest online? (Zobacz pełną listę)

    Brak zarejestrowanych użytkowników online

  • Najnowsze komentarze

    • Jeszcze dodam swoje 3 grosze. ASCON jest lepszy w kontekście relacji bezpieczeństwo/energia od 3DES + XOR, który zaproponowałem, głównie dlatego że korzysta z permutacji cyklicznych (operacji shift), które nie generują tak zwanej pojemność pasożytniczej. Natomiast DES korzysta z permutacji i permutacji rozszerzających   które generują właśnie to zjawisko nazwane "pojemność pasożytnicza".  Rozwiązaniem jest implementacja 3DES + XOR na chipie 3D (brak przecinania się ścieżek itd.) co praktycznie zlikwiduje ten problem - TSV (Through-Silicon Vias).  Przeniesienie ASOCN do 3D nic tu nie poprawi bo tam już nie ma co optymalizować w kontekście pojemności pasożytniczej.  
    • Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy. Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.   Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak. Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.   Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne. Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.   Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.   Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.   Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka. « powrót do artykułu
    • W nieopisanym pudełku w brytyjskim Public Record Office ponownie odkryto oryginał testamentu, który stał się powodem sporu sądowego o spadek po Williamie Shakespearze. Dokument ten ostatni raz był widziany w połowie XIX wieku. Teraz niezwykły testament, z powodu którego wnuczka wielkiego poety musiała przed sądem tłumaczyć, dlaczego nie uszanowała woli zmarłego męża, został znaleziony przez doktora Dana Goslinga, głównego specjalistę ds. dokumentów prawnych w The National Archives. Testament został sporządzony przez Thomasa Nasha, męża wnuczki Szekspira Elizabeth, który mieszkał z żoną i teściową w domu dramaturga w Stratford-upon-Avon. Dom, znany jako New Place, został kupiony przez Szekspira w 1597 roku. Miał trzy piętra, 20 pokojów, 10 kominków, a w skład posiadłości wchodził też dziedziniec, sad i dwa budynki gospodarcze. Pod koniec XVI wieku był to drugi największy prywatny dom w Stratford. Szekspir zapisał znaczną część swojego majątku, w tym New Place, swojej córce Susannie, z zastrzeżeniem, że po jej śmierci majątek ma przejść na własność jej synów, a gdyby nie miała synów, to ma stać się własnością jej córki Elizabeth i jej męskich spadkobierców. Z jakichś powodów Thomas Nash, mąż Elizabeth, sporządził testament, w którym przekazywał New Place swojemu kuzynowi. Jeśli nawet przyjmiemy, że Thomas nie wiedział, iż nie ma praw do domu, to sporządzając testament z pominięciem żony i teściowej, wykazał się olbrzymim optymizmem. Musiał bowiem zakładać, że przeżyje obie panie. Tymczasem w chwili spisywania ostatniej woli miał 59 lat, tyle co teściowa. Żona była od niego o 25 lat młodsza. Thomas zmarł w 1647 roku, pięć lat po spisaniu testamentu, a rok później Edward pozwał Elizabeth do sądu. Argumentował, że testament Thomasa został zarejestrowany w sądzie, a Elizabeth, jako jego spadkobierczyni i wykonawczyni testamentu, miała obowiązek postąpić zgodnie z jego zapisami. Elizabeth stwierdziła, że jej mąż nigdy nie był właścicielem domu, gdyż został on zapisany w testamencie jej matce i jej. W ramach postępowania sądowego Elizabeth musiała przedstawić testament Thomasa i właśnie tak trafił on do akt sądowych. Nie znamy wyroku sądu, jednak nic nie wskazuje na to, by Edward Nash wszedł w posiadanie New Place. Elizabeth zmarła w 1670 roku. Wraz z nią wygasła linia bezpośrednich potomków Szekspira. We własnym testamencie zapisała, zgodnie z obietnicą złożoną Edwardowi, że ma on prawo do nabycia domu. Nie istnieją żadne dokumenty wskazujące Edwarda jako właściciela New Place. Po śmierci Elizabeth właścicielami była bogata rodzina Cloptonów, a w 1702 roku budynek został rozebrany. « powrót do artykułu
    • Wczesna diagnoza jest często kluczem do wyleczenia wielu chorób. Jednak wiele osób nie korzysta z możliwości badań przesiewowych, nie idzie do lekarza gdy zauważy niepokojące objawy, nie bada się pod kątem ewentualnego nawrotu choroby czy pogorszenia stanu zdrowia. W bardzo wielu krajach takiego postępowania nie można tłumaczyć brakiem informacji czy wysokimi kosztami, gdyż informacje są powszechnie dostępne, a koszty pokrywane przez publiczne systemy opieki zdrowotnej. Z badań Instytutu Rozwoju Człowieka im. Maxa Plancka wynika, że aż 33% ludzi wybiera coś, co badacze nazwali „świadomą ignorancją”, ludzie ci nie chcą wiedzieć o poważnej chorobie, nawet jeśli mogą być chorzy. Naukowcy przeprowadzili metaanalizę 92 badań, w których wzięło udział w sumie 564 497 osób z 25 krajów. Chcieli wiedzieć, jak szeroko rozpowszechniona jest chęć unikania informacji o swoim stanie zdrowia i jakie są tego przyczyny. Analizowane badania dotyczyły postaw pacjentów w obliczu poważnych schorzeń, m.in. choroby Alzheimera, pląsawicy Huntingtona, AIDS, nowotworów i cukrzycy. Autorzy metaanalizy zdefiniowali unikanie jako każde zachowanie, którego celem jest uniknięcie lub odwleczenie pozyskania dostępnej, ale potencjalnie niechcianej informacji. Zachowania takie to np. unikanie umówionych wizyt u lekarza, odmawianie poddaniu się badaniom, nieodebranie wyników badań czy ignorowanie informacji dotyczących stanu zdrowia. Analiza wykazała, że niemal 33% osób cierpiących na poważne choroby unika informacji na temat swojego stanu zdrowia. Największy odsetek występuje wśród cierpiących na alzheimera (41%) i pląsawicy Huntingtona (40%). Dla chorób poddających się leczeniu odsetek unikających był niższy i wynosił 32% w przypadku zarażenia HIV, 29% w przypadku nowotworów i 24% w przypadku cukrzycy. Gdy naukowcy postanowili zbadać przyczyny, dla których ludzie chorzy unikają informacji, okazało się, że najważniejszymi z nich były przeciążenie poznawcze (diagnoza takich chorób jak nowotwory może być bardzo stresująca), zbyt mała wiara w siebie (chory nie wierzy, że sobie poradzi w trakcie leczenia z podejmowaniem właściwych decyzji), strach przed stygmatyzacją (dotyczy to np. HIV) oraz brak zaufania do systemu opieki zdrowotnej w połączeniu z niską wiarą w powodzenie leczenia. Niestety, badacze nie dysponowali danymi, które pozwoliłyby na stwierdzenie, jak unikanie informacji wpłynęło na rezultaty leczenia badanych osób. « powrót do artykułu
    • Jeśli trend dla obecnych pokoleń byłby taki, jak w pierwszej połowie XX wieku, to osoba urodzona w latach 80. mogłaby spodziewać się, że dożyje 100 lat, mówi José Andrade z Instytutu Badań nad Demografią im. Maxa Plancka. W pierwszej połowie XX wieku wzrost spodziewanej długości życia był imponujący. Dla osoby urodzonej w 1900 roku było to 62 lata, dla urodzonej w roku 1938 – 80 lat. Jednak przyrost średniej spodziewanej długości życia wyraźnie zwolnił. Nowe badania pokazały, że średnia długości życia dla osób urodzonych w latach 1939–2000 nie rośnie tak szybko, jak dla ludzi urodzonych wcześniej. O ile osoby, które urodziły się przed rokiem 1939 mogły spodziewać się, że średnia długość życia każdego rocznika będzie o 5,5 miesiąca większa niż rocznika poprzedniego, to dla urodzonych w latach 1939–2000 wzrost ten wynosi od 2,5 do 3,5 miesiąca. Andrade oraz Carlo Giovanni Camarda z Institut national d'études démographiques – INED i Héctor Pifarré i Arolas z University of Wisconsin-Madison postanowili sprawdzić, jak szybko obecnie rośnie średnia spodziewana długość życia. Analizę przeprowadzili na przykładzie 23 krajów o wysokich dochodach i niskiej śmiertelności niemowląt. Wykorzystali dane z Human Mortality Database, które przeanalizowali za pomocą sześciu różnych metod statystycznych służących do analizowania średniej spodziewanej długości życia. Chcieliśmy być pewni wyników, dlatego wykorzystaliśmy nie jedną metodę, ale kilka. Użyliśmy zarówno takich, które są uznane i powszechnie używane od dawna, jak metody wykorzystywane przez United Nations World Population Prospects, jak i najnowocześniejszych metod prognozowania śmiertelności, mówi Andrade. Wszystkie metody wykazały, że spodziewana długość życia dla osób urodzonych w latach 1939–2000 rośnie wolniej, niż dla tych urodzonych wcześniej. W zależności od metody spowolnienie wynosił od 37 do 52 procent. Przewidujemy, że dla osób urodzonych w roku 1980 średnia długość życia nie wyniesie 100 lat i żadna kohorta, jaką braliśmy pod uwagę, nie osiągnie takiego wieku, stwierdza uczony. Spadek tempa przyrostu średniej spodziewanej długości życia jest spowodowany głównie faktem, że w przeszłości zjawisko to było napędzane głównie imponującymi spadkami śmiertelności w najmłodszym wieku. Od początku XX wieku odsetek zgonów wśród niemowląt zaczął gwałtownie spadać dzięki postępom medycyny i innym zjawiskom. Dlatego też przez trzy pierwsze dekady tamtego stulecia szybko rosła średnia długość życia. Obecnie jednak śmiertelność wśród niemowląt jest tak niska, że pozostaje niewiele miejsca na poprawę. A śmiertelność wśród osób starszych nie spada na tyle szybko, by to skompensować. Naukowcy są pewni uzyskanych przez siebie wyników, jednak trzeba pamiętać, że są to jedynie przewidywania, które mogą się nie sprawdzić. Takie wydarzenia jak pandemie, wynalezienie nowych leków czy zmiany społeczne mogą znacząco wpłynąć na średnią długość życia w danym pokoleniu. Badania nad spodziewaną długością życia są zaś o tyle ważne, że zjawisko to wpływa na planowanie dotyczące gospodarki, systemów emerytalnych czy systemów opieki zdrowotnej. Ze szczegółami badań można zapoznać się na łamach PNAS. « powrót do artykułu
    • Ok pomęczyłem AI aby mi wykonało analizy robiąc moje warianty i korzystając z moich spostrzeżeni podpowiedzi dla wariantów. Wersje skróconą umieściłem tutaj: https://polandthoughts.blogspot.com/2025/08/porownanie-3des-aes-i-ascon-analiza.html Wniosek końcowy. Dokładając dodatkowy klucz  i operacje xor dla 3DES uzyskujemy identyczny rezultat niż w proponowanym algorytmie z publikacji. Tyle wychodzi z tego pieprzenia świata naukowego. Zaorani przez AI wspomaganym specjalistą w danym zakresie (czyli mnie) w 2 godziny. Nazwę się butnie specjalistą bo sam kiedyś podobne publikacje robiłem. Stare dzieje: https://yadda.icm.edu.pl/baztech/element/bwmeta1.element.baztech-article-BPG8-0042-0003  
  • Ostatnio aktywne tematy

  • Statystyki forum

    • Tematów
      38594
    • Odpowiedzi
      167067
  • Statystyki użytkowników

    • Użytkowników
      6001
    • Najwięcej online
      10625

    Najnowszy użytkownik
    SakuraSun
    Rejestracja
×
×
  • Dodaj nową pozycję...