-
-
-
-
URL copied!
Czy kiedykolwiek zastanawiałeś się, czy to, co widzisz w internecie, jest prawdziwe? W dzisiejszych czasach rozwijającej się technologii i sztucznej inteligencji, wiele nagranych materiałów wideo okazuje się być fałszywymi. Tak zwane „deep fake” stają się poważnym wyzwaniem dla społeczeństwa i mają duży wpływ na rozwój biometrii. Dlatego też warto przyjrzeć się temu zjawisku bliżej.
Deep fake w 2023
Światowi przywódcy niespodziewanie pojawiają się w roli muzyków zespołu Limp Bizkit w teledysku. Jedna ze stacji telewizyjnych tworzy serial komediowy, w którym zamiast aktorów występują deep fake’owe odpowiedniki znanych osobistości. Takie sytuacje nie są już niczym niezwykłym. Każdego dnia do sieci trafiają kolejne materiały prezentujące aktorów, celebrytów czy streamerów w dziwnych sytuacjach i budzących zaskoczenie wypowiedziach. Deep fake, jako technika obróbki treści prowadząca do stworzenia fałszywego obrazu i dźwięku, nie przestaje zaskakiwać i nie bez przyczyny wskazywana jest jako jedno z największych wyzwań współczesnego świata.
Sztuczna inteligencja potrafi bez większych kłopotów oszukać człowieka, pozwalając mu wierzyć, że to, co odbiera zmysłami wzroku i słuchu jest prawdą. W tym przypadku szanse odbiorcy na zorientowanie się są niestety niewiele wyższe od decydowania na bazie rzutu monetą. Potwierdziły to eksperymenty przeprowadzone przez badaczy z uniwersytetów w Kalifornii i Lancaster. Choć naukowcy nie wykorzystali najnowocześniejszych algorytmów SI, wymyślone przez nich twarze uczestnicy próby zdołali wskazać w zaledwie 48% przypadków. Nawet wcześniejszy trening i udzielenie kilku cennych wskazówek niewiele poprawiło wynik – skuteczność nadal nie przekroczyła 60%. Co warto dodać – zdjęcia fikcyjnych osób wywoływały o 7,7% większe zaufanie u grupy badawczej niż fotografie prawdziwych ludzi.
Dysponując już teraz takimi możliwościami, deep fake nie tylko może przyczyniać się do szybko rosnącej dezinformacji, ale również bezprecedensowego wzrostu cyberprzestępczości. Oznacza też duże wyzwanie dla rozwiązań z zakresu biometryki.
Deep fake a biometryka
Ostrzeżenie, że cyberprzestępcy wkrótce zaczną korzystać ze sztucznej inteligencji jest nieaktualne. Deep fake już dziś stanowi jedną ze skutecznych strategii prowadzenia ataków. Próby wykonywane przez ekspertów ds. cyberbezpieczeństwa pokazują, że hakerzy mogą łatwo obejść zabezpieczenia głosowe, tworząc tylko na komputerze odpowiednie próbki mowy użytkownika. W ten sposób są w stanie dostać się do systemu bankowego, radząc sobie z technologią Voice ID.
Oszuści wykorzystują nowe możliwości do tworzenia unikalnego planu ataku, na który wiele organizacji i osób jest nieprzygotowanych. W efekcie potrafią nakłonić do powierzenia im cennych danych lub środków finansowych. Ich pomysłowość najlepiej obrazują ostatnie doniesienia o hakerach, którzy w ten sposób byli w stanie nawet przejść przez proces zdalnych rekrutacji i zdobyć posady w firmach. Umożliwił im to fałszywy profil stworzony za pomocą algorytmów.
Znane od dekady metody ataku przechodzą rewolucję, a cyfrowi przestępcy znajdują sposoby, by skutecznie radzić sobie z nowymi zabezpieczeniami. To wymusza ciągły rozwój rozwiązań do ochrony cyfrowych zasobów. Choć biometryka cieszy się coraz większą popularnością i zaufaniem użytkowników, jej skuteczność także zależy od reagowania na zauważalne postępy SI oraz kreatywność cyberprzestępców. Tylko przez sześć ostatnich miesięcy 2022 roku liczba ataków hakerów wykorzystujących model podmiany twarzy użytkownika za pomocą ataku typu digital injection wzrosła o niebotyczne 295%. Czytając takie doniesienia można mieć wątpliwości, czy system rozpoznawania twarzy ma jeszcze sens w kategorii skutecznych form ochrony dostępu.
Facial Recognition Systems w dobie deep fake’ów
Wspominaliśmy już na naszym blogu, że systemy rozpoznawania twarzy można oszukać, wykorzystując słabości algorytmów lub wprowadzając je w błąd. Nie wpływa to jednak na coraz większą popularność facial recognition. Zabezpieczenia biometryczne są z powodzeniem implementowane na lotniskach lub w bankach, a także używane na co dzień przez posiadaczy smartfonów. Rozwój technologii deep fake sprawia, że sytuacja może ulec zmianie, o ile twórcy rozwiązań nie zareagują odpowiednio szybko na nowe zagrożenia bezpieczeństwa.
Sytuacja przypomina obecnie dynamiczny wyścig, w którym obie strony próbują się przechytrzyć i prześcignąć. W odpowiedzi na działania hakerów, którzy na różne sposoby starają się oszukać systemy, ich twórcy wdrażają i unowocześniają rozwiązania antyspoofingowe. Szczególną rolę odgrywają techniki rozpoznawania tożsamości (Liveness Detection), które pozwalają walczyć z próbami uzyskania dostępu przez osoby niepowołane za pomocą wydrukowanych zdjęć, masek 3D czy nagrań wideo.
Wdrażane rozwiązania tego typu monitorują na bieżąco wiele różnych aspektów – od rozszerzania źrenic, przez naturalność ruchów ust i oczu oraz całej głowy, po analizę tekstury skóry. Czasami też wiążą się z prośbą o wykonanie przez drugą stronę konkretnej czynności, na przykład ruchu głowy, który pozwala kamerze 3D zmapować twarz rozmówcy. Ich celem jest wykonanie weryfikacji w czasie rzeczywistym, która pozwala określić, czy po drugiej stronie występuje prawdziwa osoba, a nie tylko podszywające się pod nią nagranie lub obraz.
Dobre praktyki w dobie deep fake’ów
Na popularność technologii wpływają nie tylko jej duże możliwości, ale również łatwość dostępu. Obecna sytuacja potwierdza, że dziś prościej niż kiedykolwiek wcześniej zostać cyberprzestępcą. W darknecie hakerzy mogą bez większych trudności i w przystępnych cenach zakupić narzędzia oferowane przez grupy przestępcze, które umożliwiają im przeprowadzenie ataku na dany system czy konto użytkownika przy użyciu deep fake’ów.
Co mogą zrobić organizacje, które chcą chronić posiadane zasoby i pracowników? Rozwiązania technologiczne stanowią pierwszą barierę, ale nieodzowna jest edukacja i uświadamianie o skali zagrożenia. Informowanie klientów, kontrahentów, akcjonariuszy i zatrudnionych specjalistów o potencjalnych oszustwach przy użyciu deep fake’ów zwiększa ich czujność i może w kluczowych momentach zapobiec poważnym konsekwencjom biznesowym. Nowa rzeczywistość wymusza zmiany w politykach bezpieczeństwa, ale również unowocześnienie wewnętrznych procesów, m.in. onboardingowych, które pozwalają nowym pracownikom lepiej przygotować się na wyzwania i zagrożenia związane z metodami wdrażanymi przez hakerów.
Cyfrowe ryzyko nadal rośnie. W dobie szybko pędzącego świata, który każdego dnia wytwarza kwintyliony danych, fake newsy i deep fake’i mogą stanowić potężne narzędzie w rękach doświadczonych cyberprzestępców. Po stronie specjalistów IT i firm z sektora duże wyzwanie stawienia im czoła w ramach rozwoju technologii pomagających chronić prywatne informacje czy dostępy. Z pewnością ten specyficzny wyścig zbrojeń będzie trwał jeszcze długimi latami.
Bądź blisko innowacji z GlobalLogic
Nasze zespoły blisko współpracują z czołowymi organizacjami z sektorów automotive, healthcare, finansowego, przemysłowego czy mediowego. Rozwijają nowe technologie i projektują rozwiązania, które usprawniają procesy, ale również wpływają na bezpieczeństwo partnerów biznesowych i indywidualnych użytkowników. Chcesz być częścią tego świata i nieustannie się rozwijać? Sprawdź, co oferujemy! Aktualne oferty pracy znajdziesz w zakładce kariera.
Top Insights
Dlaczego dzisiaj każdy chce mieć cyfrowego bliźniaka?
Tech TrendsDigital TransformationManufacturing and IndustrialPopularni autorzy
Inne kategorie na blogu:
Współpracujmy
Powiązane treści
Inteligentny samochód w smart świecie – o naszej nowej rzeczywistości
Smartfony odmieniły nasze życie. Sprawiły, że inaczej się komunikujemy, konsumujemy media i realizujemy codzienne zadania. Ten krok w stronę smart świata był jednym z pierwszych, ale nie ostatnich. Niedługo zrobimy kolejny za sprawą ewolucji w sektorze motoryzacji, której efektem będzie upowszechnienie się inteligentnych samochodów. Samochód już dawno przestał być tylko środkiem transportu. W ostatnich latach … Continue reading Deep Fake vs Biometryka →
Czytaj więcej
Interdyscyplinarność – kompetencyjny buldożer do budowania innowacyjności w IT
Zastanawialiście się kiedyś, jak to jest być mózgiem zaawansowanych ekosystemów, które kształtują życie codzienne milionów ludzi? To nie tylko ogromna szansa dla inżynierów oprogramowania, ale także podróż pełna emocji. W obliczu ciągłych zmian technologicznych i błyskawicznego postępu, który obserwujemy w różnych dziedzinach, doświadczeni inżynierowie IT muszą stawiać na rozwijanie swoich kompetencji. A jednym z kluczowych … Continue reading Deep Fake vs Biometryka →
Czytaj więcej
Podsumowanie 2023 roku: Łącząc niezawodność z nowoczesnością
W erze przemian technologicznych, gdy wokół trwa proces nieustannych zmian, my także nie stoimy w miejscu. Zaangażowanie w rozwój technologii to nasza misja, ale realizując ją, skupiamy się na tym, w jaki sposób dostarczamy wartość naszym partnerom biznesowym. Poprzez prowadzone działania staramy się skutecznie łączyć nowoczesność, wyrażaną w technologicznych innowacjach, z potrzebnym biznesowi poczuciem niezawodności … Continue reading Deep Fake vs Biometryka →
Czytaj więcej
Podsumowanie GlobalLogic 2023: Pełni inspiracji
Naszą codziennością są międzynarodowe projekty, innowacyjny development i patrzenie w przyszłość przez pryzmat kodu na monitorze. Kto jednak sprawia, że otrzymujemy kolejne nagrody i utrzymujemy się w czołówce największych firm IT w Polsce? To ludzie, którzy według naszych wartości stoją dla nas na pierwszym miejscu. A że też nie samą pracą żyje człowiek, po odejściu … Continue reading Deep Fake vs Biometryka →
Czytaj więcej
Nowoczesna diagnostyka – czym jest Integrated Vehicle Health Management
Integrated Vehicle Health Management (IVHM) stanowi kompleksowe podejście do monitorowania, oceny i zarządzania kondycją pojazdów w czasie rzeczywistym. To naturalne rozwinięcie diagnostyki prowadzące do zwiększenia bezpieczeństwa, niezawodności i wydajności różnego rodzaju środków transportu przy jednoczesnym obniżeniu kosztów ich utrzymania. Jak działa Integrated Vehicle Health Management Poziom skomplikowania pojazdów nieustannie rośnie, co przekłada się na szereg … Continue reading Deep Fake vs Biometryka →
Czytaj więcej
Share this page:
-
-
-
-
URL copied!