Czy to, że coś widziałeś, daje ci pewność, że to prawda?

Czytaj dalej
Fot. Andrzej Banas / Polska Press
Ryszard Tadeusiewicz, profesor AGH

Czy to, że coś widziałeś, daje ci pewność, że to prawda?

Ryszard Tadeusiewicz, profesor AGH

Do niedawna stwierdzenie: „Widziałem to na własne oczy” zamykało dyskusję. No bo świadka, który czegoś doświadczył osobiście, nie przekona żadna argumentacja. Teraz jednak, na skutek tego, że „na własne oczy” ogląda się różne osoby i sytuacje nie mając z nimi bezpośredniego fizycznego kontaktu, tylko pozyskuje się fotografie i filmy za pośrednictwem mediów elektronicznych - świadectwo naszych zmysłów może być zmanipulowane różnymi technicznymi sztuczkami.

Ogólna nazwa dla tych manipulacji została przyjęta jako deepfake i jest ona zbitką wyrazową od nazwy bardzo modnej ostatnio techniki tak zwanego głębokiego uczenia (deep learning) oraz określenia fake (fałszywy). Dzięki zastosowaniu sztucznej inteligencji (deep learning do niej należy) uzyskany obraz albo film jest nieodróżnialny od zdjęcia lub filmu dokumentującego jakiś rzeczywisty fakt.

Tymczasem użytkownicy deepfake są w stanie wytworzyć w ten sposób obrazy i filmy prezentujące sytuacje, które w rzeczywistości nie miały miejsca.

Sprawa tworzenia fałszywych obrazów jest technicznie prostsza. Bierze się - przykładowo - obraz twarzy lub całej sylwetki osoby, którą chce się przedstawić w nieprawdziwej sytuacji, bierze się obrazy elementów, z którymi chce się ową osobę powiązać, i korzystając z metod głębokiego uczenia tworzy się obraz, na którym prezentowana osoba jest osadzona w kontekście spreparowanym sztucznie.

Nieporównanie trudniejsze jest wytwarzanie w podobny sposób filmów, pozornie dokumentujących zdarzenie, które absolutnie nie miało miejsca. Komputer potrafi nałożyć twarz wybranej osoby (nazwijmy ją ofiarą) na twarz aktora, który nagrał jakąś rzeczywistą scenę, przy czym mimika tej sztucznie wytworzonej twarzy ofiary jest idealnie zgodna z mimiką aktora. Zgadzają się też ruchy warg ofiary z treścią rzekomo wypowiadanych przez nią słów i zdań - których w istocie nigdy i nigdzie nie wypowiadała! Jeszcze łatwiej jest przekształcić dźwięk wypowiadanych (rzekomo) słów i zdań, nadając mu brzmienie zgodnie z cechami głosu ofiary. Naśladownictwo jest perfekcyjne!

Technika deepfake bardzo się rozpowszechniła. Przyrost „produktów” deepfake jest niesłychanie szybki, bo mogą one skutecznie służyć do bardzo wielu różnych celów. Pierwsze były użyte do wywoływania sztucznej sensacji. Potem jednak odkryto, jak wielki potencjał ma ta technika w walkach politycznych. Używając deepfake można dyskredytować przeciwników politycznych. W polskiej gorącej atmosferze przedwyborczej na szczęście nikt jeszcze po tę „broń” nie sięgnął - ale wszystko się jeszcze może zdarzyć.

Niestety, jednak sięgają po nią przestępcy. Sfingowany ostry film pornograficzny z podłożoną twarzą wybranej ofiary może posłużyć do próby szantażu i wymuszenia okupu. Co gorsza, technikę tę stosują pedofile, wyłudzając od dzieci różne prawdziwe zdjęcia i filmiki pod groźbą upublicznienia spreparowanego nagrania.

Szybki rozwój deepfake spowodował działania obronne. W 2019 roku zawiązano grupę specjalistów pod nazwą DFDC (Deepfake Detection Challenge) dążących do stworzenia narzędzi wykrywające deepfake w celu tworzenia barier ochronnych. Tematem tym zajęła się także DARPA (amerykańska agencja naukowa pracująca na potrzeby wojska), NATO powołało centrum dla zwalczania deepfaków, agencja Reutersa prowadzi kursy dla dziennikarzy, żeby ich uczulić na problem deepfaków, Facebook i Twitter starają się usuwać deepfaki ze swoich serwisów.

W ciekawych czasach żyjemy. Niczego nie można być pewnym, nawet jeśli coś widzimy na własne oczy. Ale to tylko wtedy, gdy nadmiernie wierzymy w to, co nam pokażą na ekranie. Bo tej prawdziwej, dotykalnej rzeczywistości jeszcze nikt nie zdołał zmanipulować!

Ryszard Tadeusiewicz, profesor AGH

Polska Press Sp. z o.o. informuje, że wszystkie treści ukazujące się w serwisie podlegają ochronie. Dowiedz się więcej.

Jesteś zainteresowany kupnem treści? Dowiedz się więcej.

© 2000 - 2024 Polska Press Sp. z o.o.