Przejdź do treści Przejdź do stopki
Aktualności

„Czy to, że coś widziałeś, daje ci pewność?” – felieton

„Czy to, że coś widziałeś, daje ci pewność?” – felieton

Do niedawna stwierdzenie: „Widziałem to na własne oczy” zamykało dyskusję. No bo świadka, który czegoś doświadczył osobiście, nie przekona żadna argumentacja. Teraz jednak, na skutek tego, że „na własne oczy” ogląda się różne osoby i sytuacje nie mając z nimi bezpośredniego fizycznego kontaktu, tylko pozyskuje się fotografie i filmy za pośrednictwem mediów elektronicznych – telewizji, internetu, komputerów, smartfonów – świadectwo naszych zmysłów może być zmanipulowane różnymi technicznym sztuczkami. Sposobów takich cyfrowych manipulacji jest bez liku i stale wymyślane są kolejne. Ogólna nazwa dla tych manipulacji została przyjęta jako deepfake i jest ona zbitką wyrazową od nazwy bardzo modnej ostatnio i używanej w różnych celach techniki tak zwanego głębokiego uczenia (deep learning) oraz określenia fake (fałszywy). Dzięki zastosowaniu sztucznej inteligencji (deep learning zdecydowanie do niej należy) uzyskany obraz albo film jest nieodróżnialny od zdjęcia lub filmu dokumentującego jakiś rzeczywisty fakt. Tymczasem użytkownicy narzędzi do tworzenia deepfake są w stanie wytworzyć w ten sposób obrazy i filmy prezentujące sytuacje, które w rzeczywistości nie miały miejsca, wywołując poważną dezinformację u odbiorców takich „produktów”.
Sprawa tworzenia fałszywych obrazów jest technicznie prostsza. Bierze się – przykładowo – obraz twarzy lub całej sylwetki osoby, którą chce się przedstawić w nieprawdziwej sytuacji, bierze się obrazy elementów, z którymi chce się ową osobę powiązać, i korzystając z metod głębokiego uczenia tworzy się obraz, na którym prezentowana osoba jest osadzona w otoczeniu (kontekście) całkowicie spreparowanym sztucznie. Można powiedzieć, że taki zabieg przypomina stosowany od ponad stu lat fotomontaż, tylko perfekcyjna elektroniczna kontrola nad wszystkimi elementami preparowanego fałszywego obrazu powoduje, że efekt jest idealnie fotorealistyczny i może zmylić każdego obserwatora.

Nieporównanie trudniejsze jest wytwarzanie w podobny sposób filmów, pozornie dokumentujących zdarzenie, które absolutnie nie miało miejsce. Komputer potrafi nałożyć twarz wybranej osoby (nazwijmy ją ofiarą) na twarz aktora, który nagrał jakąś rzeczywistą scenę, przy czym mimika tej sztucznie wytworzonej twarzy ofiary jest idealnie zgodna z mimiką aktora. Zgadzają się też ruchy warg ofiary (generowane cyfrowo) z treścią rzekomo wypowiadanych przez nią słów i zdań – których w istocie nigdy i nigdzie nie wypowiadała! Jeszcze łatwiej jest przekształcić dźwięk wypowiadanych (rzekomo) słów i zdań, nadając mu brzmienie zgodnie z cechami głosu ofiary. Naśladownictwo jest perfekcyjne!

Pierwsze produkty deepfake pojawiły się w Internecie w 2017 roku i polegały na wmontowaniu do filmów pornograficznych twarzy znanych aktorek: Gal Gadot, Maisie Williams i Taylor Swift. Było to nikczemne i podłe, ale wystarczyło kategoryczne zaprzeczenie zainteresowanych pań, by cała akcja stała się jedynie techniczną i psychologiczną ciekawostką. Natomiast od tego czasu technika deepfake bardzo się rozpowszechniła. Przyrost „produktów” deepfake jest niesłychanie szybki, bo mogą one skutecznie służyć do bardzo wielu różnych celów. Pierwsze były użyte jako technika wywoływania sztucznej sensacji i kompromitowania osób publicznych. Potem jednak odkryto, jak wielki potencjał ma ta technika w walkach politycznych. Używając deepfake można dyskredytować przeciwników politycznych. W polskiej gorącej atmosferze przedwyborczej na szczęście nikt jeszcze po tę „broń” nie sięgnął – ale wszystko się jeszcze może zdarzyć.

Niestety jednak sięgają po nią przestępcy. Sfingowany ostry film pornograficzny z podłożoną twarzą wybranej ofiary może posłużyć do próby szantażu  i wymuszenia okupu. Co gorsza, technikę tę stosują pedofile, wyłudzając od dzieci różne prawdziwe zdjęcia i filmiki pod groźbą upublicznienia spreparowanego nagrania.

Postęp technicznego przetwarzania obrazów, filmów i dźwięków może cieszyć, bo mamy do dyspozycji narzędzia, które mogą usprawnić tworzenie różnych przekazów artystycznych, publicystycznych i edukacyjnych. Na przykład Muzeum Salvadora Dali na Florydzie umożliwia zwiedzającym rozmowy z malarzem i wspólne pozowanie do zdjęć, chociaż Dali zmarł w 1989 roku. Ale szybki rozwój deepfake spowodował działania obronne. W 2019 roku zawiązano grupę specjalistów pod nazwą DFDC (Deepfake Detection Challenge) dążących do stworzenia narzędzi wykrywające deepfake w celu tworzenia barier ochronnych. Tematem tym zajęła się także DARPA (amerykańska agencja naukowa pracująca na potrzeby wojska), NATO powołało Strategic Communication Center dla zwalczania deepfaków, agencja Reutersa prowadzi kursy dla dziennikarzy, żeby ich uczulić na problem deepfaków, Facebook i Twitter starają się usuwać deepfaki ze swoich obszarów działania.
W ciekawych czasach żyjemy. Niczego nie można być pewnym, nawet jeśli coś widzimy na własne oczy. Ale to tylko wtedy, gdy nadmiernie wierzymy w to, co nam pokażą na ekranie. Bo tej prawdziwej, dotykalnej rzeczywistości jeszcze nikt nie zdołał zmanipulować!

Skrócona wersja powyższego felietonu autorstwa prof. Ryszarda Tadeusiewicza została opublikowana w „Dzienniku Polskim” oraz „Gazecie Krakowskiej” 14.7.2023 r.

Wykaz wszystkich publikacji popularnonaukowych prof. Tadeusiewicza wraz z odnośnikami do ich pełnych wersji

Stopka