Deepfake to metoda tworzenia zdjęć i filmów przy użyciu algorytmów głębokiego uczenia się. Technologia ta umożliwia zastąpienie twarzy danej osoby zupełnie inną twarzą w istniejących danych multimedialnych.
W Internecie odkryto co najmniej 85 000 deepfakeów stworzonych przez sztuczną inteligencję. Według ekspertów, ich liczba podwaja się co sześć miesięcy.
Oprócz dezinformacji, zastraszania i nękania, deepfake są wykorzystywane do celów rozrywkowych, syntezy danych i odtwarzania głosu.
Deepfake to technologia syntezy mediów, w której twarz osoby na istniejącym zdjęciu lub filmie wideo jest zastępowana twarzą innej osoby. Do produkcji fałszywek wykorzystuje się sztuczną inteligencję, uczenie maszynowe i techniki sieci neuronowych.
Nazwa tej technologii pochodzi od połączenia angielskich terminów deep learning i fake.
Wiele z tworzonych deepfake ma charakter pornograficzny. Do końca 2020 r. firma Sensity znalazła w Internecie 85 000 deepfakeów przez sztuczną inteligencję. 93% materiałów miało charakter pornograficzny, a zdecydowana większość z nich przedstawiała twarze znanych kobiet.
Nowe techniki umożliwiają niewprawnym osobom tworzenie deepfakeów przy użyciu kilku zdjęć. Eksperci twierdzą, że ilość takich treści podwaja się co sześć miesięcy. Fałszywe filmy mogą rozprzestrzenić się poza świat celebrytów i stać się pożywką dla pornografii.
Deepfake wykorzystuje się też do ataków informacyjnych, tworzenia parodii i satyry.
W 2018 r. amerykański filmowiec Jordan Peele i portal BuzzFeed opublikowali rzekomą wypowiedź byłego prezydenta USA Baracka Obamy, w której nazwał on Donalda Trumpa "dupkiem". Film stworzono przy użyciu aplikacji FaceApp i edytora graficznego Adobe After Effects. Reżyser i dziennikarze chcieli pokazać, jak w przyszłości może wyglądać fake news.
W 2022 r., po inwazji Rosji na Ukrainę, w mediach społecznościowych krążyło fałszywe nagranie wideo prezydenta Wołodymyra Zelenskiego, na którym głowa państwa "wzywa naród do poddania się". Użytkownicy szybko zidentyfikowali fałszerstwo, a sam Zelensky nagrał odpowiedź.
W maju tego samego roku oszuści rozpowszechnili deepfake Elona Muska, w którym "wzywa on do inwestycji" w ramach pozornego oszustwa. Kanał YouTube, na którym zamieszczono film, miał ponad 100 000 subskrybentów, a przed usunięciem konta obejrzano go ponad 90 000 razy. Nie wiadomo, ile osób dało się nabrać na to oszustwo.
Istnieje wiele aplikacji do tworzenia deepfake. Na początku 2020 r. głośno zrobiło się o aplikacji Reface. Wykorzystuje ona technologię deepfake do tworzenia krótkich filmów wideo, w których na szeroką gamę animacji wideo i gifów nakładana jest dosłownie dowolna twarz.
Technologia deepfake umożliwia tworzenie nie tylko przekonujących filmów wideo, ale także całkowicie fikcyjnych zdjęć od podstaw. W 2019 r. niejaka Maisie Kinsley założyła profile w serwisach LinkedIn i Twitter, gdzie podała się za dziennikarkę Bloomberga. "Dziennikarz" kontaktował się z pracownikami Tesli i zdobywał najróżniejsze informacje.
Później okazało się, że był to fałszywy profil. Nie było żadnych przekonujących faktów łączących ją z publikacją. Co więcej, zdjęcie profilowe wyraźnie wygenerowała sztuczna inteligencja.
W 2021 r. ForkLog HUB przeprowadził eksperyment, tworząc wirtualną postać N.G. Adamchuka, który "pisał" na platformę, aby "rozumować o rynku" kryptowalut. Teksty zostały wygenerowane przy użyciu dużego modelu językowego GPT-2. Awatar został stworzony przez usługę This Person Does Not Exist (Ta osoba nie istnieje).
Można również fałszować dźwięk w celu stworzenia "klonów głosowych" osób publicznych. W styczniu 2020 r. oszuści ze Zjednoczonych Emiratów Arabskich podrobili głos dyrektora dużej firmy i przekonali pracownika banku do przelania na ich konta 35 milionów dolarów.
Podobny przypadek miał miejsce w 2019 r. w brytyjskiej firmie energetycznej. Oszustom udało się ukraść około 243 000 USD, podszywając się pod dyrektora firmy i używając fałszywego głosu.
Do tworzenia fałszywych obrazów twarzy potrzebny jest duży zbiór danych twarzy dwóch osób. Zbiór danych jest analizowany przez koder sztucznej inteligencji, który znajduje podobieństwa między obrazami i kompresuje je.
Dekoder jest następnie trenowany do rekonstrukcji twarzy na podstawie skompresowanych klatek. Dla każdej osoby stosowany jest osobny algorytm. Aby zamienić twarze, skompresowane dane muszą zostać załadowane do "niewłaściwego" dekodera.
Na przykład obrazy osoby A są wprowadzane do dekodera wytrenowanego na osobie B. Algorytm rekonstruuje twarz osoby B z wyrazem osoby A.
Aby uzyskać wysokiej jakości wynik dla filmu wideo, algorytm musi w ten sposób przetwarzać każdą klatkę.
Innym sposobem tworzenia deepfake jest wykorzystanie sieci neuronowych GAN (Generative Adversarial Neural Network). Podobną metodę stosuje się w usługach typu This Person Does Not Exist.
Deepfake mogą być tworzone przez naukowców akademickich i komercyjnych, inżynierów zajmujących się uczeniem maszynowym, entuzjastycznych hobbystów, studia efektów wizualnych i filmowców. Ponadto, dzięki popularnym aplikacjom, takim jak Reface czy FaceApp, każdy posiadacz smartfona może zrobić fałszywe zdjęcie lub nagrać film.
Rządy mogą również wykorzystywać tę technologię w ramach swoich strategii internetowych, np. w celu dyskredytowania i osłabiania grup ekstremistycznych lub docierania do wybranych osób.
W 2019 r. dziennikarze odkryli w serwisie LinkedIn profil niejakiej Katie Jones, który okazał się deepfake. Krajowe Centrum Kontrwywiadu i Bezpieczeństwa USA poinformowało wówczas, że zagraniczni szpiedzy regularnie wykorzystują fałszywe profile w mediach społecznościowych do inwigilacji amerykańskich celów. Agencja oskarżyła w szczególności Chiny o prowadzenie "masowego" szpiegostwa za pośrednictwem serwisu LinkedIn.
W 2022 roku południowokoreańscy inżynierowie stworzyli podróbkę kandydata na prezydenta Yoon Seok-yeol, aby przyciągnąć młodych wyborców przed wyborami, które odbyły się 9 marca 2022 roku.
Większość deepfake jest tworzona na wysokowydajnych komputerach stacjonarnych z potężnymi kartami graficznymi. Inną opcją jest chmura Wymaga to także wiedzy specjalistycznej, zwłaszcza w zakresie poprawiania gotowych filmów i usuwania wad wizualnych.
Obecnie dostępnych jest jednak wiele narzędzi ułatwiających tworzenie fałszywych obrazów zarówno w chmurze, jak i bezpośrednio na smartfonie. Do wspomnianych wcześniej aplikacji Reface i FaceApp można dodać aplikację Zao, która nakłada twarze użytkowników na postacie z filmów i programów telewizyjnych.
W większości przypadków fałszywe zdjęcia i filmy są niskiej jakości. Deepfake można rozpoznać po niemrużących się oczach, słabej synchronizacji mowy i ruchów warg oraz plamistych odcieniach skóry. Na krawędziach transponowanych krawędzi można zaobserwować migotanie i pikselizację. Szczególnie trudno jest dobrze narysować drobne szczegóły, takie jak włosy.
Na fałszerstwo może wskazywać również źle dopasowana biżuteria i zęby. Należy również wziąć pod uwagę niespójne oświetlenie i odbicia tęczówki.
Największe korporacje technologiczne walczą z deepfake. W kwietniu 2022 r. firmy Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC i ARM połączyły siły w ramach sojuszu C2PA. Celem było wykrywanie fałszywych zdjęć i filmów w Internecie.
W 2020 r., w okresie poprzedzającym wybory w USA, Facebook zakazał publikowania filmów typu deepfake, które mogłyby wprowadzać użytkowników w błąd.
Z kolei w maju 2022 r. firma Google ograniczyła możliwość trenowania modeli do tworzenia podróbek w środowisku chmury Colab.
Oprócz dezinformacji, nękania, zastraszania i poniżania, deepfake mogą podważać zaufanie publiczne do konkretnych wydarzeń.
Zdaniem Lilian Edwards, profesor i ekspert ds. prawa internetowego na Uniwersytecie Newcastle, problem nie polega na fałszerstwie. Chodzi o zaprzeczanie prawdziwym faktom.
Wraz z upowszechnianiem się technologii, deepfake mogą stanowić zagrożenie dla wymiaru sprawiedliwości. Wydarzenia, które można sfałszować, mogą bowiem zostać uznane za prawdziwe.
Stanowią one również zagrożenie dla bezpieczeństwa osobistego. Podróbki są już w stanie naśladować dane biometryczne i oszukiwać systemy rozpoznawania twarzy, głosu i chodu.
Oprócz zagrożeń, deepfake mogą być również użyteczne. Technologie tą aktywnie wykorzystuje się do celów rozrywkowych. Na przykład londyńska firma Flawless opracowała sztuczną inteligencję, która synchronizuje usta aktorów ze ścieżką dźwiękową podczas dubbingowania filmów na różne języki.
W lipcu 2021 r. autorzy filmu dokumentalnego o zmarłym w 2018 r. słynnym kucharzu Anthonym Bourdainie wykorzystali deepfake do dubbingowania jego cytatów.
Ponadto technologia ta może pomóc ludziom odzyskać głos utracony w wyniku choroby.
Deepfake są również wykorzystywane do tworzenia syntetycznych zbiorów danych. Oszczędza to inżynierom konieczności zbierania zdjęć prawdziwych ludzi i uzyskiwania zgody na ich wykorzystanie.