Deepfakes

Deepfakes
Deepfake to nagranie wideo lub dźwiękowe, które zastępuje czyjąś twarz lub głos głosem kogoś innego, w sposób, który wydaje się prawdziwy. Słownik Cambridge Deepfakes zyskują na popularności i u progu zmiany naszych relacji z nagranymi treściami audio lub wideo na zawsze.

W tej lekcji uczniowie dowiedzą się, jak powstają deepfakes i jakie postępy technologiczne umożliwiły ich rozwój. Po zapoznaniu się z kilkoma przykładami deepfake'ów i ich konsekwencjami, uczniowie omówią, w jaki sposób społeczeństwa powinny radzić sobie z deepfake'ami w przyszłości.

Cele lekcji

  • Zdobycie wiedzy na temat deepfake'ów i sposobu ich tworzenia
  • Zrozumienie rzeczywistych konsekwencji deepfake'ów i możliwych rozwiązań

Działania

(15 minut) - Skoncentrowana na nauczycielu

Przedstaw uczniom wprowadzenie do deepfaków i pokaż towarzyszące mu filmy.

Aim: Uczniowie dowiadują się, jak powstają i są wykorzystywane deepfakes

(30 minut) - Klasa

Uczniowie debatują nad wnioskiem "deepfakes powinny być zakazane" i badają argumenty za i przeciw, konsekwencje takich przepisów oraz alternatywne rozwiązania problemów związanych z deepfakeami.

Aim: Cel: uczniowie myślą krytycznie o tym, jak rządy powinny radzić sobie z deepfakeami

(Czas opcjonalny) - Klasa

Omów z uczniami niektóre pytania do dyskusji.

Aim: Uczniowie myślą krytycznie na temat deepafake'ów


(15 minut)

Historia

Manipulacja obrazem istnieje już od jakiegoś czasu. Historycznie była wykorzystywana przez dyktatorów, ale także przez artystów, aby zmienić postrzeganie rzeczywistości przez ludzi. Od usuwania osób, które wypadły z łask Stalina, po dodawanie zdjęcia zmarłego członka rodziny do portretu rodzinnego. Nożyczki, klej i cierpliwość były głównymi składnikami "photoshoppingu" avant la lettre.

Oczywiście wszystko to zmieniło się, gdy w grę zaczęły wchodzić komputery, a cyfrowe manipulowanie zdjęciami stało się możliwe. Wraz z postępem i ułatwieniem korzystania z narzędzi, liczba fałszywych obrazów - od materiałów do szantażu po memy - w obiegu rosła. Internet odegrał dużą rolę w procesie ich tworzenia i dystrybucji.

W obliczu rosnącej liczby fałszywych wiadomości i Photoshopa w naszych umysłach, ocena treści oglądanych online może być trudna. Wideo wydawało się być ostatnim medium, które mogło mówić samo za siebie. To znaczy, zanim technologia nadrobiła zaległości i wprowadziła erę deepfake'ów.

Deepfake to nagranie wideo lub dźwiękowe, które zastępuje czyjąś twarz lub głos głosem kogoś innego, w sposób, który wydaje się prawdziwy.

Słownik Cambridge

Deepfakes istnieją od lat 90-tych, ale przez większość swojego istnienia wyglądały okropnie. Informatycy położyli podwaliny pod przyszły rozwój, ale potrzeba było postępów w mocy obliczeniowej, sztucznej inteligencji i innych technologiach, aby pojawiły się bardziej przekonujące deepfake'i.

Chociaż trudno powiedzieć, czy istnieje jeszcze idealny deepfake, to ostatnie próby oszukały wiele osób. Społeczeństwa i rządy zmagają się z etycznymi, politycznymi i dziennikarskimi konsekwencjami rozwoju deepfake'ów.

Jak działają deepfakes

W swej istocie deepfakes wykorzystują podobną technologię jak filtry Snapchata czy Instagrama. Oprogramowanie skanuje twarz osoby i określa, która część obrazu reprezentuje którą część ciała. Innymi słowy, komputer rozumie, jak wygląda twarz. Gdy aplikacja znajdzie na przykład twoje oczy i nos, może dowiedzieć się, kiedy mrugasz i jak poruszają się twoje usta, gdy mówisz.

Deepfakes wykorzystują uczenie maszynowe do interpretowania sposobu poruszania się i zachowania aktora oraz nakładania go na wizerunek innej osoby, np. celebryty. Aby to zrobić, algorytm uczenia maszynowego musi zostać przeszkolony z jak największą ilością źródłowego materiału wideo od osoby, która zostanie "nałożona" na aktora. Jeśli aktor mruga, sztuczna inteligencja czerpie z materiału źródłowego, aby fałszywy obraz również mrugał.

Obejrzyj kilkuminutowy deepfake przedstawiający holenderskiego premiera Marka Rutte, przepraszającego za brak przywództwa w kryzysie klimatycznym (włącz angielskie napisy w ustawieniach).

Film o tym, co by się stało, gdyby lądowanie na Księżycu Apollo 11 nie powiodło się, z interaktywnym quizem po pytaniu, które części były prawdziwe, a które fałszywe.

https://moondisaster.org/film

Nawet jeśli osoba na filmie wygląda wystarczająco przekonująco, zazwyczaj problemem jest odpowiednie dobranie jej głosu. W przeszłości aktorzy głosowi naśladowali osobę, którą chcieli przedstawić. Ale teraz sztuczna inteligencja jest również wykorzystywana do tworzenia głębokich fałszywych głosów. Skanując nagrania głosowe, sztuczna inteligencja może zostać przeszkolona do używania czyjegoś głosu do mówienia nowych rzeczy, których ta osoba nigdy nie powiedziała - podobnie jak przy użyciu źródłowych materiałów wideo, aby obraz kogoś robił nowe rzeczy.

Jay-Z raps the "To Be, Or Not To Be" soliloquy from Hamlet (Speech Synthesis)

Some examples of vocal synthesis

Ponieważ deepfake'owe filmy i deepfake'owe głosy są łączone, coraz trudniej jest odróżnić prawdziwe od fałszywych. Jak widzieliśmy wcześniej, deepfake'i mogą być wykorzystywane do podszywania się pod osoby sprawujące władzę, takie jak premier Mark Rutte. Deepfake został stworzony przez gazetę, która poinformowała, że wideo jest deepfake'iem i jak zostało stworzone. Ale wyobraźmy sobie deepfake przywódcy politycznego deklarującego atak nuklearny bez oświadczenia wspominającego o jego nieautentyczności.

Etyczne implikacje deepfake'ów

Deepfakes były wykorzystywane do szantażowania ludzi, popełniania oszustw i rozpowszechniania fałszywych wiadomości. Technologia ta była również wykorzystywana do tworzenia materiałów pornograficznych przedstawiających celebrytów oraz tzw. pornografii z zemsty.

W kraju Gabon, w Afryce Środkowej, plotki o tym, że nagranie wideo prezydenta jest fałszywe, doprowadziły wielu ludzi do przekonania, że prezydent faktycznie zmarł. Prezydent miał udar mózgu, co wyjaśniało, dlaczego wyglądał nieco "nie tak" na filmie, który doprowadził do plotek o deepfake. Spekulacje te miały jednak realne konsekwencje, podsycając płomień, który ostatecznie doprowadził do próby zamachu stanu.

Ale największym zagrożeniem związanym z deepfake'ami może nie być nawet rozprzestrzenianie się fałszywych wiadomości. Raczej, jeśli każdy film może być fałszywy, daje to możliwość ucieczki osobom, które zostały przyłapane na robieniu czegoś złego. Nazywa się to "wiarygodnym zaprzeczeniem", co oznacza możliwość zaprzeczenia odpowiedzialności za godne potępienia działania. Deepfakes rodzą filozoficzne pytanie: jak możemy określić, co jest prawdą, skoro wszystko można sfałszować?

Pierwszym sposobem radzenia sobie z negatywnymi skutkami tej nowej technologii jest szerzenie świadomości i wiedzy na jej temat. Kiedy ludzie wiedzą, jak przekonujące mogą być deepfake'i, jest mniej prawdopodobne, że wezmą każdy film online za dobrą monetę. Wiedza o deepfake'ach staje się częścią umiejętności korzystania z mediów.

Wraz z rozwojem technologii deepfake, rozwija się również technologia wykrywania, czy wideo jest generowane, czy nie. Jak w grze w kotka i myszkę, twórcy deepfake'ów są zawsze następnymi, którzy wykonują ruch, podczas gdy ci, którzy próbują je wykryć, starają się nadążyć.

Wreszcie, blockchain może zaoferować rozwiązanie kwestii weryfikacji treści wideo. Dzięki automatycznemu stemplowaniu wideo "znakiem wodnym", który jest rejestrowany w łańcuchu bloków podczas filmowania, "znaki wodne" mogą być później wykorzystywane jako dowód na to, że fragment wideo jest prawdziwy. Wszystko, co ludzie lub media muszą zrobić, aby ustalić, czy wideo jest fałszywe, to sprawdzić, czy ma znak wodny.

(30 minut)

Uczniowie debatują nad wnioskiem "deepfakes powinny być zakazane" i badają argumenty za i przeciw, konsekwencje takich przepisów oraz alternatywne rozwiązania problemów związanych z deepfakami

(Czas opcjonalny)

Pytania do dyskusji

  • Jakie są etyczne implikacje deepfake'ów?
  • Czy tworzenie deepfake'ów powinno być zabronione?
  • Kto jest odpowiedzialny za regulowanie rozprzestrzeniania się deepfake'ów w mediach społecznościowych?
  • Kto powinien zapewnić, że technologia jest rozwijana w sposób minimalizujący szkody?
  • W jaki sposób systemy sądowe powinny radzić sobie z "wiarygodnym zaprzeczeniem" spowodowanym przez deepfakes?