Ponarejeni posnetki (Deepfakes)

Ponarejeni posnetek
Ponarejeni posnetek (ang. deepfake) je videoposnetek ali zvočni posnetek, ki zamenja obraz ali glas nekoga drugega tako, da je posnetek videti resničen. Cambridge Dictionary

Na tak način ustvarjeni ponaredki so v porastu in lahko za vedno spremenijo naš odnos do posnetih zvočnih ali video vsebin.

V tej učni uri učenci_ke spoznajo, kako nastajajo ti ponaredki in katera tehnologija je omogočila njihov razvoj. Po ogledu nekaterih primerov posnetkov ustvarjenih s tehnologijo globokega ponarejanja in njihovih posledic bodo učenci_ke razpravljali_e o tem, kako naj se družbe v prihodnosti s tem spopadajo.

Splošni cilji

  • Spoznavanje ponaredkov in njihovega nastanka
  • Razumevanje dejanskih posledic in možnih rešitev

Aktivnosti

Teorija (15 minut) - frontalno

Učencem_kam predstavite koncept ponarejenih posnetkov in jim pokažite priložene videoposnetke.

Aim: učenci_ke spoznajo, kako se izdelujejo in uporabljajo globoki ponaredki.

Vaja (30 minut) - razred

Učenci_ke debatirajo o trditvi "ponarejene posnetke bi morali prepovedati" in preučujejo argumente za in proti, posledice takšne zakonodaje in alternativne rešitve za težave, ki jih povzročajo globoki ponaredki.

Aim: učenci_ke kritično razmišljajo o tem, kako naj se vlade spopadejo s ponaredki.

Vprašanja za razpravo (neobvezno) - razred

Z učenci_kami se pogovorite o nekaterih predlaganih vprašanjih za diskusijo.

Aim: refleksija na temo.


Teorija (15 minut)

Zgodovina

Manipulacija slik je znana že nekaj časa. V preteklosti so jo uporabljali diktatorji_ke, pa tudi umetniki_ce, da bi se pri ljudeh spremenilo dojemanje resničnosti. Od odstranjevanja ljudi, ki so padli v nemilost Stalinu, do dodajanja umrlega_e družinskega člana_ice na družinski portret. Škarje, lepilo in potrpežljivost so bile glavne sestavine "photoshoppinga" preden se je tudi na tem področju pojavil tehnološki napredek.

Vse to se je seveda spremenilo, ko so se pojavili računalniki in je postala mogoča tudi digitalna obdelava slik. Z razvojem orodij in njihovo vedno lažjo uporabo se je povečalo število ponarejenih slik - od gradiva, ki se uporablja za izsiljevanje, do memov -, ki so bile v obtoku. Internet je imel pri njihovem ustvarjanju in razširjanju veliko vlogo.

Zaradi vse pogostejših lažnih novic in programa Photoshop je presojanje vsebine, ki jo vidimo na spletu, lahko težavno. Videoposnetek se nam je zdel kot zadnji medij, ki je lahko govoril sam zase in v njegovo verodostojnost nam ni bilo potrebno dvomiti. Zdaj je tehnologija dohitela tudi video in začelo se je obdobje globokih ponaredkov.

Ponarejeni posnetek (ang. deepfake) je videoposnetek ali zvočni posnetek, ki zamenja obraz ali glas nekoga drugega tako, da je posnetek videti resničen.

Cambridge Dictionary

Takšni ponaredki obstajajo že od 90. let prejšnjega stoletja, vendar so bili večino svojega obstoja videti grozno in smo jih enostavno prepoznali. Računalniški_e znanstveniki_ce so postavili temelje za prihodnji razvoj, vendar je bil potreben napredek na področju procesorske moči, umetne inteligence in drugih tehnologij, da so se pojavili prepričljivi ponaredki.

Čeprav je težko reči, ali že obstaja popoln globok ponaredek, so nedavni poskusi prevarali že veliko ljudi. Družbe in vlade se težko spopadajo z etičnimi, političnimi in novinarskimi posledicami razvoja globokih ponaredkov.

Kako delujejo tovrstni ponaredki

V svojem bistvu takšni ponaredki uporabljajo podobno tehnologijo kot filtri Snapchata ali Instagrama. Programska oprema skenira obraz osebe in ugotovi, kateri del slike predstavlja določeni del telesa. Z drugimi besedami, računalnik razume, kako je videti obraz. Ko aplikacija na primer najde vaše oči in nos, lahko ugotovi, kdaj mežikate in kako se premikajo vaše ustnice, ko govorite.

Globoki ponaredki s pomočjo strojnega učenja interpretirajo, kako se oseba A giba in obnaša, ter to prekrijejo s podobo druge osebe, na primer znane osebnosti (oseba B). Za to je treba algoritem strojnega učenja usposobiti s čim več izvornega video gradiva osebe B, s katerim bomo našo osebo A “prekrili”. Če oseba A pomežikne, umetna inteligenca črpa iz izvornega gradiva, da bi pomežiknila tudi lažna slika osebe B.

Oglejte si nekajminutni globoki ponaredek bivšega nizozemskega predsednika vlade Marka Rutteja, ki se opravičuje, ker ni pokazal vodilne vloge v podnebni krizi (v nastavitvah vklopite angleške (ali celo slovenske) podnapise).

Beste Mark Rutte, zo klink je als je #klimaatleiderschap toont

Videoposnetek o tem, kaj bi se zgodilo, če bi pristanek Apolla 11 na Luni spodletel, z interaktivnim kvizom, v katerem se sprašujete, kateri deli so bili pravi in kateri ponarejeni.

https://moondisaster.org/film

Tudi če je oseba v videoposnetku videti dovolj prepričljivo, je težava običajno v pravilni izdelavi glasu. V preteklosti so glasovni_e igralci_ke posnemali_e osebo, ki so jo želeli upodobiti. Zdaj pa se umetna inteligenca uporablja tudi za ustvarjanje ponarejenih glasov. S skeniranjem glasovnih posnetkov je mogoče umetno inteligenco naučiti, da z glasom nekoga pove nove stvari, ki jih ta oseba ni nikoli rekla - podobno kot se z uporabo izvornega video gradiva doseže, da podoba nekoga dela nekaj, kar ni nikoli naredila.

Jay-Z odrappa stavek "Biti ali ne biti" iz Hamleta (Sinteza govora)

Primeri vokalne sinteze

Ko se združi lažne videoposnetke in lažne glasove, je vedno težje razlikovati med resnico in lažjo. Kot smo videli že prej, se lahko globoki ponaredek uporablja za upodabljanje ljudi na oblasti, na primer (bivšega) predsednika vlade Marka Rutteja. Ta ponaredek je izdelal časopis, pri čemer je navedel, da je videoposnetek ponaredek in kako je bil ustvarjen. Toda predstavljajte si deepfake političnega_e voditelja_ice, ki razglasi ukaz za jedrski napad, brez navedbe, da gledamo globoki ponaredek.

Etične posledice ponaredkov

Tovrstni ponaredki so že bili uporabljeni za izsiljevanje ljudi, goljufije in širjenje lažnih novic. Tehnologijo so uporabili tudi za ustvarjanje pornografskega gradiva znanih osebnosti in tako imenovane "maščevalne pornografije".

V Gabonu v Srednji Afriki so govorice o videoposnetku predsednika, ki je bil ponarejen, mnoge prepričale, da je predsednik dejansko umrl. Predsednik je doživel kap, kar je pojasnilo, zakaj je bil na videoposnetku, zaradi katerega so se pojavile govorice o deepfakeu, videti nekoliko ne čisto "tu". Špekulacije pa so imele resnične posledice in so podžgale ogenj, ki je na koncu pripeljal do poskusa državnega udara.

Največje tveganje, ki ga tovrstni ponaredki predstavljajo, pa morda ni niti širjenje lažnih novic. Če bi bil vsak videoposnetek lahko lažen, bi to ljudem, ki so bili ujeti na videoposnetku, ko so naredili nekaj narobe, omogočilo izhod iz situacije. To se imenuje možnost dvoma, kar je sicer koncept, ki v slovenskem pravu ni priznan, razširjen pa je v drugih državah, kar pomeni možnost zanikanja odgovornosti za obsojanja vredna dejanja. Ponaredki sprožajo filozofsko vprašanje: kako lahko določimo, kaj je res, če je vse mogoče ponarediti?

Prvi način za odpravljanje škodljivih učinkov te nove tehnologije je širjenje ozaveščenosti in znanja o njej. Ko bodo ljudje vedeli, kako prepričljivi so lahko ti ponaredki, bodo manj verjetno vsak spletni videoposnetek videli kot resničen. Poznavanje obstoja ponaredkov postaja del medijske pismenosti.

Z razvojem tehnologije globokih ponaredkov se razvija tudi tehnologija za odkrivanje, ali je videoposnetek pristen ali ne. V tem lovu so ustvarjalci_ke ponaredkov vedno tisti_e, ki naredijo naslednjo potezo, medtem ko jih tisti_e, ki jih poskušajo odkriti, poskušajo dohiteti.

Končno, tehnologija veriženja blokov (ang. blockchain) bi lahko ponudila rešitev za preverjanje video vsebin. S samodejnim žigosanjem videoposnetka z "vodnim žigom", ki je med snemanjem zabeležen v verigi, se lahko "vodni žigi" pozneje uporabijo kot dokaz, da je videoposnetek resničen. Vse, kar morajo ljudje ali mediji storiti, da ugotovijo, ali je videoposnetek ponarejen, je, da preverijo, ali ima vodni žig.

Vaja (30 minut)

Učenci_ke razpravljajo o trditvi "prepovedati je treba ponarejene posnetke" in preučujejo argumente za in proti, posledice takšne zakonodaje in alternativne rešitve za težave, ki jih povzročajo ponaredki.

Vprašanja za razpravo (neobvezno)

  • Kakšne so etične posledice globokih ponaredkov?
  • Ali je treba prepovedati ustvarjanje globokih ponaredkov?
  • Kdo je odgovoren za urejanje širjenja lažnih kopij v družbenih medijih?
  • Kdo mora zagotoviti, da se tehnologija razvija tako, da je škoda čim manjša?
  • Kako naj sodni sistemi obravnavajo možnosti dvoma, ki jo povzročajo globoki ponaredki?