Papež v péřovce, ukrajinský prezident Volodymyr Zelenskyj deklarující mír ve válce s Ruskem. To jsou jedny z posledních případů, kdy došlo k manipulaci vizuálního obsahu, který se dostal do médií. V posledních letech se mluvilo především o hrozbě takzvaných deepfake videí, snímky vytvořené umělou inteligencí se však momentálně mohou jevit jako větší problém. Opravdu už ale nemůžeme věřit tomu, co vidíme, jak varoval v roce 2019 americký deník The New York Times?
Zmíněný komentář deníku The New York Times varoval před „příchodem“ deepfakes, tedy syntetických videí, ve kterých je záměrně upravena realita. Autoři studie Cutting through the Hype: Understanding the Implications of Deepfakes for the Fact-Checking Actor-Network z Vídeňské univerzity předložili titulek komentáře, jež se objevil v americkém deníku (ten zní Deepfakes Are Coming. We Can No Longer Believe What We See) spolu s dalším z The Verge, který zastával opačný postoj (nazvaný Deepfake propaganda is not a real problem) expertům, kteří se zaměřují na ověřování podobných videí. Výsledek? Zatím se dají považovat za problém, který se dá zvládnout. Dokonce podle nich zatím nemůžeme ani hovořit o existenci „deepfake propagandy“.
Autoři studie poukazují na to, že problematika deepfake je zveličována především médii. Dotazovaní experti zdůrazňují technickou, ale především finanční, náročnost technologie, která zatím nedosahuje dostatečných kvalit. Mediální diskurs tím spíše vytváří prostor pro výmluvy politiků, kteří se mohou u nelichotivého obsahu odvolávat právě na deepfake. A vyvrátit to pak trvá.
Že se ale jedná o hrozbu budoucnosti, nevylučují. „Mám tendenci s The New York Times souhlasit v tom, že se to stane lehké, ale teď to tak lehké není,“ uvedl jeden z respondentů.
Média ale vyzývají k pozornosti směrem k výrobě revenge porn, nekonsensuální pornografie, kdy může dojít k dosazení obličeje do explicitních videí, jež se následně šíří na internetu. Na rozdíl od politiků nemají oběti prostor pro obranu a obsah na ně může mít zdrcující dopad.
Problém dekontextualizované fotografie
Jako „skutečný problém“ vidí odborníci na vyvracení dezinformací dekontextualizované obrazy – snímky nebo videa, která jsou vytržená z kontextu nebo nesprávně použitá jako důkaz nepravdivé informace. Děje se tak především u válečných konfliktů, kdy se šíří snímky z předešlých válek jako ukázka té aktuální. Příklady se dají najít i u současných událostí jako je válka na Ukrajině – často dochází k záměně snímků z Krymu z roku 2014.
Nejen, že jdou podobné materiály velmi snadno vytvořit, ale žijí svým životem i poté, co je fact-checkeři ověří. „V tomto případě lidi často nezajímá, co na fotografii skutečně je,“ uvedl v rozhovoru jeden z respondentů.
Umělá inteligence fotografem
Podobně jednoduchým nástrojem je fotografie vytvořená umělou inteligencí třeba pomocí programu Midjourney. Že snímky mohou být místy zaměnitelné za skutečné fotografie, ukázal příklad papeže Františka ve velkém bílém kabátě. Okamžitě se stal virální a mnozí uvěřili, že se jedná o skutečnou fotografii.
Obrázek 1: Uměle vytvořená fotografie Papeže Františka v bílém kabátě (Zdroj: Twitter / Midjourney)
Jak snadné je rozeznat snímky umělé inteligence vyzkoušel server Českého rozhlasu iROZHLAS.cz na svých čtenářích. V „klikačce“ promíchal reálné snímky s výtvory Midjourney. Do projektu se zapojilo přes 40 tisíc uživatelů – bez chyby to lidé zvládli jenom ve 289 případech. Průměrná úspěšnost u 21 snímku dosáhla 63,85 procent. Výsledky ukázaly, že se technologie postupně zlepšuje. Stále se ale dají snímky rozeznat.
Jakub Sedláček, který působí na Studiích nových médií Univerzity Karlovy, pro iROZHLAS.cz uvedl, že by si lidé měli dávat pozor na detaily. Umělá inteligence zatím neumí dokonale kreslit osoby nebo textury pozadí. Znázorněné osoby mají i často problémy držet objekty.
Dlouho s tím ale problém mít nemusí, řekla redaktorům Sandra Lábová z IKSŽ FSV UK. „Před třemi roky jsme o generování podobně přesných obrázků nemohli hovořit, dnes je to rozšířený fenomén,“ konstatovala pro server. Díky většímu zapojení a lepším technologii ale dojde i k větší obezřetnosti uživatelů, dodala.
Obrázek 2 Ukázka aplikace serveru iROZHLAS.cz
Ověřování nad zlato
Jak proti podobným vizuálním dezinformacím bojovat? Ne všechny mediální domy si mohou dovolit zaměstnat odborníky. Zatím ani neexistuje program, který by byl při detekci a následném určení pravosti stoprocentně úspěšný.
Autorky studie Teresa Weikmann a Sophie Lecheler uvedly, že jimi vyzpovídaných 15 expertů na fact-checking se stále uchyluje, i přes zavádění nových technologií, k manuálnímu ověřování.
Mnohé z metod ověřování fotografií jsou dostupné i běžným uživatelům, třeba reverse-image search pomocí Googlu, kdy si dohledáte, jak byla fotografie v minulosti použita. U videí to není tak snadné a specialisté mnohdy musí volit u sofistikovanějších děl sledování videa po jednotlivých záběrech. Někdy tak snímky vidí i více než stokrát. Pomůže rovněž ověřování geolokace pomocí online map.
Respondenti také nakousli téma deepfake audia, které je problematické především v Jižní Americe a Indii, kde se podobný materiál šíří pomocí lokálně oblíbené aplikace WhatsApp. Bez vizuálního obsahu je těžší detekovat podvrh. „…mohl bych vytvořit deepfake audio prezidenta, jak něco říká. Protože nic nevidíte, je méně pravděpodobné, že to vaše uši zachytí,“ obává se expert, která tento nástroj vidí jako potenciální hrozbu pro ovlivnění voleb.
Máme se bát?
Výzkum ukázal, že obavy médií ohledně deepfake videí jsou zatím přehnané. Ovlivňují to především technické a finanční nároky na technologie, které jsou hůře dostupné. S postupujícím vývojem se ovšem situace může změnit.
Odborníci ale vyzývají novináře, aby se v případě deepfakes zaměřili na problematiku revenge porn, jež může mít značné dopady na oběti.
Studie zdůrazňuje i další podoby šíření dezinformací skrze dekontextualizované fotografie, což považují za hlavní hrozbu i vzhledem k téměř nulovému vstupnímu kapitálu a nenáročnosti technologie.
Aktuální vyvstávajícím problémem jsou rovněž výtvory umělé inteligence jako je třeba program Midjourney, jež už teď mohou být zaměněné za skutečné fotografie. I když není technologie i v tomto případě dokonalá, zlepšuje se nevídanou rychlostí. I proto reagují autoři na zakázání některých promptů (příkazů), díky kterým mohou být vytvořeny například karikatury politiků.
Jaká bude budoucnost? Na to studie nedopovídá. Fakt je ale ten, že technologie jdou dopředu rychlostí světla. A novináři by měli být na pozoru.
Tags:AI, boj s dezinformacemi, Český rozhlas, deepfake, dezinformace, digitální média, etika, fact-checking, fotografie, sociální média, umělá inteligence, video, žurnalistika