Během poslední dekády prošlo mediální prostředí obrovskou technologickou transformací, podporovanou rostoucí dostupností internetu a přeměnou uživatelů v tvůrce obsahu. Tato změna vedla k masivnímu nárůstu obsahu, což vytváří výzvu v hodnocení a ověřování obsahu v tak rozsáhlém měřítku. Tento rozvoj změnil způsob, jakým jsou informace tvořeny a šířeny, a také schopnost spotřebitelů rozeznat legitimní obsah.
Pracovníci v médiích se nyní potýkají s výzvou, jak účinně zkoumat a ověřovat obsah, jak budovat dlouhodobou důvěru a působit jako autorita před uživateli, kteří nemají dostatek schopností nebo pozornosti na to, aby sami ověřovali obsah, který konzumují. Zároveň klesá důvěra ve fact-checkingové nástroje, zatímco roste důležitost autority samotného zdroje informací.
Do nového informačního prostředí začínají vstupovat i nové AI nástroje. Ty jsou využívané pro tvorbu obsahu pro sociální sítě, data-mining, generování personalizovaného obsahu, hypertargeting, botting a další. otenciálně tak mohou poškodit fungování i důvěryhodnost tradičních medií.
Na druhou stranu mohou být nástroje AI vhodně využity právě k ověřování (fact-checking) informací, generování repetitivního obsahu, korekturu, operativní činnosti a další. Na druhou stranu mohou být nástroje AI vhodně využity právě k ověřování (fact-checking) informací, generování repetitivního obsahu, korekturu, operativní činnosti a další.
Fact-checking a AI
Fack-checking obecně představuje soubor nástrojů, které se snaží o označování a napravování zavádějících informací a dezinformací ve veřejném prostoru. Rodnou půdou pro tento druh nelegitimního obsahu se stal právě internet a sociální sítě. Wolley a Howard například varují, že právě na těchto místech je zavádějící obsah ještě posilován AI nástroji, které tak daly vzniknout novému druhu propagandy – počítačové. Hlavní obrana proti ní leží v detekci.
Právě k detekci se obrací pozornost současných fact-checkingových nástrojů. Ty lze implementovat různými zbůsoby. AI nástroj je schopný automaticky vysledovat boty a označovat či (a) odstraňovat je. Může takévyhledávat zavádějící obsah a upozornit na něj lidského moderátora či tvůrce, který jej má následně možnost napravit. Případně sleduje podezřelé aktivity a upozorní na hrozby na našich serverech. V neposlední řadě AI nástroje také mohou monitorovat a filtrovat zpravodajský obsah a pomáhat mediím kategorizovat a ověřovat převzaté informace.
Například Londýnská společnost Krzana pomáhá novinářům hledat „breaking news“ podle zvolené customizace za pomoci AI. Novináři tak mohou naleznout zpravodajské informace podle zvolených klíčů a filtrů, které si vyberou. Pomocí tohoto nástroje lze pak hledat i dezinformace – novináři je naleznou a označí, a tak se zpráva rychle vyřadí z šíření mezi ostatní a není přebírána dalšími mediálními domy. Tento nástroj tak pomáhá vyhledávat a ověřovat informace novinářům v reálném čase a sdílet své know-how.
Klesající gramotnost a stoupající apatie konzumenta
Jedním z hlavních limitů fact-checkingových nástrojů a hrozeb pro média je stoupající apatie konzumenta a klesající gramotnost. V indexu mediální gramotnosti si Česká republika vede průměrně, v porovnání s východní Evropou vykazuje větší gramotnost, ale zase pozůstává za západní Evropou. Zároveň jen 56 % Čechů věří, že dokáže rozeznat dezinformace, což je trend pokles.
V rámci výzkumy byly provedené focus group, které ukazují na zajímavé trenty. Jednou z implikací focus group byla například shoda, že současný fack-checkingový model označování namísto učení uživatelů, jak vyhodnotit informace sami, není ideální. Zároveň ale byla diskutována apatie uživatele jako jeden z hlavních limitů fact-checkingu. Uživatel zkrátka nevnímá potřebu ověřovat a disponovat pravdivými informacemi natolik důležitou, aby investoval čas, úsilí a pozornost na ověření. Právě zvyšování mediální a informační gramotnosti může být jedna z cest.
Hybridní model výuky
O vytvoření AI fact-checkingového modelu, který by zároveň učil uživatele ověřovat informace se pokusil tým vědců Nguyen, Khorosekar, Krishman, Krishman, Tate, Wallace a Lease, kteří navrhli výukový model pro rozpoznávání dezinformací. Jejich nástroj poskytuje fact-checking pouze jako asistenční službu pro uživatele, která je má naučit vyhodnocovat a rozhodovat se o autentičnosti informací. Systém má uživatelům poskytnout framework, do kterého mohou vložit své vlastní znalosti.
Systém nalezne relevantní články k danému tématu, vyhodnotí historickou spolehlivost každého zdroje a zaznamená jejich postoj a následně vyhodnotí validitu daného tvrzení. Model vykazuje vůči uživatelům transparentní rozhodovací procesy a je interaktivní, což by mělo uživatelům pomoci s důvěrou v jeho rozhodování a vyhodnocováním informací a osvojit si logický proces k jejich posouzení. Model vyjadřuje míru důvěry ve svá rozhodnutí (např.: 80% jistota, že jde o nedůvěryhodný článek), obecnou reputaci médií, která tvrzení publikují a ostatních médií, která mají opačné tvrzení.
Ačkoliv tento model zaznamenal signifikantní výsledky, které byly pro uživatele zábavnější, díky čemuž jim věnovali větší pozornost, odhalily i slabé místo. AI fact-checkingový nástroj totiž není neomylný a v rámci experimentu i úmyslně dělal chyby, aby uživatele otestoval. Někteří uživatelé v něj ztratili důvěru, což následně může ohrozit také obecnou důvěru v tyto nástroje.
Role medií
Učastníci výše zmiňované focus group se také shodli, že role médií v dnešním prostředí je role autority, založené na důvěře uživatelů a tím medium přenáší tuto důvěru i na obsah, který sdílí. Media by se tedy nástrojům AI měla aktivně bránit tím, že se soustředí na dlouhodobé budování důvěry, s kterým jim může pomoc i AI. Může jim například pomocise vyhýbat se chybám a překlepům (korekturní AI nástroje, AI nástroje generující rutinní zprávy), nemít podezřelá financování (snižovat operativní náklady zapojením AI, finanční audity AI nástroji, Zvyšování hodnoty inzerce hypercílením), nebo přinášet zpravodajství bez názorového sklonu.
Právě zaujatost v mediích je jedním ze současných problémů. Jedná se přitom spíše o celkově nakloněný sentiment celé redakce, který se poté promítá do jednotlivých zpráv. Předpojatost v medíích odhaluje nástroj vyvinutý na ČVUT, který se na základě získaných anotací, které posloužily jako trénovací data, naučil automaticky detekovat, zda jsou vybraná média nějakým způsobem zaujatá.
Média mohou projevovat zaujatost tím, že vybírají konkrétní zprávy k pokrytí a způsob, jakým o něm informují. Jako hodnotící faktory používá tento systém senzualismus/emocionalismus (výslovný sentiment ve výpovědi), subjektivní adjektiva (přídavná jména jako extrémní, trapný, vážný, atd) a osobní útoky nebo urážky. Tento monitoringový systém dokáže na základě těchto dat vyhodnotit zaujatost zkoumaných médií.
Implikace pro média
Závěrem bych ráda reflektovala dynamiku současného mediálního prostředí, zdůraznila výzvy jako auditování obsahu, nutnost adaptace mediálních praktik v reakci na technologickou transformaci, narůstajícího objemu informací a klesající důvěru ve fact-checking.
Média by se tedy měla soustředit na budování dlouhodobé důvěry, plnění role autority v tomto ohledu a zároveň věnovat pozornost AI nejen jako možnému konkurentovi na pracovním trhu, ale i jako asistentovi, který má potenciál pomoc nejen s interními úkoly jako plnění a ověřování obsahu, ale i s celospolečenskými problémy jako klesající mediální gramotností.
Ráda bych také podtrhla důležitost adaptability a spolupráce mezi lidmi a umělou inteligencí pro udržení integrované a důvěryhodné mediální krajiny.
Poznámka k článku
Článek přináší zamyšlení se nad současnou rolí ruzných fact-checkingových nástrojů a jejich vlivem a efektem na publikum. Tento příspěvek vycházejí z podmětů vzešlých ve focus group, které se zúčastnili zástupci z řad novinářů, vývojářů fact-checkingových nástrojů a odborníků na bezpečnostní studia. Tato focus group původně svolaná na téma „Současný vývoj AI nástrojů v České republice a jejich možné využití, limity a predikce ve strategickém boji v informační válce“ se v rámci debaty zaměřila i na téma fact-checkingu a tuto debatu a z ní vzešlé podněty diskutuje i tento článek, například domělý vliv a role médií jako autorit, limity v podobě domělé relevance a důvěryhodnosti, smysl labellingu, rostoucí apatie konzumenta a důležitost mediální gramotnosti populace.
Zdroj úvodního obrázku: Vygenerováno AI přes Dall-e 2023
Tags:AI a média, dezinformace, focus group, hybridní přístup, informační válka, mediální krajina, multidisciplinární výzkum, výzkum AI