Pavel Kasík„Kodex pro práci s nástroji AI jsme zavedli z jiných důvodů, než si lidé asi myslí,“ říká novinář Seznam Zpráv a analytik Pavel Kasík. Seznam Zprávy byly pravděpodobně jedno z prvních médií, které se o nastavení pravidel využívání umělé inteligence pokusilo.
V rozhovoru pro EJO Kasík vysvětluje, že kodex byl vytvořen nejen kvůli obavám o kvalitu generovaných textů, ale také s cílem ochránit novinářskou integritu a transparentnost v době, kdy AI nástroje rychle mění podobu mediálního světa.
„Už v dubnu 2023 jsme mezi prvními psali kodex o umělé inteligenci. Mnoho lidí si myslelo, že ho zavádíme proto, že texty jazykových modelů nejsou dost dobré a kvalitní,“ komentuje novinář.
Umělá inteligence doplňuje, ale nenahrazuje novinářskou práci
Jazykové modely se v současné době učí velmi rychle. Ačkoliv čeština nebývá jejich nejsilnější stránkou, základní gramatiku i pravopis zvládají. Navíc jejich tvrzení obvykle dávají na první čtení smysl. Základem úspěchu dobře seastaveného textu bývá správně sepsaný prompt, tedy soubor pokynů, jakou informaci a jakým stylem mají vytvořit.
Přesto jazykové modely zatím novináře nemohou nahradit. K tomu jim chybí jednak schopnost přinášet nové, dosud nepopsané informace, a pak také schopnost rozlišovat pravdu od zjevného výmyslu.
Seznam Zprávy svůj kodex zveřejnily a u svých článků pak garantují autorství člověka nad robotem. „AI nástroje [redaktoři] využívají pouze pro zrychlení příprav, zpřesnění nebo jiné zkvalitnění svého původního obsahu,“ udává kodex.
Seznam zásad umožňuje využívat umělou inteligenci k inspiraci po stylistické či obsahové stránce, zakazuje ale využití jakéhokoliv generovaného textu.
Kodex se dotýká také obrázků. U každého díla vytvořeného pomocí AI musí být tato informace uvedena, jinak by generátory měly sloužit spíše jako inspirace pro novináře k výběru snímků. Mnohdy nabídnou rozmanitější pohled na ilustrační obrázky, než jaké jsou běžně k nalezení pomocí klíčových slov ve fotobankách.
Role novináře spočívá i ve výběru zpráv
Podle Kasíka by měl novinář vždy vědět, odkud informace čerpá a měl by to čtenářům sdělovat. Samozřejmě, pokud k utajení citlivých zdrojů nejsou specifické důvody. Ale i v takovém případě ví o původu informací alespoň další dva lidé v redakci, novinářův nadřízený a šéfredaktor.
„Novinář by zkrátka neměl přispívat k praní špinavých informací, neměl by sloužit jen jako prostředník mezi informací a čtenářem, měl by zprávu ověřit a znát její původ,“ dodává Kasík.
U umělé inteligence faktor původu zpráv chybí, a to i u placených verzí různorodých jazykových modelů. „Když zadáte kvalitně napsaný prompt, ChatGPT vám vyprodukuje velmi dobře napsaný článek, dost pravděpodobně byste díky jeho využívání zkvalitnili obsah mnoha médií. Jenže novinář, který umělou inteligenci využije k napsání článku, nikdy neví, odkud informace pochází,“ vysvětluje Kasík.
Lidé přitom platí médiím ne za to, že se dočtou nějaké informace, ale že se dočtou takové informace, které někdo cíleně vybral a přiřadil jim určitý stupeň priority. Jazykové modely umělé inteligence nefungují stejně jako vyhledávač, jejich smyslem je vždy vyhovět pokynu, tedy vždy poskytnout informaci. A to dokonce i když není pravdivá.
Pokud by novinář využíval umělou inteligenci jako zdroj backgroundové části svých zpráv, musí být s tématem dostatečně dobře obeznámen, aby mohl ověřit pravdivost sepsaných informací, nebo si musí vymodelovaný text dohledávat a potvrdit si jeho důvěryhodnost. V obou případech je pak celý proces ve výsledku složitější a delší, než kdyby se tématu novinář věnoval bez využít jazykového modelu.
Halucinace jazykových modelů
„Problém jazykového modelu je ten, že vás chce potěšit, chce splnit úkol, přemýšlí samostatně. Tím se liší od jakéhokoliv jiného počítačového softwaru. ChatGPT není vyhledávač, je to jazykový model, lidé si to často pletou,“ vysvětluje Kasík. Když zadáme do jazykového modelu dotaz na informaci, robot nám ji dá, ať je skutečná nebo není. Takovým přeludům, které si jazykový model vymyslí jen proto, aby uspokojil poptávku, se říká halucinace.
Časem podle něj vznikne i robot, který bude schopný rozpoznat dotaz a najít na něj skutečné odpovědi v reálném čase a převede je do souvislého textu, zatím tak ale žádná umělá inteligence nefunguje. „Zatím se chová spíš jak maturant na potítku, když něco neví, nezná, tak rychle něco vymyslí. Za to totiž nejsou trestné body a třeba se zrovna trefí,“ komentuje Kasík. Právě to činí z jazykových modelů nebezpečné pomocníky.
Halucinace jazykových modelů jsou ale také důvodem, proč nám ChatGPT může sloužit k inspiraci. Je totiž na rozdíl od lidského novináře schopný do nekonečna vymýšlet různé a různé formy zadaného textu a limituje ho jen autorova schopnost ukočírovat mnohdy zběsilou kombinaci pokynů. Na rozdíl od lidských kolegů dokáže navrhnout sto titulků k článku během několika vteřin nebo navrhnout zpracování tématu z více úhlů pohledů, které by novináře třeba ani nenapadly.
Redakční robotická rutina
„V redakci používám různé roboty, kteří pomáhají s vylepšováním článků. Upozorní třeba na chybějící graf nebo navrhnou, co by bylo vhodné v článku doplnit. Nevymýšlí si ale žádné informace ani samostatně netvoří obsah jednotlivých článků,“ vysvětluje Kasík.
Stejně tak je pomocí robotických modelů snadné připravit se například na rozhovor, zjistit zajímavosti o respondentovi, seskládat je do otázek, během několika minut zjistit, co již bylo psáno. To, co dříve zabralo i den práce, nyní zvládne novinář s trochou praxe s prompty za dvacet minut. I v takovém případě je ale třeba informace ověřovat, zda si robot skutečnosti trochu nepřibarvil.
Ačkoliv má žurnalistika umělé inteligence plno nevýhod a rizik, může se stát, že robotické jazykové modely budou brzy tvořit obsah velkého množství médií. Tam, kde není třeba vlastní názor, nebo tam, kde jde jen o okamžitý přenos čísel, výsledků či popis situace, to konec konců dělají již dnes.
„Já idealisticky doufám, že se bude jednat pouze o renesanci novinařiny. Že si lidé dále budou rádi platit za to, že články píší a sestavují jejich vybraní novináři,“ uzavírá Kasík.
Tags:AI a novinařina, AI ve médiích, AI žurnalistika, digitální žurnalistika, generování textu, jazykové modely, kodex AI, kvalita obsahu, novinářská etika, novinářská integrita, redakční proces, Seznam Zprávy, umělá inteligence