Proč novináři potřebují rozumět umělé inteligenci

18 října, 2018 • Nejnovější příspěvky, Nová média a Web 2.0, Top příspěvky • by

Umělá inteligence je opravdovou černou skříňkou.

Novináři informují o fenoménu, který je těžko vysvětlitelný, dokonce i pro odborníky v oboru. A co víc, většina důležitých konverzací na toto téma se odehrává za zavřenými dveřmi. Spousta hlavních pokroků v této oblasti je soukromá, takže veřejnost je až příliš závislá na jednostranných tiskových zprávách korporátních organizací, které maximalizují užitek akcionářů a minimalizují risk. Prozatím jsou veřejně dostupné informace silně akademické a vyžadují pokročilé znalosti oboru, aby bylo možné dešifrovat cokoliv kromě shrnutí.

Proč je stěžejní, aby novináři rozuměli umělé inteligenci

Novináři potřebují rozvíjet svoje znalosti o umělé inteligenci ještě dříve, než naruší naše redakce a naši společnost. Musíme se zlepšit ve vysvětlování této technologie, která zasahuje téměř všechny aspekty našich životů – od určování toho, které filmy se objeví v našem seznamu na Netflixu, až po to, zdali splňujeme předpoklady pro získání půjčky. Ale pro rozvinutí plynulosti musí mít člověk solidní znalosti infrastruktury, která umělou inteligenci pohání – datových souborů, které krmí systémy a odkud tyto informace pochází.

Zaprvé, datové soubory a způsob, jakým jsou sbírány, užívány a komprimovány, mohou ovlivnit výsledky jakéhokoliv systému. Tohle vypadá jako samozřejmá věc. Ale i základní otázka – „Která informace je v tréninkových datech pro tento model umělé inteligence?“ – může vést k velmi komplexní odpovědi.

Například některé důležité datové soubory používané pro strojové učení jsou složené z milionů obrázků. Programátor většinou umí zodpovědět otázku, odkud data pochází nebo z které knihovny byly použity, aby vygeneroval výsledky. Ale co je to za informaci, která knihovnu tvoří? Donedávna bylo složité na toto odpovědět.

Tréninková data musí mít spoustu položek, aby pracovala, takže většina knihoven obvykle sbírá a kompiluje informace z několika masivních datových úložišť, jako jsou Google Images nebo Flickr. A zatímco většina míst se snaží zajistit, aby zadaná data byla řádně kategorizována, chyby mohou nastat ve větším měřítku.

V roce 2015 se společnosti Google dostalo velké publicity kvůli přešlapu, kterého si všimnul softwarový inženýr Jacky Alciné, jenž zjistil, že rozpoznávací algoritmy Google Photos označovaly černochy za „gorily“. Je to strašná a rasistická asociace, ale proč by se to v první řadě mělo stát? Většina expertů z oblasti umělé inteligence věděla proč. Nebyl za tím žádný rasistický inženýr, který by v zákulisí schválně zapříčinil chaos. Byl to datový soubor, který byl vytrénovaný na více obrázcích goril než Afroameričanů.

Ještě záludnější je to, jak tento problém vyřešit: v roce 2018 server Wired v návaznosti na tuto kauzu v jednom svém textu poukázal na to, že Google uplatnil řešení, které blokovalo rozpoznávací systémy od identifikování goril, ale stále nenapravil základní problém.

A nezapomeňte, že Google tento datový soubor, který je poháněný tím, že do něj uživatelé nahrávají svoje fotografie, vlastní. A to byl jen jeden příklad, který byl zachycen a zveřejněn.

Záležitosti tohoto typu jsou častější, než si myslíme; lidé z Googlu spolu s týmem výzkumníků umělé inteligence (Google People + AI Research) vytvořili nástroj pro vizualizaci dat zvaný Facets. Facets je nyní otevřený zdroj a umí si hrát s daty a vytvořit přehlednější vizualizaci informací, které jsou prezentovány. Výzkumníci Fernanda Viégas a Martin Wattenberg vysvětlují genialitu tohoto systému a toho, co umí odhalit, během MoMA (Museum of Modern Art v New Yorku) R&D (Research and Development) salónu:

Díky Facets jsou chyby a předpojatosti v datových souborech viditelné. Několik prvních příkladů předpojatosti je neškodných. Například letadla jsou převážně modrá, což může systém zmást při snaze identifikovat červené nebo stříbrné létající objekty jako stejnou věc. Prázdné mezery, chyby a místa, kde se lidé a počítače neshodují při rozlišování kategorií, jsou také snadno viditelné. Ale některé předsudky není snadné opravit a to může být docela kompromitující. Na stejném salónu akademická a výzkumná pracovnice Kate Crawfordová spojila základní předpojatost ve fotografování a ve zprávách – například to, proč je datový soubor nejvíce označovaných tváří na webu ze 78 procent složený z bílých mužů – do kategorizačních chyb v umělé inteligenci.

Žádné jednoduché odpovědi

Při reportování o umělé inteligenci a při snaze jí porozumět neexistují žádné jednoduché odpovědi a tyto příklady jenom kloužou po povrchu větších dopadů předpojatých systémů. Spousta technologických a datových novinářů investovala do pochopení principů programování. Navrhuji, aby všichni novináři začali studovat, jak funguje výpočetní technika a programování na základní úrovni.

Nemusíte se chtít stát programátorem nebo dokonce získávat znalosti v jazyce, jako je Python, abyste mohli informovat o umělé inteligenci. Stačí se podívat na to, jak vývojáři přistupují k řešení problémů, což napomáhá pochopit to, jak jsou tyto systémy postaveny a navrženy. To pak zlepší naše rámování těchto záležitostí při reportování a našem chápání toho, jak tyto systémy nakonec ovlivňují naši redakci.

Protože my, novináři, nerozumíme základům toho, jak funguje umělá inteligence, jsme náchylní k tomu, že postrádáme širší kontext nebo jsme vystaveni senzacechtivosti. Rachel Thomasová, spoluzakladatelka Fast.ai, nedávno převzala Harvard Business Review, aby se věnovala lekcím, které jsou použitelné k tomu, jak novináři smýšlí o umělé inteligenci, a sdílela je:

„Média často vytvářejí pokroky v oblasti umělé inteligence optikou lidé vs. stroje: kdo je šampiónem v úloze X. Tento rámec je stejně nepřesný jako používání většiny algoritmů a je to i velmi omezený způsob, jak o umělé inteligenci přemýšlet. V každém případě mají algoritmy lidskou složku, co se týče toho, kdo shromažďuje data (a jaké mají předsudky), jaké jsou návrhy rozhodnutí, jak jsou implementovány, jak jsou výsledky používány při rozhodování, pochopení různých zúčastněných stran a správné použití a omezení algoritmu atd.“

Pochopení strojového učení a umělé inteligence je tolik o rámcování. Pokládáte-li lepší otázky a nastavujete-li lepší parametry, získáváte lepší výsledek. Novináři jsou trénováni, aby zkoumali rámce. V naší práci to považujeme za samozřejmé. Ale abychom mohli skutečně informovat veřejnost o plném potenciálu revoluce v oblasti umělé inteligence, musíme pracovat se silnější znalostní základnou.

 

Tento článek se poprvé objevil na webu AI Ethics Initiative. Zde je přeložen z angličtiny a je publikován se souhlasem autorky.

Také se rychle blíží konečný termín výzvy AI Ethics Initiative, která nabízí částku 750 000 dolarů za myšlenky, které ovlivňují vliv umělé inteligence (AI) na oblast zpráv a informací. Kdokoliv po celém světě může předložit nápad v jedné ze čtyř kategorií, které řeší naléhavé problémy.

Tags:, , , , ,

Komentáře jsou uzavřené.

Send this to a friend