The Rise of the Robot Reporter – był jednym z najbardziej przerażających nagłówków, który ukazał się w ubiegłym roku w New York Times. W artykule zauważano, że już jedna trzecia zawartości Bloomberg News tworzona jest przez należący do tej firmy automatyczny system „Cyborg”. Strach ten zdaje się dotyczyć przede wszystkim dziennikarzy, którzy już od jakiegoś czasu obawiają się, że grozi im odejście do lamusa i zostaną zastąpieni przez algorytm.
Ta obawa zyskała sobie miano „strachu przez automatyzacją” [automation anxiety]. Gdy brytyjskie pismo branżowe Press Gazette zapytało swoich czytelników w tym roku, czy widzą sztuczną inteligencję jako zagrożenie czy jako okazję, ponad 1200 osób (69%) stwierdziło, że jest to raczej zagrożenie.
Nie ma jednak przed tym ucieczki. W dniach 7-11 grudnia Polis, think-tank z London School of Economics, gościł wydarzenie pod nazwą Journalism AI Festival 2020, poświęcone związkom dziennikarstwa i sztucznej inteligencji. Raport Polis opublikowany w poprzednim roku pokazał, że około połowa spośród 71 badanych organizacji medialnych z 32 krajów używała już wtedy sztucznej informacji do gromadzenia informacji, dwie trzecie do produkcji newsów, a połowę do ich dystrybucji. W Wielkiej Brytanii na przykład serwis prasowy Press Association używa oprogramowania do przygotowania szybciej i w większej skali lokalnych informacji opartych na danych, zaś The Times używa sztucznej inteligencji do tworzenia newsletterów dopasowanych do zainteresowań subskrybentów.
Człowiek-reporter vs R2D2
Nie jest niespodzianką to, że dziennikarzy w największym stopniu interesuje to, w jaki sposób zmienią się ich zawodowe praktyki. Przede wszystkim zaś to, czy nie zostaną zastąpieni przez medialne odpowiedniki znanego z serii filmów „Gwiezdne Wojny” droida R2D2. Biorąc pod uwagę fakt, że sztuczna inteligencja bez wątpienia będzie odgrywać coraz większą rolę w tym zakresie, co raport Polis stwierdza bez wątpliwości, można także zacząć zastanawiać się nad etycznymi aspektami tego procesu.
W ramach projektu DMINR AI journalism na City, University of London, w którym to projekcie uczestniczę jako badaczka, staraliśmy się od początku włączać w nasze działania dziennikarzy, by stworzyć narzędzia użyteczne dla nich samych. Odwiedziliśmy kilkanaście dużych redakcji, by porozmawiać z reporterami i obserwować ich pracę, sposób używania sztucznej inteligencji i ich obawy z tym związane. Musieliśmy także przekonać ich, że nasze narzędzia, jak i inne z narzędzi, pozwolą im używać sztucznej inteligencji w sposób etyczny.
Sztuczna inteligencja i etyka
Jednym z pierwszych problemów etycznych zidentyfikowanych w raporcie Polis są obawy członków redakcji, że sztuczna inteligencja to jedynie sposób oszczędzania pieniędzy. Jest też jednak wiele innych. Stronniczość w dziennikarstwie była i jest dość szeroko omawiana (np. w pracach Michaela Schudsona), a co ze stronniczością algorytmów? Może to dotyczyć problemów technicznych związanych z wprowadzaniem danych, ale także odzwierciedlania przez algorytmy ludzkiej stronniczości w zakresie np. rasy czy płci – o czym pisała chociażby dawna dziennikarka ProPublica, Julia Angwin. Dowiodła ona, że program stworzony przez amerykański resort sprawiedliwości do przewidywania, czy oskarżeni będą skłonni wracać na drogę przestępstwa, miał w praktyce charakter dyskryminujący względem czarnoskórych obywateli.
Ujawniły się również obawy dotyczące baniek informacyjnych, efektu potwierdzenia czy nawet generowania tzw. deep fakes. Nie jest to oczywiście nic nowego, czego dowodzi opublikowany ostatnio artykuł z Columbia Journalism Review dotyczący nowojorskiej Wystawy Światowej z 1964 roku.
Są też jednak opinie odwrotne i sztuczna inteligencja jest przez niektórych uważana za drogę do bardziej etycznego dziennikarstwa. Czy może ona pomóc odkryć ukryte powiązania, których inaczej byśmy nie odkryli? I czy trwająca debata na temat stronniczości związanej ze sztuczną inteligencją oznacza, że redakcje będą musiały w efekcie być bardziej transparentne i otwarte wobec swojej publiczności, by tłumaczyć jej, co faktycznie robią?
Element ludzki
Jeff Jarvis ukuł dekadę temu pojęcie „dziennikarstwo procesu” (process journalism) jako alternatywę dla „dziennikarstwa produktu” (product journalism), by zilustrować zmianę sposobu pokazywania wiadomości i odchodzenie od tworzenia w redakcjach gotowych historii oraz przejście do tworzenia materiałów, które są na bieżąco uzupełniane na bazie interakcji z publicznością medium. Czy zatem otwartość w kwestii sztucznej inteligencji może przyczynić się do odbudowania słabnącego zaufania do brytyjskich mediów?
Prawdą jest, że do tej pory koncentrowano się raczej na potencjalnych problemach związanych ze sztuczną inteligencją niż na możliwych korzyściach. Z tego powodu jeszcze ważniejszym jest, by badacze i inicjatorzy zmian na tym polu wchodzili w interakcje z dziennikarzami od początku, by przekonać ich, że te etyczne problemy są do rozwiązania. Jeden z respondentów w raporcie Polis powiedział: „Największym błędem, jaki widziałem w przeszłości, jest traktowanie integracji technologii w otoczeniu społecznym jako prostej kwestii z zakresu IT. W rzeczywistości to skomplikowany proces społeczny”.
Dziennikarzom, którzy wciąż cierpią na lęk przed automatyzacją, możemy zatem wlać w serca nieco optymizmu. Carl Gustav Linden w artykule opublikowanym w Digital Journalism w roku 2015, napisał, że pytaniem, które powinniśmy sobie zadawać, jest: dlaczego po dekadach automatyzacji wciąż mamy tyle miejsc pracy w dziennikarstwie? Odpowiedź: mimo 40 lat automatyzacji dziennikarstwo jako przemysł kreatywny pokazało odporność, duże zdolności adaptacji i ograniczenia wpływu nowych technologii. Jesteśmy wciąż daleko od momentu, w którym dziennikarski R2D2 zastąpi reportera-człowieka.
Tagialgorytmy, automatyzacja dziennikarstwa, etyka dziennikarska, ProPublica, stronniczość mediów, sztuczna inteligencja, transparencja, zatrudnienie w mediach