Jak dziennikarstwo łączy siły z AI, aby walczyć z dezinformacją w sieci

11 października 2022 • Dziennikarstwo Branżowe, Etyka Dziennikarska, Najnowsze • by

Nie jest tajemnicą, że dezinformacja, napędzana przez algorytmy wielkich firm technologicznych dające priorytet wirusowości, jest wszechobecna w sieci. Dziennikarze od dawna demaskują kłamstwa krążące w sieci i ludzi, którzy za nimi stoją. Teraz niektóre start-upy mają nadzieję, że sztuczna inteligencja (AI) może pomóc organizacjom dziennikarskim w wykonywaniu ich pracy.

Był to jeden z punktów dyskusji w ostatnim raporcie zatytułowanym „AI Startups and the Fight Against Mis/Disinformation: An Update report”, który został opublikowany przez The German Marshall Fund for the US. Opracowanie zawiera wywiady z niektórymi organizacjami próbującymi współpracować z redakcjami.

Idea jest prosta: AI może pomóc ludziom w identyfikowaniu dezinformacji online poprzez błyskawiczne sprawdzanie faktów w newsach i innych krążących wiadomościach oraz uwierzytelnianie treści w celu poprawy proweniencji – czyli naszej zdolności do identyfikacji charakteru, pochodzenia i celu informacji. Można mieć nadzieję, że zwiększy to zaufanie konsumentów do wiadomości.

Problemy z zaufaniem do mediów

Postęp w każdym z tych trzech obszarów ma kluczowe znaczenie, biorąc pod uwagę fakt, że według Edelman Trust Barometer z 2022 roku 76% z nas obawia się, że „fałszywe informacje lub fake newsy mogą być wykorzystywane jako broń”, a prawie połowa (46%) postrzega media jako „siłę dzielącą społeczeństwo”. Warto zauważyć, że poziom zaufania jest wyższy w krajach, w których działają szanowani nadawcy publiczni, w tym w Szwecji, Danii i Wielkiej Brytanii.

Te obawy dotyczące zaufania do mediów skłoniły Journalism Trust Initiative (JTI) i NewsGuard do opracowania systemów oceny, aby widzowie i reklamodawcy wiedzieli, które media są wiarygodne. JTI, kierowana przez Reporterów bez Granic, opracowuje i wdraża „wskaźniki wiarygodności w dziennikarstwie”. NewsGuard, założony, prowadzony i obsługiwany przez zawodowych dziennikarzy, stworzył „ranking” wiadomości – opisując je kolorami: Zielonym („ogólnie godna zaufania”) lub Czerwonym („ogólnie niegodna zaufania”) – w oparciu o dziewięć kryteriów. Ma to pomóc stworzyć „etykietę” dla stron informacyjnych, analogicznie jak opisuje się wartości odżywcze na opakowaniach produktów spożywczych.

Vett News, wspierany przez Fundację Knight, wykorzystuje technologię do ustanowienia pętli zwrotnej pomiędzy konsumentami wiadomości a ich producentami, ułatwiając oznaczanie i poprawianie literówek, błędów rzeczowych i stronniczości lub dołączanie dodatkowego kontekstu. The Factual wykorzystuje platformę informacyjną opartą na sztucznej inteligencji do identyfikacji bezstronnych wiadomości dla konsumentów zainteresowanych godnymi zaufania źródłami.

Sztuczna inteligencja jako rozwiązanie

„Pomyśl o AI jako o uzupełnieniu ludzkiego myślenia, a nie o jego zastąpieniu” – zasugerował Arjun Moorthy, współzałożyciel i CEO w The Factual, w wywiadzie dla raportu German Marshall Fund. „Podczas gdy komputery mogą powiedzieć, czy dany fakt jest prawdziwy czy fałszywy, wiązanie faktów razem i zrozumienie wiadomości wymaga ogromnego kontekstu i historii, w czym ludzie są doskonali. Stąd AI może pomóc w identyfikacji wszystkich faktów i ułatwić ludziom dojście do własnych wniosków”.

W wywiadzie dotyczącym procesu sprawdzania faktów, menadżer ds. społeczności i wpływu w The Poynter Institute’s International Fact-Checking Network (IFCN), Enock Nyariki, omówił rolę AI w sprawdzaniu faktów. Wyjaśnił, że proces ten może trwać od dwóch godzin do wielu tygodni. Obejmuje on identyfikację twierdzeń, badania, pisanie i edycję przed publikacją. Natomiast zautomatyzowane sprawdzanie faktów odbywa się w czasie rzeczywistym. Opiera się na technologii, która porównuje wprowadzające w błąd twierdzenia z opublikowanymi wynikami kontroli faktów.

Zautomatyzowany fact-checking

„IFCN został uruchomiony w 2015 roku, aby połączyć rosnącą społeczność fact-checkerów na całym świecie i promować doskonałość w walce z fałszywymi informacjami” – powiedział Nyariki. W ciągu ostatnich siedmiu lat sieć IFCN wzrosła z około 30 do ponad 100 organizacji.

Od 2016 roku grupa otrzymała fundusze i informacje od wielkich firm technologicznych, aby zapewnić usługi fact-checkingu. W ramach programu Meta’s Third-Party Fact-Checking Program, fact-checkerzy współpracujący z IFCN oceniają prawdziwość twierdzeń na Facebooku i Instagramie i dołączają fact-checki do postów z fałszywymi informacjami, wyjaśnił Nyariki.

Na przykład IFCN zwołała fact-checkerów z dziesięciu różnych organizacji w Stanach Zjednoczonych podczas wyborów prezydenckich w 2020 roku, aby stworzyć wspólną bazę danych opublikowanych kontroli faktów. Baza ta mogłaby być przeszukiwana podczas wydarzeń o wysokiej randze, takich jak debaty prezydenckie, aby umożliwić sprawdzanie faktów w czasie rzeczywistym.

Tego rodzaju zautomatyzowana kontrola faktów jest jednak w początkowej fazie rozwoju i nadal kształtowana jest przez instytucje akademickie, takie jak Reporters’ Lab w Sanford School of Public Policy na Duke University, oraz początkujące firmy, takie jak Full Fact z siedzibą w Londynie. Full Fact wykorzystuje trzy zautomatyzowane narzędzia, które wykrywają i kategoryzują twierdzenia, porównują je z istniejącymi kontrolami faktów i pomagają osobom sprawdzającym fakty poprzez dostarczanie odpowiednich danych statystycznych. Ostatecznie, ta kombinacja narzędzi mogłaby pomóc w natychmiastowej weryfikacji faktów, jak opisano to w niedawnym artykule Poyntera.

Jednak powszechność i zakres mylących treści multimedialnych komplikuje sprawę. W artykule dla Columbia Journalism Review z 2018 roku Nicholas Diakopoulos zapewnił, że: „[…] dowody wizualne mogą w dużej mierze stracić swoją siłę, ponieważ strategiczni dezinformatorzy wykorzystują technologię, aby podważyć wszelkie prawdziwe (weryfikacje)”. Zapytał: „Co się więc stanie, gdy społeczeństwo nie będzie mogło już ufać żadnym mediom, które napotka w sieci?”.

Inne odpowiedzi

Kolejną próbą pomocy w weryfikacji jest sprawdzanie treści. Tradycyjne organizacje informacyjne i duże firmy technologiczne współpracowały w celu ustanowienia nowych standardów autentyczności poprzez Content Authenticity Initiative (CAI), która jest formalną koalicją Adobe, Arm, BBC, Intel, Microsoft i Truepic – technologii uwierzytelniania zdjęć i filmów, która pozwala firmom, organizacjom non-profit, organizacjom pozarządowym i dziennikarzom obywatelskim na całym świecie na weryfikację zdjęć i filmów.

Mounir Ibrahim, wiceprezes ds. publicznych i wpływu w Truepic, powiedział studentom Columbia University pracującym nad raportem German Marshall Fund, że Covid-19 przyspieszył potrzebę weryfikacji, ponieważ duża część społeczeństwa jest teraz zdigitalizowana.

Wnioski

Oczywistym jest, że ekosystem informacyjny jest trwale naznaczony przez rozprzestrzenianie się dezinformacji – nieubłagane w następstwie COVID-19, wyborów prezydenckich w Stanach Zjednoczonych w 2020 r., ataku na Kapitol w Stanach Zjednoczonych i inwazji Rosji na Ukrainę. Same startupy AI nie wystarczą, ale mają do odegrania rolę w pomocy redakcjom.

Cały raport „AI Startups and the Fight Against Mis/Disinformation: An Update” dostępny jest tutaj.

Tagi, , , , ,

Send this to a friend