Akt o usługach cyfrowych (DSA), który oficjalnie wszedł w życie 16 listopada 2022 r., stanowi przełom dla badań nad mediami społecznościowymi. Wymagając od bardzo dużych platform internetowych (VLOP) i bardzo dużych wyszukiwarek internetowych (VLOSE) zapewnienia badaczom wglądu do dostępnych danych, unijne prawo pozwoli zrewolucjonizować kwestie związane z transparentnością tych procesów. W czasach, gdy dezinformacja, stronniczość algorytmów i błędy w moderowaniu treści kształtują dyskurs publiczny, dostęp do danych platform ma kluczowe znaczenie dla zrozumienia, jak owe procesy w istocie przebiegają.
Jednak choć DSA stanowi krok naprzód, daleko mu do idealnego rozwiązania. Platformy zareagowały na różne sposoby, wprowadzając niespójne wdrożenia, ograniczenia dostępu i przeszkody techniczne, które obniżają skuteczność przepisów. Chodzi zatem nie tylko o to, co się zmienia, ale czy zmiany te rzeczywiście pomogą badaczom w wykonywaniu ich pracy.
DSA: przełom w zakresie przejrzystości platform?
Przez lata badania nad mediami społecznościowymi były ograniczane przez nieprzejrzyste zasady, nieprzewidywalne wyłączenia API (interfejsy programowania aplikacji) i restrykcyjne warunki korzystania z usług. Badanie skoordynowanych kampanii dezinformacyjnych, manipulacji zaangażowaniem i amplifikacji treści często wymagało stosowania obejść – od zbierania publicznie dostępnych danych po poleganie na dobrowolnych inicjatywach platform w zakresie przejrzystości, z których wiele mogło zostać zablokowanych w dowolnym momencie.
UE stara się to zmienić za pomocą DSA. Artykuł 40.12 stanowi, że platformy mediów społecznościowych muszą zapewnić badaczom dostęp do publicznie dostępnych danych – bez konieczności zawierania specjalnych umów lub uzyskiwania uprzywilejowanego dostępu. Dane te obejmują wszystko, od publicznych postów i wskaźników zaangażowania po metadane dotyczące sposobu rozpowszechniania treści.
Cel? Stworzenie stabilnej, niezawodnej i skalowalnej infrastruktury badawczej, umożliwiającej badaczom analizowanie ryzyka systemowego, w obszarach takich jak dezinformacja, ingerencja w wybory i szkody powodowane przez działalność w internecie.
Taka przynajmniej jest teoria. Rzeczywistość okazuje się bardziej skomplikowana.
Obietnica dostępu do danych: co działa?
Po raz pierwszy platformy są prawnie zobowiązane do zapewnienia dostępu do ustrukturyzowanych danych naukowcom zajmującym się badaniem ryzyka systemowego, takiego jak dezinformacja, amplifikacja algorytmiczna i manipulacja w internecie. Chociaż interfejsy API i narzędzia badawcze istniały już wcześniej, często były one zawodne, fragmentaryczne lub ograniczone do wybranych partnerów. Dzięki aktowi o usługach cyfrowych sytuacja zmienia się w kierunku bardziej ustrukturyzowanych i egzekwowalnych ram, zmniejszających ryzyko arbitralnego wyłączenia lub ograniczenia dostępu do danych.
Niektóre platformy zaczęły wprowadzać interaktywne pulpity nawigacyjne, zaprojektowane dla badaczy bez wiedzy technicznej, aby mogli oni analizować trendy zaangażowania, filtrować treści i generować wnioski bez pisania choćby jednej linii kodu. Pulpity te obniżają barierę wejścia, ułatwiając dziennikarzom, decydentom i naukowcom bez wiedzy programistycznej analizę zachowań platform.
Osobom prowadzącym badania ilościowe na dużą skalę interfejsy programowania aplikacji (API) zapewniają bezpośredni dostęp do ogromnych zbiorów danych. API umożliwiają badaczom pobieranie szczegółowych metadanych dotyczących postów, komentarzy i wskaźników zaangażowania, co pozwala na prowadzenie badań longitudinalnych śledzących ewolucję zachowań online w czasie. W niektórych przypadkach platformy oferują funkcje eksportu danych, umożliwiające zespołom badawczym łączenie zbiorów danych z mediów społecznościowych z innymi źródłami, takimi jak dane wyborcze lub wskaźniki ekonomiczne, w celu odkrycia szerszych wzorców.
Zmiana ta ma ogromne znaczenie dla badań cyfrowych, otwierając nowe możliwości analizy takich zjawisk, jak:
- Sposób rozprzestrzeniania się narracji na różnych platformach, włączając w to amplifikację międzyplatformową i wpływ kluczowych podmiotów.
- Rodzaje treści amplifikowanych przez algorytmiczne systemy rankingowe (tendencyjność, zjawisko echo chamber i mechanizmy wirusowości).
- Wpływ polityki moderacji na zaangażowanie i widoczność w czasie, by ocenić, czy egzekwowanie jest spójne, skuteczne lub podatne na niezamierzone konsekwencje.
- Rola sieci botów i skoordynowanych operacji wywierania wpływu, poprzez krzyżowe odniesienia metadanych i wzorców zaangażowania w celu wykrywania taktyk manipulacji w czasie rzeczywistym.
Jednak prawdziwym wyzwaniem nie jest tylko dostęp do danych, ale zapewnienie, że są one kompletne, użyteczne i porównywalne między platformami. Bez standardowych formatów, spójnych struktur metadanych i przejrzystości w zakresie pominięć danych nawet najbardziej zaawansowane narzędzia narażone są na ryzyko generowania niekompletnych lub mylących wniosków. Potencjał istnieje, ale jego realizacja pozostaje kwestią otwartą.
Wady DSA: rozdrobniony system
Pomimo ambitnych założeń ustawy, dostęp do danych w ramach DSA pozostaje rozdrobniony. Każdy VLOP i VLOSE interpretuje przepisy w inny sposób, co prowadzi do:
- poważnych rozbieżności w rodzaju i ilości dostarczanych danych;
- różnego stopnia przejrzystości w zakresie tego, co jest uwzględnione (lub wyłączone) z zestawów danych;
- znaczących niespójności w strukturach API, co sprawia, że porównania między platformami są prawie niemożliwe.
Na przykład, podczas gdy niektóre platformy oferują szczegółowe wskaźniki zaangażowania, inne udostępniają jedynie zagregowane statystyki, pozbawiając je cennego kontekstu. W niektórych przypadkach publicznie dostępne dane są zablokowane procesami aplikacyjnymi, co wymaga od badaczy przedłożenia obszernej dokumentacji, zanim uzyskają dostęp.
Bariery techniczne jeszcze bardziej utrudniają sprawę. Na przykład limity szybkości łącz ograniczają liczbę zapytań API, które badacz może wysłać w danym czasie. Utrudnia to, a nawet uniemożliwia gromadzenie danych na dużą skalę w czasie rzeczywistym. W przypadku badań dotyczących szybko zmieniających się wydarzeń, takich jak wybory lub fala dezinformacji, opóźnienia w dostępie mogą sprawić, że wyniki badań staną się nieaktualne zanim jeszcze zostaną opublikowane.
Ponadto pojawia się kwestia dokładności danych. Kilku badaczy zgłosiło już rozbieżności między danymi API a tym, co faktycznie widać na platformach, co budzi obawy, czy platformy selektywnie filtrują informacje lub ograniczają zakres badań. Bez niezależnych mechanizmów audytu weryfikacja wiarygodności danych staje się trudnym zadaniem.
Biurokratyczny labirynt dostępu do danych
Oprócz ograniczeń technicznych, badacze napotykają na znaczne przeszkody biurokratyczne wynikające z DSA. Platformy często wymagają:
- szczegółowych wniosków projektowych, zawierających cele badań, metodologię i oczekiwane wyniki;
- wsparcia instytucjonalnego, co utrudnia dostęp niezależnym badaczom lub dziennikarzom;
- ścisłych zatwierdzeń etycznych, które choć są konieczne, powodują opóźnienia w badaniach, w których czas ma kluczowe znaczenie.
Nawet po pokonaniu tych przeszkód proces zatwierdzania pozostaje nieprzejrzysty. Badacze często zgłaszają długi czas oczekiwania i niejasne kryteria odrzucenia wniosków, co powoduje frustrację i niepewność co do tego, czy kiedykolwiek uzyskają dostęp do danych.
Ponadto niektóre platformy wymagają od badaczy pracy w bezpiecznych środowiskach badawczych, takich jak wirtualne czyste pomieszczenia, w których dane mogą być analizowane, ale nie mogą być eksportowane. Chociaż środki te mają na celu ochronę prywatności użytkowników, stwarzają one również wyzwania logistyczne, które ograniczają możliwości wykorzystania i integracji danych przez badaczy w szerszych badaniach.
Naprawa systemu: co należy zrobić?
Aby DSA spełniła swoje obietnice, konieczne są skoordynowane działania platform, organów regulacyjnych i społeczności naukowej. Istnieją co najmniej trzy kluczowe obszary, które wymagają pilnej uwagi.
- Standaryzacja dostępu do danych
Platformy muszą ujednolicić swoje interfejsy API, dokumentację i formaty danych, aby umożliwić analizę międzyplatformową. Bez ujednoliconej struktury naukowcy będą nadal borykać się z fragmentarycznymi, niespójnymi zbiorami danych, które utrudniają przeprowadzanie miarodajnych porównań.
- Zwiększona przejrzystość procesów składania wniosków
Kryteria dostępu do danych platform powinny być jasne i publicznie dostępne. Platformy muszą usprawnić procesy zatwierdzania, ograniczyć zbędne bariery biurokratyczne i zapewnić terminowe odpowiedzi na wnioski o dostęp.
- Niezależny audyt i weryfikacja
Aby zapewnić wiarygodność danych, należy przeprowadzać audyty zewnętrzne zbiorów danych udostępnianych przez platformy. Pomogłoby to wykryć stronniczość, brakujące informacje lub manipulacje, które mogłyby zafałszować wyniki badań.
Od silosów do synergii: wzmocnienie sieci badawczych
Zapewnienie wiarygodności danych i narzędzi wymaga jednak również silniejszej, bardziej powiązanej społeczności badaczy. Obecnie naukowcy pracujący w ramach DSA często współpracują z platformami indywidualnie, negocjując dostęp, rozwiązując problemy techniczne i poruszając się po nieprzejrzystych procesach zatwierdzania, w dużej mierze samodzielnie. Takie silosowe podejście powoduje nieefektywność i uniemożliwia wspólne rozwiązywanie problemów, które mogłoby znacznie poprawić wyniki badań.
Jedną z głównych kwestii jest brak wspólnej przestrzeni, w której naukowcy i inne zainteresowane strony mające dostęp do API mogłyby komunikować się w czasie rzeczywistym. Gdy coś idzie nie tak – czy to nieoczekiwana awaria API, brakujące pola danych czy niespójności między zbiorami danych – nie ma możliwości natychmiastowego ustalenia, czy problem jest powszechny, czy dotyczy tylko jednego użytkownika. Naukowcy muszą polegać na przedstawicielach platformy, którzy udzielają wyjaśnień, co spowalnia badania i powoduje niepotrzebne zatory.
Brak scentralizowanej sieci badawczej utrudnia również opracowywanie i rozpowszechnianie najlepszych praktyk. Każda grupa musi samodzielnie opracowywać metodologie, wytyczne etyczne i techniki walidacji danych, często odkrywając koło na nowo, zamiast korzystać z wiedzy zbiorowej. Ta fragmentacja osłabia szerszy wpływ badań i ogranicza możliwość pociągnięcia platform do odpowiedzialności.
Aby sprostać tym wyzwaniom, potrzebna jest skoordynowana infrastruktura, która ułatwi horyzontalną wymianę informacji, szybkie i wspólne rozwiązywanie problemów. Utworzenie niezależnych forów badawczych, wspólnych repozytoriów dokumentacji i otwartych centrów wiedzy pozwoliłoby na szybsze dostosowanie się do zmian technicznych, skuteczniejszy nadzór nad danymi dostarczanymi przez platformy oraz silniejszy wspólny głos w kształtowaniu przyszłych inicjatyw na rzecz przejrzystości.
Krok naprzód, ale nie meta
Akt o usługach cyfrowych miał stanowić punkt zwrotny dla przejrzystości cyfrowej, zmuszając gigantów mediów społecznościowych do otwarcia się na badaczy zajmujących się dezinformacją, stronniczością algorytmów i zarządzaniem platformami. Pod wieloma względami tak się stało. Poprawił się dostęp do ustrukturyzowanych zbiorów danych, interfejsów API i narzędzi zapewniających przejrzystość, co stworzyło nowe możliwości analizowania sposobu rozpowszechniania treści, wpływu algorytmów na zaangażowanie użytkowników oraz wpływu polityki moderacji na widoczność.
Jednak sam dostęp nie wystarczy. Jeśli dane są niekompletne, niespójne lub ograniczone przez bariery techniczne i biurokratyczne, cierpią na tym badania naukowe, a wraz z nimi zdolność społeczeństwa do zrozumienia tego, co dzieje się w internecie. Bez znormalizowanych interfejsów API badania międzyplatformowe pozostają trudne. Bez jasnych i skutecznych procedur składania wniosków niezależni badacze i dziennikarze narażeni są na ryzyko wykluczenia. Bez silniejszych gwarancji wiarygodności danych wyniki badań mogą być zafałszowane przez ukryte pominięcia lub rozbieżności.
Co się stanie, jeśli problemy te nie zostaną rozwiązane? Stawka jest wysoka. Sieci dezinformacji nie będą czekać na łatwiejszy dostęp do narzędzi badawczych. Manipulacje polityczne, oszustwa gospodarcze i algorytmiczne wzmocnienia ewoluują w czasie rzeczywistym, kształtując opinię publiczną, zanim badacze zdążą zebrać dane potrzebne do ich analizy. Ryzyko nie polega tylko na spowolnieniu badań – chodzi o całkowite utracenie szerszej perspektywy w tym zakresie.
Kolejny krok nie polega na przepisywaniu zasad, ale na zapewnieniu, że zadziałają one zgodnie z zamierzeniami. Kluczowe znaczenie będą miały bardziej rygorystyczne standardy dostępu do danych, większa przejrzystość sposobu udostępniania informacji przez platformy oraz społeczność badaczy, która będzie mogła testować, weryfikować i udoskonalać te systemy w miarę upływu czasu. Jeśli świat cyfrowy ma być rozliczany, osoby, które go badają, muszą otrzymać narzędzia niezbędne do wykonywania swojej pracy – bez przeszkód, niepewności i kompromisów.
Podwaliny zostały położone. Teraz nadszedł czas, aby zbudować coś trwałego.
Zdjęcie: flickr.com
Tagibadania internetu, dezinformacja, Digital Services Act, DSA, projekt PROMPT, VLOP, VLOSE