Algorytmizacja przestrzeni medialnej
W pierwszej dekadzie XXI wieku wraz z postępującą cyfryzacją i digitalizacją badacze zajmujący się kulturą cyfrową jako pierwsi zwracali uwagę na rolę i znaczenie oprogramowania w różnorodnych procesach kulturowych, społecznych i ekonomicznych. Lawrence Lessig w książce „Code. Version 2.0” (2006) pisał wówczas, że to „kod stanowi prawo”, Lev Manovich w „Języku nowych mediów” (2001/2006) sformułował założenia dla nowej dyscypliny badawczej "software studies" (programoznawstwo), a Douglas Rushkoff przestrzegał w „Program or be programed” (2010) przed „byciem zaprogramowanym”. Pod koniec drugiej dekady XXI wieku jako jednostki i społeczeństwa doświadczamy coraz wyraźniej efektów tych zmian w postaci profilowania (komercyjnego, ale i politycznego) czy szerzenia się na masową skalę różnych form dezinformacji (nie tylko w postaci fake newsów, ale i teorii spiskowych).
W społeczeństwie zdanetyzowanym (zob. Głęboka mediatyzacja ) coraz więcej aspektów naszego życia jest zapośredniczanych, regulowanych lub wzmacnianych przez niewidzialne technologie, oparte na algorytmicznym przetwarzaniu danych. Algorytmy nie mogą działać bez danych, natomiast dane funkcjonują w szerokim kontekście całego złożonego systemu społeczno-technologicznego, służącego ich generowaniu, nazywanego przez Roba Kitchina „asamblażem danych” (data assemblage) [1]. W sensie społecznym algorytm nie oznacza zaszyfrowanej procedury, która służy do rozwiązania problemu poprzez przekształcenie danych wejściowych w pożądane dane wyjściowe, lecz obejmuje szereg elementów (m.in.:
- infrastrukturę, w tym sieci obliczeniowe, których algorytmy są częścią;
- publiczny interfejs API;
- ludzi, którzy projektują i obsługują algorytmy;
- dane (i użytkowników), na których działają;
- instytucje, które świadczą te usługi;
- zachowania użytkowników;
- modele biznesowe;
- politykę).
Infrastruktura technologiczna służąca zbieraniu danych oraz kierowaniu na ich podstawie spersonalizowanych treści jest nazywana przez Anthony’ego Nadlera, Matthew Craina oraz Joan Donovan [2] Cyfrową Maszyną Wpływu (Digital Influence Machine). Składa się ona z szeregu technologii służących do:
- śledzenia;
- określania grupy docelowej i szczegółowych profili konsumentów;
- automatyzacji, optymalizowania i personalizowania przekazu w celu zwiększenia skuteczności i wydajności reklamy komercyjnej oraz politycznej.
Cyfrowa Maszyna Wpływu funkcjonuje w ramach określonego „reżimu widzialności”, konceptualizowanego jako system władzy złożony z trzech wymiarów: architektonicznego (struktura, która to umożliwia), interakcyjnego (rodzaj interakcji, na jaką pozwala struktura) oraz politycznego (działania władzy, na które pozwala interakcja) [3]. Widzialność jest jednym z ważniejszych pojęć w naukach o komunikacji i mediach, a jako pole społeczne określa, w jaki sposób struktury relacji są widoczne, przypisuje również jednostkom i ich działaniom wewnętrznie relacyjne i ambiwalentne pozycje społeczne [4].
W ten sposób działanie algorytmów podporządkowane jest określonym celom i ideologiom, ukrytym przed odbiorcami i opinią publiczną, co powoduje, że stanowią one rodzaj czarnej skrzynki, czyli narzędzia, którego działanie pozostaje nieznane (black box). Działają one według zdefiniowanych przez człowieka określonych reguł, które często są nieprzejrzyste lub których mogą nauczyć się w czasie rzeczywistym, na podstawie analizy konkretnych zachowań, postaw, wyborów i decyzji użytkowników, obarczonych – jak wiadomo – błędem stronniczości (algorithmic bias). Dlatego też tak istotne staje się badanie „odpowiedzialności algorytmicznej” (algorithmic accountability), czyli tego, w jaki sposób technologie obliczeniowe wpływają na demokrację, społeczeństwo i codzienne życie.
Przykład 1: Algorytmy Facebooka
Algorytmiczna widzialność w wymiarze architektonicznym rzutuje na sposób oraz rodzaj interakcji z dostępną treścią. Jeśli użytkownikowi pojawiają się treści, którymi jest zainteresowany, ponieważ wiążą się z jego światopoglądem lub odpowiadają preferencjom politycznym, będzie częściej podejmował interakcje z nimi. Również w ten sposób jest narzucana bądź podpowiadana przez technologię – oprogramowanie – określoną wizję świata (wartości, relacji społecznych), odzwierciedlającą bądź interesy jej twórców i innych aktorów społecznych, którzy czerpią wspólnie z nimi korzyści, bądź tych, którzy wykorzystują ją w tym celu. Nazwać ją można także „algorytmiczną ideologią”, która wynika z zaprogramowania systemu opartego na algorytmicznym przetwarzaniu danych, dokonującym ich weryfikacji według z góry określonych warunków, w taki sposób, aby osiągnąć określone korzyści.
Powstanie algorytmicznych mediów, czyli platform i portali internetowych, które wyświetlają użytkownikowi treści w oparciu jego o aktywność było skutkiem z jednej strony nadmiaru informacji i treści w sieci, z drugiej – swobody konsumpcyjnej, jaką sieć umożliwiała. W ten sposób przemysł medialny chciał sobie poradzić z fragmentaryzacją widowni, która była efektem przejścia z modelu komunikacji masowej „jeden do wielu” na model komunikacji medialnej „wielu do wielu” (zob. Komunikowanie masowe i medialne – definicja i cechy ). Rozdrobnienie odbiorców mediów na różne grupy ze względu między innymi na gusta, zainteresowania i potrzeby okazało się na dłuższą metę wyzwaniem dla branży medialnej, która musiała zabiegać o uwagę użytkownika w dobie nadprodukcji treści. Dzięki zbieraniu różnorodnych danych o użytkownikach, a zwłaszcza ich zachowaniach w sieci, wyborach, gustach czy zainteresowaniach, można było niewielkim kosztem dostosowywać ofertę do ich preferencji.
Jak wynika z badań [6], algorytmizacji treści towarzyszą różnego rodzaju obawy. Jednymi z częstszych w odniesieniu do konsumpcji newsów internetowych są: obawa przed stronniczością algorytmów i brakiem różnorodności punktów widzenia, lęk przed tym, że coś ważnego może nas omijać, a także obawa o własną prywatność.
Źródło: Rosa-Luxemburg-Stiftung, How to hold algorithms accountable, 17.05.2017 (dostęp 23.11.2020). Dostępne w YouTube: https://youtu.be/4UHh6BUhLSI.
Zadanie 1:
Treść zadania:
W jaki sposób twoim zdaniem zmiana algorytmów na portalu Facebook wpłynęła na zachowania poszczególnych uczestników sieci komunikacyjnej tego portalu?Zadanie 2:
Treść zadania:
Jakie widzisz rozwiązania w zakresie wyeliminowania stronniczości algorytmów? Czy jest to w ogóle możliwe?Bibliografia
1. Kitchin, R.: The Data Revolution: Big Data, Open Data, Data Infrastructures & Their Consequences, Sage Publications, Thousand Oaks 2014.2. Nadler, A., Crain, M., Donovan, J.: Weaponizing the Digital Influence Machine: The Political Perils of Online Ad Tech, Data Society, New York 2018, dostęp:11.09.2020
3. Brighenti, A. M.: Visibility in Social Theory and Social Research, Palgrave McMillan, London 2010, dostęp:11.09.2020
4. Mateus, S.: Visibility as a Key Concept in Communication and Media Studies, Estudos em Comunicação 2017, 2(25), dostęp:11.09.2020
5. Bell, E., Owen, T., Brown, P., Hauka, C., Rashidian, N.: The platform press. How Sillicon Valey reengineered journalism, The Center for Digital Journalism, New York 2017, dostęp:11.09.2020
6. Thurman, N., Moeller, J., Helberger, N., Trilling, D.: My Friends, Editors, Algorithms, and I, Digital Journalism 2019, 7(4), dostęp:11.09.2020