Loading...
 

Algorytmizacja przestrzeni medialnej

W pierwszej dekadzie XXI wieku wraz z postępującą cyfryzacją i digitalizacją badacze zajmujący się kulturą cyfrową jako pierwsi zwracali uwagę na rolę i znaczenie oprogramowania w różnorodnych procesach kulturowych, społecznych i ekonomicznych. Lawrence Lessig w książce „Code. Version 2.0” (2006) pisał wówczas, że to „kod stanowi prawo”, Lev Manovich w „Języku nowych mediów” (2001/2006) sformułował założenia dla nowej dyscypliny badawczej "software studies" (programoznawstwo), a Douglas Rushkoff przestrzegał w „Program or be programed” (2010) przed „byciem zaprogramowanym”. Pod koniec drugiej dekady XXI wieku jako jednostki i społeczeństwa doświadczamy coraz wyraźniej efektów tych zmian w postaci profilowania (komercyjnego, ale i politycznego) czy szerzenia się na masową skalę różnych form dezinformacji (nie tylko w postaci fake newsów, ale i teorii spiskowych).

W społeczeństwie zdanetyzowanym (zob. Głęboka mediatyzacja ) coraz więcej aspektów naszego życia jest zapośredniczanych, regulowanych lub wzmacnianych przez niewidzialne technologie, oparte na algorytmicznym przetwarzaniu danych. Algorytmy nie mogą działać bez danych, natomiast dane funkcjonują w szerokim kontekście całego złożonego systemu społeczno-technologicznego, służącego ich generowaniu, nazywanego przez Roba Kitchina „asamblażem danych” (data assemblage) [1]. W sensie społecznym algorytm nie oznacza zaszyfrowanej procedury, która służy do rozwiązania problemu poprzez przekształcenie danych wejściowych w pożądane dane wyjściowe, lecz obejmuje szereg elementów (m.in.:

  • infrastrukturę, w tym sieci obliczeniowe, których algorytmy są częścią;
  • publiczny interfejs API;
  • ludzi, którzy projektują i obsługują algorytmy;
  • dane (i użytkowników), na których działają;
  • instytucje, które świadczą te usługi;
  • zachowania użytkowników;
  • modele biznesowe;
  • politykę).


Infrastruktura technologiczna służąca zbieraniu danych oraz kierowaniu na ich podstawie spersonalizowanych treści jest nazywana przez Anthony’ego Nadlera, Matthew Craina oraz Joan Donovan [2] Cyfrową Maszyną Wpływu (Digital Influence Machine). Składa się ona z szeregu technologii służących do:

  • śledzenia;
  • określania grupy docelowej i szczegółowych profili konsumentów;
  • automatyzacji, optymalizowania i personalizowania przekazu w celu zwiększenia skuteczności i wydajności reklamy komercyjnej oraz politycznej.


Cyfrowa Maszyna Wpływu funkcjonuje w ramach określonego „reżimu widzialności”, konceptualizowanego jako system władzy złożony z trzech wymiarów: architektonicznego (struktura, która to umożliwia), interakcyjnego (rodzaj interakcji, na jaką pozwala struktura) oraz politycznego (działania władzy, na które pozwala interakcja) [3]. Widzialność jest jednym z ważniejszych pojęć w naukach o komunikacji i mediach, a jako pole społeczne określa, w jaki sposób struktury relacji są widoczne, przypisuje również jednostkom i ich działaniom wewnętrznie relacyjne i ambiwalentne pozycje społeczne [4].

W ten sposób działanie algorytmów podporządkowane jest określonym celom i ideologiom, ukrytym przed odbiorcami i opinią publiczną, co powoduje, że stanowią one rodzaj czarnej skrzynki, czyli narzędzia, którego działanie pozostaje nieznane (black box). Działają one według zdefiniowanych przez człowieka określonych reguł, które często są nieprzejrzyste lub których mogą nauczyć się w czasie rzeczywistym, na podstawie analizy konkretnych zachowań, postaw, wyborów i decyzji użytkowników, obarczonych – jak wiadomo – błędem stronniczości (algorithmic bias). Dlatego też tak istotne staje się badanie „odpowiedzialności algorytmicznej” (algorithmic accountability), czyli tego, w jaki sposób technologie obliczeniowe wpływają na demokrację, społeczeństwo i codzienne życie.

Przykład 1: Algorytmy Facebooka


Facebook był jedną z pierwszych firm technologicznych, która z sukcesem wdrożyła na szeroką skalę na swojej platformie społecznościowej działania oparte na algorytmizacji. Od czasu uruchomienia w 2006 roku kanału informacyjnego, tzw. tablicy (News Feed), na którym wyświetlano posty innych użytkowników, firma zmieniała działanie algorytmu wielokrotnie, za każdym razem w inny sposób komunikując powody zmiany. Przykładowo w 2015 roku Facebook zmienił działanie algorytmu w taki sposób, aby na tablicy priorytetowo wyświetlały się posty od rodziny i znajomych, a także aby liczył się czas spędzony na przeczytanie udostępnionego artykułu a nie reakcja na niego. W 2016 roku Facebook ulepszył kanał informacyjny, aby ograniczyć liczbę zawartości, których celem jest skłonienie do kliknięcia w konkretny link (clickbait). Z kolei w 2018 roku FB zmienił algorytmu, aby priorytetowo wyświetlał informacje publikowane przez przyjaciół i rodzinę, premiował transmisje live, posty inicjujące dyskusję oraz pogłębiające relacje [5].

Algorytmiczna widzialność w wymiarze architektonicznym rzutuje na sposób oraz rodzaj interakcji z dostępną treścią. Jeśli użytkownikowi pojawiają się treści, którymi jest zainteresowany, ponieważ wiążą się z jego światopoglądem lub odpowiadają preferencjom politycznym, będzie częściej podejmował interakcje z nimi. Również w ten sposób jest narzucana bądź podpowiadana przez technologię – oprogramowanie – określoną wizję świata (wartości, relacji społecznych), odzwierciedlającą bądź interesy jej twórców i innych aktorów społecznych, którzy czerpią wspólnie z nimi korzyści, bądź tych, którzy wykorzystują ją w tym celu. Nazwać ją można także „algorytmiczną ideologią”, która wynika z zaprogramowania systemu opartego na algorytmicznym przetwarzaniu danych, dokonującym ich weryfikacji według z góry określonych warunków, w taki sposób, aby osiągnąć określone korzyści.

Powstanie algorytmicznych mediów, czyli platform i portali internetowych, które wyświetlają użytkownikowi treści w oparciu jego o aktywność było skutkiem z jednej strony nadmiaru informacji i treści w sieci, z drugiej – swobody konsumpcyjnej, jaką sieć umożliwiała. W ten sposób przemysł medialny chciał sobie poradzić z fragmentaryzacją widowni, która była efektem przejścia z modelu komunikacji masowej „jeden do wielu” na model komunikacji medialnej „wielu do wielu” (zob. Komunikowanie masowe i medialne – definicja i cechy ). Rozdrobnienie odbiorców mediów na różne grupy ze względu między innymi na gusta, zainteresowania i potrzeby okazało się na dłuższą metę wyzwaniem dla branży medialnej, która musiała zabiegać o uwagę użytkownika w dobie nadprodukcji treści. Dzięki zbieraniu różnorodnych danych o użytkownikach, a zwłaszcza ich zachowaniach w sieci, wyborach, gustach czy zainteresowaniach, można było niewielkim kosztem dostosowywać ofertę do ich preferencji.

Jak wynika z badań [6], algorytmizacji treści towarzyszą różnego rodzaju obawy. Jednymi z częstszych w odniesieniu do konsumpcji newsów internetowych są: obawa przed stronniczością algorytmów i brakiem różnorodności punktów widzenia, lęk przed tym, że coś ważnego może nas omijać, a także obawa o własną prywatność.

Źródło: Rosa-Luxemburg-Stiftung, How to hold algorithms accountable, 17.05.2017 (dostęp 23.11.2020). Dostępne w YouTube: https://youtu.be/4UHh6BUhLSI(external link).

Zadanie 1:

Treść zadania:
W jaki sposób twoim zdaniem zmiana algorytmów na portalu Facebook wpłynęła na zachowania poszczególnych uczestników sieci komunikacyjnej tego portalu?

Zadanie 2:

Treść zadania:
Jakie widzisz rozwiązania w zakresie wyeliminowania stronniczości algorytmów? Czy jest to w ogóle możliwe?

Ostatnio zmieniona Wtorek 26 z Styczeń, 2021 10:42:10 UTC Autor: Grzegorz Ptaszek
Zaloguj się/Zarejestruj w OPEN AGH e-podręczniki
Czy masz już hasło?

Hasło powinno mieć przynajmniej 8 znaków, litery i cyfry oraz co najmniej jeden znak specjalny.

Przypominanie hasła

Wprowadź swój adres e-mail, abyśmy mogli przesłać Ci informację o nowym haśle.
Dziękujemy za rejestrację!
Na wskazany w rejestracji adres został wysłany e-mail z linkiem aktywacyjnym.
Wprowadzone hasło/login są błędne.