Jak data harvesting i sztuczna inteligencja przekształcają krajobraz informacji i wpływają na procesy demokratyczne
Jesteśmy świadkami bezprecedensowego przełomu w historii komunikacji i manipulacji informacyjnej. To, co rozpoczęło się jako sprawa Cambridge Analytica – firmy, która wykorzystała dane 87 milionów użytkowników Facebooka do psychologicznego profilowania wyborców – rozrosło się dziś do globalnego ekosystemu manipulacji cyfrowej. W erze, gdy sztuczna inteligencja potrafi generować przekonujące deepfaki w kilka minut, a algorytmy poznają nasze preferencje lepiej niż my sami, podstawowe pytanie brzmi: czy jako społeczeństwo jesteśmy jeszcze w stanie odróżnić prawdę od fałszu?
Rok 2024 był przełomowy pod wieloma względami. Meta, właściciel Facebooka i Instagrama, ogłosiła w styczniu 2025 roku zakończenie programu fact-checkingu w Stanach Zjednoczonych, zastępując go systemem „notatek społeczności” podobnym do tego stosowanego przez X (dawniej Twitter). To decyzja, która może fundamentalnie zmienić sposób, w jaki informacje są weryfikowane i rozpowszechniane w przestrzeni cyfrowej.
Część I. Rodzaje nadużyć i przestępstw cyfrowych
Gromadzenie danych i manipulacja psychologiczna
Sprawa Cambridge Analytica odsłoniła jedynie wierzchołek góry lodowej. Firma ta wykorzystała aplikację „This Is Your Digital Life” do zbierania danych osobowych użytkowników Facebooka i ich znajomych bez ich świadomej zgody. Zebrane informacje zostały następnie użyte do tworzenia szczegółowych profili psychologicznych, które pozwalały na precyzyjne targetowanie treści politycznych.
Główne mechanizmy nadużyć:
1. Nieautoryzowane zbieranie danych. Cambridge Analytica pozyskała dane nawet 87 milionów profili Facebook poprzez aplikację, która początkowo była używana przez jedynie 270 000 użytkowników. Dzięki ówczesnym ustawieniom platformy, aplikacja mogła również zbierać dane znajomych użytkowników, co doprowadziło do eksplozji skali operacji.
2. Psychograficzne profilowanie. Wykorzystując model osobowości OCEAN (otwartość, sumienność, ekstrawersja, ugodowość, neurotyzm), firma tworzyła szczegółowe profile psychologiczne użytkowników. Te profile były następnie wykorzystywane do tworzenia spersonalizowanych treści politycznych mających wpływać na zachowania wyborcze.
3. Mikrotargetowanie polityczne. Kampanie polityczne, w tym kampania Donalda Trumpa w 2016 roku, wykorzystywały te dane do precyzyjnego targetowania wyborców z personalizowanymi wiadomościami politycznymi. System ten pozwalał na pokazywanie różnych treści różnym grupom wyborców, często wykorzystując ich lęki i uprzedzenia.
Współczesne formy manipulacji cyfrowej
1. Dezinformacja i deepfaki. Choć obawy przed masowym wykorzystaniem deepfake’ów w wyborach 2024 okazały się częściowo przesadzone, technologia ta nadal stanowi rosnące zagrożenie. Analiza 78 przypadków użycia AI w wyborach światowych pokazała, że „tanie podróbki” (cheap fakes) – treści zmanipulowane przy pomocy prostych narzędzi – były używane siedmiokrotnie częściej niż prawdziwe deepfaki.
2. Manipulacja algorytmiczna. Platformy społecznościowe wykorzystują zaawansowane algorytmy do kształtowania tego, co użytkownicy widzą w swoich kanałach informacyjnych. Te systemy potrafią utworzyć „bańki informacyjne”, wzmacniając istniejące przekonania i prowadząc do radykalizacji poglądów.
3. Boty i automatyzacja. Sieci botów są wykorzystywane do sztucznego wzmacniania pewnych narracji, tworzenia fałszywego poczucia poparcia społecznego dla określonych idei oraz do zasypywania przestrzeni publicznej treściami śmieciowymi.
4. Manipulacja emocjonalna. Algorytmy są projektowane tak, aby maksymalizować zaangażowanie użytkowników, często poprzez wywoływanie silnych reakcji emocjonalnych. Treści wywołujące gniew, strach czy oburzenie są faworyzowane przez systemy rekomendacyjne.
Część II: Mechanizmy współczesnej manipulacji cyfrowej
Architektura nadzoru i wpływu
Współczesna manipulacja cyfrowa opiera się na złożonym ekosystemie technologicznym, który łączy zbieranie danych, ich analizę i personalizowane dostarczanie treści. Ten system został przez akademiczkę Shoshana Zuboff nazwany „kapitalizmem inwigilacji”.
1. Zbieranie danych w czasie rzeczywistym. Platformy cyfrowe zbierają ogromne ilości danych o użytkownikach: od oczywistych informacji jak polubienia i udostępnienia, po subtelne wskaźniki jak czas spędzony na oglądaniu określonej treści, wzorce przewijania czy nawet ruch kursora. Te dane tworzą niezwykle szczegółowy obraz preferencji, zachowań i psychologii użytkowników.
2. Uczenie maszynowe i predykcje behawioralne. Zaawansowane systemy AI analizują zebrane dane, aby przewidywać przyszłe zachowania użytkowników. Te predykcje są następnie sprzedawane reklamodawcom i mogą być wykorzystywane do wpływania na decyzje konsumenckie i polityczne.
3. Personalizacja treści. Na podstawie profili użytkowników, algorytmy dobierają treści, które mają największe prawdopodobieństwo wywołania pożądanej reakcji. To może obejmować zarówno reklamy komercyjne, jak i treści polityczne.
Nowe narzędzia manipulacji
1. Generatywna sztuczna inteligencja. Narzędzia jak ChatGPT, DALL-E czy Midjourney umożliwiają tworzenie przekonujących fałszywych treści na niespotykaną wcześniej skalę. Choć w wyborach 2024 nie zostały one wykorzystane tak szeroko jak przewidywano, ich potencjał pozostaje ogromny.
2. Synteza głosu i klonowanie audio. Technologie ‘voice cloning’ pozwalają na tworzenie przekonujących imitacji głosów znanych osobistości. Przykładem było fałszywe nagranie głosu Joe Bidena, które zostało użyte w robocallach przed prawyborami w New Hampshire w 2024 roku.
3. Cross-platform tracking. Firmy technologiczne łączą dane z różnych platform i urządzeń, tworząc kompleksowe profile użytkowników, które wykraczają poza pojedyncze serwisy społecznościowe.
Psychologia manipulacji cyfrowej
1. Wykorzystanie psychologii behawioralnej. Platformy cyfrowe wykorzystują znane mechanizmy psychologiczne, takie jak harmonogramy (schedules) zmiennych wzmocnień (podobne do tych w maszynach do gier) czy FOMO (fear of missing out), aby uzależniać użytkowników od swoich serwisów.
2. Tribal thinking i polaryzacja. Algorytmy często wzmacniają tendencje do myślenia grupowego, pokazując użytkownikom treści, które potwierdzają ich istniejące przekonania i przedstawiają przeciwne poglądy w negatywnym świetle.
3. Manipulacja czasem uwagi. Platformy konkurują o ograniczoną uwagę użytkowników, wykorzystując techniki projektowania perswazyjnego, które mają na celu maksymalizację czasu spędzonego w aplikacji.
Część III: Nadchodzące zagrożenia – przyszłość manipulacji cyfrowej
Deepfake nowej generacji
Choć deepfaki nie zdominowały wyborów 2024 w oczekiwanym stopniu, technologia ta rozwija się w zawrotnym tempie. Eksperci przewidują kilka kluczowych trendów:
1. Real-time deepfake. Rozwój technologii pozwala na tworzenie deepfake’ów w czasie rzeczywistym, co może być wykorzystane w transmisjach na żywo lub wideo-konferencjach do podszywania się pod inne osoby.
2. Multimodalne deepfaki. Przyszłe systemy będą mogły jednocześnie manipulować obraz, dźwięk i ruch, tworząc jeszcze bardziej przekonujące fałszerstwa.
3. Demokratyzacja narzędzi. Narzędzia do tworzenia deepfake’ów stają się coraz bardziej dostępne i proste w użyciu, co oznacza, że nie będą już wymagały specjalistycznej wiedzy technicznej.
Dezinformacja napędzana sztuczną inteligencją
1. Hiper-personalizowana dezinformacja. Przyszłe systemy będą mogły tworzyć unikalne fałszywe narracje dopasowane do konkretnych jednostek, wykorzystując ich psychologiczne profile, historię przeglądania i dane demograficzne.
2. Automatyczne generowanie teorii spiskowych. Systemy AI będą mogły automatycznie generować i rozpowszechniać spójne, ale fałszywe teorie spiskowe, które są specjalnie zaprojektowane tak, aby były atrakcyjne dla konkretnych grup odbiorców.
3. Deepfake social media personas. Całkowicie sztuczne osobowości z wiarygodną historią online mogą być wykorzystywane do wzmacniania określonych narracji lub do infiltracji społeczności online.
Quantum computing i szyfrowanie
1. Zagrożenie dla prywatności. Rozwój komputerów kwantowych może w przyszłości zagrozić obecnym metodom szyfrowania, potencjalnie umożliwiając dostęp do wcześniej zabezpieczonych danych osobowych.
2. Nowe formy inwigilacji. Zwiększona moc obliczeniowa może umożliwić analizę wzorców zachowań na niespotykaną dotąd skalę, tworząc nowe możliwości dla systemów nadzoru.
Rozszerzona rzeczywistość i metaverse
1. Manipulacja w wirtualnych światach. Wraz z rozwojem technologii AR/VR, nowe formy manipulacji mogą pojawić się w wirtualnych środowiskach, gdzie granice między rzeczywistością a symulacją stają się niewyraźne.
2. Biometryczne dane behawioralne. Urządzenia VR mogą zbierać nowe typy danych biometrycznych, w tym wzorce ruchu oczu, reakcje neurologiczne i inne subtelne wskaźniki behawioralne.
Manipulacja Internet of Things (IoT)
1. Wszechobecna inwigilacja. Rosnąca liczba urządzeń IoT w domach może tworzyć nowe źródła danych o użytkownikach, od wzorców snu po nawyki żywieniowe.
2. Manipulacja środowiska. Inteligentne domy mogą być wykorzystywane do subtelnego wpływania na nastrój i zachowania mieszkańców poprzez kontrolę oświetlenia, temperatury czy dźwięku.

Część IV: Skala problemu – globalna perspektywa
Wymiar ekonomiczny
Przemysł zbierania i analizy danych osobowych osiągnął gigantyczne rozmiary. Meta (Facebook) generuje rocznie ponad 100 miliardów dolarów przychodów, w głównej mierze z reklam targetowanych wykorzystujących dane użytkowników. Google osiąga podobne wyniki. Te firmy stały się jednymi z najwartościowszych korporacji świata, w głównej mierze dzięki monetyzacji danych osobowych.
Koszty społeczne:
- Kara 5 miliardów dolarów nałożona na Facebook przez FTC za sprawę Cambridge Analytica była największą w historii tego typu, ale stanowiła zaledwie kilka tygodni przychodów firmy
- Szacuje się, że globalne koszty dezinformacji online mogą wynosić dziesiątki miliardów dolarów rocznie w postaci zmarnowanych zasobów, złych decyzji inwestycyjnych i szkód społecznych.
Wymiar polityczny i demokratyczny
Wpływ manipulacji cyfrowej na procesy demokratyczne jest trudny do zmierzenia, ale coraz bardziej widoczny:
1. Erozja zaufania do instytucji. Badania pokazują systematyczny spadek zaufania do mediów tradycyjnych, instytucji naukowych i procesów demokratycznych w krajach, gdzie dezinformacja online jest najbardziej rozpowszechniona.
2. Polaryzacja społeczna. Algorytmy platform społecznościowych, które promują kontrowersyjne treści w celu zwiększenia zaangażowania, przyczyniają się do rosnącej polaryzacji politycznej i społecznej.
3. Manipulacja wyborów. Chociaż bezpośredni wpływ firm takich jak Cambridge Analytica na wyniki wyborów pozostaje przedmiotem debaty, nie ma wątpliwości, że tego typu działania mają potencjał do wpływania na procesy demokratyczne.
Wymiar technologiczny
1. Centralizacja mocy. Garstka gigantów technologicznych kontroluje większość przepływu informacji online. Meta, Google, Apple, Amazon i Microsoft mają bezprecedensową władzę nad tym, jakie informacje docierają do miliardów użytkowników.
2. Asymetria informacyjna. Te firmy wiedzą o użytkownikach znacznie więcej niż użytkownicy wiedzą o sobie, co tworzy fundamentalną asymetrię mocy w społeczeństwie cyfrowym.
3. Globalny zasięg, lokalne skutki. Decyzje podejmowane w Dolinie Krzemowej mają wpływ na procesy demokratyczne na całym świecie, często bez odpowiedniego nadzoru demokratycznego.
Próby regulacji i ich ograniczenia
GDPR i ochrona danych. Europejskie Rozporządzenie o Ochronie Danych Osobowych (GDPR) wprowadziło najsurowsze jak dotąd regulacje dotyczące zbierania i przetwarzania danych osobowych. Jednak skuteczność tych regulacji pozostaje ograniczona:
- Firmy technologiczne często płacą kary jako koszt prowadzenia biznesu
- Złożoność technologiczna utrudnia egzekwowanie regulacji
- Globalna natura internetu komplikuje krajowe próby regulacji
Digital Services Act. Unijna ustawa o usługach cyfrowych (DSA) ma na celu zwiększenie transparentności i odpowiedzialności platform cyfrowych. Jednak implementacja jest dopiero na początku, a skuteczność pozostaje niepewna.
Amerykańska Section 230. Amerykańska Section 230, która chroni platformy przed odpowiedzialnością za treści publikowane przez użytkowników, jest przedmiotem intensywnych debat politycznych, ale jak dotąd pozostaje niezmieniona.

Część V: Moment prawdy – czy jeszcze potrafimy odróżnić prawdę od fałszu?
Epistemologiczny kryzys współczesności
Żyjemy w epoce, którą niektórzy badacze nazywają „epistemologicznym kryzysem” – okresem, w którym tradycyjne sposoby weryfikacji prawdy zostały zakwestionowane lub zdestabilizowane przez nowe technologie.
Objawy kryzysu:
1. Fragmentacja rzeczywistości informacyjnej. Różne grupy społeczne żyją w coraz bardziej oddzielnych „bańkach informacyjnych”, gdzie podstawowe fakty o rzeczywistości są różnie interpretowane lub w ogóle kwestionowane.
2. Relatywizacja prawdy. Pojęcie „alternatywnych faktów” weszło do głównego nurtu dyskursu politycznego, podważając ideę obiektywnej prawdy, którą można ustalić poprzez dowody i ekspertyzę.
3. Kryzys autorytetów poznawczych. Tradycyjne autorytety w dziedzinie wiedzy – naukowcy, dziennikarze, instytucje edukacyjne – tracą swój status jako wiarygodne źródła informacji dla znacznej części społeczeństwa.
Psychologia dezinformacji
1. „Błąd konfirmacji” w erze cyfrowej. Platformy cyfrowe wzmacniają naturalną tendencję ludzi do poszukiwania informacji, które potwierdzają ich istniejące przekonania, tworząc spiralę samokarmiącego się myślenia.
2. „Efekt iluzorycznej prawdy”. Powtarzanie fałszywych informacji zwiększa prawdopodobieństwo uwierzenia w nie, nawet gdy ludzie początkowo je odrzucili. Algorytmy platform społecznościowych mogą tę tendencję eksploatować.
3. „Przeciążenie poznawcze”. Przeciążenie informacyjne sprawia, że ludzie coraz częściej polegają na skrótach poznawczych i emocjonalnych reakcjach zamiast na krytycznej analizie.
Rola decyzji Meta w kontekście kryzysu prawdy
Decyzja Meta o zakończeniu programu fact-checkingu w styczniu 2025 roku może być postrzegana jako symptom szerszego kryzysu epistemologicznego:
1. Komercjalizacja prawdy. Poprzez rezygnację z profesjonalnego fact-checkingu na rzecz modelu „notatek społeczności”, Meta w praktyce komercjalizuje proces weryfikacji prawdy, czyniąc go zależnym od zaangażowania użytkowników i ich zdolności do osiągnięcia konsensusu.
2. Polityzacja moderacji treści. Decyzja została przedstawiona jako odpowiedź na zarzuty o polityczne uprzedzenia fact-checkerów, co samo w sobie pokazuje, jak bardzo proces weryfikacji prawdy stał się upolityczniony.
3. Skalowanie odpowiedzialności. Przerzucenie odpowiedzialności za weryfikację prawdy na społeczność użytkowników może być postrzegane jako próba uniknięcia odpowiedzialności korporacyjnej za rozpowszechnianie dezinformacji.
Wskaźniki społeczne kryzysu prawdy
1. Badania zaufania społecznego. Edelman Trust Barometer 2024 pokazał, że zaufanie do mediów tradycyjnych spadło do historycznych minimów w wielu krajach, podczas gdy zaufanie do informacji otrzymywanych przez media społecznościowe paradoksalnie wzrosło.
2. Polaryzacja i radykalizacja. Wzrost poparcia dla skrajnych ruchów politycznych w wielu demokratycznych krajach często koreluje z wysokim poziomem dezinformacji online w tych społecznościach.
3. Konsekwencje zdrowotne. Pandemia COVID-19 pokazała realne skutki „infodemii” – od niechęci do szczepień po stosowanie niebezpiecznych „alternatywnych” terapii promowanych online.
Czy to już punkt przełomowy?
Analiza obecnej sytuacji sugeruje, że możemy znajdować się w momencie przełomowym w historii ludzkiej komunikacji:
Argumenty za tym, że już przekroczyliśmy próg:
- Znaczący odsetek populacji w wielu krajach wierzy w teorie spiskowe zaprzeczające podstawowym faktom naukowym
- Tradycyjne instytucje stojące na straży (media, nauka, edukacja) straciły monopol na definiowanie prawdy
- Dezinformacja stała się dochodowym biznesem z rozwiniętym ekosystemem produkcji i dystrybucji
Argumenty przeciwko:
- Większość ludzi nadal potrafi odróżnić wiarygodne źródła od niewiarygodnych, szczególnie w kwestiach dla nich ważnych
- Rozwój narzędzi wykrywania deepfake’ów i innych form manipulacji nadąża za rozwojem technologii ich tworzenia
- Instytucjonalne odpowiedzi (GDPR, DSA, fact-checking) pokazują zdolność społeczeństw do adaptacji
Wpływ na demokrację
Kryzys prawdy ma bezpośredni wpływ na funkcjonowanie demokracji:
1. Niemożność prowadzenia racjonalnej debaty publicznej. Gdy podstawowe fakty są kwestionowane, prowadzenie konstruktywnej debaty politycznej staje się praktycznie niemożliwe.
2. Erozja legitymacji demokratycznych instytucji. Jeśli znaczna część społeczeństwa nie wierzy w rzetelność procesów wyborczych lub innych instytucji demokratycznych, system traci swoją legitymację.
3. Manipulacja demokratycznego procesu. Zaawansowane techniki manipulacji cyfrowej mogą wpływać na wyniki wyborów w sposób, który podważa ideę świadomego wyboru obywateli.
Wnioski i perspektywy
Diagnoza obecnej sytuacji
Znajdujemy się w przełomowym momencie historii komunikacji ludzkiej. Po raz pierwszy w dziejach, technologia umożliwia tworzenie i rozpowszechnianie informacji na skalę globalną przez podmioty, które nie podlegają tradycyjnym mechanizmom kontroli społecznej. Jednocześnie ta sama technologia daje bezprecedensowe możliwości manipulacji, personalizacji i kontroli przepływu informacji.
Sprawa Cambridge Analytica była tylko początkiem. Dzisiaj działamy w ekosystemie, gdzie:
- Sztuczna inteligencja może generować przekonujące fałszywe treści w czasie rzeczywistym
- Algorytmy kształtują nasze postrzeganie rzeczywistości w sposób często dla nas niewidoczny
- Garstka korporacji technologicznych ma bezprecedensową władzę nad przepływem informacji
Czy przekroczyliśmy już punkt krytyczny?
Pytanie postawione w tytule – czy większość ludzi nie wie już, co jest prawdą, a co fałszem – nie ma jednoznacznej odpowiedzi. Prawdopodobnie nie przekroczyliśmy jeszcze punktu, w którym większość społeczeństwa całkowicie straciła zdolność rozróżniania prawdy od fałszu. Jednak znajdujemy się w momencie, gdzie ta zdolność jest poważnie osłabiona i pozostaje pod stałą presją.
Wskaźniki sugerują, że:
- Coraz więcej ludzi ma trudności z oceną wiarygodności informacji online
- Rośnie odsetek społeczeństwa, który wierzy w teorie spiskowe i dezinformację
- Tradycyjne mechanizmy weryfikacji prawdy tracą na znaczeniu
Przyszłe scenariusze
Scenariusz optymistyczny: Społeczeństwa rozwijają nowe mechanizmy radzenia sobie z dezinformacją. Edukacja medialna staje się powszechna, technologie wykrywania manipulacji się poprawiają, a demokratyczne instytucje adaptują się do nowej rzeczywistości cyfrowej.
Scenariusz pesymistyczny: Kryzys prawdy pogłębia się, prowadząc do dalszej fragmentacji społecznej i osłabienia demokracji. Manipulacja cyfrowa staje się tak zaawansowana, że rozróżnienie prawdy od fałszu staje się praktycznie niemożliwe dla przeciętnego obywatela.
Scenariusz prawdopodobny: Przyszłość prawdopodobnie będzie mieszanką obu powyższych. Część społeczeństwa rozwinie skuteczne strategie radzenia sobie z dezinformacją, podczas gdy inne grupy będą coraz bardziej podatne na manipulację. To może prowadzić do pogłębiającej się fragmentacji społecznej, gdzie różne grupy będą żyły w różnych rzeczywistościach informacyjnych.
Konieczność działania
Niezależnie od tego, który scenariusz się zrealizuje, konieczne są natychmiastowe działania na kilku frontach:
1. Regulacje prawne. Potrzebne są nowe, skuteczne regulacje, które będą mogły nadążyć za rozwojem technologii, nie hamując jednocześnie innowacji i wolności słowa.
2. Edukacja medialna. Powszechna edukacja dotycząca rozpoznawania dezinformacji, manipulacji i krytycznego myślenia o mediach musi stać się priorytetem systemów edukacyjnych.
3. Transparentność technologiczna. Algorytmy platform społecznościowych muszą stać się bardziej przejrzyste i podlegać demokratycznej kontroli.
4. Rozwój narzędzi weryfikacji. Inwestycje w technologie wykrywania deepfake’ów, botów i innych form manipulacji cyfrowej są kluczowe dla przyszłości demokracji.
5. Odnowa dziennikarstwa. Wzmocnienie niezależnego dziennikarstwa śledczego i fact-checkingu jako przeciwwagi dla manipulacji korporacyjnej i politycznej.
Przyszłość demokracji może zależeć od tego, jak szybko i skutecznie będziemy w stanie odpowiedzieć na te wyzwania. Alternatywą może być świat, w którym prawda stanie się jedynie kwestią opinii, a manipulacja cyfrowa będzie decydować o kształcie naszych społeczeństw.
Źródła
- Facebook–Cambridge Analytica data scandal – Wikipedia. Dostęp: https://en.wikipedia.org/wiki/Facebook–Cambridge_Analytica_data_scandal
- FireTail blog. “Revisiting Cambridge Analytica in 2024”. Dostęp: https://www.firetail.ai/blog/revisiting-cambridge-analytica-in-2024
- Amnesty International. “‘The Great Hack’: Cambridge Analytica is just the tip of the iceberg”. 2019. Dostęp: https://www.amnesty.org/en/latest/news/2019/07/the-great-hack-facebook-cambridge-analytica/
- Federal Trade Commission. “FTC Issues Opinion and Order Against Cambridge Analytica For Deceiving Consumers About the Collection of Facebook Data”. 2019. Dostęp: https://www.ftc.gov/news-events/news/press-releases/2019/12/ftc-issues-opinion-order-against-cambridge-analytica-deceiving-consumers-about-collection-facebook
- Al Jazeera. “Meta, Facebook to drop fact-checkers: What does this mean for social media?”. Styczeń 2025. Dostęp: https://www.aljazeera.com/news/2025/1/10/meta-facebook-to-drop-fact-checkers-what-does-this-mean-for-social-media
- NPR. “Meta to end fact-checking program on Facebook and Instagram”. Styczeń 2025. Dostęp: https://www.npr.org/2025/01/07/nx-s1-5251151/meta-fact-checking-mark-zuckerberg-trump
- CNN Business. “Meta gets rid of fact checkers and says it will reduce ‘censorship'”. Styczeń 2025. Dostęp: https://www.cnn.com/2025/01/07/tech/meta-censorship-moderation
- TIME Magazine. “Meta Ends Fact-Checking, Prompting Fears of Misinformation”. Styczeń 2025. Dostęp: https://time.com/7205332/meta-fact-checking-community-notes/
- Meta About. “More Speech and Fewer Mistakes”. Styczeń 2025. Dostęp: https://about.fb.com/news/2025/01/meta-more-speech-fewer-mistakes/
- NPR. “How deepfakes and AI memes affected global elections in 2024”. Grudzień 2024. Dostęp: https://www.npr.org/2024/12/21/nx-s1-5220301/deepfakes-memes-artificial-intelligence-elections
- Carnegie Mellon University Heinz College. “Voters: Here’s how to spot AI ‘deepfakes’ that spread election-related misinformation”. 2024. Dostęp: https://www.heinz.cmu.edu/media/2024/October/voters-heres-how-to-spot-ai-deepfakes-that-spread-election-related-misinformation1
- NPR. “AI deepfakes could advance misinformation in the run up to the 2024 election”. Marzec 2023. Dostęp: https://www.npr.org/2023/03/26/1166114364/ai-deepfakes-could-advance-misinformation-in-the-run-up-to-the-2024-election
- NPR. “AI fakes raise election risks as lawmakers and tech companies scramble to catch up”. Luty 2024. Dostęp: https://www.npr.org/2024/02/08/1229641751/ai-deepfakes-election-risks-lawmakers-tech-companies-artificial-intelligence
- Tech Informed. “AI vs Democracy: Disinformation, Deepfakes & 2024 US Election”. Październik 2024. Dostęp: https://techinformed.com/ai-disinformation-2024-us-election-deepfakes-voter-manipulation/
- Harvard Ash Center. “The apocalypse that wasn’t: AI was everywhere in 2024’s elections, but deepfakes and misinformation were only part of the picture”. Grudzień 2024. Dostęp: https://ash.harvard.edu/articles/the-apocalypse-that-wasnt-ai-was-everywhere-in-2024s-elections-but-deepfakes-and-misinformation-were-only-part-of-the-picture/
- Knight First Amendment Institute. “We Looked at 78 Election Deepfakes. Political Misinformation Is Not an AI Problem”. 2024. Dostęp: https://knightcolumbia.org/blog/we-looked-at-78-election-deepfakes-political-misinformation-is-not-an-ai-problem
- Journalists’ Resource. “How AI-generated deepfakes threaten the 2024 election”. Luty 2024. Dostęp: https://journalistsresource.org/home/how-ai-deepfakes-threaten-the-2024-elections/
- ABC News. “AI deepfakes a top concern for election officials with voting underway”. Październik 2024. Dostęp: https://abcnews.go.com/Politics/ai-deepfakes-top-concern-election-officials-voting-underway/story?id=114202574
- R Street Institute. “Three Reasons AI Deepfakes Failed to Disrupt the 2024 Election”. Listopad 2024. Dostęp: https://www.rstreet.org/commentary/three-reasons-ai-deepfakes-failed-to-disrupt-the-2024-election/
- NBC News. “Cambridge Analytica’s effectiveness called into question despite alleged Facebook data harvesting”. Marzec 2018. Dostęp: https://www.nbcnews.com/politics/politics-news/cambridge-analytica-s-effectiveness-called-question-despite-alleged-facebook-data-n858256
- CNBC. “Facebook-Cambridge Analytica: A timeline of the data hijacking scandal”. Kwiecień 2018. Dostęp: https://www.cnbc.com/2018/04/10/facebook-cambridge-analytica-a-timeline-of-the-data-hijacking-scandal.html
- ProPublica. “As Facebook Abandons Fact-Checking, It’s Also Offering Bonuses for Viral Content”. Luty 2025. Dostęp: https://www.propublica.org/article/facebook-meta-abandons-fact-checking-boosts-viral-content
- University of Rhode Island. “Meta will end fact-checking of social media posts; URI expert says it’s not a surprise”. Styczeń 2025. Dostęp: https://www.uri.edu/news/2025/01/meta-will-end-fact-checking-of-social-media-posts-uri-expert-says-its-not-a-surprise/
- CBS News. “Meta to end fact-checking, replacing it with community-driven system akin to Elon Musk’s X”. Styczeń 2025. Dostęp: https://www.cbsnews.com/news/meta-facebook-instagram-fact-checking-mark-zuckerberg/
- ABC News. “Here’s why Meta ended fact-checking, according to experts”. Styczeń 2025. Dostęp: https://abcnews.go.com/US/why-did-meta-remove-fact-checkers-experts-explain/story?id=117417445
- NPR. “Meta backs away from fact checking in the U.S.”. Styczeń 2025. Dostęp: https://www.npr.org/2025/01/12/nx-s1-5252739/meta-backs-away-from-fact-checking-in-the-u-s
Dodatkowe materiały referencyjne:
- Zuboff, Shoshana. “The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power”. PublicAffairs, 2019.
- Vosoughi, Soroush, Deb Roy, and Sinan Aral. “The spread of true and false news online”. Science 359.6380 (2018): 1146-1151.
- Edelman Trust Barometer 2024. “Trust and Elections”. Edelman, 2024.
- European Union. “General Data Protection Regulation (GDPR)”. 2018.
- European Union. “Digital Services Act (DSA)”. 2022.
- Cadwalladr, Carole. “This is what a digital coup looks like”. TED Talk, 2019. Dostęp: https://www.ted.com/talks/carole_cadwalladr_this_is_what_a_digital_coup_looks_like
AI Artykuł wyróżniony cybercrime cyfrowa manipulacja deepfake dezinformacja lepszy internet media społecznościowe SI social media sztuczna inteligencja zagrożenia online
Last modified: 12.09.2025