Minęło ponad dwadzieścia lat odkąd dzieci zaczęły dorastać online, a wciąż nie potrafimy zapewnić im tam bezpieczeństwa. Choć technologie, prawo i edukacja rozwijają się szybciej niż kiedykolwiek, ochrona najmłodszych w sieci stoi w miejscu.
Dlaczego, mimo tylu deklaracji i narzędzi, wciąż nie potrafimy ich naprawdę chronić? System zawodzi po cichu – w szkołach, domach, firmach i instytucjach.
Koszt dorastania w świecie bez granic
Jeszcze nigdy w historii dzieci nie miały tak łatwego dostępu do wszystkiego i jednocześnie tak małej ochrony przed tym, co niszczące. Smartfon stał się ich światem: narzędziem nauki, kontaktu i zabawy, ale też kanałem nieograniczonego napływu treści, których nikt nie filtruje i których dziecko nie potrafi interpretować.
Internet, zaprojektowany z myślą o dorosłych konsumentach, stał się miejscem, w którym dorastają ci, którzy nie mają żadnych narzędzi obronnych. Pierwsze pokolenie wychowane przez algorytmy wchodzi właśnie w dorosłość, a my wciąż nie potrafimy ocenić, jak głęboki będzie wpływ tych doświadczeń.
Skala zjawiska – dane, których nie da się zignorować
Najświeższe dane z raportu „Internet dzieci 2025” (Fundacja Instytut Cyfrowego Obywatelstwa, PBI, Gemius) pokazują, że 93% polskich nastolatków korzysta z internetu na smartfonie jako głównym urządzeniu, a w grupie 7-12 lat około 900 tys. dzieci ma konta na TikToku, Facebooku lub Instagramie, mimo że regulaminy tych platform przewidują wiek 13 lat jako minimalny.
Dzieci w wieku szkolnym spędzają średnio ponad dwie godziny dziennie na TikToku, wracając do aplikacji nawet kilkanaście razy w ciągu dnia. To więcej niż w przypadku YouTube’a czy komunikatorów.
Raport NASK „Nastolatki 2025” pokazuje, że codzienne korzystanie z internetu jest już powszechne: ponad 90% uczniów korzysta z sieci codziennie, a w grupie 7-14 lat około połowa miała kontakt z treściami erotycznymi. A średni wiek pierwszej ekspozycji na pornografię w Polsce to około 11 lat.
Te same badania ujawniają także skalę zjawisk, o których rzadko się mówi. 22% nastolatków ogląda patostreamy, 26% uczestniczyło w internetowym wyzwaniu (tzw. challenge), 28% otrzymało czyjeś nagie lub półnagie zdjęcie, a 5% wysłało własne. 11% spotkało się osobiście z dorosłym poznanym online, a niemal połowa ofiar przemocy w sieci nie zareagowała w żaden sposób – nie powiedziała o tym ani rodzicom, ani nauczycielom.
Do nieodpowiednich treści dzieci trafiają różnymi ścieżkami: część przypadkowo (np. przez odtwarzanie „następnych” materiałów, linki, wątki i grupy), część poprzez rówieśników (udostępnienia, czaty), a część intencjonalnie – z ciekawości lub pod wpływem presji otoczenia. Rekomendacje algorytmiczne i systemy autoodtwarzania potrafią wzmacniać te ścieżki, ale nie są jedyną przyczyną. Istota problemu polega na tym, że ekspozycja jest powszechna, a środowisko cyfrowe nie jest projektowane z myślą o dzieciach – oferuje natychmiastowy dostęp do ogromnej liczby bodźców, bez filtrów i ograniczeń dostosowanych do wieku. Dzieci funkcjonują w świecie cyfrowym niemal bez wsparcia dorosłych i bez realnych mechanizmów ochrony.
Psychologiczne i społeczne skutki ekspozycji
Stały kontakt z przemocą, seksualizacją i dezinformacją wpływa na rozwój emocjonalny dziecka w sposób, którego jeszcze dekadę temu nie rozumieliśmy.
Wspomniany raport NASK „Nastolatki 2025” pokazuje, że co trzeci nastolatek deklaruje pogorszenie samopoczucia wskutek korzystania z internetu – najczęściej z powodu napięcia, porównywania się z innymi i lęku przed odłączeniem.
American Psychological Association (2023) ostrzega, że intensywne korzystanie z mediów społecznościowych przez młodszych nastolatków (powyżej 2–3 h dziennie) wiąże się ze zwiększonym ryzykiem depresji, zaburzeń snu i obniżonej samooceny.
Raport UNICEF Innocenti (2025) dodaje, że większość dzieci na świecie korzysta z internetu bez realnych mechanizmów ochronnych, a algorytmy rekomendacji promują treści emocjonalne i kontrowersyjne, zwiększając ryzyko kontaktów z materiałami szkodliwymi dla rozwoju (https://www.unicef.org/reports/child-online-protection-2025).
Zjawisko FOMO (fear of missing out) czyli lęk przed przegapieniem czegoś ważnego – działa równolegle z presją ciągłego porównywania się do innych. Ofcom (2023) potwierdza te zależności w kontekście brytyjskim: ponad połowa rodziców zauważa u dzieci rozdrażnienie, lęk lub trudności z odłączeniem się od telefonu.
Długotrwała ekspozycja na ekran i silne bodźce emocjonalne osłabia koncentrację, pogarsza sen i utrudnia rozwój umiejętności regulacji emocji. Ekspozycja na pornografię w okresie dojrzewania zaburza układ nagrody i motywacji – dziecko uczy się, że bliskość jest transakcją, a ciało – przedmiotem. Z kolei nadmiar przemocy w grach lub treściach wideo prowadzi do znieczulenia emocjonalnego i trudności w rozróżnianiu fikcji od rzeczywistości.
Te skutki nie kończą się po wyłączeniu ekranu – przenoszą się do szkoły, relacji i rodziny. Nauczyciele obserwują rosnące trudności z koncentracją i izolację społeczną, a rodzice – emocjonalny chłód i utracony kontakt z dzieckiem.
Trauma cyfrowa i jej cena
Psycholodzy coraz częściej używają pojęcia „traumy cyfrowej” dla określenia emocjonalnego przeciążenia, z którym dziecko nie potrafi sobie poradzić. Kontakt z pornografią, nienawiścią czy okrucieństwem zostawia ślad podobny do przemocy emocjonalnej. Utrwalają się wzorce lęku, wstydu lub odrętwienia, które często ujawniają się dopiero po latach – w dorosłości.
Raport Fundacji Panoptykon (2024) „Algorytmy traumy” opisuje, jak środowisko algorytmiczne może utrwalać u dzieci reakcje lękowe i emocjonalne odrętwienie wobec bodźców przemocowych czy seksualizujących.
To nie tylko kwestia treści, ale całego mechanizmu – dziecko uczy się emocjonalnej obojętności w świecie, który nieustannie dostarcza bodźców, lecz nie uczy ich rozumienia.
W Polsce wciąż brakuje jednolitego, publicznego systemu pomiaru kosztów społecznych wynikających z ekspozycji dzieci na treści nieodpowiednie w sieci. Raporty dostarczają wiarygodnych danych o skali korzystania i typach zagrożeń (np. Nastolatki NASK; Internet dzieci 2025 Fundacji Instytut Cyfrowego Obywatelstwa), ale nie przekładają ich na długofalowe skutki zdrowotne czy ekonomiczne.
Dlatego warto byłoby takie dane gromadzić – nie po to, by szukać winnych, lecz by za kilka czy kilkanaście lat, gdy obecne dzieci i nastolatki staną się dorosłymi, lepiej rozumieć przyczyny i skutki dzisiejszych zaniedbań. To wiedza, która pozwoliłaby projektować skuteczniejsze systemy wsparcia i zapobiegania, zanim problemy staną się chroniczne.
Jak pisze Shoshana Zuboff w „Wieku kapitalizmu inwigilacji” (2020), dzieci stały się „najmłodszymi dostawcami danych” w historii – i najbardziej bezbronnymi.
Mechanizm obojętności
Dlaczego, mimo świadomości problemu, wciąż zmienia się tak niewiele? Bo interes dziecka stoi w sprzeczności z interesem rynku. Platformy, aplikacje i producenci gier budują zyski na uwadze użytkownika: każdej minucie, kliknięciu, reakcji. Dziecko jest dla nich idealnym użytkownikiem – emocjonalnym, impulsywnym, lojalnym wobec ekranu. Dlatego filtry wiekowe są fikcją, a kontrola rodzicielska pozostaje nieskuteczna.
Firmy udają troskę, by uniknąć regulacji, ale nie inwestują w realne rozwiązania, które mogłyby ograniczyć zasięg reklam i dane o nieletnich. Zyski z reklam kierowanych do dzieci liczone są w miliardach dolarów rocznie. Ograniczenie dostępu oznaczałoby spadek przychodów – a tego nikt nie chce ryzykować.
Kiedy rachunek przyjdzie do dorosłych
Rodzice często nie zdają sobie sprawy z rozmiaru ekspozycji swoich dzieci. Zaufanie, że „algorytm wie, co pokazać”, okazuje się złudne. Tymczasem to właśnie dorośli – rodzice, nauczyciele i państwo – płacą cenę: emocjonalną, psychologiczną i finansową.
Psychologowie alarmują: dzieci wchodzące w dojrzewanie z bagażem doświadczeń internetowych mają zaburzone poczucie wartości, relacje z ciałem i świadomość granic. Państwo płaci rosnącymi wydatkami na psychiatrię, interwencje kryzysowe i działania profilaktyczne, które reagują dopiero po fakcie. Koszt zaniedbań prywatnych firm jest więc przerzucany na rodziny i budżet publiczny.
A najpoważniejszych skutków wciąż nie znamy, bo nie wiemy, jak dzisiejsze dzieci poradzą sobie z presją pracy, związkami, rodzicielstwem. Nie wiemy, jak wyglądać będzie pokolenie dorosłych wychowanych w świecie, w którym granice i empatia były zastępowane przez algorytmy.
To nie dzieci zawiodły. Zawiodły systemy, które miały je chronić, i firmy, które w imieniu dorosłych projektują cyfrowy świat. Problem nie leży w tym, że dzieci są „zbyt ciekawe”, ale w tym, że dorośli nie postawili im żadnych granic. Każdy dzień bez działań to kolejny krok w stronę kryzysu zdrowia psychicznego młodego pokolenia – kryzysu, który już trwa.

Algorytmy, które uczą dzieci świata dorosłych
Internet, który nie rozróżnia wieku
Dzieci nie szukają w internecie przemocy ani pornografii. To internet znajduje je dla nich. Algorytmy rekomendacji – te same, które podpowiadają muzykę, śmieszne filmiki czy treści edukacyjne – uczą się błyskawicznie, co przykuwa uwagę użytkownika.
Dla systemu nie ma znaczenia, że ma do czynienia z dziesięciolatkiem. Liczy się tylko emocja i czas spędzony przed ekranem. Maszyna nie rozumie wieku ani granic.
Dziecko oglądające filmy o sporcie w kilka dni zaczyna otrzymywać materiały o „idealnym ciele”, a nastolatek szukający inspiracji muzycznych – treści pełne przemocy lub seksualizacji.
Algorytmy nie są złe z natury – są jedynie moralnie ślepe. Ich jedynym celem jest utrzymać uwagę, a dziecko, które reaguje silniej i szybciej niż dorosły, staje się idealnym materiałem do treningu modelu uczenia maszynowego. System rekomendacji został zaprojektowany dla dorosłych użytkowników, ale to dzieci stały się jego niezamierzonymi ofiarami. Nie jest to efekt błędu programistycznego, lecz struktury ekonomicznej: im dłużej dziecko patrzy na ekran, tym większy zysk z reklamy.
Jak działają algorytmy rekomendacji
Każda współczesna platforma – od YouTube’a po TikToka – korzysta z systemów rekomendacji opartych na uczeniu maszynowym (machine learning recommendation engines). Analizują one tysiące sygnałów: czas oglądania, reakcje, kliknięcia, tempo przewijania, dźwięk, kolor, a nawet sposób, w jaki użytkownik zatrzymuje wzrok na obrazie. Na tej podstawie tworzą dynamiczny „profil zainteresowań”, aktualizowany w czasie rzeczywistym.
Problem polega na tym, że algorytmy nie rozumieją dlaczego coś przyciąga uwagę. Jeśli film wywołujący silną emocję – gniew, lęk czy ekscytację – angażuje użytkownika bardziej niż materiał edukacyjny, system uznaje go za „lepszy” i zaczyna promować podobne treści. W efekcie użytkownik, także dziecko, może szybko znaleźć się w tzw. pętli emocjonalnej, w której kolejne materiały są coraz bardziej intensywne, kontrowersyjne lub drastyczne.Na podobne mechanizmy zwracały uwagę m.in. badania organizacji Center for Countering Digital Hate (CCDH), które wykazały, że konta podszywające się pod nastolatków na TikToku zaczynały otrzymywać rekomendacje dotyczące samookaleczeń, zaburzeń odżywiania i depresji w ciągu kilkunastu minut od założenia profilu
Dlaczego firmy nic z tym nie robią?
Bo nie muszą. System rekomendacji jest sercem ich biznesu. To on generuje „zaangażowanie”, które przelicza się na dane i pieniądze.
W 2024 roku nastolatki spędzały na TikToku średnio 113 minut dziennie, czyli więcej niż na jakiejkolwiek innej platformie. Każda sekunda to dane o emocjach, czasie aktywności i preferencjach. To one pozwalają sprzedawać reklamy z chirurgiczną precyzją. Dlatego ograniczenie szkodliwych treści byłoby sprzeczne z interesem ekonomicznym.
Firmy reagują dopiero wtedy, gdy grożą im wysokie kary lub odpływ reklamodawców.
W wewnętrznych dokumentach ujawnionych w ramach tzw. Facebook Papers wykazano, że Instagram pogarsza samoocenę nastolatek, a mimo to firma kontynuowała rozwój funkcji zwiększających zaangażowanie młodych użytkowników. To pokazuje, że nie brak wiedzy, ale brak woli jest główną barierą zmian.
Jak firmy zarabiają na braku ochrony dzieci
Model przychodów platform społecznościowych opiera się na trzech filarach:
Reklamy ukierunkowane – im dokładniej algorytm pozna użytkownika, tym droższa staje się jego uwaga. Dzieci i młodzież są tu szczególnie „wartościowe”, bo ich emocje są silne i przewidywalne.
Dane behawioralne – nawet jeśli konto jest „nieletnie”, system rejestruje każde zachowanie, tworząc profil wykorzystywany do testowania nowych funkcji i kampanii reklamowych.
Monetyzacja treści wiralowych – algorytmy premiują kontrowersję, skandal i szok, bo to one generują emocje i zasięg. Im silniejsza reakcja, tym większe zaangażowanie, a więc i zysk.
W ten sposób powstaje błędne koło: treści „ryzykowne” wywołują emocje, emocje zwiększają zaangażowanie, a zaangażowanie generuje przychód. System nagradza to, co wciąga, a nie nie to, co wychowuje.
Dlaczego problem jest większy niż się wydaje
Wielu dorosłych uważa, że problem dotyczy wyłącznie treści pornograficznych czy przemocowych. Tymczasem wpływ algorytmów sięga znacznie dalej – dotyka emocji, relacji, poczucia własnej wartości i obrazu świata.
Badania Ofcom (2023) pokazały, że co piąty nastolatek był zachęcany przez media społecznościowe do podjęcia wyzwań zagrażających zdrowiu lub życiu. W grupie 10-13 lat aż 38% oglądało materiały o samookaleczeniach, przemocy lub ekstremalnych dietach.
Podobne dane płyną z Polski. Według raportu „Internet dzieci 2025” 45% młodych użytkowników miało kontakt z obcymi osobami online, a 30% natrafiło na treści drastyczne lub seksualne. Co czwarte dziecko nie wiedziało, jak zareagować, a co ósme – nie powiedziało o tym nikomu.
Z kolei raport „Nastolatki 2024” NASK pokazuje, że 64% rodziców uważa, iż potrafi chronić dziecko w sieci, ale tylko 27% dzieci to potwierdza. Ta rozbieżność pokazuje, jak wielki jest deficyt świadomości i kompetencji cyfrowych między pokoleniami.
Dziecko wychowane w środowisku, w którym dramat i prowokacja są premiowane przez system, traci zdolność odróżniania normalności od skrajności. To nie tylko kwestia ekspozycji na pornografię czy przemoc, ale chronicznego przesterowania emocjonalnego.
Czy można to naprawić
Tak, ale wymaga to odwagi i regulacji. Firmy powinny być rozliczane nie z liczby użytkowników, lecz z jakości środowiska, które tworzą. To oznacza obowiązek audytu algorytmicznego, wyłączenie personalizacji dla osób poniżej 18 roku życia, ograniczenie reklam emocjonalnych oraz publikowanie raportów o treściach rekomendowanych dzieciom.
Takie rozwiązania funkcjonują już w Wielkiej Brytanii i Australii, a Komisja Europejska pracuje nad ich rozszerzeniem w ramach AI Act. Jednak dopóki nie będą powiązane z realnymi sankcjami finansowymi, pozostaną jedynie gestem politycznym.
Algorytmy nie mają sumienia, a korporacje – skrupułów. Dopóki każda minuta spędzona przez dziecko w sieci przynosi zysk, bezpieczeństwo będzie pustym hasłem. System działa dokładnie tak, jak został zaprojektowany – nie dlatego, że jest wadliwy, lecz dlatego, że działa zgodnie z interesem swoich twórców.
Nie chodzi więc o technologię, tylko o wybory. A te należą do dorosłych.

Co można zrobić od zaraz
Nie wszystko wymaga nowych ustaw, grantów i strategii rządowych. Wiele działań, które mogłyby realnie ograniczyć narażenie dzieci na szkodliwe treści w sieci, można wprowadzić natychmiast – pod warunkiem, że pojawi się wola, by to zrobić. Nie brakuje technologii, rozwiązań, kompetencji ani wiedzy. Brakuje decyzji.
Ochrona, która jest w zasięgu ręki
Większość współczesnych urządzeń i platform ma już wbudowane funkcje kontroli rodzicielskiej: filtrowanie treści, ograniczanie czasu ekranowego, blokadę zakupów, raporty aktywności. Problem w tym, że korzysta z nich mniej niż 15% rodziców. Dorośli często nie rozumieją narzędzi, z których dzieci korzystają z łatwością. Aplikacje ochronne są zbyt techniczne, pełne specjalistycznych skrótów i ustawień, które odstraszają. Dodatkowo wielu rodziców nie chce czuć się „policjantem” własnego dziecka – albo nie zdaje sobie sprawy, jak szybko algorytmy potrafią przejąć rolę wychowawcy.
Dlatego potrzebne są rozwiązania proste i zrozumiałe. Systemy ochrony powinny być domyślne, nie opcjonalne – aktywne już w chwili uruchomienia urządzenia.
Wystarczyłoby, aby telefon, tablet czy przeglądarka oferowały gotowe profile wiekowe („6–10 lat”, „11–15 lat”), z możliwością włączenia filtrowania jednym kliknięciem. Takie ustawienie nie ogranicza dziecka, lecz przywraca rodzicowi kontrolę nad przestrzenią, którą przez lata oddano technologicznym firmom.
Weryfikacja wieku – problem techniczny czy biznesowy?
Kiedy pada pytanie o weryfikację wieku, korporacje odpowiadają: „to skomplikowane”. Nie jest.
Technologicznie istnieją dziesiątki bezpiecznych metod, stosowanych choćby w bankowości, e-handlu czy usługach publicznych. Problem w tym, że skuteczna weryfikacja wieku ograniczyłaby liczbę użytkowników, a tym samym – zyski z reklam. Im młodszy użytkownik, tym dłużej pozostaje w aplikacji i tym częściej reaguje na bodźce. Ograniczenie dostępu dla osób poniżej 13 lub 15 lat oznaczałoby dla wielu platform utratę ogromnej części ruchu. Dlatego zamiast prawdziwej kontroli wieku, wciąż funkcjonuje fikcja prawna w postaci przycisku „Mam ukończone 13 lat”.
Tam, gdzie państwa wprowadziły przepisy o weryfikacji wieku, firmy technologiczne wciąż reagują głównie pozornie.
Francja przyjęła w 2023 roku ustawę wymagającą zgody rodzica dla użytkowników mediów społecznościowych poniżej 15 roku życia (tzw. Loi visant à instaurer une majorité numérique). Platformy zostały zobowiązane do potwierdzania wieku dziecka, ale prawo nie wskazało, jak mają to zrobić. W efekcie większość serwisów – od TikToka po Instagram – ograniczyła się do prostych deklaracji wieku lub potwierdzeń SMS-owych. Rząd zapowiedział stworzenie centralnego, bezpiecznego systemu weryfikacji wieku, który nie udostępniałby danych platformom, lecz do dziś nie został on uruchomiony. Francja ma więc przepisy, które w teorii chronią dzieci, lecz w praktyce pozostają prawie nieskuteczne.
Australia poszła inną drogą. Obowiązujący tam Online Safety Act z 2021 roku nie wymaga wprost potwierdzenia wieku przez rodzica, ale nakłada na firmy obowiązek zapewnienia bezpieczeństwa nieletnich i oceny ryzyka wiekowego. W 2023 roku urząd eSafety Commissioner rozpoczął prace nad krajową strategią Age Verification Roadmap, mającą stworzyć wspólny system weryfikacji wieku przy dostępie do treści +18, takich jak pornografia czy hazard. Na razie jednak większość platform stosuje dobrowolne, mało skuteczne rozwiązania – deklaracje wieku lub niezweryfikowane logowanie.
Ochrona dzieci jest więc wpisana w prawo, lecz mechanizmy jej egzekwowania wciąż są w fazie rozwoju.
Dla porównania, Wielka Brytania wprowadziła Age Appropriate Design Code (zwany też “Children’s Code”), opracowany przez Information Commissioner’s Office (ICO), wymaga ograniczenia profilowania i stosowania praktyk manipulacyjnych (dark-patterns) oraz domyślnie wysokiej ochrony prywatności, co w praktyce oznacza znaczne ograniczenie personalizowanych reklam dzieciom. już w 2020 roku. To on ustanowił najbardziej rygorystyczne dotąd standardy: każda platforma oferująca treści dla dzieci musi wykazać, że jej interfejs i algorytmy są dostosowane do wieku użytkownika, a prywatność dziecka jest domyślnym ustawieniem. Choć kodeks nie rozwiązał wszystkich problemów, to właśnie tam po raz pierwszy odwrócono logikę: to firma ma obowiązek udowodnić, że nie szkodzi dziecku – a nie dziecko, że potrafi się chronić.
Algorytm jako wychowawca
To, co naprawdę kształtuje doświadczenie dziecka w sieci, to nie wyszukiwarka, lecz algorytm rekomendacji. To on decyduje, co dziecko zobaczy po pierwszym kliknięciu, jakie emocje będą wzmacniane, z kim będzie się porównywać. W praktyce staje się więc głównym wychowawcą młodego pokolenia – tyle że jego celem nie jest rozwój, tylko zysk.
Algorytmy TikToka, Instagrama czy YouTube’a działają według prostego mechanizmu: każda silna emocja jest nagradzana. Nie ma znaczenia, czy jest to śmiech, złość, czy wstręt – liczy się, że zatrzymuje użytkownika. Dziecko, które ogląda filmy o zdrowiu czy relacjach, po kilku dniach zaczyna otrzymywać treści o depresji, samookaleczeniach lub seksualizacji.
Tego nie da się rozwiązać kolejną kampanią edukacyjną. Potrzebna jest przejrzystość: publiczne raporty o tym, jakie treści algorytmy rekomendują użytkownikom poniżej 18 roku życia, oraz możliwość wyłączenia personalizacji w trybie „neutralnym”.
Platformy mają techniczną możliwość wprowadzenia takich zmian – ale dopóki każda minuta scrollowania przynosi zysk, żadne z nich nie będą priorytetem.
Lekcje z innych krajów
Niektóre państwa pokazują, że ochrona dzieci w internecie może być nie tylko postulatem, ale realnym standardem. Wystarczy połączyć technologię z odpowiedzialnością i dać instytucjom narzędzia do egzekwowania prawa.
Dania w 2024 roku wprowadziła Digital Responsibility Act, który zobowiązuje firmy do projektowania produktów cyfrowych „child-by-design” z myślą o dzieciach od samego początku. Każda aplikacja musi wykazać, że nie uzależnia, nie naraża na szkodliwe treści i nie manipuluje emocjami użytkownika. Prawo jest egzekwowane przez specjalny urząd ds. etyki cyfrowej, który może nakładać kary finansowe i żądać modyfikacji produktu. To pierwszy system w Europie, w którym bezpieczeństwo dzieci stało się elementem obowiązkowego audytu technologicznego.
Holandia z kolei poszła w stronę edukacji systemowej. Od 2022 roku wprowadzono obowiązkowy program nauczania o higienie cyfrowej i dezinformacji w szkołach podstawowych i średnich. Lekcje nie polegają na moralizowaniu, ale na analizie, jak działają algorytmy, reklamy i rekomendacje treści. Dzięki temu dzieci uczą się, jak rozpoznawać manipulację i reagować, zanim pojawi się problem.
W Norwegii państwo i operatorzy komórkowi stworzyli wspólny projekt Trygg Start (Bezpieczny Start) – system, w którym każde nowe urządzenie sprzedawane z kartą SIM dla dziecka ma domyślnie włączone filtry treści, ograniczenia godzinowe i kontrolę rodzicielską. Rodzic nie musi sam niczego konfigurować – bezpieczeństwo w urządzeniu ustawiane jest automatyczne.
Nowa Zelandia natomiast przyjęła model oparty na współpracy. Urząd Netsafe działa jako niezależny mediator między szkołami, firmami technologicznymi i rodzinami. Każdy przypadek narażenia dziecka w sieci może być zgłoszony przez prosty formularz online, a reakcja następuje w ciągu 48 godzin. Ten model łączy szybkie reagowanie z edukacją – nie karze, ale uczy i wspiera.
Te przykłady pokazują, że ochrona dzieci w sieci nie musi być ani cenzurą, ani luksusem dużych państw. Wystarczy konsekwencja, jasne zasady i przekonanie, że bezpieczeństwo najmłodszych jest elementem jakości usług, a nie ich dodatkiem.
Ekonomia dziecięcej uwagi
W 2024 roku globalny rynek reklam kierowanych do dzieci przekroczył wartość 18 miliardów dolarów. Ta liczba tłumaczy więcej niż setki raportów. Każda sekunda spędzona przez dziecko w aplikacji to dane, które można sprzedać. Dlatego UX wielu platform nie chroni – tylko zatrzymuje. Kolorystyka, dźwięki, animacje, drobne nagrody i reakcje – wszystko zaprojektowano po to, by dziecko zostało jak najdłużej. Im dłużej trwa interakcja, tym więcej kliknięć, danych i reklam.
Ograniczenie tego procederu byłoby ciosem w model przychodów – dlatego ochrona dzieci wciąż pozostaje w konflikcie z ekonomią platform.
Firmy technologiczne mają wiedzę, środki i dane, by chronić dzieci. Nie robią tego, bo brak działania jest bardziej opłacalny niż odpowiedzialność. Nie pomogą kolejne deklaracje ani kampanie z ambasadorami „bezpiecznego internetu”.
Ochrona dzieci nie wymaga więcej edukacji – wymaga odwagi aby wprowadzić zmiany, które uderzą w przychody. Bo dopiero gdy bezpieczeństwo stanie się tańsze niż obojętność, system zacznie działać tak, jak powinien.

Politycy bez świadomości, firmy bez wstydu
Polityczna cisza w sprawie dzieci
Na konferencjach o sztucznej inteligencji, gospodarce cyfrowej i innowacjach mówi się o wszystkim – oprócz dzieci. Temat ochrony najmłodszych użytkowników internetu wciąż traktowany jest jak kwestia poboczna, z pogranicza edukacji i psychologii, a nie jak wyzwanie cywilizacyjne. Tymczasem to właśnie w sieci kształtują się dziś tożsamość, emocje i światopoglądy całego pokolenia.
Brak realnych decyzji politycznych nie wynika z niewiedzy. Raporty i ostrzeżenia zapewne od lat trafiają na biurka ministrów i parlamentarzystów. Problem polega na tym, że wciąż nie postrzegają oni internetu jako środowiska wychowawczego, tylko jako technologiczne narzędzie. W ich oczach to przestrzeń edukacji, komunikacji i rozrywki, a nie główne środowisko rozwoju psychicznego dzieci.
W Polsce nie istnieje żaden urząd, który systemowo monitorowałby wpływ technologii cyfrowych na dzieci i młodzież. Nie ma organu nadzorującego, w jaki sposób platformy społecznościowe realizują obowiązki dotyczące bezpieczeństwa nieletnich. Nie ma też publicznych raportów o tym, jakie treści trafiają do dzieci ani ilu użytkowników poniżej 13 roku życia korzysta z popularnych aplikacji. Państwo nie widzi, a więc nie reaguje.
Władza bez kompetencji
Brak presji politycznej to nie tylko brak woli, ale również brak kompetencji. W większości krajów urzędnicy i posłowie nie mają podstawowej wiedzy o mechanizmach działania algorytmów, modelach reklamowych czy uzależnieniach behawioralnych. Dlatego prawo, które ma chronić dzieci, pisane jest językiem dorosłych, z myślą o użytkownikach świadomych i racjonalnych, a nie o dzieciach reagujących emocjonalnie i impulsywnie.
Gdy pojawia się temat odpowiedzialności Big Techu, debata szybko zamienia się w spór o wolność w internecie, innowację i konkurencyjność gospodarki cyfrowej. Za tymi hasłami kryje się jednak prosty fakt: żaden rząd nie chce zrazić firm, które inwestują miliardy w infrastrukturę, reklamy i wizerunek nowoczesności. W rezultacie politycy wybierają milczenie, a dzieci płacą cenę.
W Polsce działania państwa ograniczają się do kampanii edukacyjnych i akcji profilaktycznych finansowanych przez organizacje pozarządowe, a często też BigTech oraz telekomy. To wartościowe inicjatywy, ale bez wpływu na system.
Nie powstają żadne programy o charakterze stałym, żadne instytucje odpowiedzialne za nadzór, żadne mechanizmy kontroli. Rodziny i szkoły pozostają same wobec algorytmów zaprojektowanych przez globalne korporacje.
Jak to robią inni i dlaczego u nas nie działa
W Danii działa Rada ds. Cyfrowego Dobrostanu Dzieci – interdyscyplinarne ciało doradcze współtworzące politykę technologiczną państwa. W jej skład wchodzą psychologowie, pedagodzy, inżynierowie i przedstawiciele rodziców. Każdy nowy projekt cyfrowy skierowany do dzieci jest z nimi konsultowany.
W Wielkiej Brytanii od kilku lat funkcjonuje stanowisko Children’s Commissioner for Digital, który ma prawo żądać od firm danych o wpływie ich produktów na dobrostan psychiczny nieletnich. Każdego roku przygotowuje raport dla parlamentu i opinii publicznej.
W Australii urząd eSafety Commissioner nie tylko monitoruje treści, ale ma realne narzędzia: może nakładać kary finansowe, usuwać szkodliwe materiały i wydawać nakazy wobec firm ignorujących zgłoszenia. W 2023 roku serwis X (dawny Twitter) został ukarany za brak reakcji na materiały pornograficzne dostępne dla dzieci.
W Polsce takich struktur nie ma. NASK prowadzi badania i kampanie informacyjne, ale nie ma mandatu ustawowego do egzekwowania zmian od platform. Ministerstwa reagują dopiero po tragediach. A firmy ograniczają się do symbolicznych gestów i sponsorowanych kampanii wizerunkowych.
Mechanizm pozornego dialogu
Giganci technologiczni doskonale zrozumieli, że najtańszą formą regulacji jest dialog. Dlatego chętnie podpisują „porozumienia o współpracy”, uczestniczą w „okrągłych stołach”, tworzą „kodeksy dobrych praktyk”. Brzmi to dobrze, wygląda jeszcze lepiej, ale w rzeczywistości służy jednemu celowi – odsunięciu realnych regulacji w czasie.
Podczas prac nad Digital Services Act lobbyści Big Techu organizowali dziesiątki spotkań tygodniowo z przedstawicielami Komisji Europejskiej. Za każdym razem, gdy pojawia się pomysł ograniczenia targetowania reklam czy obowiązku audytu algorytmów, natychmiast pojawia się argument o „ryzyku cenzury” i „zagrożeniu dla wolności internetu”.
To strategia znana z historii przemysłu tytoniowego i paliwowego: najpierw podważyć zasadność badań, potem rozmyć odpowiedzialność. W rezultacie państwa przegrywają z korporacjami, które dysponują nieporównywalnie większymi budżetami, armią prawników i siłą wpływu medialnego.
Każdy rok zwłoki to kolejne pokolenie dzieci dorastających w świecie, w którym wolność cyfrowa mylona jest z prawem do manipulowania i uzależniania, a brak odpowiedzialności udaje neutralność technologii.
Kiedy władza zrozumie, że to jej obowiązek
Nie będzie skutecznej ochrony dzieci bez dwóch elementów: kompetencji cyfrowych wśród decydentów i politycznej odwagi, by egzekwować prawo wobec największych graczy.
Potrzebny jest niezależny organ ds. bezpieczeństwa cyfrowego dzieci – z budżetem, personelem i realnymi uprawnieniami kontrolnymi. Tak jak istnieje inspekcja pracy, nadzór finansowy czy urząd ochrony konkurencji, tak samo powinien istnieć urząd, który dba o interes najmłodszych użytkowników internetu. Państwo powinno wymagać od firm nie tylko deklaracji, ale także corocznych raportów o działaniach ochronnych i liczbie incydentów.
W Wielkiej Brytanii taki obowiązek jest już standardem. We Francji rząd prowadzi rejestr firm, które stosują weryfikację wieku i mechanizmy ochronne. Polska również mogłaby to zrobić ale potrzebna jest decyzja polityczna, nie kolejna kampania medialna.
Brak presji politycznej na poziomie stanowienia prawa oraz jego egzekwowania utrwala przyzwolenie na toksyczne środowisko cyfrowe. Politycy, którzy nie rozumieją mechanizmów uzależniania i monetyzacji dziecięcej uwagi, stają się nieświadomymi sojusznikami przemysłu, który z tych mechanizmów żyje.
Firmy technologiczne, korzystając z tej niewiedzy, mogą dalej mówić o „edukacji cyfrowej” i „dialogu społecznym”, podczas gdy miliony dzieci uczą się świata w przestrzeni, której nikt nie kontroluje.
Świadomość polityczna to dziś najważniejszy brakujący element ochrony. Bo władza, która nie rozumie świata, w którym żyją jej obywatele, nie jest w stanie ich chronić.

Prawo, które musi zaboleć
Dlaczego dotychczasowe prawo nie działa
Od lat czytamy i słyszymy, że dzieci w internecie wymagają ochrony. I od lat nic się nie zmienia. Unia Europejska, Wielka Brytania i Australia tworzą kolejne ustawy, wytyczne i kodeksy, ale praktyka pozostaje taka sama: prawo nie nadąża za technologią, a jego skuteczność kończy się tam, gdzie zaczyna się globalny kapitał. Największe firmy świata działają ponad granicami państw, a więc także ponad granicami odpowiedzialności.
Najczęstszy problem nie leży w braku przepisów, lecz w ich egzekwowaniu. Kary, które trafiają na korporacje, stanowią ułamek ich kwartalnych zysków i traktowane są jako koszt operacyjny.
Dopóki narażanie dzieci na szkodliwe treści będzie rozpatrywane jako „błąd algorytmu” lub „zaniedbanie proceduralne”, dopóty nic się nie zmieni. Prawo, które pozwala karać symbolicznie, nie jest prawem ochronnym. To prawo deklaratywne – wygodne, pozbawione realnych konsekwencji, niezdolne do wymuszenia zmiany modelu biznesowego platform. A jeśli brak odpowiedzialności jest tańszy niż jej poniesienie, to żadne wezwanie do etyki nie wystarczy.
Prawo, które zaczyna działać – przykłady z zagranicy
Niektóre państwa pokazują, że skuteczna ochrona dzieci w sieci wymaga nie tylko ustaw, ale także odwagi ich egzekwowania. Ochrona dzieci w sieci wymaga nie deklaracji, lecz egzekwowania obowiązków. Prawo staje się skuteczne dopiero wtedy, gdy jego złamanie boli finansowo i wizerunkowo.
Stany Zjednoczone wracają do korzeni swojej najstarszej ustawy o ochronie dzieci w sieci – COPPA (Children’s Online Privacy Protection Act) – przyjętej jeszcze w 1998 roku, ale dopiero w ostatnich latach egzekwowanej z realną mocą. W 2019 roku Federalna Komisja Handlu (FTC) nałożyła na YouTube karę 170 milionów dolarów za śledzenie dzieci bez zgody rodziców, a w 2022 roku – kolejne sankcje wobec Epic Games, twórcy Fortnite za nielegalne profilowanie nieletnich użytkowników.
Niemcy postawiły na pełną odpowiedzialność platform. Zgodnie z ustawą NetzDG (Netzwerkdurchsetzungsgesetz) każda firma internetowa musi usuwać nielegalne lub szkodliwe treści w ciągu 24 godzin od zgłoszenia, a za opóźnienia grożą kary do 50 milionów euro. Choć prawo powstało z myślą o dezinformacji i mowie nienawiści, jego skutki objęły także ochronę nieletnich – prawo wymusiło stworzenie zespołów moderacji w językach narodowych i systemów szybkiej reakcji.
Irlandia – jako kraj, w którym wielu gigantów ma swoje europejskie siedziby, wdrożyła w ramach Online Safety and Media Regulation Act (2022) nowy urząd Coimisiún na Meán. Ma on prawo nakładać wysokie kary za brak moderacji treści szkodliwych dla dzieci oraz wymaga od firm okresowych raportów o ryzykach. To jedno z pierwszych praw w UE, które wprost łączy bezpieczeństwo dzieci z odpowiedzialnością korporacyjną.
Kanada – pracuje nad Online Harms Bill, który zakłada obowiązek natychmiastowego usuwania materiałów seksualnych z udziałem nieletnich i sankcje finansowe za każdy dzień zwłoki. Projekt ten przesuwa dyskusję z poziomu dobrych praktyk na poziom prawa karnego.
Od 2023 roku w Korei Południowej wymaga się od platform gier i aplikacji społecznościowych przeprowadzania audytów „youth impact”. Firmy muszą co rok raportować, w jaki sposób ich produkty wpływają na zdrowie psychiczne młodych użytkowników, a wyniki publikowane są publicznie.
Te przykłady pokazują, że tam, gdzie prawo wiąże się z odpowiedzialnością finansową i kontrolą publiczną, zmiana następuje szybko. Nie dlatego, że firmy nagle stają się moralne ale dlatego, że nieopłacalne staje się ignorowanie obowiązków. Bo to nie rodzice projektują algorytmy, nie oni zarabiają na reklamach i nie rodzice decydują, co dziecko zobaczy po kliknięciu w ekran.
Europa – dobre intencje, słaba konsekwencja
Unia Europejska ma ambicje chronić swoich obywateli, ale jej prawo często grzęźnie w zawiłościach proceduralnych. Obydwa akty prawne Digital Services Act (DSA) i Digital Markets Act (DMA) miały wprowadzić porządek w świecie cyfrowym: zwiększyć przejrzystość algorytmów, ograniczyć dezinformację, chronić dzieci przed toksycznymi treściami.
W teorii to krok milowy. W praktyce – brakuje konsekwencji i egzekucji. Większość zapisów DSA ma charakter deklaratywny. Kary nakładane są rzadko, a audyty bezpieczeństwa przeprowadzane z opóźnieniem. Brakuje też najważniejszego elementu: powiązania obowiązków ochronnych z odpowiedzialnością finansową.
Prawo unijne nie określa, ile warta jest krzywda dziecka, które z powodu zaniedbań platformy trafiło na materiały pornograficzne lub samobójcze. Nie istnieje żaden wzorzec rekompensaty ani system rozliczania szkód psychicznych.
Wnioski z raportu „Internet dzieci 2025”
Raport „Internet dzieci 2025” przygotowany przez Instytut Cyfrowego Obywatelstwa, Polskie Badania Internetu, Gemius i PKDP pokazuje, że Polska nie ma spójnego systemu przeciwdziałania zagrożeniom cyfrowym dzieci. Brakuje koordynacji, a wiele obowiązujących przepisów pochodzi z czasów, gdy internet był dodatkiem do życia, nie jego codziennością.
Autorzy raportu rekomendują utworzenie krajowego centrum kompetencji ds. bezpieczeństwa dzieci online, wsparcie edukacji cyfrowej rodziców i nauczycieli oraz rozwój współpracy między sektorem publicznym, technologicznym i organizacjami społecznymi.
To ważne postulaty, ale wciąż utrzymane w języku „miękkich działań” – edukacja, współpraca, świadomość. Problem w tym, że edukacja bez sankcji staje się alibi, a świadomość bez prawa – wymówką. Potrzebujemy systemu, który nie tylko tłumaczy, jak działa internet, ale wymusza, by działał bezpieczniej.
Czego potrzeba naprawdę – czyli prawo, które boli
Jeśli chcemy skutecznie chronić dzieci, prawo musi być zaprojektowane tak, by brak ochrony przestał się opłacać. Nie chodzi o zakazy, lecz o ekonomiczne bodźce.
Każda platforma, która nie wdroży skutecznych filtrów wiekowych, powinna płacić kary proporcjonalne do przychodu z nieletnich użytkowników. Każdy przypadek narażenia dziecka na pornografię, przemoc lub nękanie online powinien być traktowany nie jako „błąd moderacji”, lecz jako naruszenie praw dziecka.
Firmy powinny być zobowiązane do publikowania corocznych raportów ryzyka związanego z nieletnimi – w formie publicznej, a nie PR-owej.
Takie regulacje nie są represją, lecz przywróceniem proporcji między zyskiem a odpowiedzialnością. Bo dopiero wtedy, gdy koszt obojętności przewyższy zysk z jej utrzymania, rynek zacznie się zmieniać z własnej woli.
Czy potrzebujemy kolejnych kampanii z hasłem „bądźmy odpowiedzialni w sieci”? Pewnie tak ale przede wszystkim pilnie potrzebujemy prawa, które uczyni nieodpowiedzialność firm nieopłacalną.
W ochronie dzieci chodzi o to, by bezpieczeństwo najmłodszych było nie tylko postulatem, ale obowiązkiem – takim samym jak ochrona danych osobowych, prawo pracy czy przepisy budowlane. To, co dziś dzieje się w internecie, nie jest naturalnym etapem rozwoju technologii, lecz skutkiem braku odwagi politycznej i etycznej, by pociągnąć do odpowiedzialności tych, którzy zbudowali świat bez granic, ale z dokładnie wyliczonym zyskiem.
Prawo zacznie działać dopiero wtedy, gdy jego złamanie będzie bardziej bolesne niż jego przestrzeganie. A dopóki tak się nie stanie za każdy dzień zwłoki płacą dzieci.

Jak wyjść z impasu
Zmiana zaczyna się tam, gdzie kończy się obojętność
Kiedy mówimy o ochronie dzieci w internecie, często słyszymy, że to zbyt skomplikowane, zbyt globalne, że wymaga czasu i międzynarodowej współpracy. Ale w rzeczywistości problem nie leży w technologii, tylko w priorytetach. To, co udało się zrobić dla bankowości, transportu lotniczego czy ochrony danych osobowych, można zrobić również tutaj. Nie dlatego, że to proste, ale dlatego, że nie da się dłużej udawać, że dzieci poradzą sobie same w świecie zaprojektowanym przez dorosłych i dla dorosłych.
Odpowiedzialność za ten stan rzeczy jest wspólna – polityków, firm, mediów, edukatorów, rodziców i użytkowników ale nie równa. Najwięcej mogą zrobić ci, którzy mają największą władzę: rządy i korporacje. To oni projektują ramy rzeczywistości, w której dorastają najmłodsi. I to oni powinni wreszcie uznać, że ochrona dzieci nie jest kwestią dobrej woli, lecz obowiązku.
Rola państwa: prawo, które chroni, a nie prosi
Państwo nie musi wiedzieć, jak działa każdy algorytm, by chronić obywateli. Wystarczy, że potrafi stawiać granice – precyzyjnie, konsekwentnie i bez kompleksów wobec wielkich korporacji.
Pierwszym krokiem powinna być pełna implementacja unijnych regulacji (DSA i DMA), ale z naciskiem na egzekwowanie, nie deklaracje. Drugim – powołanie niezależnego organu ds. bezpieczeństwa cyfrowego dzieci, działającego na wzór instytucji w Danii czy Australii. Nie kolejnego projektu pilotażowego ani kampanii społecznej, ale trwałej instytucji z budżetem, personelem i realnymi uprawnieniami.
Równolegle państwo powinno finansować badania nad długofalowymi skutkami ekspozycji dzieci na treści online, prowadzić cykliczne kampanie informacyjne dla rodziców i nauczycieli, a także wspierać lokalne sieci edukacji cyfrowej.
To wszystko można zorganizować w ramach istniejących struktur. Potrzebna jest tylko decyzja, że dzieci są w tym systemie priorytetem, a nie dodatkiem do strategii cyfrowych. Bo bezpieczeństwo dzieci w sieci nie jest kwestią edukacji czy moralności. To element polityki publicznej, tak samo jak zdrowie, transport czy obrona narodowa.
Rola firm: odpowiedzialność jako model biznesowy
Firmy technologiczne lubią mówić o innowacji, ale znacznie rzadziej o odpowiedzialności. Tymczasem prawdziwa innowacja to nie kolejny filtr, naklejka czy funkcja premium, tylko projektowanie produktów, które chronią użytkowników z założenia. To wymaga zmiany filozofii działania – od „attention economy” do „ethics by design”. Nie chodzi o to, by technologia stała się mniej nowoczesna, lecz by była mniej obojętna.
O lojalności użytkowników decyduje dziś nie efekt nowości, ale zaufanie. A zaufanie rodzi się wtedy, gdy produkt jest bezpieczny.
Na świecie już powstają firmy, które rozumieją tę logikę. Duńskie aplikacje edukacyjne nie śledzą aktywności dziecka. Australijskie platformy rodzinne pozwalają rodzicom i dzieciom wspólnie decydować o prywatności. Brytyjskie startupy eksperymentują z interfejsami, które tłumaczą użytkownikowi, dlaczego zobaczył konkretną treść. To małe rewolucje, które pokazują, że etyka i zysk nie są sprzeczne o ile zysk nie jest jedynym celem.
Rola społeczeństwa – nie godzimy się na obojętność
Zmiana nie nastąpi tylko odgórnie. Potrzebna jest presja społeczna, która wymusi na politykach i firmach odpowiedzialność. Każdy z nas ma wpływ na to, jakie środowisko cyfrowe zostanie po nas. Wystarczy przestać powtarzać, że „tak po prostu działa internet”.
Nic nie działa samo z siebie – ktoś projektuje interfejsy, algorytmy i komunikaty, ktoś podejmuje decyzje, co jest widoczne, a co znika. Każdy akt obojętności i każde „to nie mój problem” wzmacniają status quo.
Świadomość użytkowników to potężna siła. Publikacje, podcasty, projekty edukacyjne czy lokalne inicjatywy mają znaczenie – to one zmieniają język debaty. Z małych rozmów powstają duże decyzje. Tak rodzi się presja, której nie da się już zignorować.
Co można zrobić dziś
Nie musimy czekać na nowe prawo aby działać skuteczniej. Rodzice mogą korzystać z kontroli rodzicielskiej, nawet jeśli nie jest idealna – prowizoryczna ochrona jest lepsza niż jej brak. Szkoły mogą organizować warsztaty o higienie cyfrowej i emocjach online, zamiast powtarzać frazy o „bezpiecznych hasłach”. Media mogą przestać promować każdą nową technologię bez pytania o jej wpływ na dzieci. A firmy mogą wprowadzać tryby rodzinne, raporty przejrzystości i realne limity czasu ekranowego.
Każdy z tych kroków wydaje się drobny, ale razem tworzą kulturę odpowiedzialności. A to właśnie kultura – nie kampanie – zmienia rzeczywistość.
Nie zmienimy przeszłości. Dzieci już dorastają w świecie, w którym internet kształtuje więcej niż szkoła, dom i rówieśnicy razem wzięci. Ale możemy zmienić przyszłość – pod warunkiem, że uznamy, iż obojętność nie jest neutralna.
Każdy dzień bez działania to kolejny dzień, w którym dziecko widzi coś, czego nigdy nie powinno zobaczyć. Ten system nie potrzebuje korekty. Potrzebuje przebudowy – z myślą o tych, którzy jeszcze nie potrafią sami się bronić. Bo dzieci nie potrzebują nowego internetu. Potrzebują dorosłych, którzy wreszcie przestaną się bać odpowiedzialności.

Artykuł powstał w oparciu o najnowsze dane z raportów „Nastolatki 2025” (NASK – Państwowy Instytut Badawczy, Warszawa 2025) oraz „Internet dzieci 2025” (Fundacja Instytut Cyfrowego Obywatelstwa, Warszawa 2025), a także analizy międzynarodowych instytucji zajmujących się bezpieczeństwem cyfrowym, w tym Ofcom (UK), American Psychological Association (USA), UNICEF, EU Kids Online, Tech Transparency Project oraz PwC (Global Entertainment and Media Outlook).
W tekście wykorzystano również obowiązujące akty prawne i standardy regulacyjne dotyczące ochrony dzieci w środowisku cyfrowym:
- Age Appropriate Design Code (Wielka Brytania, 2020)
- Online Safety Act (Australia, 2021)
- Loi visant à instaurer une majorité numérique (Francja, 2023)
- Digital Responsibility Act (Dania, 2024)
- Digital Services Act (Unia Europejska, 2022)
- COPPA – Children’s Online Privacy Protection Act (Stany Zjednoczone, znowelizowany 2019–2022)
- NetzDG – Netzwerkdurchsetzungsgesetz (Niemcy, 2017, z późn. zmianami)
- Youth Protection Act (Korea Południowa, 2024)
oraz wytyczne i inicjatywy rządowe dotyczące Age Verification Roadmap (Australia), Digital Detox Schools (Korea Południowa) oraz programów Safe Digital Childhood w Norwegii i Holandii.
Bibliografia i źródła
- NASK – Państwowy Instytut Badawczy (2025). Nastolatki. Cyfrowe życie polskich nastolatków.
https://www.nask.pl/nastolatki - Instytut Cyfrowego Obywatelstwa, Polskie Badania Internetu, Gemius, PKDP (2025). Internet dzieci – raport z monitoringu obecności dzieci i młodzieży w internecie. Fundacja Instytut Cyfrowego Obywatelstwa, Warszawa 2025.
https://higienacyfrowa.pl/publikacje/internet-dzieci/ - Ofcom (2023). Children and Parents: Media Use and Attitudes Report. https://www.ofcom.org.uk/media-use-and-attitudes/media-habits-children/children-and-parents-media-use-and-attitudes-report-2025–interactive-data
- American Psychological Association (2023). Health Advisory on Social Media Use in Adolescence.
https://www.apa.org/topics/social-media-internet/health-advisory-adolescent-social-media-use.pdf - UNICEF (2025). Childhood in a Digital World. https://www.unicef.org/innocenti/media/11296/file/UNICEF-Innocenti-Childhood-in-a-Digital%20World-report-2025.pdf
- EU Kids Online (2023). Children’s Experiences Online in Europe. London School of Economics and Political Science (LSE).
https://www.lse.ac.uk/media-and-communications/assets/documents/research/eu-kids-online/reports/EU-Kids-Online-2020-10Feb2020.pdf - Digital Services Act (Unia Europejska, 2022). European Commission – Digital Strategy. https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package
bezpieczny internet dla rodziców dzieci w internecie dzieci w sieci internet i dziecko kontrola rodzicielska lepszy internet media społecznościowe nastolatki online social media uzależnienie od gier online uzależnienie od mediów społecznościowych uzależnienie od smartfona zagrożenia online zdrowie
Last modified: 27.12.2025