Według krytyków unijna Ustawa o usługach cyfrowych (DSA) w praktyce zmusza amerykańskie platformy do pełnienia roli "policji słowa" na rzecz UE, pod nieustanną groźbą dotkliwych sankcji. W ten sposób DSA wywołuje eksterytorialne skutki, wykraczające daleko poza Europę. To kluczowa kwestia: każdy amerykański użytkownik platformy X może zostać przez nią ukarany za wyrażenie opinii. W praktyce DSA stosowany jest więc wobec wszystkich Amerykanów. Ten wymóg stanowi ewidentny przykład imperializmu normatywnego, który charakteryzuje Unię Europejską od ponad dwóch dekad.
Jedyną możliwą techniczną alternatywą byłoby stworzenie oddzielnych platform – X-USA i X-EU – co byłoby zaprzeczeniem samej idei globalnej sieci i internetu jako takiego.
Komisja Sprawiedliwości Izby Reprezentantów USA potępiła ten system jako formę "zorganizowanej cenzury", w ramach której UE "uzbraja" organizacje pozarządowe, by zmuszały amerykańskie firmy technologiczne do usuwania treści, które są zgodne z prawem USA, ale uznane za "problematyczne" w Europie.
Kary mogą sięgać 6% globalnych obrotów firmy, co w przypadku podmiotów takich jak Meta czy Google oznacza potencjalne miliardy euro. W razie braku współpracy platformy mogą nawet zostać czasowo zablokowane na rynku unijnym.
W środowisku ścisłego egzekwowania przepisów platformy są silnie motywowane do nadmiernej moderacji, by ograniczyć ryzyko regulacyjne, co prowadzi do usuwania treści, które są całkowicie legalne. Mówimy tu o ok. ośmiu milionach postów miesięcznie usuwanych w UE – nie licząc całkowitych banów, np. dla rosyjskich mediów.
Priorytetem jest walka z treściami nielegalnymi. Zgodnie z przepisami UE i prawem krajowym należą do nich mowa nienawiści (np. nawoływanie do przemocy na tle rasowym czy religijnym), treści terrorystyczne, materiały z wykorzystywaniem seksualnym dzieci, towary podrabiane i produkty niebezpieczne... A jednak centralny problem pozostaje: "nienawiść" nie została nigdzie zdefiniowana w przepisach.
Warto podkreślić, że dezinformacja sama w sobie nie jest nielegalna. DSA wymusza więc aktywną cenzurę treści, które są zgodne z prawem – ale nie podobają się europejskim książętom i ich legionom cenzorów.
Amerykańska wolność słowa nie przetrwa w cieniu "Wielkiego Brata" zwanego DSA.
Czym jest DSA?
DSA, przyjęty przez Unię Europejską w 2022 r., a w pełni obowiązujący od lutego 2024 r. w stosunku do tzw. bardzo dużych platform internetowych (VLOP) – takich jak X, Facebook, TikTok czy Google – nie jest oficjalnie przedstawiany jako instrument "zorganizowanej cenzury". W założeniu ma być ramami regulacyjnymi dla usług cyfrowych, chroniącymi użytkowników przed nielegalnymi treściami, ryzykiem systemowym oraz nieprzejrzystymi praktykami platform.
Jednak coraz więcej krytyków – zwłaszcza w USA, m.in. Elon Musk oraz republikańscy kongresmeni – postrzega DSA jako mechanizm masowej cenzury. Ich zdaniem ustawa narzuca biurokratyczny nadzór nad wolnością wypowiedzi i umożliwia selektywne tłumienie poglądów opozycyjnych.
Na wstępie trzeba zaznaczyć, że DSA dotyczy wszystkich pośredników cyfrowych (platform, dostawców hostingu i powiązanych usług), choć obowiązki są znacznie bardziej rygorystyczne wobec VLOP-ów, czyli platform mających ponad 45 milionów użytkowników miesięcznie w UE.
Kto cenzuruje? (Zaangażowane podmioty)
Cenzura – przemianowana na "moderację" – nie jest bezpośrednio sprawowana przez UE ani przez rządy krajowe. Została delegowana na same platformy, które działają pod ścisłym nadzorem administracji krajowych. Efektem jest zdecentralizowany, lecz silnie kontrolowany system, który krytycy określają jako biurokratyczną "industrializację moderacji".
Platformy cyfrowe są głównymi wykonawcami tej polityki. Mają one obowiązek aktywnie moderować treści, a w przypadku VLOP-ów wymagania są szczególnie surowe. Muszą one przeprowadzać analizy "ryzyk systemowych", takich jak rozpowszechnianie dezinformacji, oraz wdrażać proaktywne działania, w tym algorytmy wykrywające i zespoły moderatorów. Platformy poniżej progu 45 milionów użytkowników mają mniej obowiązków, ale i tak muszą reagować na zgłoszenia.
Komisja Europejska pełni rolę głównego nadzorcy VLOP-ów. Może wszczynać postępowania, żądać dostępu do danych i nakładać grzywny. Przykładowo, w grudniu 2025 r. nałożono na X karę 120 mln euro za rzekomy brak przejrzystości w praktykach moderacyjnych – zwłaszcza dotyczących tzw. "niebieskich znaczników", które miały ostrzegać przed treściami rzekomo promującymi dezinformację.
UE wyznacza też tzw. "zaufanych sygnalistów" – zazwyczaj są to organizacje pozarządowe, których zgłoszenia muszą być traktowane priorytetowo. W oficjalnym wykazie figurują organizacje uznawane za lewicowe lub skrajnie lewicowe, jak HateAid (Niemcy) czy UNIA (Belgia).
Każde państwo członkowskie UE wyznacza krajowego koordynatora ds. usług cyfrowych (DSC) – np. ARCOM we Francji czy BNetzA w Niemczech – który nadzoruje platformy niebędące VLOP-ami i współpracuje z UE. To oni zajmują się skargami lokalnymi i nakładają sankcje. Najbardziej restrykcyjne kraje, jak Niemcy i Francja, mają nieproporcjonalny wpływ na cały system, co prowadzi do obniżania standardów wolności słowa w całej UE – treść zgłoszona w jednym kraju jest w praktyce zgłaszana w całej Unii.
Dodatkowo, każda osoba może zgłosić treść przez mechanizm "zgłoś i działaj" (notice-and-action). Zaufani sygnaliści, akredytowani przez DSC, mają uprzywilejowaną pozycję: ich zgłoszenia są traktowane priorytetowo i często skutkują szybkimi usunięciami.
W grudniu 2025 r. Stany Zjednoczone zakazały wjazdu pięciu Europejczykom, w tym byłemu komisarzowi Thierry'emu Bretonowi, za wywieranie presji na amerykańskie platformy internetowe.
Jak to działa? (Mechanizmy)
DSA tworzy szczegółowy, zorganizowany proces, który krytycy porównują do taśmy produkcyjnej cenzury.
Zgłoś i działaj: Każdy może zgłosić treść jako nielegalną. Platformy muszą ją szybko przeanalizować – często w ciągu 24–48 godzin. W przypadku VLOP-ów wykorzystywane są również algorytmy AI do skanowania treści.
Analiza ryzyka systemowego: VLOP-y muszą przeprowadzać coroczne audyty ryzyka, w dziedzinach takich jak dezinformacja, zagrożenia dla zdrowia psychicznego czy procesów demokratycznych, oraz wdrażać środki zaradcze, np. depriorytetyzację postów.
Obowiązki w zakresie przejrzystości: Platformy muszą uzasadniać każdą decyzję o usunięciu treści (art. 17 DSA), publikować półroczne raporty (np. 41,4 mln usuniętych treści w UE w I połowie 2025) i oferować mechanizmy odwoławcze. W praktyce są one nieprzejrzyste i powolne, co zachęca do prewencyjnej cenzury.
Organy UE i DSC prowadzą też kontrole, np. poprzez "tajemnicze zakupy", by sprawdzić przestrzeganie przepisów, jak w przypadku handlu nielegalnymi produktami na Temu.
Wysokość grzywien może sięgnąć 6% globalnego obrotu firmy. W razie braku współpracy możliwa jest tymczasowa blokada platformy na terenie UE.
Na jakiej podstawie? (Kryteria "moderacji")
Kryteria moderacji nie są jednolite ani jasno określone. Opierają się na prawie unijnym i krajowym, co sprawia, że system jest nieprzejrzysty i podatny na nadużycia. Termin "nienawiść" nie ma spójnej definicji, co pozwala na jego dowolną interpretację.
Nielegalne treści to priorytet. Należą do nich: mowa nienawiści, treści terrorystyczne, wykorzystywanie dzieci, podróbki, niebezpieczne produkty (np. "lalki pedofilskie" na Temu).
Ale to, co uznaje się za "nienawiść", zależy od ideologicznej interpretacji. Nazwanie polityka "skrajną prawicą" nie jest ścigane, natomiast wskazywanie na związki między islamską imigracją a antysemityzmem – już tak.
W rzeczywistości pojęcie "nienawiści" jest używane jako pretekst do cenzurowania opinii niezgodnych z lewicową ortodoksją.
W USA obowiązuje zasada: państwo nie może zakazywać wypowiedzi wzywających do użycia siły lub łamania prawa, chyba że mają one na celu i są zdolne do wywołania bezpośrednich działań bezprawnych. Jest to ochrona wynikająca z Pierwszej Poprawki.
Druga kategoria dotyczy "ryzyka systemowego", tylko dla VLOP-ów. Obejmuje szkody dla nieletnich, przemoc, uzależniające treści czy dezinformację – np. dotyczącą zdrowia publicznego, wyborów czy szczepionek. Te treści nie są nielegalne, ale uznawane za szkodliwe, co prowadzi do ich degradowania lub cenzury.
W 2025 roku stu ekspertów ds. wolności słowa ostrzegło, że DSA doprowadzi do "rozbicia globalnej wolności słowa".
Amerykańska wolność słowa nie przetrwa w cieniu "Wielkiego Brata" zwanego DSA.
Drieu Godefridi – prawnik (Université Saint-Louis, Uniwersytet w Louvain), filozof, doktor teorii prawa (Sorbonne – Paris IV). Przedsiębiorca, dyrektor europejskiej grupy edukacyjnej oraz PAN Medias Group. Autor książki The Green Reich (2020).
