Hol dir deinen Feed zurück.
Überspring den Slop.

Die universelle Erweiterung zum Erkennen von AI-Slop. Markiert und überspringt minderwertige generierte Inhalte auf großen Streaming- und Social-Media-Plattformen.

Mehr Abdeckung

Läuft zuverlässig auf gängigen Streaming- und Video-Portalen.

Von der Community getragen

Melde Slop, damit andere ihn auch erkennen. Je mehr Leute melden, desto mehr Müll können wir für alle markieren.

Gegen Täuschung

Lass dich nicht von Fake-Inhalten täuschen oder falsch informieren.

Die Rechtslage

Regierungen ziehen langsam nach – aber nicht schnell genug.

Trotz dieser Regeln geht es nur langsam voran. Die Technik entwickelt sich schneller, als Gesetze mithalten können.

Generierte Inhalte können inzwischen fast identisch wie echtes Material aussehen. Das ist besonders gefährlich für Menschen, die die Zeichen von AI-Manipulation nicht erkennen.

Ältere Menschen fallen auf AI-Betrug rein. Kinder können echt und fake nicht unterscheiden. Verwundbare Gruppen werden mit maßgeschneiderter Desinformation angegriffen. Labels gibt es auf dem Papier – durchgesetzt wird kaum etwas.

EU AI Act

Der EU AI Act (Verordnung 2024/1689) schreibt vor, dass AI-generierte Inhalte gekennzeichnet werden. Voll anwendbar ab dem 2. August 2026 betrifft er Anbieter generativer AI und alle, die Deepfakes erstellen.

Anbieter müssen AI-erstellte oder manipulierte Inhalte (Bilder, Videos, Text) in einem maschinenlesbaren Format markieren. Deepfakes und AI-Inhalte zu Themen von öffentlichem Interesse brauchen eine klare Kennzeichnung.

Die Europäische Kommission veröffentlichte im Dezember 2025 den ersten Entwurf eines praktischen Kodex, der bis Mitte 2026 finalisiert werden soll. Er verbietet Filtern nicht, verpflichtet Plattformen aber zur Kennzeichnung.

USA-Regelungen

Kaliforniens AB 2015 (2025) verlangt Kennzeichnungen für AI-generierte Bilder und Videos – besonders im Wahlkontext – mit Strafen bei Verstößen.

Auf Bundesebene zielt der vorgeschlagene No AI FRAUD Act ähnlich auf Deepfakes ab und peilt eine Durchsetzung bis 2026 an.

China & Asien

China verlangt seit 2023 eine "synthetic"-Kennzeichnung für AI-Video- und Audioinhalte, überwacht von der Cyberspace Administration.

Südkorea schrieb ab 2024 Transparenz für generative AI-Outputs vor.

Rest der Welt

Australien und Brasilien haben freiwillige Kodizes, die bis 2026 verpflichtend werden könnten. Indien bestraft Plattformen bereits für nicht gekennzeichnete AI-Werbung.

Diese Regelungen richten sich vor allem gegen Täuschung – ähnlich wie der EU-Ansatz.