Merk's

Trainier dein Auge, um AI-generierte Inhalte zu erkennen. Wenn du die Muster einmal siehst, kannst du sie nicht mehr ausblenden.

AI-Bilder erkennen

Die Bildgenerierung ist weit gekommen, aber sie hinterlässt immer noch Fingerabdrücke. Der Trick ist zu wissen, wo du hinschaust.

Fang mit deinem Bauchgefühl an. Wenn sich etwas „komisch“ anfühlt, du aber nicht sofort sagen kannst warum, liegt dein Instinkt meistens richtig. AI-Bilder lösen oft diesen Uncanny-Valley-Effekt aus: fast korrekt, aber eben nicht ganz. Verlass dich auf dieses Gefühl.

Die Augen sind oft der erste Hinweis. Sie können leblos wirken – ohne die natürliche Tiefe und dieses leichte „Feucht-Glänzen“, das du von echten Fotos kennst. Pupillen können asymmetrisch sein, oder die Reflexionen darin ergeben physikalisch keinen Sinn. Lächeln wirken manchmal aufgeklebt und erreichen die Augen nicht, wie echte Emotionen es tun. Und manchmal ist da einfach … nichts. Ein leerer Blick, wo Gefühl sein sollte.

Dann gibt’s das „zu perfekt“-Problem: Haut unnatürlich glatt, ohne Poren oder Textur. Licht ohne klare Quelle – oder als käme es von überall gleichzeitig. Farben, die übertrieben traumhaft und übersättigt wirken. Kein Körnchen Rauschen, selbst da, wo es eigentlich ein Low-Light-Foto sein müsste. Hintergründe, die verdächtig gleichmäßig sind. Echte Fotos haben Macken. AI vergisst sie oft.

Wenn du genug AI-Content siehst, fallen dir auch Wiederholungen auf. Die gleichen Posen tauchen ständig auf. Proportionen wirken seltsam standardisiert. Es gibt so ein wiederkehrendes „AI-Gesicht“, das du irgendwann erkennst. Wenn du denkst: „Das hab ich exakt so schon mal gesehen“, hast du es wahrscheinlich auch – nur mit anderen Haaren oder anderer Kleidung.

Bei feinen Details wird AI richtig schwach. Hände sind das Klassiker-Beispiel: zu viele Finger, fehlende Finger, Finger, die in die falsche Richtung knicken oder Dinge unmöglich greifen. Aber es geht weiter: Schmuck kann in die Haut „reinlaufen“ oder so hängen, dass es der Physik widerspricht. Kleidung hat Nähte, die ins Nichts führen, Knöpfe an random Stellen, Stoff, der sich nicht glaubwürdig faltet. Haare „schmelzen“ gerne in den Hintergrund oder werden an den Rändern zu Textursuppe.

Und dann ist da Text. Text in AI-Bildern ist fast immer ein Volltreffer als Hinweis: Schilder mit unlesbarem Kauderwelsch. Shirts mit Buchstaben, die fast Wörter sind – aber nicht ganz. Fake-Wasserzeichen und Signaturen, als hätte jemand beim Schreiben einen Schlaganfall gehabt. Hintergrundobjekte, die du nicht benennen kannst, weil sie eigentlich nicht existieren. Architektur ohne Sinn: Türen ins Nichts, Fenster in falschen Winkeln, Treppen, auf denen niemand laufen könnte.

AI-Videos erkennen

Videogenerierung ist neuer – und ehrlich gesagt oft leichter zu erkennen als Bilder. Die Fehler springen ins Auge, sobald sich etwas bewegt.

Das Erste, was auffällt, ist diese traumartige Qualität. Alles wirkt leicht surreal, als würdest du durch einen Filter schauen, den es gar nicht gibt. Die Belichtung bleibt seltsam konstant, obwohl sie es nicht sollte. Es gibt diese weiche, schwebende Atmosphäre – selbst in Szenen, die eigentlich bodenständig wirken müssten. Farben können zwischen Frames unnatürlich wechseln.

Bewegung ist der Punkt, wo es wirklich auseinanderfällt. Menschliche Bewegung hat kleine Mikro-Zitterer und Unperfektheiten, aber AI-Motion ist oft zu glatt, zu sauber. Gesten wirken robotisch, ohne die natürliche Beschleunigung und Verzögerung, die wir unbewusst machen. Gesichter können zwischen Frames subtil „morphing“ zeigen. Haare und Kleidung bewegen sich falsch, manchmal clippen sie direkt durch den Körper. Gliedmaßen können sich dehnen oder biegen – so, dass es dich in echt ins Krankenhaus bringen würde.

Achte auch auf Inkonsistenzen in der Szene: Objekte, die zwischen Schnitten auftauchen oder verschwinden. Hintergründe, die sich verziehen, wenn die Kamera sich bewegt. Schatten, die nicht zur Lichtquelle passen. Spiegelungen, die etwas anderes zeigen als die Szene. Physikverstöße bei Wasser, Feuer oder Rauch, die sich so verhalten, wie sie es in der Realität nie tun würden.

Audio-Hinweise helfen, wenn das Video Ton hat. AI-Stimmen haben oft eine robotische Kadenz mit unnatürlichen Pausen. Lip-Sync sitzt häufig minimal daneben – Mundbewegungen passen nicht ganz zu dem, was du hörst. Umgebungsgeräusche, die da sein müssten, fehlen. Hintergrundrauschen bleibt perfekt gleichmäßig, statt sich natürlich zu verändern.

AI-Text erkennen

Auch Text hat seine Fingerabdrücke. Wenn du sie einmal kennst, merkst du AI-Schreibstil überall: in Artikeln, Kommentaren, Produktbeschreibungen, Social-Posts.

Große Sprachmodelle haben Lieblingswörter, die sie massiv überbenutzen. „Delve“ ist das berühmte Beispiel, aber es gibt eine ganze Familie: crucial, pivotal, vital, tapestry, landscape, interplay, foster, enhance, showcase. Dazu Satzanfänge wie „Additionally“, „Furthermore“ und „Moreover“. Und Adjektive wie „intricate“, „vibrant“ und „enduring“, die schlau klingen, aber wenig sagen. Wenn dir mehrere davon in einem Text auffallen, ist das ein Warnsignal.

AI-Text liebt es, dir zu erklären, wie wichtig alles ist. Sie kann’s nicht lassen. „Stands as a testament to …“ ist so ein Klassiker. Alles „plays a vital role“ oder „reflects broader trends“. Selbst banale Themen bekommen „enduring impact“ oder „indelible mark on history“ verpasst. Diese Aufblähung ist konstant.

Es gibt auch dieses Muster, am Satzende Analyse-Floskeln dranzukleben – oft mit -ing-Wörtern: „…ensuring continued growth.“ „…highlighting its significance.“ „…contributing to the broader ecosystem.“ Klingt durchdacht, sagt aber inhaltlich fast nichts.

Die Struktur von AI-Text ist oft vorhersehbar. Übernutzung der „Dreierregel“ („Adjektiv, Adjektiv und Adjektiv“). Negativ-Parallelen wie „It’s not just about X, it’s about Y“. Schlussabsätze nach dem Muster „Despite challenges… continues to thrive“. Überall Gedankenstriche. Und dann die „elegant variation“: Wörter werden nicht wiederholt, also wird „the city“ plötzlich „the urban center“, dann „the metropolitan area“, dann „the municipality“ – alles in einem Absatz.

Achte auf vage Zuschreibungen: „Experts argue…“ – welche Experten? „Industry reports indicate…“ – welche Reports? „Observers have noted…“ – wer, wann, wo? „Has been described as…“ – von wem? Oft: von der AI selbst. Solche Weasel-Wording-Sätze klingen autoritativ, ohne überprüfbar zu sein.

Der Werbe-Ton ist ein weiterer Hinweis. AI-Schreiben klingt oft wie Marketing, selbst wenn es das nicht sollte. „Nestled in the heart of…“ ist Reisebroschüren-Sprache. Orte „boast“ ständig irgendwas. Alles „continues to captivate audiences“. Wörter wie „groundbreaking“ und „revolutionary“ werden auf völlig normale Dinge geworfen.

Auch strukturelle Muster sind verräterisch. AI liebt Title Case für jede Überschrift. Sie benutzt zu viel Fettformatierung wie ein Lehrbuch. Listen folgen überall dem „**Punkt:** Beschreibung“-Schema. Artikel enden mit „Challenges and Future Outlook“. Fazits starten mit „In summary“ oder „In conclusion“.

Manchmal lässt AI echte Glitches drin: Markdown-Syntax, die durchblutet (Sterne für fett, # für Überschriften). „Curly quotes“ statt gerader Anführungszeichen. Platzhalter-Text, der nie gefüllt wurde. Merkwürdige Referenzfehler wie „citeturn0search0“ oder „[oai_citation:0]“. Chat-Phrasen wie „I hope this helps!“ oder „Let me know if you'd like…“, die eindeutig nicht in veröffentlichten Content gehören.

Und wie bei Bildern gibt es auch beim Text ein Uncanny Valley. Es fühlt sich „off“ an, bevor du sagen kannst warum. Zu glatt, ohne Persönlichkeit, ohne Stimme. Wortreich, aber leer. Universell positiv, selten mit echter Haltung oder ehrlicher Kritik. Grammatikalisch perfekt – aber irgendwie hohl. AI geht zum Mittelwert und sagt das statistisch Wahrscheinlichste, nicht das Wahrste oder Interessanteste.

Kurz gesagt

Wenn du Fragen hast oder etwas unklar ist, melde dich gern.