AI-Bilder erkennen
Die Bildgenerierung ist weit gekommen, aber sie hinterlässt immer noch Fingerabdrücke. Der Trick ist zu wissen, wo du hinschaust.
Fang mit deinem Bauchgefühl an. Wenn sich etwas „komisch“ anfühlt, du aber nicht sofort sagen kannst warum, liegt dein Instinkt meistens richtig. AI-Bilder lösen oft diesen Uncanny-Valley-Effekt aus: fast korrekt, aber eben nicht ganz. Verlass dich auf dieses Gefühl.
Die Augen sind oft der erste Hinweis. Sie können leblos wirken – ohne die natürliche Tiefe und dieses leichte „Feucht-Glänzen“, das du von echten Fotos kennst. Pupillen können asymmetrisch sein, oder die Reflexionen darin ergeben physikalisch keinen Sinn. Lächeln wirken manchmal aufgeklebt und erreichen die Augen nicht, wie echte Emotionen es tun. Und manchmal ist da einfach … nichts. Ein leerer Blick, wo Gefühl sein sollte.
Dann gibt’s das „zu perfekt“-Problem: Haut unnatürlich glatt, ohne Poren oder Textur. Licht ohne klare Quelle – oder als käme es von überall gleichzeitig. Farben, die übertrieben traumhaft und übersättigt wirken. Kein Körnchen Rauschen, selbst da, wo es eigentlich ein Low-Light-Foto sein müsste. Hintergründe, die verdächtig gleichmäßig sind. Echte Fotos haben Macken. AI vergisst sie oft.
Wenn du genug AI-Content siehst, fallen dir auch Wiederholungen auf. Die gleichen Posen tauchen ständig auf. Proportionen wirken seltsam standardisiert. Es gibt so ein wiederkehrendes „AI-Gesicht“, das du irgendwann erkennst. Wenn du denkst: „Das hab ich exakt so schon mal gesehen“, hast du es wahrscheinlich auch – nur mit anderen Haaren oder anderer Kleidung.
Bei feinen Details wird AI richtig schwach. Hände sind das Klassiker-Beispiel: zu viele Finger, fehlende Finger, Finger, die in die falsche Richtung knicken oder Dinge unmöglich greifen. Aber es geht weiter: Schmuck kann in die Haut „reinlaufen“ oder so hängen, dass es der Physik widerspricht. Kleidung hat Nähte, die ins Nichts führen, Knöpfe an random Stellen, Stoff, der sich nicht glaubwürdig faltet. Haare „schmelzen“ gerne in den Hintergrund oder werden an den Rändern zu Textursuppe.
Und dann ist da Text. Text in AI-Bildern ist fast immer ein Volltreffer als Hinweis: Schilder mit unlesbarem Kauderwelsch. Shirts mit Buchstaben, die fast Wörter sind – aber nicht ganz. Fake-Wasserzeichen und Signaturen, als hätte jemand beim Schreiben einen Schlaganfall gehabt. Hintergrundobjekte, die du nicht benennen kannst, weil sie eigentlich nicht existieren. Architektur ohne Sinn: Türen ins Nichts, Fenster in falschen Winkeln, Treppen, auf denen niemand laufen könnte.
Echte Beispiele
Die Hauttextur wirkt unnatürlich glatt, fast plastikartig. Zwar sind ein paar Poren sichtbar, aber sie wirken eher wie aufgestempelt als natürlich verteilt, und die Glanzlichter sind zu gleichmäßig über das Gesicht verteilt. Auch Licht und Schattenverläufe sehen leicht „airbrushed“ aus – mit weniger kleinen Unregelmäßigkeiten, als du in einer echten Nahaufnahme erwarten würdest. Schau besonders dahin, wo Auge und Lid aufeinandertreffen: AI verwischt oft die Kante am Wimpernansatz, und die Pupille ist nicht perfekt rund oder die Reflexion darin ergibt keinen Sinn. Prüf auch kleine Übergänge wie Nasenloch-Ränder, Lippen und Haaransatz: AI macht diese Grenzen oft zu hart oder seltsam weich – beides verstärkt den wachsigen Eindruck.
Hier siehst du Ähnliches: dieses typische „zu sauber“-Gesicht. Achte darauf, wie das Licht Schatten erzeugt, die leicht off wirken – als gäbe es mehrere Lichtquellen gleichzeitig. Hautton und Textur können gleichmäßig „glattgebügelt“ aussehen, mit weniger Poren und kleinen Unebenheiten als bei einem echten Porträt auf dieser Distanz. Ein weiterer Hinweis ist das Hintergrund-Bokeh: Die Kreise sind oft zu perfekt und zu gleichmäßig geformt, und Kantenübergänge um Haare oder Kiefer können Halos oder unnatürliches Verblenden zeigen. Die Augen sind zwar detailliert, aber es fehlt häufig diese feine Feuchtigkeit und Tiefe echter Fotos.
Hier wird’s spannend. Schau dir an, wo einzelne Haarsträhnen den Hintergrund berühren: Sie „schmelzen“ gern hinein, oder es tauchen wirre Strähnen an anatomisch unmöglichen Stellen auf. Schmuck wie Ohrringe oder Ketten ist oft asymmetrisch oder verschmilzt einfach mit Haut oder Kleidung. In diesem Beispiel: Check die feinen Härchen am Kiefer und am Ohr – manche verschwinden abrupt im Hintergrund, und die Überlappung zwischen Haar und Creolen wirkt seltsam vermischt, als könnten die Kanten nicht entscheiden, welche Ebene vorne liegt. Achte außerdem auf „zu saubere“ Kanten (z. B. Träger oder Saum) und einen Hintergrund, der wie ein perfekt glatter Studio-Verlauf aussieht – beides kann auf synthetische Generierung hinweisen.
Bleiben wir bei den Details: Beobachte, wie Accessoires mit Haaren und Haut interagieren. AI hat genau an diesen Grenzen Probleme und erzeugt unmögliche Überlappungen oder Objekte, die scheinbar durch einander hindurch „phasen“. Solche Inkonsistenzen übersieht man leicht – bis man weiß, wonach man suchen muss.
Finger und Hände sind der Klassiker. AI scheitert oft an Knochenstruktur und Verdeckung: Finger zu lang, unnatürlich gebogen oder in der falschen Anzahl. Aber es geht auch ohne Hände weiter. Schau auf die Muskulatur: Entweder wird sie zu glatt und plastikartig, oder sie wird bizarr überbetont (Abs und Arme), die gar nicht zum Körperbau passen. Knie sind eine weitere Schwachstelle – sie wirken manchmal wie simple Scharniere ohne die komplexe Struktur echter Kniescheiben, Sehnen und kleinen Wölbungen. In diesem Beispiel stecken die Hände in den Taschen, also ist der Hinweis indirekt: Schau auf die Taschenöffnungen und die Spannung im Stoff. Hoodie und Shorts sollten glaubwürdige Falten zeigen, wo Knöchel und Daumen drücken – stattdessen wirkt der Bereich oft zu glatt. Check auch die Beine: Der Kniebereich kann zu wenig natürliche Definition haben, oder die Waden „laufen“ unlogisch in den Knöchel.
Das ist eine Nahaufnahme, daher sitzen die „Anatomie“-Hinweise in kleinen Gesichtsdetails. Schau auf Haaransatz und lose Strähnen: Manche Kanten verblassen wie gemalt in den Hintergrund, und einzelne Haare haben inkonsistente Dicke. Prüfe auch die Mikrotextur der Haut: Poren und feine Linien können in manchen Bereichen selektiv scharf sein, aber an anderen Stellen unnatürlich glatt – wie ein Beauty-Filter mit schiefem Masking. Auch Lider, Wimpern und Augenbrauen sind verräterisch: AI macht sie oft etwas zu perfekt, mit wiederholten Clustern oder gleichförmigen Strichen, die so nicht variieren. Schließlich: Achte auf minimale Verzerrungen oder zu harte Kanten an Mund und Nasenlöchern. Im Gesamtbild wirkt die Komposition oft „gestellt“, und die Augen können glasig oder leblos wirken – ein häufiges Muster bei generierten Bildern.
Jetzt schau hinter das Motiv. Hintergrundobjekte wie Gebäude oder Pflanzen lösen sich oft zu einer unverständlichen Masse auf. AI erzeugt etwas „hintergrundiges“, aber sobald du ein konkretes Element identifizieren willst, geht’s nicht. Das ist visueller Lärm, der nur auf den ersten Blick wie Detail wirkt. Achte auch auf den Blick: Selbst in einer Nahaufnahme können die Augen seltsam distanziert oder minimal „daneben“ wirken, als würde die Person an der Kamera vorbei schauen. Dieses „schaut nicht ganz dich an“-Gefühl ist typisch – und fällt noch stärker auf, wenn der Hintergrund sowieso schon aus vagen Formen und inkonsistenter Tiefe besteht.
Der Bokeh-Effekt folgt hier nicht den optischen Regeln. Echte Kameras erzeugen eine graduelle Unschärfe abhängig von der Entfernung zur Fokusebene. AI verwischt oft inkonsistent: Etwas Nahes ist scharf, während ein Objekt in ähnlicher Entfernung komplett unscharf ist. Die Unschärfe wirkt zufällig statt physikalisch motiviert. Schau auf die zwei schwarzen Katzen: Sie scheinen ineinander zu „schmelzen“, Körper verschmelzen, wo sie es nicht sollten. Und wo sind die Hinterbeine? Sie verschwinden einfach in der unscharfen Masse. Wenn AI räumliche Trennung nicht versteht, „blendet“ sie Dinge zusammen.
Kleidungs-Muster sind eine weitere Schwachstelle. Hier siehst du, wie ein Pattern unlogisch bricht oder sich in etwas komplett anderes verwandelt. Knöpfe und Nähte führen ins Nichts oder verschwinden im Stoff. In einem echten Foto wären solche Details konsistent, weil sie einer realen Konstruktion folgen.
Zum Schluss: Schau dir an, wo Materialien aufeinandertreffen – Haut auf Stoff, Stoff auf Schmuck oder generell Übergänge zwischen Texturen. Genau dort scheitert AI häufig: Stofftextur „schwebt“ auf der Haut, oder Materialien vermischen sich auf eine Weise, die in der Realität unmöglich ist. Wenn du diese Nähte einmal siehst, siehst du sie überall.
Auf den ersten Blick wirkt das wie eine witzige, süße Szene – aber schau hinter die Hauptfigur ins Publikum. Die Gesichter in den Reihen sind der größte Hinweis: verzerrt, verschwommen und fast gesichtslos, als hätte AI einfach Platzhalter-Menschen „verschmiert“. Beim Hund: Check die behandschuhten Hände, die das Popcorn halten. Die Finger folgen weder einer realistischen Pfotenstruktur noch einer korrekten menschlichen Anatomie; sie wirken gummiartig und seltsam positioniert. Und beim Popcorn selbst: Zoome auf den Eimer – die Körner haben eine unnatürlich gleichmäßige Textur, und an einigen Stellen verschmelzen sie zu einem amorphen Blob statt zu einzelnen Stücken. Sobald du’s siehst, fällt die Illusion auseinander.
Dieses süße Hasenporträt versteckt mehrere AI-Fingerabdrücke. Fang mit der Brille an: Wo der schwarze Rahmen das Fell berührt, fehlt echte Tiefe oder Schatten – es wirkt nicht, als würde der Rahmen das Fell drücken. Eher wie ein 2D-Sticker oben drauf. Dann die Schnurrhaare: AI hat Probleme mit dünnen Linien – hier gehen einzelne Haare gerade durch den Rahmen, ohne sich zu biegen, oder sie verblassen unnatürlich in den Hintergrund. Und zuletzt: die Reflexionen in den Augen. Statt einer kohärenten Szene (Fenster, Lichtquelle) sind es abstrakte weiße Flecken. Echte Augenreflexionen erzählen eine Geschichte; diese sagen: generiert.
Ein Klassiker: AI scheitert an feinen Metall-Details. Schau auf die Ketten: Glieder verschmelzen, reißen zufällig auseinander oder verbinden sich physikalisch unsinnig – wie verhedderte Metall-Spaghetti. Bei den Kopfhörern: Der Marken-Text ist unlesbar, nur Kauderwelsch, und die Kabelbefestigung/der Bogen wirkt unnatürlich, als wüsste das Kabel nicht, wohin es gehört. Und dann die Haut: übernatürlich glatt, porenfrei, mit einem leichten Plastikglanz – das schreit nach generiertem Bild. Echte Haut hat Textur, kleine Makel und natürliche Variation. Das hier erklärt auch Make-up nicht.
AI-Videos erkennen
Videogenerierung ist neuer – und ehrlich gesagt oft leichter zu erkennen als Bilder. Die Fehler springen ins Auge, sobald sich etwas bewegt.
Das Erste, was auffällt, ist diese traumartige Qualität. Alles wirkt leicht surreal, als würdest du durch einen Filter schauen, den es gar nicht gibt. Die Belichtung bleibt seltsam konstant, obwohl sie es nicht sollte. Es gibt diese weiche, schwebende Atmosphäre – selbst in Szenen, die eigentlich bodenständig wirken müssten. Farben können zwischen Frames unnatürlich wechseln.
Bewegung ist der Punkt, wo es wirklich auseinanderfällt. Menschliche Bewegung hat kleine Mikro-Zitterer und Unperfektheiten, aber AI-Motion ist oft zu glatt, zu sauber. Gesten wirken robotisch, ohne die natürliche Beschleunigung und Verzögerung, die wir unbewusst machen. Gesichter können zwischen Frames subtil „morphing“ zeigen. Haare und Kleidung bewegen sich falsch, manchmal clippen sie direkt durch den Körper. Gliedmaßen können sich dehnen oder biegen – so, dass es dich in echt ins Krankenhaus bringen würde.
Achte auch auf Inkonsistenzen in der Szene: Objekte, die zwischen Schnitten auftauchen oder verschwinden. Hintergründe, die sich verziehen, wenn die Kamera sich bewegt. Schatten, die nicht zur Lichtquelle passen. Spiegelungen, die etwas anderes zeigen als die Szene. Physikverstöße bei Wasser, Feuer oder Rauch, die sich so verhalten, wie sie es in der Realität nie tun würden.
Audio-Hinweise helfen, wenn das Video Ton hat. AI-Stimmen haben oft eine robotische Kadenz mit unnatürlichen Pausen. Lip-Sync sitzt häufig minimal daneben – Mundbewegungen passen nicht ganz zu dem, was du hörst. Umgebungsgeräusche, die da sein müssten, fehlen. Hintergrundrauschen bleibt perfekt gleichmäßig, statt sich natürlich zu verändern.
AI-Text erkennen
Auch Text hat seine Fingerabdrücke. Wenn du sie einmal kennst, merkst du AI-Schreibstil überall: in Artikeln, Kommentaren, Produktbeschreibungen, Social-Posts.
Große Sprachmodelle haben Lieblingswörter, die sie massiv überbenutzen. „Delve“ ist das berühmte Beispiel, aber es gibt eine ganze Familie: crucial, pivotal, vital, tapestry, landscape, interplay, foster, enhance, showcase. Dazu Satzanfänge wie „Additionally“, „Furthermore“ und „Moreover“. Und Adjektive wie „intricate“, „vibrant“ und „enduring“, die schlau klingen, aber wenig sagen. Wenn dir mehrere davon in einem Text auffallen, ist das ein Warnsignal.
AI-Text liebt es, dir zu erklären, wie wichtig alles ist. Sie kann’s nicht lassen. „Stands as a testament to …“ ist so ein Klassiker. Alles „plays a vital role“ oder „reflects broader trends“. Selbst banale Themen bekommen „enduring impact“ oder „indelible mark on history“ verpasst. Diese Aufblähung ist konstant.
Es gibt auch dieses Muster, am Satzende Analyse-Floskeln dranzukleben – oft mit -ing-Wörtern: „…ensuring continued growth.“ „…highlighting its significance.“ „…contributing to the broader ecosystem.“ Klingt durchdacht, sagt aber inhaltlich fast nichts.
Die Struktur von AI-Text ist oft vorhersehbar. Übernutzung der „Dreierregel“ („Adjektiv, Adjektiv und Adjektiv“). Negativ-Parallelen wie „It’s not just about X, it’s about Y“. Schlussabsätze nach dem Muster „Despite challenges… continues to thrive“. Überall Gedankenstriche. Und dann die „elegant variation“: Wörter werden nicht wiederholt, also wird „the city“ plötzlich „the urban center“, dann „the metropolitan area“, dann „the municipality“ – alles in einem Absatz.
Achte auf vage Zuschreibungen: „Experts argue…“ – welche Experten? „Industry reports indicate…“ – welche Reports? „Observers have noted…“ – wer, wann, wo? „Has been described as…“ – von wem? Oft: von der AI selbst. Solche Weasel-Wording-Sätze klingen autoritativ, ohne überprüfbar zu sein.
Der Werbe-Ton ist ein weiterer Hinweis. AI-Schreiben klingt oft wie Marketing, selbst wenn es das nicht sollte. „Nestled in the heart of…“ ist Reisebroschüren-Sprache. Orte „boast“ ständig irgendwas. Alles „continues to captivate audiences“. Wörter wie „groundbreaking“ und „revolutionary“ werden auf völlig normale Dinge geworfen.
Auch strukturelle Muster sind verräterisch. AI liebt Title Case für jede Überschrift. Sie benutzt zu viel Fettformatierung wie ein Lehrbuch. Listen folgen überall dem „**Punkt:** Beschreibung“-Schema. Artikel enden mit „Challenges and Future Outlook“. Fazits starten mit „In summary“ oder „In conclusion“.
Manchmal lässt AI echte Glitches drin: Markdown-Syntax, die durchblutet (Sterne für fett, # für Überschriften). „Curly quotes“ statt gerader Anführungszeichen. Platzhalter-Text, der nie gefüllt wurde. Merkwürdige Referenzfehler wie „citeturn0search0“ oder „[oai_citation:0]“. Chat-Phrasen wie „I hope this helps!“ oder „Let me know if you'd like…“, die eindeutig nicht in veröffentlichten Content gehören.
Und wie bei Bildern gibt es auch beim Text ein Uncanny Valley. Es fühlt sich „off“ an, bevor du sagen kannst warum. Zu glatt, ohne Persönlichkeit, ohne Stimme. Wortreich, aber leer. Universell positiv, selten mit echter Haltung oder ehrlicher Kritik. Grammatikalisch perfekt – aber irgendwie hohl. AI geht zum Mittelwert und sagt das statistisch Wahrscheinlichste, nicht das Wahrste oder Interessanteste.
Kurz gesagt
Wenn du Fragen hast oder etwas unklar ist, melde dich gern.