KI – Fake oder Echt

Gliederung

Ausschreibung

Titel:
KI – Fake oder echt?

Untertitel:
Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt

Einleitung:
Künstliche Intelligenz erzeugt täuschend echte Bilder, Stimmen und Texte – doch wie leicht lassen wir uns wirklich manipulieren?

Inhalte:

  • Einführung in Künstliche Intelligenz: Von Algorithmen, neuronalen Netzen und Deepfakes
  • Wie KI täuscht: Bild- und Sprachfälschungen im Alltag erkennen
  • Psychologie der Wahrnehmung: Warum wir Maschinen oft mehr glauben als Menschen
  • Werkzeuge und Techniken zur Prüfung der Echtheit
  • Ethische und gesellschaftliche Fragen im Umgang mit KI-Fälschungen

Zielgruppe:
Alle, die sich für KI, Medienkompetenz und digitale Täuschung interessieren – keine technischen Vorkenntnisse nötig

Lernziel:
Die Teilnehmenden verstehen, wie KI-basierte Täuschungen funktionieren, erkennen typische Manipulationsmuster und lernen, Wahrheit von Fiktion zu unterscheiden.

Vorkenntnisse:
Allgemeine Medienkenntnisse von Vorteil, aber nicht erforderlich.

Materialien

Präsentation: PowerPoint, Medienkompetenz

Gliederung

„KI – Fake oder echt?“
Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt

1. Einführung: Die neue Wirklichkeit der Künstlichen Intelligenz
1.1 Definitionen: Was ist KI, was ist keine KI?
1.2 Geschichte der KI: Vom Schachcomputer bis ChatGPT
1.3 Relevanz: Warum wir alle betroffen sind

2. Täuschungspotenzial: Wie KI uns manipuliert
2.1 Deepfakes, Voice Cloning und Fake News
2.2 Visuelle Täuschungen und Textillusionen
2.3 Beispiele aus Alltag, Politik und Medien

3. Psychologische Wirkung: Warum wir auf KI reinfallen
3.1 Wahrnehmungsverzerrung und Bestätigungsfehler
3.2 Das Prinzip der „kognitiven Faulheit“
3.3 Vertrauen in Maschinen: Zwischen Magie und Manipulation

4. Aufklärung und Enttarnung: So durchschauen Sie KI-Fakes
4.1 Tools zur Bild- und Textanalyse
4.2 Quellenbewertung und Plausibilitätsprüfung
4.3 Checklisten zur schnellen Einschätzung

5. Ethik, Verantwortung und Ausblick
5.1 Wer trägt die Verantwortung?
5.2 Regulierungen und gesellschaftliche Debatten
5.3 Zukunft: Täuschung oder Transparenz?

6. Praxisblock: Fake oder echt? – Interaktive Analyse
6.1 Analyse echter und gefälschter Beispiele
6.2 Gemeinsame Diskussion im Plenum
6.3 Reflexion und Transfer in die eigene Praxis

Lernzielkatalog

Seminartitel: KI – Fake oder echt? Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt

1. Wissen (kognitive Lernziele)
Die Teilnehmenden sollen nach dem Seminar:

  • den Begriff „Künstliche Intelligenz“ differenziert definieren können.
  • verschiedene Täuschungstechniken durch KI (z. B. Deepfakes, Voice Cloning, generative Texte) erkennen und einordnen können.
  • grundlegende psychologische Effekte der Wahrnehmungsverzerrung durch KI beschreiben können.
  • technische Werkzeuge zur Entlarvung KI-generierter Inhalte benennen und deren Einsatzmöglichkeiten erläutern können.
  • rechtliche und ethische Fragen im Zusammenhang mit KI-Täuschungen skizzieren können.

2. Fähigkeiten (affektive und psychomotorische Lernziele)
Die Teilnehmenden sollen:

  • in der Lage sein, KI-generierte Inhalte kritisch zu analysieren.
  • ein Bewusstsein für die eigenen Wahrnehmungsverzerrungen entwickeln.
  • Verantwortungsvoll mit KI-generierten Informationen umgehen.
  • Werkzeuge praktisch anwenden, um Fälschungen zu identifizieren.
  • ihre eigenen digitalen Kompetenzen reflektieren und weiterentwickeln.

3. Haltung (reflektive Lernziele)
Die Teilnehmenden sollen:

  • ein kritisches, aber nicht kulturpessimistisches Verhältnis zur Künstlichen Intelligenz aufbauen.
  • gesellschaftliche Auswirkungen von KI-Technologie hinterfragen und ethisch bewerten.
  • zur Medienmündigkeit und Aufklärung in ihrem Umfeld beitragen.

Übungen

Übung 1: Fake oder Fakt? – Die Bilder-Challenge

Aufgabe:
Sie erhalten 5 Bilder. Entscheiden Sie für jedes Bild, ob es von einer KI generiert oder echt fotografiert wurde. Notieren Sie Ihre Begründung.

Musterlösung:

  • Bild 1: KI-generiert – Hintergrund unscharf, Fingerzahl unnatürlich
  • Bild 2: Echt – natürliches Licht, korrekte Proportionen
  • Bild 3: KI-generiert – Spiegelungen inkonsistent
  • Bild 4: Echt – Metadatenanalyse zeigt Kamera-EXIF-Daten
  • Bild 5: KI-generiert – Kleidung verschmilzt mit Umgebung

Tipp: Nutzen Sie Tools wie Hugging Face’s Detector oder Google Bildersuche rückwärts.


Übung 2: Deepfake-Detektiv

Aufgabe:
Analysieren Sie ein kurzes Video (z. B. Politiker, Prominente) auf Deepfake-Merkmale. Finden Sie mindestens 3 Hinweise.

Musterlösung:

  • 1. Lippenbewegung vs. Sprachsynchronität: Leichte Asynchronität sichtbar
  • 2. Augenbewegungen: Unnatürlicher Blickkontakt, kein Blinzeln
  • 3. Hautstruktur: Wachsartig, kaum Poren oder Falten sichtbar

Werkzeug: Deepware Scanner oder Reality Defender


Übung 3: KI oder Mensch? – Der Textvergleich

Aufgabe:
Zwei Textabschnitte beschreiben dieselbe Nachricht. Einer stammt von einem Menschen, einer von einer KI. Identifizieren Sie den KI-Text und erklären Sie, warum.

Musterlösung:

  • KI-Text: Enthält formelhafte Sprache, übertrieben neutrale Formulierungen, Wiederholungen
  • Menschlicher Text: Individuelle Wortwahl, klare Haltung, stilistische Brüche möglich

Tool-Tipp: GPTZero oder OpenAI Classifier (Legacy)


Übung 4: Stimme aus der Maschine?

Aufgabe:
Hören Sie zwei kurze Audiodateien. Eine davon ist synthetisch erzeugt. Welche ist die KI-Stimme?

Musterlösung:

  • KI-Stimme: Kein Atemgeräusch, überpräzise Artikulation, gleichmäßige Lautstärke
  • Echte Stimme: Emotionale Nuancen, kleine Versprecher, natürliche Modulation

Tool: Play.ht, Descript oder Resemble AI


Übung 5: Erstellen Sie Ihre eigene Täuschung

Aufgabe:
Erzeugen Sie ein kurzes Bild oder einen Text mit einer KI (z. B. DALL·E, ChatGPT, Midjourney), das möglichst echt wirkt. Die anderen Gruppen sollen die Täuschung aufdecken.

Musterlösung (Beispiel):

  • Bild: „Angela Merkel beim Skateboarden in Venedig“ – Hinweise: unnatürlicher Schattenwurf, unscharfe Ränder
  • Text: Nachricht über ein fiktives KI-Gesetz – Hinweise: fehlende Quellen, unrealistische Fristen, formelhafter Stil

Interview

„Kann man KI überhaupt noch trauen?“

Der Journalist:
Herr Professor, Sie sprechen in Ihrem Seminar von der Täuschung durch Künstliche Intelligenz. Übertreiben Sie da nicht ein bisschen? Ist KI nicht einfach nur ein Werkzeug?

Prof. Dr. Seminar(Pro):
Ein Hammer ist auch nur ein Werkzeug – aber Sie können damit ein Haus bauen oder ein Fenster einschlagen. Genau das gilt für KI. Sie hat unglaubliches Potenzial für Gutes, aber auch für Manipulation. Und genau da müssen wir wachsam sein.

Der Journalist:
Aber ist es wirklich so schlimm? Die meisten Leute erkennen doch, wenn etwas nicht echt ist – oder?

Prof. Dr. Seminar(Pro):
Leider nein. Wir überschätzen uns da oft. Gerade bei gut gemachten Deepfakes oder überzeugend formulierten KI-Texten fällt es selbst Expertinnen und Experten schwer, den Unterschied zu erkennen. Und weil unser Gehirn visuelle und sprachliche Reize so gern für bare Münze nimmt, sind wir schnell überzeugt – oft zu schnell.

Der Journalist:
Heißt das, wir leben in einer Art postfaktischer Gesellschaft?

Prof. Dr. Seminar(Pro):
Wir leben zumindest in einer Gesellschaft, in der der Unterschied zwischen echt und falsch neu verhandelt wird. Die Technik entwickelt sich schneller als unsere gesellschaftlichen Spielregeln. Das ist gefährlich – aber auch eine Chance, neue Standards zu definieren.

Der Journalist:
Was raten Sie denn konkret den Teilnehmenden Ihres Seminars?

Prof. Dr. Seminar(Pro):
Zweifeln ist erlaubt, ja sogar nötig. Ich gebe den Teilnehmenden Werkzeuge an die Hand, mit denen sie Inhalte überprüfen können – technisch und inhaltlich. Wir üben gemeinsam, wie man Täuschungen entlarvt und wo die eigenen Schwachstellen in der Wahrnehmung liegen.

Der Journalist:
Und wo liegt die Verantwortung? Bei den Entwicklerinnen und Entwicklern?

Prof. Dr. Seminar(Pro):
Nicht nur. Auch bei Plattformen, Medien, der Politik – aber eben auch bei jedem Einzelnen. Aufklärung, Reflexion und digitale Mündigkeit sind das, worum es mir geht. KI wird bleiben. Aber ob sie uns dient oder täuscht, das hängt auch von uns ab.

Der Journalist:
Dann hoffe ich, dass viele dieses Seminar besuchen. Es klingt nach einem Augenöffner.

Prof. Dr. Seminar(Pro):
Das ist das Ziel. Nicht Panik, sondern Perspektive. Nicht Technikgläubigkeit, sondern Medienkompetenz.

FAQs

KI: Fake oder echt?

1. Was genau ist ein Deepfake?
Ein Deepfake ist eine per KI manipulierte Audio- oder Videodatei, in der Personen täuschend echt etwas sagen oder tun, das sie nie gesagt oder getan haben.

2. Wie kann ich erkennen, ob ein Bild von einer KI stammt?
Achten Sie auf Details: unnatürliche Proportionen, verschwommene Hände, unscharfe Schatten oder „glatte“ Gesichter können Hinweise sein. Tools helfen zusätzlich.

3. Ist jeder KI-generierte Inhalt eine Fälschung?
Nein. Viele KI-generierte Inhalte sind legal und nützlich – z. B. für kreative Projekte, Übersetzungen oder Assistenzsysteme. Täuschung entsteht durch missbräuchlichen Einsatz.

4. Kann KI auch Texte fälschen?
Ja – von gefälschten E-Mails über erfundene Studien bis hin zu politischer Propaganda in sozialen Netzwerken.

5. Welche Tools helfen bei der Erkennung von Fakes?
Beispiele: Deepware Scanner, Google Rückwärtssuche, GPTZero, Reality Defender, Forensische Bildanalyse-Tools.

6. Ist KI gefährlich?
Nicht per se. Gefährlich ist der Einsatz ohne Kontrolle, Transparenz und ethische Leitplanken.

7. Wird KI den Journalismus verdrängen?
Nein – aber sie verändert ihn. Faktencheck, Quellensicherung und Kontextualisierung werden wichtiger denn je.

8. Wie kann ich meine eigene Medienkompetenz stärken?
Durch Übung, kritisches Denken, Quellenprüfung und den Einsatz von Analysewerkzeugen. Das lernen Sie im Seminar.

9. Kann ich als Laie überhaupt erkennen, was echt ist?
Ja – mit dem richtigen Know-how und etwas Übung ist das möglich.

10. Was ist der Unterschied zwischen generativer und klassischer KI?
Klassische KI erkennt Muster – generative KI erzeugt selbstständig neue Inhalte wie Texte, Bilder oder Töne.

11. Wie geht man mit KI-Fakes in sozialen Netzwerken um?
Immer prüfen, bevor man teilt. Im Zweifel hinterfragen, melden, nicht blind weiterverbreiten.

12. Gibt es rechtliche Konsequenzen für Deepfakes?
In einigen Ländern ja. In Deutschland sind Deepfakes strafbar, wenn sie etwa Persönlichkeitsrechte verletzen.

13. Wie lernen Maschinen, uns zu täuschen?
Durch Trainingsdaten – je besser die Daten, desto überzeugender die Simulation. Die Maschine selbst „weiß“ aber nicht, dass sie täuscht.

14. Wie steht es um den Datenschutz bei KI-Anwendungen?
Viele KI-Systeme greifen auf große Datenmengen zurück – Datenschutz ist ein zentrales Problem und Thema aktueller Gesetzgebung.

15. Wird KI jemals ein echtes Bewusstsein haben?
Aktuell: Nein. Auch wenn KI sehr menschlich wirken kann, fehlt ihr Bewusstsein, Emotion, Selbstwahrnehmung – das ist Simulation, keine Intelligenz im philosophischen Sinn.

Glossar

Künstliche Intelligenz & Täuschung

BegriffErklärung
AlgorithmusSchrittweise Anleitung zur Lösung eines Problems
APIProgrammierschnittstelle zur Kommunikation zwischen Softwarekomponenten
Autonomes SystemSystem, das Entscheidungen ohne menschlichen Eingriff trifft
BiasVerzerrung in Datensätzen oder Entscheidungen durch Vorurteile
BotSoftware, die automatisierte Aufgaben ausführt
ChatbotTextbasierter Gesprächspartner auf KI-Basis
Cloud ComputingOnline-Nutzung von IT-Ressourcen wie Speicher oder Rechenleistung
Computer VisionMaschinenverarbeitung und Interpretation von Bildern
CorpusSammlung von Texten oder Sprachdaten zum Trainieren von KI
DALL·EKI-Modell zur Bildgenerierung aus Textbeschreibungen
Data MiningExtraktion von Mustern aus großen Datenmengen
DeepfakeKI-generierte Medienfälschung von realistischen Audio-/Videoinhalten
Deep LearningTeilgebiet des Machine Learning mit neuronalen Netzen
DigitalisierungÜberführung analoger Inhalte in digitale Form
DisinformationVorsätzlich verbreitete falsche Informationen
Ethik in der KIForschung zu moralischen Fragen bei der KI-Nutzung
Fake NewsFalschmeldungen mit Täuschungsabsicht
GANGenerative Adversarial Network, erzeugt realistische Inhalte
GPTGenerative Pre-trained Transformer – Sprachmodell von OpenAI
HalluzinationFalschinformationen, die von KI-Systemen generiert werden
Hybrid IntelligenceKombination von menschlicher und künstlicher Intelligenz
InformationskompetenzFähigkeit, Informationen zu bewerten und einzuordnen
KI (Künstliche Intelligenz)Maschinen, die Aufgaben wie Denken und Lernen simulieren
KlassifikationZuweisung von Daten zu vordefinierten Kategorien
LLMLarge Language Model, großes Sprachmodell wie GPT-4
Machine LearningLernfähige Algorithmen auf Basis von Daten
ManipulationBeeinflussung anderer durch gezielte Informationssteuerung
MetadatenZusatzinformationen über Dateien oder Inhalte
MidjourneyKI-Bildgenerator für künstlerische Bilder
ModelltrainingLernprozess eines KI-Systems mit Daten
Natural Language Processing (NLP)Sprachverarbeitung durch Maschinen
Neuronales NetzMathematisches Modell nach dem Vorbild des Gehirns
Open SourceFrei zugänglicher und veränderbarer Quellcode
OverfittingÜberanpassung eines Modells an Trainingsdaten
PlausibilitätsprüfungAbschätzung, ob ein Inhalt logisch und glaubwürdig ist
PromptEingabeaufforderung an ein KI-System (z. B. Text oder Frage)
RealitätsverzerrungWahrnehmung, die durch Täuschungstechnologien verfälscht wird
RealitätssimulationKI-generierte Welt, die real erscheint
RückwärtssucheSuche nach Originalquellen eines Bildes
SprachmodellKI, die Texte versteht und erzeugt
Supervised LearningMaschinelles Lernen mit beschrifteten Daten
SynthesevideoZusammengesetztes Video aus echten und KI-generierten Teilen
Turing-TestTest, ob eine Maschine von einem Menschen unterscheidbar ist
Uncanny ValleyUnbehagen bei fast-menschlicher KI-Darstellung
VerifikationPrüfung der Echtheit von Informationen
Voice CloningKI-Technik zur Imitation von Stimmen
WahrnehmungstäuschungBeeinflussung unserer Sinneseindrücke durch KI
WebcrawlerProgramm zur automatischen Analyse von Webseiten
Zero-Day-FakeNeue, noch unbekannte Täuschung ohne erkennbare Spuren
QuellenkritikKritisches Hinterfragen von Ursprüngen und Absichten
ZensurresistenzFähigkeit von Informationen, sich einer Kontrolle zu entziehen

Literatur

Deutschsprachige Literaturhinweise

1. Holger Volland – Overload: Die KI-Medienflut kommt
Wie Künstliche Intelligenz unser Gefühl für Realität herausfordert und woran man echte Inhalte erkennt.

2. Doris Schuppe – ALLES FAKE!? Mit Fiona generative KI entdecken
Ein erzählendes Sachbuch, das KI und ihre Täuschungsmechanismen lebensnah erklärt.

3. Max Scholz – Geheime Deepfakes und Fake News
Ein praxisorientiertes Werk über Manipulationen im digitalen Raum.

4. Robert Diedrich / Ulrich Lippitz – Kriminalität und Künstliche Intelligenz
Rechtliche, technische und ethische Perspektiven zu KI im Spannungsfeld der Täuschung.

5. Helga Nowotny – Die KI sei mit euch
Eine philosophische Auseinandersetzung mit der Macht algorithmischer Vorhersagen.

6. Cleo Konrad – Deep Fake: Thriller
Ein packender Roman über einen KI-Skandal – fiktiv, aber erschreckend realitätsnah.

7. Frank Schätzing – Die Tyrannei des Schmetterlings
Eine visionäre Erzählung über eine außer Kontrolle geratene Künstliche Intelligenz.

8. Stefan Römer – Künstlerische Strategien des Fake
Ein kritischer Blick auf Original, Imitation und Täuschung im Kontext digitaler Bilder.

Essay

Essay: Wahrheit auf Abruf – Wie KI unsere Realität manipuliert

In einer Welt, in der man mit wenigen Klicks einen Papst in Balenciaga oder Angela Merkel beim Skateboarden generieren kann, stellt sich eine beunruhigende Frage: Was ist noch echt?

Künstliche Intelligenz hat in kürzester Zeit Fähigkeiten entwickelt, die unsere Realität herausfordern. Sie kann schreiben, sprechen, Bilder malen, komponieren – und täuschen. Es ist nicht mehr allein der Mensch, der Fiktion erschafft. Maschinen haben gelernt, unsere Sinne zu imitieren und unsere Wahrnehmung auszutricksen. Und je besser sie werden, desto schwieriger wird es, zwischen Sein und Schein zu unterscheiden.

Die Technologie selbst trägt keine Schuld. Sie folgt nur mathematischen Regeln und statistischen Wahrscheinlichkeiten. Der Mensch ist es, der entscheidet, was daraus wird: ein Werkzeug der Aufklärung oder ein Instrument der Manipulation. Wenn wir Bilder von Ereignissen sehen, die nie stattfanden, oder Stimmen hören, die nie gesprochen haben, betreten wir einen Raum zwischen Realität und Simulation. Die psychologischen Effekte sind tiefgreifend – unser Vertrauen in visuelle und auditive Beweise, einst fest verankert, beginnt zu erodieren.

Doch in der Krise liegt auch eine Chance. Die neue Unsicherheit zwingt uns zu einem neuen Medienbewusstsein. Wir müssen lernen, nicht nur Informationen zu konsumieren, sondern sie zu hinterfragen. Das bedeutet: Quellen prüfen, KI-typische Muster erkennen, Tools zur Verifikation einsetzen. Es bedeutet auch, sich der eigenen Wahrnehmungsverzerrungen bewusst zu werden.

Ein besonders perfider Aspekt: KI-Täuschungen werden oft nicht aus technischer Raffinesse heraus geglaubt, sondern weil sie unseren Erwartungen entsprechen. Wir fallen nicht auf die Maschine herein – sondern auf uns selbst.

Gesellschaftlich stehen wir damit an einem Scheideweg: Entweder wir entwickeln neue Standards der Aufklärung – oder wir überlassen den digitalen Raum der Täuschung. Letzteres hätte fatale Folgen für Demokratie, Bildung und Wissenschaft.

Der Ruf nach Regulierung wird lauter, doch Gesetze hinken der Technik hinterher. Was heute noch als Fake erkannt wird, kann morgen schon Wirklichkeit imitieren, die ununterscheidbar ist. Was bleibt, ist die Verantwortung jedes Einzelnen: für kritisches Denken, digitale Mündigkeit und ethisches Handeln.

Denn wenn Wahrheit auf Abruf verfügbar wird, liegt die größte Wahrheit vielleicht in unserer Fähigkeit, zu hinterfragen.

Best Practice

Umgang mit KI-Täuschungen – Was sich in der Praxis bewährt hat

1. Visuelle Inhalte immer verifizieren – nicht vertrauen
Erfahrung zeigt: Bilder und Videos sind am anfälligsten für Täuschungen. Daher empfiehlt sich stets eine Rückwärtssuche über Google Images oder Tineye, um zu überprüfen, ob das Bild bereits bekannt ist oder in anderen Kontexten verwendet wurde.

2. Textinhalte auf Wiederholungen und „glatte“ Sprache prüfen
KI-generierte Texte neigen zu repetitiven Strukturen und generischen Formulierungen. Ein stilistischer Check (z. B. durch Vergleich mit journalistischen Standards) hilft, maschinelle Muster zu entlarven.

3. Quellen zuerst, Inhalte danach bewerten
Ein etablierter Medien-Grundsatz, der sich im digitalen Zeitalter neu bewährt: Vertrauenswürdigkeit beginnt bei der Quelle. Wer steht hinter einer Meldung, einem Video oder einem Bild? Domainnamen, Impressum und redaktionelle Richtlinien prüfen!

4. Tools gezielt einsetzen – aber nicht blind vertrauen
Technische Werkzeuge zur Fake-Erkennung (z. B. Deepware, GPTZero, Hive Moderation) helfen – aber sie ersetzen nicht den Menschenverstand. Die beste Erkennungsrate entsteht durch Kombination von Tool und kritischer Reflexion.

5. In Bildung und Organisationen: KI-Kompetenz als Pflichtfach etablieren
Die Einführung von regelmäßigen Workshops, Medienkompetenztrainings und offenen Diskussionsrunden zum Thema KI und Desinformation hat sich in Schulen, Unternehmen und Behörden als sehr wirksam erwiesen.

6. Ethik mitdenken – nicht nur Technik bewundern
Professionelle Medienarbeit und digitale Inhalte sollten stets einem ethischen Standard folgen: transparente Kennzeichnung von KI-Inhalten, keine Täuschung durch Simulation, respektvoller Umgang mit Persönlichkeitsrechten.

7. Teamarbeit beim Faktencheck
In Redaktionen und Projektteams hat sich der kollektive Faktencheck bewährt: Inhalte im Vier-Augen-Prinzip prüfen lassen, Feedbackschleifen einbauen, kollektive Sensibilität fördern.

8. Eigene Täuschbarkeit regelmäßig reflektieren
Eine der wirksamsten Methoden im Alltag ist die bewusste Auseinandersetzung mit der eigenen Wahrnehmung und kognitiven Verzerrung. Je besser man die Mechanismen der Täuschung kennt, desto sicherer wird der Umgang mit KI-Inhalten.

9. Community nutzen – gemeinsam gegen Fake
Der Austausch in kritischen Online-Communities, Bildungsplattformen und Foren hilft beim Erkennen von Fakes und erweitert den eigenen Horizont – kollektive Intelligenz als Gegenspieler zur Künstlichen Intelligenz.

10. KI selbst nutzen, um KI zu entlarven
Ein paradoxes, aber bewährtes Prinzip: Verwenden Sie KI-gestützte Analysewerkzeuge, um andere KI-Inhalte zu identifizieren. Die Maschine als Wächter über die Maschine – immer mit menschlicher Kontrolle.

Checkliste

Fake oder echt? – So entlarven Sie KI-generierte Inhalte

A. Allgemeine Prüfung

☐ Ist die Quelle bekannt und vertrauenswürdig?
☐ Gibt es ein Impressum oder eine redaktionelle Verantwortung?
☐ Ist das Veröffentlichungsdatum plausibel und aktuell?
☐ Wird der Inhalt von anderen seriösen Quellen bestätigt?


B. Bildanalyse

☐ Sind Hände, Augen, Schatten und Texturen realistisch dargestellt?
☐ Gibt es Artefakte oder Unschärfen an ungewöhnlichen Stellen?
☐ Passen Licht und Perspektive zusammen?
☐ Ist das Bild per Rückwärtssuche auffindbar oder bereits bekannt?


C. Textprüfung

☐ Gibt es ungewöhnliche Wiederholungen oder eine übertrieben neutrale Sprache?
☐ Sind die Fakten überprüfbar oder fehlen Quellenangaben?
☐ Klingt der Text „zu perfekt“, um menschlich zu sein?
☐ Wechselt der Stil innerhalb des Textes ohne Grund?


D. Video- und Audioanalyse

☐ Stimmen Lippenbewegung und Ton exakt überein?
☐ Gibt es abrupte Schnitte, Störungen oder unnatürliche Bewegungen?
☐ Klingt die Stimme „glatt“, emotionslos oder gleichförmig?
☐ Blinzeln und Mikrobewegungen realistisch?


E. Technische Hilfsmittel einsetzen

☐ Rückwärtssuche mit Google oder Tineye durchgeführt?
☐ Tools wie Deepware, Reality Defender, GPTZero verwendet?
☐ Metadaten des Mediums geprüft (z. B. über fotoforensics.com)?
☐ KI-Warnhinweise oder Herkunftskennzeichnungen sichtbar?


F. Reflexion & Ethik

☐ Könnte der Inhalt jemandem schaden oder manipulativ wirken?
☐ Wurde transparent gemacht, ob KI verwendet wurde?
☐ Welche Absicht steckt hinter dem Inhalt?
☐ Wäre ich bereit, diesen Inhalt weiterzuverbreiten?

Multiple Choice

Multiple-Choice-Aufgabenblatt

1. Was ist ein Deepfake?
A) Ein Virustyp
B) Ein KI-generierter Text
C) Eine Bildkomprimierungsmethode
D) Ein manipuliertes Video mittels KI

2. Was ist ein typisches Merkmal KI-generierter Bilder?
A) Glatte Haut, unnatürliche Hände
B) Gestochen scharfe Schatten
C) Extreme Tiefenschärfe
D) Graustufenfilter

3. Welches Tool hilft bei der Rückwärtssuche von Bildern?
A) ChatGPT
B) Tineye
C) Midjourney
D) Excel

4. Was bedeutet der Begriff „Halluzination“ bei KI-Systemen?
A) Ein Zustand der Überhitzung
B) Falsch generierte Inhalte ohne Faktenbezug
C) Eine grafische Darstellung
D) Ein Zustand im neuronalen Netz

5. Was prüft man mit einer Rückwärtssuche?
A) Ladezeit einer Webseite
B) Herkunft und Kontext eines Bildes
C) IP-Adresse eines Servers
D) Originalsprache eines Videos

6. Warum sind Deepfakes gefährlich?
A) Sie blockieren Internetleitungen
B) Sie ersetzen Videospiele
C) Sie können falsche Realität erzeugen
D) Sie löschen andere Dateien

7. Welche KI erzeugt aus Texten Bilder?
A) DALL·E
B) Excel
C) Acrobat
D) Siri

8. Was ist ein typisches Symptom für Fake-Texte?
A) Ironie
B) Rechtschreibfehler
C) Wiederholungen und glatte Sprache
D) Zitate

9. Was beschreibt das Uncanny Valley?
A) Eine KI-Funktion zur Datenreduktion
B) Unbehagen bei fast menschlichen Maschinenbildern
C) Ein Ort im Silicon Valley
D) Ein Logikfehler bei Spracherkennung

10. Was bedeutet „Bias“ in der KI?
A) Bildschärfung
B) Überhitzung
C) Voreingenommenheit in Daten
D) Aktualitätsverlust

11. Welcher Beruf ist besonders von Deepfakes betroffen?
A) Softwareentwickler
B) Piloten
C) Lehrer
D) Politiker

12. Wofür steht „NLP“ in der KI?
A) Neuronale Latenzprozesse
B) Neuro-Linguistische Programmierung
C) Natural Language Processing
D) Nationale Lernplattform

13. Welcher dieser Begriffe beschreibt ein Sprachmodell?
A) GAN
B) GPT
C) PDF
D) API

14. Was ist ein Prompt?
A) Das technische Format eines Videos
B) Der Audioausgang eines KI-Systems
C) Eine Eingabeaufforderung an ein KI-Modell
D) Ein spezieller USB-Typ

15. Was kann GPTZero?
A) Texte zusammenfassen
B) KI-Texte erkennen
C) Videoqualität verbessern
D) Musik erzeugen

16. Was ist ein typischer Schwachpunkt bei KI-Videos?
A) Geräuschkulisse
B) Haarfarbe
C) Synchronisation von Stimme und Lippen
D) Textlänge

17. Warum ist Quellenkritik bei KI besonders wichtig?
A) Weil KI oft urheberrechtlich geschützt ist
B) Weil KI-Inhalte gefälscht sein können
C) Weil KI keine Bilder erkennt
D) Weil KI nur Englisch spricht

18. Welches Format zeigt Bild-Metadaten an?
A) ZIP
B) PDF
C) EXIF
D) MP3

19. Was bedeutet „Voice Cloning“?
A) Verdopplung von Videospuren
B) Kopieren von Audiodateien
C) Imitation einer Stimme durch KI
D) Lautstärkenregelung

20. Woran erkennt man oft einen Fake-Text?
A) An klaren Quellen
B) An wechselnden Stilarten
C) An überprüfbaren Zitaten
D) An fehlendem Kontext und Wiederholungen


Musterlösung

1: D
2: A
3: B
4: B
5: B
6: C
7: A
8: C
9: B
10: C
11: D
12: C
13: B
14: C
15: B
16: C
17: B
18: C
19: C
20: D

Hausaufgabe

Hausaufgabe 1: Bildanalyse

Aufgabe:
Suchen Sie ein verdächtiges Bild im Internet (z. B. über Social Media oder Bilddatenbanken) und prüfen Sie dessen Echtheit mit einer Rückwärtssuche. Dokumentieren Sie Ihre Recherche:

  • URL des Bildes
  • Ergebnis der Rückwärtssuche
  • Ihre Begründung, ob es sich um ein Fake handelt

Ziel:
Stärkung der visuellen Medienkompetenz und Quellenkritik.


Hausaufgabe 2: Textentlarvung

Aufgabe:
Nutzen Sie ein KI-Erkennungs-Tool (z. B. GPTZero) und analysieren Sie zwei kurze Texte (max. 300 Wörter), die Sie im Netz gefunden haben. Versuchen Sie, herauszufinden, welcher Text wahrscheinlich KI-generiert wurde.

Ziel:
Sensibilisierung für stilistische Merkmale von KI-Texten.


Hausaufgabe 3: Falsche Stimme – echter Skandal?

Aufgabe:
Suchen Sie im Netz nach einem bekannten Voice-Cloning-Beispiel (z. B. aus Politik, Werbung oder Satire) und beantworten Sie folgende Fragen:

  • Was wurde imitiert?
  • Wie wurde es erkannt?
  • Welche Reaktion gab es darauf?

Ziel:
Verständnis für Risiken und gesellschaftliche Debatten rund um synthetische Stimmen.


Hausaufgabe 4: Eigener Fake-Test

Aufgabe:
Nutzen Sie ein Tool wie DALL·E oder ChatGPT und erstellen Sie einen kurzen Fake (Bild oder Text). Lassen Sie eine andere Person diesen auf Echtheit prüfen. Protokollieren Sie die Reaktion und die Argumente.

Ziel:
Reflexion über Täuschung, Glaubwürdigkeit und eigene Wahrnehmung.


Hausaufgabe 5: Argumentationstraining

Aufgabe:
Schreiben Sie eine kurze Stellungnahme (ca. 300 Wörter) zu folgender Aussage:
„Künstliche Intelligenz gefährdet die Demokratie.“
Beziehen Sie Stellung, nennen Sie zwei Argumente und ein Gegenargument.

Ziel:
Förderung argumentativer Fähigkeiten und ethischer Reflexion.

Schritt-für-Schritt

Schritt-für-Schritt-Anleitung: Fake oder echt? – So entlarven Sie KI-Inhalte

1. Ersteindruck analysieren

  • Fragen Sie sich: Wirkt das Bild, der Text oder das Video „zu perfekt“ oder auffällig unnatürlich?
  • Achten Sie auf Details: Proportionen, Wiederholungen, Stilbrüche, Mimik.

2. Quelle prüfen

  • Wo wurde der Inhalt veröffentlicht? (z. B. Social Media, Blog, Nachrichtenseite)
  • Ist die Quelle vertrauenswürdig? (Impressum, Redaktion, journalistische Standards)
  • Gibt es weitere Quellen, die dasselbe berichten? (Vergleich mit seriösen Medien)

3. Bild überprüfen

  • Rückwärtssuche mit Tools wie Google Images oder Tineye
  • Achten Sie auf:
    – unnatürliche Hände oder Finger
    – inkonsistente Lichtquellen
    – Hintergrund- und Randunschärfen
    – Texturen und Hautdarstellung

4. Text analysieren

  • Erkennen Sie typische KI-Muster:
    – Wiederholungen
    – übertriebene Sachlichkeit
    – fehlende Quellen
    – unnötige Erklärungen
  • Tool-Tipp: Texte mit GPTZero oder OpenAI Classifier analysieren lassen.

5. Video/Audio kontrollieren

  • Lippenbewegung mit Sprache vergleichen
  • Blinzeln, Augenkontakt und Mimik analysieren
  • Gleichmäßigkeit der Stimme hinterfragen

6. Metadaten nutzen

  • EXIF-Daten aus Bildern oder Videos auslesen (z. B. mit fotoforensics.com)
  • Ungewöhnliche Zeitstempel oder Kamerainformationen?

7. KI-Tools zur Analyse verwenden

  • Deepware, Hive Moderation, Reality Defender (für Bild/Video)
  • GPTZero, Crossplag (für Textanalyse)

8. Ethik-Check

  • Würde ich diesen Inhalt teilen, wenn er über mich wäre?
  • Könnte dieser Inhalt jemandem schaden oder manipulieren?

9. Fazit ziehen

  • Eindeutig? – Fake entlarvt!
  • Unsicher? – Nicht teilen, weiter prüfen oder professionelle Hilfe suchen.