Gliederung
- Ausschreibung
- Materialien
- Gliederung
- Präsentation: PowerPoint, PDF
Ausschreibung
Titel:
KI – Fake oder echt?
Untertitel:
Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt
Einleitung:
Künstliche Intelligenz erzeugt täuschend echte Bilder, Stimmen und Texte – doch wie leicht lassen wir uns wirklich manipulieren?
Inhalte:
- Einführung in Künstliche Intelligenz: Von Algorithmen, neuronalen Netzen und Deepfakes
- Wie KI täuscht: Bild- und Sprachfälschungen im Alltag erkennen
- Psychologie der Wahrnehmung: Warum wir Maschinen oft mehr glauben als Menschen
- Werkzeuge und Techniken zur Prüfung der Echtheit
- Ethische und gesellschaftliche Fragen im Umgang mit KI-Fälschungen
Zielgruppe:
Alle, die sich für KI, Medienkompetenz und digitale Täuschung interessieren – keine technischen Vorkenntnisse nötig
Lernziel:
Die Teilnehmenden verstehen, wie KI-basierte Täuschungen funktionieren, erkennen typische Manipulationsmuster und lernen, Wahrheit von Fiktion zu unterscheiden.
Vorkenntnisse:
Allgemeine Medienkenntnisse von Vorteil, aber nicht erforderlich.

Materialien
Präsentation: PowerPoint, Medienkompetenz
Gliederung
„KI – Fake oder echt?“
Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt
1. Einführung: Die neue Wirklichkeit der Künstlichen Intelligenz
1.1 Definitionen: Was ist KI, was ist keine KI?
1.2 Geschichte der KI: Vom Schachcomputer bis ChatGPT
1.3 Relevanz: Warum wir alle betroffen sind
2. Täuschungspotenzial: Wie KI uns manipuliert
2.1 Deepfakes, Voice Cloning und Fake News
2.2 Visuelle Täuschungen und Textillusionen
2.3 Beispiele aus Alltag, Politik und Medien
3. Psychologische Wirkung: Warum wir auf KI reinfallen
3.1 Wahrnehmungsverzerrung und Bestätigungsfehler
3.2 Das Prinzip der „kognitiven Faulheit“
3.3 Vertrauen in Maschinen: Zwischen Magie und Manipulation
4. Aufklärung und Enttarnung: So durchschauen Sie KI-Fakes
4.1 Tools zur Bild- und Textanalyse
4.2 Quellenbewertung und Plausibilitätsprüfung
4.3 Checklisten zur schnellen Einschätzung
5. Ethik, Verantwortung und Ausblick
5.1 Wer trägt die Verantwortung?
5.2 Regulierungen und gesellschaftliche Debatten
5.3 Zukunft: Täuschung oder Transparenz?
6. Praxisblock: Fake oder echt? – Interaktive Analyse
6.1 Analyse echter und gefälschter Beispiele
6.2 Gemeinsame Diskussion im Plenum
6.3 Reflexion und Transfer in die eigene Praxis
Lernzielkatalog
Seminartitel: KI – Fake oder echt? Wie Künstliche Intelligenz unsere Wahrnehmung täuscht – und was wirklich dahinter steckt
1. Wissen (kognitive Lernziele)
Die Teilnehmenden sollen nach dem Seminar:
- den Begriff „Künstliche Intelligenz“ differenziert definieren können.
- verschiedene Täuschungstechniken durch KI (z. B. Deepfakes, Voice Cloning, generative Texte) erkennen und einordnen können.
- grundlegende psychologische Effekte der Wahrnehmungsverzerrung durch KI beschreiben können.
- technische Werkzeuge zur Entlarvung KI-generierter Inhalte benennen und deren Einsatzmöglichkeiten erläutern können.
- rechtliche und ethische Fragen im Zusammenhang mit KI-Täuschungen skizzieren können.
2. Fähigkeiten (affektive und psychomotorische Lernziele)
Die Teilnehmenden sollen:
- in der Lage sein, KI-generierte Inhalte kritisch zu analysieren.
- ein Bewusstsein für die eigenen Wahrnehmungsverzerrungen entwickeln.
- Verantwortungsvoll mit KI-generierten Informationen umgehen.
- Werkzeuge praktisch anwenden, um Fälschungen zu identifizieren.
- ihre eigenen digitalen Kompetenzen reflektieren und weiterentwickeln.
3. Haltung (reflektive Lernziele)
Die Teilnehmenden sollen:
- ein kritisches, aber nicht kulturpessimistisches Verhältnis zur Künstlichen Intelligenz aufbauen.
- gesellschaftliche Auswirkungen von KI-Technologie hinterfragen und ethisch bewerten.
- zur Medienmündigkeit und Aufklärung in ihrem Umfeld beitragen.
Übungen
Übung 1: Fake oder Fakt? – Die Bilder-Challenge
Aufgabe:
Sie erhalten 5 Bilder. Entscheiden Sie für jedes Bild, ob es von einer KI generiert oder echt fotografiert wurde. Notieren Sie Ihre Begründung.
Musterlösung:
- Bild 1: KI-generiert – Hintergrund unscharf, Fingerzahl unnatürlich
- Bild 2: Echt – natürliches Licht, korrekte Proportionen
- Bild 3: KI-generiert – Spiegelungen inkonsistent
- Bild 4: Echt – Metadatenanalyse zeigt Kamera-EXIF-Daten
- Bild 5: KI-generiert – Kleidung verschmilzt mit Umgebung
Tipp: Nutzen Sie Tools wie Hugging Face’s Detector oder Google Bildersuche rückwärts.
Übung 2: Deepfake-Detektiv
Aufgabe:
Analysieren Sie ein kurzes Video (z. B. Politiker, Prominente) auf Deepfake-Merkmale. Finden Sie mindestens 3 Hinweise.
Musterlösung:
- 1. Lippenbewegung vs. Sprachsynchronität: Leichte Asynchronität sichtbar
- 2. Augenbewegungen: Unnatürlicher Blickkontakt, kein Blinzeln
- 3. Hautstruktur: Wachsartig, kaum Poren oder Falten sichtbar
Werkzeug: Deepware Scanner oder Reality Defender
Übung 3: KI oder Mensch? – Der Textvergleich
Aufgabe:
Zwei Textabschnitte beschreiben dieselbe Nachricht. Einer stammt von einem Menschen, einer von einer KI. Identifizieren Sie den KI-Text und erklären Sie, warum.
Musterlösung:
- KI-Text: Enthält formelhafte Sprache, übertrieben neutrale Formulierungen, Wiederholungen
- Menschlicher Text: Individuelle Wortwahl, klare Haltung, stilistische Brüche möglich
Tool-Tipp: GPTZero oder OpenAI Classifier (Legacy)
Übung 4: Stimme aus der Maschine?
Aufgabe:
Hören Sie zwei kurze Audiodateien. Eine davon ist synthetisch erzeugt. Welche ist die KI-Stimme?
Musterlösung:
- KI-Stimme: Kein Atemgeräusch, überpräzise Artikulation, gleichmäßige Lautstärke
- Echte Stimme: Emotionale Nuancen, kleine Versprecher, natürliche Modulation
Tool: Play.ht, Descript oder Resemble AI
Übung 5: Erstellen Sie Ihre eigene Täuschung
Aufgabe:
Erzeugen Sie ein kurzes Bild oder einen Text mit einer KI (z. B. DALL·E, ChatGPT, Midjourney), das möglichst echt wirkt. Die anderen Gruppen sollen die Täuschung aufdecken.
Musterlösung (Beispiel):
- Bild: „Angela Merkel beim Skateboarden in Venedig“ – Hinweise: unnatürlicher Schattenwurf, unscharfe Ränder
- Text: Nachricht über ein fiktives KI-Gesetz – Hinweise: fehlende Quellen, unrealistische Fristen, formelhafter Stil
Interview
„Kann man KI überhaupt noch trauen?“
Der Journalist:
Herr Professor, Sie sprechen in Ihrem Seminar von der Täuschung durch Künstliche Intelligenz. Übertreiben Sie da nicht ein bisschen? Ist KI nicht einfach nur ein Werkzeug?
Prof. Dr. Seminar(Pro):
Ein Hammer ist auch nur ein Werkzeug – aber Sie können damit ein Haus bauen oder ein Fenster einschlagen. Genau das gilt für KI. Sie hat unglaubliches Potenzial für Gutes, aber auch für Manipulation. Und genau da müssen wir wachsam sein.
Der Journalist:
Aber ist es wirklich so schlimm? Die meisten Leute erkennen doch, wenn etwas nicht echt ist – oder?
Prof. Dr. Seminar(Pro):
Leider nein. Wir überschätzen uns da oft. Gerade bei gut gemachten Deepfakes oder überzeugend formulierten KI-Texten fällt es selbst Expertinnen und Experten schwer, den Unterschied zu erkennen. Und weil unser Gehirn visuelle und sprachliche Reize so gern für bare Münze nimmt, sind wir schnell überzeugt – oft zu schnell.
Der Journalist:
Heißt das, wir leben in einer Art postfaktischer Gesellschaft?
Prof. Dr. Seminar(Pro):
Wir leben zumindest in einer Gesellschaft, in der der Unterschied zwischen echt und falsch neu verhandelt wird. Die Technik entwickelt sich schneller als unsere gesellschaftlichen Spielregeln. Das ist gefährlich – aber auch eine Chance, neue Standards zu definieren.
Der Journalist:
Was raten Sie denn konkret den Teilnehmenden Ihres Seminars?
Prof. Dr. Seminar(Pro):
Zweifeln ist erlaubt, ja sogar nötig. Ich gebe den Teilnehmenden Werkzeuge an die Hand, mit denen sie Inhalte überprüfen können – technisch und inhaltlich. Wir üben gemeinsam, wie man Täuschungen entlarvt und wo die eigenen Schwachstellen in der Wahrnehmung liegen.
Der Journalist:
Und wo liegt die Verantwortung? Bei den Entwicklerinnen und Entwicklern?
Prof. Dr. Seminar(Pro):
Nicht nur. Auch bei Plattformen, Medien, der Politik – aber eben auch bei jedem Einzelnen. Aufklärung, Reflexion und digitale Mündigkeit sind das, worum es mir geht. KI wird bleiben. Aber ob sie uns dient oder täuscht, das hängt auch von uns ab.
Der Journalist:
Dann hoffe ich, dass viele dieses Seminar besuchen. Es klingt nach einem Augenöffner.
Prof. Dr. Seminar(Pro):
Das ist das Ziel. Nicht Panik, sondern Perspektive. Nicht Technikgläubigkeit, sondern Medienkompetenz.
FAQs
KI: Fake oder echt?
1. Was genau ist ein Deepfake?
Ein Deepfake ist eine per KI manipulierte Audio- oder Videodatei, in der Personen täuschend echt etwas sagen oder tun, das sie nie gesagt oder getan haben.
2. Wie kann ich erkennen, ob ein Bild von einer KI stammt?
Achten Sie auf Details: unnatürliche Proportionen, verschwommene Hände, unscharfe Schatten oder „glatte“ Gesichter können Hinweise sein. Tools helfen zusätzlich.
3. Ist jeder KI-generierte Inhalt eine Fälschung?
Nein. Viele KI-generierte Inhalte sind legal und nützlich – z. B. für kreative Projekte, Übersetzungen oder Assistenzsysteme. Täuschung entsteht durch missbräuchlichen Einsatz.
4. Kann KI auch Texte fälschen?
Ja – von gefälschten E-Mails über erfundene Studien bis hin zu politischer Propaganda in sozialen Netzwerken.
5. Welche Tools helfen bei der Erkennung von Fakes?
Beispiele: Deepware Scanner, Google Rückwärtssuche, GPTZero, Reality Defender, Forensische Bildanalyse-Tools.
6. Ist KI gefährlich?
Nicht per se. Gefährlich ist der Einsatz ohne Kontrolle, Transparenz und ethische Leitplanken.
7. Wird KI den Journalismus verdrängen?
Nein – aber sie verändert ihn. Faktencheck, Quellensicherung und Kontextualisierung werden wichtiger denn je.
8. Wie kann ich meine eigene Medienkompetenz stärken?
Durch Übung, kritisches Denken, Quellenprüfung und den Einsatz von Analysewerkzeugen. Das lernen Sie im Seminar.
9. Kann ich als Laie überhaupt erkennen, was echt ist?
Ja – mit dem richtigen Know-how und etwas Übung ist das möglich.
10. Was ist der Unterschied zwischen generativer und klassischer KI?
Klassische KI erkennt Muster – generative KI erzeugt selbstständig neue Inhalte wie Texte, Bilder oder Töne.
11. Wie geht man mit KI-Fakes in sozialen Netzwerken um?
Immer prüfen, bevor man teilt. Im Zweifel hinterfragen, melden, nicht blind weiterverbreiten.
12. Gibt es rechtliche Konsequenzen für Deepfakes?
In einigen Ländern ja. In Deutschland sind Deepfakes strafbar, wenn sie etwa Persönlichkeitsrechte verletzen.
13. Wie lernen Maschinen, uns zu täuschen?
Durch Trainingsdaten – je besser die Daten, desto überzeugender die Simulation. Die Maschine selbst „weiß“ aber nicht, dass sie täuscht.
14. Wie steht es um den Datenschutz bei KI-Anwendungen?
Viele KI-Systeme greifen auf große Datenmengen zurück – Datenschutz ist ein zentrales Problem und Thema aktueller Gesetzgebung.
15. Wird KI jemals ein echtes Bewusstsein haben?
Aktuell: Nein. Auch wenn KI sehr menschlich wirken kann, fehlt ihr Bewusstsein, Emotion, Selbstwahrnehmung – das ist Simulation, keine Intelligenz im philosophischen Sinn.
Glossar
Künstliche Intelligenz & Täuschung
| Begriff | Erklärung |
|---|---|
| Algorithmus | Schrittweise Anleitung zur Lösung eines Problems |
| API | Programmierschnittstelle zur Kommunikation zwischen Softwarekomponenten |
| Autonomes System | System, das Entscheidungen ohne menschlichen Eingriff trifft |
| Bias | Verzerrung in Datensätzen oder Entscheidungen durch Vorurteile |
| Bot | Software, die automatisierte Aufgaben ausführt |
| Chatbot | Textbasierter Gesprächspartner auf KI-Basis |
| Cloud Computing | Online-Nutzung von IT-Ressourcen wie Speicher oder Rechenleistung |
| Computer Vision | Maschinenverarbeitung und Interpretation von Bildern |
| Corpus | Sammlung von Texten oder Sprachdaten zum Trainieren von KI |
| DALL·E | KI-Modell zur Bildgenerierung aus Textbeschreibungen |
| Data Mining | Extraktion von Mustern aus großen Datenmengen |
| Deepfake | KI-generierte Medienfälschung von realistischen Audio-/Videoinhalten |
| Deep Learning | Teilgebiet des Machine Learning mit neuronalen Netzen |
| Digitalisierung | Überführung analoger Inhalte in digitale Form |
| Disinformation | Vorsätzlich verbreitete falsche Informationen |
| Ethik in der KI | Forschung zu moralischen Fragen bei der KI-Nutzung |
| Fake News | Falschmeldungen mit Täuschungsabsicht |
| GAN | Generative Adversarial Network, erzeugt realistische Inhalte |
| GPT | Generative Pre-trained Transformer – Sprachmodell von OpenAI |
| Halluzination | Falschinformationen, die von KI-Systemen generiert werden |
| Hybrid Intelligence | Kombination von menschlicher und künstlicher Intelligenz |
| Informationskompetenz | Fähigkeit, Informationen zu bewerten und einzuordnen |
| KI (Künstliche Intelligenz) | Maschinen, die Aufgaben wie Denken und Lernen simulieren |
| Klassifikation | Zuweisung von Daten zu vordefinierten Kategorien |
| LLM | Large Language Model, großes Sprachmodell wie GPT-4 |
| Machine Learning | Lernfähige Algorithmen auf Basis von Daten |
| Manipulation | Beeinflussung anderer durch gezielte Informationssteuerung |
| Metadaten | Zusatzinformationen über Dateien oder Inhalte |
| Midjourney | KI-Bildgenerator für künstlerische Bilder |
| Modelltraining | Lernprozess eines KI-Systems mit Daten |
| Natural Language Processing (NLP) | Sprachverarbeitung durch Maschinen |
| Neuronales Netz | Mathematisches Modell nach dem Vorbild des Gehirns |
| Open Source | Frei zugänglicher und veränderbarer Quellcode |
| Overfitting | Überanpassung eines Modells an Trainingsdaten |
| Plausibilitätsprüfung | Abschätzung, ob ein Inhalt logisch und glaubwürdig ist |
| Prompt | Eingabeaufforderung an ein KI-System (z. B. Text oder Frage) |
| Realitätsverzerrung | Wahrnehmung, die durch Täuschungstechnologien verfälscht wird |
| Realitätssimulation | KI-generierte Welt, die real erscheint |
| Rückwärtssuche | Suche nach Originalquellen eines Bildes |
| Sprachmodell | KI, die Texte versteht und erzeugt |
| Supervised Learning | Maschinelles Lernen mit beschrifteten Daten |
| Synthesevideo | Zusammengesetztes Video aus echten und KI-generierten Teilen |
| Turing-Test | Test, ob eine Maschine von einem Menschen unterscheidbar ist |
| Uncanny Valley | Unbehagen bei fast-menschlicher KI-Darstellung |
| Verifikation | Prüfung der Echtheit von Informationen |
| Voice Cloning | KI-Technik zur Imitation von Stimmen |
| Wahrnehmungstäuschung | Beeinflussung unserer Sinneseindrücke durch KI |
| Webcrawler | Programm zur automatischen Analyse von Webseiten |
| Zero-Day-Fake | Neue, noch unbekannte Täuschung ohne erkennbare Spuren |
| Quellenkritik | Kritisches Hinterfragen von Ursprüngen und Absichten |
| Zensurresistenz | Fähigkeit von Informationen, sich einer Kontrolle zu entziehen |
Literatur
Deutschsprachige Literaturhinweise
1. Holger Volland – Overload: Die KI-Medienflut kommt
Wie Künstliche Intelligenz unser Gefühl für Realität herausfordert und woran man echte Inhalte erkennt.
2. Doris Schuppe – ALLES FAKE!? Mit Fiona generative KI entdecken
Ein erzählendes Sachbuch, das KI und ihre Täuschungsmechanismen lebensnah erklärt.
3. Max Scholz – Geheime Deepfakes und Fake News
Ein praxisorientiertes Werk über Manipulationen im digitalen Raum.
4. Robert Diedrich / Ulrich Lippitz – Kriminalität und Künstliche Intelligenz
Rechtliche, technische und ethische Perspektiven zu KI im Spannungsfeld der Täuschung.
5. Helga Nowotny – Die KI sei mit euch
Eine philosophische Auseinandersetzung mit der Macht algorithmischer Vorhersagen.
6. Cleo Konrad – Deep Fake: Thriller
Ein packender Roman über einen KI-Skandal – fiktiv, aber erschreckend realitätsnah.
7. Frank Schätzing – Die Tyrannei des Schmetterlings
Eine visionäre Erzählung über eine außer Kontrolle geratene Künstliche Intelligenz.
8. Stefan Römer – Künstlerische Strategien des Fake
Ein kritischer Blick auf Original, Imitation und Täuschung im Kontext digitaler Bilder.
Essay
Essay: Wahrheit auf Abruf – Wie KI unsere Realität manipuliert
In einer Welt, in der man mit wenigen Klicks einen Papst in Balenciaga oder Angela Merkel beim Skateboarden generieren kann, stellt sich eine beunruhigende Frage: Was ist noch echt?
Künstliche Intelligenz hat in kürzester Zeit Fähigkeiten entwickelt, die unsere Realität herausfordern. Sie kann schreiben, sprechen, Bilder malen, komponieren – und täuschen. Es ist nicht mehr allein der Mensch, der Fiktion erschafft. Maschinen haben gelernt, unsere Sinne zu imitieren und unsere Wahrnehmung auszutricksen. Und je besser sie werden, desto schwieriger wird es, zwischen Sein und Schein zu unterscheiden.
Die Technologie selbst trägt keine Schuld. Sie folgt nur mathematischen Regeln und statistischen Wahrscheinlichkeiten. Der Mensch ist es, der entscheidet, was daraus wird: ein Werkzeug der Aufklärung oder ein Instrument der Manipulation. Wenn wir Bilder von Ereignissen sehen, die nie stattfanden, oder Stimmen hören, die nie gesprochen haben, betreten wir einen Raum zwischen Realität und Simulation. Die psychologischen Effekte sind tiefgreifend – unser Vertrauen in visuelle und auditive Beweise, einst fest verankert, beginnt zu erodieren.
Doch in der Krise liegt auch eine Chance. Die neue Unsicherheit zwingt uns zu einem neuen Medienbewusstsein. Wir müssen lernen, nicht nur Informationen zu konsumieren, sondern sie zu hinterfragen. Das bedeutet: Quellen prüfen, KI-typische Muster erkennen, Tools zur Verifikation einsetzen. Es bedeutet auch, sich der eigenen Wahrnehmungsverzerrungen bewusst zu werden.
Ein besonders perfider Aspekt: KI-Täuschungen werden oft nicht aus technischer Raffinesse heraus geglaubt, sondern weil sie unseren Erwartungen entsprechen. Wir fallen nicht auf die Maschine herein – sondern auf uns selbst.
Gesellschaftlich stehen wir damit an einem Scheideweg: Entweder wir entwickeln neue Standards der Aufklärung – oder wir überlassen den digitalen Raum der Täuschung. Letzteres hätte fatale Folgen für Demokratie, Bildung und Wissenschaft.
Der Ruf nach Regulierung wird lauter, doch Gesetze hinken der Technik hinterher. Was heute noch als Fake erkannt wird, kann morgen schon Wirklichkeit imitieren, die ununterscheidbar ist. Was bleibt, ist die Verantwortung jedes Einzelnen: für kritisches Denken, digitale Mündigkeit und ethisches Handeln.
Denn wenn Wahrheit auf Abruf verfügbar wird, liegt die größte Wahrheit vielleicht in unserer Fähigkeit, zu hinterfragen.
Best Practice
Umgang mit KI-Täuschungen – Was sich in der Praxis bewährt hat
1. Visuelle Inhalte immer verifizieren – nicht vertrauen
Erfahrung zeigt: Bilder und Videos sind am anfälligsten für Täuschungen. Daher empfiehlt sich stets eine Rückwärtssuche über Google Images oder Tineye, um zu überprüfen, ob das Bild bereits bekannt ist oder in anderen Kontexten verwendet wurde.
2. Textinhalte auf Wiederholungen und „glatte“ Sprache prüfen
KI-generierte Texte neigen zu repetitiven Strukturen und generischen Formulierungen. Ein stilistischer Check (z. B. durch Vergleich mit journalistischen Standards) hilft, maschinelle Muster zu entlarven.
3. Quellen zuerst, Inhalte danach bewerten
Ein etablierter Medien-Grundsatz, der sich im digitalen Zeitalter neu bewährt: Vertrauenswürdigkeit beginnt bei der Quelle. Wer steht hinter einer Meldung, einem Video oder einem Bild? Domainnamen, Impressum und redaktionelle Richtlinien prüfen!
4. Tools gezielt einsetzen – aber nicht blind vertrauen
Technische Werkzeuge zur Fake-Erkennung (z. B. Deepware, GPTZero, Hive Moderation) helfen – aber sie ersetzen nicht den Menschenverstand. Die beste Erkennungsrate entsteht durch Kombination von Tool und kritischer Reflexion.
5. In Bildung und Organisationen: KI-Kompetenz als Pflichtfach etablieren
Die Einführung von regelmäßigen Workshops, Medienkompetenztrainings und offenen Diskussionsrunden zum Thema KI und Desinformation hat sich in Schulen, Unternehmen und Behörden als sehr wirksam erwiesen.
6. Ethik mitdenken – nicht nur Technik bewundern
Professionelle Medienarbeit und digitale Inhalte sollten stets einem ethischen Standard folgen: transparente Kennzeichnung von KI-Inhalten, keine Täuschung durch Simulation, respektvoller Umgang mit Persönlichkeitsrechten.
7. Teamarbeit beim Faktencheck
In Redaktionen und Projektteams hat sich der kollektive Faktencheck bewährt: Inhalte im Vier-Augen-Prinzip prüfen lassen, Feedbackschleifen einbauen, kollektive Sensibilität fördern.
8. Eigene Täuschbarkeit regelmäßig reflektieren
Eine der wirksamsten Methoden im Alltag ist die bewusste Auseinandersetzung mit der eigenen Wahrnehmung und kognitiven Verzerrung. Je besser man die Mechanismen der Täuschung kennt, desto sicherer wird der Umgang mit KI-Inhalten.
9. Community nutzen – gemeinsam gegen Fake
Der Austausch in kritischen Online-Communities, Bildungsplattformen und Foren hilft beim Erkennen von Fakes und erweitert den eigenen Horizont – kollektive Intelligenz als Gegenspieler zur Künstlichen Intelligenz.
10. KI selbst nutzen, um KI zu entlarven
Ein paradoxes, aber bewährtes Prinzip: Verwenden Sie KI-gestützte Analysewerkzeuge, um andere KI-Inhalte zu identifizieren. Die Maschine als Wächter über die Maschine – immer mit menschlicher Kontrolle.
Checkliste
Fake oder echt? – So entlarven Sie KI-generierte Inhalte
A. Allgemeine Prüfung
☐ Ist die Quelle bekannt und vertrauenswürdig?
☐ Gibt es ein Impressum oder eine redaktionelle Verantwortung?
☐ Ist das Veröffentlichungsdatum plausibel und aktuell?
☐ Wird der Inhalt von anderen seriösen Quellen bestätigt?
B. Bildanalyse
☐ Sind Hände, Augen, Schatten und Texturen realistisch dargestellt?
☐ Gibt es Artefakte oder Unschärfen an ungewöhnlichen Stellen?
☐ Passen Licht und Perspektive zusammen?
☐ Ist das Bild per Rückwärtssuche auffindbar oder bereits bekannt?
C. Textprüfung
☐ Gibt es ungewöhnliche Wiederholungen oder eine übertrieben neutrale Sprache?
☐ Sind die Fakten überprüfbar oder fehlen Quellenangaben?
☐ Klingt der Text „zu perfekt“, um menschlich zu sein?
☐ Wechselt der Stil innerhalb des Textes ohne Grund?
D. Video- und Audioanalyse
☐ Stimmen Lippenbewegung und Ton exakt überein?
☐ Gibt es abrupte Schnitte, Störungen oder unnatürliche Bewegungen?
☐ Klingt die Stimme „glatt“, emotionslos oder gleichförmig?
☐ Blinzeln und Mikrobewegungen realistisch?
E. Technische Hilfsmittel einsetzen
☐ Rückwärtssuche mit Google oder Tineye durchgeführt?
☐ Tools wie Deepware, Reality Defender, GPTZero verwendet?
☐ Metadaten des Mediums geprüft (z. B. über fotoforensics.com)?
☐ KI-Warnhinweise oder Herkunftskennzeichnungen sichtbar?
F. Reflexion & Ethik
☐ Könnte der Inhalt jemandem schaden oder manipulativ wirken?
☐ Wurde transparent gemacht, ob KI verwendet wurde?
☐ Welche Absicht steckt hinter dem Inhalt?
☐ Wäre ich bereit, diesen Inhalt weiterzuverbreiten?
Multiple Choice
Multiple-Choice-Aufgabenblatt
1. Was ist ein Deepfake?
A) Ein Virustyp
B) Ein KI-generierter Text
C) Eine Bildkomprimierungsmethode
D) Ein manipuliertes Video mittels KI
2. Was ist ein typisches Merkmal KI-generierter Bilder?
A) Glatte Haut, unnatürliche Hände
B) Gestochen scharfe Schatten
C) Extreme Tiefenschärfe
D) Graustufenfilter
3. Welches Tool hilft bei der Rückwärtssuche von Bildern?
A) ChatGPT
B) Tineye
C) Midjourney
D) Excel
4. Was bedeutet der Begriff „Halluzination“ bei KI-Systemen?
A) Ein Zustand der Überhitzung
B) Falsch generierte Inhalte ohne Faktenbezug
C) Eine grafische Darstellung
D) Ein Zustand im neuronalen Netz
5. Was prüft man mit einer Rückwärtssuche?
A) Ladezeit einer Webseite
B) Herkunft und Kontext eines Bildes
C) IP-Adresse eines Servers
D) Originalsprache eines Videos
6. Warum sind Deepfakes gefährlich?
A) Sie blockieren Internetleitungen
B) Sie ersetzen Videospiele
C) Sie können falsche Realität erzeugen
D) Sie löschen andere Dateien
7. Welche KI erzeugt aus Texten Bilder?
A) DALL·E
B) Excel
C) Acrobat
D) Siri
8. Was ist ein typisches Symptom für Fake-Texte?
A) Ironie
B) Rechtschreibfehler
C) Wiederholungen und glatte Sprache
D) Zitate
9. Was beschreibt das Uncanny Valley?
A) Eine KI-Funktion zur Datenreduktion
B) Unbehagen bei fast menschlichen Maschinenbildern
C) Ein Ort im Silicon Valley
D) Ein Logikfehler bei Spracherkennung
10. Was bedeutet „Bias“ in der KI?
A) Bildschärfung
B) Überhitzung
C) Voreingenommenheit in Daten
D) Aktualitätsverlust
11. Welcher Beruf ist besonders von Deepfakes betroffen?
A) Softwareentwickler
B) Piloten
C) Lehrer
D) Politiker
12. Wofür steht „NLP“ in der KI?
A) Neuronale Latenzprozesse
B) Neuro-Linguistische Programmierung
C) Natural Language Processing
D) Nationale Lernplattform
13. Welcher dieser Begriffe beschreibt ein Sprachmodell?
A) GAN
B) GPT
C) PDF
D) API
14. Was ist ein Prompt?
A) Das technische Format eines Videos
B) Der Audioausgang eines KI-Systems
C) Eine Eingabeaufforderung an ein KI-Modell
D) Ein spezieller USB-Typ
15. Was kann GPTZero?
A) Texte zusammenfassen
B) KI-Texte erkennen
C) Videoqualität verbessern
D) Musik erzeugen
16. Was ist ein typischer Schwachpunkt bei KI-Videos?
A) Geräuschkulisse
B) Haarfarbe
C) Synchronisation von Stimme und Lippen
D) Textlänge
17. Warum ist Quellenkritik bei KI besonders wichtig?
A) Weil KI oft urheberrechtlich geschützt ist
B) Weil KI-Inhalte gefälscht sein können
C) Weil KI keine Bilder erkennt
D) Weil KI nur Englisch spricht
18. Welches Format zeigt Bild-Metadaten an?
A) ZIP
B) PDF
C) EXIF
D) MP3
19. Was bedeutet „Voice Cloning“?
A) Verdopplung von Videospuren
B) Kopieren von Audiodateien
C) Imitation einer Stimme durch KI
D) Lautstärkenregelung
20. Woran erkennt man oft einen Fake-Text?
A) An klaren Quellen
B) An wechselnden Stilarten
C) An überprüfbaren Zitaten
D) An fehlendem Kontext und Wiederholungen
Musterlösung
1: D
2: A
3: B
4: B
5: B
6: C
7: A
8: C
9: B
10: C
11: D
12: C
13: B
14: C
15: B
16: C
17: B
18: C
19: C
20: D
Hausaufgabe
Hausaufgabe 1: Bildanalyse
Aufgabe:
Suchen Sie ein verdächtiges Bild im Internet (z. B. über Social Media oder Bilddatenbanken) und prüfen Sie dessen Echtheit mit einer Rückwärtssuche. Dokumentieren Sie Ihre Recherche:
- URL des Bildes
- Ergebnis der Rückwärtssuche
- Ihre Begründung, ob es sich um ein Fake handelt
Ziel:
Stärkung der visuellen Medienkompetenz und Quellenkritik.
Hausaufgabe 2: Textentlarvung
Aufgabe:
Nutzen Sie ein KI-Erkennungs-Tool (z. B. GPTZero) und analysieren Sie zwei kurze Texte (max. 300 Wörter), die Sie im Netz gefunden haben. Versuchen Sie, herauszufinden, welcher Text wahrscheinlich KI-generiert wurde.
Ziel:
Sensibilisierung für stilistische Merkmale von KI-Texten.
Hausaufgabe 3: Falsche Stimme – echter Skandal?
Aufgabe:
Suchen Sie im Netz nach einem bekannten Voice-Cloning-Beispiel (z. B. aus Politik, Werbung oder Satire) und beantworten Sie folgende Fragen:
- Was wurde imitiert?
- Wie wurde es erkannt?
- Welche Reaktion gab es darauf?
Ziel:
Verständnis für Risiken und gesellschaftliche Debatten rund um synthetische Stimmen.
Hausaufgabe 4: Eigener Fake-Test
Aufgabe:
Nutzen Sie ein Tool wie DALL·E oder ChatGPT und erstellen Sie einen kurzen Fake (Bild oder Text). Lassen Sie eine andere Person diesen auf Echtheit prüfen. Protokollieren Sie die Reaktion und die Argumente.
Ziel:
Reflexion über Täuschung, Glaubwürdigkeit und eigene Wahrnehmung.
Hausaufgabe 5: Argumentationstraining
Aufgabe:
Schreiben Sie eine kurze Stellungnahme (ca. 300 Wörter) zu folgender Aussage:
„Künstliche Intelligenz gefährdet die Demokratie.“
Beziehen Sie Stellung, nennen Sie zwei Argumente und ein Gegenargument.
Ziel:
Förderung argumentativer Fähigkeiten und ethischer Reflexion.
Schritt-für-Schritt
Schritt-für-Schritt-Anleitung: Fake oder echt? – So entlarven Sie KI-Inhalte
1. Ersteindruck analysieren
- Fragen Sie sich: Wirkt das Bild, der Text oder das Video „zu perfekt“ oder auffällig unnatürlich?
- Achten Sie auf Details: Proportionen, Wiederholungen, Stilbrüche, Mimik.
2. Quelle prüfen
- Wo wurde der Inhalt veröffentlicht? (z. B. Social Media, Blog, Nachrichtenseite)
- Ist die Quelle vertrauenswürdig? (Impressum, Redaktion, journalistische Standards)
- Gibt es weitere Quellen, die dasselbe berichten? (Vergleich mit seriösen Medien)
3. Bild überprüfen
- Rückwärtssuche mit Tools wie Google Images oder Tineye
- Achten Sie auf:
– unnatürliche Hände oder Finger
– inkonsistente Lichtquellen
– Hintergrund- und Randunschärfen
– Texturen und Hautdarstellung
4. Text analysieren
- Erkennen Sie typische KI-Muster:
– Wiederholungen
– übertriebene Sachlichkeit
– fehlende Quellen
– unnötige Erklärungen - Tool-Tipp: Texte mit GPTZero oder OpenAI Classifier analysieren lassen.
5. Video/Audio kontrollieren
- Lippenbewegung mit Sprache vergleichen
- Blinzeln, Augenkontakt und Mimik analysieren
- Gleichmäßigkeit der Stimme hinterfragen
6. Metadaten nutzen
- EXIF-Daten aus Bildern oder Videos auslesen (z. B. mit fotoforensics.com)
- Ungewöhnliche Zeitstempel oder Kamerainformationen?
7. KI-Tools zur Analyse verwenden
- Deepware, Hive Moderation, Reality Defender (für Bild/Video)
- GPTZero, Crossplag (für Textanalyse)
8. Ethik-Check
- Würde ich diesen Inhalt teilen, wenn er über mich wäre?
- Könnte dieser Inhalt jemandem schaden oder manipulieren?
9. Fazit ziehen
- Eindeutig? – Fake entlarvt!
- Unsicher? – Nicht teilen, weiter prüfen oder professionelle Hilfe suchen.
