Generative Fraud vs. AI Verification — Warum Deepfakes die Vermietung verändern
Kurz erklärt
Generative KI macht Dokumentenfälschung in der Mietbewerbung billig, schnell und für Laien zugänglich. Gehaltsnachweise, Kontoauszüge, Ausweise und Arbeitsverträge lassen sich heute pixelgenau erzeugen — visuelle Sichtprüfung erkennt sie nachweislich in unter 50 % der Fälle. Dokumentenfälschung erfüllt § 267 StGB (DE), § 223 StGB (AT) und Art. 251 StGB (CH) und kann mit bis zu 5 Jahren Freiheitsstrafe geahndet werden. Schutz bietet nur algorithmische Verification: Pixel- und Metadatenanalyse, Cross-Referencing über mehrere Dokumente sowie Behavioral Pattern Analysis.
Auf einen Blick
- Rechtsgrundlage: § 267 StGB (DE, bis 5 Jahre), § 223 StGB (AT, bis 1 Jahr), Art. 251 StGB (CH, bis 5 Jahre)
- Erkennungsrate Mensch: Unter 50 % bei KI-generierten Dokumenten — nicht besser als Zufall
- Häufige Ziele: Gehaltsnachweise, Kontoauszüge, Personalausweise, Arbeitsverträge
- Schätzung Fälschungsquote: 5–15 % in angespannten DACH-Mietmärkten, stark steigend
- Kosten Fehlvermietung: Typisch 8.000–15.000 € — KI-Prüfung kostet Cent bis Euro pro Dokument
- Rechtsgrundlage Prüfung: Berechtigtes Interesse nach Art. 6 Abs. 1 lit. f DSGVO, Hinweispflicht gegenüber Bewerber
Das neue Wettrüsten
Es gibt einen Satz, der in der PropTech-Branche gerade leise die Runde macht: „Jede Fälschung, die ein Mensch erkennen konnte, wird bald eine KI besser fälschen können."
Das ist keine Dystopie. Das ist die Realität von 2026.
Generative AI — dieselbe Technologie, die Texte schreibt, Bilder erzeugt und Code generiert — wird zunehmend eingesetzt, um Dokumente zu fälschen. Nicht von organisierten Kriminellen in Kellerlaboren. Von ganz normalen Menschen, die eine Wohnung wollen und wissen, dass der Markt brutal ist.
Das Ergebnis ist ein asymmetrisches Wettrüsten: Fälschungen werden exponentiell besser. Die Prüfmethoden der meisten Vermieter — Draufschauen, Bauchgefühl, „sieht echt aus" — bleiben auf dem Niveau von 2015.
Die gefährlichste Sicherheitslücke in der Vermietung ist nicht ein technischer Angriff. Es ist die Überzeugung, dass man Fälschungen noch mit bloßem Auge erkennen kann.
Was heute schon gefälscht wird
Die vier häufigsten Dokumentenkategorien im Visier generativer Fälschung:
Gehaltsnachweise: Moderne Text-to-Image-Modelle erzeugen Gehaltsabrechnungen, die pixelgenau aussehen wie Originale. Schriftart, Layout, Wasserzeichen, Steuertabellen — alles stimmt. Der Unterschied zum echten Dokument ist für das menschliche Auge nicht mehr erkennbar.
Kontoauszüge: PDF-Generatoren erstellen Bankbelege mit korrekter Formatierung, passenden Saldoentwicklungen und authentischen Transaktionsmustern. Manche Tools füllen sogar plausible Ausgaben ein — Supermarkt, Tankstelle, Spotify — um den Auszug „lebendig" wirken zu lassen.
Ausweisdokumente: Deepfake-Technologie kombiniert echte Fotos mit gefälschten Personendaten. Das Ergebnis: ein Personalausweis, der bei einer Videoidentifikation besteht — zumindest bei einer manuellen Sichtprüfung.
Arbeitsverträge und Arbeitgeberbescheinigungen: Mit Large Language Models lassen sich in Sekunden Dokumente generieren, die sprachlich, formal und inhaltlich nicht von echten Bescheinigungen zu unterscheiden sind. Firmenstempel können aus öffentlich zugänglichen Bildern extrahiert und reproduziert werden.
Warum das Problem gerade explodiert
Drei Faktoren treiben die Entwicklung:
Demokratisierung der Werkzeuge: Was vor zwei Jahren Spezialsoftware erforderte, erledigt heute eine Browser-App. Die Einstiegshürde für Dokumentenfälschung ist praktisch auf null gesunken. Open-Source-Modelle wie Stable Diffusion ermöglichen fotorealistische Bildmanipulation ohne technisches Vorwissen.
Wohnungsmarktverzweiflung: In Städten wie München, Wien und Zürich bewerben sich 200 bis 500 Menschen auf eine einzige Wohnung. Der ökonomische Anreiz, die eigene Bewerbung „aufzupolieren", ist enorm. Was als Schönfärberei beginnt, endet bei gefälschten Einkommensnachweisen.
Fehlende Konsequenzen: Dokumentenfälschung im Bewerbungskontext wird selten strafrechtlich verfolgt. Die meisten Vermieter bemerken den Betrug erst, wenn die Miete ausbleibt — und selbst dann ist der Zusammenhang schwer nachzuweisen. Das Risiko-Ertrags-Verhältnis spricht aus Sicht des Fälschers für die Fälschung.
Was ein Vermieter heute nicht mehr erkennen kann
Hier wird es unbequem. Studien zur visuellen Täuschungsresistenz zeigen konsistent:
- Menschen erkennen KI-generierte Bilder in weniger als 50 % der Fälle korrekt — statistisch nicht besser als Zufall
- Professionelle Erfahrung hilft kaum: Selbst geschulte Prüfer liegen bei KI-generierten Dokumenten nur marginal über der Zufallsrate
- Vertrauen steigt mit Qualität: Je besser die Fälschung, desto überzeugter ist der Prüfer, ein Original vor sich zu haben
Das bedeutet: Die visuelle Prüfung von Bewerbungsunterlagen ist als Sicherheitsmaßnahme faktisch wertlos geworden. Wer sich darauf verlässt, schützt sich nicht — er wiegt sich in falscher Sicherheit.
Wie AI Verification funktioniert
Die Gegenbewegung zur generativen Fälschung ist algorithmische Verification. Statt menschlicher Augen prüfen trainierte Modelle die Authentizität von Dokumenten auf einer Ebene, die für Menschen unsichtbar ist.
Pixel-Level-Analyse
Jedes digitale Dokument trägt eine unsichtbare Geschichte. Originale haben konsistente Kompressionsmuster, einheitliche Rauschverteilungen und natürliche Pixelstrukturen. KI-generierte Bilder weisen dagegen mathematisch nachweisbare Artefakte auf — unsichtbar für das Auge, sichtbar für Algorithmen.
Metadata-Forensik
Digitale Dokumente enthalten Metadaten: Erstellungsdatum, verwendete Software, Bearbeitungshistorie, GPS-Koordinaten. Gefälschte Dokumente haben entweder keine Metadaten (verdächtig), inkonsistente Metadaten (verdächtig) oder perfekte Metadaten (ebenfalls verdächtig, weil echte Dokumente immer kleine Unregelmäßigkeiten aufweisen).
Cross-Referencing
Moderne Verification-Systeme prüfen nicht nur das einzelne Dokument, sondern die Konsistenz über alle eingereichten Unterlagen. Passt das Gehalt zum angegebenen Beruf? Stimmt die Kontoentwicklung mit den Gehaltsabrechnungen überein? Passen die Daten des Arbeitsvertrags zu den Abrechnungen?
Ein menschlicher Prüfer kann diese Querverweise bei 20 Bewerbungen à 5 Dokumenten kaum leisten. Eine Maschine in Sekunden.
Behavioral Pattern Analysis
Die nächste Generation der Verification analysiert nicht nur die Dokumente selbst, sondern das Verhalten des Bewerbers während der Einreichung. Wie schnell werden Dokumente hochgeladen? In welcher Reihenfolge? Gibt es Verzögerungen bei bestimmten Dokumenttypen? Werden Dokumente mehrfach ersetzt?
Allein aus diesen Mustern lassen sich Wahrscheinlichkeiten für Manipulation ableiten — ohne ein einziges Dokument inhaltlich geprüft zu haben.
Die rechtliche Dimension
Dokumentenfälschung ist kein Kavaliersdelikt:
- Deutschland: Urkundenfälschung (§ 267 StGB) — Freiheitsstrafe bis zu 5 Jahren oder Geldstrafe
- Österreich: Urkundenfälschung (§ 223 StGB) — Freiheitsstrafe bis zu 1 Jahr
- Schweiz: Urkundenfälschung (Art. 251 StGB) — Freiheitsstrafe bis zu 5 Jahren oder Geldstrafe
Für Vermieter entsteht gleichzeitig eine neue Sorgfaltspflicht. Wer nachweislich keine angemessenen Prüfmaßnahmen ergreift und dadurch einen Schaden erleidet, kann Probleme bei der Versicherungsregulierung bekommen. „Ich habe draufgeschaut und es sah echt aus" wird als Argumentation zunehmend schwächer.
Warum das Problem ein Vertrauensproblem ist
Der eigentliche Schaden der Fälschungswelle ist nicht der einzelne Betrugsfall. Es ist die Erosion von Vertrauen im gesamten Markt.
Wenn Vermieter wissen, dass Dokumente gefälscht sein können, werden sie:
- misstrauischer gegenüber allen Bewerbern
- langsamer in der Vergabe
- anfälliger für Diskriminierung (weil Vorurteile den Vertrauensverlust kompensieren)
Die paradoxe Folge: Ehrliche Bewerber werden bestraft, weil das System unehrlichen Bewerbern nicht mehr vertraut. AI Verification durchbricht diesen Kreislauf — indem sie Vertrauen algorithmisch wiederherstellt.
Der Gewinner in diesem Wettrüsten wird nicht die „smarteste KI". Es wird die KI, die Vertrauen am überzeugendsten wiederherstellt.
Was Vermieter jetzt tun sollten
Keine Dokumente mehr per WhatsApp annehmen. Jedes Dokument, das über einen unkontrollierten Kanal kommt, ist nicht verifizierbar. Ein strukturierter Upload-Kanal mit automatischer Prüfung ist der Mindeststandard. Warum dieser Kanal auch DSGVO-rechtlich entscheidend ist, zeigt der Artikel zu DSGVO-Fehlern privater Vermieter.
Visuelle Prüfung als alleinige Methode aufgeben. Das menschliche Auge ist gegen generative Fälschungen chancenlos. Sichtprüfung kann ergänzen, aber niemals die einzige Verifikationsebene sein.
Cross-Referencing systematisieren. Gehalt, Kontoauszug, Arbeitsvertrag und Selbstauskunft müssen gegeneinander geprüft werden. Manuell ist das bei zehn Bewerbern nicht leistbar, automatisiert schon.
Plattformen mit eingebauter Verification nutzen. Das Thema wird nicht einfacher. Wer heute auf manuelle Prüfung setzt, wird morgen überrollt. Die Integration von AI Verification in den Bewerbungsprozess ist kein Nice-to-have mehr — sie ist Risikomanagement.
Dokumentation der Prüfung sicherstellen. Unabhängig von der Methode: Dokumentieren Sie, was Sie geprüft haben und warum Sie dem Ergebnis vertrauen. Das schützt bei rechtlichen Auseinandersetzungen.
FAQ
Wie häufig sind gefälschte Bewerbungsunterlagen? Belastbare Zahlen für den DACH-Raum fehlen. Branchenexperten schätzen, dass in angespannten Wohnungsmärkten bei fünf bis fünfzehn Prozent der Bewerbungen mindestens ein Dokument manipuliert ist — Tendenz stark steigend durch generative AI.
Kann ich mich auf die SCHUFA/KSV-Auskunft verlassen? Bonitätsauskünfte sind schwerer zu fälschen als Gehaltsnachweise, aber nicht immun. Die sicherste Variante ist die Einholung direkt beim Auskunftsgeber oder über eine verifizierte Schnittstelle — nicht das vom Bewerber eingereichte PDF.
Was kostet AI-Dokumentenprüfung? Zwischen wenigen Cent und wenigen Euro pro Dokument bei etablierten Anbietern. Gemessen an den Kosten einer Fehlvermietung — typischerweise 8.000 bis 15.000 Euro — ist die Investition marginal.
Ist es erlaubt, Bewerberdokumente algorithmisch zu prüfen? Ja, wenn die Prüfung dem berechtigten Interesse des Vermieters dient (Art. 6 Abs. 1 lit. f DSGVO) und der Bewerber informiert wird. Die Prüfung muss auf Dokumentenauthentizität beschränkt bleiben — eine weitergehende biometrische Analyse wäre unverhältnismäßig. Wo die Grenzen zwischen erlaubter Verifikation und unzulässigem Scoring liegen, behandelt der EU AI Act für Vermieter.
Was mache ich, wenn ich eine Fälschung entdecke? Bewerbung sofort ablehnen und dokumentieren. Eine Anzeige steht Ihnen frei und kann insbesondere bei organisiertem Betrug sinnvoll sein. Die Aufbewahrung des gefälschten Dokuments als Beweis ist datenschutzrechtlich durch das berechtigte Interesse gedeckt.
Erkennt MonaMacht gefälschte Dokumente automatisch? Ja. Eingereichte Dokumente werden automatisch auf Konsistenz, Metadaten und Plausibilität geprüft. Bei Auffälligkeiten erhält der Vermieter einen Hinweis mit konkreter Begründung. Die finale Entscheidung bleibt immer beim Menschen.
Fazit
Die Vermietung steht vor einem Paradigmenwechsel in der Dokumentenprüfung. Generative AI macht Fälschungen so gut, dass menschliche Prüfung allein nicht mehr ausreicht. Das ist keine Zukunftsmusik — es passiert jetzt.
Die Antwort darauf ist nicht Paranoia, sondern Technologie. AI Verification gleicht die Asymmetrie aus, stellt Vertrauen wieder her und schützt Vermieter vor den Kosten einer Fehlentscheidung.
Die stärkste Verteidigung gegen generative Fraud ist nicht mehr Erfahrung. Es ist ein System, das schneller lernt als die Fälscher.
Verwandte Themen
- DSGVO-Fehler privater Vermieter
- EU AI Act 2026 für Vermieter
- AGG und Scoring bei der Mieterauswahl
- 10 Fehler privater Vermieter — und die AI-Lösung
Kein Rechtsrat: Dieser Artikel dient der allgemeinen Information und ersetzt keine rechtliche Beratung. Bei konkreten Fragen zu Dokumentenfälschung oder Strafverfolgung empfehlen wir die Konsultation eines Rechtsanwalts.
Themen: