ABC-Etüden 38.39.19 – Deepfake


Link zu Christianes Einladung

2019_3839_2_300

twins-684015_960_720

Roman erschrak. Die Person im Videoanruf sah genau so aus, wie er. 100%. Auch die Stimme war zum Verwechseln ähnlich.

„Du musst nicht erschrecken“, sagte das Bild auf dem Tablet. „Ich bin Du, oder besser gesagt, ich bin Dein Zwillingsbruder.“

Roman stotterte: „Aber der ist doch bei der Geburt gestorben!“

„Das hat man Dir erzählt!“, antwortete das Tablet. „In Wirklichkeit war ich genauso lebendig wie Du. Bloß mich hat man von Dir und Mutter getrennt und zur „Aufzucht“ in die Gemeinschaft Lebensborn gegeben.  So war das damals in der Zeit der Nazis. Da konnten die Bonzen Kinder bestellen. Dort bin ich die ersten zwei Jahre aufgezogen worden. Aber dann kamen das Kriegsende und die Besatzungszeit. Mein Pflegevater, ein russischer Offizier, wurde nach Ablauf seiner Dienstzeit aus dem Militär entlassen und hat mich in seine Heimat mitgenommen. Und so bin ich dann in Sibirien gelandet, am Baikalsee. Listwjanka heißt der Ort.“

„Und wie hast Du mich gefunden?“, fragte Roman, immer noch verdattert.

„Die Datennetze sind heutzutage so variabel, dass man alle Netze der Welt miteinander koppeln kann. Und nach aufwendiger Recherche über meine Vergangenheit bin ich auf Dich gestoßen. Ja, so war es, so habe ich Dich zu meiner eigenen Überraschung gefunden!“

Roman atmete tief durch. „Ich habe mich von dem ersten Schreck jetzt erholt. Du weißt ja, dass wir noch einen älteren Bruder haben?“ „Klar, den Manfred!“, kam die prompte Antwort. „Ja, aber leider ist er ja vor drei Monaten gestorben.“ Roman drückte eine Träne aus seinem Auge.

„Nee, nee, das stimmt nicht! Ich finde keine Entsprechung in dem Sterberegister von Iserlohn!“, kam die Antwort aus dem Tablet.

„Kannst Du ja auch nicht finden!“ schrie Roman das Tablet an. „Denn ich habe Dich angelogen! Du bist ein Fake! Verschwinde aus meiner Leitung und versuche es nie wieder, mich zu kontaktieren!“

 (300 Worte)

Bilder: lizenzfrei aus www.pixabay.com

binary-1536624_960_720

Inspiriert zu der Geschichte hat mich ein Artikel in unserer Lokalzeitung vom 19.9.2019 über die Fortschritte in den Gesichts- und Stimmerkennungsprogrammen, die es in kurzer Zeit ermöglichen werden, täuschend echt Personen nachzustellen.

Ein Teil der Geschichte ist fiktiv und frei erfunden. Ein kleiner Teil ist allerdings wahr: ich habe einen älteren Bruder, der Manfred heißt und noch lebt. Und ja, ich bin ein Zwillingskind, dessen Bruder tatsächlich bei der Geburt gestorben ist und dem ich mit dieser Geschichte ein (virtuelles) Gedenken setzen möchte.

Siehe als Info den Text, den ich bei der Zeitungsgruppe on-line in Lizenz gekauft und abgeschrieben darstelle. (Bitte aus urheberrechtlichen Gründen NICHT AN DRITTE weitergeben!)

 Wenn der Boss  gar nicht der Boss ist

Experten beunruhigt über „Deepfakes“: Künstliche Intelligenz ahmt Menschen perfekt nach

Von Finn Mayer-Kuckuk

BERLIN. Der Mann war sich sicher, seinen Boss am Telefon zu haben. Heute kann sich der Geschäftsführer eines britischen Unternehmens aus der Energiebranche einer besonderen Rolle in der Technikgeschichte rühmen: Er ist das erste Opfer eines Betrugs mit einer gefälschten Stimme. Die Masche wird „Deepfake“ genannt, angelehnt an „deep learning“, einen englischen Begriff für Maschinenlernen. Der Anrufer gab sich als der Präsident des deutschen Mutterkonzerns aus, zu dem das britische Unternehmen gehört. Der deutsche Akzent im Englischen, die Sprachmelodie – alle Details klangen überzeugend. Ungewöhnlich war nur, dass der Firmenpräsident den Geschäftsführer am Telefon anwies, eine angeblich enorm dringende Überweisung nach Osteuropa zu veranlassen. „Dieser hat sich zwar etwas gewundert, da er jedoch die Stimme eindeutig erkannte, hat er den Auftrag trotzdem durchgeführt“, sagt Rüdiger Kirsch, Betrugsexperte bei dem Versicherer Euler Hermes, der am Ende für den Schaden aufkommen musste – 220 000 Euro.

Bisher weiß kaum jemand, dass sich Stimmen in Echtzeit nachahmen lassen. Die technische Entwicklung verlief hier in den vergangenen zwei Jahren enorm schnell. Und doch steht die Technik noch am Anfang: „In einem oder zwei Jahren gibt es vielleicht den ersten Fake-President-Fall, bei dem die Zahlungsanweisung per Deepfake-Video über WhatsApp kam“, sagt Ron van het Hof, Chef von Euler Hermes in Deutschland. Das Aufkommen der sogenannten „Deepfakes“ beunruhigt nun Sicherheitsexperten rund um den Globus. Zugleich steht die Beschäftigung damit bei deutschen Institutionen offenbar noch ziemlich am Anfang. „Das Thema wird auch aus datenschutzrechtlicher Sicht in der Zukunft sicherlich weiter an Relevanz gewinnen“, teilte das Büro des Bundesdatenschutzbeauftragen mit; weitere Informationen lägen nicht vor.

Wendepunkt

Dabei markiert die neue Technik einen grundsätzlichen Wendepunkt im Umgang mit Kommunikationsmedien. Die wichtigste Möglichkeit, Menschen zu identifizieren, wird schon bald entwertet sein. Die Nachahmung von lebendigem Bewegtbild und Stimme liegen technisch in Reichweite von Normalbürgern. Wer seinem Gegenüber vertrauen will, muss ihn also ab jetzt mit Trickfragen testen – und langfristig wird eine elektronische Echtheitsprüfung den Verbindungsaufbau begleiten.

Sicherheitsexperten sehen für die Übergangszeit ein großes Problem damit, dass die neuen Verfahren in der Bevölkerung noch unbekannt sind. „Die Gesellschaft wird von den neuen Möglichkeiten überrumpelt“, sagt David Wollmann, Sicherheitsberater bei der Firma NTT Security. Es sei schnelle Aufklärung nötig, sonst drohe eine Welle von Betrugsfällen. Varianten der „Chefmasche“ seien denkbar, beispielsweise im privaten Bereich Entsprechungen des Enkeltricks („Oma, ich brauche dringend Geld“). Die Computersoftware zum Nachahmen von Gesichtszügen und Sprechweise hat sich so schnell weiterentwickelt, weil die Forschung an Methoden zur Mustererkennung und -erzeugung einige Hürden genommen hat. Software sieht das Video und hört die Stimme, erkennt die persönlichen Eigenschaften – also das „Aussehen“ und den „Klang“ – und erzeugt im nächsten Schritt daraus eine künstliche Version, die sie wiederum mit beliebigen Inhalten wie Gesichtsausdrücken und Sätzen füllen kann.

Bereits heute basteln Privatleute Filmchen, in denen Kanzlerin Angela Merkel scheinbar ihren Rücktritt erklärt. Die Stimme enthält zwischen den Sätzen noch kleine Verzerrungen, und auch Barack Obama wirkt in einem weitverbreiteten Deepfake-Video etwas wächsern. Wer jedoch die Clips ohne Misstrauen betrachtet, dürfte sie erst einmal für echt halten. Das ist ein weiterer Aspekt, in dem Deepfakes die Wahrnehmung grundsätzlich verändern werden. „Fake News erhalten eine neue Dimension“, sagt NTT-Experte Wollmann. Was etwa, wenn ein Video als „Eilmeldung“ auftaucht: Ein deutsches Atomkraftwerk sei explodiert – und der Innenminister in Bild und Ton zur Evakuierung aufruft? „Eine Panik ist möglich“, so Wollmann. Es sei wichtig, dass die Allgemeinheit lerne, die Echtheit von Medien künftig noch viel mehr zu hinterfragen als heute.

Neueste Entwicklung in 2020 zu diesem Thema:

12 Comments

  1. Was da wohl noch alles auf uns zukommt? Ich bin neulich von der „Polizei“ 110 angerufen worden, hier seien Einbrecher unterwegs , sie wollten sich nach meinen Wertsachen erkundigen . Ich habe den Braten sofort gerochen und direkt die Polizei angerufen und auch Anzeige erstattet. An dem Wochenende hatte die Polizei 110 Meldungen und wer weiß, wer noch darauf reingefallen ist. Oder der Enkeltrick….es gibt nichts, was kriminell nicht versucht würde.
    Lieber Gruß in Deinen Abend, Karin

  2. Das IST erschreckend, lieber Werner, in diesem Fall besonders der Artikel. Das öffnet so viel Missbrauch Tür und Tor, dass ich erst mal tief Luft holen muss – und lieber nicht aufzähle, was mir so alles durch den Kopf geht, deine Beispiele reichen schon.
    Gut, dass dein Protagonist nicht auf den „Brudertrick“ reingefallen ist und so misstrauisch war. Aber ach, ich fürchte, vielen würde es nicht so gehen und ich weiß nicht, ob ich dazugehören würde.
    Liebe Grüße am Abend, ich hoffe, dein Gartenzaun von neulich ist gut geworden 😀
    Christiane

  3. Ich musste es mehrmals lesen bis ich verstanden habe, dass der echte Mensch den gefakten hatte testen wollen mit dem Bruderbeispiel.

    Mal sehen wie sich das Thema entwickelt. Hatte ich (noch) gar nicht auf dem Schirm.

    VG, René

  4. Ein gruseliges Szenario, das mich an „Akte X“ erinnert, aber doch noch ein Stück weiter an der (zukünftigen) Wahrheit dran ist.
    Toller Etüdenbeitrag!
    Liebe Grüße und im Gedenken an deinen Bruder
    die Hoffende

    1. Ich war auch schokiert über diese Aussichten. Und die Fiktion, meinem Zwillingsbruder vielleicht doch Mal zu begegnen, weil er vielleicht doch eine Seele hatte, derzeit ich irgendwann begegnen könnte, hat mich sehr nachdenklich gemacht.

      1. Oops, da war wohl meine vorige Antwort verrutscht, entschuldige bitte.
        Was uns erwartet, wissen wir wohl weder im Diesseits noch im Jenseits oder in der Vermischung von beidem. Aber die Möglichkeiten sind schon ungeheuerlich, das stimmt.

Schreibe einen Kommentar. Deine E-Mail-Adresse wird nicht veröffentlicht. Mit der Nutzung dieses Formulars erklärst du dich mit der Speicherung und Verarbeitung deiner Daten durch diese Website einverstanden. ommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.