Wie Vaarhaft Deepfakes erkennt und Versicherungsbetrug verhindert
Shownotes
In dieser Folge von „Kollegin KI“ begrüßt Max Mundhenke den Gründer von Wahrhaft, Linus Kameni. Gemeinsam tauchen sie in die Welt des KI-gestützten Betrugs ein, der die Wirtschaft bereits Milliarden kostet. Ein zentrales Thema ist die Provokation, dass Detektions-Tools allein keine hundertprozentige Sicherheit bieten können. Kameni argumentiert jedoch leidenschaftlich für einen ganzheitlichen Ansatz: Es geht nicht um absolute Perfektion, sondern darum, durch technologische Hürden die Hemmschwelle für Betrüger wieder massiv zu erhöhen. Während Max Mundhenke die Rückkehr zu menschlichen Verifikationsprozessen als Lösung vorschlägt, zeigt Linus Kameni auf, wie Deep Learning bereits heute hilft, manipulierte Pixel und Audios in der Praxis zu entlarven.
Über diese Themen sprechen Max und Linus in dieser „Kollegin KI“-Epsiode Milliardenschaden durch Deepfakes. Wie ein spektakulärer Betrugsfall in Hongkong zeigte, wie groß die Gefahr durch KI-generierte Deepkakes in Zoom-Calls ist.Detektion mittels Pixel-Analyse. Wie Vaarhaft Deep-Learning-Verfahren nutzt, um statistische Anomalien in der Pixelanordnung zu finden, die für menschliche Augen längst unsichtbar sind.
Grenzen statistischer Wahrscheinlichkeit. Warum Detektoren keine absoluten Beweise liefern können, sondern immer nur kalibrierte Wahrscheinlichkeiten. Prävention gegen Deepfakes. Wie Vaarhaft mit einer gesicherten Kamera-App digitale Fälschungen am Ursprung verhindern will.Drei Säulen Sicherheit. Warum es neben technischer Detektion und präventiver Absicherung nicht ohne gestärkte gesellschaftlichen Medienkompetenz geht. Mensch gegen Maschine. Wieso es bei der Verifikation nicht nur um die Stärken der KI gehen sollte, sondern auch um menschliche Unzulänglichkeiten. Zukunft der Hardware-Sicherheit. Weshalb die langfristige Lösung der KI-Fraud-Problematik in Hardware liegen dürfte, die mit fälschungssicheren Sensoren und Mikrofonen arbeitet.
Der Chatbot zur Folge: https://bio.to/KolleginKI_Chatbot
Mehr zu Linus bei Linkedin (https://www.linkedin.com/in/linus-kameni))
Weiterführende Infos zu Vaarhaft (https://www.vaarhaft.com)) Mehr zu Max bei Linkedin (https://www.linkedin.com/in/tomkraftwerk/))
Produktion: Podstars by OMR
Transkript anzeigen
00:00:01: Es ist Februar, zwei Tausend vierundzwanzig.
00:00:04: In Hongkong geht ein Accountant in das Büro des Planungs- und Ingenieursbüros Arup.
00:00:10: Arup ist ein international tätiges Unternehmen, dass sich mit großen Bauvorhaben beschäftigt.
00:00:16: Einer der ikonischen Bauten für die Arup beispielsweise als Planungsbüro verantwortlich war, war das Opernhaus in Sydney – das kennt jeder von euch!
00:00:25: Und dieser Ingenieur bzw.
00:00:26: diese Accountant geht in sein Büro und bekommt eine Mail Eine Mail von seinem CFO, in der der CFO um eine Transaktion bittet.
00:00:36: Eine geheime vertrauliche Transaktionen.
00:00:38: er soll also Geld überweisen.
00:00:40: Das Ganze kommt dem Accountant ein bisschen skeptisch vor und er fragt nach woraufhin der Cfo, der vermeintliche ihm einen Inweit schickt zu einem Zoom Call.
00:00:50: Also geht der Accountant in diesen Zoom Call Und findet dort neben seinem CFO auch noch eine ganze Menge andere Finanzführungskräfte, die alle bestätigen.
00:00:58: Ja diese Transaktion ist wichtig und muss jetzt getätigt werden.
00:01:02: Bitte kümmer dich drum!
00:01:04: Was er dann macht ist, er überweist knapp ca.
00:01:07: US-Dollar auf verschiedene Konten und später am Tag wird ihm irgendwie klar, es stimmt da nicht.
00:01:13: Also da muss ich mal nachhaken.
00:01:15: Er ruft dann also in der Zentrale an, hakt nach... Der Schaden ist passiert, das ganze Meeting war gediebt faked.
00:01:22: Alle Führungskräfte die mit dabei waren von der Mail bis hin eben zu dem Zoom-Coll waren von KI generiert und der Schaden is da Die Betrüger oder der Betrüge ist bereits über alle Berge.
00:01:34: Das war so einer der ersten großen KI-Frauds, den ich auch mitbekommen habe damals.
00:01:40: Seitdem ist viel passiert.
00:01:42: also KI Fraud sind ein riesengroßes Problem für die Wirtschaft.
00:01:46: es wird geschätzt dass jährlich vierzig Milliarden US Dollar Schaden entstehen und demnach gibt es natürlich eine ganze Menge Ideen wie man das eingrenzen kann.
00:01:55: und Unternehmen die sagen wir können deep frauds bzw.
00:02:00: wir können deepfakes erst mal detecten und können Unternehmen vor solchen Betrugsmaschen
00:02:05: schützen.".
00:02:06: Und mit dem Gründer von einem dieser Unternehmen möchte ich heute sprechen, Linus ist zu Gast!
00:02:11: Linus du bist Gründner von AHAFT mit VAA geschrieben und ich freue mich sehr dass ich heute mit dir so ein bisschen über Deepfakes und Frauds sprechen kann.
00:02:20: Mein Name ist Max Mutenke und ihr hört den True Crime KI Podcast Kollegin KI.
00:02:27: Hallo Linus
00:02:29: Moin Max, danke für die Einladung.
00:02:31: Sehr gerne!
00:02:32: Linus mit eurem Tool wäre das wahrscheinlich nicht passiert oder?
00:02:35: Kann ich natürlich nicht zu hundert Prozent sagen aber die Wahrscheinlichkeit ist hoch dass wir da was hätten detektieren können klar.
00:02:42: Die Wahrscheinlichheit ist hoch.
00:02:44: Erklär mal bitte was ihr macht.
00:02:46: Also es ist eigentlich schon ganz gut eingeleitet.
00:02:47: also wir beschäftigen uns mit der Detektion von Fake Medien Also sowohl Fake-Bilder oder im Fake-Dokumente mittlerweile auch Videos, Audios.
00:02:58: Das ist so.
00:02:59: der Deskope den wir insgesamt gehen haben uns halt zu Beginn nur auf Einzelbilder fokussiert und dann noch Dokumenten zugenommen und jetzt erweitern wir langsam das Spektrum.
00:03:08: Und wir gehen auch darüber hinaus.
00:03:10: also wir detektieren nicht nur fehlerhafte Medien sondern wir betreiben auch Betrugsprävention.
00:03:16: ja also auf der einen Seite haben wir Software um gefälsche Medien zu detectieren und auf der anderen Seite haben es Software um authentische Medien schon direkt im Ursprung als authentisch abzusichern.
00:03:25: Genau.
00:03:26: Bedeutet in dem konkreten Fall jetzt, wenn ich das mal sage der Angestellte geht da ins Büro und wird in Zoom-Meeting eingeladen dann blinken über all die roten Lichter auf und heißt es ne ne wahrhaft Software hat erkannt Es handelt sich hier um Diebfeld.
00:03:38: kann man sich das so vorstellen?
00:03:40: So genau ungefähr kann man sie sich das vorstellen?
00:03:42: wie gesagt wir haben keine Videoabbesicherungslösungen sondern wirklich nur Bilddokument.
00:03:48: Audio haben wir tatsächlich jetzt auch schon.
00:03:49: Aber wir haben noch keine Videoabsicherung, die wirklich als Plug-in in Real Time Zoomkeuts oder so weiter absichert ist natürlich ein sehr vorhersehbarer nächster Schritt aber den haben wir aktuell noch nicht.
00:03:59: das heißt wenn wir im paar monat in die zukunft gehen dann wäre es genauso gewesen richtig denn hätte das Mieten stattgefunden denn werde irgendwo eine Leute reingeploppt.
00:04:07: Achtung Achtungen hier stimmt mit hoher Wahrscheinlichkeit etwas nicht und wäre ganz konkret der nächste Step gewesen, authentifiziert euch doch bitte mal als wirklich echte Menschen indem wir beispielsweise ein Selfie mit der Safe-Camp von wahrhaft aufnehmend und da habt ihr keine Chance mehr den gefälschtes Bild aufzunehmen.
00:04:23: Okay dann bin ich natürlich jetzt Feuer an Flamme zu wissen wie das technisch funktioniert.
00:04:27: So ein typisches Ding ist ja KI generiert Bilder in Social Media beispielsweise.
00:04:31: also wenn ich jetzt wissen will ist so ein Bild KI generierter oder ist es echt?
00:04:35: Wie gehe ich davor?
00:04:37: was passiert denn in der Software?
00:04:38: wie erkennt ihr ob das KI generierte?
00:04:40: Also wir verlassen da auf jeden Fall den Space, wo wir noch wirklich richtig klare Regeln definieren können die wir als Menschen verstehen können.
00:04:49: Das ist glaube ich ganz wichtig zu verstehen weil die Tools zum Generieren dieser Bilder ja mittlerweile so gut geworden sind dass wir jetzt Menschen in meisten Fällen können.
00:04:57: Ich hoffe wir haben sie zu erkennen.
00:04:58: So das heißt wir sind dann im Punkt wo wir KI brauchen um KI fakes zu erkennen.
00:05:04: also wir brauchen Muster-Erkennungssysteme um solche KI generierten Inhalte zu erkennen.
00:05:09: Wir nutzen im Endeffekt die Learning-Modelle, die wir selber trainieren.
00:05:13: Die kriegen ganz viele echte Bilder und ganz viele KI generierte Bilder.
00:05:16: Und was die dann am Ende lernen sind gewisse Merkmale in der Pixel Anordnung zu extrahieren, die für eine KI Generierung sprechen.
00:05:23: Das ist bei unserem Verfahren vor allem die Predictability also die Vorherrsagbarkeit der Pixel an Ordnung.
00:05:30: Also das ist jetzt eines worauf es runterbrechen.
00:05:32: Also das Problem kenne ich selbst, wahrscheinlich kennen das alle von euch die hier zuhören auch.
00:05:36: Die Bilder, Videos...die Daten, die im Grunde irgendwie vor allem in Social Media zu sehen sind, werden immer besser von der KI.
00:05:42: Ich fall regelmäßig mittlerweile drauf rein also vorn im Jahr war es noch relativ gut oder ich sag mal simpel zu erkennen okay hier stimmt was nicht in der Schattierung oder irgendwie auch mein Finger zu viel so Sachen wo KI am Anfang wirklich nur Probleme mit hatte.
00:05:55: Das ist mittlerweile Natürlich gar kein Problem mehr.
00:05:58: Jetzt sagst du ihr Checked im Grunde, Deep Learning Verfahren trainiert eine ganze Menge KI-generierte Bilder und dann gibt dir ein echtes oder ein vermeintlich echtes Bild rein und prüft dann ob das auch von einer KI generiert wurde?
00:06:12: Jetzt stelle ich mir die Frage wie sicher ist das denn?
00:06:15: also könnt Ihr mit hundertprozentiger Wahrscheinlichkeit sagen ja das ist echt oder nein es ist
00:06:20: fake?
00:06:20: Mit hundert prozentigen Wahrscheinlichkeiten natürlich nicht!
00:06:22: Also wir sind da... im Bereich der Statistik unterwegs, also Machine Learning.
00:06:28: Darum geht es ja?
00:06:28: Es gibt eine Maschine des Lernen aka Mustererkennung, Pattern Recognition und in einer Unterform davon ist Deep Learning Und Machine Learning-Musterkennung ist reine Statistika.
00:06:36: Da gibt's unterschiedlichste Algorithmen und neuronalen Netze sind ein, ich sag jetzt mal Algorithmus oder Einverfahren dieser Mustererkennungen was einfach nur die Stärkung hat dass man auch in sehr komplexen Daten Muster erkennen kann.
00:06:48: und dementsprechend hat Deep Learning gerade in Extrem Aufschwung erfahren.
00:06:54: Aber trotzdem bleibt das Statistik.
00:06:55: Es geht darum, vorher zu sagen gegeben eine gewisse Merkmalsverteilung wie wahrscheinliches Klasse X oder Y. Also gegebenen Merkmalzverteilungen der Pixel XY.
00:07:05: Wie wahrscheinlich ist es dass dieses ganze Bild echt ist?
00:07:07: Oder KI generiert?
00:07:08: aber es ist am Ende eine Wahrscheinlichkeit.
00:07:09: Das heißt unser System gibt eine kalibrierte Wahrscheinlichkeitserück.
00:07:12: Das heisst da steht dann sowas wie mit Achtundneinzig Prozent Wahrscheinlichkeiten wo die dieses Bild KI generieren.
00:07:18: Das Heißt übersetzt nichts anderes als den Achtunneinzig Prozent aller Fälle.
00:07:22: Wo während des Trainings unseres Modells ein Bild eine vergleichbare Pizza in Ordnung hatte, war es KI-generiert.
00:07:29: Das heißt aber nicht dass es tatsächlich KI-generiert ist, das bleibt immer eine Restunsicherheit.
00:07:32: Das heisst hundertprozent geht nicht, wer hundert prozent klämt ist unseriös!
00:07:36: Ich habe auf eurer Website gesehen, dass ihr unter anderem auch Versicherungen betreut beziehungsweise den Euro Software zur Verfügung stellt.
00:07:42: Also Versicherungsbetrug mit KI ist offenbar auch ein Ding.
00:07:45: mittlerweile ja das da beispielsweise dann Fotos vom Auto durch eine KI gejagt werden und dann da Kratzer reingebastelt werden oder boilen oder vielleicht ein kaputtes Smartphone Ja und dann kann man die Bilder dann bei seiner Versicherung einreichen.
00:07:57: versicherungs Betrug begehen ja Und natürlich entstehen da eine ganze Menge Schäden.
00:08:01: deshalb eigentlich smart sage ich mal das Ganze auch Entsprechenden Detection Programm verifizieren.
00:08:09: jetzt stellt sich mir aber die Frage bei neun neunzeigprozentiger Wahrscheinlichkeit.
00:08:14: Wenn eine Million deepfake Bilder bei einer Versicherung eingehen dann sind es ja immer noch zehntausend, die falsch negativ gesehen werden.
00:08:22: also wenn ich jetzt in der Statistik bleibe das heißt man nimmt im kauf dass vielleicht dann irgendwie auch ein Prozent also in so einer hohen Zahl leppert sich das dann ja dass die im Grunde auf falsch detektiert werden.
00:08:32: oder wie geht man damit um?
00:08:33: Ja klar, das ist natürlich eine coole Frage.
00:08:35: Die habe ich ehrlich gesagt in der Form so rum noch nie gestellt bekommen.
00:08:38: Das ist tatsächlich fast eine philosophische Frage.
00:08:41: Also die Frage ist jetzt guckst du darauf ob das Glas halb voll ist oder ob es halb leer ist?
00:08:45: Du hast dich jetzt dazu entschieden das Glas Halb leer zu betrachten.
00:08:48: wie ich betrachte das Glas lieber halb Voll denn du könntest ja auch andersrum sagen von diesen einem millionen Fällen die hier eingereicht werden bei euch liebe Versicherung würde dir genau keins erkennen ohne unser Tool mit unseren Tool erkennt ihr neunundneinzig tausend wieder sowas und ein paar Rutschen euch durch aber ohne werden nicht viel mehr durchgerutscht.
00:09:04: Und das ist die Argumentation, die die Versicherungen ja auch selber fahren.
00:09:06: Weil deren Pain ist er, dass sie aktuell wissen, dass Sie betrogen werden?
00:09:09: Sie wissen aber nicht von wem Sie bedrohen werden oder in welcher Höhe.
00:09:13: Sie wissen, ob es stattfindet und für die geht's am Ende darum ,dass Sie mit uns mehr einsparen als ohne uns.
00:09:18: Das erreichen Sie!
00:09:19: Natürlich das Glas halb leer sehen ist da glaube ich eine Sache, muss ich ehrlich gestehen relativ kritisch gegenüber solcher Tools.
00:09:26: Ich kann mal so ne kleine Anekdote bringen.
00:09:28: in meiner Anfangszeit als KI Berater war ich man datiert einer kleinen Unternehmensberatung und da gab es dann den Vorfall dass eine Kollegin auf mich zukam und sagte Ich arbeite hier als Text darin, ich habe ein Narrativ entwickelt.
00:09:39: Ich habe irgendwie zwei drei Diener vier Seiten geschrieben zu einem gewissen Fall.
00:09:42: Hab das dem Kunden geschickt und der Kunde schickte mir darauf eine Mail zurück und sagte Das ist laut meinem Detection Tool zu achtundneunzig Prozent KI generierter Text.
00:09:51: Wofür bezahle ich euch denn eigentlich wenn ihr das hier einfach nur mit KI macht?
00:09:54: Und sie war ziemlich angeschlagen.
00:09:57: Ich schwöre, dass ich das definitiv nicht mit KI gemacht habe, sondern per Hand.
00:10:02: und was anforde ich denn jetzt?
00:10:04: Wie gehe ich dann damit um?
00:10:05: Und ich hab Spaß in Cyber gesagt nimm doch mal einfach die Mail, die der Kunde dir geschickt hat und jagd das auch durch irgendein KI Detection Tool.
00:10:12: und es wird ja auch sagen, dass da mit Sicherheit irgendwie achtzig neunzig hundert Prozent KI generierter Inhalt ist.
00:10:17: also diese ganzen KI Detaction Tools auf dem Markt sind.
00:10:20: die funktionieren aus meiner Sicht nicht vor allem was text angeht.
00:10:24: warum funktioniert euer tool?
00:10:25: spannende anekdote kann ich auch ehrlich verstehen dass die fraude angeschlagen gewesen ist und dass du selber dementsprechend jetzt kritisch solchen tools generell gegenüber eingestellt bist.
00:10:36: es ist tatsächlich wichtig hier nicht apfel mit bürn zu vergleichen würde ich sagen.
00:10:40: also du hast das ja gerade selber gesagt das tu von ihm nur grad gesprochen hast.
00:10:43: Text Detection ist natürlich Quatsch.
00:10:45: Deswegen haben sich auch Unternehmen wie OpenAI selber davon verabschiedet, ihre eigene Texte mithilfe von Muster-Erkennungssystemen als KI generiert einzustufen.
00:10:54: Das funktioniert nicht so solide und robust und vor allem nicht bei sehr kurzen Texten weil am Ende geht es darum dass du Muster in dem Text selber kennst.
00:11:05: wenn du jetzt nur einen Satz schreibst dann kannst du wenig Muster darin erkennen hingegen einen riesen Aufsatz nimmst, dann kann es durchaus sein dass du da irgendwann wieder Wiederholungen findest.
00:11:15: Dass das Modell was damit Was verwendet wurde und Text zum Beispiel zu erzeugen immer mit gewissen Wörtern zum Beispiel den Satz beginnt.
00:11:23: Also das ist nicht ausgeschlossen aber es ist sehr sehr schwer Und wir selber fassen Textdetektionen überhaupt gar nicht an weil wie gesagt doch die großen Big Player das selber auch nicht tun.
00:11:33: Und in Sachen Bildern
00:11:34: und auf deine Frage, genau.
00:11:35: Also du hast jetzt relativ bold Statement in den Raum gestellt.
00:11:38: mit diese ganzen Tools da draußen funktionieren nicht.
00:11:41: Kannst du dir natürlich denken dass ich da entgegen halte?
00:11:43: Natürlich stimmt das nicht!
00:11:44: Ich meine sonst würde ja nicht existieren oder auch nicht funktionieren.
00:11:47: Wir haben es auch schon geproved, dass wir funktionieren, da gibt's ja schon Beweise für dementsprechend.
00:11:53: warum funktioniert unser Tool?
00:11:55: Weil unser Tool auf uns reinge Technologie basiert, bei unserer Tool auf Robustheit getrimmt ist.
00:12:00: Und weil wir und es ist ganz wichtig die Detection nicht als Standalone-Lösung verstehen sondern nur als Hinweisgebungssystem.
00:12:08: Wir sagen nicht wenn das Modell von uns sagt mit auch der neunzig Prozent Wahrscheinlichkeit dass dieses Bild KI generiert dann sagen wir nicht jetzt geht bitte zu dem Kunden und sagt wir zahlen euch den Schad nicht aus sondern wir sagen erst mal nur ein Hinweis Und dieser Hinweis kann auch falsch sein.
00:12:23: Es ist nur wichtig, dass ihr den Filter habt und das dieser Filter euch potenziell auffällige Fälle zumindest hoch spürt die sonst komplett durchgerutscht worden wären.
00:12:32: Und was unser System dann im nächsten Schritt macht es mit der Safecam andocken und dann quasi diesen Betrug richtig verhalten weil DeepFake Detection per se ist natürlich nichts was einmal gebaut wird und dann für immer funktioniert.
00:12:43: Lass uns mal kurz vielleicht auch auf die technische Ebene gucken für die Nicht-Nerds, die hier zuhören.
00:12:49: Also es funktioniert so dass ihr im Grunde dann ja schaut was für Metadaten hat beispielsweise so ein Bild.
00:12:54: Was für Spuren könnte eine KI hinterlassen?
00:12:57: Da habe ich zwei Anknüpfungspunkte, wo ich sage auch da bin ich kritisch denn wenn ich jetzt einen Bild mit einer KI generiere und das runter lade und dann irgendwie ins Social Media oder sonstwo hin haue, dann könnte man durchaus mit den Metadatern checken okay das kommt irgendwie da und daher ja da ist irgendwie ein Fußabdruck Fingerabdruck der sagt ok dass es hier mit KI generiert.
00:13:16: in dem Moment wo ich das dann aber irgendwie Screenshotten abfotografiere möglicherweise vorher noch mal Ausdrucke wie ein Filter drüber lege, die Pixelanzer verändert sich ja auch alles was irgendwie an technischen Daten mit dabei ist.
00:13:28: Das heißt rein theoretisch ist doch so eine reine Fokus auf Metadaten oder vielleicht darauf auf Bilderkennung kann doch gar nicht hundertprozentig richtig sein.
00:13:37: und wenn man möchte kann man natürlich trotzdem noch einen Fraud begehen mit solchen Bildern.
00:13:42: Absolut, da hast du jetzt nichts Falsches gesagt.
00:13:44: Du hast noch eine Sache gesagt die muss ich tatsächlich korrigieren.
00:13:47: wir gucken nicht nur auf die Metadaten genau aus den Gründen die du gerade genannt hast.
00:13:52: Metadate sind sehr instabil und veränderbar.
00:13:55: es gibt online Tools mit denen kannst du Metadata anpassen also du kannst einfach ins Bild reinschreiben.
00:13:59: Ich bin dann dort gewesen das Bild wurde da auf der Uhrzeit.
00:14:02: Die Metadaten sind extrem fragil.
00:14:04: Wie du schon sagst, kannst du das Screenshot machen?
00:14:06: Denn dann sind diese Metadatene der Vorm auch weg.
00:14:08: Deswegen sind die Metadate, also das Analysienvermetadaten ist etwas, das machen wir auch noch mit weil ab und zu tatsächlich Betruger vergessen, dass dem der Fall ist.
00:14:16: Und können wir sie tatsächlich aufgrund des Metadates überführen.
00:14:19: aber es ist der seltenste Fall.
00:14:21: Wir machen's einfach mit unserer Hauptexpertise liegt wirklich in der Pixel-Analyse Also, dass wir wirklich die Pixel so wie sie sind reinnehmen, analysieren und dann wirklich in der Anordnung der Pixel selber Auffälligkeiten finden.
00:14:33: Beispielsweise Anomalien.
00:14:35: also wenn wir jetzt über die Bearbeitungserkennung sprechen da wurde ein Bild nachträglich bearbeitet wurde einen Schaden irgendwo reingesetzt.
00:14:41: das nennt man denn zum Beispiel shallow fake und nicht deepfake nutze ich quasi ein herkömmliches Tool wie Photoshop zb um den Schaden wo reinzusetzen oder auch eine Gene-Air.
00:14:49: basiert es zu heißt er wird nicht das ganze Bild neu generiert sondern es wird nur in Teile verändert.
00:14:54: So was zum Beispiel ist dann im Bereich der Anomalia-Kennung bei uns unterwegs und das machen wir auf Pixel-Ebene.
00:14:58: Das heißt, das können wir auch für Screenshots.
00:15:00: Das können wir für normale Fotos, es können wir also auch für screenshot.
00:15:03: Das du gerade beschrieben hast dieses Ausdruck und wieder einscannen, das nennt man in der Forensik Analog Hole.
00:15:07: Also dass du quasi die Dimension brichst.
00:15:09: Du gehst aus der digitalen Welt, die Physische und von der physischen zurück in die Digitale.
00:15:13: Da gehen natürlich total viele durch Buhnen verloren.
00:15:15: Da hast du recht!
00:15:16: Und das System ist tatsächlich zum Teil sogar auch da drauf trainiert, heißt nicht dass wir das alles detektieren.
00:15:20: Heißt aber, dass wir eine gewisse Robustheit sogar dagegen schon geschaffen haben.
00:15:24: Nichtsdestotrotz hast du auf jeden Fall recht.
00:15:27: Es gibt immer irgendwelche Grenzen.
00:15:29: Kein System ist perfekt.
00:15:31: Du kannst jedes System mit ausreichen viel Aufwand umgehen.
00:15:34: Das ist nämlich der springende Punkt an der Stelle.
00:15:36: Unser Ziel ist es nicht, dass den gesamten Betrug, den es da draußen gibt für einen und für alle mal komplett verhindern aus verschiedenen Gründen.
00:15:45: Das wäre für uns selber nicht einmal gut, selbst wenn wir es könnten.
00:15:48: also wir selber leben ja davon dass es Betrug gibt
00:15:51: natürlich
00:15:52: aber auf der anderen Seite ist es unser Ziel das wir den Aufwand erhöhen.
00:15:57: Es geht nicht darum dass wir, dass wir claimen Wenn ihr uns nutzt dann gibt's kein betrug mehr.
00:16:02: Wir sagen nur wir erhöhen den Aufwand betrugs zu betreiben derart dass es für den Großteil der Betrüger unattraktiv wird.
00:16:10: Denn was wir hier gerade gesehen haben, ist einfach nur einen Ändern der Randbedingungen durch
00:16:15: Gen.A.I.,
00:16:15: durch die ganzen Tools, die da draußen plötzlich vorbei anverfügbar wurden oder jetzt erst so richtig gut sind – ist es plötzlich für Menschen möglich ein Betrug zu betreiben, der vor einigen Jahren noch nicht möglich war?
00:16:26: Ich konnte vor einigend Jahren wenn ich keine Expertise in Photoshop hatte Und richtig gut in Animieren von drei D-Objekten war, konnte ich nicht einfach mein Auto fotografieren und da wirklich realistische Schäden reinsetzen.
00:16:38: Das ging eigentlich auch nicht!
00:16:39: Einige Menschen konnten es... Ich meine, das gab schon immer Actionfilme, ne?
00:16:43: Das hat immer schon irgendwie geklappt aber es konnte der Großteil der Menschen eben nicht und das ist ja gerade der Punkt.
00:16:48: Gerade ändert sich das.
00:16:49: Es wird plötzlich allen Menschen möglich, solche realistischen Facts herzustellen ohne Expertise.
00:16:54: also.
00:16:54: die Hemmschwelle ist extrem gesunken und unser Ansatz ist einfach nur diese Hemschwelle wieder hochzusetzen dass wir sagen, das was jetzt kurzfristig für alle Menschen super einfach ist.
00:17:03: Das machen wir schwerer und wenn du da natürlich hingehst und extrem viel Aufwand betreibst dieses Gedankenspiel können wir endlos weiterführen.
00:17:11: Wir könnten auch noch sagen Du kannst den ganzen Unfall-Stagion theoretisch und dann kannst du es abfotografieren und wo kannst du's immer umgehen?
00:17:19: Und dazu ist es nur ein Aufwand zu erhöhen damit es halt einfach unattraktiver wird
00:17:23: Absolut.
00:17:24: Es gibt ja historische Deepfakes auch, ne?
00:17:27: Also ich nehme da gerne mal als Beispiel irgendwie das bekannte Bild von den Rotarmisten auf dem Reichstagsgebäude am Ende des Zweiten Weltkriegs.
00:17:37: Ja, ein ikonisches Bild des Zweite Weltkrigs, dass tatsächlich im Nachhinein von der sowjetischen Führung bearbeitet wurde.
00:17:42: Im Originalbild sieht man da einen Soldaten, der zwei Armband-Uren an hat die nicht da sind weil er irgendwie besonders viel Wert auf Zeit legt sondern weil es natürlich Beuteguren sind.
00:17:53: offiziellen Bilder nicht haben, also so Rettuschen und im Grunde Bildveränderungen um auch Geschichte zu schreiben sind ja nichts Neues.
00:18:00: Also das gab es ja schon vor Ewigkeiten und sowas lässt sich dann natürlich auch relativ schwierig Detektieren würde ich mal behaupten mit so alten Bildern.
00:18:07: aber lass uns vielleicht mal ein bisschen auf diese gesellschaftliche Ebene gucken.
00:18:10: denn wenn man jetzt sagt wir haben einen Tool dass kann beweisen sagen wir zu neunundzig Prozent oder vielleicht neun und neun ist ja erstmal egal ja kann beweisend kann den Label an einem Medium machen wie man sagt dass es wahr oder das ist bearbeitet.
00:18:26: Kann das vielleicht gesellschaftlich auch zu Problemen führen?
00:18:29: Denn auf der einen Seite, klar Versicherung ja oder im Online-Dating mag das wahrscheinlich irgendwie eine andere Zielgruppe sein und da sagt man hey wir können neunneinzig Prozent der Fälle erkennen und damit spart ihr sehr viel Geld.
00:18:41: wenn ich jetzt aber sage ich jag mal keine Ahnung ein Video Oder ein Bild von Zelenski oder so rein.
00:18:47: So gab es ja durchaus Deep Fake-Versuche auch mit Zelensky gerade zu Beginn des Angriffskriegs Russlands auf die Ukraine, wo es dann hieß, ihr legt eure Waffen nieder, wir geben auf!
00:18:57: Und wenn ich das eine Million mal mache – oder reicht ja, wenn ich's hundertmal mache und ein Video davon wird möglicherweise von so einem Detection Tour als falsch wahrgeklämt?
00:19:06: Dann löst das doch ne mittelschwere diplomatische Krise aus, oder
00:19:10: nicht?!
00:19:10: Das ist auch eine sehr scharfe Frage finde ich.
00:19:13: gut Ich roll die mal von Anfang an auf, weil du hast mit der ersten Frage angefangen.
00:19:18: Du hast gesagt ob ein Tool was in der Lage ist Inhalte als wahr oder gefälscht zu markieren nicht gesellschaftlich Probleme mit sich bringen kann und da würde ich sagen ganz klar ja auf alle Fälle.
00:19:34: Ich würde sagen die Nicht-Existenz eines solchen Tools aber auch Und ich sehe den Punkt Auch, also weswegen wir zum Beispiel auch die Content Credentials sehr kritisch sehen.
00:19:49: Also quasi einfach nur in die Metadaten reinzuschreiben dieses Bild wurde aufgenommen mit Kamera XY und deswegen ist das authentisch.
00:19:57: Das sehen wir auch als kritisch weil der Ursprung nicht zwangsläufig abgesichert ist.
00:20:02: Ich kann eine Kamera nehmen wo diese Content Credencials drin sind dann kann ich damit einfach ein gefälschtes Bild, wie gesagt abfotografieren beispielsweise.
00:20:09: Dann kriegt quasi in den gefältsches Bild einen Trust Signal.
00:20:14: Deswegen ist dieses Thema Trust, also quasi die die Authentizität zu markieren.
00:20:20: Ist natürlich auch ein zweischneidiges Schwert.
00:20:22: nur weil wir und das ist nämlich der Punkt um jetzt auf dieses Selenski Video wieder einzugehen.
00:20:26: Nur weil wir sagen dieses Bild haben wir nicht als KI-Generator kannt heißt es ja nicht dass das Bild echt ist ne?
00:20:36: Das ist der Punkt!
00:20:37: Also wir verstehen uns halt als Hinweisgeber.
00:20:40: Es ist ganz wichtig Wir sind kein Beweis.
00:20:43: Du hast auch gerade wieder den Begriff Beweis verwendet, also wir beweisen nichts.
00:20:46: Das ist keine Statistik.
00:20:47: erstmal nur!
00:20:48: Wir sagen einfach nur in unserem Training-Set wo hunderttausende bis Millionen von Datenpunkten drin sind... In unserem Training Set war es so und zu viel Prozent der Fälle ein Deep Fake wenn die Pixel so und so angeordnet gewesen.
00:21:01: das ist unsere Aussage.
00:21:03: und wir sagen nicht dieses Bild ist zu Hundertprozent Nicht auffällig, wir sagen es ist kaum auffälich.
00:21:08: Da konnten wir nicht ausreichen viele Auffälligkeiten finden ums zu flecken.
00:21:12: Weil erstmal dazu nur um das ein bisschen einzuordnen.
00:21:14: also das ist ganz wichtig und auch unser tut jetzt ist tatsächlich auch dass was wir unseren Kunden immer beibringen müssen weil man natürlich mit so nah bis eine anderen Erwartungshaltung kommt.
00:21:24: Man denkt, dieses Tool beweist mir jetzt xy aber es ist ganz wichtig zu verstehen dass das überhaupt gar nicht geht sondern wir einfach nur Hinweise geben können.
00:21:32: diesen Hinweisen muss dann nachgegangen werden.
00:21:34: man darf nicht basierend auf diesem Hinweis direkte Schritte folgen lassen wie zum Beispiel im Versicherungsumfeld jetzt ein Fall gar nichts zu regulieren oder im Banking-Umfeld die Überweisung nicht kreditlich auszustellen und was auch immer.
00:21:46: deswegen betrachten wir das ganze Thema Desinformationen, worauf wir es ja eigentlich runterbrechen können auch sehr ganzheitlich.
00:21:56: Genau aufgrund... Du hast das eigentlich echt perfekt auf den Punkt gebracht!
00:21:59: Wir sehen da drei Säulen.
00:22:01: Auf der einen Seite die Detektionssäule und wir sehen die Medienkompetenz-Säule.
00:22:07: Also auf der Detektionssäule ist quasi der Pfad wo wir sagen okay hier können wir mit Technologie rangehen um gefälschte Inhalte mit einer gewissen Wahrscheinlichkeit erst mal als gefälschte Flecken.
00:22:18: Die Präventionssäule ist für uns die Säule, diese Richtung Content Credential zum bisschen geht wo wir sagen okay wir brauchen die Weises oder Verfahren um Medienbilder Ton etc.
00:22:28: aufzunehmen auf eine Art und Weise die schon bei der Aufnahme den Betrug mit hoher Wahrscheinlichheit verhindert Also quasi eine abgesicherte Kamera, wie unsere Safecam zum Beispiel.
00:22:38: Wenn du über die Safecam im Bild aufnimmst, dann ist die Wahrscheinlichkeit sehr gering, dass ein Betrüger es schafft da ein gefälsches Bild einzuschleusen weil wir es erkennen ob du einen Bildschirm abfotografierst oder ein Bildabfotographierst Du bist gezwungen echt das Bild aufzunehmen.
00:22:49: Aber auch das kannst du natürlich probieren, wenn du es häufig genug machst.
00:22:52: zu brechen ist das System.
00:22:53: Und dann kommt quasi die dritte Säule und das ist quasi das Thema Medienkompetenz dass wir insgesamt alle gesamtgesellschaftlichen anderes Verständnis von Fakten bekommen müssen mehr hinterfragen müssen.
00:23:04: Und diese Thematik desinformationen hat so viel Potential richtig Schaden anzurichten Demokratien auch zu gefährden Dass wir da nicht hingehen können und sagen, unsere Lösung alleine ist die Lösung für alles.
00:23:17: Wenn ihr unsere Lösungen verwendet, erkennen wir jeden Fake und alles was in unserer Lösung nicht markiert ist automatisch echt.
00:23:21: mit dem könnt ihr alles glauben.
00:23:22: das wäre total fatal.
00:23:24: deswegen sagen wir es muss eine gesamtheitliche Lösung sein Auch auf der technischen Seite.
00:23:28: Das gibt auch noch andere Verfahren, die wir aktuell gar nicht abdecken wie zum Beispiel Wasserzeichen.
00:23:32: Die können da auch gerne mit dazukommen.
00:23:34: Je mehr wieder hinzugeben das zu geringer wird einfach das Potenzial für fraudster.
00:23:39: Also es ist ein gesamtgesellschaftliches und sehr ganz seltsames Thema.
00:23:43: Darf ich einen Gegenvorschlag machen?
00:23:45: Ich bin wie gesagt auch Kommunikationsberater gewesen, komme aus der Krisen-Kommunikation und bei diesem Fall von Arup.
00:23:51: Der war damals... also ich erinnere mich da noch dran, der war ziemlich maßgebend für alles was das kommt weil es eine neue Zeit der Fraud war die angebrochen ist.
00:23:59: ja dass jemand ein komplettes Zoom Meeting beispielsweise faked, um dann an Geld zu kommen und das natürlich auch durch KI einfach reproduzieren kann ohne Ende.
00:24:08: Man kann ja ohne Probleme durch KI sagen wir machen jetzt mal hundert Millionen Fake-Anrufe.
00:24:12: Es gehen täglich ja zigtausend Betrugsversuche in deutschen Unternehmen ein und die Nachfrage nach Sicherheit ist natürlich relativ groß.
00:24:22: zum einen Und das sehe ich mal kritisch an solchen Tools bieten die einfach keine Sicherheit, weil selbst neun-neinzig Prozent Sicherheit in Zeiten von KI aus meiner Sicht nicht genug sind.
00:24:32: Und als jemand der auch Prävention versucht irgendwie mitzudenken macht ihr ja auch kannst ja gleich noch mal erzählen wie ihr das anstrebt bin ich immer so ein bisschen am überlegen ob man das Ganze nicht umdrehen sollte.
00:24:44: vielleicht gibt es mir damals eine Meinung zu... statt zu versuchen, ein Menschen als solches zu identifizieren.
00:24:54: Wäre es vielleicht sinnvoller die Maschine als solches zu identifikieren und zwar gar nicht mal technisch mit Metadaten oder Pixeln oder wie auch immer weil das einfach mit der dann KI viel besser wird als wir Menschen das jemals könnten sondern zu sagen okay in so einem Call beispielsweise im Zoom-Call Einfach mal zu sagen klar, kann ich die Summe überweisen?
00:25:11: Ja lieber Chef, lieber CFO der mir das beauftragt hat.
00:25:14: Aber du musst mir vorher bitte irgendwie noch sagen was die Quadratwurzel von siehundertundzwanzig Millionen irgendwas ist oder wer der drittletzte Kaiser von China war oder irgendwelche solche Sachen wo Du eigentlich weißt.
00:25:24: dass können Menschen nicht wissen.
00:25:26: oder der Mensch der mir gegenüber sitzt er weiß das definitiv nicht.
00:25:29: aber wenn ich sofort eine Antwort bekomme dann weiß ich dass die KI also dass man eher davon ausgeht dass KI deutlich überlegen ist dem menschen und dass man deshalb Ja, ich sag mal Unzulänglichkeit der Menschen prüft um solche Verifikationsverfahren zu machen.
00:25:42: Das wäre so ein Ansatz der Umgedreht ist.
00:25:44: das heißt nicht der Kampf gegen die KI-Windmühlen sondern viel eher zu sagen hey wir wissen doch wie Menschen funktionieren.
00:25:50: ja und statt einfach zu gucken wo sind die Grenzen der KI es doch viel leichter zu sagen Wo sind die Grenzen von Menschen?
00:25:56: Ich finde das wirklich interessant, bin gespannt!
00:25:58: same Bei solchen Gedanken gängen das schwingt natürlich immer so ein bisschen noch das Gefühl mit dass man über der KI steht Ja, also in dem Fall ja auch.
00:26:06: Also du hast es jetzt quasi anders geprobiert an das Frame.
00:26:09: aber es läuft trotzdem darauf hinaus dass du dich über die KI stellst und denkst Dass du ein Algorithmus schaffen kannst der zuverlässig einen Menschen vor einer KI unterscheiden kann.
00:26:17: Es ist genau dass es einem endestages läuft.
00:26:20: es läuft darauf hinaus das Du probierst deinen test einzubauen so eine form von tiering testen umgedreht.
00:26:26: Das ding ist Wenn das jetzt den Vorschlag war, der ernsthafte Vorschlag kann man denen ja auch extrem leicht brechen.
00:26:34: Die kannst du in der KI genauso prompten dass sie einfach nur so antworten soll wie ein Mensch und solche Fragen nicht antwortet können usw.
00:26:42: Also auch so ein System lässt sich umgehen.
00:26:45: damit ist dieser Vorschlag dann wieder quasi nicht die Lösung.
00:26:50: aber ich würde sagen es ist nicht DIE Lösung.
00:26:53: das lässt sich auf sehr vieles anwenden.
00:26:55: Und das ist auch okay so, dass wir das Ganze ganzheitlich denken
00:27:00: müssen.".
00:27:00: Ich bin Felsenfest davon überzeugt, dass es sehr gut ist, Systeme darauf zu trainieren, KI-Generierte oder generell manipulierte Inhalte möglichst erklärbar aufzuspüren, damit wir einfach Filter haben.
00:27:13: Was wäre die Alternative?
00:27:14: Wir hätten gar nichts!
00:27:15: Die Alternative wäre, dass Unternehmen weltweit überhaupt nix hätten und es kann
00:27:20: ja nicht gelöst sein.
00:27:22: der offensichtlich ausgetrickst wird.
00:27:25: Genau, deswegen kann ja nicht sein dass wir jetzt einfach nichts tun.
00:27:30: aber die Alternative sollte meiner Meinung nach sein das man es ganz zeitlich betrachtet und sich nicht auf ein einziges Verfahren nur stützt sondern weiß dass die Problematik dynamisch ist, dass sich die Gegenseite weiterentwickelt und dass wir Systeme schaffen.
00:27:44: Das haben wir zum Beispiel mit dem Frotscanner auch gemacht – dass man Systemeschaft die adaptiv mitlernen können!
00:27:49: Also wenn die Gegensite schlimmer wird also wenn die Kis besser wären dann kann unser System sich dem wiederum anpassen.
00:27:54: Das heißt da muss man so einen Gespür für diese Dynamik hat haben offen sein Sachen zu updaten und ganzheitlich denken.
00:28:02: Und
00:28:02: das ist glaube ich so ein Punkt der... das gesamte Internet eigentlich durchzieht seit der Erfindung des Internets und digitaler Kommunikation.
00:28:08: Dass wir uns nicht darauf verlassen können, dass wirklich eine Methode hundertprozentige Wahrhaftigkeit bringt um mal vielleicht unwordig zu bleiben ja?
00:28:15: Also dass man nirgends ein Label drauf machen kann, dass es echt und das ist falsch sondern ein Prozess ist.
00:28:19: Ich mache gerne das Beispiel mit Spam-Filtern.
00:28:22: Als die ersten E-Mails aufkam wurden massenweise Viagras Games verschickt Und irgendwann gab's die ersten Spam Filter die gesagt haben wenn die Buchstabenfolge Viagra irgendwo auftaucht dann ist das ganze ein Fall für einen Spamfilter.
00:28:32: Was haben die Betrüger gemacht?
00:28:34: Die haben statt des Is in Viagra eine Eins geschrieben.
00:28:37: Für das menschliche Auge erkennbar als Viagrab für den Spam-Filter aber nicht mehr, ja.
00:28:41: So wurde im Grunde Leedspeak erfunden.
00:28:44: Die finde ich immer ganz witzig mittlerweile wieder so ein Hype erlebt im Begriff des Algospeaks also wenn man versucht irgendwie ins Social Media gewisse Filter zu umgehen und über sexuelle Gewalt beispielsweise zu sprechen dass man sich dann wieder Leadspeak bedient.
00:28:57: Also den ersten Möglichkeiten, ich finde irgendwie eine spannende kulturelle Wiederholung.
00:29:03: Aber worauf ich hinaus will, ist es ein Räuber- und Gendarmenspiel.
00:29:06: Es gibt nicht die hundertprozentige Möglichkeit einen Scam zu erkennen bzw digitale Kommunikation zu verifizieren.
00:29:13: Und das muss uns glaube ich bewusst sein.
00:29:15: Das heißt wir müssen viel eher finde Strukturen aufbauen, die sowas minimieren.
00:29:20: Die das Risiko minimieren und eben in alle Richtungen denken.
00:29:23: Voll genau!
00:29:24: Das meinte ich mit den drei Säulen, die wir sehen also Detektion, Gewinzierung und Medienkompetenz.
00:29:28: Also was Medienkompatenz betrifft zum Beispiel da bauen wir gerade so eine Wahrhaft Academy auf, die genau da halt helfen soll, die quasi denn zugänglich ist, zum Wurst auch Open Source zugänglicher ist um uns sich einfach weiterbilden kann.
00:29:39: Es ist genau die Idee dahinter Einfach um gesamtgesellschaftlich da auch einen Impact zu leisten.
00:29:44: sehen wir genauso wie du Das?
00:29:45: mich interessieren würde, wenn?
00:29:46: ich beschäftige mich auch mit der Thematik.
00:29:47: Ich beschäftige mir mit der thematik da gab es Chatty Petino nicht einmal.
00:29:51: Also wir haben angefangen, da gab's Chatty noch überhaupt gar nicht.
00:29:53: Haben schon gesagt, die werden in wenigen Jahren dieses Problem haben und sind da schon auf die Unternehmen zugegangen.
00:29:57: Die haben uns das nicht geglaubt.
00:29:59: Und jetzt sind wir da und sparen Messbargeld ein.
00:30:02: also unsere Lösung funktioniert ja offensichtlich.
00:30:05: Es geht dann nur darum dass du halt Cases findest also wirklich echte Use Cases Und das ist halt der Unterschied, wo du wirklich sagen kannst, dass der Hinweis sich am Ende halt auch lohnt für die Unternehmen.
00:30:16: Dass sie wirklich was entspannen können.
00:30:17: Was mich total interessieren würde wäre, was ist denn dein konkreter Vorschlag?
00:30:21: Also wenn du sagst, dass du technologisch das Ganze in Angriff zu nehmen nicht gut findest... ...was ist dein
00:30:27: Vorschlag?!
00:30:28: Weil ich meine wir sind es glaube ich einig, dass wir da einen Problem... immensen Ausmaßes haben, was immer mehr wächst.
00:30:35: Es wächst sogar exponentiell und wird immer schneller, immer besser.
00:30:38: Das heißt wenn wir da nicht früh anfangen gegenzugehen und diese Technologie wächst nun mal technologisch, das heißt irgendwas müssen wir tun macht mit Technologie irgendwie schon Sinn?
00:30:47: Wenn wir das nicht machen, dann werden wir abgehangen!
00:30:49: Was ist denn dein Vorschlag, wenn du sagst dass du Tuits sowohl Watermarking als auch Detection, dass zu dir alle nicht gut finden ist?
00:30:55: Wie...was würde mich interessieren?
00:30:57: Was schlägst du denn vor?
00:30:59: Gehen wir mal in die sechziger Jahre.
00:31:00: Ich hol mal ein bisschen aus, Kuba-Krise.
00:31:03: Kuba Krise irgendwie vierzehn Tage, ich glaube Ende des Jahres, ist neunzehntsechzig.
00:31:08: Die Sowjetunion stationiert Raketen auf Kuba und kann in Sekunden eigentlich die gesamte USA vernichten.
00:31:15: Was passierte?
00:31:16: Man musste Mutmaßungen anstellen.
00:31:18: was hat Christoph vor?
00:31:19: Was passiert da eigentlich gerade?
00:31:21: Was wird da geschehen?
00:31:22: Und das große Problem war dass es halt keine gesicherte Information war.
00:31:27: Das heißt, man hat im Nach der Kuba-Krise gesagt wir müssen Kommunikation verifizieren.
00:31:33: Wir haben also ein rotes Telefon, das im Grunde eingeführt wird.
00:31:37: Die Hotline wo wir sagen wenn wir irgendwie Anhaltspunkte in den USA dafür haben dass hier irgendwas passiert nehmen wir diesen Telefonhöre ab und wissen auf der Gegenseite ist immer jemand im Kreml.
00:31:45: Einhundert Prozent gesichert.
00:31:47: ist da jemand im kreml Und kann uns gegebenenfalls sagen eure Wetterballons spielen wieder verrückt?
00:31:51: Wir haben nicht den Knopf gedrückt oder ja wir haben den knopfgedrückt.
00:31:54: in drei Minuten ist die Welt zu Ende.
00:31:56: viel Spaß so.
00:31:57: Und diese Wiederherstellung von Kommunikationslogik, dieses aufeinander verlassen können.
00:32:02: Das ist etwas was wir technologisch angehen sollten.
00:32:05: Das funktioniert nur durch Verifikationsprozesse bedeutet... Wir haben ja in Social Media auch immer wieder Verifikationsprozesse gehabt.
00:32:13: Der Blaue Haken bei Twitter beispielsweise, der extrem schwierig zu bekommen war, den aber nur Regierungsorganisationen und Journalisten usw.
00:32:19: bekommen haben – das war eine Form von Verifikation, von Kommunikation.
00:32:24: Und da müssen wir glaube ich darüber hinausdenken und schauen wie können wir Kommunikationsorganisation als solche labeln?
00:32:32: fälschbar machen.
00:32:33: Darum geht's, also dass wir irgendwie gucken wie kann man Informationen unfällspar machen?
00:32:38: Dass wir da eine Möglichkeit finden und nicht die Fälschung als solcher zu identifizieren weil da gibt es unendlich viele Möglichkeiten das zu machen.
00:32:45: und am Ende gibt es kein Tool der Welt das da jemals einhundertprozentige Wahrscheinlichkeit geben kann.
00:32:50: was aber so einen Fingerabdruck angeht was DNA angeht, was gewisse biologische Faktoren angeht Das sind eindeutige Kennzeichen und merkmalen, die wir irgendwie in Zukunft digital übersetzen müssen.
00:33:01: Das wäre so mein Ansatz.
00:33:02: Verstehe ich?
00:33:03: Klar!
00:33:04: Deswegen sind wir auch von der SafeCamp gekommen.
00:33:05: Das ist ja genau die Idee.
00:33:06: Bei der SafeCam haben wir diesen Ansatz gefahren gesagt hey, wir nehmen Fotos mit unserer abgesicherten App auf und solange wir das damit machen kann man diesen Bildern daraus vertrauen.
00:33:15: Aber auch so ein System kannst du kompromittieren.
00:33:17: Auch diese Red Hotline kannst du Kompromittierend.
00:33:20: Du weißt nicht ob die Person im Kreml auf der anderen Seite die Wahl sagt wenn der Knopf gedrückt wurde...
00:33:25: Genau, das ist ein Problem.
00:33:28: Oder geht ja noch selber selbst wenn wir eine perfekte Systeme haben was wirklich nur garantiert echte Fotos zulässt und aufnimmt.
00:33:36: Und auch das ist am Ende des Tages wieder ein technologisches Problem.
00:33:40: Du hast auch da wie dein System was du kompromittieren kannst.
00:33:42: Auch das ist dementsprechend kompromitierbar.
00:33:44: nichts ist komplett sicher.
00:33:46: Also auch an der Stelle.
00:33:48: also Ich glaube, ich bin bei dir dabei.
00:33:51: Ich persönlich glaube auch, dass der Weg dahin gehen wird und es an die Hardware koppeln, weil die Hardwares einfach am schwierigsten zu komprimitieren ist.
00:33:58: Es läuft darauf hinaus, dass sie vielleicht irgendwann wirklich abgesicherte Kamerasensoren haben, abgesicherten Mikrofonsensoren in den Handys direkt haben, die im Trust-Bereich auf der hardware laufen, der so schwer zu kompromittieren ist, dass das nur richtig versierte staatliche Hacker machen können.
00:34:13: Ansonsten halt niemand!
00:34:14: Ich glaube auch so, es läuft hinaus... Und dass wir dann irgendwann ein anderes Bildformat haben, so was wie ein Live-Bild.
00:34:19: Gibt's da halt Safe-Bilde oder so?
00:34:21: Direkt in eine Hardware... Ich hoffe es zumindest ist für uns schlecht aber ich hoffs für die Gesellschaft.
00:34:26: Ich glaube schon das ist auf sowas hinausläuft Aber grundsätzlich wird auch das wieder mit Publier in mein Hergehen.
00:34:33: Also... Ich glaub Technologie
00:34:35: ist am Ende.
00:34:36: Technologie is nicht der Schlüssel Es muss irgendwo menschlich sein also es muss irgendwas menschliches sein weil Wir werden das nicht hinbekommen, also ich glaube nicht dass das funktioniert.
00:34:44: wenn du die E-Mails anguckst.
00:34:45: Die sind so gut gefaked die haben teilweise dann irgendwie einen durch auch Liedsbiege oder so der Absender der sieht realistisch aus.
00:34:53: Das wird immer besser.
00:34:54: Ich glaube das Finanzgeschäfte ab einer gewissen Summe Ärzte ärztliche Angelegenheiten und so weiter vielleicht irgendwie behördliche Maßnahmen menschlich ablaufen müssen, dass wir da einfach keinen Weg mehr drumherum finden.
00:35:06: Bis wir dann die humanoiden Roboter haben, die sich als Gerichtvollzieher ausgeben oder wie auch immer.
00:35:11: aber weißt du es ist ganz wichtig das wir darüber nachdenken und schauen auch zivilgesellschaftlich.
00:35:16: was bedeutet das?
00:35:17: Weil die große Gefahr besteht ja jetzt gerade drin, dass grade so meine Großeltern, meine Eltern überhaupt einfach gar nicht mehr peilen wenn da irgendwie etwas online ist, was KI generiert ist.
00:35:26: Und das ist glaube ich gerade die massive Gefahr.
00:35:27: Wir werden aber auch in Zukunft hinterherlaufen.
00:35:30: Ganz sicher bin ich einhundert Prozent von überzeugt weil die Lösung für das Kommunikationsproblem haben.
00:35:35: Aber es ist am Ende des Tages ein Verifikationsproblem und kein Deepfake-Problem, das ist wichtig.
00:35:39: Genau, eine Absicherung der Authentizität.
00:35:41: Darauf wird sie in Ausgörsingen ab sichern.
00:35:44: Also, ein Hundert Prozent gehe ich nicht mit.
00:35:48: Vor allem vor dem Hintergrund, dass ich mich ja wirklich damit beschäftige.
00:35:51: Ich meine wir... also jeden Tag detektieren wir Fake und sparen Unternehmen Geld damit ein.
00:35:57: Dass es nicht funktioniert steht außer Frage aber ich gehe auf jeden Fall mit dir mit.
00:36:01: das die Absicherung der Authentizität noch mehr und noch wichtiger ist habe ich gerade schon ausgeführt.
00:36:05: Aber ich fände es auf jeden fall eine coole Entwicklung wenn sich der Kreis tatsächlich hin zu immer mehr menschlichen Schließt.
00:36:13: auch um anderen Bereichen vor Augen, wenn es jetzt so ums Thema Musikgenerierung rund zu geht.
00:36:19: Was ja auch immer leichter wird.
00:36:20: Das heißt du kannst immer weniger den Musikstücken die du online siehst glauben sind jetzt echt wo die KI generiert, wo entsteht der Wert?
00:36:26: und das heißt der Wert entsteht eigentlich immer mehr in der menschlichen Performance und ist eigentlich auch eine total coole Entwicklung.
00:36:32: also dass wenn es darauf hinausläuft, dass der Mensch, wo wir eigentlich gedacht haben zum Beginn der Entwicklung ,dass der Mensch immer mehr abgehangen wird durch diese ganzen KI-Tools Wenn der jetzt in gewissen Punkten einfach wieder aus der Sache heraus ins Zentrum gerückt wird, weil es ohne ihn gar nicht geht.
00:36:48: Also wenn du sagst, gewisse Transaktionen können auch face-to-face gemacht werden Es muss wirklich...es geht gar nicht mehr anders als das Person A und Person B im selben Raum sitzen und dann gemeinsam auf den Knopf drücken.
00:36:57: nur dann wird die Transaktion durchgeführt.
00:36:59: Da hat man da quasi eine neue Stelle geschaffen, die es davor so gar nicht gab Und ist eigentlich ganz cool.
00:37:03: Ich finde hier coole Entwicklung.
00:37:04: also deswegen mag ich dein Gedankengang.
00:37:07: Ansonsten vielleicht eine Sache noch.
00:37:08: um das Beispiel vom Anfang halt aufzugreifen Da hast du ja gesprochen von diesem Zoom-Call.
00:37:14: Und ich glaube, was zum Beispiel auch noch mein Thema ist, das jetzt immer mehr kommen wird, was ich mir gut vorstellen kann – da bin ich auch echt mal gespannt, was sich da noch so draus ergibt – ist generell das ganze Thema Audio.
00:37:24: Also diese Anrufe nehmen tatsächlich zu und besonders die Fake-Anrufe auch CEO Fraud.
00:37:28: Das ist ja der Bezeichnung für dieses Fraudschirm vom Beginn.
00:37:33: Nimmt auch immer mehr zu, nimmt immer mehr Fahrt auf und da bin nicht echt mal gespannt wo da die Reise hingeht.
00:37:37: Wir haben da jetzt mittlerweile tatsächlich so ein neues Produkt.
00:37:40: Fast ausgerollt, die Safe Mic, die da so ein bisschen andocken soll und auch da wieder ein bisschen mehr Sicherheit reinbringen sollen in die Prozesse.
00:37:47: aber insgesamt bleibe ich dabei dass das echt eine total spannende Dynamik ist und bin gespannt auf alles was dann noch kommt.
00:37:54: Ich
00:37:54: auch!
00:37:55: Und ich drücke euch die Daumen für eure Entwicklung und möglicherweise gibt es ja irgendwann ... hundertprozentige Technologischlösung.
00:38:01: Ich glaube nicht dran, wirklich eher da so nach wie vor nicht.
00:38:03: Schön wär's!
00:38:05: Ja genau ich drücke euch trotzdem die Daumen.
00:38:07: ihr seid denke ich auf der richtigen Seite.
00:38:08: von daher alles Gute Linus.
00:38:10: vielen Dank dass du hier warst.
00:38:11: Danke schön.
00:38:13: Ja liebe Leute jetzt war ich natürlich ganz schön kritisch in dieser Folge der Arme Linus.
00:38:17: nein muss er durch?
00:38:18: muss er glaube ich durch?
00:38:21: Das hat natürlich den Hintergrund, dass ich euch klarmachen möchte.
00:38:23: Dass es keine einhundertprozentige Sicherheit da draußen gibt.
00:38:26: Ja?
00:38:27: Egal welches Tool ihr verwendet, ihr werdet nie hundertprozentig sicher sein.
00:38:31: ist das ein Fake oder ist es echt versucht verschiedene Methoden dabei anzuwenden und zu kombinieren.
00:38:37: So was wie Medienkompetenz, also zu gucken gibt es eine zweite oder dritte Quelle die das hier irgendwie nochmal bestätigt?
00:38:43: ja kann ich vielleicht irgendwie einen Kollegen oder ein Kolleginnen gerade ranziehen wenn ich mir unsicher bin?
00:38:48: einfach kannst du mir mal sagen ob das hier echt ist?
00:38:50: Ja das kann ja durchaus auch schon helfen!
00:38:52: Die haben auch noch andere Ideen herangehensweise.
00:38:54: natürlich sind solche Tools auch Teil dieses Werkzeugkastens den ihr gebrauchen könnt wenn ihr euch unsicher seid in Sachen deepfake oder nicht.
00:39:04: Liebe Kollegen, sag mir doch mal ganz kurz, woran ich denn eigentlich mit dem menschlichen Auge Deepfakes erkennen könnte?
00:39:10: Mit den menschlichem Auge erkennst du deepfakes oft an kleinen Ungereimtypen.
00:39:14: Manchmal passen Mimik und Emotionen nicht ganz zusammen.
00:39:18: Augenbewegungen wirken starr
00:39:20: oder der
00:39:20: Lichteinfall und Schatten sind unnatürlich.
00:39:23: auch die Lippenbewegung
00:39:24: passen manchmal nicht exakt zum Ton.
00:39:26: Kurz
00:39:27: wenn dir etwas komisch vorkommt vertraue deinem Bauchgefühl und hinterfrag es einfach.
00:39:32: So sieht es aus, vielen Dank liebe Kolleginnen.
00:39:35: Ansonsten noch ein kleines Update von mir.
00:39:36: ihr werdet mich ab dieser Woche zweimal die Woche hören können und zwar werde ich neben diesen deep dives am Dienstag wo wir tatsächlich ja viel deutlich auf gewisse Themen eingehen und die wirklich umfänglicher behandeln mit Gästen, werde ich freitags kleine Sodorfolgen machen.
00:39:55: Die werden nur so fünf bis zehn Minuten dauern und darin möchte ich euch Updates geben.
00:40:00: von dem was eigentlich gerade in der Woche so passiert hat einfach den Nittergrund das grade soviel los ist.
00:40:05: also man verliert ganz schnell den Überblick.
00:40:07: bei den Entwicklungen, bei den Diskussionen die es da draußen gibt sag ich mal informiert ins Wochenende zu lassen, wird es ab dieser Woche Freitags immer so ein kleines Summary von mir geben.
00:40:19: Von dem was eigentlich gerade in der KI-Welt los ist!
00:40:22: Ich freue mich wenn ihr auch dabei zuhört.
00:40:25: ansonsten freue ich mich natürlich immer über Kommentare, über Feedback.
00:40:28: Wenn ihr unseren Podcast bewerten wollt macht das gerne.
00:40:32: Das hilft uns sehr.
00:40:33: Macht das gern auf den Plattform Eures Vertrauens und ansonstend sprechen wir uns nächsten Dienstag bzw vielleicht auch schon am Freitag wieder.
00:40:41: Vielen lieben Dank fürs Zuhören.
00:40:42: Bis dahin,
00:40:50: ciao!
Neuer Kommentar