Grok, Deepfakes und Jura-KI – mit Theresia Crone

Shownotes

Theresia Crone ist die perfekte Gesprächspartnerin in der aktuellen Debatte um die Erstellung nicht-konsensueller Nacktbilder mithilfe von KI-Tools. Denn die angehende Juristin und Aktivistin kennt die Auswirkungen dieser alarmierenden Schattenseite bildgenerierender KI. Im Gespräch mit Host Max Mundhenke teilt Theresia Crone ihre persönliche Geschichte als Betroffene von Deepfake-Pornografie und analysiert die gravierenden Lücken im deutschen Strafrecht, die eine effektive Verfolgung solcher Taten erschweren. Zugleich sagt sie aber: Wir dürfen (fehlende) menschliche Verantwortung nicht allein an die Technologie abgeben: Nicht der Chatbot selbst ist der Täter, sondern der Mensch, der die Anweisung gibt. Gemeinsam diskutieren sie, warum Deepfakes ein Ausdruck geschlechtsbasierter Gewalt sind und welche gesellschaftlichen Veränderungen notwendig sind, damit die Scham endlich die Seite wechselt.

Über diese Themen spricht Max mit Theresia in der neuen Folge „Kollegin KI“:

Gefährliche Deepfake-Tools: Erfahre, wie Funktionen von Chatbots wie Grok missbraucht werden, um in Sekundenschnelle sexualisierte Bilder von Frauen und Kindern zu generieren. Lücken im Strafrecht: Theresia Crone erklärt, warum das bloße Erstellen pornografischer Deepfakes in Deutschland derzeit oft noch kein Straftatbestand ist. Trauma der Betroffenen: Die Schilderung eines „jahrelangen Albtraums“ verdeutlicht, welche tiefgreifenden psychischen Folgen der Verlust der Macht über das eigene Bild hat. Profit durch Gewalt: Es wird beleuchtet, wie Plattformen und Apps durch die Erniedrigung von Frauen ein lukratives Geschäftsmodell geschaffen haben. Hilfe für Opfer: Entdecke konkrete Strategien zur Unterstützung, von der rechtssicheren Dokumentation durch Allies bis hin zum Kontakt zu Organisationen wie HateAid. Ethische KI-Nutzung: Trotz ihrer persönlichen Betroffenheit zeigt Crone auf, wie KI im juristischen Bereich sinnvoll eingesetzt werden kann, um den Zugang zum Recht zu vereinfachen. Verantwortung der Nutzenden: Warum die Regulierung von Plattformen allein nicht ausreicht und die ethische Pflicht bei jedem Einzelnen von uns liegt.

Der Chatbot zur Folge: https://bio.to/KolleginKI_Chatbot

Theresia Crone auf Instagram und Linkedin

Das studentische Chat-Bot-Projekt Juriskop: https://juriskop.de/home/

Foto Episodencover: Finnegan Koichi Godenschwege

Mehr zu Max bei Linkedin

Produktion: Podstars by OMR

Transkript anzeigen

00:00:02: Normalerweise sprechen wir in diesem Podcast über den positiven, produktiven Einsatz von KI.

00:00:07: Also darüber, wie Unternehmen und Organisationen KI einsetzen, um effizienter oder besser arbeiten zu können.

00:00:14: In den letzten Tagen dominierte aber eine andere KI News, die sozialen Medien.

00:00:20: Ihr werdet es mitbekommen haben.

00:00:21: Es geht um den missbräuchlichen Einsatz von KI, genauer gesagt um bildgenerierende KI auf der Plattform X. Glaube, dass wir als Business Podcast auch hier eine Verantwortung haben, darüber aufzuklären.

00:00:36: Wir erzählen natürlich gerne, wie toll KI immer ist und wie viel es bringt, aber KI kann auch schaden.

00:00:41: Und deshalb möchte ich in der heutigen Folge das Thema einmal genauer beleuchten.

00:00:46: Dazu habe ich mir Theresia Krone eingeladen.

00:00:49: Theresia ist Juristin, Aktivistin.

00:00:51: Sie nutzt KI auch selbst in ihrer Arbeit.

00:00:53: Sie ist zeitgleich aber auch Betroffene von Deepfakes, von Bildmanipulation durch KI.

00:00:59: Sprechen wir also darüber, was das eigentlich für jemanden bedeutet, wenn man betroffen ist, was man dagegen tun kann und wie wir alle einen verantwortungsvollen Umgang mit KI besser pflegen können.

00:01:11: Ich bin Max Mundtänke und ihr hört Kollegin KI heute mit einer etwas anderen Folge als sonst.

00:01:19: Guten Morgen, Theresia.

00:01:21: Guten Morgen, Max.

00:01:22: Wie geht's dir?

00:01:24: Bei mir wurde heute Morgen vor dem Fenster wieder gebörnert und ich bin ein bisschen müde deswegen, weil ich gerne noch länger geschlafen hätte, aber so ist das, wenn man in Berlin lebt.

00:01:33: Ja, das verstehe ich, das kenne ich auch, ich lebe ja auch in Berlin und ich hoffe, dass es dann Ende Januar endlich wieder ruhig wird.

00:01:40: Du, wir sprechen heute mal über einen ziemlich ernstes Thema, und zwar den Missbrauch von bildgenerierender KI.

00:01:48: Vielleicht einmal zum Abriss der Chatbot Grog.

00:01:52: der bei XAI ja fest verankert ist.

00:01:55: Man kann diesen Chatboard ansteuern, indem man einfach irgendwie Replies schreibt unter Tweets und kann dann AdGrogg verlinken.

00:02:02: und auffordern, irgendwie einen Faktencheck zu machen oder den Tweet vielleicht zu übersetzen oder irgendwie anders darzustellen.

00:02:10: Das Ganze geht jetzt seit Ende des Jahres auch mit Bildern.

00:02:12: Also man kann unter geposteten Bildern Grog verlinken und Grog dann dazu auffordern, Bilder zu manipulieren.

00:02:19: Und was jetzt in den letzten Tagen oder Wochen passiert ist und worüber jetzt Einstiege Medien auch vermehrt berichten, ist das Nutzer Mit Absicht nicht gegendert, diese Funktion ausnutzen und missbrauchen, um Bilder von Frauen, die hochgeladen wurden, teilweise auch von Mädchen, also von Kindern, dass die so derart entfremdet werden, dass sie nackt, halbnackt in Reizwäsche oder eben in sexualisierter Pose generiert werden sollen.

00:02:46: Und Grog folgt diesen Anweisungen und erstellt dann Bilder.

00:02:50: Das ist so ein bisschen die Ausgangslage.

00:02:53: Theresa, was sagst du dazu?

00:02:55: Eine kleine Einschätzung von dir.

00:02:58: Also ich hab das gesehen und hab dann erst mal irgendwie versucht da nicht mehr so viel drüber nachzudenken, weil ich das irgendwie ganz schön auch schwierig finde, dieses Thema für mich selbst auch zu verarbeiten, weil man da ja doch auch irgendwie schnell so ein bisschen den Glauben an ... verantwortungsvolle Menschen verliert.

00:03:16: Aber vor allem das zweite, was mir dann aufgefallen ist, auch in der Berichterstattung, ist, dass immer gesagt wurde, ja, es gibt diese Grog erstellt, diese Deepfakes.

00:03:23: Und das fand ich immer sehr komisch.

00:03:24: Das hast du auch gerade anders gemacht.

00:03:26: Deswegen sehr gut.

00:03:27: Das sind nicht Grog, das ist nicht ein Chatbot.

00:03:29: Da kann das nicht.

00:03:31: Also das sind Menschen, die einem Chatbot die Anweisung geben.

00:03:35: Und ich glaube, dass wir in unserer Sprache auch ein bisschen darauf achten müssen, dass wir den Menschen da nicht aus der Verantwortung nehmen, die sowas machen.

00:03:42: In Deutschland ist es meistens leider keine Straftat, so Deepfakes zu erstellen, auch sexualisiert oder pornografisch aushandelt sich um Kinder.

00:03:52: Und ich glaube, das ist auch gerade ein sehr aktuelles Thema in der juristischen Debatte.

00:03:58: habe ich, obwohl ich das ganz schrecklich finde, auch ein bisschen gedacht.

00:04:02: Vielleicht ist das jetzt, weil es viele Menschen drüber reden, ein guter Moment, um diese Debatte noch mal ein bisschen anzustoßen und vielleicht auch ein bisschen zu lobbyieren, weil, glaube ich, einfach jetzt Menschen darauf auf dieses Thema pornografischer Deepfakes aufmerksam geworden sind, die das Thema vorher so ein bisschen nicht im Blickwinkel hatten.

00:04:20: Und das sind vor allem natürlich so ... Journalisten und Politiker, die immer noch auf dem ehemaligen Twitter rumhängen.

00:04:29: Und das jetzt mal so selbst ganz praktisch sehen.

00:04:32: Denn ehrlicherweise die Frauen, die ich kenne, die Journalistinnen und die Politikerinnen, die sind bei dem Thema irgendwie alle ein bisschen, ich sag mal, sensibilisierter und viele, viele, viele von denen haben das auch schon selbst erlebt.

00:04:46: Aber reden darüber natürlich nicht so öffentlich.

00:04:49: Und deswegen ... So schrecklich ich das finde, dass vor allem eben auch Kinder und Leute dort natürlich auch irgendwie ihr Recht auf sexuelle Selbstbestimmung genommen wird.

00:05:00: Um so mehr versuche ich gerade auch, das Positive da drin zu sehen, dass diese Debatte vielleicht einfach nochmal auf einen gesellschaftlichen Diskurs stößt, der bisher in nur einer Bubble stattgefunden hat.

00:05:12: Lass uns das gerne hiermit vorantreiben.

00:05:17: Das Thema ist ja soweit nicht neu.

00:05:19: Also, speziell bei GROC gab es im ... Ich hab geguckt im letzten Jahr.

00:05:23: So, im Juni gab es schon erste Berichte darüber, dass GROC missbräuchlich verwendet wird auf Ex, dass da auch sexualisierte Inhalte erstellt werden.

00:05:32: Aber selbst das ist ja gar nicht mal der Anfang dieser ganzen Debatte.

00:05:36: Seitdem wir Bilder generieren können, gibt es diese Debatte um Deep Fake-Pornografie.

00:05:42: Das ist ja nicht so neu.

00:05:43: Das gab es ja vorher auch schon mit Photoshop oder man konnte ja auch Sachen malen und so.

00:05:47: Ja, und ganz klar, mit Sicherheit.

00:05:49: Ich glaube, der Unterschied zu dem, was wir jetzt sehen, ist einfach zum einen die Geschwindigkeit, in der das Ganze passiert.

00:05:56: Also, dass man wirklich ein Prompt gibt und dann hat man eine nahezu perfekt aussehendes Bild.

00:06:01: Warum das so realistisch aussieht, können wir vielleicht gleich nochmal kurz technisch reingehen.

00:06:07: Diese Geschwindigkeit ist das eine und das andere ist einfach die Öffentlichkeit, in der das jetzt auch passiert.

00:06:12: Dass dabei Rock tatsächlich oder bei ex tatsächlich in den Kommentarspalten ganz unmittelbar unter solche Bilder eben solche Deepfakes generiert werden.

00:06:21: Und das finde ich ist dann durchaus einen Unterschied von der Qualität dieses Ausmaßes zu damals in der Vorkali-Zeit.

00:06:31: Und ich glaube, ein Punkt, den wir auch nicht vergessen dürfen ist, dass es mittlerweile auch ein Geschäftsmodell ist.

00:06:37: Also ich möchte das hier auch wirklich nicht verharmlosen.

00:06:40: Also klar, GROCK ist nicht schuld, aber die Menschen, die GROCK programmiert haben... Die haben durchaus eine Mitschuld und ex verdient daran.

00:06:49: Genauso wie es Nudefy Apps gibt, also Apps, die designiert dafür sind, dass man Frauen und Kinder vor allem, dass man von den Deepfags erstellen kann.

00:07:00: Es gibt ganze Websites im Internet, Porno-Websites, die nur Deepfag-Pornos produzieren.

00:07:05: Meistens von Menschen, die es echt gibt, weil das eben auch der Anreiz ist.

00:07:10: Aber auch ... eben weiß ich nicht, reddit, TikTok und so weiter profitieren monetär davon.

00:07:16: Das ist... so viele Deepfags gibt, dass vor allem Frauen und Kinder betroffen sind und dass Leute dann darauf hängen bleiben und danach die Werbung angucken.

00:07:24: Also es gibt auch ein monetäres Interesse dahinter, was wir, glaube ich, auch nicht vergessen dürfen.

00:07:30: Und in dem Moment, wo quasi eine Rechtsverletzung von Frauen oder eine ja auch Ernietrigung von Frauen zum Geschäftsmodell wird, haben wir ein richtig fettes Problem gesellschaftlich, glaube ich.

00:07:43: Ich find's gut, dass du das ansprichst.

00:07:45: Ich hab nämlich in der Recherche zu diesem Thema und zu dieser Folge auch mal ein bisschen gekramt und mich erinnert an die Nullerjahre.

00:07:52: In den Nullerjahren, ich bin zweiundneinzig geboren, saß ich vom Fernsehen und hab Viva geguckt, wie viele in meiner Generation auch, und mir ist da eine Werbung in den Kopf gekommen.

00:08:02: Ich weiß nicht, ob du die kennst, aber ich würde die kurz mal abspielen.

00:08:04: Es sind so fünfzehn Sekunden, also es gab noch keine Smartphones damals, ja, aber ich möchte das einmal tatsächlich zeigen, weil du sagtest, es ist ja ein monetäres Internet.

00:08:12: Interesse und dieses monetäre Interesse und das Verben mit so einer Funktion, das gab es schon damals.

00:08:17: Wollen wir mal kurz rein.

00:08:34: Das waren die... Die Jambal-Spar-Abos, die damals natürlich mit solchen Quatsch-Apps, muss man sagen, die haben natürlich nicht funktioniert in dem Sinne.

00:08:44: Ich hatte dann selbst mal geguckt, bei Reddit gibt es noch ein paar Einträge auch von ehemaligen Angestellten, die darüber berichten, dass wir damit haben, Leute auch schon vor Smartphones Geld mitverdienen.

00:08:53: Wenn ich mir überlege, dass ich als zwölfjähriger damals vom Fernseher gesessen habe und solche Werbung gesehen habe.

00:08:58: Dann gehörte das irgendwie dazu.

00:09:00: Und ich glaub, jeder Millennial oder jeder, der in den Nullerjahren Viva geguckt hat, kennt halt auch diese Werbeversprechen.

00:09:06: Was macht das mit dir als Genzi, wenn du so was hörst?

00:09:10: Ja, also, es ist jetzt auch nicht komplett überraschend, dass es irgendwie ... Frauenhasst oder Sexualisierung von Frauen auch schon vor meiner Geburt existiert hat.

00:09:21: Ich bin Jahrgang, also ich hab die Viva-Phase nicht mehr ganz mitbekommen, wenn da nur noch so sekundär bei meine Brüder, die älter sind.

00:09:30: Aber ich glaube, der Unterschied ist ja schon auch, ich bin ja auch von Deep Fakes betroffen.

00:09:35: Ich glaub, darüber werden wir auch gleich noch mal reden.

00:09:37: Und ich weiß, als es von mir diese Bilder gab, wenn man meinen Namen eingegeben hat bei Google und ein bisschen ... dann hat man die auch gefunden.

00:09:48: Und das höre ich auch von ganz vielen anderen Betroffenen.

00:09:51: Und es müssen nicht Leute sein, die wie ich irgendwie auch in der Öffentlichkeit stehen.

00:09:54: Es können auch einfach Mädchen sein, die vierzehn, fünfzehn sind.

00:09:59: Und dann wird in den Klassenchat von denen die Fakes gepostet.

00:10:03: Und das ist kein Einzelfall.

00:10:05: Und dann lädt das jemand auf einer Website hoch oder auf einer Porno-Seite oder so.

00:10:12: Und das ist ja schon auch nochmal eine andere Qualität von lebenseinschränkend, weil man weiß, es ist nicht nur auf irgendeinem Handy lokal gespeichert oder auf irgendeinem Computer, das eine Person das hat, sondern meistens werden sie eben noch im Internet verbreitet, meistens ... sind sie mit dem eigenen Namen versehen, vielleicht auch noch mit anderen persönlichen Daten.

00:10:33: Und wenn man sich dann denkt, oh, ich bewert mich jetzt auf den Job und dann googelt jemand einmal meinen Namen und sieht mich so und wird mich nie wieder anders sehen, weil dann hat diese Person mich das erste Mal sexualisiert in diesem Kontext gesehen.

00:10:45: Und das ist schon gruselig.

00:10:48: Und mich hat das auch wahnsinnig getroffen, dass ich eben, als es von mir diese Deepfakes im Internet gab.

00:10:55: wirklich Hunderte, die Ems bekommen hab von Menschen, die das gesehen hatten.

00:10:59: Und Männern muss man ja auch sagen, die mich damit provozieren wollten oder sich über mich lustig machen wollten.

00:11:07: Und ich glaube, das ist halt quasi die Kombination von KI und sozialen Medien, die da auch noch mal so ein bisschen ... ja, den Sachverhalt verändert als das, was du jetzt grad von Viva gezeigt hast.

00:11:20: Auch wenn das damals auch schlimm war, gar keine Frage.

00:11:23: Ja, definitiv.

00:11:25: Das Phänomen, also du hattest es richtig angesprochen, es ist Frauenhass, es ist das Ausüben von Macht, es ist ein gesellschaftliches Problem, dass so was entstehen.

00:11:34: Und das ist auch nicht neu, im Jahr zwanzig ging mehrere Medien darauf ein, dass gerade in Südkorea ein Riesenproblem herrscht an Schulen.

00:11:41: Und da geht es tatsächlich an Grundschulen schon los, dass Kinder, Jugendliche, Männer im Grunde das als Art Mobbing verwendet haben, um Mitschülerinnen, aber auch Lehrerinnen, loszustellen.

00:11:53: Und das Ganze ist von Schulen bis zu Universitäten ein Ding gewesen, was gerade in Südkorea ziemlich aufgekaut ist.

00:12:00: Und in einem Spiegelartikel vom vorletzten Jahr hieß es da auch, dass Frauenhass im Grundlage dafür ist und dass die Gesellschaft in Südkorea da relativ lange wohl weggeschaut hat und dazu wenig Aufklärung herrscht.

00:12:13: Eine Psychotherapeutin in dem Artikel sagt auch, dass was man wirklich tun kann, ist Aufklären.

00:12:18: Das ist wirklich sexuelle Aufklärung zum einen, aber zum anderen auch sich bewusster zu sein oder zu werden, was man eigentlich damit anrichtet.

00:12:26: Von daher finde ich super, dass du heute hier bist, auch als Betroffene kannst du ein paar Sätze dazu sagen, wie sich das anfühlt.

00:12:35: Was macht das mit einem, wenn man plötzlich solche Bilder von sich entdeckt und weiß, die hab ich nie gemacht?

00:12:41: Ja, also, ich hab diese Bilder das erste Mal gesehen, weil mir jemand einen Link geschickt hat und meinte, hey, ich hatte davor ganz weh die Nachricht bekommen, fand schon irgendwas, das ist komisch, aber ich wusste nicht genau was.

00:12:52: Ich war damals auch nicht so Influencerin oder so.

00:12:56: Ich habe jetzt ein bisschen Social Media reichweit, aber damals noch gar nicht.

00:12:59: Also da hatte ich vielleicht Dreitausend Follower oder sowas.

00:13:02: Und war irgendwie in Schwerin regional in Mecklenburg-Vorpommern ein bisschen politisch engagiert.

00:13:06: Ich war jetzt wirklich ... Also keine richtige Person des öffentlichen Lebens oder so.

00:13:12: Und dann hat mir jemand einen Link geschickt und meinte, hey, ich glaub, es gibt einen Fake-Account von dir, guck dir das mal an.

00:13:16: Ich bin raufgegangen und hab dann eben wirklich dutzende Bilder gesehen.

00:13:20: Also, manche waren so wirklich, da dachte ich, ja, okay, da sieht man doch sofort, dass das gefälscht ist.

00:13:25: Also, das würde dann in die Kategorie der Cheapfakes fallen quasi.

00:13:30: Aber es gab auch Bilder, da hab ich mir wirklich gedacht.

00:13:33: Krass.

00:13:33: Ich kann mich nicht erinnern, mal in dieser Situation gewesen zu sein.

00:13:37: Also so, woher kommt dieses Bild?

00:13:40: Also, da brauchte mein Gehirn so ein paar Sekunden, um überhaupt festzustellen, nee, ich war nie in einer gewaltvollen sexuellen Situation, die da dargestellt wurde.

00:13:52: Und das war, glaube ich, hat sich, glaube ich, schon sehr ähnlich angefühlt, wie einen echten Übergriff zu erleben.

00:14:01: Einfach, weil ich da ja auch ... dann nie Schluss mit hatte.

00:14:05: Also ich konnte ja nie sagen, oh, das ist jetzt vorbei, sondern das dauerte Monate, ich glaube sechs Monate oder so, bis das alles gelöscht war.

00:14:13: Ich habe dann in den Wochen und Monaten danach immer wieder Nachrichten bekommen.

00:14:17: Manche haben mir diese Bilder auch geschickt, um mich zu provozieren oder so.

00:14:21: Und das heißt, ich hatte auch nie so diesen Moment, wo ich dachte, jetzt ist das vorbei, jetzt kann ich damit abschließen, jetzt kann ich das für mich bearbeiten.

00:14:27: Und das hat sich einfach wirklich wie so ein jahrelanger Albtraum am Ende angefühlt.

00:14:31: Und manchmal immer noch.

00:14:33: Ich glaube, ich kann jetzt besser damit umgehen.

00:14:34: Deswegen habe ich mich auch entschieden, darüber öffentlich zu reden, weil ich glaube, ich fiele es jetzt doch verarbeiten konnte.

00:14:41: Aber im Grunde fühlt es sich einfach total so an, als würde man so Macht über das eigene Leben verlieren.

00:14:48: Und ich habe mich total hilflos und ja irgendwie alleine gefühlt.

00:14:56: Weil ich war mir auch, ich hab mir auch so gedacht, was sag ich denn jetzt, meinen Freunden oder meiner Familie, warum es mir nicht gut geht.

00:15:01: Also, ich hab das da auch noch irgendwann, aber ... also, meinem Rentnervater zu erzählen oder zu erst mal zu erklären, ja, was die Fels sind und warum die von mir existieren und warum ich das ... also, das ... das ist total schwierig und ich hatte gar nicht die Sprache dafür.

00:15:21: Und dann, wenn man sagt, als Juristin dachte ich irgendwie oder als noch Jurastudentin, dachte ich dann auch ganz naiv, ich kann da jetzt ja gegen vorgehen.

00:15:29: Und dann wird das gelöscht und ich mache jetzt Rechtsstaat und das, aha, ich liebe den Rechtsstaat.

00:15:33: Und dann kommt der Frustrationsmoment, wo man feststellt, ich muss dem Polizisten gerade erklären, wie man Screenshots macht, so beim Fachkommissariat für Cyberkriminalität.

00:15:42: Ja.

00:15:43: Und dann kommt direkt der Moment, wo man realisiert, ah, das Deep Facts erstellen ist gar nicht strafbar in Deutschland.

00:15:48: Cool.

00:15:49: Ist das so?

00:15:50: Also erstmal vielen Dank, dass du das mit uns heißen, dass du das so offen hier erzählst.

00:15:56: Lass uns mal auf die rechtliche Sichtweise gucken.

00:15:58: Du bist jetzt Juristin, ja.

00:15:59: Du hast auch ein Blog-Artikel über das Thema verfasst.

00:16:05: Kannst du uns einmal kurz abholen, was passiert da gerade auch rechtlich und was würdest du vielleicht auch Leuten raten, die davon betroffen sind?

00:16:15: Also rechtlich ist die Lage halt wirklich komplex, wie man jetzt anscheinend immer über Rechtssituationen sagt in Deutschland.

00:16:22: Aber genau, es ist so, Deepfakes können strafbar sein, sind es aber nicht unbedingt.

00:16:28: Also pornografische reden wir jetzt davon.

00:16:31: Pornografische, nicht konsensuelle Deepfakes muss man ja auch einmal klar sagen, weil es gibt ja durchaus auch ... quasi nicht pornografisch oder konsensueller Deep Hacks.

00:16:39: Und es ist halt so, dass ein Teil davon ist zum Beispiel erfasst durch das Strafrecht im Bereich der Kinderpornografie, also sobald jemand minderjährig aussieht und das muss auch keine echte Person sein.

00:16:54: Dann ist das strafbar.

00:16:55: Ich glaub, das ist der Hundert vierundachtzig BSTGW, falls das jemanden interessiert.

00:17:01: Aber für alle anderen Fälle haben wir eigentlich nur das Äußerungsrecht, was da eingreift.

00:17:07: Also, da kann man dann sagen, das ist üble Nachrede oder Beleidigung.

00:17:11: Je nachdem, das kann man jetzt nicht pauschal für alle Diebfacks sagen, aber es kann halt sein.

00:17:16: Und das sind Antragsdelikte.

00:17:17: Das heißt, da muss ich persönlich auch hingehen und sagen, ich möchte, dass der Start das verfolgt, die Polizeibehörde und die Staatsanwalt.

00:17:25: Aber wir haben jetzt keinen Paragrafen oder keinen Tatbestand im Sexualstrafrecht, der irgendwie sagt, es ist verboten, Pornos von anderen Menschen zu erstellen.

00:17:34: Und das macht es ein bisschen schwierig.

00:17:36: Und dann kann man sagen, normalerweise, wenn es so Schutzlücken gibt, dann ist es so, dass die Rechtsprechung kommt und sagt, dann füllen die Gerichte das so ein bisschen aus oder leiten irgendwas ab oder treffen mal eine Grundsatzentscheidung.

00:17:50: Aber soweit ich das überblicken kann, gibt es in Deutschland bisher kein einziges Urteil zum Thema sexuelle Deep Fakes.

00:17:58: Und wenn dann nur im Bereich des Zivilrechts, aber nicht im Bereich des Strafrechts.

00:18:02: Und das führt dazu, dass die meisten Anzeigen, die man heute stellt, eingestellt werden, entweder weil man sagt, der Täter konnte eh nicht ermittelt werden, weil die Plattform ja auch ganz oft nicht mit den Behörden kooperieren.

00:18:13: Das heißt, man bringt dann was zur Anzeige, sagen wir ... jemand erstellt das und packt das in eine Telegram-Gruppe, dann werden die Polizisten sagen, sorry, tut uns leid, Telegram kooperiert nicht mit uns.

00:18:25: Und wenn dann nur in so schweren Terror- oder Mordfällen oder so.

00:18:30: Also sie können das jetzt schon mal eigentlich vergessen, dass wir herausfinden, wer das war.

00:18:34: Und selbst wenn man herausfindet, wer das war, so war das zum Beispiel bei mir.

00:18:37: Ich kenne seit ungefähr eineinhalb Jahren die Identität des Täters bei mir.

00:18:41: Dann ... sind die Staatsanwaltschaften einmal super überlastet, überarbeitet und aber auch sehr zögerlich, weil es eben nichts gibt, woran sie sich festhalten können.

00:18:50: Also es ist gar nicht entschieden bisher, wie man das überhaupt gut lösen kann rechtlich, juristisch.

00:18:57: Deswegen gibt es jetzt die Forderung und die teile ich auch, dass es einen Straftatbestand geben soll für Deepfakes.

00:19:04: Das Problem ist, die Debatte ist... sehr an der Realität vorbei.

00:19:07: Es gibt einen Entwurf vom Bundesrat oder einen Beschluss vom Bundesrat.

00:19:11: Und das liegt jetzt beim Bundestag.

00:19:13: Das war eine Initiative aus Bayern.

00:19:15: Die haben gesagt, wir wollen Deep Fakes strafbar machen.

00:19:18: Die machen aber keine Unterscheidung zwischen pornografischen und nicht pornografischen Deep Fakes.

00:19:25: Schwierig, meiner Meinung nach.

00:19:27: Also nur in der Strafzumessung, also in der Frage, wie hoch eine Strafe ausfällt, machen sie die Unterscheidung.

00:19:34: Aber ich bin der Meinung, es ist was komplett anderes, ob ich ein Diebfägersteller von Friedrich Merz, und er sagt dann irgendwas, zu Weißen nicht mit Limburg-Vorpommern, ist das schönste Bundesland der Welt, was er nie gesagt hat.

00:19:45: Und ich verbreite das.

00:19:47: Und es ist vielleicht sogar auch klar erkennbar, als KI generiert.

00:19:52: Oder jemand erstellt von mir ungefragt ein Porno-Video, wo mir vielleicht auch eine Gewaltsituation zugeschrieben wird, die ich nie erlebt habe.

00:20:02: Und man kann dann so eine Grundrechtsabwägung machen.

00:20:05: Das sieht dieser Tatbestand schon vor.

00:20:08: Aber ich finde einfach, das gehört gar nicht in einen Absatz.

00:20:14: Weil das eine kann Kunst oder Meinungsfreiheit oder was weiß ich sein.

00:20:18: Ein Witz, den ich meinen Mitarbeitenden, meinen Co-Workern schicke.

00:20:23: Haha, lustig, guck mal, du als Rockstar.

00:20:26: Das sollte doch nicht genauso strafbar sein wie wenn jemand von mir nicht konsensuellen Porno erstellt.

00:20:34: Genau deswegen hab ich jetzt auch einen Blogbeitrag geschrieben, der den nächsten Tag online geht.

00:20:39: Wo ich auch noch mal klarmache, eines als brauchts eine klare Unterscheidung meiner Meinung nach.

00:20:44: Und andererseits ist es, finde ich auch so, dass wir... nicht nur ab der Verbreitung bei pornografischen Deepfags ansetzen sollten, sondern schon ab der Erstellung.

00:20:55: Einfach, weil wir sonst Beweisprobleme haben, weil wir die Plattform sonst nicht so gut in Verantwortung nehmen können.

00:21:01: Und weil es sich am Ende auch einfach ganz klar, das muss man benennen, um einen Ausdruck von geschlechtsbasierter Gewalt handelt, also, neun und neunzig Prozent der erstellten Deepfags sind pornografischer Natur.

00:21:14: Ja.

00:21:14: Das je nach Studie manchmal sind es auch, neunundzig.

00:21:16: Ja.

00:21:17: Und ... Neunundneinzig Prozent dieser pornografischen Diebfags betreffen Frauen oder Kinder.

00:21:25: Und das müssen wir so klar benennen.

00:21:26: Und dann, finde ich, muss es auch ein anderes Handling geben, als bei der Frage von, weiß nicht, das könnte Desinformation sein oder so.

00:21:35: Ganz genauso.

00:21:35: Ich würde noch vielleicht hinzu machen, dass überhaupt die verfremdete Darstellung von Leuten... ohne Konzent auch nicht unproblematisch ist.

00:21:44: Auch wenn ich jetzt irgendwie Leute als Rockstar darstellen möchte, also ist das erstmal natürlich ein Eingriff und sollte im Idealfall vorher abgeklärt sein.

00:21:51: Aber das ist ja das Ding, das passiert natürlich bei digitaler sexueller Gewalt und nichts anderes ist es, wenn man eben die Fake-Pornografie erstellt.

00:22:00: Da passiert das ja in der Regel nicht.

00:22:02: Jetzt sagtest du schon, die Plattformen in die Verantwortung nehmen, das funktioniert natürlich in gewisser Weise nicht unbedingt immer.

00:22:09: Telegram hattest du angesprochen, die kooperieren in der Regel gar nicht.

00:22:12: Elon Musk als Chef von XAI und damit eben auch von GROC ist jetzt auch nicht gerade bekannt dafür irgendwie Regulierung einzuhalten.

00:22:21: Ich muss sagen, ist das die Lösung, die Plattform da in Verantwortung zu nehmen?

00:22:27: oder, und das ist ja auch eine Debatte, die gerade immer wieder hochkocht, brauchen wir sowas wie eine Klarnamenpflicht in Social Media, die umgesetzt werden muss, damit man in Zukunft sofort weiß, wer hat das eigentlich fabriziert?

00:22:40: Ich bin ja nicht die richtige Person, um das Final zu beantworten.

00:22:43: Ich hab dann ein Bauchgefühl.

00:22:45: Mein Bauchgefühl ist, ich glaube, es hindert Männer nicht, die Klarnamenpflicht so was zu erstellen.

00:22:53: Also, ich kann sagen, bei dem Täter von mir, der war sehr ... Der hat sich keine große Mühe gegeben, zu verstecken, wer er ist.

00:23:03: Wenn man auf X geht und sich das mal anguckt und oben in die Suchleiste eingibt, eine Bikini, dann sieht man ja alle Use-Cases quasi.

00:23:16: Und viele machen das mit einem Klarnamen, weil sie eben wissen, dass es gar nicht strafrechtlich belangt wird.

00:23:21: Und ich glaube, es gibt ja auch immer dieses Argument, dass wir damit ja auch ein bisschen so Safe-Spaces zerstören könnten im Internet.

00:23:28: Also, dass wir zum Beispiel, wenn queere Jugendliche auf dem Land im Internet Selbsthilfegruppen aufsuchen oder so, dass man dann ... diese Schutzräume nehmen würde.

00:23:40: Deswegen weiß ich gar nicht, ob das notwendig ist und ob das sinnvoll ist.

00:23:44: Vor allem so lange wie nicht die... Möglichkeiten ausgeschöpft haben, die uns der Rechtsstaat konkret auch zum Beispiel der Digital Services Act bietet.

00:23:53: Solange es kein Gesetz gegen digitale Gewalt gibt, was es ermöglichen würde, mit einem richterlichen Beschluss einfach an die Identität von Tätern zu kommen und so weiter.

00:24:01: Also es ist ja nicht unten möglich oder mit Lock in Fallen oder so Täter zu identifizieren, wenn wir die Behörden dafür vernünftig ausstatten würden, wenn wir Rechtstaatlichkeit durchsetzen würden, wenn wir auch einfach mal Kompetenz schaffen würden bei Polizeibehörden und Staatsanwaltschaften.

00:24:20: Und ich glaube, damit würde man einen Großteil der digitalen Gewalt und der digitalen Straftaten auch schon deutlich besser erfassen können.

00:24:28: Aber aktuell wird das aller, aller Meister einfach eingestellt.

00:24:31: oder erst nach sechs Monaten wird die Akte das erste Mal angefasst.

00:24:35: Die digitale Strafverfolgung ist natürlich das eine.

00:24:38: Ich glaube, es gibt noch zwei andere Punkte.

00:24:41: Das andere ist natürlich Prävention.

00:24:43: Wie können wir verhindern, dass so was passiert?

00:24:46: Und das Letzte ist, was können wir Betroffenen raten?

00:24:49: Was kannst du Betroffenen raten?

00:24:50: Lass uns vielleicht mal mit der Prävention anfangen.

00:24:54: Sollen wir KI nicht einfach verbieten?

00:24:55: Wir können auch das Internet verbieten oder Zeitungen oder Buchdruck.

00:25:00: Also ich bin kein Fan davon, eine Technologie komplett zu verbieten, sondern ich bin davon Fan, sie so zu regulieren, dass Menschen geschützt werden und dass die KI uns dient und nicht wir der KI dienen oder wir einzelnen Interessen von einzelnen Tech-Konzern dienen oder so.

00:25:21: Genau, also ich glaube... Es gibt ja gute Ideen, wie man KI gut regulieren kann, dass man einfach vorschreibt, eine KI muss gewisse Grenzen haben, muss halt gewisse ethische Anforderungen erfolgen.

00:25:36: Es gibt ja auch den AI-Act der EU.

00:25:39: Ich bin da jetzt keine Expertin.

00:25:41: Aber soweit ich das sehe, gibt es da zumindest ein paar ganz gute Ansätze, wo wir quasi globale Vorreiter sind, was diese Frage angeht, wie geht man juristisch mit KI um?

00:25:53: Und es gibt ja auch einfach sehr gute Use-Cases für KI.

00:25:55: Also ich glaube, es gibt so viele Beispiele, wo KI der Menschheit hilft.

00:25:59: Ich habe in der Kanzlei gearbeitet, da gab es ein Projekt, das hieß Juriskop, das war mit der Uni Würzburg.

00:26:04: Da haben Studierende und Anwälte zusammen z.B.

00:26:08: Chatbots gebaut für ukrainische Geflüchtete, dass sie schneller erfahren können, wie sie sich juristisch eigentlich helfen können, wie es um ihren Migrationsstatus aussieht und so weiter.

00:26:19: Oder es gab einen Chatbot, der generiert wurde.

00:26:21: gearbeitet wurde, wo es darum ging, erbrechtliche Fragen zu klären.

00:26:24: Also dann gibt man quasi so die Infos ein und dann sagt der Chatbot einem, wer, wie viel von was erbt.

00:26:30: Und ich glaube, das ist ja mega cool, weil sonst kann man diese Fragen vielleicht gar nicht so gut beantwortet bekommen, wenn man nicht gerade Geld ausgeben will für einen Anwalt oder sich auf Chatchi BT, wo halt einfach nicht quasi das Hintergrundwissen eingearbeitet ist, verlassen möchte.

00:26:45: Deswegen, also auch im juristischen Bereich gibt es einfach gute Beispiele wie AI.

00:26:50: recht zugänglich machen kann und den Rechtsstaat vereinfachen kann und ja entbürokratisieren kann oder so und ich glaube mega.

00:26:59: also deswegen bin ich kein Fan davon immer so was direkt zu verbieten.

00:27:02: ich bin Fan von guter Regulation.

00:27:05: und zum thema wie können wir betroffenen helfen oder was kann man denen sagen.

00:27:10: Ihr könnt euch zum einen mal überlegen, ob ihr euch an jemanden wendet, der euch konkret unterstützt.

00:27:15: Es gibt da ja verschiedene Organisationen, also es gibt zum Beispiel Hate Aid für Betroffene von digitaler Gewalt, aber es gibt natürlich auch Allgemeine für Betroffene von konkreten Formen von Gewalt.

00:27:26: Hilfsorganisationen, es gibt den weißen Ring, es gibt für zum Beispiel rassistische Fälle oder Misogyne-Fälle oder queerfeindliche Fälle gibt es ja auch noch mal noch mal einzelne Vereine.

00:27:37: Ich kann das sehr empfehlen, weil die auch zum Beispiel unterstützen können, den Anwalt zu bezahlen oder so.

00:27:43: Wenn es darum geht juristisch vorzugehen, ich würde natürlich immer sagen, bringt so was zur Anzeige, macht euch aber bitte keine Hoffnung.

00:27:51: Also ich glaube, das wäre meine realistische Einschätzung.

00:27:54: Bringt es zur Anzeige, damit es in den Statistiken auftaucht, damit vielleicht irgendwann doch mal ein Urteil kommt.

00:28:01: Aber also den Heilungsprozess, den du für euch selbst finden musst oder den Prozess, wie damit umgeht, solltet nicht davon abhängig machen, weil wahrscheinlich wird ihr ein bisschen enttäuscht werden.

00:28:12: Und ich glaube, was auch hilft, ist einfach, sich mit anderen Betroffenen auszutauschen oder mit anderen Menschen in eurem Umfeld, die ungefähr nachvollziehen können oder verstehen können, was das bedeutet.

00:28:23: Und wenn ihr ... zum Beispiel jetzt in der Schule oder so, wenn das im Arbeitsplatz oder in der Schule oder in der Uni passiert oder so, glaube ich, ergibt es auch Sinn zu gucken, ob man da noch mal Möglichkeiten findet, Räume zu schaffen, das zu besprechen oder auch Schutzmechanismen zu finden, damit Leute nicht zu sehr belastet werden oder damit das nicht immer weitergeht oder so.

00:28:46: Aber ich habe nicht die ideale Lösung, ich versuche sie selbst noch zu finden.

00:28:49: Okay, aber vielen Dank, das sind ja gute Anhaltspunkte.

00:28:51: Dann kann ich ja vielleicht nochmal mich an meine Geschlechtsgegnossen wenden.

00:28:55: Leute, das ist kein Spaß.

00:28:57: Ja, also ganz ehrlich, wenn ihr damit mal überlegt hat, zu spielen und zu gucken, was kann ein Bildgenerierende KI eigentlich alles so bezwecken, auch im Bereich Pornografie und so.

00:29:07: Ihr verletzt damit Menschen.

00:29:09: Also ihr begeht damit unter Umständen eine Straftat, haben wir gehört, aber ihr verletzt vor allem damit Menschen.

00:29:15: Und das geht nicht.

00:29:17: So können wir KI nicht nutzen.

00:29:18: So sollten wir KI, so sollten wir Technologie überhaupt nicht nutzen.

00:29:22: Unterbindet es, zeigt es an, ihr seid Alice.

00:29:26: So guckt es euch nicht an, verurteilt es, wenn es im Freundeskreis gemacht wird.

00:29:30: Es liegt in unserer Verantwortung, dass das nicht passiert.

00:29:34: Ja, kann ich nur unterstützt.

00:29:35: Ich würde noch eine Sache ergänzen, wenn ihr jemanden kennt, wo ... was passiert ist.

00:29:39: was ihr machen könnt, um so ein bisschen zu entlasten ist, zum Beispiel auch anzubieten, das zu dokumentieren.

00:29:46: Weil das fand ich mit am schlimmsten, wenn man verfolgen will, muss man selbst eigenständig dokumentieren und also rechtssicher, dass das Datum sichtbar ist, der Kontext und so weiter.

00:29:55: Und das ist wahnsinnig belastend, sich das angucken zu müssen.

00:29:58: Also sowas könnt ihr anbieten.

00:30:00: Also, hey, ich kann das für dich dokumentieren.

00:30:02: Und man stellt dann einfach eine Ordnung, wo alle Screenshots gespeichert sind oder sowas.

00:30:06: Und ihr könnt natürlich auch anbieten, hey, ich kann mal ... gucken, ob ich jemanden finde, der dich unterstützen kann.

00:30:11: Also ich kann gucken, ob ich einen Anwalt finde, der das macht oder solche Sachen.

00:30:15: Also ich glaube, auch von dieser administrativen Arbeit etwas abzunehmen und natürlich auch für die Person da zu sein und so, ich glaube, dann kann man der Person vielleicht ein bisschen Räume schaffen, damit klarzukommen in Räume, in denen sie sich nicht auch noch darum kümmern muss, diese ganzen Sachen zu dokumentieren.

00:30:35: Das hat mir am meisten geholfen, glaube ich.

00:30:37: Theresa jetzt nutzt du KI ja auch beruflich oder hast halt auch gute Anwendungsbeispiele für KI im Juristenberuf genannt.

00:30:45: Hat sich dein Blick auf KI durch deine eigene Betroffenheit und durch das, was jetzt tatsächlich auch passiert und medial immer mehr besprochen wird, hat sich dein Blick auf KI dadurch verändert?

00:30:59: Also, man muss sagen, bei mir ging diese Geschichte mit den Deepfags im Dezember-Dreiundzwanzig los.

00:31:06: Das war ja noch relativ zu den Beginn von quasi breit zugänglicher KI.

00:31:13: Und ich kann mich erinnern, dass ich am Anfang natürlich, wie die meisten, wahrscheinlich irgendwie Chatchi B.T.

00:31:16: genutzt habe, um irgendwie lustige Geschichten mehr auszudenken oder so das eher so als ... Gimmick genutzt habe, ist ja lustig, ich will mal gucken, was das Ding so kann.

00:31:30: Und weil das relativ früh passiert ist bei mir, habe ich glaube ich dann relativ früh mir einfach auch Gedanken gemacht, was ist eigentlich so eine ethische KI-Nutzung.

00:31:38: Also ich glaube, ich achte sehr darauf, dass ich keine persönlichen Daten von anderen zum Beispiel jetzt einfach... random Chatbots oder so was eingebe.

00:31:49: Also da bin ich sehr vorsichtig, einfach weil ich das Gefühl habe, es ist meistens nicht notwendig.

00:31:55: Man kann auch Platzhalter nehmen oder das abstrahieren oder Namen rausnehmen.

00:32:00: Und solange das nicht lokal gehostet ist oder so, wo das natürlich eine andere Sache ist, muss man natürlich gerade in juristischen Berufen da sehr darauf achten.

00:32:09: Und deswegen, glaube ich, war ich von vorne rein.

00:32:11: Was das angeht, sehr vorsichtig.

00:32:12: Aber ich nutze KI sehr viel in meinem Alltag.

00:32:16: Also ich bereite mich gerade vor allem auf mein erstes Staatsexam vor.

00:32:20: Deswegen habe ich jetzt irgendwie, arbeite ich nicht mehr in der Kanzlei oder so, wo das viel dran gekommen wäre.

00:32:27: Aber zumindest auch in meiner politischen oder publicistischen Arbeit hilft das natürlich enorm, dass man Texte nochmal Feedback sich einholen kann, ohne dass man immer noch eine andere Person in den Raum holen muss.

00:32:39: Und da bin ich großer Fan von.

00:32:41: Und ich glaube auch in der Zukunft, wenn ich wieder in einem klassischen juristischen Beruf arbeiten werde, werde ich das weiterhin nutzen und würde dann natürlich auch gerne gucken, ob ich zum Beispiel es mal schaffe, ein System lokal zu hosten, damit man dann eben auch wirklich Schriftsetze zum Beispiel reinpacken kann oder so was und nicht mehr so sehr auf DSGVO fragen achten muss.

00:33:03: Ja.

00:33:04: Das wird passieren, geht ja jetzt immer besser schon, dass man Lokalsysteme halt auch laufen lässt.

00:33:09: Aber das ist auch wieder, um den Boden mal zurückzuschlagen.

00:33:11: Natürlich ein Punkt, weshalb wir nicht einfach nur XAI oder irgendeine Plattform mit ihren KI-Systemen blämen können, sondern wir müssen halt auch davon ausgehen, dass das in Zukunft einfach auch alles lokal läuft.

00:33:25: Also ich hab paar mal jetzt schon die Stimme gehört, in wenigen Jahren werden wir entsprechende Modelle auf unseren Smartphones laufen lassen.

00:33:33: keine Regulierungsmöglichkeiten mehr oder eben deutlich weniger als jetzt.

00:33:37: im Grunde zu sagen, wir nehmen die Plattformen, die Verantwortung.

00:33:40: Das heißt, die Verantwortung, wie wir KI nutzen, liegt bei uns allen.

00:33:44: Und das ist ganz wichtig, immer wieder auch in sich in den Hinterkopf zu holen.

00:33:48: Wir können es dann nicht auf Strafverfolgungsbehörden lassen oder darauf, dass Unternehmen dafür sorgen, dass KI schon irgendwie rechtskonform eingesetzt wird.

00:33:54: Nein, es liegt an uns, wie wir das Ganze nutzen.

00:33:58: Und Therese, das ist schon gesagt, KI kann durchaus auch richtig gut genutzt werden.

00:34:03: Und auch du, obwohl du betroffen bist von KI Deepfakes, nutzt KI natürlich in produktiven Maße weiter für deinen Job, fürs Studium und... für alles andere.

00:34:13: Vielen Dank für deine Offenheit, dass du hier öffentlich darüber sprichst, was da passiert ist für die kleine juristische Einordnung, vor allem für die Möglichkeiten für Betroffene, für die Anhaltspunkte, wie man Hilfe suchen kann, auch wie man Betroffen unterstützen kann.

00:34:29: Irgendwas als letzte Worte noch von deiner Seite.

00:34:31: Haben wir irgendwas vergessen?

00:34:33: Bestimmt.

00:34:35: Bestimmt haben wir was vergessen, aber ich glaube, wir beide werden über das Thema auch noch häufiger reden und können dann sicherlich noch einiges nachtragen.

00:34:44: Aber sonst hoffe ich natürlich, dass wir auf der politischen Ebene jetzt mal einen guten Umgang damit finden und auch auf der gesellschaftlichen Ebene vielleicht das Thema so ein bisschen entstigmatisieren damit.

00:34:56: Wie das in dem Pelikofall so hieß, die Scham die Seite wechselt.

00:34:59: Also, dass sich nicht mehr die Opfer davon schämen müssen, sondern vor allem die Täter dafür, dass sie so was teilen oder erstellen.

00:35:08: Yes, so sieht es aus.

00:35:10: Vielen Dank, Teresia Krone.

00:35:15: Ja, ich hoffe, wir konnten das Thema in dieser Folge etwas mehr beleuchten.

00:35:20: Wir konnten Einblicke geben, vor allem was man als Betroffene tun kann.

00:35:24: und vielleicht nochmal wirklich der letzte Satz dazu.

00:35:29: Liebe Leute, es ist kein Spaß und kumpelt das nicht weg oder so.

00:35:34: Wenn ihr erlebt, dass so was passiert, dass da Leute sich dran setzen und so was ernsthaft bauen, die gehören zu ihrem Bekanntenkreis, steht ein.

00:35:41: Zeigt Haltung.

00:35:43: Zeigt Haltung, es liegt an uns allen.

00:35:45: Es ist in unserer Verantwortung.

00:35:47: dass dem Einhalt geboten wird, dass das endet.

00:35:49: Und was wir jetzt am Ende dieses Podcast machen können, wie wir es natürlich bei allen Folgen davor auch machen, wir können KI verantwortungsvoll nutzen.

00:35:58: Ihr wisst, die liebe Kollegin KI hat zugehört.

00:36:01: Liebe Kolleginnen, kannst du vielleicht mal die Folge zusammenfassen?

00:36:04: oder besser noch?

00:36:05: Kannst du vielleicht einmal zusammenfassen, was man tun kann, wenn man konkret betroffen ist von Deepfakes?

00:36:11: Sehr gern.

00:36:12: Also, wenn du konkret betroffen bist, erstens, hol dir Unterstützung.

00:36:16: Zum Beispiel bei Hate Aid oder dem weißen Ring.

00:36:18: Zweitens, dokumentiere alles.

00:36:20: Am besten mit Hilfe, damit du dich nicht allein damit belassen musst.

00:36:24: Drittens, erstatter Anzeige.

00:36:25: Auch wenn der Weg steinig ist, es schafft Bewusstsein.

00:36:28: Viertens, sprich mit vertrauten Menschen und tauscht dich aus,

00:36:31: denn du bist

00:36:32: nicht allein.

00:36:33: Und schließlich, vergiss nicht, dass du das Recht auf Unterstützung hast.

00:36:37: Sei es durch Freundinnen, Community oder juristische Hilfe.

00:36:44: So kannst du nämlich auch sein.

00:36:45: Vielen Dank liebe Kolleginnen.

00:36:47: Alle anderen zeigt Haltung.

00:36:49: Das ist vielleicht mein letztes Wort hier.

00:36:52: Vielen Dank fürs Zuhören.

00:36:53: Wir sprechen uns nächsten Dienstag wieder.

00:36:55: Bis dahin.

00:36:56: Ciao, ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.