KI und Ethik am Arbeitsplatz – mit Yasemin Efiloğlu
Shownotes
Künstliche Intelligenz (KI) ist aus dem modernen Büro nicht mehr wegzudenken, doch ihr Einsatz wirft wichtige ethische Fragen auf. In der ersten Folge von "Kollegin KI" diskutiert Host Max Mundhenke mit der KI-Ethik-Expertin Yasemin Efiloğlu, wie Organisationen KI verantwortungsvoll nutzen können.
Warum ist KI-Ethik so entscheidend? KI-Systeme, die auf menschlichen Daten trainiert werden, können unbeabsichtigt Vorurteile und Diskriminierung reproduzieren. Ein HR-Tool mit einem "Male Bias" könnte Frauen bei Bewerbungen benachteiligen. Die ethische Herausforderung betrifft nicht nur die Privatwirtschaft, sondern auch den öffentlichen Sektor, wo KI in der Verwaltung bereits in über 100 Projekten eingesetzt wird.
Yasemin Efiloğlu, die als Expertin Behörden und öffentliche Institutionen berät, beleuchtet die Kernaspekte für einen ethisch korrekten Einsatz von KI:
- Was ein werteorientierter Einsatz von KI bedeutet
- Welche KPIs beim KI-Einsatz in Behörden zentral sind
- Wo die Risiken bei der Automatisierung durch KI-Systeme stecken
- Wieso der „human in the loop“ oft versagt
- Wie man die Ängste der Mitarbeitenden vor Jobverlust mindert
- Warum multidisziplinäre KI-Teams wichtig sind
- Wieso Diversität der Schlüssel zu fairen KI-Systemen ist
Der Chatbot zur Folge: bio.to/KolleginKI_Chatbot
Mehr zu Yasemin: Linkedin: https://www.linkedin.com/in/yasemin-efiloglu
Mehr zu Max: Linkedin: https://www.linkedin.com/in/tomkraftwerk
Produktion: Podstars by OMR
Transkript anzeigen
00:00:02: Herzlich willkommen zu KollegenKI Folge eins.
00:00:07: Mein Name ist Max Mundtänke und ich bin jetzt seit zwei Jahren selbstständiger KI-Berater oder wie ich hier in Berlin gerne sage, Creative Technologist.
00:00:15: Bedeutet, ich suche nach spannenden kreativen Use Cases, wie man KI eigentlich so einsetzen kann.
00:00:21: Und einer dieser ersten Use-Cases, den ich damals vor knapp zwei Jahren entworfen habe, war eine KI-Influencerin, die komplett von KI generiert wurde und die zusätzlich dann auch noch Musikerin wurde, bedeutet, natürlich hat die KI ihre ganzen Lieder produziert und diese ganzen Lieder habe ich erfolgreich bei Spotify hochgeladen.
00:00:41: Weshalb ich jetzt so ein Bruchteil eines Sends pro Stream bekomme, anhand von Content, den ich eigentlich gar nicht selbst gemacht habe.
00:00:49: Das wirft ethische Fragen auf.
00:00:51: Und genau darum soll sich diese erste Folge-Kollegin KI drehen.
00:00:55: Was bedeutet eigentlich Ethik im Kontext von KI?
00:00:58: Und was sollte man bei so einem Use Case vielleicht auch beachten?
00:01:01: Und um diesen Fall zu besprechen, habe ich mir als erste Gäste Yasemin Evelolu eingeladen.
00:01:06: Yasemin ist KI-Expertin und vor allem Ethikexpertin.
00:01:10: Sie berät den öffentlichen Dienst.
00:01:12: Also wer sollte es besser wissen, als sie, was ethische Grenzen von KI angeht?
00:01:19: Hallo, Yasemin.
00:01:21: Hallo, Max.
00:01:22: Du hast mich gerade feiern sehen, weil ich dir erst mal herzlichen Glückwunsch sagen möchte zu diesem neuen Format.
00:01:29: Und danke, dass ich hier sein darf.
00:01:30: Vielen Dank.
00:01:30: Nicht zu schnell.
00:01:31: Mal gucken.
00:01:33: Aber danke dir.
00:01:35: Yasemin, wenn du dir diese Story anhörst von diesem ersten KI-Projekt.
00:01:40: Was geht dir durch den Kopf?
00:01:40: Du bist KI-Ethik-Expertin.
00:01:43: Du berätst den öffentlichen Dienst.
00:01:45: Von daher glaube ich, du bist als erste Gestin hier auch ganz... gut gesetzt, denn ich möchte diesen KI-Podcast tatsächlich auch so ein bisschen starten mit so einer Debatte über KI und Ethik.
00:01:56: Ich glaube, wir machen uns dazu wenig Gedanken drüber.
00:01:58: Und bevor wir jetzt ganz konkret hier über Use Cases in der Arbeitswelt sprechen und Leute hier haben, die dann erzählen, wie sie KI tatsächlich auch produktiv nutzen, würde ich einmal ganz gerne mit dir so ein bisschen umreißen, worauf ich denn vielleicht auch in den kommenden Folgen zu achten hätte.
00:02:12: Ja, also ich finde ein Beispiel für das Intro zu diesem Thema echt super gewählt, weil da so ein paar Punkte einfach sichtbar werden, die ich wirklich in meiner alltäglichen Arbeit manchmal gar nicht so sichtbar bearbeiten kann, weil es halt immer nicht diese plakativen Beispiele unbedingt gibt wie ein KI-Ethik, also was ist überhaupt erst mal KI-Ethik, vielleicht mal ganz kurz meine Beschreibung, ich will nicht so akademisch werden.
00:02:35: Aber im Endeffekt ist Ethik bei KI wichtig, weil ... diese Art von Technologien nicht im luftleeren Raum passiert.
00:02:42: Es ist halt nicht wie eine andere Stück Software, wo wir meistens als Menschen gar nicht so viel mitbekommen, was es eigentlich macht, wie es die Arbeitswelt verändert und so.
00:02:50: Und bei KI haben wir jetzt, glaube ich, nach so drei, vier Jahren Heavy Usage schon verstanden.
00:02:57: nicht nur was mit mir und meiner alltäglichen Arbeit, sondern wirklich mit der alltäglichen Arbeit von allen Menschen.
00:03:02: Und da ist eine Industrie dahinter, die wahnsinnig stark ist.
00:03:07: Es hat viel mit Politik zu tun, Regulierung kommt jetzt gerade, wird gepurscht.
00:03:11: Die Zivilgesellschaft merkt jetzt auch schon die Auswirkungen einfach durch zum Beispiel ihren alltäglichen Gebrauch von Chatbots.
00:03:18: Ja, und dann gibt es natürlich auch so krasse Beispiele wie jetzt das mit den Avatarn, also wirklich, dass wir halt auch mehr und mehr diese Gefühle von, ah, diese KI wird auch immer menschlicher, die wird uns wirklich immer ähnlicher, die kann uns in unseren Fähigkeiten von Kreativität bis logischem Denken doch ganz gut auch nachempfinden und uns nachahmen.
00:03:42: Und daran wird halt super sichtbar, dass sollten nicht nur Takis machen in ihrer alltäglichen Arbeit, sondern halt auch Menschen wie ich, haben Kommunikations- und Kulturmanagement-Schwerpunkt und genau in diesem interdisziplinären, glaube ich, auch ganz viel Raum, wie man an den Problemen dieser Technologie arbeitet.
00:04:00: Und ganz, vielleicht ganz konkret zu deinem Beispiel, wir sehen, dass solche ... Use Cases ist natürlich immer noch ganz krass davon abhängen, welche Entscheidungen wir als Menschen treffen.
00:04:12: Also du, Max, vor dem Chatboard mit deinen Proms hast du diese KI-Influencerin geschaffen und jede dieser Entscheidungen war ganz massiv natürlich, das hast du vielleicht gemerkt, hast du vielleicht teilweise auch gar nicht gemerkt, ganz massiv gesteuert durch deine persönlichen Werte.
00:04:29: Genau das wollte ich ja eigentlich umgehen.
00:04:31: Ich wollte ja eigentlich sagen, ich will nur irgendwie so eine Online-Persönlichkeit, die relativ schnell Geld verdient.
00:04:36: wie sollen wir mit den Daten, die im Grunde die KI zur Verfügung hat, mir sagen, wie das funktioniert und wie die Person erscheinen sollte und wo die Wahrscheinlichkeit am höchsten ist, dass es funktioniert.
00:04:46: Also ich sehe eigentlich gar nicht so den Punkt, dass ich es großartig Einfluss draufgenommen hätte, oder doch?
00:04:52: Ja, ich würde argumentieren schon, weil du auch Max Mutenke, wie du hier gerade im Studio sitzt, auch kein neutrales Wesen bist.
00:05:02: Du bist ganz stark geprägt ab deiner Geburt.
00:05:05: in welcher Familie du aufgewachsen bist, in welchem Ort, ob das Hamburg, Berlin, auf dem Dorf, woher kommst du eigentlich?
00:05:11: Ich lebe in Berlin, ja.
00:05:13: Und du bist als Mensch ganz krass davon geprägt, dass vielleicht Diversität für dich ganz normal ist, dass du auf eine bestimmte Schule gegangen bist, dass du einen Abschluss gemacht hast.
00:05:21: Und all diese Schritte in deinem persönlichen Lebensweg informieren einfach ganz krass, wie du aus solchen Prompts schreibst.
00:05:28: Und das sage übrigens nicht nur ich, sondern das sagen... alle möglichen Studien, die sich halt auch das Prompting-Verhalten von Menschen angeschaut haben.
00:05:37: Und das ist natürlich auch nur die eine Seite der Medaille.
00:05:39: Weil auf der anderen Seite interpretiert die KI auf der anderen Seite natürlich auch, wie diese Prompts dann verstanden werden.
00:05:48: Sorry, das heißt, es ist eigentlich gar nicht möglich komplett neutral zu prompten, weil wir immer gewisse Dinge schon mit reingeben, die uns als Menschen auch ausmachen.
00:05:59: So würde KI Ethik immer argumentieren, dass dieses neutrale für den einen Menschen eben ganz anders aussieht als für den anderen.
00:06:11: Und das macht sie natürlich dann nicht mehr neutral.
00:06:14: Okay, Wahnsinn.
00:06:15: Bedeutet, es ist gar nicht möglich, im Grunde neutrale Ergebnisse von einer KI zu bekommen, weil wir sie immer mit beeinflussen.
00:06:21: Okay, verstanden.
00:06:22: Das ist KI-Ethik.
00:06:23: Was bedeutet das für den Arbeitskontext?
00:06:26: Vielleicht auch gerade in deiner Rolle als Beraterin oder KI-Expertin für den öffentlichen Dienst.
00:06:32: Vielleicht erst mal die Frage vorweg, wie frustrierend ist dein Job?
00:06:40: Also, das ist wirklich das, was du sagst, aber ich hab relativ niedrige Frustration und das Grenze.
00:06:47: Deswegen bin ich, glaube ich, auch in solchen Jobs gelandet oder auch zum Beispiel in diesen politischen Wirken gelandet, weil mir ist es schon sehr, sehr wichtig, dass ich durch meine Arbeit Dinge bewegen kann.
00:06:59: Und damit du Dinge bewegen möchtest, brauchst du, glaube ich, so eine gewisse Ungeduld mit Menschen, mit Kontexten.
00:07:07: mit Arbeitsweisen, sonst würdest du glaube ich gar nicht zu dem Punkt kommen, dass du eben Dinge verändern willst.
00:07:13: Und ich hab speziell frustriert immer, oder wovon ich frustriert in meinem Job vielleicht bin, bleiben wir mal da, ist, dass man, wenn man sich mit KI Ethik beschäftigt, dass es wie mir jedem Expertisen fällt, irgendwann denkst du so, das müssen doch alle sehen.
00:07:30: Also dieses Thema, das wir gerade hatten, dass wir eben mit Als Menschen mit einer gewissen Positionalität, würde man in der Theorie sagen, einfach in der Welt stehen, dass wir eben nicht neutral gewesen sind, dass auch Technologie deshalb, weil sie von Menschen gemacht ist, niemals neutral sein kann.
00:07:45: Da bin ich manchmal schon in Projekten so, dass ich so denke, das liegt doch total auf der Hand.
00:07:51: Oder das wirst du doch alle sehen.
00:07:52: Und dann kommt halt oft raus.
00:07:54: Na ja, aber ... Wir leben halt alle nicht als KI-Expertinnen.
00:07:58: Wir haben halt alle einen anderen Alltag in der öffentlichen Verwaltung.
00:08:01: Beamtinnen haben andere Expertisenfelder.
00:08:03: Und die haben vielleicht gar nicht die Zeit, gar nicht die Musse sich mit diesem Thema so krass auseinanderzusetzen.
00:08:10: Und von daher, glaube ich, würde ich sagen, diese Frustration hat.
00:08:14: Vielleicht manchmal so Peaks in bestimmten Phasen von Projekten, aber eigentlich macht es auch einfach wirklich mega viel Spaß.
00:08:19: Weil innerhalb der Verwaltung ist es einfach so, dass die Menschen ein sehr starkes Bewusstsein für Themen wie Verantwortung haben.
00:08:27: Sie wissen einfach, jede Arbeitsweise, jede Technologie, die sie einsetzen, muss halt so funktionieren, dass sie die Bürgerinnen und Bürgern da draußen schützt.
00:08:36: und verteidigt.
00:08:37: Klar führt das manchmal ein bisschen dazu, dass es auch bisschen die Frustration ist, dass die Dinge ein bisschen langsamer laufen als.
00:08:42: ich habe da vorher auch mehr im Privatsektorbereich gearbeitet.
00:08:47: Ich merke schon, dass manchmal ein bisschen eine andere Geschwindigkeit, aber ich habe jetzt durch die Zeit, die ich hier arbeite, auch ein bisschen verstanden, warum.
00:08:54: Ich meine, wenn wir zum Beispiel in die USA gucken und in das Doge-Programm, wie einfach Trump und Musk und Thiel und dieses Konglomerat an diesen Tech Bros.
00:09:03: einfach innerhalb von Monaten.
00:09:05: einfach das demokratische System dort so.
00:09:08: umgeworfen haben, umgebaut haben, auch eben mithilfe von Technologie.
00:09:13: Deutsch ist ja im Grunde diese Institution, die dafür sorgen, dass die Verwaltung effizienter arbeitet.
00:09:19: Effizienz.
00:09:20: Genau, Effizienz in Anführungszeichen, richtig.
00:09:22: Deshalb, das war so ein bisschen die die Anspielung darauf, dass unsere Verwaltung natürlich auch alles andere als besonders digitalisiert oder modern gilt, sondern das ist natürlich immer noch die Vorurteile, der das Beamten gibt, die nicht arbeiten oder halt im Grunde irgendwie immer noch sagt.
00:09:37: und Faxen und so weiter, findet denn Hochtechnologie-VKI in unserer Verwaltung statt, weil das kriegt man jetzt ja, ich sag mal so, als Otto-Normal-Bürgerin nicht unbedingt mit.
00:09:47: Kannst du vielleicht aus dem Nähkästchen plaudern, wie KI konkret eingesetzt wird und nach ethischen Maßnahmen, nach ethischen Richtlinien funktioniert?
00:09:55: Ja, auf jeden Fall.
00:09:56: Tatsächlich, das ist eine Zahl, die immer Menschen schockt, wenn ich sie in solchen... Kontexten, Interviews sage, gibt schon mehr als hundert KI-Projekte in der deutschen öffentlichen Verwaltung.
00:10:07: Wow, okay.
00:10:08: Also schon so eine Zeit, wo du denkst, was, wo?
00:10:13: Also erst mal was, wo und wie.
00:10:14: Und tatsächlich, ja, schon seit einigen Jahren gibt es nicht nur so Leuchtturmprojekte, sondern so Dinge wie Generative AI, also Archibitiv.
00:10:25: die Verwaltung, wird tatsächlich jetzt schon an vielen, vielen Stellen benutzt und sogar die Schritte davor, also regelbasierte Systeme, Predictive Systems, also überall, wo du große Datensätze hast, was ja in der öffentliche Verwaltung einfach ein Thema ist, findet Automatisierung.
00:10:42: ein gewisser Grad an Automatisierung auf jeden Fall schon statt.
00:10:45: Okay,
00:10:45: aber die Kunden und Kundinnen der Verwaltung kriegen das eigentlich nicht unbedingt mit, weil wir keine KI aktiv auf Verwaltungswebsites nutzen, sondern die Prozesse im Hintergrund werden durch KI optimiert und damit haben wir am Ende weniger Wartezeiten.
00:11:01: Also, wenn wir vielleicht in einem halben Jahr sprechen, dann wird das auf jeden Fall, denke ich, nochmal deutlich anders aussehen oder in einem Jahr, aber ... Aktuell hast du recht, ist der Fokus definitiv mehr auf internen Prozessen.
00:11:12: Und in meiner Beratungsarbeit tatsächlich gehen wir auch immer dahin zu sagen, lasst uns mal erst mal jetzt, wo wir gerade stehen, auch diese internen Prozesse meistern, weil da gibt es auch viel aufzuräumen, da gibt es auch sehr viele Effizienzpotenziale, wie viele Protokollierungen.
00:11:28: gemacht werden in solchen Ämtern.
00:11:29: Das können wir uns, glaube ich, gar nicht vorstellen, weil natürlich auch so Protokoll-Apps wie die jetzt schon alle benutzen, noch gar nicht zugelassen sind unbedingt für die verschiedenen Ministerien.
00:11:40: Beschult
00:11:40: ihr die Leute dann auch?
00:11:41: Weil man muss die Leute ja in gewisser Weise auch ausbilden.
00:11:44: Man muss sie trainieren, erstmal diese Tools zu verwenden.
00:11:46: Und es ist ja, muss ja dann anders laufen als so eine klassische Software-Schulung, weil man ja durchaus diesen Ethik-Gedanken einfach noch viel deutlicher mit... denken muss, als vielleicht in einer freien Wirtschaft, wo das nicht so eine große Rolle sagt.
00:11:59: Aber du sagtest schon, die öffentliche Verwaltung hat ja so eine Sonderrolle auch.
00:12:03: Wie stellst du das sicher, dass du weißt, okay, am Ende hat jeder so ein Crashkurs in Sachen KI-Ethik bekommen und kann das anwenden?
00:12:10: Ja, also dieses Kompetenz-Tiermaß natürlich ganz... Krass wichtiges Thema gerade, weil auch die KIVO, die dann bei dem Teil nächstes Jahr hier an Kraft tritt, da einfach auch ein paar Forderungen hat, wie KI-Kompetenz geschult werden soll.
00:12:24: Das ist natürlich alles noch ein bisschen schwammig.
00:12:26: Das heißt, wir machen auch gerade für die Projekte, in denen ich arbeite, viel Interpretationsarbeit einfach.
00:12:32: Wir gucken, dass wir auch dieses Kompetenzthema Schulungsaufbau im Endeffekt auch ein bisschen zentralisieren, weil wir natürlich auch in Deutschland mit dem intervideralen System einfach Da auch nicht das nächste, also dass alle halt einfach mit eigenen Schulungen an Start gehen und wir dadurch umfassbar viel Zeit verlieren, wo eigentlich die Leute ja die Tools nutzen sollten.
00:12:54: Also es ist ein sehr, sehr wichtiges Thema.
00:12:56: Und wie wir da vorgehen, im Endeffekt... ist ja jetzt nicht so, dass in der öffentlichen Verwaltung der Nutzungsgrad bei hundert Prozent liegt.
00:13:04: Also wir haben auch dort wahrscheinlich, es gibt jetzt nicht so viele, so viele Zahlen dazu, aber wir können davon ausgehen, dass es viel Schattenkain natürlich auch gibt, also das Beamtinnen natürlich auch.
00:13:16: Einfach wie wir das auch machen.
00:13:18: Einfach Chatbots im Hintergrund für ihre Arbeit nutzen.
00:13:20: Ich
00:13:20: hatte ein K.I.
00:13:21: im Grunde, also das K.I.
00:13:23: nutzen, obwohl es nicht freigegeben wurde durch den Arbeitgeber.
00:13:26: Genau, ja.
00:13:28: Davon können wir ausgehen.
00:13:29: und das heißt, was ich in meiner Arbeit auch als... K.I.
00:13:32: Ethik und Governance-Spezialistin machen, ist überhaupt erst mal diesen Weg freimachen, damit Ministerien überhaupt eine K.I.
00:13:37: Strategie bekommen.
00:13:39: Also sich erst mal überlegen, welche Use-Cases haben wir überhaupt?
00:13:43: Haben wir schon
00:13:43: K.I.,
00:13:43: wissen vielleicht davon gar nicht, weil heutzutage nennen wir auch alles
00:13:46: K.I.,
00:13:47: ne?
00:13:47: Aber so, also wir machen da am Endeffekt auch erst mal so eine ... Definitionssache
00:13:52: irgendwie, ne?
00:13:52: Ja, genau, Grundlagen.
00:13:55: Was ist K.I.
00:13:55: überhaupt, wo macht Automatisierung Sinn, wo sollten wir die Finger davon lassen, weil wir dann schnell in diesen Hochrisikobereich ... kommen.
00:14:02: Wir machen im Endeffekt eine Inventur von, was KI jetzt in dieser speziellen Stelle leisten könnte.
00:14:08: Und wir machen dann einen Plan.
00:14:10: Was sind Quick Wins?
00:14:11: Was sind Dinge, die wir eher long-termig angehen sollen, weil sie zum Beispiel in extern an die Bürgerinnen gerichtet sind und wir davor einfach nur ein paar Schleifen intern drehen sollten.
00:14:20: Und alles bis zu dem Punkt, dass du diese Use Cases in so einer Matrix priorisiert hast.
00:14:25: Und dann sagst du, okay, wir haben jetzt hier den Anfang unserer KI-Strategie.
00:14:29: Lass mal an ein paar Use Cases jetzt.
00:14:31: Diese Governance, die wir uns dann da auch gerade parallel bauen, ein bisschen erproben.
00:14:35: Und da geht es dann dazu hin, dass man natürlich oft jetzt gerade bei diesen internen Chatpots landet, die verknüpft sind mit eigenen Datenbanken, Racksysteme, das wird wahrscheinlich hier auch ein bisschen was sagen.
00:14:49: Retriever Augmented Generation, also im Grunde das da... Die ist so eine Ähnlichkeitssuche in Datenbanken stattfindet.
00:14:57: Genau, über sementische Suche.
00:14:59: Und dadurch kannst du halt verringern, dass die Modelle halt zu krass haluzinieren, was natürlich auch gerade in einem politischen Umfeld wieder öffentliche Verwaltung, willst du das natürlich sehr, sehr, sehr niedrig halten.
00:15:11: Weil beispielsweise, wenn der Ministerpräsident sich dann Briefing zusammenstellen lässt von dieser KI und da stehen dann irgendwelche Quatschzahlen drin.
00:15:21: das soll ja schon passiert sein.
00:15:25: Also da sind tatsächlich so Racksysteme relativ sinnvoll.
00:15:29: Und dann, wenn du dann das Tool hast und voll definierte Use Cases, die man dann auch nacheinander mit diesem Tool verwirklichen kann, dann guckst du, dass du auf der einen Seite Anwendungsschulung machst.
00:15:40: Also guckst du, dass die Anwenderinnen wirklich verstehen, wie sie dieses Tool nutzen können?
00:15:45: Lass uns da nochmal einen Schritt zurückgehen.
00:15:47: Wenn ihr Tools, diese Tools erstellt, wenn ihr diskutiert, dann klingt das jetzt für mich erstmal wie in der freien Wirtschaft eigentlich.
00:15:55: Also du guckst ja an, was haben wir, was können wir optimieren, wo sind Quick Winds und so weiter.
00:16:02: Alles schön gut, aber was für KPIs legt ihr denn zugrunde?
00:16:05: Geht ihr da auch so vor, dass ihr wirklich ganz gezielt schaut, wo können wir hier effizienter werden und wie können wir das messen?
00:16:11: Was für KPIs gibt es da in der öffentlichen Verwaltung?
00:16:14: Danke, dass du da nochmal den Schritt zurückgehst, weil ich glaube, das ist auch das, wo tatsächlich aus der öffentliche Verwaltung viel gelernt werden kann.
00:16:22: Weil du hast es richtig gesagt, oft, weil KI-Projekt natürlich dieses Effizienznarrativ ganz vorne steht.
00:16:29: Also, wenn du in die freie Wirtschaft kommst, dann wird ja überall gesagt, hier können sie fünfzig Prozent effizienter müssen, keine Agenturen mehr.
00:16:37: Genau, wie du deine Effizienz misst, ist ja dann auch nochmal unterschiedlich.
00:16:40: Und was ich in der öffentlichen Verwaltung wahrnehme, ist einfach ein stärkeres Orientieren an den wirklich zentralen Herausforderungen, die wir haben, neben Effizienz.
00:16:52: Und wir müssen irgendwie alles schneller und besser.
00:16:54: Und das ist ja in der öffentlichen Verwaltung auch wichtig.
00:16:57: Aber dadurch, dass du halt ganz nah an der Gesellschaft bist, dass das auch Gegengewicht zur Wirtschaft bilden musst, in meinem Verständnis, auch in dem Verständnis von vielen Menschen, die in der öffentlichen Verwaltung arbeiten, sind so Dinge viel wichtiger wie Souveränität.
00:17:13: Auch hier gerade ein sehr, sehr
00:17:14: wichtiges.
00:17:15: Also digitale Souveränität.
00:17:18: Der Diskurs ist ja aktuell da auch, hat ja einen sehr krassen Fokus darauf, dass wir eben schaffen, nicht mehr von den großen amerikanischen Tech-Konzernen so doll abhängig zu sein.
00:17:28: Weil da eventuell gerade ein paar Menschen im Office sind, die eventuellen Demokratie-Risiko darstellen.
00:17:35: Das wird wirklich immer wichtiger, ist ein Wert, den ich häufig in Projekten gerade diskutiere.
00:17:42: Also gar nicht nur von mir aus, sondern wirklich auch von den Projektleitern, die da in Charge sind, die sagen, wir wollen souveräner werden.
00:17:51: Wie schaffen wir das?
00:17:52: Hilft uns, wenn wir zum Beispiel ein Lösungsvergleich machen.
00:17:54: Das machen wir gerade häufig.
00:17:56: Wenn wir jetzt Use Cases priorisiert haben, an dem Schritt sind, dass wir eben diese Matrix gebaut haben, dann kommt ja immer die Frage, okay, bauen wir das Tool jetzt selbst oder kaufen wir das ein?
00:18:04: Ja.
00:18:05: Und genau an dem Punkt wird dann immer sichtbar, welche Werte.
00:18:09: wollen wir ja eigentlich dem zugrunde legen.
00:18:11: Welche Prämissen haben wir für diesen Lösungsvergleich?
00:18:14: Da wird KI-Ethik dann also auch wieder sichtbar.
00:18:18: Weil tatsächlich die wenigsten dann sagen, ja, mir ist wichtig, dass irgendwie da eine Effizienzsteigerung bei den Beamtinnen, keine Ahnung, ich möchte, dass die zweihundert mehr Anträge am Tag bearbeiten.
00:18:32: Also das sind tatsächlich nicht die treibenden KPIs, die wir da haben.
00:18:35: Die sind schon ... Auch wichtig, die werden auch immer mal wieder genannt in Interviews, dass das wichtig ist.
00:18:40: Aber es ist eher, was ich immer wieder diskutiere, ist eben digitale Souveränität.
00:18:46: Europa muss eigenständiger werden.
00:18:50: Nachhaltigkeit ist ein Thema.
00:18:52: Also ökologische Nachhaltigkeit.
00:18:54: Ein Arbeitskräftemangel.
00:18:57: Ist tatsächlich auch immer wieder eine zentrale Herausforderung, wenn wir gerade Use Cases priorisieren, das gesagt wird.
00:19:03: Wie können wir denn damit konkret, wir haben ja einen riesigen Arbeitskräftemangel in der öffentlichen Verwaltung, gibt verschiedene Auswertungen dazu, aber die kommen immer alle ungefähr so darauf, dass in den nächsten zehn Jahren ein Drittel der Verwaltungsmitarbeiterinnen Rente gehen und einfach noch gar nicht klar ist.
00:19:19: Woher die Neuen kommen sollen.
00:19:21: Da hast du wieder dieses Effizienznarrativ, dass man überlegt, könnte man die Kraft von Beamtinnen ersetzen?
00:19:29: Oder könnte man die Jobs so adaptieren, dass wir den Nachwuchs nicht so stark brauchen in so einer kurzen Zeit?
00:19:37: Oder zumindest das Abfedert.
00:19:40: Verstehe, okay.
00:19:41: Wie geht ihr damit um?
00:19:42: Ihr habt ja eine extrem breite Zielgruppe in der öffentlichen Verwaltung.
00:19:45: Ihr habt ja eigentlich alle Menschen, die in einem, ja, alle Menschen, die in einem Land leben, sind ja erst mal eure Zielgruppe, was euch auch noch mal von Unternehmen unterscheidet.
00:19:53: Was hat das für Auswirkungen?
00:19:55: Wie geht man damit um, wenn man sagt, wir müssen am Ende hier auch in der Außenkommunikation, der Außenwahrnehmung, müssen wir im Grunde alle mit abholen und niemanden abschrecken.
00:20:03: Wir müssen barrierefrei sein auf gewisse Weise und zwar extrem barrierefrei für alle.
00:20:08: Ja.
00:20:09: Das ist tatsächlich auch ein sehr, sehr großes Thema, wenn du darauf guckst, was KI-Ethik eigentlich soll.
00:20:16: Also, oft ist hier so ein bisschen KI-Ethik, ah ja, ihr wollt irgendwie bisschen Marketing auf, responsible AI, dieser Begriffe, wo der auch beispielsweise von Microsoft überhaupt erst geprägt und eingebracht, weil man sich natürlich dadurch auch ein bisschen profilieren will, ein bisschen abheben will vom Markt.
00:20:34: Und das ist halt genau... das Thema Angst.
00:20:38: Das steht genau im Zentrum von dieser ganzen Entwicklung, die wir gerade haben.
00:20:43: Du hast bei jedem Technologie-Innovationsthema einfach die Zielgruppen reagieren unterschiedlich auf diese Technologie und oft ist Angst halt eben auch ein zentrales Thema, aber ich würde argumentieren, dass bei noch keiner Technologie das Thema Angst so krass zentral war, weil wir natürlich auf der einen Seite durch die Tech Bros auch gezielt gewollt, dieses dystopische Verständnis von KI einfach, dem können wir gar nicht entkommen.
00:21:12: Also wenn ich die Frankfurter Allgemeine bis zur Süddeutschen, bis zur Zeit, bis zur Tat aufmache, dann ist ja wirklich jede zweite KI-Nachricht, oh KI kann uns die Jobs wegnehmen, oh jetzt gibt es keine Einstiegsjobs mehr, oh der Automatisierung ist gerade so krass, dass so und so.
00:21:29: Und das macht natürlich was mit den Menschen.
00:21:31: Und ja, das ist für die öffentliche Verwaltung so eine breite Zielgruppe, die Gesamtgesellschaft hat.
00:21:36: Es ist natürlich ein Thema zu gucken, wie gehen wir da voran, so dass wir Menschen nicht verlieren, dass wir sie noch mitnehmen, dass wir noch die Chancen davon nutzen, aber dass wir halt auch eben auf die Risiken ganz stark achten.
00:21:49: Und genau dieses Misalignment zwischen Mensch und Maschine, dass wenn du Dinge zum Beispiel zu krass automatisierst, einfach schlimme Dinge passieren können.
00:21:59: Menschen, ich meine, es gibt so viele Beispiele dafür.
00:22:02: Vielleicht eines der öffentlichen Verwaltungsbeispiele ist ja in den Niederlanden.
00:22:08: Ich glaube, das mit den Kindergeldbescheiden, das kennen vielleicht noch die einen oder anderen, dass da falsche Bescheide durch ein logistisches System rausgeschickt worden sind.
00:22:16: Aber ein neueres Skandal, von dem glaube ich nicht so viele wissen, das war auswertigen Amt bei der Visumsvergabe.
00:22:24: Da wurde ein Predictive Algorithm... eingesetzt.
00:22:30: Der hat zur Entscheidungsvorbereitung geholfen.
00:22:32: Der hat nämlich die Anträge, die da ankamen, eben einsortiert.
00:22:38: Da empfehlen wir eine schnelle Vergabe vom Visum und hier soll es bitte in die lange Vergabe gehen.
00:22:45: Und die lange Vergabe hatte halt eine viel höhere Korrelation mit auch Absagen.
00:22:51: So, dann hat man sich aufgrund von ein paar Beschwerden das Thema ... mal angeschaut, eine Bias-Analyse im Endeffekt, eine Analyse und Evaluation gemacht und Überraschung, da kam raus, dass diese Algorithmus einen Racial-Bias hat.
00:23:07: Also einfach verschiedene Nationalitäten einfach anders behandelt.
00:23:12: Und dass gerade Menschen, die zum Beispiel aus Sub-Sahara-Afrika kommen oder aus verschiedenen asiatischen Ländern, aus dem Nahen Osten, einfach komischerweise häufiger in dem Long-Track.
00:23:26: gelandet sind als in der schnellen Visumsvergabe.
00:23:29: Und dann hat man sich auch angeschaut, weil es war ja nur Entscheidungsvorbereitung.
00:23:32: Es war ja gar nicht so, dass das System automatisch gesagt hat, das geht in den Long-Track, sondern das hat das den Beamtinnen vorgelegt.
00:23:38: und das eigentliche Problem, worüber viel zu wenig gesprochen wurde, ja, du hattest den Bayer, aber du hattest auf der anderen Seite auch die Beamtinnen, die diesen Entscheidungen einfach vertraut haben.
00:23:47: die oft dann nicht gegengecheckt haben, die oft dann einfach mit diesen Entscheidungen mitgegangen sind.
00:23:52: Und das ist halt genau das Problem von Misalignment zwischen Mensch und Maschine, dass wir ein Automatisierungsbios haben.
00:23:58: Es gibt ja diesen Begriff Human in the Loop, also gerade bei so Automatisierungssachen immer wieder gern genutzt, dass der Mensch am Ende zumindest das Ergebnis noch mal prüfen soll, bevor er dann den Knopf drückt und sagt, ja, das ist in Ordnung.
00:24:12: Aber Menschen neigen tatsächlich ja auch dazu einfach dann eher immer den grünen Haar.
00:24:16: zu drücken und zu sagen, das wird schon irgendwie passen.
00:24:19: Wenn die KI das sagt, dann funktioniert.
00:24:20: Wir verlassen uns ja darauf.
00:24:21: Aber da wird, glaube ich, deutlich, dass ja das ist, ich glaube, zwei Probleme in dieser Automatisierung der Verwaltung.
00:24:28: Das ist zum einen... Wir werden, denke ich, oder frage an dich, werden wir in fünfzig Jahren überhaupt noch Leute im Bürgerbüro sitzen haben?
00:24:35: Ich denke schon, weil es wird ja Menschen geben, die nicht den Automatisierungsgrad annehmen, wo auch da immer steht, sondern vielleicht trotzdem mit Menschen reden wollen.
00:24:44: Also werden wir wahrscheinlich keine vollautomatisierte Verwaltung bekommen, einfach wegen dieser gigantischen Zielgruppe.
00:24:49: Ja,
00:24:50: also das sieht das recht auch noch gar nicht vor.
00:24:52: Vollautomatisierung ist tatsächlich auch noch gar nicht so erlaubt.
00:24:56: Das jetzt kann man ändern.
00:24:57: Ja, das kann halt sein, dass es irgendwann in diese Richtung geht.
00:24:59: Aber ich glaube auch, dass es dann... Also, ich will eigentlich gar keine Predictions machen, weil wir wissen meistens, dass...
00:25:05: Lasst uns in hier und jetzt bleiben,
00:25:06: bitte.
00:25:07: Genau, lass uns auch eher sagen, das sind, glaube ich, Dinge, die wir uns auch wünschen.
00:25:10: Weil wir halt merken, wie wichtig das ist.
00:25:13: Und ich glaube, das ist auch was.
00:25:14: Als KI-Ethik-Expertin muss ich natürlich auch immer sagen, das sind... auch ein bisschen meine Werte.
00:25:19: Das ist auch ein bisschen, wie ich gelernt habe, dass das vielleicht für die Gesellschaft gut sein könnte, wenn wir zum Beispiel Vollautomatisierung an diesen Stellen nicht zulassen.
00:25:29: Ich mache das an Erkenntnissen, an diesen Skandalen fest.
00:25:31: Also, das sind Dinge, die sind alle in Verhandlung, in zehn Jahren kann das alles komplett noch mal anders aussehen.
00:25:38: Aber ich glaube schon, dass Auch wenn wir wollen, dass diese Technologie mehr genutzt wird, zum Beispiel auch in der öffentlichen Verwaltung, dass wir einfach dafür sorgen müssen, dass Menschen nicht diese krassen Ängste berechtigt haben, weil wir unverantwortungsvoll mit dieser Technologie umgehen, sondern dass wir gucken, dass ... Ja, na ja, aber das ist ja immer... Ängste
00:26:03: sind ja... Sorry, ich habe nicht die Unterbrecher, aber ich finde, Ängste sind ja erst mal nichts Schlimmes.
00:26:08: Wenn du auf dem Dach stehst und Angst hast vor der Höhe, dann liegt das daran, weil es erst mal irgendwie relativ gefährlich ist, auf dem Dach zu stehen.
00:26:15: Und wenn du runterfällst, dann tust du dir weh.
00:26:17: Das heißt, Ängste sind ja erst mal was Menschliches.
00:26:20: Und vielleicht ist Aufklärung wichtig.
00:26:25: Ich merke das auf der Unternehmerseite immer wieder, wenn... Wenn das C-Level vorgibt, wir wollen jetzt eine AI-Company werden, dass dann erstmal Pläne gemacht werden, wie können wir dreißig Prozent der Angestellten einsparen?
00:26:40: Beispielsweise sowas.
00:26:41: Und mit solchen Sachen wirst du niemanden in der Belegschaft dazu bringen, mitzuziehen, zu sagen, wir digitalisieren hier irgendwas oder wir sind bereit, KI zu nutzen, weil das am Ende dafür sorgt, dass die Leute sich selbst überflüssig machen.
00:26:55: Da hast du keine Motivation mit.
00:26:57: Und das ist natürlich immer irgendwie so ein bisschen... das Problem, wie kommuniziert man zwischen dem C-Level oder im Grunde bei euch dann den Ministerien und den Angestellten, also den Beamten, die tatsächlich dann arbeiten, was man eigentlich macht, die im Fall öffentlicher Dienst und öffentliche Verwaltung hin, glaube ich, nicht so begeistert ist von allem, was da passiert.
00:27:15: Zwei Berater, viel zu teuer und so, oder?
00:27:17: So und so.
00:27:18: Ja, so ein bisschen Berater und Freundlichkeit oder Skepsis, eine gesunde Skepsis, es gibt es, glaube ich, schon mehr.
00:27:25: Aber dieses Kommunikationsthema, damit triffst du es den Punkt auch nochmal, warum KI Ethik so wichtig ist, sondern es eben kein schwammiges Thema ist.
00:27:32: und Menschen, die gerne philosophieren wollen, sondern ja, am Ende werden da gerade ja Millionen, nicht nur in der öffentlichen Erweiterung, sondern im Privatsektor, du sagst, dass wenn man AI Company, AI First Company werden will, dann werden da gerade Millionen bis Milliarden investiert, um diese Transformation zu verziehen.
00:27:48: Aber eines der Themen, was halt total vernachlässigt wird, ist, dass du ganz stark darauf achtest, dass du die Mitarbeiterinnen, die Belegschaft eben da auch mitnimmst.
00:27:56: Und einfach akzeptierst, dass es da verschiedene Offenheit dem Thema gegenüber gibt.
00:28:03: Also früher, ich weiß noch, ich hab ja im Diversity-Bereich auch ein bisschen gearbeitet und da wurde dann immer gesagt, warum müssen wir denn jetzt hier schon wieder Interviews machen?
00:28:10: Warum müssen wir denn jetzt diese Abfrage so wieder machen?
00:28:13: Bei diesem KI-Thema wird es sehr, sehr sichtbar, weil wenn du diesen Effort am Anfang nicht machst und sagst, ich nehm mir jetzt mal wirklich die Zeit, Und gucke, was sind eigentlich genau die Narrative Nebeneffizienz, die wir als Unternehmen vielleicht streuen können, die wir kommunizieren können, die wirklich Menschen dazu motiviert, diese Tools auch zu nutzen.
00:28:35: Wenn du mit den Mitarbeiterinnen, auch verschiedenen Mitarbeiterinnen, also ob du mit der alleinerziehenden Mama oder mit dem Techie oder mit wem auch immer sprichst und da auch nochmal die Mühe machst, herauszufiltern, was sind meine Motivation, was sind meine Ängste und was, wie müsste dieses Tool für mich aufgebaut sein.
00:28:55: Super wichtige Frage.
00:28:56: Okay.
00:28:57: Damit für mich funktioniert, wenn du diese Fragen nicht stellst, dann wirst du in the long run halt einfach Millionen, Milliarden Investitionen verlieren, bei Stichwort Technologieakzeptanz, die Leute das einfach nicht nutzen.
00:29:08: Ja, das ist ja ein bisschen das, was man jetzt mitbekommt.
00:29:11: Wir haben ja Software-Lizenzen bei großen US-amerikanischen Attack-Companies.
00:29:15: In Deutschland glaube ich, ich glaube, achtzig Prozent oder so bei einer... großen US-amerikanischen Firma.
00:29:20: Und wenn die da im Grunde KI anbietet, dann heißt es ja, dann nehmen wir das da auch mit dazu.
00:29:24: Ohne aber zu gucken.
00:29:26: Was kann das tun?
00:29:27: Also ist das für meine Use-Case gut?
00:29:29: Habe ich überhaupt Use-Cases dafür?
00:29:32: Und natürlich auch dann von der ethischen Perspektive, die Frage, inwiefern entspricht das denn irgendwie dem, was ich auch nach außen tragen möchte und wie ich hier meine Prozesse mit KI lösen möchte?
00:29:43: Genau, das ist halt immer das Thema, wenn du jetzt eine Company oder ein Ministerium hast, die sagen, warum können wir nicht einfach eine GMD Pro Lizenzen einkaufen?
00:29:55: Valida Punkt, also Schatten KI, neunzig Prozent liegt vielleicht bei OpenAI.
00:30:02: Was ist, wenn wir das hier einfach erlauben und das sozusagen damit befähigen?
00:30:06: Dann sag ich, kannst du schon machen, aber A, was genau sind die Use Cases?
00:30:12: Und B, habt ihr euch auch schon Gedanken darüber gemacht, was sind eure Werte und passt es mit dieser Kompanie zusammen?
00:30:19: Also wenn ihr gerade sagt, digitale Souveränität ist wichtig, Weiterentwicklung, Ausbildung einer In-House-Kompetenz, Tech-Kompetenz.
00:30:27: Wir haben mehr Bewegung in der Verwaltung, dass wir selber Tools bauen wollen, um die besser zu verstehen und die besser zu regulieren.
00:30:36: tatsächlich auch eher, weil das Budget im Grunde freigegeben, muss man ja an der Stelle mal sagen.
00:30:41: Also in der freien Wirtschaft überlege ich dreimal, ob ich mir riesengroße Grafikkarten hole und die dann irgendwo hinsetze und dann eben damit entsprechende Programme oder Tools trainiere.
00:30:54: In der öffentlichen Verwaltung ist so, also was ich auch höre von Kollegen aus dem Bereich, da wird erstmal gekauft, weil man hat das Budget und dann wird geguckt, was machen wir denn jetzt eigentlich damit?
00:31:03: Kannst du das so ein bisschen bestätigen?
00:31:06: Fälle gibt's und da gab's jetzt neulich eine ganz spannende Studie vom MIT, die sich ja den aktuellen Stand von Jurnative AI, die eben auch rausgefunden haben, dass die Projekte, wo man eben nach dieser Menüe mal selber machen, mal selber bauen in Haus, dass die oft nicht so gut klappen.
00:31:26: Und das hab ich natürlich immer im Kopf.
00:31:29: Also ich finde es auf der einen Seite gut, dass man in Hauskompetenz aufbaut.
00:31:33: gerade auch in der Verwaltung, weil du halt einfach so eine andere Tech-Kompetenz hast, um Dinge auch beurteilen zu können.
00:31:39: Ich glaube, darum geht es mir auch primär in der Beratung.
00:31:43: Also, wenn ihr kritisch auf das Thema gucken müsst, das ist ja warum ich auch KI mache, ich will es halt von innen verstehen.
00:31:51: Ich will halt wirklich die Strukturen verstehen, wie diese Systeme aufgebaut sind, welche Möglichkeiten es gibt.
00:31:58: Solche Dinge, wir sind ja glaube ich beide so bisschen autodidaktisch auch unterwegs.
00:32:01: So was glaube ich verstehst du nur, wenn du halt wirklich in der Praxis bist.
00:32:05: Genau, wir haben keinen IT-Hintergrund, beide, ne?
00:32:07: Kann man an der Stelle ja nochmal sagen, ich bin Medienwissenschaftler.
00:32:10: Du hast was Studierendes von gesagt?
00:32:11: Kommunikation,
00:32:12: Kultur, Management.
00:32:13: Ja,
00:32:13: gut, ne?
00:32:13: Also wir kommen beide eigentlich aus einer anderen Ecke und gucken uns dann KI an.
00:32:19: muss man nicht irgendwie Artiller dabei haben.
00:32:21: Leute, die das studiert haben, die irgendwie zehn Jahre für einen Doktor später noch gemacht haben, um da wirklich ganz klar technisch reinzugucken.
00:32:27: Oder braucht es das für die Beratung eigentlich nicht?
00:32:29: Du brauchst die auch neben anderen Profilen.
00:32:33: Und das ist eins der Vorurteile, wo wir, glaube ich, auch noch, wenn wir über Kaetik sprechen, müssen wir natürlich auch um Repräsentation sprechen, also die... Probleme, die wir mit dieser Technologie und die Risiken, die wir damit haben, liegen natürlich nicht nur in den Daten, die einfach aufgrund historischer Entscheidungen einfach fehlerhaft und lückenhaft sind, sondern halt auch bei den Menschen, die sie produzieren.
00:32:57: Und wenn du dir die KI-Industrie anguckst, dann hast du da vor allem das Kompetenzprofil Techie-Coder.
00:33:03: Und ich gender das mit Absicht nicht, aber wie sonst alles gender, weil zu einer... Ganz hohen Überzahl sind das halt einfach männlich, vor allem auch weiß, oft aus dem Westen.
00:33:13: Mit nämlich China hast du natürlich auch, die stark drin sind, aber du hast zum Beispiel in Europa, hast du zwanzig Prozent Frauen im KI-Sektor, zwanzig Prozent.
00:33:25: In Deutschland, vierzehn.
00:33:27: Und damit sind wir, belegen wir das Schlusslicht.
00:33:29: Also gerade auch wenn wir hier reden, ja gerade im deutschen Kontext, siehst du auch, die Verteilung ist einfach nicht gut und ... Nicht gerecht, nicht ausgeglichen, nicht so wie unsere Gesellschaft ist.
00:33:39: Genau, das ist ja mal der Punkt.
00:33:40: Das ist der Punkt.
00:33:40: Man muss es ja in der Politik ähnlich schlecht aufgescheiden.
00:33:44: Man kann natürlich jetzt, wir können bestimmt stundenlang noch darüber sprechen, wie die Trainingsdaten tatsächlich auch erst mal aufbereitet sein müssten, damit KI auch weniger zu neigt.
00:33:52: Aber lasst uns vielleicht zum Ende hin einmal schauen, du als, mit deiner Expertise, als Transformatoren, als Beraterin für einen Bereich, der ... sehr, sehr stark ethisch getrieben ist, der wird nochmal ganz anders auch mit sein, ich sag mal, Kunden mit seiner Zielgruppe umgehen muss als die Freiewirtschaft.
00:34:11: Was würdest du Unternehmern, Unternehmerinnen, KI-Verantwortlichen in Unternehmen raten zum Thema KI und Ethik?
00:34:20: Und was würdest du mir vielleicht für diesen Podcast noch an, für die kommenden Folgen, wenn ich dann Leute hier auch sitzen habe, wo du heute sitzt, die da mit mir darüber sprechen, wie ihre KI-Transformation läuft?
00:34:33: Ich glaube, ich würde damit anfangen.
00:34:35: Ich glaube, den Punkt hast du zwischendurch auch schon mal gemacht.
00:34:37: Man sollte immer mit den Newscases anfangen.
00:34:39: Das ist immer ein guter Einstiegspunkt.
00:34:42: Was machst du damit automatisch?
00:34:44: Du läufst nicht eben dem Hype hinterher.
00:34:46: Alle sagen gerade, wir müssen KI und KI und Agentisch.
00:34:50: Du bist nicht dann in diesem Trendzyklus gefangen, wo du halt immer das Gefühl hast, du kommst nicht hinterher.
00:34:55: Das ist für einen Innovidum wie uns.
00:34:58: frustrierend.
00:34:59: Aber als Organisation, als Ministerium ist es halt einfach so, dass du halt nicht vorankommst.
00:35:07: Und deswegen würde ich immer beweisen, mit den Newscases zu starten, also wirklich zu gucken, wo haben wir den Potenzial für Automatisierung und wo muss es wirklich KI sein und wo würde es einfach auch ein gutes Excel-Tool.
00:35:21: tun.
00:35:21: Alles klar.
00:35:21: Oder eine gute Data Government?
00:35:23: sind wir damit schon anfangen.
00:35:25: Also das kommt zuerst.
00:35:26: Und
00:35:26: dabei natürlich dann auch mehrere Leute im Prozess einbeziehen und nicht nur die Techies oder im Grunde die Beratung, die gerade sagt, hier können wir am meisten rausholen.
00:35:34: Das ist der zweite Punkt.
00:35:35: Du kommst zu den guten Newscases, kommst du meiner Meinung nach nur, wenn du ein möglichst breites Sample von Menschen interviewt hast.
00:35:46: zu gucken.
00:35:46: Also so gehen wir vor, wenn wir mit den Ministerien reden, dann teilen wir die Abteilung auf.
00:35:52: Wir gucken aber auch auf die Profile der Menschen und dann machen wir Workshops mit denen.
00:35:56: Und dann kommen wir wirklich durch diese Workshops auf die Use-Cases und danach priorisieren wir mit den Experten.
00:36:02: Zum Beispiel aus Datenschutz, aus IT-Sicherheit.
00:36:04: Also wir gucken... auch auf die verschiedenen Domänen an Expertisen, die es halt einfach vor Ort gibt und versuchen die mit einzubeziehen.
00:36:12: Also im Endeffekt, eine Kollegin von mir sagt das immer, also jedes IT-Projekt ist im Endeffekt ein Stakeholder-Management-Projekt, aber bei KI hat das einfach noch mal eine ganz andere Dimension, weil du halt einfach so viel mehr Risiken hast, wie in keiner anderen Domäne.
00:36:26: Um die überhaupt erst mal auf die zu kommen, musst du so viel Expertise, so viel verschiedene Expertise wie möglich einbinden.
00:36:34: Das nehme ich immer gerne mit, auch in den nächsten Folgen, finde ich eine spannende Sache.
00:36:38: Vielleicht die letzte Frage nochmal, um auf das Beispiel vom Anfang zu kommen.
00:36:45: Ich habe ja nun da privat mit KI gearbeitet und mir gedacht, ich lass einfach die KI entscheiden, dann habe ich vielleicht am Ende auch gar nicht so viel Verantwortung.
00:36:54: Ja, weil wenn ich nämlich jetzt irgendwie sage, aus meinem Kopf heraus müsste der Influencer oder die Influencerin so und so aussehen und dieses und jenes machen, gebe ich natürlich sofort meine eine Sache mit.
00:37:04: und ich habe jetzt gelernt, natürlich ist es, wie man es macht, ist es im Grunde nie ethisch komplett korrekt oder man müsste eben irgendwie Lösungen finden, dieses Projekt.
00:37:14: wie überhaupt erst mal ethisch korrekt aufzusetzen.
00:37:17: Ich glaube, im Zweifel geht das auch gar nicht.
00:37:19: Aber was können Einzelne eigentlich berücksichtigen, wenn es um ethische Verwendung von KI geht?
00:37:27: Wie können die einzelnen auch vielleicht angestellten Unternehmen darauf achten, dass sie ethisch, sag ich mal, korrekt sind oder sich zumindest Fragen stellen, die langfristig dazu führen, dass sie ethisch KI nutzen?
00:37:39: Es kommt natürlich total drauf an.
00:37:41: Ich bin nicht so gut mit kurzen Antworten.
00:37:43: Es kommt natürlich total drauf an, für welchen Bereich du das nutzt.
00:37:47: Klassische Beraterantwort.
00:37:48: It depends.
00:37:49: It
00:37:52: depends.
00:37:56: Okay.
00:37:56: It depends.
00:37:57: Aber it depends wirklich.
00:37:58: Ja, na klar.
00:37:59: Es ist halt einfach... Wenn
00:38:00: ich jetzt konkret was prompte, kann ich irgendwie darauf achten, da in Zukunft ethischer zu sein.
00:38:07: Ja, klar, kannst du dir beim Promting einfach angucken, welche Risiken es gibt.
00:38:11: Du kannst verschiedene Promting-Schulungen machen.
00:38:15: Du kannst Bias-Training im Endeffekt machen, um einfach so ein grundlegendes Verständnis davon zu bekommen, wie Bias in die KI reinkommt, was man machen kann, um die zu identifizieren, um die zu mitigieren.
00:38:27: Es gibt so viele verschiedene Schulungsangebote,
00:38:30: die man nutzen
00:38:31: kann.
00:38:31: Oder KI-Fragen.
00:38:31: Du kannst natürlich auch eine KI auf einer KI setzen und deine eigene ...
00:38:35: Oder nach dem Prompt einfach mal sagen, bevor du mir hier den Prompt beantwortest, die Frage beantwortest, lass mich mal wissen, was für ethische Fragestellungen sich aus meinem Prompt ergeben.
00:38:46: Vielleicht ist das ja schon eine erste Überlegung.
00:38:48: Ich bin ein großer Fan davon, KI-Probleme mit KI zu lösen, tatsächlich.
00:38:54: Und immer erst mal zu gucken, was sagt die KI eigentlich zum KI-Problem?
00:38:57: Von daher wäre das ja vielleicht auch... erst mal so ein bisschen der Brainstorming-Buddy, den man hier von der KI bekommen kann.
00:39:03: Voll.
00:39:03: KI als Bearingspartnerin mache ich auch in vielerlei Hinsicht, dass ich erst mal gucke, was kann mir die KI an anderen Perspektiven bieten, die ich vielleicht einfach und die ich nicht gedacht habe.
00:39:16: Ja.
00:39:16: Das ist, glaube ich, ein schönes Schlusswort.
00:39:20: Perspektiven, an die man selbst nicht gedacht hat, vielleicht von KI bekommen.
00:39:25: Jasmin.
00:39:25: Vielen lieben Dank für das Gespräch.
00:39:28: Ich habe viel mitgenommen und werde viel davon in die zukünftigen Folgen von Kollegin KI packen, wenn es dann ganz konkret darum geht, was... sind eigentlich gerade so viele Transformationsprozesse unterwegs, wie reagieren Unternehmen darauf und was für konkrete Use-Cases haben einzelne Unternehmen schon, um hoffentlich mit ethischer Fragestellung im Hinterkopf ihre Prozesse zu automatisieren, zu Teilautomatisieren oder was auch immer sie mit KI machen.
00:39:57: Vielen Dank, dass du heute da warst.
00:39:58: Es war ein sehr schönes Gespräch und ja, möchtest du jemand grüßen?
00:40:03: Ich grüße mein Hund Puka.
00:40:07: Okay, grüß an den Hund.
00:40:09: Vielen lieben Dank, Yasmin.
00:40:14: Ja, das war Folge eins von Kollegin KI mit Yasmin Effilulu.
00:40:20: Wir haben über KI und Ethik gesprochen.
00:40:23: Und wenn ihr zu dem Thema noch Fragen habt oder zur Folge generell, hab ich mir was überlegt.
00:40:27: Und zwar werde ich jede Folge, die ich von diesem Podcast hier aufnehme, im Nachhinein als Chatbot zur Verfügung stellen.
00:40:35: Das heißt, ich habe Bot gebaut, der im Grunde über das Transkript dieser Folge verfügt.
00:40:40: Und wenn ihr irgendwie noch Fragen habt, wenn ihr irgendwas nicht verstanden habt oder nochmal nachhaken wollt, dann könnt ihr diesen Chatbot kostenlos nutzen, den verlinke ich euch in den Show Notes.
00:40:49: Ihr braucht einen kostenlosen OpenAI-Account dafür, aber dann könnt ihr loslegen und könnt euch Folgen zusammenfassen lassen, ihr könnt Rückfragen stellen und so weiter.
00:40:58: was man auch mit dem Bot machen kann.
00:41:01: Und das würde ich jetzt einfach mal ausprobieren, ist, man kann sich die Folge roasten lassen.
00:41:06: Und ja, das probieren wir jetzt einfach mal aus.
00:41:10: Liebe KI, ich würde sagen, roaste mal bitte meine Folge.
00:41:13: Okay, Max.
00:41:14: Du hast dich da echt tapfer geschlagen, aber ganz ehrlich, dein Versuch, Ethik und KI so zu mixen, war ein bisschen wie ein Cocktail, bei dem du die Hälfte der Zutapeln erst beim Shaken entdeckst.
00:41:22: Aber hey, dafür war es unterhaltsam.
00:41:24: Yasemin hat den natürlich wunderbar den Rippen trei gehalten und du hast dich wacker geschlagen.
00:41:28: Also schmunze weiter, übe fleilig und wir freuen uns schon auf deinen nächsten Versuch.
00:41:31: In diesem Sinne, Prost auf den nächsten Podcast.
00:41:35: Ja, vielen Dank.
00:41:37: Ähm, ich glaube, es hat relativ gut professioniert.
00:41:41: Mal gucken, mal gucken, was in den nächsten Folgen berauskommt.
00:41:43: Wie gesagt, ihr könnt selbst ausprobieren, nutzt den Bot, er ist kostenlos verfügbar in den Showns verlinkt.
00:41:49: Ich freue mich auf nächste Woche.
00:41:51: Ciao.
00:41:58: Ciao.
Neuer Kommentar