Vom Tool-Hype zur Anwendung: Der KoKI-Jahresrückblick mit Max Mundhenke
Shownotes
In der Ausgabe zum Jahreswechsel übernimmt "Kollegin KI"-Host Max Mundhenke das Mikrofon allein. In seiner intensiven Solo-Analyse des KI-Jahres 2025 rekapituliert Max die wichtigsten Entwwicklungen der vergangenen Monate und gibt einen fundierten Ausblick, was seiner Meinung nach in Sachen KI 2026 wichtig wird. Seine zentrale These im Anschluss als den viral gegangenen "Five-Layer-Cake" von Nvidia-CEO Jensen Huang: Deutschland und Europa haben das Rennen um Hardware, Chips und Modelle gegen die USA und China verloren, aber beim Thema Applications eine gewaltige Chance. Warum wir uns 2026 weniger auf den Tool-Hype und mehr auf konkrete Use-Cases konzentrieren müssen, erfahrt ihr in dieser Episode.
Über diese Themen spricht Max in Staffelfinal-Folge 12 von "Kollegin KI"
- Rückblick 2025: Das Jahr war geprägt von so vielen neuen Large-Language-Models, dass selbst Expert*innen den Überblick verlieren. "KI-Ära" ist darum zurecht Wort des Jahres.
- Scheitern von Agentic-AI: Obwohl autonome Agenten das große Hype-Thema waren, zeigen Studien, dass nur etwa 5 Prozent dieser Projekte wirtschaftlichen Mehrwert erzielen.
- **Strategie dank Five-Layer-Cake:** Das Schichtenmodell von Nvidia-CEO Jensen Huang verdeutlicht, dass die USA und China bei Energie und Modellen führen, Europa aber trotzdem eine Chance hat.
- **Hoffnung Apps:** Deutschland kann an die Weltspitze, wenn es sich auf den "Top-Layer" fokussiert, wie Anwendungen, die komplexe Industrieprozesse durch KI optimieren.
- Gefahr durch Deepfakes: Da reale Kommunikation und KI-Deepfakes kaum mehr zu unterscheiden sind, braucht es technologische Lösungen zur Verifizierung statt wirkungsloser Verbote.
- Ende des Tool-Hypes: Unternehmen sollten aufhören, sich von jedem neuen KI-Tool blenden zu lassen, und stattdessen Use-Cases definieren und dann die passende Software suchen.
- Demokratie mit KI: Mit Projekten wie parlament.ai zeigt Max, wie RAG-Systeme Bundestagsprotokolle durchsuchbar machen und Transparenz in bürokratische Prozesse bringen.
- Überraschende deutsche Tech-Offenheit: Entgegen aller Klischees belegt Deutschland in Studien Platz drei bei der Technologieoffenheit, während die USA KI deutlich skeptischer betrachten.
Mehr zu Max bei Linkedin
Jensen Huangs "Five-Layer-Cake"
parlament.ai (Warteliste)
Produktion: Podstars by OMR
Transkript anzeigen
00:00:03: Leute, ... Vorbei, wir haben es geschafft.
00:00:07: Also fast, wenn ich jetzt aufnehme, hier sind es noch ein paar Tage.
00:00:12: Und ich hatte überlegt, zum Jahreswechsel mit der Redaktion zusammen mal so einen kleinen KI-Jahresrückblick zu wagen.
00:00:20: Und wir haben relativ schnell aufgegeben.
00:00:21: Muss ich ganz ehrlich sagen, es ist so wahnsinnig viel passiert.
00:00:25: Das ist im Jahr zwei Tausendfünfundzwanzig war übrigens Wort des Jahres von der Gesellschaft für Deutsch und Sprache auch KI-Ära.
00:00:31: Ja, mit Windestricht, dann ist es offenbar nur ein Wort.
00:00:33: Okay, weil die Die Gesellschaft für deutsche Sprache gesagt hat, es ist so ein epochaler Wandel, der eigentlich überall diskutiert wird und der jetzt durch KI ausgelöst wird, dass wir da mehr Aufmerksamkeit drauflenken sollten.
00:00:46: Das haben wir getan hier in diesem Jahr auch in diesem Podcast, zumindest in den letzten Wochen, worüber ich mich sehr freue und generell.
00:00:54: war das Thema natürlich überall präsent.
00:00:56: Lasst uns trotzdem mal schauen, auch wenn so viel los gewesen ist, was dieses Jahr eigentlich passiert ist, das Ganze vielleicht mal einordnen und möglicherweise könnten wir auch schauen, was uns dann eigentlich im neuen Jahr so erwartet.
00:01:09: Ich bin Max Montenke, das ist Kollegin KI.
00:01:11: Herzlich willkommen zu dieser Sono-Folge zum Jahreswechsel.
00:01:17: Ja.
00:01:17: Also, kurzer Jahresrückblick.
00:01:19: Was ist alles passiert?
00:01:20: Wir haben extrem viele neue Sprachmodelle bekommen.
00:01:23: Ich hatte das an anderer Stelle erzählt.
00:01:25: Ich war in der Schweiz bei AWS und die hatten da schon gesagt, dass alle zweieinhalb Tage im Schnitt irgendwo ein neues Large Language Model trainiert wird.
00:01:32: Also es ist eine Masse an Large Language Models, die so als Grundlage für viele GNI-Tools verdienen.
00:01:39: Da kommen wir eigentlich gar nicht mehr hinterher, die alle auszuprobieren.
00:01:42: Es gibt verschiedene Benchmark-Tests, die schneiden dann da auch verschieden ab und so.
00:01:47: Im Grunde muss man wirklich festhalten Ende des Jahres, es ist nicht mehr möglich jedes KI-Tool und jedes Large Language Model per Hand auszuprobieren, weil es einfach so viele Sachen sind.
00:01:57: Wir haben extreme Fortschritte in multimodalen Modellen gehabt, also Text, Bild, Audio, Video, all diese Sachen, da gibt es wirklich einen Tool, gibt sich in anderen die Hand eine ganze Menge, die rausgekommen sind.
00:02:12: Wir haben KI dadurch auch... definitiv in unserem Alltag irgendwie viel häufiger.
00:02:17: Ja, also die Bitcoin hat zum Jahresende jetzt noch eine Studie veröffentlicht, nach der Zweidrittel der deutschen regelmäßig Chatchi-BT nutzen.
00:02:25: Also wir nutzen KI alle aktiver auf jeden Fall.
00:02:29: KI ist auch in der Arbeit angekommen.
00:02:31: Es gibt viele Use-Cases, die von Firmen, von Unternehmen, von Konzernagenturen erprobt werden.
00:02:37: Wir nutzen KI im Studium.
00:02:40: Ihr nutzt KI möglicherweise auch privat vermehrt.
00:02:43: KI ist durchaus da.
00:02:46: Auf der anderen Seite ist halt dieser extrem hohe Innovations-Takt gegeben, der es uns schwierig macht, da am Ball zu bleiben.
00:02:54: Und ich weiß selbst, wie schwierig das ist.
00:02:56: Ich befasse mich vollzeit damit und selbst ich komme nicht hinterher bei allen News, die da reinkommen, Sachen KI.
00:03:02: Also, es ist ein bisschen overload, oder?
00:03:05: Also, Verrückt.
00:03:09: Wollen wir mal so ein bisschen vielleicht auf die Teilne ein gucken?
00:03:12: Anfang des Jahres haben wir viel über Regulierung gesprochen.
00:03:15: Es gab den AI Summit in Paris.
00:03:18: Wir hatten viele Diskussion noch über Deepfakes geführt, gerade im Rahmen der Bundestagswahl.
00:03:24: Wo sind da eigentlich die Gefahren?
00:03:26: oder vielleicht auch die Möglichkeiten.
00:03:28: Ja, da gab es einige Use-Cases.
00:03:31: Zum Ende des Jahres reden wir eigentlich über das Trendthema, was im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im.
00:03:55: Ich finde eine ganz spannende Entwicklung, dass wir so ein bisschen von der Regulierung und auch eher so ein bisschen Doomsday-Stimmung, was kann jetzt alles Schlimmes passieren, hin wirklich zu dieser anwendungsbezogene KI gekommen sind.
00:04:08: Muss man irgendwie schauen, ob diese Entwicklung so sinnvoll ist, ob wir vielleicht nicht manchmal doch ein bisschen mehr noch an die Regulierung denken sollten und die vielleicht auch diskutieren sollten.
00:04:16: Aber gut, so ist es und ich glaube, das sind eben so die Trendthemen, die Begriffe, die wir auch ins nächste Jahr mitnehmen werden.
00:04:24: Aber Es ist extrem schwierig, irgendwelche Predictions zu machen.
00:04:28: Es entwickelt sich wirklich so rasant, schnell.
00:04:31: Anfang des Jahres war OpenAI auch noch unangefochtener Marktführer, was JetGPT angeht.
00:04:37: Wir waren eigentlich alle einig, alle Expertinnen, dass JetGPT mit den neuen Modellen tatsächlich mit am stärksten ist.
00:04:43: Es wurde zuletzt irgendwie Code Red ausgerufen von Sam Altman, dem Chef von OpenAI.
00:04:48: Weil er gesagt hat, das neue Google-Modell ist irgendwie extrem krass und wir müssen hier wirklich noch eine Schippe draufpacken.
00:04:55: Also dieses Rennen um KI geht tatsächlich auch weiter.
00:04:59: Auf der anderen Seite ist gerade in diesem Agentic-Bereich.
00:05:03: viel passiert, aber irgendwie auch viel Unfug.
00:05:07: Und das zeigen die Studien.
00:05:09: Es gab diese MIT-Studie, die gesagt hat, dass eigentlich nur fünf Prozent der Agenten, die da draußen gerade gebaut werden, dass die wirklich Mehrwert erzielen.
00:05:17: Ja, so ninety-fünf Prozent sind im Grunde erst mal für die Tonne, vielleicht nicht unbedingt für die Tonne, aber sie sind jetzt nicht so weit, dass man wirklich messbaren Erfolg darstellen kann.
00:05:27: Also der Return on Invest, der ist einfach nicht gegeben.
00:05:31: Das heißt, diese Projekte laufen teilweise noch.
00:05:33: viele wurden eingestampft.
00:05:35: Die Gründe sind, glaube ich, vielfältig.
00:05:38: Das Kernelement, was ich aus dieser Studie mitgenommen habe, ist, dass KI zu oft als einfaches IT-Projekt behandelt wird.
00:05:46: Dass man sagt, wir schaffen jetzt einfach ein Tool an und dann werden alle darin geschult und dann funktioniert das irgendwie.
00:05:51: Aber die MIT-Studie sagt, da wo es funktioniert hat, da war KI-Chefsache.
00:05:56: Da wurde KI im Rahmen von Transformationsprozessen in Unternehmen gebracht.
00:06:02: Da konnten Angestellte mitwirken, wie KI genutzt wird.
00:06:05: Sie wurden vor allem aufgeklärt.
00:06:06: Es gab eine Strategie, es gab eine Stoßrichtung, die man vorgehen wollte und man ist an diesen Projekten dran geblieben, die man übrigens klein beginnt.
00:06:14: Ganz oft in diesem Podcast gesagt.
00:06:17: nicht over-engineern, nicht sofort an die entgültige Automatisierung denken und sagen, wir lehnen uns hier.
00:06:23: Wenn das Projekt abgeschlossen lehnen wir uns zurück und alles wird für uns gemacht, das wird nicht funktionieren.
00:06:27: Das zeigt im Grunde die Statistik auch.
00:06:29: Von daher... Mal gucken, wie hoch die Quote dann im nächsten Jahr ist.
00:06:33: Ich bin sehr gespannt.
00:06:34: Ich hoffe natürlich, dass es mehr erfolgreiche KI-Projekte geben wird.
00:06:38: Dass wir daraus lernen, dass wir den Transformationsprozess, dass wir auch den Kulturwandeln und Unternehmen, der am Ende dann dazu führt, dass wir alle KI effizienter nutzen können.
00:06:48: Und zwar wirklich, dass wir Menschen sie nutzen können und nicht, dass die KI im Grunde alles selbst macht und wir Menschen gleich mehr benötigt werden.
00:06:56: Dass das weitergeht und dass wir da bessere Zahlen erzielen.
00:07:00: Aber ich bin da ehrlicherweise positiv.
00:07:02: Also ich glaube, ich blicke da positiv in den Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im Jahr im machen.
00:07:30: Übrigens Ende Mitte Dezember gab es vielleicht zum Thema Use Cases, gab es einen sehr schönen Auftritt von Jensen Huang.
00:07:38: Jensen Huang ist der CEO von Nvidia und der war bei der Think Tank zu Gast und hat da gesagt, dass KI aus seiner Sicht aus so einem Five Layer Cake besteht, also fünffacher Schichtkuchen, wenn man so möchte.
00:07:53: Und vielleicht gibt diese Erklärung auch so ein bisschen die Richtung vor wohin Europa oder Deutschland in Zukunft auch steuern kann, steuern sollte, wie auch immer.
00:08:05: Gucken wir uns diese fünf Layer mal an.
00:08:07: Es ist ganz unten das Energie, dann Infrastruktur, dann Chips, dann Modelle und ganz oben sind Applications, also Anwendungen, Anwendungsfälle, Use Cases und so weiter.
00:08:18: Und wenn wir uns das mal angucken, also Jensen Huang sagt in diesem Interview, dass China im Grunde in vielen dieser Bereiche führt.
00:08:25: Ja, gerade was zum Modelle angeht, China hat da Open Source, China hat extrem viel Energie.
00:08:30: Ja, allein der Zubau von erneuerbaren Energie in den zwei Tausendundzwanzig von China, das ist richtig verrückt.
00:08:37: in den ersten sechs Monaten, glaube ich, auch nur, wurde mehr Solarenergie zugebaut, als Deutschland in den letzten zwanzig Jahren gebaut hat.
00:08:46: Vielleicht sogar Europa.
00:08:47: Ich verlinke euch die Studie.
00:08:48: Auf jeden Fall ist es unfassbar viel Energie, die in China zugebaut wird, die erneuerbar ist.
00:08:55: Man setzt da auf neue Strategien.
00:08:58: Da sind wir, glaube ich, jetzt in Deutschland noch nicht so konkret dabei, würde ich mal behaupten, dass da wirklich eine Strategie vorherrscht.
00:09:06: Wir gehen jetzt wieder ein bisschen auf Gas zurück.
00:09:08: Egal, nicht zu politisch werden.
00:09:10: Als nächstes Infrastruktur, also dieser zweite Layer.
00:09:14: Und da muss man eben gucken, damit es ist gemein, zum Beispiel Rechenzentren.
00:09:19: Also wo werden KI-Modelle trainiert?
00:09:21: Und da haben wir einfach extrem wenig Rechenzentrenpower in Deutschland.
00:09:26: Eigentlich hat Ursula von der Leyen in den Jahr-Zwei-Tausend-Zwei-Zwanzig schon gesagt, wir wollen jetzt in Europa hier auch führen werden, wir wollen mehr Rechenzentren bauen und so weiter und so fort.
00:09:36: Das funktioniert leider so nicht, haben wir gesehen.
00:09:40: Also das Ziel bis zum Jahr zwei Tausend Dreißig war das Ziel von der Europäischen Union.
00:09:46: Zwanzig Prozent des Marktes hier zu haben mit Infrastruktur, mit Chips, die dann darauf aufbauen, das hat nicht funktioniert.
00:09:54: Der dritte Layer Chips funktioniert im Grunde in Europa auch nicht so richtig.
00:09:59: Wir überlassen da den Markt gerade noch komplett Taiwan, China, den USA.
00:10:04: Wir haben die Intel-Fabrik in Magdeburg irgendwie nicht hingekriegt.
00:10:08: Wir bauen noch Chips, aber bei Weitem nicht diese Hochleistungschips, die international gefragt sind und vor allem nicht in der Masse.
00:10:16: Und wenn wir dann auf den vierten Lehrgucken, die Modelle, sondern sagen wir, ich glaube, Aleph Alpha war da relativ lange noch dabei, ein deutsches Large Language Model zu bauen.
00:10:24: Die haben aber schon Ende vierundzwanzig gesagt, wir steigen aus dem Rennen aus.
00:10:29: Die großen Large Language Models, die guten, großen Large Language Models kommen eigentlich alle aus den USA.
00:10:35: China ist da, Weltmarktführer mit Open Source Technologie.
00:10:39: Da gibt es vereinzelt auch mit Mistral Anwendungen in Europa, französisches Tool.
00:10:44: Aber insgesamt muss man sagen, auch in Sachen Modelle sind wir jetzt nicht unbedingt die Vorreiter.
00:10:50: Und das ist es tatsächlich natürlich schwierig, da optimistisch in die Zukunft zu blicken, wenn man sagt, okay, so auf vier Layern dieses Five Layer Cakes sind wir eigentlich abgehängt.
00:11:02: Muss man eigentlich so sagen, da fehlt ein Strategien, da fehlt irgendwie die Power, da fehlt die Geschwindigkeit, die andere Länder hier oder Regionen vorlegen.
00:11:11: Deshalb ist so ein bisschen meine Überlegung, was ich mir anlänge, ist, dass dieser fünfte, dieser Top-Layer auf dem Kuchen, dass der am Ende entscheidend für Europa und für Deutschland sein kann.
00:11:23: Applications, also Anwendungsfälle, Use-Cases.
00:11:26: Wie nutzen wir KI eigentlich?
00:11:29: Denn auch wenn die Modelle immer besser wären, die Chips immer schneller und überhaupt die Infrastruktur überall explodiert, also nicht explodiert, aber größer wird.
00:11:39: gibt es einfach zu wenig Anwendungsfälle.
00:11:41: Und da haben wir, glaube ich, gerade in Deutschland und Europa mit unserer Industrie, mit unseren hochkomplexen Abläufen, die in der Tarifpolitik vorherrisch in unseren Gesetzen, in der Regulierung, die überhaupt bei allen Prozessen, die wir hier so schön ausgearbeitet haben, haben wir einfach die beste Voraussetzung da.
00:12:02: Applications zu bauen, die uns da im Grunde helfen.
00:12:05: Also, dass wir wirklich schauen, wie kann KI uns bei diesen hoch komplexen Aufgaben unterstützen?
00:12:11: Deshalb glaube ich, dass die Chance für Deutschland und Europa im nächsten Jahr und vielleicht auch in den Jahren darauf nicht unbedingt darin liegt, dass wir sagen, wir werden jetzt hier die großen Rechenzentren bauen, wir werden eigene Chips bauen, wir werden Modelle trainieren und so weiter und so fort, sondern dass wir uns eigentlich eher darauf fokussieren sollten.
00:12:29: Anwendungsfälle zu finden, die international funktionieren, werden auch mit US-amerikanischer Technik und mit chinesischen Modellen und wie auch immer, aber dass wir Tools entwickeln, die weltweit funktionieren.
00:12:42: Das ist, glaube ich, irgendwie so ein bisschen die Überlegung, die ich habe.
00:12:45: Das würde ich mir wünschen, ganz im Ernst, wenn wir uns angucken, was in den Eingahmen im Jahr ist.
00:12:52: Wie wollen wir das alles aufholen?
00:12:54: Also, wenn man so ein Rechenzentrum baut, dauert das halt einfach mehrere Jahre, hier wahrscheinlich noch länger als irgendwo anders.
00:13:01: Vielleicht ist das nicht wirklich die richtige Strategie darauf zu setzen, sondern wir sollten eigentlich die kreativen Anwendungsfälle fokussieren, wo wir... extrem gute Möglichkeiten haben, Proof-of-Concepts zu entwickeln, das mit der Industrie zusammen zu machen.
00:13:14: Wir können Wissenschaftsstandorte eben besser vernetzen mit der Industrie, mit Start-ups und so weiter und so fort.
00:13:20: Ich glaube, das wäre so ein bisschen der Wunsch, den ich persönlich hätte für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr für den Jahr.
00:13:37: Lasst uns mehr über Use Cases sprechen.
00:13:39: Ich glaube, das ist der richtige Weg.
00:13:43: Ansonsten vielleicht noch so ein klein... Blick auf so Buzzwords und den Umgang mit Buzzwords.
00:13:50: Wir haben so viel davon gehabt in diesem Jahr und es gab extrem viele Versprechungen, was Agentik angeht und so weiter.
00:13:56: Ich glaube, es macht Sinn, sich wirklich im Hier und Jetzt zu bewegen.
00:14:00: Lasst uns weniger vielleicht von der AGI träumen, also von der alles beherrschenden KI, die sich exponentiell verbessert und so weiter.
00:14:11: lasst uns stattdessen eher im Hier und Jetzt bleiben, denn es lohnt sich.
00:14:14: Es gibt durchaus nämlich Herausforderungen, die wir im Hier und Jetzt haben.
00:14:18: Das sind vor allem Deepfakes.
00:14:20: Das ist Verifizierung von menschlicher Kommunikation.
00:14:24: Wir hatten das im Podcast auch an diversen Stellen.
00:14:27: Wir sind eigentlich nicht mehr in der Lage zu unterscheiden, ob ein Bild, ein Video, ein Sprachnotiz, wie auch immer, Menschen gemacht oder KI generiert ist.
00:14:37: Und ich glaube, Da müssen wir durchaus wieder zurückkommen, ein bisschen drauf gucken, wie gehen wir damit um als Gesellschaft?
00:14:44: Was passiert, wenn wir eigentlich gar nicht mehr unterscheiden können?
00:14:47: Ist das menschlich oder ist das KI generiert?
00:14:49: Und vielleicht sollten wir erst mal herausfinden, wo ist es absolut notwendig, dass bei Menschen gemachte Kommunikation als solche erkennbar ist?
00:14:57: und wo ist es vielleicht gar nicht so wichtig?
00:14:59: bei Unterhaltungsformaten möglicherweise?
00:15:02: Vielleicht sagen die ein oder anderen, nein, gerade Kultur muss auch menschlich sein und so, aber ich glaube bei so... schwierigen politischen Debatten bei Informationen, die Meinungen priegen, vor allem zum aktuellen Weltgeschehen.
00:15:16: Da sollten wir schauen, dass wir dem Journalismus und Berichterstatterinnen da in Zukunft möglicherweise besser unterstützen, weil es da einfach auch eine ganze Menge sogenannte Doppelgänger-Seiten gibt, die ja Desinformationen verbreiten, knallhart, muss man so sagen.
00:15:32: Und das ist extrem gefährlich, finde ich, für unsere Informationsfreiheit, für unsere Gesellschaft.
00:15:37: für das, was wir eigentlich jeden Tag online lesen.
00:15:40: Und da würde ich mir in den Jahr auch mehr neue Wege wünschen, wie wir eben schauen können, dass wir menschliche Kommunikation als solche wirklich verifizieren können und deepfakes dementsprechend besser als solche labeln oder erkennen können.
00:15:58: Eine Verpflichtung dazu, Content KI generiert zu markieren, halte ich da im Grunde für wenig sinnstiftend.
00:16:07: In der Regel halten sich Kriminelle nicht angesetzt, das muss man sagen.
00:16:10: Und wir erleben ja gerade jetzt zum Ende des Jahres eine ganze Menge kriminelle Deepfakes, die auch staatlich gesteuert sind.
00:16:19: Ich glaube, da kommen wir am Ende nicht weit.
00:16:21: Ich würde mir lieber eine technologische... Lösung wünschen und das ist vielleicht auch so ein bisschen der Wunsch an die, an die Bubble, dass wir da in Zukunft mehr drauf gucken.
00:16:30: Ich weiß, dass da diverse Startups auch schon daran arbeiten.
00:16:33: Da hoffe ich mir jetzt, dass es in den nächsten Jahren ein bisschen mehr Sicherheit, ein bisschen mehr Klarheit, was Kommunikation angeht, weil, wie gesagt, ich als KI Experte, wenn ich mich jetzt einen bezeichnen darf, Ich kann diverse Content-Stücke nicht mehr unterscheiden.
00:16:48: Ob das jetzt echt ist oder nicht.
00:16:49: Schon so oft darauf reingefallen gerade in den letzten Wochen.
00:16:52: Das funktioniert so nicht mehr.
00:16:54: Da gehe ich ganz stark davon aus.
00:16:56: Ja, vielleicht sollten wir generell ein bisschen von diesem Tool-Hype runter kommen.
00:17:03: Ich sage immer in Beratung.
00:17:05: Wenn wir diskutieren, wo KI eingesetzt werden kann, dann sollten wir nicht alle möglichen Tools ausprobieren und dann sagen, das Tool hat uns am besten zugesagt, sondern wir sollten erst mal gucken, was für Use Cases haben wir, was für Anwendungsfälle nutzen wir hier im Unternehmen, was sind zum Beispiel repetitive Aufgaben, wie ist die Datenverfügbarkeit?
00:17:23: und wenn man sagt, hier kann KI in welcher Form auch immer durch Automatisierung, durch Large Language Models, vielleicht einfach durch Big Data Analysen weiterhelfen.
00:17:32: Dann sucht man sich ein entsprechendes Tool raus und ich würde mir wünschen, dass dieser Tool-Hype ein bisschen abflacht, auch was jetzt mit Nano-Banana los war, mit dem Generative AI-Tool von Google.
00:17:45: Ja, das ist spannend, lasst uns weiter darüber sprechen, aber lasst uns vielleicht auch links und rechts gucken, was gibt es noch?
00:17:50: und nicht einfach sagen, dass dieses Tool jetzt alles verändern wird, weil es alle Use-Cases irgendwie bündelt.
00:17:56: Ich glaube, das wird nicht.
00:17:58: passieren und wir sind gut daran beraten, eher über Anwendungsfälle und Schwächen und Stärken zu sprechen, anstatt einfach nur über Tools.
00:18:07: Ja, ich glaube, das ist alles, was ich wirklich dazu zu sagen habe.
00:18:12: Ich könnte das natürlich jetzt noch ewig ausführen, aber vielleicht ein paar Gedanken, die ich auch persönlich habe, persönliche Projekte im neuen Jahr, also ich werde weiterhin an Use Cases arbeiten.
00:18:24: Ich hab so ein paar Prototypen mit meinem Entwickler Jan, liebe Grüße Jan, zusammengebaut.
00:18:28: Das ist beispielsweise parlament.ai, das ist eine Plattform, ein Tool, ein Rack, also ein Retrieval Augmented Generation Modell, das Fragen zum Bundestagsdebatten beantworten soll.
00:18:42: Also könntest du so vorstellen, dass das System gefüttert ist mit Plenarsitzungsprotokollen, mit Daten aus dem Bundestag, mit allem, was irgendwie so öffentlich ist und das ist in der Demokratie eine ganze Menge.
00:18:52: und dass das Ganze mit einem Large Language Model individuell durchsuchbar gemacht wird.
00:18:57: Also beispielsweise könnte man jetzt einfach mal fragen, was wurde in den letzten drei Monaten eigentlich über Umweltschutz gesagt?
00:19:04: Und dieses Modell durchsucht dann alle Plenarsitzungsprotokolle, mögliche kleine oder große Anfragen, die an den Bundestag gestellt wurden und gibt einem dann eine Antwort, was dann da eigentlich dann alles aufgetaucht ist.
00:19:15: Und das ist so ein Projekt, an dem ich gerade mit meinem Entwickler arbeite.
00:19:19: wo wir sagen, das ist irgendwie no-brainer, dass KI so was kann.
00:19:24: Informationen aufbereiten, weitergeben an die Gesellschaft.
00:19:29: Denn ganz im Ärzten niemand von uns liest, glaub ich, so'n Zweihundertseiten Plenarsitzungsprotokoll durch.
00:19:34: Aber trotzdem ist es superrelevant, was da drin gesagt wird.
00:19:38: Und warum sollten wir das nicht individuell verfügbar machen und Menschen ihre eigenen persönlichen Fragen gegen diese Bürokratie-Monster laufen lassen können?
00:19:46: Also ein schönes Projekt.
00:19:48: Das ist natürlich irgendwie immer das Problem der Halluzination.
00:19:52: Also wenn so ein Modell, hatte ich ja auch an einigen Stellen auch schon gesagt, Output von large language models sind nie einhundert Prozent korrekt.
00:20:00: Da gibt es immer irgendwie so ein Prozentsatz an fehlerhaftem Output.
00:20:04: Da ist jetzt irgendwie so ein Ansatz, den man überlegen kann, versucht man die Halluzination gegen Null zu drücken.
00:20:09: Das ist so das, was die Hyperscaler in der Regel versprechen.
00:20:12: Neues Modell, noch weniger Halluzination.
00:20:15: Es ist aber technisch einfach nicht möglich, dass man Nullprozent Halluzination hat.
00:20:19: Und da gibt es andere Ansätze.
00:20:20: und so ein Ansatz fahren wir beispielsweise auch mit unserem System, dass wir sagen, der Output muss vielleicht gar nicht einhundert Prozent korrekt sein.
00:20:27: Es geht eh nicht.
00:20:28: Aber der Output sollte schnell überprüfbar sein.
00:20:31: Das heißt, es sollte ein Quellen angezeigt werden.
00:20:34: Es sollte eine gewisse Rohheit darüber herrschen, was für Daten man eigentlich so im Nachlängen, welche man zur Verfügung stellt.
00:20:40: Und das ist so eine Überlegung, die... die ich da gerade verfolge, wo ich ein bisschen gucke, dass so ein Use Case, das Parlament AI, so das eine, macht das Ganze auch mit Tarifverträgen.
00:20:50: Ja, also Tarifvertrag.ai ist ein anderes Projekt, was wir da gerade noch machen, das wird gleich auch ganz spannend.
00:20:56: Da geht es dann eher darum, auch multilingual Fragen zu Tarifverträgen zu beantworten.
00:21:03: Ich weiß, viele Leute, die in Deutschland arbeiten, wissen vielleicht, verstehen einfach nicht die... deutsche Behörden Sprache oder deutsche Vertragssprache.
00:21:13: Und wir haben da, ich habe da gerade den konkreten Fall, gerade in der Pflegegespräche, also eine ganze Menge Geflüchtete aus der Ukraine, die dort arbeiten, die einfach auch nicht der deutschen Sprache mächtig sind, oder zumindest nicht so sehr, dass sie verstehen würden, was so ein Vertragswerk eigentlich das beinhaltet.
00:21:28: Und dass wir Tarifverträge haben, ist eigentlich ein echt cooles Ding, muss ich sagen.
00:21:31: Ein großer Fan von Tarifverträgen, ja.
00:21:33: dass sie die wenigsten Leute verstehen, ist ein Problem.
00:21:36: Und ich glaube, da gibt es im Bereich League, AI, auf jeden Fall noch eine ganze Menge, was wir machen können, was Leuten dabei helfen kann, Inhalte von gewissen Gesetzestexten besser zu verstehen und zu schauen, was hat das eigentlich für mich auf mich für Auswirkungen.
00:21:51: Und da gibt es wirklich coole Use-Cases, zumal man gegen solche Large-Language-Models, solange die dann auch Datenschutzkonformen aufgesetzt sind, auch Fragen stellen kann, die man vielleicht jetzt nicht unbedingt mit Personalern oder einer Personalerin stellen würde.
00:22:02: Ja, fragen, wie muss ich eigentlich meinem Chef sagen, wenn ich schwanger bin oder so?
00:22:08: Das ist ein No-Brain, dass man das irgendwie, man fragt, der im Unternehmen arbeitet.
00:22:13: Anwälte laufen da alle irgendwie gerade eher auf dem Zahnfleisch, gerade bei den Gewerkschaften und so.
00:22:17: Also genau solche Überlegungen machen wir uns halt, gucken, was da eben passiert.
00:22:22: Dann wird das eine ganze Menge im Bereich der Kultur und Kunst geben.
00:22:26: Die Kunst gab es dieses Jahr auch einfach viel.
00:22:29: Da beteilige ich mich auch gerne daran.
00:22:31: Also für mich wird es mit der Jahrtausendsechst zwanzig definitiv auch noch mal ein ganz neues Use Case.
00:22:35: Ja, und ich bin extrem gespannt, wie das alles ankommt, was da passiert, wie die Entwicklung weitergehen.
00:22:42: Ansonsten lasst euch gesagt sein, zum Abschluss KI bleibt.
00:22:46: Das ist, glaube ich, allen klar.
00:22:49: Wir tun gut daran, KI mehr zu nutzen.
00:22:53: Ja, diese Bitcoin-Studie, die ich da einmal zitiert hatte, knapp zwei Drittel der Deutschen, die KI nutzen, die hat zusätzlich auch noch nach Ängsten gefragt und es zeigt sich, dass Menschen, die KI nutzen, weniger Angst vor den Folgen von KI haben.
00:23:08: Einfach, weil sie aufgeklärter sind, weil sie selbst ein Gespür dafür bekommen, was kann dieses Tool?
00:23:12: Und weil es die abstrakten Ängste, die wir bekommen, durch... Tech-Meteradere, die dann häufig mal irgendwie in die Medien wollen oder wie auch immer, dass wir die tatsächlich selbst überprüfen können und sehen können, hey, das ist jetzt nicht das Ding, was hier sofort irgendwie mein Job wegautomatisiert, aber es kann mir extrem helfen dabei, irgendwie mehr aus meiner Arbeit rauszuholen.
00:23:32: Und für mich auch noch eine ganz spannende Sache, vielleicht zum Schluss, dass diese Technologie-Ablehnung, die wir eigentlich immer... denken, wenn es so um Deutschland geht und um Digitalisierung und so, die herrscht hier eigentlich gar nicht wirklich vor.
00:23:47: Eine Ugoff-Studie hat gezeigt, dass unter neuen Ländern, die untersucht wurden, Deutschland auf Platz drei der Technologieoffenheit in Sachen KI ist.
00:23:56: Da wurde gefragt, glauben Sie, dass KI eher eine positive oder negative Impact auf die Zukunft haben wird?
00:24:02: Und da gab es wirklich deutlich mehr Leute, die gesagt haben von den Befragten in Deutschland, das ist repräsentativ, die gesagt haben, es wird eher eine positive Zukunft mit KI, also KI wird sich positiver von so Zukunft auswirken.
00:24:16: Ganz spannend, dass da auf dem letzten Platz tatsächlich die USA waren.
00:24:19: Also die USA, da gibt es deutlich mehr, ja, sage ich mal, ablehnende Haltung gegenüber KI oder Ängste vor KI.
00:24:28: Und ich glaube, dass so ein gewisser positiver Blick auf das, was mit KI... passieren kann, uns durchaus dabei helfen kann, auch positive Applications oder Anwendungen zu finden, von denen wir am Ende alle profitieren können.
00:24:41: Natürlich nicht außer Acht lassen, das kann Ihnen eine ganze Menge Probleme machen.
00:24:44: Wir haben große Fragen noch an das Urheberrecht.
00:24:47: Wir haben Persönlichkeitsrechte, die nicht geklärt sind, gerade im Bereich von Deepfakes.
00:24:52: Wir haben das Energieproblem.
00:24:54: IFA braucht unfassbar viele Ressourcen.
00:24:57: Wir haben eine ganze Menge offene Punkte, die wir erklären müssen in Sachen KI.
00:25:01: Und es gibt durchaus Probleme, aber ich glaube, so eine generelle Zuversicht an die Zukunft, an das, was irgendwie mit KI gemacht werden kann.
00:25:08: Die steht uns gut und die sorgt doch dafür, dass wir vielleicht eher an positive Use-Cases denken, dass wir vielleicht eher an die ethischen Fragen denken, wenn wir sowas bauen, als dass wir einfach irgendwie erstmal alles ablehnen und sagen, oh Gott, nee, nee, das wird alles ganz, ganz schlimm.
00:25:24: Bitte lasst das links liegen, weil das führt am Ende zu nichts.
00:25:29: Die Geschwindigkeit der Entwicklung wird bleiben.
00:25:31: Die Sicherheit, die wir dabei brauchen, die kommt aber nicht durch Vermeidung der Technologie.
00:25:36: Die kommt dadurch, dass wir verstehen, wie es funktioniert, dass wir es nutzen und dass wir gemeinsam lernen, wie KI am besten eingesetzt werden kann.
00:25:47: Und das ist so ein bisschen auch der Auftrag dieses Podcasts im neuen Jahr, würde ich sagen.
00:25:52: Ich freue mich, wenn ihr im neuen Jahr mit dabei seid.
00:25:55: Wenn ihr euch vorgenommen habt im neuen Jahr vielleicht als... Neujahrsvorsatz oder so, mehr über KI zu lernen oder tiefer einzusteigen, dann freue ich mich, wenn ihr diesen Weg auch mit Kollegen KI weitergeht.
00:26:07: Ansonsten gibt es andere wunderbare Podcasts und Quellen, wenn ihr beispielsweise vom Deutschlandfunk oder von der ARD KI verstehen oder der KI-Podcast hören wollt, hört euch gerne an.
00:26:19: Super toll, was die Kollegen da machen.
00:26:22: Wir haben den Doppelgänger-Tag-Talk-Pipp Glückner zu Gast dieses Jahr, die das Ganze ein bisschen globaler einordnen.
00:26:27: Es gibt wirklich viele, viele Quellen.
00:26:29: Wenn ihr lieber lesen wollt, gibt es so viele Bücher, die ihr lesen könnt.
00:26:33: Es gibt Hörbücher über KI, es gibt Filme, Dokumentation.
00:26:38: Also, eigentlich, wohin man guckt, findet ihr Quellen.
00:26:42: Und nehmt euch die Zeit und schaut sie euch an.
00:26:45: Das ist, glaub ich, nur der Sinnvollste, wirklich, um ... fundiert mitreden zu können, erst mal eine Vorstellung zu bekommen.
00:26:52: und natürlich probiert KI aus.
00:26:53: Und da vielleicht auch eine kleine Ankündigung im neuen Jahr wollen wir selbst auch mal so eine Webinar-Reihe ausprobieren.
00:27:01: Ja, vielleicht erst mal so ganz KI für Einsteiger.
00:27:04: Wie baut man eigentlich ein Chatbot?
00:27:05: Wie baut man ein Custom GPT?
00:27:07: Was können Large Language Models und was nicht.
00:27:09: Bei Use Cases mal wirklich live zeigen.
00:27:12: Und ihr werdet bei Zeiten davon erfahren, freut mich natürlich sehr, wenn ihr dabei seid.
00:27:17: Und ja, wenn ihr den Podcast bewertet und teilt, vielleicht mit Leuten von Ihnen, ihr wisst, die wollen sich im neuen Jahr mehr mit KI auseinandersetzen.
00:27:25: Schöner, neueres Vorsatz.
00:27:26: Vielleicht ist ein Teil dieses Vorsatzes, auch diesen Podcast zu hören.
00:27:34: Ja, das Jahr ist vorbei.
00:27:36: Und natürlich müssen irgendwie noch Predictions her.
00:27:38: Wenn mich kennt, weiß ich, ich bin kein großer Veränder von Grad im Bereich KI.
00:27:41: Es ist einfach so unvorhersehbar, was passiert.
00:27:44: Allein im Jahr zwei tausendfünfzwanzig war so vollgepackt mit News und so.
00:27:48: Und da dachte ich, wir könnten doch einfach mal die Zukunft der KI von der KI bestimmen lassen.
00:27:54: Liebe Kolleginnen, du hast jetzt ja alle Podcastfolien von Kollegen KI mitgehört.
00:27:58: Du weißt ungefähr, worum es geht.
00:28:00: Kannst du uns mal sagen, worauf wir uns zwei, sechs und zwanzig einstellen müssen?
00:28:04: Na, ich sag's mal so, zwei sechsundzwanzig wird pragmatischer.
00:28:08: Wir werden erleben, dass KI mehr in den Alltag eingebettet wird, aber auch, dass wir sensibler mit ethischen Fragen umgehen.
00:28:14: Das Thema Desinformation wird uns weiter begleiten, aber wir werden besser darin Fakten von Fiktion zu trennen.
00:28:20: Also klarer Blick, weniger Hype.
00:28:23: Und wir bleiben neugierig.
00:28:24: Das würde ich mir wünschen, dass uns das möglich ist, die Wahrheit von Fakes zu trennen.
00:28:29: Ich glaube es persönlich eher nicht, weil die Dinger so gut werden.
00:28:33: Gerade die Fakes kannst du eigentlich nicht mehr wirklich unterscheiden von echtem Content.
00:28:38: Von daher würde ich die da widersprechen, aber ich bin gespannt, was sixth und zwanzig passiert.
00:28:42: Wir werden es begleiten mit Kollegen KI.
00:28:44: Wir haben spannende Gäste im neuen Jahr und ich glaube an Themen wird es uns nicht mangeln, wenn das in dem Tempo so weitergeht.
00:28:51: Vielen Dank, dass ihr ihr dieses Jahr zugehört habt.
00:28:54: Es war ein sehr, sehr cooles, interessantes Jahr und ich hoffe, dass es in den nächsten Jahren ähnlich spannend wird.
00:29:00: Vielleicht ein bisschen Tempo rausnehmen.
00:29:01: Das wäre irgendwie ganz geil, aber wir werden sehen.
00:29:04: Ich wünsche euch einen guten Rutsch, frohes neues Jahr.
00:29:07: dann irgendwann und wir sprechen uns im Januar.
00:29:09: Ciao.
00:29:10: Oh, letzte Worte, liebe Kolleginnen.
00:29:12: Oh, die letzten Worte, ich halte mich kurz.
00:29:15: Rutscht gut rein, bleibt neugierig und wir rocken das nächste Jahr gemeinsam.
00:29:20: Bis ganz bald.
00:29:21: Nachen wir so.
00:29:21: Bis dahin.
00:29:22: Ciao.
00:29:23: Bis dahin.
00:29:23: Ich freue mich schon auf alles, was kommt.
Neuer Kommentar