Wie funktioniert eigentlich ein Chatbot?
Shownotes
In dieser Solo-Episode von „Kollegin KI“ schickt Host Max Mundhenke den Chatbot in der Bücherei. Also nur im übertragenden Sinn. Denn der lesende Bot ist sein anschauliches Bild, um die Funktionsweise von Large Language Models zu erläutern. Außerdem erklärt er, warum KI-Chatbots so oft und so überzeugend lügen – und wie man ihnen helfen kann, künftig näher an der Wahrheit zu bleiben.
Das sind zentralen Aspekte von KI, die Max Mundhenke in Folge 5 von „Kollegin KI“ erläutert:
Wo die Ursprünge der künstlichen Intelligenz liegen und was hinter der sogenannten Transformer-Technologie steckt, auf der heutige KI-Chatbots basieren
Wieso man die Funktionsweise von Large-Language-Models (LLMs) mit einem Roboter in einer riesigen Bibliothek vergleichen kann
Weshalb Antworten von LLMs häufig auf veralteten Informationen beruhen und wie die Anbieter das Thema Aktualität in den Griff bekommen wollen.
Warum die KI bei der richtigen Einordnung von Informationen dem Menschen bislang unterlegen ist
Weshalb Menschen dazu neigen, KI blind zu vertrauen, obwohl Antworten oft fehlerhaft und Quellen mitunter komplett erfunden sind
Wie man durch handwerklich gutes Prompting und die Bereitstellung von zusätzlichen Informationen für die KI zu präziseren und nützlicheren Antworten kommt
Der Chatbot zur Folge: bio.to/KolleginKI_Chatbot
Die von Max erwähnte EBU-Studie: https://www.ebu.ch/Report/MIS-BBC/NIAI2025.pdf
Mehr zu Max: Linkedin: https://www.linkedin.com/in/tomkraftwerk
Produktion: Podstars by OMR
Transkript anzeigen
00:00:02: Hey, Kollegin, bist du da?
00:00:03: Aber klar, ich bin da.
00:00:05: Wie geht es dir denn heute?
00:00:06: Mir geht es blendend, denke der Nachfrage.
00:00:09: Und zwar habe ich nämlich erfahren, dass wir auf Platz eins der Podcast Trends für Technologie bei Apple sind.
00:00:16: Wie geil ist das denn?
00:00:17: Wie fantastisch.
00:00:18: Herzlichen Glückwunsch, das ist ja echt der Wahnsinn.
00:00:21: Da kann man wirklich stolz drauf sein.
00:00:23: Der hat sich die ganze Arbeit hier richtig ausgezeilt.
00:00:25: Ja,
00:00:26: denke ich auch.
00:00:26: Der Dank gilt natürlich auch dir.
00:00:28: Du unterstützt mich ja immer so gut.
00:00:29: Nein, aber Spaß beiseite.
00:00:31: Leute, vielen lieben Dank fürs Hören meines Podcasts.
00:00:34: Ich bin wirklich überwältigt.
00:00:35: Ich finde es ganz großartig.
00:00:37: Es ist ein super tolles Gefühl.
00:00:39: Ich hab ja selbst irgendwie eine ganze Menge durch Podcasts auch über KI gelernt.
00:00:43: Als ich vor anderthalb Jahren angefangen habe, mich mit KI tiefer zu befassen, haben wir Podcasts eine ganze Menge geholfen.
00:00:50: Und deshalb an der Stelle auch einfach... Vielen lieben Dank an all die Kolleginnen und Kollegen, die auch KI-Podcast machen.
00:00:56: Ich glaube, ohne euch hätte ich nie dieses Wissen bekommen, dass ich heute selbst in einem Podcast weitergeben kann.
00:01:04: Also von daher ganz großartige Entwicklung der letzten anderthalb Jahre.
00:01:08: Das ist schon eine ganz coole Sache.
00:01:11: Und ja, also danke an euch alle.
00:01:14: Zu Feier des Tages würde ich ganz gerne mal eine kleine Sonderfolge aufnehmen.
00:01:17: Ich berate ja auch Unternehmen in Sachen KI und erkläre viel auf Bühnen und so.
00:01:22: Und ich dachte, ich mache das vielleicht einfach mal in so einer Solo-Folge für euch, dass ich euch mal so einen kleinen Abriss gebe, wie KI eigentlich funktioniert und worauf ihr auch achten solltet, wenn ihr KI selbst oder fürs Unternehmen nutzt.
00:01:35: Und von daher, ja, dann legen wir los.
00:01:39: Vielen Dank für Platz eins der Charts bei Apple und viel Spaß bei der Folge.
00:01:44: Das ist Kollegin KI und ich bin Max Mundhenke.
00:01:48: Vielleicht fangen wir mal ganz vorne an, um euch mal ganz kurzen historischen Abriss zu geben, was KI eigentlich ist.
00:01:54: Und zwar ist KI deutlich älter als ChatGPT und Co.
00:01:58: und die ganzen Sachen, die wir gerade in die Medien lesen und selbst nutzen.
00:02:02: Künstliche Intelligenz ist eigentlich in den neunzighundertfünfziger Jahren schon entstanden, als Begriff von John McCarthy, der das Ganze geprägt hat.
00:02:09: Der war ein US-amerikanischer Informatiker und Logiker und hat so ein bisschen dieses Thema künstliche Intelligenz im Bezug auf können Maschinen im menschliches Verhalten imitieren oder erweitern geprägt und hat damit so die ersten Schritte in diesem ganzen Forschungsfeld gemacht.
00:02:26: Das ganze hat sich rasant entwickelt.
00:02:29: Dreißig Jahre später gab es beispielsweise dann so ein Meilenstein, der Machine Learning beschrieben wurde, also Maschinelles Lernen.
00:02:37: Das kennt ihr alle und wir nutzen es nahezu täglich, würde ich behaupten.
00:02:41: Und dass da KI hintersteckt, würden wir vielleicht im ersten, auf den ersten Blick gar nicht so sagen.
00:02:47: Aber wenn ihr zum Beispiel bei Amazon was kauft und ihr bekommt dann so Vorschläge, Kunden, die das kauft, kauft auch, dann ist das im Grunde auch.
00:02:56: im weitesten Sinne künstliche Intelligenz.
00:02:58: Oder wenn ihr bei Spotify euren Mix der Woche hört, wenn ihr Liedervorstellungen bekommt und so weiter, dann ist auch das im Grunde Machine Learning und damit künstliche Intelligenz.
00:03:07: Und die künstliche Intelligenz, von der wir heute sprechen, die heute durch die Medien geht, die für so viel Aufruhr sorgt, die ist im Grunde auf eine Entwicklung von zwei tausendseptien zurückzuführen.
00:03:18: Und zwar haben dort Ingenieure rund um Google die Transformer Technologie ergründet.
00:03:25: Und diese Transformer Technologie, die war tatsächlich ein Meilenstein, der dann dazu geführt hat, dass Dinge wie GPT entstehen konnten.
00:03:33: Und da möchte ich heute einfach mal ein bisschen genauer drauf eingehen und möchte mal erklären, wie das funktioniert.
00:03:38: In nicht technischen Sinne.
00:03:39: Ich glaube, wenn ich euch das technisch erklären würde, dann würde ich erstmal dran scheitern.
00:03:44: Ich bin selbst kein Informatiker.
00:03:46: Ja, und auf der anderen Seite.
00:03:48: Ich würde es euch vermutlich auch langweilen, weil das nichts ist, was man glaube ich jetzt in einer schnellen Podcast-Folge mal erklärt.
00:03:55: Ich versuche dazu gerne so eine Metapher zu bedienen, wenn ich von Transformer-Technologie spreche.
00:04:01: Und zwar stelle ich mir das gerne mit Büchern vor.
00:04:04: Ihr müsst euch vorstellen, vor dieser Transformer-Technologie sah es so aus, dass wenn Daten eingelesen wurden, dass diese Daten nacheinander eingelesen werden mussten.
00:04:13: Wenn ihr also drei Bücher habt und ihr sagt einer Maschine, sie soll diese drei Bücher lesen, dann fängt sie mit dem ersten Buch auf Seite eins an und guckt sich Wort für Wort an und geht dann bis zum Ende des dritten Buchs damit durch und hat dann die ganzen Daten gelesen.
00:04:27: Die Transformertechnologie hingegen, die ermöglichte ist, dass diese Bücher gleichzeitig gelesen werden können.
00:04:34: Und zwar nicht nur wir fangen mit Buch eins, zwei und drei gleichzeitig an, sondern wir lesen alle Seiten in diesen drei Büchern zur selben Zeit und können damit dann relativ schnell oder deutlich schneller als vorher natürlich diese Daten auch verarbeiten.
00:04:48: Und um in diesem Buchbild zu bleiben, könnt ihr euch vorstellen, dass so ein Large Language Model wie eine riesengroße Bibliothek aufgebaut ist.
00:04:58: So die größte Bibliothek der Welt ist, glaube ich, die British Library.
00:05:02: bzw.
00:05:03: je nach Zielart auch die Library of Congress in Washington, D.C.
00:05:08: Die hat mehrere Millionen Bücher, ich glaube, man spricht von hundertsiebzig Millionen Medien, die dort ausgestellt sind.
00:05:15: Und ungefähr so könnt ihr euch so ein Large Language Mode vorstellen wie eine unfassbar große Bücherei mit einem Angestellten.
00:05:21: Ein Angestellter, das ist ein kleiner Roboter.
00:05:23: Ein kleiner Bot, der fährt da rum und der guckt sich im Grunde die Regale an, was auf den Regalen steht, was in den Büchern steht, ließt sich die in Windeseide durch und kommt im Grunde mit einer Antwort zu euch an die Träsen.
00:05:35: Und wenn ihr jetzt an diesem Tresen steht und ihr stellt eine Frage, dann sucht sich dieser Bot im Grunde das richtige Regal aus oder vielleicht die richtigen Regale, guckt sich die Bücher an, kommt zurück und gibt euch die wahrscheinlichste Antwort.
00:05:50: Auf eure Frage.
00:05:51: Und wahrscheinlich ist hier tatsächlich das ganz wichtiger Begriff.
00:05:55: Wir sprechen von Probabilistik.
00:05:57: Large Language Models oder KI, wie wir sie kennen heute und wie wir drüber sprechen, arbeitet probabilistisch.
00:06:02: Das heißt, es wird einfach nur geguckt, was ist das wahrscheinlich nächste Wort oder wahrscheinlich nächste Token, um im Grunde eine Antwort zu liefern.
00:06:11: Das Ganze führt zu Problemen.
00:06:14: Ja, ich mag diese Metapher mit der Bibliothek sehr, sehr gern, denn ich möchte mal drei Probleme skizzieren, die man anhand dieser Metapher auch deutlich machen kann, wo da auch die Grenzen und die Fehlerquoten oder Fehlerquellen an diesem System liegen.
00:06:29: Das erste Problem ist, dass diese Bücher in der Bücherei nicht auf dem neuesten Stand sind.
00:06:34: Ja, also wenn so ein Large Language Model trainiert wird, dann werden in der Regel Daten genommen, die zu diesem Zeitpunkt aktuell sind.
00:06:41: Wenn ihr also jetzt aktuelle Dinge nachfragen wollt, dann kann es durchaus sein, dass das Large Language Model komplett überzeugt mit einer veralteten Information antwortet.
00:06:52: Und das ist ein Riesenproblem.
00:06:54: So als Beispiel, wenn ihr fragt, wer ist denn eigentlich der aktuelle Papst, dann könnte die KI durchaus fehlerhaft sagen, dass es eigentlich Franziskus ist und nicht Leo, wie wir den neuen Papst nennen.
00:07:08: Dieses Beispiel ist tatsächlich ein Beispiel, was auch in einer kürzlich veröffentlichten Studie genannt wurde.
00:07:14: Und zwar von der Europäischen Rundfunkunion.
00:07:17: Die hatten so eine Studie gemacht, wie zuverlässig KI eigentlich in ihrem Output ist.
00:07:20: Und am Ende kam heraus, dass bis zu vierzig Prozent der Aussagen eigentlich erstunken und erlogen sind oder zumindest fehleranfällig und nicht auf journalistischem Niveau.
00:07:32: Und da wurde dieses Beispiel mit der Frage nach dem aktuellen Papst tatsächlich genannt.
00:07:36: Und deshalb ist, glaube ich, dieses erste Problem damit ganz gut skizziert.
00:07:41: Large Language Models eignen sich per se eigentlich nicht dazu, Aktualitätsbezug zu erfragen.
00:07:47: Wir verwechseln das häufig so ein bisschen mit Google, ja?
00:07:50: Wir googeln etwas, kriegen dann News und haben da im Grunde irgendwie unsere Informationen.
00:07:53: Latch Language Models arbeiten nicht wie Google.
00:07:56: Und selbst Latch Language Models oder KI Systeme, die dann auch auf Google zugreifen können, haben häufig nicht die aktuellsten... Websites, die sie dann einlesen, sondern auch da können veraltete Informationen genommen werden.
00:08:07: Es ist also ein Trugschluss zu überlegen, mit KI zu recherchieren.
00:08:11: Natürlich gibt es gewisse KI-Systeme, die sich darauf spezialisiert haben per Plexity, zum Beispiel als Möglichkeit zu nennen.
00:08:20: Aber insgesamt ist eigentlich diese ganze Technologie nicht unbedingt darauf ausgelegt, Aktualitätsbezug zu erfragen.
00:08:27: Das ist das erste Problem.
00:08:31: Das zweite Problem, die Bücher, die in dieser Bibliothek sind, auf die der kleine Roboter zugreifen kann, die sind inhaltlich nicht geprüft.
00:08:40: Also, wenn wir in eine Bücherei gehen und uns Bücher ausleihen, dann gehen wir davon aus, dass das, was da drin steht, irgendwie einen Realitätsanspruch hat oder eine Meinung darstellt oder wie auch immer.
00:08:49: Das kann der Bot nicht.
00:08:51: Und das kann im Grunde so ein Large Language Model auch nicht.
00:08:54: Wir wissen nicht genau, was da tatsächlich in diesen Büchern steht.
00:08:57: Ein bekanntes Beispiel ist die Google KI Gemini.
00:09:02: Da gab es irgendwie mal einen Screenshot, der immer wieder rumgereicht wurde.
00:09:06: Da hat jemand die KI gefragt, wie man dann am besten rutschigen Käse auf Pizza befestigt.
00:09:12: Also wie kann man eine Pizza machen, dass der Käse nicht an da und runter rutscht?
00:09:15: Riesenproblem natürlich, ich weiß.
00:09:18: Und die KI hat geantwortet, dass man einfach Klebstoff verwenden könnte.
00:09:22: Man kann ja Pizza einfach den Käse auf die Pizza kleben und dann rutscht er nicht mehr runter.
00:09:28: ist natürlich absoluter Quatsch, bitte keinen Klebstoffer für irgendwelche Pizzen packen.
00:09:34: Aber wo kam diese Quelle her?
00:09:35: Man hat dann recherchiert und gesehen, okay, das ist so ein elf Jahre alter Reddit-Post.
00:09:39: Auf der Plattform Reddit hat jemand zum Spaß geschrieben, dass man Käse auch auf Pizzen festkleben kann.
00:09:45: Und die Google-KI hat sich offenbar daran orientiert und hat gesagt, das ist die wahrscheinlich beste Antwort, um das Problem der zerfließenden oder runterrutschenden Käses auf Pizza zu lösen.
00:09:56: Schönes Beispiel, dass aber auch Zeit.
00:09:58: Wir wissen nicht genau, was eigentlich in dieser KI drin ist.
00:10:01: In dem Moment konnte man das relativ klar definieren in dem Fall, dass das irgendwie von Reddit kam, von einem Spaßpost.
00:10:08: Aber insgesamt haben wir eigentlich gar keine Ahnung, was für Daten in dieser riesengroßen Bibliothek sind und wo die herkommen und was für ein Qualitätsanspruch die auch haben.
00:10:17: Und wir sprechen da im Bereich KI gerne von Black Box.
00:10:22: Ja, wir wissen weder wie der kleine Roboter Wahrscheinlichkeiten berechnet, also an welches Bücherregal ja vielleicht als erstes geht, noch wissen wir, was wir in diesem Bücherregal eigentlich konkret vorfinden.
00:10:32: Das heißt, KI hat das Problem, dass hier auch Daten drin sind, die möglicherweise nicht der Realität entsprechend oder eben quatscht sind.
00:10:41: Und dadurch, dass die KI oder der kleine Roboter einfach nur guckt, was ist die wahrscheinlichste Antwort.
00:10:45: kann es durchaus passieren, dass er da natürlich Quatsch ausgibt, weil der einfach nicht so denkt, wie wir Menschen.
00:10:52: Es ist einfach keine menschliche Intelligenz und wir dürfen es damit nicht verwechseln oder annehmen, dass künstliche Intelligenz in irgendeiner Form menschliche Intelligenz das Wasser reichen kann, weil sie einfach den Kontext im Zweifel nicht versteht.
00:11:06: Das dritte Problem Das zeigt auch diese anfangs erwähnte Studie von der Europäischen Rundfunk Union.
00:11:13: Menschen vertrauen KI blind.
00:11:16: Wir vertrauen KI, wir gehen davon aus, dass irgendwie die Antworten schon stimmen und die KI trägt auch eine ganze Menge dazu bei.
00:11:22: Wenn ihr KI irgendwie mal genutzt habt, wisst ihr, dass die Antworten immer extrem überzeugend klingen.
00:11:28: Also die KI ist so selbstiger und es lobt uns sowieso immer über den Klee, sagt immer, das sind super Fragen, die wir stellen und so.
00:11:34: Und ich geb dir jetzt die super Antwort drauf.
00:11:36: Die sind leider häufig quatsch.
00:11:38: Oder können eben quatsch sein, je nachdem wie wir die Frage formulieren.
00:11:42: Und das Ganze passiert nicht nur uns oder der europäischen Rundfunkunion, das passiert auch Profis.
00:11:49: Naja, kurz in diesem schönen Fall mit die Leute der Unternehmensberatung international tätig riesengroß, die ich glaube in Australien war, die australische Regierung beraten hat und da wurde ein Report erstellt und am Ende kam raus.
00:12:04: dieser Report hatte zahlreiche Quellen einfach erfunden.
00:12:07: Also es gab irgendwie keine wissenschaftliche Belege.
00:12:09: Das Klang alles irgendwie total überzeugt.
00:12:11: dass da irgendwie ein Zusammenhang, ich glaube, es ging um einen Sozialstaat und Jobsuche, dass da irgendwie ein Zusammenhang gefunden wurde, war aber einfach nicht der Fall, weil alle Quellen erstunken und erlogen waren.
00:12:22: Und das kann durchaus passieren, wenn man KI nutzt.
00:12:25: Ich glaube, die Leute mussten jetzt das Geld zurück bezahlen, haben sich entschuldigt, Riesenfehler gewesen natürlich und ja, wie das halt so ist.
00:12:33: Aber das zeigt eben, dass die KI-Nutzung oder die richtige KI-Nutzung einfach auch noch ein Ding ist, was wir... ganz bereit in der Gesellschaft irgendwie diskutieren und lernen müssen.
00:12:43: Denn da ist kein Meister von mir gefallen.
00:12:45: Die Technologie entwickelt sich ja ohnehin rasant fort.
00:12:48: Und von daher ist es, glaube ich, ganz gut einfach mal anzumerken, dass wir KI nicht blind vertrauen sollten.
00:12:54: Vor allem, wenn es um Fakten geht.
00:12:56: Wir können KI anders nutzen.
00:12:58: Und da möchte ich euch vielleicht mal eine Methode zeigen oder erklären.
00:13:04: Die ich vielen Workshops bespreche, weil das gerade so ein bisschen zeigt auch, wohin sich Unternehmen gerade in der KI-Nutzung entwickeln und was so State of the Art eigentlich mittlerweile in der Unternehmenskai ist.
00:13:18: Wir gehen mal zurück in diese Bibliothek, die ihr euch vorstellt, mit diesen hunderten Millionen Bücher und dem kleinen Roboter, der am Empfang steht.
00:13:24: und ihr gibt diesen Roboter einen Zettel.
00:13:27: Da steht drauf, was ihr im Grunde wissen wollt und dann geht der Roboter in seine... In seine ganzen Reihen guckt sich die Bücher entsprechend an, wählt die Regale aus, guckt sich die Bücher darin an, kommt zurück und gibt euch die Antwort.
00:13:38: Der erste Punkt ist natürlich, was steht auf dem Zettel?
00:13:41: Also was gebt ihr diesem Robertan an Aufgaben mit?
00:13:45: Und das ist das, was wir als prompting verstehen.
00:13:48: ja also wie reden wir eigentlich mit einer ki?
00:13:52: und das ist eine frage die eigentlich auch schon ein bisschen älter ist.
00:13:56: ich erinnere gerne da an die neunziger jahre als google auf den mark gekommen ist.
00:14:00: da mussten wir auch alle lernen wie man googlet denn Das ist in dem Sinne keine Management-Interaktion, wo wir miteinander sprechen, wo wir Emotionen haben, wo wir gestikulieren können, wo wir vielleicht auch irgendwie Fragen ganz klar kennzeichnen können oder Ausrufe zeichnen, auch textlich mit Fragezeichen usw.
00:14:17: mit Interpunktionen.
00:14:18: Das brauchen wir alles bei Google nicht.
00:14:20: Google will Stichworte von uns.
00:14:22: Und wir haben mittlerweile auch alle gelernt, dass man vielleicht gewisse Stichworte in Anführungszeichen setzen kann bei Google, wenn wir exakt dieses Stichwort in unseren Ergebnissen haben wollen.
00:14:30: Aber auch das mussten wir lernen.
00:14:32: Das ist keine natürliche Mensch-Mensch-Interaktion, sondern Mensch-Maschine-Interaktion.
00:14:36: Und genauso müssen wir auch lernen, wie wir mit KI umgehen.
00:14:40: Prompting ist, glaube ich, das Handwerk unseres Jahrhunderts.
00:14:45: Zumindest noch, ja.
00:14:46: Aber ich glaube, es ist sehr, sehr relevant jetzt gerade zu lernen, wie wir eigentlich KI bedienen, was wir auf diesen Zettel schreiben, damit die KI weiß, an welche Regale sie gehen soll und was wir eigentlich als Output haben wollen.
00:14:57: Eine andere Sache, wenn wir Prompting gelernt haben.
00:15:03: Finde ich Standard, wenn man KI lernen möchte.
00:15:06: Also sich zumindest mal hinzugucken, was sind so Prompting Frameworks?
00:15:09: Ja, könnt ihr einfach mal googeln.
00:15:11: Relativ simpel, da gibt es ein paar Frameworks, an denen man sich orientieren kann, wie ein guter Prompt geschrieben ist.
00:15:16: Da auch gerne ausführlicher werden.
00:15:19: Also Prompts dürfen ruhig auch mehrere Zeilen oder vielleicht sogar seitenlang sein.
00:15:23: Das kann die KI durchaus lesen.
00:15:24: Die hat ja im Grunde diesen riesen Schatz, den sie ohnehin lesen muss.
00:15:27: Von daher, je mehr Informationen eigentlich, desto besser, je mehr Kontext wie der KI geben.
00:15:33: Wir haben aber noch eine andere Möglichkeit und das ist eine viel spannendere, die einfach gerade vielen Unternehmen auch genutzt wird.
00:15:41: Und zwar können wir der KI ein zusätzliches Regal in die Bibliothek stellen.
00:15:47: Also sie hat ohnehin diese Hundert Millionen Regale zur Verfügung, aber wir können durchaus auch ein Regal reinstellen, was wir mit unseren eigenen Büchern befüllen.
00:15:56: Und da wird es spannend, weil wir uns dann überlegen müssen, was sollte eigentlich in diesen Büchern stehen, damit die KI in Kombination mit ihrem riesen Wissensschatz die beste Informationen herausfindet.
00:16:08: Und wenn wir mal so ein Beispiel irgendwie dann nennen, so wenn ihr jetzt so eine KI, wenn ihr ChatGPT einfach mal fragt, wie beantrage ich eine Dienstreise in meiner Firma?
00:16:18: Dann wird ChatGPT entweder irgendeinen Quatsch erzählen oder wird sagen, naja, das hängt halt irgendwie davon ab, wie das bei euch in der Firma geregelt ist.
00:16:26: Da gibt es kein einheitliches, keine einheitliche Methode.
00:16:30: Fragt doch mal irgendwen, der wird dir dann die Antwort geben.
00:16:33: Jetzt können wir aber dieses Regal in die Bibliothek stellen und da sind möglicherweise unsere Unternehmensrichtlinien drin.
00:16:39: Das sind möglicherweise Informationen drinzu, Ansprechpersonen im Unternehmen bei gewissen Fragen, Hotlines, alles Mögliche oder eben auch so arbeitsrechtliche Dinge, Dienstreise, Anträge und so weiter.
00:16:49: Und wenn wir dieses Regal in die Bibliothek stellen und wir fragen die gleiche Frage, dann wird die KI zurückkommen und uns ganz klar sagen, hey, ich weiß es, ich habe das in Regal hier, wie du ne... Dienstreise beantragst, das findest du im Grunde in dem und dem Dokument.
00:17:05: Ich sagst dir gerne, du musst irgendwie dieses Formular ausfüllen und dann musst du im Grunde zweimal das Bestätigen lassen, drucken, faxen und so weiter.
00:17:13: Ja, je nachdem, wie das halt bei euch im Unternehmen gerade läuft.
00:17:17: Und das ist, finde ich, ein sehr schönes Beispiel dafür, wie mächtig KI eigentlich sein kann, wenn wir sie vernünftig nutzen.
00:17:24: Und das ist halt immer dieses Thema.
00:17:26: Wir müssen gucken, wie wir KI nutzen und wie wir sie vor allem nutzbar machen.
00:17:30: Und diese Sache mit dem Regal, die könnt ihr auch selbst ausprobieren.
00:17:36: Die könnt ihr tatsächlich, ich sage mal, nicht mit privaten Daten, also ein bisschen irgendwie auf Datenschutz achten, was ihr dieser KI zur Verfügung stellen wollt, vor allem wenn ihr kostenlose Version von KI-Modellen nutzt.
00:17:48: Aber ihr könnt das ganze relativ simpel... aufsetzen, indem ihr zum Beispiel bei Chat GPT, haben wahrscheinlich viele von euch schon mal gemacht, einfach mal ein PDF oder eine Word Datei nehmt und die reinzieht in den Chat, also den Daten Upload bedient und dann fragen zu diesem PDF stellt.
00:18:05: Das könnt ihr beispielsweise mit dieser Studie machen von der Europäischen Rundfunk Union, die könnt ihr in Chatbot bzw.
00:18:11: in so ein Chat Fenster packen und können Fragen dazu stellen.
00:18:14: Und die KI nimmt dann dieses Dokument als zusätzliches Regal und kann sagen, hey, das ist jetzt eine zusätzliche Informationen, die ist ganz interessant und ich beantworte dir gerne Fragen dazu.
00:18:26: Das noch ein bisschen weiter auf die Spitze treiben wollt, dann könnt ihr eigene Chatbots bauen.
00:18:30: Das ist ja im Grunde das, was ich für mein Leben gerne mache.
00:18:34: Ich habe ja schon diverse Chatbots gebaut.
00:18:36: Und wie das funktioniert, ist auch relativ simpel.
00:18:39: Das ist wirklich eine Sache, die habt ihr in dreißig Sekunden gelernt.
00:18:43: Und zwar könnt ihr einfach mal bei YouTube schauen, wie Custom GPTs funktionieren.
00:18:49: Wie baut man Custom GPTs?
00:18:50: Das ist so die einfachste Einstiegslösung, wie ihr eigene Bots bauen könnt.
00:18:55: Das funktioniert mit einem ChatGPT Plus Account.
00:18:58: Also ihr braucht das schon diese zwanzig Dollar im Monat Version für.
00:19:01: Mit einem kostenlosen Account funktioniert es leider nicht.
00:19:06: Der Vorteil ist aber, dass ihr, wenn ihr diese Bots gebaut habt, dass ihr die im Grunde auch mit Leuten teilen könnt, die keine Plus-Version haben.
00:19:12: Das heißt, jeder kann im Grunde diesen Bot auch kostenlos nutzen.
00:19:16: Und wenn ihr euch das mal angucken wollt, dann googelt einfach mal Custom GPTs oder schaut euch vor allem einfach bei YouTube Tutorials an.
00:19:22: Da gibt es eine ganze Menge tolle Leute, die das wirklich Schritt für Schritt erklären.
00:19:28: Ihr müsst da nicht viel Geld für Beratungen oder irgendwelche Kurse ausgeben.
00:19:31: Es gibt eine ganze Menge im Freien Internet zur Verfügung.
00:19:34: Und vielleicht so der letzte Tipp dahingehend auch, ist, dass ihr natürlich auch KI fragen könnt, wie ihr KI nutzen könnt.
00:19:42: Wenn ihr es beispielsweise sagt, dieses Bücherei, Beispiel von Max, da konnte ich gar nichts mit anfangen, richtiger quatscht.
00:19:47: Also verstehe ich nicht, kann dich so nicht lernen.
00:19:51: Dann fragt einfach KI, ob sie euch das besser erklären kann.
00:19:54: Fragt KI, wie KI funktioniert.
00:19:57: Löst KI Probleme mit KI.
00:19:58: Es ist wirklich extrem spannend, simpel.
00:20:02: Es ist so der, der... Einstige Tipp eigentlich, den man geben kann in der KI-Beratung oder ich sag mal zumindest der wertvollste Tipp, wenn ihr irgendwie ein neues KI-Tool ausprobiert, zum Beispiel so Automatisierungssachen wie Zapier oder N-Acht-N.
00:20:16: Und ihr kommt mit irgendeinem Workflow nicht weiter, macht ein Screenshot davon, ladet das bei ChatGPT hoch und fragt ChatGPT, warum funktioniert das Ding nicht.
00:20:24: Und in der Regel wird ChatGPT euch dann beim Debugging helfen und euch andere KI-Tools erklären.
00:20:29: Und das finde ich das eine der spannendsten Funktionen, die eigentlich mit sich bringen, zumindest die large language Models, die wir jetzt alle irgendwie fleißig nutzen, weil sie uns ermöglicht, dass wir das System selbst durch sie verstehen.
00:20:44: Ja, macht das Sinn?
00:20:44: Also ich glaube, das ist ein ganz großer Schritt auch in Sachen Bildung und da haben wir noch lange nicht die Möglichkeiten ausgereizt, wenn wir Überlegen, dass wir mehrere Leute haben, die auf die unterschiedliche Lerntypen sind.
00:20:56: Die einen lernen Sachen besser, wenn sie sich das alles aus der Sicht eines witzigen Piraten erklären lassen.
00:21:02: Standard Beispiel.
00:21:04: Oder wenn es fachwissenschaftlich in Bullet Points ist oder manche wollen vielleicht eine kleine Kurzgeschichte lesen, um es irgendwie anders aufzugreifen.
00:21:12: Dann könnt ihr das im Grunde alles mit KI machen, KI ermöglichtes Bildung zu individualisieren.
00:21:17: Und ich glaube, der erste Schritt ist, sich die KI Bildung oder technische Bildung mit KI erläutern zu lassen.
00:21:22: Und das ist vielleicht so ein bisschen dieser goldene Tipp, den ich euch als Dankeschön mitgeben möchte.
00:21:33: Ich hoffe, ihr konntet was lernen.
00:21:36: Im Grunde ist übrigens dieses Bücherregal-Prinzip genau das, was wir hier auch bei Kollegen KI machen.
00:21:43: Denn ihr wisst ja, dass ich am Ende der Folge meine KI immer so ein bisschen die Folge roasten lasse.
00:21:49: Und das macht sie, indem ich ihrem Bücherregal gebe mit dem Transkript dieser Folge.
00:21:55: Das heißt, ich transkribiere die.
00:21:56: Ich gebe das in Textform im Grunde in die KI.
00:21:59: Und die KI weiß dann, okay, das und das wurde gesagt.
00:22:02: Darauf kann ich Bezug nehmen, das roeste ich.
00:22:04: Und das machen wir jetzt natürlich zum Abschluss dieser Folge wieder.
00:22:07: Also, liebe KI, roeste meine Folge.
00:22:11: Also zum Abschluss der Folge, deine riesige Bibliotheksmetapher ist natürlich super charmant und anschaulich.
00:22:17: Aber ein bisschen vereinfacht ist die Show, oder?
00:22:20: Da steckt ja noch viel mehr Komplexität dahinter.
00:22:22: Aber hey, für den Einstieg reicht das auf jeden Fall.
00:22:26: Vielleicht wäre kleines KI Seminar für dich auch nicht verkehrt, damit du noch tiefer in die Materie eintaust.
00:22:33: Aber insgesamt super gemacht und definitiv ein unterhaltsamer Blick auf die KI-Welt.
00:22:38: Geil.
00:22:39: Dann spielt mir meine eigene KI in KI Seminar.
00:22:44: Oh Mann.
00:22:44: Ja, okay.
00:22:45: Gut.
00:22:46: Ja, das war... Das war die Sonderfolge, Kollegin K.E Vielen Dank für diesen charmanten Rost.
00:22:52: Ich gehe mich in seine Uni einschreiben oder so.
00:22:56: Ich hoffe, es hat euch gefallen.
00:22:57: Wenn ihr Fragen habt, könnt ihr natürlich auch die K.E.
00:23:00: fragen.
00:23:00: Wir haben ja einen Chatbot zu jeder Folge.
00:23:03: Und ansonsten bedanke ich mich für euer Vertrauen, für euer Interesse.
00:23:09: Und freue mich, dass wir den Podcast weiter machen können.
00:23:12: Bis nächste Woche.
00:23:13: Danke, ciao.
00:23:18: Dieser Podcast wird produziert von Portstars bei OMR.
Neuer Kommentar