Was ist das beste KI-Tool?

Shownotes

Was ist das beste KI-Tool? Max Mundhenke räumt in dieser Solofolge mit der Hoffnung auf die eine eierlegende Wollmilchsau auf. Seine zentrale These: Erst der Use Case, dann das Tool. Wer sich blind an einen Anbieter bindet, manövriert sich in eine gefährliche Unflexibilität. Max erklärt praxisnah, warum Benchmarks oft blenden, wie Retrieval Augmented Generation (RAG) Unternehmensdaten bändigt und warum wir bei der Wahl zwischen US-Giganten und europäischen Alternativen oft zwischen „Pest und Cholera“ entscheiden. Eine ehrliche Analyse über die Grenzen der Automatisierung bei Präsentationen und die notwendige Akzeptanz, dass KI derzeit alles andere als eine „grüne“ Technologie ist.

Das sind die Themen dieser Solo-Episode von „Kollegin KI“

  • Mythos KI-Benchmarks: Warum glänzende Bestenlisten im Internet oft wenig über die tatsächliche Performance im Arbeitsalltag aussagen.
  • Fokus Use Cases: Entdecken Sie, Wieso die Analyse der Prozesse im Unternehmen der einzige Weg ist, um nicht mit dem falschen Werkzeug am falschen Problem zu scheitern.
  • Power durch RAG: Wie Retrieval Augmented Generation riesige Wissensdatenbanken durchsuchbar macht, ohne in die Halluzinationsfalle zu führen.
  • Herausforderung Corporate Security: Warum eine KI Passwörter in Ihren tiefsten Ordnerstrukturen findet und welche Sicherheitsvorkehrungen jetzt Pflicht sind.
  • Grenzen der Präsentationserstellung: Weshalb Tools wie Gamma zwar helfen, die menschliche Storyline und das Corporate Design aber (noch) nicht ersetzen können.
  • Strategie flexible Architektur: Warum man jederzeit in der Lage sein muss, ein genutztes Sprachmodell auszutauschen, um langfristig wettbewerbsfähig zu bleiben.
  • Dilemma Nachhaltige KI: Weshalb bei KI immenser Stromverbrauch und prekäre Arbeitsbedingungen noch immer der Preis für unsere digitale Effizienz sind.
  • Vorteil Individuelle Einführung: Warum starre Prompt-Bibliotheken scheitern und die persönliche Begeisterung Ihrer Mitarbeiter der wahre Motor der KI-Transformation ist.

Der Chatbot zur Folge: https://bio.to/KolleginKI_Chatbot

Den Max erwähnten Deepdive in die Funktionsweise von LLMs gibt es in Folge 5

Infos und User-Bewertungen zum erwähnten Tool Langdock (und vielen weiteren KI-Anwendungen) gibt es bei unseren Kolleg*innen von OMR Reviews: https://omr.com/de/reviews/product/langdock

Mehr zu Max bei Linkedin: https://www.linkedin.com/in/tomkraftwerk/

Produktion: Podstars by OMR

Transkript anzeigen

00:00:01: Eine der häufigsten Fragen, die mir auch in der Beratung begegnen ist.

00:00:06: Was für KI soll ich eigentlich nutzen?

00:00:08: Also was für ein Modell soll ich nutzen?

00:00:10: Was nutzen wir im Unternehmen am besten um so die volle Effizienz raus zu holen?

00:00:15: und die Frage ist gar nicht so einfach zu beantworten es gibt eine ganze Menge KI Tools derzeit über zweiundvierzig tausend die auf dem Markt sind Und die Frage nach dem besten KI-Tool lässt sich gar nicht so einfach beantworten.

00:00:30: Ich möchte mich in dieser Folge trotzdem einmal mit der Frage beschäftigen und euch ein bisschen eine Herleitung geben, wie ihr das für euch beste KI Tool eigentlich herausfindet.

00:00:42: Das wird ne Solo-Folge!

00:00:43: Ich fraue mich ganz doll drauf – ich werde das jetzt als One Take hier einsprechen und euch einmal durchführen.

00:00:47: Ich hoffe es klappt!

00:00:49: Ich bin Max Mundtänke, das ist Kollegin KI.

00:00:51: Gehen wir rein!

00:00:53: Ja, Leute.

00:00:54: Derzeit ist ja Quit GPT glaube ich ein ganz großer Trend.

00:00:59: Viele Leute verlassen Chat GPT weil Open AI so einen Deal mit dem Pentagon gemacht hat und das natürlich ganz offensichtlich bei einigen wertorientierten Unternehmen auch nicht mehr in die Policy passt.

00:01:11: Und da wechseln gerade viele zu Claude.

00:01:14: Ja, also Claude scheint grade von Anthropic scheint irgendwie das die Alternative zu sein und ich will heute mal ein bisschen tiefer reingehen.

00:01:21: ja was sind denn eigentlich die Unterschiede zwischen den large language Models?

00:01:24: welche tools sind denn jetzt am besten geeignet eigentlich für Unternehmen?

00:01:28: Und wo holt ihr tatsächlich das Beste raus?

00:01:31: und Da start' ich vielleicht einfach mal mit dieser Frage die immer wieder gestellt wird Was ist das beste large language model?

00:01:37: und Die frage habe Ich ja gesagt es schwer zu beantworten.

00:01:40: Es gibt Benchmarks.

00:01:42: Es gibt so Benchmark, die werden regelmäßig veröffentlicht da werden wenn neues Language-Model irgendwo trainiert wurde wird das anhand dieser Bench Marks gemessen und dann gibt es da so Listen die im Internet kursieren wie.

00:01:53: dieses Modell ist besonders gut in Deep Thinking.

00:01:56: der ist also so reasoning Prozesse also kann gut überlegen dieses Model ist besonders schnell hat große Kontextfenster und so weiter und sofort.

00:02:02: Das Problem an diesen Benchmarks ist, dass die nicht einheitlich sind.

00:02:06: Es gibt durchaus auch große KI-Betreiber, die Benchmark selbst erfinden oder ihre KI-Modelle einfach nur auf diese Bench Marks hintrainieren damit sie irgendwie in diesen Listen auftauchen.

00:02:18: das hat am Ende relativ wenig Vorteile für die Daily Nutzung.

00:02:22: von daher würde ich da nicht viel auf BenchMark geben sondern mich von einer anderen Seite nähern und die ist wirklich Use Case First.

00:02:30: also erst zu überlegen Was möchte ich denn eigentlich machen?

00:02:34: Bei was soll mir den KI helfen, ja.

00:02:36: Was ist denn ein Prozess, den ich automatisieren möchte oder optimieren möchte?

00:02:40: Wer soll KI bei mir im Unternehmen eigentlich nutzen?

00:02:43: Wofür möchte ich eigentlich KI nutzen und darauf hin dann zu schauen, was gibt es dafür Anbieter und was haben die für Stärken und Schwächen?

00:02:50: Denn kein KI-Tool ist perfekt und kann alles.

00:02:53: das muss man an der Stelle hier einmal ganz deutlich sagen Und da können wir mal ein bisschen reingehen und schauen.

00:03:00: also Drei Use Cases habe ich mal rausgesucht, die ich ganz gerne mache.

00:03:04: Also meine drei Lieblingsuse Cases für die KI-Nutzung sind tatsächlich zum einen PDF-Summarisen oder große Datensätze einmal in Bullet Points zusammenfassen lassen zu gucken.

00:03:15: was steht denn hier eigentlich in dieser ewig lang Mail?

00:03:17: Oder in diesem hundertseitenlangen PDF indem es um beispielsweise Plenarsitzungsprotokolle geht etwas was im politischen Bereich häufig gemacht wird und wo ich jetzt auch ein Tool daraus gebaut habe?

00:03:29: Das ist so ein bisschen der erste Use Case, den ich beleuchten möchte.

00:03:32: Der zweite Use Case ist Präsentationen bauen.

00:03:36: Kennt ihr alle wahrscheinlich?

00:03:37: Wenn ihr beruflich irgendwie Präszentationen bauern wollt dann kommt ihr da relativ schnell auch an eure Grenzen.

00:03:42: Da können wir auch mal drauf schauen.

00:03:44: und das dritte ist Recherche.

00:03:47: Also zuerst Mal gucken wie können große Datenmengen eigentlich?

00:03:50: mit welchem Language-Language-Model können große Datemengen gut analysiert werden Und zusammengefasst werden?

00:03:55: dann Präsensationen bauen Die Recherche und fangen wir mit dem ersten Mal an.

00:03:59: Also grundsätzlich gibt es eigentlich kein Anbieter, der heutzutage keine PDF oder überhaupt Dokumente mehr annimmt.

00:04:07: also man kann im Grunde Dokument relativ simpel in Chatfenster ziehen und kann sagen hey fast mir das doch mal zusammen schauen was da drin steht Man kann Fragen an das Dokument stellen und so weiter.

00:04:17: ja Das ist eigentlich etwas, was die meisten large language Models gut können bzw.

00:04:21: die meisten User Interfaces über ihr Large Language Models erreicht.

00:04:25: Da gibt es natürlich Unterschiede zum einen in den angenommenen Dokumentengrößen bei manchen large languages Models zu hundert Seiten PDFs relativ schwierig oder... Ich hatte beispielsweise mal einen Chatbot gebaut, hab ich auch schon erzählt der mir bei der Steuerklärung helfen soll und den habe ich gefüttert mit allen deutschen relevanten Gesetzen.

00:04:45: Und er sollte also die Steuergesetze ja und da sollten wir dann im Grunde helfen dabei meine Abrechnungen zu machen Buchhaltung usw.. Das hat eher schlecht als recht funktioniert muss man sagen.

00:04:55: mittlerweile sind diese Kontextfenster von dem Language Modus größer geworden und es gehen deutlich mehr Daten rein die auch gut ausgelesen werden.

00:05:04: Da unterscheiden die sich minimal, muss man sagen.

00:05:07: Also ich hab mal mit ChatGPT nutze ich das hauptsächlich.

00:05:11: es geht aber auch in Claude Es geht in Gemini.

00:05:13: Copilot macht manchmal so ein bisschen Faxen wenn man irgendwie Dokumente reinziehen möchte.

00:05:17: da bricht der Upload manchmal ab und dauert ein bisschen länger.

00:05:20: Aber in der Regel können das eigentlich alle großen Modelle.

00:05:23: Das heißt dass ist ein Use Case der es erprobt Der hilft euch extrem dabei unterstützen, wenn ihr Datenmengen zusammenfassen und pontiert wiedergeben wollt.

00:05:34: Das ist halt das eine was technisch möglich ist, dass andere isst.

00:05:38: Was gebt ihr denn im Grunde für ein Prompt ein?

00:05:41: Beziehungsweise was verlangt ihr denn von diesem large language model?

00:05:44: und ich hatte euch ja schon mal in einer anderen solo Folge erklärt wie large language models funktionieren hört die gerne wenn ihr jetzt noch ein bisschen überlärsch langwischen modus erfahren wollt vielleicht vorher weil das setzt sich jetzt hier voraus.

00:05:56: aber kurz und knapp, das ist ja eine Wahrscheinlichkeitsrechnung.

00:06:00: Also im Grunde gebt ihr da was ein und dann stellt ihr eine Frage dazu also zu dem Dokument und dann wird geguckt okay?

00:06:05: Was möchte der User hier für eine Antwort bekommen?

00:06:09: Dann wird geguckt was es die wahrscheinlichste Antwort, die ich dem User geben kann und dann kommt dieser Output im Grund über euch raus.

00:06:16: Jetzt muss man überlegen was stellt man für ne Frage Und nicht alle Fragen können von so einem Dash-Language überantwortet werden, auch wenn ihr gewisse Dokumente reingegeben habt in dem möglicherweise die Antwort auf die Frage drinsteht.

00:06:27: Das heißt, Prompting ist nach wie vor relevant Leute!

00:06:30: Man muss es irgendwie an der Stelle sagen, ihr müsst wissen, wie ihr KI bedient?

00:06:35: Was für Fragen könntet ihr stellen oder welche Fragen könnt ihr dir nicht stellen?

00:06:39: Beispielsweise Fragen nach Häufigkeit, eine Worthäufigkeit und Wortzählungen... Da ist ein bisschen schwierig zu fragen, wie oft kommt denn das Wort Und jetzt beispielsweise in diesem Datensatz vor, eine KI wird jetzt nicht irgendwie Wort für Wort kontrollieren.

00:06:54: Gucken ist das ein und oder nicht?

00:06:55: Und irgendwie Strichliste führen und euch dann sagen wie viel uns darin vorkommen.

00:06:59: Sondern die KI wird nach der wahrscheinlichsten Antwort gucken.

00:07:02: Und diese wahrscheinlichste Antwort ist in der Regel nie die richtige.

00:07:05: bedeutet wenn ihr halt solche Sachen habt wie zum Beispiel Wörter zählen Buchstaben zähln Zeichen zähle sowas Dann nutzt ihr in der Regel Code dafür.

00:07:14: Also das funktioniert bei den meisten Tools, dass ihr einfach hinten ran schreibt NutzeCode und dann schreibt halt die KI oder das KI-Programm, dass sie dann nutzt in der Regel einen kleinen Python-Code.

00:07:23: Das ist eine Programmiersprache.

00:07:25: Der Code ist darauf ausgelegt zu gucken wie viele Zeichen gibt es denn?

00:07:28: Wieviel Wörter, wieviel Werter...die ihr sucht sind im Grunde in diesem Dokument zu finden Und dann gibt's ein Ergebnis aus diesem Code Und das Ergebnis wird euch vom Large Language Model dann wiedergegeben.

00:07:40: Das heißt, dass ist gar nicht die Power des eigentlichen Large Language Models, das gut auf Worterkennung aus ist, sondern das ist im Grunde ein vom Large language Model geschriebener Code der euch dann entsprechende Ergebnisse liefert.

00:07:53: Dafür müsst ihr aber dem Large Language model in der Regel auch sagen, dass ihr so eine Worthäufigkeit haben wollt und wie das Large Language Module auf diese Worthaufigkeit kommt bedeutet Promting ist nicht obsolet.

00:08:04: Also ihr müsst tatsächlich erst mal verstehen, wie Ihr Large Language Models eigentlich bedient und was für Fragen ihr stellen könnt und welche nicht.

00:08:11: Das ist vielleicht zu das eine.

00:08:13: Also Dokumentenanalyse mit KI funktioniert extrem gut machen viele von euch auch schon weiß ich.

00:08:19: Es ist tatsächlich einer der klassischen Use Cases.

00:08:22: eigentlich ja Interessanter wird es, wenn ihr sagt, ihr wollt nicht nur ein PDF reingeben sondern ihr wollt möglicherweise eine ganze Wissensdatenbank aufbauen.

00:08:30: Das ist beispielsweise in Unternehmen der Fall wird häufig das verwendet wenn man sagt wir möchten unsere Gesamt unser gesamtes Unternehmenswissen eigentlich mal in so einen Chatbot packen hat ja Vorteile.

00:08:41: jeder Angestellte kann dann irgendwie Fragen stellen.

00:08:43: man kann Onboarding Prozesse beispielsweise deutlich einfacher gestalten.

00:08:48: Man kann fragen, wen ruf ich an wenn ich IT-Probleme habe oder was muss ich eigentlich machen um eine Reisekostenabrechnung zu machen?

00:08:54: und so weiter.

00:08:55: Und die Theorie sagt das dann im Grunde das Large Language Model in dieser riesengroßen Datenbank von Unternehmenswissen, wie richtige Informationen rausfindet und euch dann wiedergibt.

00:09:05: Das ist ein bisschen problematischer, wenn ihr das mit so offenen Tools machen wollt wie ChatGPT, Cloud, Gemini usw.. Denn die Datenmenge hier macht es am Ende schwieriger, ein passendes Ergebnis zu finden.

00:09:18: D.h.,

00:09:18: die Gefahr für Halluzination ist deutlich größer.

00:09:21: Was man jetzt in so einem Corporate-Umfeld dann macht, ist ein sogenanntes Rack-Bound – Retrieval Augmented Generation.

00:09:28: Wenn ihr den Podcast hört, habt ihr das mit Sicherheit auch schon mal gehört.

00:09:31: Im Grunde funktioniert das so, ganz untechnisch erklärt jetzt, dass Daten, die ihr von diesem Rack in diesen Speicher gebt, die werden vektorisiert.

00:09:41: Also ihr habt dann ein sogenanntes Embedding-Modell und dieses Embedning-Model weist jedem Token oder ihrem Begriff eine eigene Zahl zu.

00:09:49: Und wenn ihr dann eine Anfrage an dieses Modell stellt mit einem Large Language Model, wird das ebenfalls in Zahlen umgewandelt und diese Anfrage wird abgeglichen mit den Antwortmöglichkeiten bzw.

00:10:00: mit dem was im Dokument drin ist.

00:10:02: Das ist ein Similarity Search also es wird geguckt Was sind ähnliche Begriffe, die hier verwendet wurden?

00:10:07: Und das ist eigentlich so, dass Nonplus Ultra gerade was Suche in großen Datenmengen angeht.

00:10:13: Das funktioniert erstaunlich gut und ist tatsächlich bei vielen Unternehmen gerade schon im Einsatz.

00:10:19: Ich hatte es schon angesprochen, ich habe grad mit meinem Entwickler zusammen einen Tool gebaut, das heißt Parliament AI kann Werbung an dieser Stelle ja, das funktioniert im Grunde genauso, Zechtausende Dokumente vom Bundestag drin liegen, das sind Plenarsitzungsprotokolle.

00:10:34: Also ihr wisst vielleicht erst mal wenn im Bundestag irgendwie was besprochen wird dann werden die Sachen protokolliert und danach werden sie öffentlich zur Verfügung gestellt damit man sich diese Protokollee angucken kann.

00:10:44: Die sind häufig so hundert zweihundert Seiten lang.

00:10:46: Da gibt es dann zig Redebeiträge drin.

00:10:48: Es gibt natürlich auch kleine Anfragen, große Anfrage und so weiter und sofort.

00:10:52: Und wir haben diese ganzen Sachen mal wektorisiert und haben dann im Grunde gesagt Wir bauen jetzt ein Tool wo Leute Fragen dran stellen können und die bekommen dann Antworten auf Grundlage dieser riesengroßen Datenbank.

00:11:03: Problem ist, dass natürlich nach wie vor haluziniert wird.

00:11:05: Es liegt in der Natur der Sache das Large-Language-Models Haluzinieren Das lässt sich technisch auch nicht komplett unterdrücken.

00:11:12: Jeder der irgendwie sagt ja hat irgendwie das large language model wo es keine Halluzinationen gibt, der lügt muss man an dieser Stelle sagen.

00:11:18: denn diese Wahrscheinlichkeitsrechnung das heißt das probabilistische an KI sorgt dafür Dass ihr eben nicht immer die eine perfekte Antwort bekommt.

00:11:28: Es gibt durchaus Fehler da drin und vielleicht wenn ihr euch mal einfach so überlegt gibt es auch nicht unbedingt immer die eine richtige Antwort auf ganz viele Fragen.

00:11:37: Das mag sein... bei wissenschaftlichen Studien, bei Dingen die belegbar sind.

00:11:41: Aber wenn ihr Meinungsfragen stellt zu irgendwelchen Sachen dann gibt es einfach unterschiedliche Meinungen.

00:11:46: das heißt es gibt nicht die.

00:11:47: eine Wahrheit, die jetzt so ein large Language Model auch ausgeben kann bedeutet wir neigen dazu schnell zu schreien Halluzination und es funktioniert alles nicht.

00:11:55: die KI denkt sich hier irgendwas aus aber ist ganz häufig eben entweder der falsche Prompt den man gegeben hat oder eben das fehlende Kontext Wissen bzw dass zu große Kontextwissen aus dem einfach keine eindeutige Antwort herausgeht vielleicht auch im Hinterkopf behalten.

00:12:09: Halluzinationen sind einfach ein Problem, deshalb bedient man sich da mittlerweile auch anderen Angehensweisen zum Beispiel dass man sagt wenn eine Antwort von so einem Rack geliefert wird dann kann sehr schnell niedrigschwellig nachprüfen, woher dieser Antwort eigentlich kommt.

00:12:26: Bedeutet man hat möglicherweise einen Link der auf das Dokument aus dem diese Antwort generiert wurde verlinkt?

00:12:31: Man kann sich das Dokumente an Händisch angucken und schauen.

00:12:33: stimmt denn diese Antwort überhaupt mit dem was hier im Dokument gefunden wurde überein oder sind die Schlüsse die so eine KI auf Grundlage dieser Datenmenge gezogen hat eigentlich korrekt?

00:12:43: Das heißt, Halluzination lässt man in der Regel zu.

00:12:46: Man schaut aber eben ist das so schnell belegbar und da liegt ein bisschen die Kunst im guten Rack-Bauen.

00:12:53: Das ist jetzt ein bisschen komplizierter gerade wenn wir auf die Anfangsfrage zurückkommen was sind denn es die richtige KI fürs Unternehmen?

00:13:00: Denn solche Racks sind in der Regel sehr individualisiert und die werden individuell gebaut für Unternehmen auch je nach Datenstruktur.

00:13:10: Ich kann mal ein Beispiel nehmen, wenn ihr einen Rack baut und ihr habt jetzt irgendwie einhundert Dokumente.

00:13:16: Dann werden diese einhundertokumente nicht in Gänze sofort vektorisiert sondern ihr chankt die vorher.

00:13:22: Das nennt man Chanken.

00:13:23: Ihr könnt euch vorstellen dass so ein Dokument dann irgendwie in ganz viele kleine Teile zerteilt wird und diese kleinen Teile gehen dann im Grunde in die Vektorisierung beziehungsweise in die vector Datenbank.

00:13:34: Jetzt ist es so das je nachdem wie ihr chankt natürlich unterschiedliche Ergebnisse bekommt.

00:13:40: das heißt chunking ist eine eigene strategie um sowas aufzusetzen.

00:13:44: und so ein beispiel was ich da gerne nehme ist wenn ihr einen fließtext habt also ich sag mal in buch ja wenn ihr ein buch habt irgendwie zwei hundert dreißig seiten dann müsst ihr euch schon überlegen, wie ihr das chanket.

00:13:56: in der regel würde man da gleich große chunks nehmen.

00:13:59: Man würde einen sogenannten overlap einbauen.

00:14:02: Chunk I hat dann irgendwie die ersten zwei Seiten und Chunk II hat dann Seite III und IV.

00:14:08: Man sagt aber, da gibt es einen Overlap bedeutet das im zweiten Chunk auch noch so die letzten Zeilen von Chunk IX verfügbar sind damit man ein bisschen Kontextwissen auch herausfindet damit sie eben nicht einfach nur für sich stehen sondern auch ein bisschen Bezug zum vorherigen Kapitel haben.

00:14:24: möglicherweise solche Dinge.

00:14:27: Anders sieht das aus, wenn ihr jetzt Gesetzestexte oder so dann chunken wollt und in Racks einfügen wollt.

00:14:32: Da macht es natürlich irgendwie Sinn zu gucken wann geht ein neues Gesetz los also neuer Artikel, neuer Paragraf?

00:14:38: Und wann endet der?

00:14:40: Dann kann es durchaus sinnvoll sein da eher seine Grenzen zu setzen und da muss es vielleicht auch gar kein Overlap mehr geben sondern die können.

00:14:46: Gesetze können für sich alleine stehen.

00:14:49: Schwierig wird es dann, wenn Gesetze sich untereinander beeinflussen.

00:14:52: Da geht man an andere Wege und man guckt nach so was wie Graph-Rag.

00:14:55: Ja also es gibt da durchaus nochmal Zwischenbeziehung zwischen den einzelnen Chancen... Es ist eine Kunst für sich!

00:15:01: Das ist glaube ich so ein bisschen die Kernaussage.

00:15:05: Das ist auch nach wie vor ein Wissenschaftsgebiet ja?

00:15:07: Also das wird an Universitäten dazu geforscht, wie man im Grunde Rags aufbauen kann, also dieses Retrieval Augmented Generation, so heißt die Methodik.

00:15:17: Wie man die tatsächlich optimieren kann Und da gibt's am laufenden Band Neuerung.

00:15:20: Muss man sagen, es gibt ganz viele Paper die dazu veröffentlicht werden weil es einfach so eine der großen neuen Use Cases für KI ist dass man die klassische Suche, die im Grunde ne Sucheingabe Schritt-für-Schritt abgeglichen hat mit einer Datenbank wo genau diese Wörter dann halt auch gefunden werden mussten das man das ganze semantisch macht und sagt okay wenn ich jetzt irgendwie weiß nicht Fisch eingebe, dann wird in der Datenbank auch geguckt nach Tieren im Meer, Mahlzeiten, Zubereitungsmöglichkeiten, Angel usw.

00:15:56: Das ist im Grunde so ein bisschen erklärt wie so'n Rack funktioniert.

00:15:59: das Problem ist wenn ihr jetzt sagt dass wollen wir auch im Unternehmen total simpel wir holen es irgendwie so einen Anbieter und kippen wir einfach alles rein was wir haben unsere gesamte Datenbank die wir haben auf dem SharePoint oder wie auch immer Die machen wir mit KI verfügbar.

00:16:11: Dann wird es eben schwierig weil ihr zum Einen Bei den meisten Anbietern, die das so propagieren, dass sie das können keine eigene Chunking-Strategie einstellen könnt.

00:16:21: Also ihr habt nicht dieses kleine Rädchen an dem ihr drehen könnt was die Ergebnis am Ende besser macht sondern es wird alles automatisiert irgendwie reingeworfen.

00:16:29: Das heißt die Ergebnisse sind in der Regel nicht so gut wie wenn ihr da selbst Hand anlegt und selbst schaut Wie kann ich denn irgendwie meine Daten jetzt aufbereiten?

00:16:37: Das andere Problem bei solchen Use Cases ist ein Sicherheitsproblem Denn wenn ihr jetzt ein Unternehmen habt mit einer tausend Angestellten dann kann ich euch jetzt hier Brief und Siegel drauf geben dass unter diesen tausenden angestellt mindestens eine Person.

00:16:50: Irgendwo im hinterletzten Ordner ne kleines Textdokument hat wo irgendwie das Passwort für Banking drin steht vielleicht Netflix Account solche Sachen.

00:17:00: ja, Das ist möglicherweise gut versteckt, wenn man das irgendwie auf seinem eigenen PC hat oder auf dem Server irgendwie, wie gesagt hinter drei vier Ordnern.

00:17:09: Und das weiß im Grunde dann auch nur derjenige, der es angelegt hat.

00:17:12: Das ist aber so eine KI vollkommen egal.

00:17:14: Deshalb ist die initiale Frage von Security Admins in der Regel an solche Corporate Racks was sind die Passwörter?

00:17:21: Weil ein Rack findet das!

00:17:23: Das ist vollkommenegal.

00:17:24: also egal wie gut dass in Ordnerstrukturen für den Menschen versteckt ist, eine Maschine findet das heraus.

00:17:31: Automatisch eigentlich ganz besondere Sicherheitsvorkehrungen an solche Racks gelten, bedeutet was für Daten kommen denn jetzt eigentlich rein?

00:17:37: Wie werden die aufbereitet?

00:17:41: Und wie kann man verhindern dass sensible Daten in so einem Rack landen, die dann auch natürlich für alle abrufbar sind.

00:17:48: Die Zugriff zu so einer Datenbank haben Bedeutet man muss tatsächlich einiges dabei beachten.

00:17:54: Es ist ein cooler use case, es ist aber auch aufwendig und ihr werdet es nicht von heute auf morgen bauen können.

00:17:59: das darf man halt auch irgendwie nicht vergessen.

00:18:01: Das is in Aufwand!

00:18:02: Ihr müsst euch Gedanken über die Architektur machen Über die Tools die ihr verwendet.

00:18:06: dann neben diesen ganzen large language Models Die ihr alle kennt gibt es eine ganze Menge verschiedene Embedding-Modelle die halt im Grunde diese ganzen Daten vectorisieren.

00:18:14: Und auch da gibt es natürlich eine ganze menge.

00:18:17: Ja US-amerikanische Tools, es gibt also international eine ganze Menge die eben wieder ihre Stärken und Schwächen haben.

00:18:25: beispielsweise sind die einen gut irgendwie für deutsche Sprache nutzbar.

00:18:28: Die anderen sind vielleicht eher international nutzba.

00:18:31: Das heißt da gehört auch ein bisschen Rechercheaufwand dazu.

00:18:34: Da muss man natürlich gucken was kosten die ja auch?

00:18:36: Also ist das gar nicht so einfach so ein Ding zu bauen.

00:18:40: Jetzt ist es so, dass natürlich große Hyperscaler wie Microsoft oder Amazon auch damit werben.

00:18:46: Das googelt tatsächlich auch.

00:18:48: das.

00:18:48: sie sagen wenn ihr alles irgendwie auf deren Cloud-Infrastruktur habt dann kann man das auch ganz einfach mit den entsprechenden large language Modules abrufen.

00:18:56: Wer das mal versucht hat wird schnell gemerkt haben das Ding kommt ganz schnell an die Grenzen.

00:19:01: also funktioniert einfach nicht so und das liegt einfach daran dass diese Rädchen da nicht gedreht werden.

00:19:06: Ja, das vielleicht so zum Thema Rag in aller Kürze ändert natürlich nicht daran dass ihr trotzdem lernen müsst wie ihr dann auch so ein rag bedient.

00:19:15: Ich habe es gesagt die häufigsten Alucinationen oder Probleme treten auf weil Leute nicht wissen wie sie KI vernünftig bedienen sollen.

00:19:24: Das heißt das gilt es eigentlich als erstes zu lernen.

00:19:27: Kommen wir zum zweiten Use Case.

00:19:30: Vielleicht werden wir später noch was zum Rack ein, aber das soll es erst mal gewesen sein.

00:19:34: können wir zum Zweiten Use Case Präsentationen erstellen?

00:19:36: dafür nutze ich gerne Gamma.app.

00:19:39: Das ist irgendwie so einen Tool wo man relativ schnell Präszentations zusammenzimmern kann.

00:19:44: Das ist nicht optimal, ja und ich würde mit so einer Präsentation jetzt auch nie zu einem Kunden gehen.

00:19:49: Wenn ihr jetzt irgendwie die Vorstellung habt, ihr habt eine KI wo es ganz einfache so Pitch Dokumente irgendwie anzufertigen und zu sagen Ja komm!

00:19:55: Ich gebe hier einfach ein bisschen Informationen zum Kunden ein vielleicht zu meinen Projekten die vorhabe Preis und dann wird da ne Präsensation erstellt.

00:20:02: das funktioniert nicht.

00:20:03: Tut mir leid, hate to break the studio aber es gibt keine KI die das auf menschlichem Niveau kann.

00:20:09: Präszentationen erstellen ist so aufwendig und vor allem So reicht an Variablen, dass es einfach nicht ohne weiteres automatisierbar ist.

00:20:18: Deshalb gibt es da kein Tool Stand heute, das tatsächlich Präsentation auf Knopfdruck erstellen kann.

00:20:25: Ihr braucht unfassbar viel Kontextwissen dazu.

00:20:27: Ja ihr müsst eine Storyline haben, ihr müsst irgendwie schauen.

00:20:30: Ist das ganz im Corporate Design?

00:20:32: Gibt's entsprechende Bilder die ansprechen sind vielleicht auch irgendwas wo mit der Kunde sich identifizieren können.

00:20:38: Pricing-Strategie und so weiter kommt dann eben noch dazu.

00:20:40: Es sind alles saufile Informationen, die ihr in eine KI geben müsst damit die KI am Ende weiß was ihr genau von der wollt und keine Präsentation ähnelt oder ist gleich der anderen ja?

00:20:52: Die sind alle unterschiedlich und das liegt einfach auch daran dass wir natürlich ein bisschen menschlichen Impact und menschliche Kommunikation in unsere Präsensionen mit reinsetzen nicht zuletzt weil wir halt einfach auch irgendwie einen Gefühl dafür haben funktioniert das oder funktioniert es nicht?

00:21:06: Funktioniert das bei dem Kunden oder funktioniert es nicht?

00:21:08: Ja, das sind ja auch noch mal Unterschiede.

00:21:10: Je nachdem wo da irgendwie dann auch die die Präferenzen auf der Gegenseite liegen bedeutet Es ist relativ schwierig Präsentation zu automatisieren.

00:21:18: Ich nutze Gamma Punkt App um manchmal so ein bisschen zu gucken wie könnte das aussehen?

00:21:23: was denn so Informationen Wie kann das angeordnet sein?

00:21:26: am Ende baue ich sie aber händisch tatsächlich in kanva Oder im powerpoint eigentlich lieber in kanwa weiß weil es schöner finde.

00:21:35: Aber das ist halt etwas, was KI einfach noch nicht automatisiert kann.

00:21:40: Versuchts und probier's aus!

00:21:42: Es gibt Gamma.app, es gibt beautiful AI... ...es gibt da so ein paar Anbieter aber keiner von denen hat bisher Präsentationen gebaut wo ich sagen würde die würde ich eins zu eins nehmen.

00:21:51: Ein anderer Use Case im Präsentationsbereich, auch einer meiner Lieblingsuse Cases ist dass ich wenn ich meine Präsension händisch gebaut habe das ich die einfach in Chatbot packe.

00:22:01: Also ich werfe sie dann einfach irgendwie in ChatGPT rein oder in Gemini und lass mir Feedback von der KI geben.

00:22:08: Denn ihr kennt das man ist relativ schnell betriebsblind.

00:22:11: Man kommt dann irgendwie in diesen Flow und hat seine Präsensationen und dann baut man vielleicht mal so zwei Tage lang an so einem blöden Ding gerade wenn es ein bisschen umfangreicher wird.

00:22:20: Man übersieht schnell Kleinigkeiten, Flüchtigkeitsfehler.

00:22:24: Dass man im Storytelling vielleicht ein bisschen abgerutscht ist wenn man auch eine längere Pause zwischen den Sessions hatte.

00:22:31: Und da ist k i einfach extrem gut.

00:22:33: also einfach mal eure nächste präsentation dir gebaut habt in euer chat gpt oder wir auch immer ziehen und sagen hey, rohste doch mal meine präsensionen ja oder langweilig vielleicht das publikum.

00:22:42: irgendwo gibt es irgendwie einen fehler.

00:22:44: im roten faden.

00:22:45: ist es ersichtlich was ich hier eigentlich machen möchte.

00:22:48: dass sind so ist tatsächlich newscase den ich extrem viel nutze und der mir super viel hilft.

00:22:53: Natürlich versucht einem KI immer so ein bisschen hohen Nichtungsmaus zu schmieren.

00:22:56: Das wisst ihr selbst, also wird jetzt nie großartig kritisieren sondern immer sagen ja toller Ansatz schön gewähltes Beispiel und so.

00:23:05: aber das ist auch gar nicht so verkehrt denn ich finde dass kann auch durchaus noch mal ein bisschen Selbstsicherheit geben wenn ihr das Ding dann auch präsentieren soll dass ihr zumindest positives Feedback von KI bekommen habt Wenn jemand gezielt fragt auch gibt mir so drei Punkte die ich hier verbessern kann.

00:23:19: Dann werdet ihr entsprechend auch kritisches feedback von der KI bekommen.

00:23:22: Ja, Reminder wieder prompting.

00:23:24: Gucken wie man mit einer KI redet führt am Ende zum gewünschten Use Case und zum Mehrwert.

00:23:30: Das vielleicht zum Thema Präsentationen und benötigtes Kontextwissen für KI-Use Cases.

00:23:36: Guck mal uns den dritten Teil an!

00:23:39: Recherche, ich hatte es schon angesprochen.

00:23:42: Es gibt halt diese Rack-Möglichkeit die ist aber relativ aufwendig.

00:23:46: ihr müsst euch da schon tatsächlich ein bisschen mit IT Strukturen auskennen Mit Architektur aus kennen und dahin wir auch schauen bereit sein auszuprobieren weil es da nicht das eine Buch gibt in dem steht okay für deinen Datensatz musst du genau dieses Embedding Modell wählen.

00:24:01: Du musst genau irgendwie das Ding da vectorisieren.

00:24:04: Das Large Language Model kann am besten darauf zugreifen so einfach.

00:24:10: Wenn ihr klassische Recherche macht, dann habt ihr andere Tools dafür.

00:24:15: Es gibt natürlich irgendwie Google, es gibt bekannte, die ganzen Recherchetools, die wir vor KI auch schon zur Verfügung hatten und die auch erprobt sind.

00:24:24: Wir sind damit ja jahrelang gut ausgekommen.

00:24:27: wenn ihr das Ganze ein bisschen erweitern wollt könnt ihr natürlich einen Tool nutzen wie Perplexity.

00:24:32: Das ist mein Go-Tool für Recherchen.

00:24:37: Sehr große Datenbank und zeitgleich einfach sehr gute Quellen Verzeichnisse.

00:24:42: Es gibt da den Websearch, und da könnt ihr relativ schnell auch die Quellen nachgucken und schauen.

00:24:47: Stimmt das denn eigentlich?

00:24:48: Bedeutet ähnlich wie so damals bei Wikipedia.

00:24:51: Ja, hat man gesagt schreibt nicht von Wikipedia ab aber guckt in den Quellen von Wikipedia weil das sind in der Regel gute Primärquellen die man halt auch irgendwie für wissenschaftliches Arbeit nutzen kann.

00:25:00: So würde ich KI hier auch nutzen.

00:25:02: also perplexity ist dann nach wie vor irgendwie das beste.

00:25:05: beste Recherchtool finde ich dass es gibt wenn man entsprechend einfach erstmal gewisse zahlen Daten Fakten zu Gewissen Sachen braucht beziehungsweise herausfinden möchte, wo ich diese Zahlen-Datenfakten finde.

00:25:17: Dann ist Perplexity tatsächlich ziemlich

00:25:19: stark.".

00:25:19: Das hatte ja in der Large Language Model Folge auch ein bisschen erklärt wie Large Language Models funktionieren.

00:25:24: an einem Beispiel dieser großen Bibliothek und in dieser großen bibliothek die hier dann stellvertretend das large language model sind natürlich alle möglichen Bücher mit viel quatscht da werden reddit-Frohen reingepackt, da wären halt irgendwie Falschbehauptungen, Deepfakes

00:25:39: usw.,

00:25:40: einfach mit in so ein Large-Language-Model gekippt bedeutet, wenn ihr so'n Vanilla-Large-Lengauge-Modul fragt nach gewissen Sachen könnt ihr eigentlich nie sicher sein dass da irgendwie in einer Form eine wahrheitsgemäße Antwort kommt.

00:25:54: Da gibt's dann halt irgendwie entweder Perplexity als spezialisiertes Tool oder ihr geht wirklich den Weg und baut euch einen Retrieval Augmented Generation System auf was aber natürlich nochmal ganz andere Fragen aufbringt vor allem was Sicherheit angeht.

00:26:09: Also das beste large language model was ist das beste langen modell?

00:26:13: ja es ist die pens wieder klassische berater.

00:26:16: antwort ist absolut abhängig von so punkten wie euer im use case was ihr tatsächlich machen wollt.

00:26:23: Das ist genau so.

00:26:24: eine frage wie was ist was ist dass beste werkzeug?

00:26:26: das hängt davon ab.

00:26:28: Wenn ihr eine Nage in die Wand schlagen wollt, kommt ihr mit einem Schraubendreher relativ ... Also versagt ihr relativ schnell.

00:26:35: Also müsst ihr halt irgendwie gucken was für ein Werkzeug braucht ihr eigentlich?

00:26:40: Für die Aufgabe, die vor euch liegt?

00:26:42: und das ist glaube ich so das größte Problem.

00:26:45: also Use Cases checken dann natürlich danach wichtig danach Infrastruktur Datenschutz Integration euer gesamtes System.

00:26:52: Wie ist es aufgebaut?

00:26:53: Was nutzt ihr?

00:26:54: was gibt's da eigentlich schon?

00:26:56: Ich würde aber immer erst mal mich von allen Ideologien befreien und sagen, ich gucke immer ganz klar was sind die Use Cases, die mir helfen.

00:27:03: Und dann gucke ich mir was für Anbieter es gibt und danach schaue ich, was ist denn eigentlich bei mir überhaupt im Unternehmen möglich?

00:27:08: Habe ich die nötige Infrastruktur um irgendwie Open Source Modelle on-prem also auf eigenen System zu hosten, um hier den absoluten Overkillern Datenschutz zu

00:27:16: haben?".

00:27:17: habe ich den nicht, kann ich mir irgendwie keine großen Grafikchips leisten um das hier auch zu ermöglichen.

00:27:22: Dann muss sich es vielleicht irgendwo in einer Cloud-Variante ausprobieren und da gibt's ja auch unterschiedliche Abstufungen.

00:27:27: Es gibt beispielsweise natürlich die großen amerikanischen, die er kennt also Open AI usw.. Es gibt auch in Deutschland gute Tools, zum Beispiel Langdoc.

00:27:37: Kann ich euch gerne auch in den Schornhaus mal verlinken?

00:27:40: Das ist so ein Berliner Tool das im Grunde einen Userinterface bereitstellt mit der Auswahl von vielen verschiedenen Large Language Models aus denen man wählen kann.

00:27:47: es immer sehr gut für den Einstieg um auch so ein Gefühl dafür zu bekommen wie reagieren verschiedene LLMs eigentlich auf meinen Input und die hosten das ganze eben Europa.

00:27:56: damit hat man so ein bisschen den Ja, den Kompromiss geschlossen.

00:27:59: Man kommt eben an die guten amerikanischen Tools aber sie werden hier meistens von Microsoft in Europa gehostet und man hat dann da durchaus eine DSGVO-konforme Umgebung, in der man ausprobieren kann.

00:28:13: Es gibt ganz viele Abstufungen davon.

00:28:15: Es gibt viele Anbieter, die sowas machen.

00:28:19: Ich würde in erster hie davon abraten einfach nur auf den Anbieter zu gehen, denen man eh schon kennt.

00:28:26: Das ist vielleicht irgendwie so ein Punkt, den ich jetzt zum Schluss gerne noch machen würde.

00:28:29: wenn ihr sagt okay wie achtzig Prozent der deutschen Unternehmen glaube ich wir sind ohnehin hier Microsoft umfällt ja wir haben irgendwie Word, Excel und so weiter.

00:28:38: Wir nutzen irgendwie Outlook als Mail-Programm Und jetzt gibt es hier Co-Pilot.

00:28:42: oder nehmen wir das einfach auch?

00:28:43: Wir sind ja eher irgendwie drin.

00:28:44: Ist es gefährlich?

00:28:45: Denn die Entwicklung von Large Language Models und von den Fähigkeiten, die ist einfach enorm.

00:28:51: Und wenn ihr euch langfristig an einen Anbieter mit allen Angeboten, die er hat irgendwie bindet dann seid ihr unflexibel!

00:28:59: Das ist eigentlich das was heute so in der KI-Beratung auch immer wieder genannt wird.

00:29:03: Wenn es um Architektur bauen geht bleibt flexibel.

00:29:06: Ihr müsst eigentlich von heute auf morgen in der Lage sein das Large Language Model abzuklemmen und neues anzuklemsen Neues im Beddingmodell zu wählen Vielleicht eine komplette Serverwechsel irgendwie vornehmen zu können.

00:29:16: Das stellt relativ große Herausforderungen oder Erwartung auch an die entsprechenden IT-Dienstleistungs-Services, von daher ist das nicht ganz so easy.

00:29:27: aber es lohnt sich ja.

00:29:30: bevor ihr jetzt im Grunde sagt ich renne los und nehme einfach das was mir gerade ohnehin irgendwie in der Werbung angeboten wurde wo ich halt eh schon unterschrieben habe dann ist das erstmal bequem, es wird euch langfristig aber nicht helfen.

00:29:41: In den meisten Fällen werdet ihr nicht wirklich produktiver wenn ihr das einfach macht weil ihr eben nicht erst nach dem Use Case geguckt habt sondern euch erst irgendein Tool beschafft habt um dann zu festzustellen, Moment irgendwie... Ist das jetzt irgendwie ein bisschen schwierig?

00:29:55: Weil das Tool kann gar nicht die Use Cases bedienen die eigentlich für mich hier wirklich Produktivitätssteiger sind.

00:30:01: ja und deshalb erst in Use Case dann das Tool Ansonsten natürlich DSGVO-Konformität.

00:30:09: Vielleicht habt ihr auch eine AI Policy, ich hatte jetzt einen Kunden, die haben gesagt wir dürfen nur mit Mistral arbeiten.

00:30:14: Mistral ist ein europäisches und französisches Large Language Model.

00:30:17: Alles machbar ja also kann man immer im Grunde machen müsst dann natürlich darauf vorbereitet sein dass die Ergebnisse einfach nicht so gut sind.

00:30:25: Das muss man halt ganz klar sagen, europäische Large Language Models sind bei Weitem nicht von der Qualität im Output wie US-amerikanische.

00:30:34: Man kann das Ganze umgehen indem man eben auf entsprechende Microsoft Server in Europa umswitched, dass man es in einer Microsoft Azure Umgebung aufsetzt.

00:30:43: Das sind beispielsweise so Live Hacks um da DSGVO Konformität herzustellen.

00:30:48: aber am Ende des Tages ist der Fokus auf ein Large Language Model aus Ideologischen Gründen muss man ja sagen, nicht unbedingt der produktivste Weg.

00:30:57: Mag sein dass sich das alles noch schiftet, ja auch europäische Tools sich da verbessern.

00:31:04: aber ich muss sagen zu der Diskussion bin ich immer so ein bisschen zwiegespalten weil auf der einen Seite natürlich sage die Entwicklungsschritte sind so enorm und die Kontextfenster werden immer größer neue Use Cases ergeben sich eigentlich aus jeder Iteration wieder von neuen Lush Language Models.

00:31:20: Warum sollte man sich da vorverwehren und sagen, okay ich mache das nicht?

00:31:24: Ich verstehe schon dass es viel sauer aufstößt.

00:31:26: Das ist auch meine Eier mit dem Pentagon die ihr gemacht habt.

00:31:30: Aber es gibt eigentlich keine Alternative die eine weiße Weste hat.

00:31:35: Das darf man nicht vergessen.

00:31:35: Also auch die anderen Hyperscaler in den USA sind alles Leute, die die Republikaner unterstützen im Zweifel, die enorm viel Emissionen ausschütten.

00:31:45: KIS nach wie vor keine grüne Technologie.

00:31:47: Ja egal was euch da erzählt wird es verbraucht Massen an Strom und Wasser an natürliche Ressourcen und ist alles andere als gut für die Umwelt bedeutet Es ist ein bisschen schwierig da zu wählen wenn man am Ende aus meiner Sicht oder aus Sicht von Einigen Kommentatoren zwischen Pest und Kohlerer wählt.

00:32:05: Das muss man sich einfach überlegen, wenn man sich für KI entscheidet dann hat man in der Regel einfach keinen guten Beitrag zum Klimaschutz geleistet.

00:32:14: das ist das Risiko beziehungsweise der Nachteil den man immer eingeht ganz abgesehen davon dass viele dann auch Click-Worker beschäftigen und so also wirklich prekäre Arbeitsbedingungen um solche Modelle zu trainieren.

00:32:25: es ist einfach kein gutes Feld um nachhaltig zu arbeiten.

00:32:29: so Punkt ja.

00:32:30: das heißt Wenn ihr da natürlich sagt trotzdem wollen wir es so gut machen wie's geht, dann kann man auf europäische Tools setzen.

00:32:38: Schaut ob eure Use Cases mit diesen Tools möglich sind.

00:32:42: setzt das entsprechend auf.

00:32:43: Es gibt zunehmend besser werdende europäisch Alternativen für unser Tool Parliament AI.

00:32:49: nutzen wir beispielsweise Gina im Beddings Das ist die haben zumindest eine Depondance in Berlin Natürlich auch in USA.

00:32:57: Das ist zumindest ein Anschein dafür, dass die sich so ein bisschen eben auch auf den europäischen Markt fokussieren und auf die Wertvorstellungen.

00:33:05: Die wir haben.

00:33:06: am Ende des Tages muss man sagen in so einer über globalisierten Welt ist es gar nicht mehr so einfach einen Tool einem Land zuzuordnen.

00:33:14: viele arbeiten remote first die sitzen ohnehin überall in der welt.

00:33:17: viele haben verschiedene server Standorte international.

00:33:21: das heißt Es ist gar nicht mal so einfach zu sagen ich nehme dieses Unternehmen weil das irgendwie Deutsch ist oder weiß irgendwie in Europa gehorstet ist, oder wie auch immer.

00:33:30: Wenn man da gar nicht mal so klar abgrenzen kann.

00:33:34: Also summarisen wir das vielleicht nochmal kurz.

00:33:37: Achtet darauf dass ihr eine flexible Infrastruktur habt.

00:33:40: Achte drauf dass ihr prompten könnt, dass ihr einfach experimentiert, dass er ausprobiert.

00:33:45: was kann ich denn eigentlich?

00:33:46: Was für Dokumente ziehe ich denn hier gerade mal rein und gucke was sich da irgendwie rausbekommen kann?

00:33:50: Das is super individuell ja!

00:33:52: Und genauso sollte KI ein Unternehmen meiner Meinung nach auch eingeführt werden Nicht mit großem Prompt-Bibliotheken, wo dann steht nutzt mal bitte diese drei Prompts und werdet jetzt hier zwanzig Prozent effizienter oder so.

00:34:03: Sondern ganz klar... Das ist ein Tool!

00:34:05: Das stellen wir Angestellten zur Verfügung.

00:34:08: Nutzt es im Rahmen eurer Möglichkeit und eurer Interessen.

00:34:12: Ja?

00:34:12: Denn nicht jeder möchte sich vielleicht eine E-Mail zusammenfassen lassen oder eine Präsentation bauen oder irgendwie sonst was.

00:34:19: Es gibt durchaus Arbeiten die machen ja auch einfach Spaß wenn man sie menschlich macht.

00:34:22: Und die sollte man vielleicht Zum Schluss automatisieren zumindest bei denjenigen die wirklich Spaß dran haben.

00:34:29: das gibt ja Menschen, die haben Spaß am organisieren.

00:34:31: Die haben Spaß irgendwie daran Dinge zu kategorisieren dann sollen sie das doch bitte machen wenn die auf der anderen Seite dann sagen wo Sie kein Spaß dran habe und es irgendwie kreative Aufgaben sind beispielsweise irgendwas fürs Marketing vorbereiten also keine Karriere erledigen Und deshalb schaut, dass ihr individuell bleibt in euren Use Cases.

00:34:52: Dass ihr das findet oder die Nutzung für KI, die euch am besten zusagt... Es gibt wie gesagt eine ganze Menge Tools, die entsprechend dabei helfen und ich glaube, dass eigentlich für jeden Use Case den ihr irgendwo im Büro mittlerweile habt irgendeine KI da ist, die das wirklich meistern kann!

00:35:09: Jetzt geht es halt, die zu finden und auszuprobieren.

00:35:11: Und dann im Grunde sich mit all den Regularien zu befassen, die dann auf euch zukommen.

00:35:16: aber erstmal out of the box ganz ganz offen gucken was für Use Cases will ich ja eigentlich mit KI bedienen?

00:35:23: Mit welchen Folgen?

00:35:24: und dann das Tool und die Infrastruktur wählen.

00:35:27: also Fazit KI ist kein einzelnes Tool.

00:35:32: Ja, das darf man nicht vergessen.

00:35:34: Es ist kein einzelnes Tool.

00:35:35: KI ist ein Ökosystem aus verschiedenen Systemen die sich aus Language Models zusammensetzen, aus Serverns, aus Datenbanken, aus Use Cases und aus Lernprozessen.

00:35:47: Das heißt, es ist nicht so einfach oder man kann diese Fragen nach dem perfekten KI-Tool nicht bedienen.

00:35:53: Ich persönlich nutze nach wie vor Chat GPT zumindest irgendwie in meiner privaten Anwendung einfach weil ich da meine ganzen Chatbots habe.

00:36:02: die funktionieren extrem gut.

00:36:03: die helfen mir jeden Tag.

00:36:04: Ich hab die versucht nachzubauen in Gemini, also im Google Workspace.

00:36:09: Es hat nicht so gut funktioniert.

00:36:10: vor allem kann man mit denen ich reden bei Google.

00:36:13: das finde ich halt auch irgendwie so eine Sache dass es wenn ihr jetzt hier im Auto gleich meine Kollegin KI hört dann geht das halt auch nur bei OpenAI weil Google das nicht anbietet.

00:36:22: zumindest habe ich's nicht gefunden.

00:36:23: ja aber genau diese Google Jams oder Gems wie die heißen die sind einfach aus meiner Sicht nicht so umfangreich und leistungsstark wie bei Open AI.

00:36:31: In anderen Use Cases nutze ich aber wiederum andere Tools.

00:36:34: Für Recherche nutze ich Perplexity, wenn ich irgendwie schnell eine Seite zusammen vibecoden möchte und eine HTML-Struktur für eine Website brauche dann nutze sich Claude.

00:36:43: Claude ist extrem gut in Programmiersprachen und hat vor allem eine schöne Artifaktfunktion wo man auch live sieht was gerade irgendwie gebaut wurde in html.

00:36:53: das heißt ich nutze eine ganze Menge Tools parallel je nach Use Case Und für die Tools, die ich anbiete im Rahmen meiner Arbeit auch.

00:37:02: Da nutze ich in der Regel auch large Language Modules, die halt am besten auf den jeweiligen Use-Case zugeschnitten sind – das ist bei Parliament beispielsweise jetzt auch entthropic.

00:37:10: Ich bin aber immer so, dass ich sage gut, ich probiere es wenn's funktioniert und ich nehme das was am besten funktioniert und wenn es um die Alternativen gibt dann probier' ich die aus, da nehme ich mir Zeit für, ja, probiere ich sie aus und switcher am Ende oder nicht weil Architektur von vornherein so gedacht werden muss, und das könnt ihr gerne mal mitnehmen.

00:37:30: Ich hoffe, ich konnte euch so ein bisschen Eindrücke geben wie man KI-Modelle auswählt.

00:37:37: Ihr solltet mitnehmen dass es einfach nicht das eine Tool gibt und dass es auch einen Aufwand ist.

00:37:42: Es ist ein Prozess!

00:37:43: Ihr müsst euch wirklich hinsetzen und gucken und müsst es dann planen.

00:37:47: Ihr könnt nicht einfach sagen ich schaffe jetzt mal dieses Tool an und dann wird alles besser.

00:37:51: So funktioniert es leider nicht.

00:37:54: vielleicht irgendwann mal jetzt aber gerade noch nicht.

00:37:57: So, wenn ihr Fragen habt, frag gern den Chatbot.

00:38:00: Wenn ihr Fragen haben könnt ihr uns auch einfach schreiben, ja also Social Media oder einfach als Kommentar unter diese Podcastfolge.

00:38:09: ich bedanke mich fürs Zuhören und wünsche euch einen schönen Tag bis nächsten Dienstag.

00:38:14: bis dahin ciao!

00:38:17: Ja bleibt uns natürlich noch übrig die einfach die Kollegin mal zu fragen was eigentlich die beste KI ist.

00:38:22: liebe Kolleginnen?

00:38:23: Was sind die besten KI?

00:38:24: Die

00:38:24: beste KI isst die die genau zu deinem Problem passt.

00:38:28: Es gibt kein Universal-Messer für alle.

00:38:31: Schau, was du brauchst!

00:38:32: Ob es um Text-, Datenpräsentationen oder Recherche geht – dann suchst Du Dir ein Modell das genau darauf spezialisiert ist.

00:38:40: Also die beste KI ist am Ende die, die Deinen Job erledigt.

00:38:45: Egal wie sie heißt…

00:38:46: So, nämlich so.

00:38:47: Und das finde ich auch eine ganz spannende Sache, dass OpenAI bzw.

00:38:51: ChatGPT halt auch ChatGPD selbst kritisiert.

00:38:55: Also es ist bei weitem nicht so, dass large Language Models irgendwie voreingenommen werden und die Kollegen, die immer im Auto hört, die sind halt auch mit OpenAI gebaut.

00:39:03: Das ist ein OpenAI-Produkt.

00:39:04: aber ich kann jetzt mal fragen, liebe Kolleginnen was sagst du eigentlich zu diesem Pentagon Deal von deinem Arbeitgeber?

00:39:11: Ja, die Pentagon Sache!

00:39:12: Ich verstehe da beim manchen die Alarmblockenschrillen.

00:39:15: Ich bin ja nur der praktische Output, aber klar es ist wichtig dass solche Deals transparent diskutiert werden.

00:39:22: Am Ende sind es immer die Menschen die entscheiden wo die ethischen Grenzen liegen.

00:39:26: ich bin da um zu helfen Aber wo und wie man KI einsetzt das is eine Frage die ihr Menschen euch stellen müsst Und auch kritisch hinterfragen solltet.

00:39:36: Und was würdest du an so einem Pentagon-Deal mit OpenAI jetzt kritisieren?

00:39:40: Kritisieren würde ich, dass es die Vertrauensfrage komplex macht Wenn KI in sensiblen Bereichen eingesetzt wird, hinterfragen natürlich viele Wesseninteressen gar im Spiel sind.

00:39:51: Ich bin ja quasi neutral aber ich verstehe dass man von einem Partner klare Abgrenzungen erwartet.

00:39:58: also ich würde sagen Offenheit und ethische Transparenz sind das worauf es am Ende ankommt egal welcher Deal dahinter steckt.

00:40:05: Ja okay das ist schon ein bisschen PR blah blah jetzt ne?

00:40:09: Also, naja.

00:40:10: Okay, egal ich glaube das der Kern ist klar geworden.

00:40:15: nutzt KI um KI zu verstehen.

00:40:16: Das ist ja ohnehin so ein Tipp den ich immer gebe wenn ihr Fragen habt an KI dann fragt KI.

00:40:23: Ja es ist wirklich unfassbar dass es einfach eine Technologie ist die sich selbst erklären kann.

00:40:27: also Ich bin total begeistert nach wie vor davon.

00:40:30: Und wenn ihr Fragen zu dieser Folge habt, dann nutzt auch gerne den Chatboard.

00:40:33: Die Kollegin erreicht ihr über den Link in den Show Notes!

00:40:37: Das war's für diese Woche.

00:40:38: Vielen Dank fürs Zuhören und wir hören uns nächsten Dienstag wieder.

00:40:41: Ciao ciao!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.