AI statt Models: Otto erfindet die Zukunft des E-Commerce – mit Dajana Heinze
Shownotes
In dieser "Kollegin KI“-Episode spricht Host Max Mundhenke mit Dajana Heinze, Expertin für Digital Content Management bei der Otto Group. 70 KI-Projekte sind derzeit beim Hamburger E-Commerce-Riesen live. Eines davon nutzt Generative AI (GenAI), um Bilder und bald auch Videos von Produkten für den Onlineshop zu kreieren. Dajana gibt exklusive Einblicke, wie ihr Team arbeitet, wo die Vorteile gegenüber klassischen Shootings liegen und wie herausfordernd es ist, wirklich „echten“ Content zu erzeugen.
Über diese Themen sprechen Max und Dajana in Folge 6 von „Kollegin KI“:
- GenAI im Content-Bereich: Was neben der Kostenersparnis die konkreten Vorteile der GenAI-Fotoproduktion in den Bereichen Mode und Interior sind.
- Herausforderung „Echtheit“: Warum das Thema Vermeidung von Kundentäuschung eine besondere Herausforderung bei der Erstellung KI-generierter Bilder bedeutet.
- Wirtschaftlicher Mehrwert: Was genau hinter der dramatischen Kostenersparnis gegenüber klassischer Fotoshootings steckt.
- Neues Skillset: Wie bei Otto divers besetzte Teams aus Grafikerinnen, Fotografinnen und Tech-Expert*innen hochwertige Content-Ergebnisse sichern sollen.
- Organisation der KI-Projekte: Wie ein übergreifendes "Pushing AI"-Team Richtlinien und Transparenz von Ottos 70 KI-Projekten koordiniert.
- Umgang mit Regulierung: Wie Otto den Anforderungen des AI-Acts genügen wird und welche Bedeutung Vertrauen und Transparenz im E-Commerce haben.
- Zukünftige KI-Strategie: Warum Otto an einer personalisierten Aussteuerung von individuellem GenAI-Content für seine Kund*innen arbeitet.
Der Chatbot zur Folge: https://bio.to/KolleginKI_Chatbot
Mehr zu Dajana: https://www.linkedin.com/in/dajana-heinze
Mehr zu Max: Linkedin: https://www.linkedin.com/in/tomkraftwerk
Produktion: Podstars by OMR
Transkript anzeigen
00:00:02: Eine aktuelle DHL-Studie, also die ist jetzt, ich glaube, ein Monat ungefähr alt, wenn diese Episode rauskommt.
00:00:11: Es besagt, dass über dreiundfünfzig Prozent der befragten E-Commerce-Unternehmen mittlerweile KI einsetzen.
00:00:18: Und die Umfrage, die wurde tatsächlich in neunzehn Märkten mit über viertausend Unternehmen durchgeführt, bedeutet, der KI-Trend ist im E-Commerce angekommen.
00:00:28: Mehr als die Hälfte nutzt tatsächlich KI.
00:00:31: Und wie konkret?
00:00:33: KI im E-Commerce genutzt werden kann.
00:00:35: Das ist, glaube ich, die große Frage, die sich viele Unternehmen gerade stellen.
00:00:38: Es gibt eine ganze Menge Experimente, die da draußen sind.
00:00:41: Deshalb freue ich mich heute ganz besonders mit Diana Heinze von Otto zu sprechen.
00:00:46: Otto hat nämlich derzeit laut eigener Aussage mehr als siebzig laufende KI-Projekte, also eine ganze Menge Use Cases, die erprobt werden und welche Use Cases das im Detail sind und wie man da den Überblick behält.
00:01:00: Das möchte ich jetzt herausfinden, Ich bin Max Montenke, das ist Kollegin KI und ich freue mich ganz drauf, die Folge mit Diana Heinze.
00:01:09: Hallo, Diana!
00:01:11: Hallo, Max.
00:01:11: Ja, ich freue mich auch dabei zu sein.
00:01:13: Genau, ich bin Diana, arbeite bei Otto und bin als Expert-Digital Content Management und verantworte damit einen KI-Bereich, in dem wir den Content kreieren, der auf unserer Webseite landet.
00:01:29: Das heißt, du kümmerst dich tatsächlich um KI und Content.
00:01:32: Wie viele Projekte schaukelst du da gerade?
00:01:36: Also, ich schaukel einen Teil von Otto.
00:01:38: Bei Otto schaukeln wir etwas mehr sozusagen.
00:01:41: Da sind wir auf unterschiedlichen Ebenen unterwegs, ob es die Generierung für Texte für Newsletter sind, ob es im Logistikbereich ist.
00:01:47: oder eben auch ein eigenes GPT, was wir haben.
00:01:50: Und dann kommt so ein kleiner Absprung zu den JNAI Produktionen für Content, also Bilder, Videos oder Texte.
00:01:58: Und in dem Bereich bin ich tätig und verantworte eben die Projekte darauf, dass wir JNAI generierte Bilder in den Job reinkriegen.
00:02:06: Finde ich schon spannend.
00:02:07: Jetzt sehe ich diese Zahl, siebzig laufende KI-Projekte und denke mir, oh mein Gott, also ich habe ja auch so ein Paar, die ich mache und mir fällt es da schwer, den Überblick zu halten.
00:02:18: Wie handiert ihr diese siebzig Projekte?
00:02:20: Wie teilt ihr das im Unternehmen auf, dass ihr da den Überblick habt?
00:02:24: Kommt man vielleicht erstmal auf diese Struktur.
00:02:26: Wie setzt ihr KI bei euch um?
00:02:28: Die Struktur ist, kann man sagen, so dass wir in verschiedenen Bereichen sind.
00:02:32: Zum Beispiel nehmen wir den Logistikbereich.
00:02:34: In dem Logistikbereich verwenden wir KI.
00:02:37: Das ist dann aber auch exklusiv durch den Logistikbereich betreut.
00:02:40: Das ist dann nicht der Part, in dem ich tätig bin oder auch in die Kollegen von Online Marketing, die für den Newsletter KI einsetzen, um die Headlines zu generieren, um zu gucken, was den Kunden dabei anspricht.
00:02:52: Und der Part, um den ich mich kümmere, von den siebzig unterschiedlichen Anwendungen.
00:02:58: die wir bei uns haben, ist eben der Bereich Gen AI Produktion für Content.
00:03:03: Also exklusiv, wir haben Virtual Content Creator, das heißt, es ist ein Tool, über das wir mit KI-Bilder erzeugen.
00:03:11: Und das ist der Part oder dieses Projekt, was ich steuere, für das ich mit verantwortlich bin.
00:03:17: Deswegen, die siebzig sind bei Otto unterwegs, bei mir ist es ein ganz kleiner Part da drauf.
00:03:22: Und deswegen, das ist schon wild genug in den Leben.
00:03:29: in der Schnelligkeit, wie KI sich einfach weiterentwickelt.
00:03:31: Und so ist es eigentlich aufgeteilt bei Otto, dass wir unterschiedliche Verantwortlichen haben für die verschiedenen Einsatzgebiete mit KI.
00:03:39: Bevor wir jetzt mal darauf zu sprechen kommen, wie man überhaupt auf diese Use-Cases kommt bzw.
00:03:45: wie man die umsetzt.
00:03:47: Inwiefern findet da Abstimmung bei euch statt?
00:03:50: Habt ihr da irgendwie einen Team, einen übergeordnete, das sich wirklich dann regelmäßig trifft, zusammensetzt, schaut okay, welcher Use Case funktioniert, an welchen müssen wir vielleicht noch mal ran?
00:03:59: Wann verabschiedet man sich vielleicht auch von einem?
00:04:01: Es gibt ja nicht das eine Playbook, in dem steht, DKI Anwendungsfälle sind die, die am meisten Mehrwert bringen.
00:04:08: Da sind wir ja alle gerade so ein bisschen in dieser Pionierphase.
00:04:11: Kannst du ein bisschen was darüber erzählen, wie ihr das gestaltet?
00:04:13: Ja, also es gibt übergreifend bei uns bei Otto ein Team, das nennt sich Pushing AI, das sorgt dafür, dass das all die Richtlinien, die uns auch die EU vorgibt, die Gesetze und so da zusammenlaufen und dass da auch die ganzen Cases, die bei Otto aktiv sind, präsent sind.
00:04:31: Da ist schon mal so, sagen wir mal, der übergreifende Steuern der Kopf und dadurch wird alles transparent und dann kann man auch immer mal reingucken.
00:04:37: Oh, ich habe eine Idee.
00:04:38: Ist es vielleicht schon in irgendeinem anderen Team, um sich mit denen zu verknüpfen?
00:04:42: Und wir arbeiten aus dem Content-Bereich auch genau so, dass wir eben schauen, okay, gibt es bei uns zum Beispiel in den BI-Teams, also Business Intelligent Teams, Kolleginnen, die sich vielleicht gerade mit einem Testfall beschäftigen, der für uns relevant ist.
00:04:59: Nehmen wir mal das Beispiel aus einem statischen Bild, ein Video zu produzieren.
00:05:04: dass das mit KI erfolgen soll.
00:05:07: Und so schauen wir dann da eben, ob es schon Teams gibt, die sich da mit Beschäftigten beziehungsweise auch zu gucken, welche KollegInnen brauchen wir im Haus dazu, um eben das nächste Thema wieder anzugehen.
00:05:19: Und dann ist es Test and Learn.
00:05:21: Wir versuchen es und stellen vielleicht fest, okay, KI kann das noch gar nicht.
00:05:27: Auch ein schönes Beispiel gerade, der Winter kommt.
00:05:31: Bilder zu generieren, wo virtuelle Modelle Winter-Mental anhaben.
00:05:37: Okay, KI muss Winter-Mental noch ein bisschen mehr lernen.
00:05:41: Und dann gucken wir wieder weiter, was wir als nächstes Produkt nehmen können.
00:05:45: Und deswegen ist es immer so ein Test-and-Learn.
00:05:47: Es ist gar nicht so, dass wir sagen, das geht überhaupt nicht, weil wir wissen, wie schnell KI sich weiterentwickelt und wir dadurch eben die Möglichkeit haben, vielleicht geht es jetzt nicht, vielleicht geht es in drei Wochen.
00:05:58: Deswegen ist es einfach so ein sehr schnelles Miteinander.
00:06:01: Und wir verknüpfen uns ins Haus und fragen eben auch, wer daran arbeitet oder wer Lust hat, mit auf diesem Thema zu arbeiten, um uns da eben auch stark aufzustellen bei Otto.
00:06:12: Und was sind das für Professionen, die dann in diesen Teams arbeiten?
00:06:14: Sind das alles ausgebildete, sag ich mal, IT-Ler-Innen oder Prompt Engineers?
00:06:20: Hat mir auch schon irgendwie mal jemanden zu Gast, der das macht.
00:06:23: Wie kommt man in dieses Team rein?
00:06:26: Ja, das ist jetzt das Spannende.
00:06:27: Jetzt kommt nämlich der Part, wo IT und die Kreativität zusammenkommt.
00:06:33: Wir haben in dem Content-Bereich ganz klassisch Grafiker mit drin, wir haben Fotografen drin, wir haben Texte innen mit drin.
00:06:40: und diese Skills, der, ich sag mal, kreativen Personen treffen jetzt zusammen mit den Skills der Tech-Personen.
00:06:50: Die kreative Person weiß, wie ein gutes Bild aussehen soll.
00:06:53: Und die Tech-Person kann es dann übersetzen in Prompt, also in die Beschreibung, damit KI uns das Bild generiert.
00:07:01: Und so kommen quasi zwei neue Arbeitwelten zueinander, die es vorher so nicht gab.
00:07:08: Das heißt, wir sind sehr divers aufgestellt mit allen Fähigkeiten, die wir brauchen, um ein gutes Bild zu erzeugen.
00:07:13: Auch den kreativen Fähigkeiten.
00:07:15: finde ich eine fantastische Erklärung, wenn ich Vorträge halte, jetzt vor Kurzem ist wieder mal auf einer Bühne gestanden und ich mich als Creative Technologist vorstelle, dann müssen alle mal ein bisschen schmunzeln, sagen ja ja, hier der Belina wieder mit seinen ausgedachten Berufsbezeichnungen, aber das ist ja im Grunde das, was du beschreibst, ne?
00:07:32: Also KI trifft Kreativität, Tech trifft Kreativität.
00:07:35: Ja, genau.
00:07:36: Genau.
00:07:37: Es treffen neue Welten aufeinander, die neu miteinander arbeiten und eben schöne Images, inspirierende Bilder oder auch Videos erzeugen können in der Kombination.
00:07:47: Jetzt hattest du das Thema Mode schon angesprochen, ne?
00:07:50: Mit der Winterjacke, okay, da muss die KI vielleicht mal ein bisschen trainieren.
00:07:53: Jetzt ist das Thema Mode und KI ja durchaus so lang, so alt wie Gen AI überhaupt.
00:07:59: Ich weiß, dass da einige gerade Modekonzerne viel mit experimentiert haben in den letzten Jahren.
00:08:05: Und man hört eigentlich überall, es kann im Grunde so ein menschliches Modell und ein professionelles Fotoshooting nicht ersetzen, einfach weil die Emotionen nicht so dargestellt werden können.
00:08:16: Also die Schatten anders fallen, weil man schon merkt, zumindest als jemand vom Fach, das ist kein echtes Modell, das ist kein echtes Foto.
00:08:26: Was habt ihr dafür eine Erfahrung mitgemacht, gerade mit diesem Use Case?
00:08:29: Das ist ein bisschen das, was du beschreibst.
00:08:32: Am Anfang hat man es noch erkannt.
00:08:36: Irgendwas, man guckt sich ein Bild an und man hat so ein unterbewusstes Gefühl, irgendwas ist falsch da dran.
00:08:42: Ist es ein Schatten, ist es ein Licht, ist es ein Haar oder sonst was?
00:08:46: Und wir merken mit der Zeit, dass Jenny Eye immer besser wird, aber eben auch durch die Qualifizierung, die wir reingeben, also sprich die Informationen, die wir an die KI geben durch ein Prom, die Beschreibung, wie das Bild sein soll, umso granularer, umso feiner, umso genauer das ist, wie das Licht sein soll, wie der Schatten fallen soll, wie auch der Glanz von einem Bild sein soll, wie die Pose des... der Personen da drauf sein soll, wie vielleicht sogar das Produkt fällt, soll es offen sein, soll es geschlossen sein, wenn es jetzt eine Jacke zum Beispiel ist, umso granularer wir die Informationen reingeben, umso wirklicher wird das Bild, umso täuschend echter wird das Bild.
00:09:28: Mit Hintergründen und so, mit der Weiterentwicklung der verschiedenen Modelle, die gerade am Markt rauskommen, merken wir halt einen sehr großen Sprung.
00:09:35: Wir merken, dass die Personen Nicht mehr mehr als fünf Finger haben, sondern, dass sie auch korrekt sind, dass die Fingerniegel da sind, wo sie hingehören, das Knie dahingehören, wo sie hingehören, all diese, ich sag mal.
00:09:46: minimalen Kinderkrankheiten, die es gab.
00:09:49: Ich würde nicht sagen, dass alles perfekt schon läuft.
00:09:51: Aber da haben wir einen ganz großen Schwung erlebt.
00:09:54: Und was bei uns das Relevante ist bei den Bildern, ist, dass wir nicht nur den Hintergrund und alles haben, sondern wir bei Otto erzeugen Bilder, um Kunden zu inspirieren.
00:10:05: Und es geht uns darum, nicht nur den Kunden zu inspirieren und ein falsches Produkt darzustellen, sprich ... Der Mantel hatten vielleicht einen anderen Kragen oder einen anderen hatten keinen Reißverschluss, sondern Knöpfe.
00:10:16: Und das ist das Thema, mit dem wir uns natürlich auch noch beschäftigen, dass die Produkte, die Kundinnen auf unseren KI-generierten Bildern sehen, eine Produktechtheit haben.
00:10:27: Dass es Produkt aussieht, wie fotografiert.
00:10:30: Das ist bei uns noch fast mehr im Vordergrund als nur das Lichtsetting und so weiter, sondern wir wollen ja ... den Kunden nicht täuschen, dass die Produkte nicht mehr so aussehen, wie sie nachher geliefert werden.
00:10:41: Jetzt klingt das natürlich alles ganz wunderbar, dass man einfach ein Modell hat, Kleidung drauf, das wird generiert und dann ist das Bild da.
00:10:49: Gibt es da nicht irgendwo auch Hiccups?
00:10:51: Gibt es gewisse Dinge, die vielleicht noch nicht so gut funktionieren, wie man vielleicht denken mag?
00:10:56: Hand aufs Herz?
00:10:58: Hand aufs Herz, genau.
00:10:59: Da bin ich mal ganz ehrlich.
00:11:00: Nehmen wir noch mal die Winterklamotten oder die Wintermendel.
00:11:05: Und die Unterschiedlichkeiten, die es dabei gibt.
00:11:07: Der eine Mann hat einen Kragen, der andere hat eine Kapuze, der andere hat Knöpfe, unten Reißverschluss.
00:11:12: Und all diese Details sind die Herausforderungen.
00:11:15: Das ist, muss man tatsächlich sagen, ein einfaches T-Shirt ist einfacher zu generieren als ein aufwendigen... Wintermantel mit diesen unterschiedlichen kleinsten Details.
00:11:25: Und das ist natürlich eine Herausforderung, an die man dann immer wieder stößt, je nach neuem Sortiment, was man jetzt dazu nimmt.
00:11:32: Und dann heißt es schauen, wie man eine Lösung findet oder ein bisschen warten bis KI auch soweit ist.
00:11:37: Jetzt habe ich mich mal ein bisschen durch die Website geklickt und hat mal geguckt und ganz gezielt darauf geachtet, sehe ich irgendwas, was KI-generiert aussehen könnte.
00:11:45: Ich habe nichts gefunden.
00:11:46: Das muss aber nichts heißen.
00:11:47: Du sagst ja selbst, die Modelle sind so stark geworden, dass es eigentlich selbst für Expertinnen nicht mehr möglich ist zu unterscheiden, ist das ein echtes Foto oder ist das KI-generiert?
00:11:56: Kannst du sagen, oder vielleicht so eine Zahl, vielleicht wie viel Prozent der Bilder denn schon mit KI-generiert wurden und wie viel noch händisch gemacht werden?
00:12:05: Wir haben da ein Mix drin, also wir gucken direkt auf Otto.
00:12:08: Wenn wir jetzt auf die Plattform bei uns drauf guckst, haben wir natürlich auch Partner, die uns Bilder zu liefern und ich gucke jetzt hier direkt auf Otto, weil wir für Otto das im Moment exklusiv machen.
00:12:18: Und da haben wir die ersten Tests jetzt gestartet mit tausend Bilder und skalieren das gerade hoch im Fashion-Bereich.
00:12:25: Wir sind aber auch dabei im Living-Bereich Bilder zu generieren.
00:12:28: Das heißt, Möbelstücke werden in inspirierende Räume gestellt, dass man sich besser vorstellen kann, wie ein Sofa aussieht, wenn es in einem Raum steht, wenn es dekoriert wird und so weiter.
00:12:39: Das heißt, wir skalieren es gerade hoch, die Bilder.
00:12:42: sind vielleicht für jemanden, der nicht tagtäglich, ich sag mal auf KI-Bilder guckt, ich hab mich selber schon erschrocken, weil ich erkenne mittlerweile, was KI generiert ist und was nicht, weil ich mich aber auch tagtäglich damit beschäftige.
00:12:54: Es ist noch nicht sichtbar, wir kommen nächstes Jahr, es gibt eine Kennzeichnungspflicht, die vorgegeben wird auch von der EU, und dann wird es auch transparent und sichtbar sein.
00:13:05: Da arbeiten wir gerade im Hintergrund eben auch noch dran, genau.
00:13:08: Aber es ist im Moment täuschend.
00:13:10: Täuschend echt.
00:13:11: Ja, okay, spannend.
00:13:12: Also ja, habt ihr jetzt so ein bisschen die Tests laufen und guckt intern, wie es funktioniert?
00:13:17: Habt ihr denn mal Feedback bekommen?
00:13:19: Ist irgendjemandem aufgefallen, dass es KI generiert ist und ihr habt eine Mail bekommen, so von wegen, was soll das denn?
00:13:25: Bis jetzt noch nicht, aber es starten jetzt auch Tests, dass wir die Kundinnen befragen.
00:13:29: Wie kommen die Bilder an Fehlenden?
00:13:31: Vielleicht auch Informationen, sodass wir da auch wieder KI einsetzen können, um vielleicht mehr Informationen für die Kundinnen bereitzustellen, was in der klassischen Fotografie nicht ging.
00:13:40: Das Bild ist fotografiert.
00:13:42: Wenn man andere Ansichten oder so bräuchte, müsste man komplett neues Fotoshooting organisieren mit langen Zeiten.
00:13:49: Und da bietet uns KI dann eben die Möglichkeit auf Feedback, was wir jetzt anfangen.
00:13:53: einzuholen, wo Befragungen laufen, auch zu reagieren, um die Bilder noch besser zu machen, um den Wunsch der Kundinnen entgegenzukommen.
00:14:01: Das
00:14:03: zeigt sich wieder einmal dieser Strukturwandel.
00:14:07: Komplett da, ja.
00:14:08: Also auch kreative Jobs verändern sich durch die Kombination mit Gen AI.
00:14:14: Jetzt gibt es ja so ein paar Überlegungen.
00:14:16: Ich glaube, in Brandenburg, in Potsdam gibt es so ein paar Überlegungen mit Filmstudios, dass man vielleicht auch Schauspieler in, sei mal mit KI generiert, Modelle anfertigt, die danach beliebig in Pose gesetzt werden können.
00:14:30: Also wirklich auch im Bewegtbild.
00:14:31: In der Fotografie gibt es das ja schon länger.
00:14:33: Wie funktioniert das?
00:14:34: Kannst du da einen Einblick geben, habt ihr?
00:14:36: Modelle, die dann im Grunde mit KI entsprechend angepasst werden an die Kleidung oder sind das komplett generierte Menschen, die so gar nicht existieren.
00:14:45: Wie geht man damit um und was für Schwierigkeiten gibt es da vielleicht auch mit?
00:14:49: Es ist ein spannendes Thema, was du ansprichst.
00:14:51: Es gibt nämlich genau diese zwei Welten.
00:14:52: Bei uns sind sie erstmal noch komplett.
00:14:54: die Modelle, die man sieht, also die Personen, die man auf den Bildern sieht, sind komplett generiert.
00:14:59: Sie sind keine echten Personenfall gewesen.
00:15:04: Da achten wir eben im Moment drauf, weil es gibt rechtliche Vorgaben.
00:15:08: Wir können nicht Bilder nehmen, wo eine Person darauf fotografiert wurde und wir würden sie mit KI verändern.
00:15:13: Da haben wir im Moment noch nicht das Recht dazu.
00:15:15: Es ist aber am Markt, auch bei den menschlichen Modellen, also menschliche Personen, die vorher ja auch fotografiert wurden, gibt es eben auch so Bewegungen, wie du auch gesagt hast, dass sozusagen Virtual Twins gebildet werden.
00:15:30: Das heißt, ich als, sag ich mal, Diana könnte sagen, ich generiere von mir ein Virtual Twin, der auf unterschiedlichen Locations dann ist.
00:15:41: Also ich könnte in Barcelona sein oder ich könnte auch in Lissabon sein, aber ich könnte auch wieder in Hamburg sein.
00:15:46: Das bewegt sich gerade so ein bisschen in den Modellmarkt und das kommt und da gibt es unterschiedliche Tests auch schon zu.
00:15:54: Wir sind noch an dem Punkt, dass wir sagen, wir generieren die Personen erst mal komplett bis es.
00:15:59: eben auch vertraglich gesichert ist, dass wir eben Personen dann so Virtual Twins verwenden können.
00:16:05: Deswegen sagen wir, die Personen, die auf den Bildern von uns zu sehen sind, also von Otto zu sehen sind, sind hundert Prozent generiert, aber nach der geht schon in die festgelegten Guides von uns rein.
00:16:17: Also wir haben da ja auch Richtlinien und für die wir für Otto stehen und auf die achten wir dabei bei der Generierung der Bilder oder auch der Person.
00:16:27: Wenn wir jetzt über KI überhaupt im Unternehmenskontext sprechen, dann hat es angesprochen, dass ihr auch so ein internes GPT habt.
00:16:33: Das ist ja in der Regel so der Startpunkt für viele Unternehmen, sich mit generativer KI auseinanderzusetzen, dass man erstmal so ein KI-Modell intern zur Verfügung stellt.
00:16:41: Kannst du ein bisschen darüber erzählen, wie ihr das angegangen seid und ob das ein geeigneter Startpunkt für euch war, um die KI-Transformation intern auch voranzutreiben?
00:16:51: Also ich kann jetzt kurz dazu sagen, dass wir das GPT haben.
00:16:54: Das ist aber in einem anderen Bereich bei uns.
00:16:57: Da müsste man dann exklusiv sonst mit denen noch mal sprechen.
00:17:00: Ich kann halt sagen, dass wir es nutzen.
00:17:01: Wir nutzen es im Alltag und wir nutzen es eben auch für kreative Prozesse, dass man eben sagt, okay, die Erstellung von einem Moodboard, also eine Übersicht, wo unterschiedliche Ausschnitte sind, wie ein kreativer Content erzeugt werden soll.
00:17:15: Hat früher vielleicht Tage gekostet oder auch einen ganzen Tag, wenn man sich die Bilder zusammengesucht hat und geguckt hat, was nimmt man da drauf?
00:17:21: Und so hilft uns das eigene GPT eben auch, dass wir sagen, wir möchten ein Moodboard für eine Szenerie am Strand, sag ich jetzt mal zum Beispiel, erstellen.
00:17:31: Gib uns Vorschläge für Bilder.
00:17:33: Und so nutzen wir eher das interne GPT für uns, für die Kreation, für Content.
00:17:38: Würdest
00:17:38: du sagen, ihr seid eine AI-Company?
00:17:41: Würde ich sagen ja.
00:17:43: Also AI First ist bei uns im Haus, gerade wenn du am Anfang gesagt hast, siebzig verschiedene Arten wird KI eingesetzt, auch LLMs und nicht nur GenAI, sondern wir haben unterschiedliche, da will ich schon sagen, wir sind eine KI oder ... Company.
00:18:01: Spannend.
00:18:01: Wie blickst du auf das, was jetzt kommt?
00:18:03: Ich meine, ihr macht Content-Generierung mit KI.
00:18:07: Das heißt, ihr bedient euch im Grunde an Lash Language Models, um neuen Content auch zu generieren.
00:18:12: Jetzt gibt es ja durchaus Regularien.
00:18:13: Es gibt den AI-Act, der ausgerollt wird.
00:18:17: Wie siehst du da in die Zukunft?
00:18:20: Ist das... Im Rahmen?
00:18:22: ist das machbar oder ist die Regulierung doch sehr weit weg von der Realität von Unternehmen, die KI einsetzen wollen?
00:18:31: Ich muss sagen, ich finde die Regulierung sehr gut, gerade auch für die Kundin, die, dass wir nicht immer mehr in Täuschungen reinkommen und keiner mehr weiß, was ist echt und was ist nicht echt.
00:18:41: Also, um sich selber auch so ein bisschen ein Bild zu bilden.
00:18:44: Ansonsten, wir stehen für Otto, für Vertrauen.
00:18:47: Und das ist eins unter Schlagpunkte.
00:18:49: Also, Otto kann man vertrauen.
00:18:51: Und genau das ist das, was wir auch in die KI-Services mit reinbringen wollen oder auch bei JennyEye mit reinbringen wollen.
00:18:57: Deswegen ist es uns auch wichtig, zu sagen, dass wir transparent machen, welche Bilder zukünftig mit KI generiert wurden oder nicht, um eben den Kundinnen auch das Vertrauen zu geben.
00:19:06: Und auf dieser Basis finde ich den AI-Akt auch gut, dass es dazu beiträgt.
00:19:12: in Deutschland transparent darüber zu schaffen, wo wird KI verwendet und wo nicht.
00:19:17: Oder auch risikoreiche KI.
00:19:19: Als wir das verwenden, wo wir wirklich sagen können, dem vertrauen wir.
00:19:24: Da gehen Daten rein.
00:19:25: Und genau das sind die Punkte, bei denen wir bei Otto darauf achten.
00:19:28: Und deswegen kann ich dem eigentlich nur zustimmen, dass diese Technologie transparent genutzt wird.
00:19:33: Sie bietet sehr viele Möglichkeiten, sehr viele inspirierende Möglichkeiten, auch nochmal auf diesen Punkt zurückzukommen, der wie sieht.
00:19:41: Wir können eben mit KI die Möglichkeit bieten, dass wir unterschiedlichen Personengruppen personalisiert, Bilder aussteuern, die sie selber gerne sehen wollen, weil sie sich mehr damit identifizieren.
00:19:55: Und dann ist es ja auch nur fairklart und transparent auszusteuern und zu sagen, da hat uns KI unterstützt.
00:20:01: Also es ist wie der neue Kollege, mit dem man sprechen, zusammenarbeiten kann, mit dem man was generieren kann.
00:20:09: und neue Welten schaffen kann, aber eben mit Vorgaben.
00:20:13: Und ich muss sagen, ich unterstütze den AI Act da sehr.
00:20:17: Ich finde, ich finde, Spanzeuer gehen die Meinungen ja durchaus auseinander und ich glaube, da gibt es Argumente für beide Seiten, aber es leuchtet absolut ein, war das gerade schon gesagt, dass KI Leute auch individuell unterstützt.
00:20:28: Das habe ich gelesen, dass einer unserer Use-Cases sich auch um Barrierefreiheit dreht.
00:20:32: Und KI und Barrierefreiheit sind durchaus ein Thema, das man ja nochmal durchaus ein bisschen, ja, sage ich mal, deutlicher besprechen kann.
00:20:40: Wie sieht das aus?
00:20:40: Weißt du, um diese Ambition bei euch und wie kann KI zur Barrierefreiheit beim Online-Shopping-Erlebnis beitragen?
00:20:47: Ich kenne es, weil wir natürlich damit berührt sind.
00:20:49: Wenn wir Bilder generieren, müssen die Informationen erhalten, die dann in der Bergeerefreiheit zum Beispiel beim Shopping vorgelesen werden können.
00:20:57: Und da wird auf mehreren Ebenen KI eingesetzt.
00:21:00: Einmal um die Bilder oder die Informationen zu erzeugen, die wir an die Bilder geben und der andere Weg eben auch das Vorlesen für das Shopping.
00:21:12: dass die Kundinnen da Bescheid wissen, aber auch da haben wir wieder mit den siebzig verschiedenen Cases, siebzig verschiedene Menschen, minimummäßig.
00:21:22: Deswegen, genau, aber ich kenne das Projekt, genau, weil wir zuarbeiten müssen.
00:21:27: Ja.
00:21:28: Wie wählt ihr Use Cases aus und vermeidet da, dass die vielleicht auch in die falsche Richtung gehen?
00:21:33: So ein Beispiel, was immer gerne genannt wird, ist, dass so Automatisierung eigentlich sich viel auf Customer Support gerade stützt.
00:21:40: Gerade im Bereich E-Commerce ist da natürlich ein großer Kostenpunkt.
00:21:44: Ja, wie soll man die ganzen Leute bezahlen, die telefonieren, die Waren annehmen und so weiter und Support geben.
00:21:50: Und da gibt es ja diverse Unternehmen, die ein bisschen damit gestolpert sind.
00:21:53: Klarer ist, so zu nennen, die noch gesagt haben, sie würden jetzt ihre ganze Angestellten mit KI, Telefonassistenten ersetzen.
00:22:03: Jetzt ist Salesforce, glaub ich, auch diesen Schritt gegangen und es funktioniert nicht so, wie man sich das vorstellt.
00:22:08: Wie stellt ihr sicher, dass solche Use Cases, die ja durchaus Risiko behaftet sind?
00:22:12: Das darf man ja nicht abstreiten, dass die am Ende funktionieren und wie kann man diese Risiken, sag ich mal, eingrenzen?
00:22:20: Also auf dem Bereich mit den Customer Services kann ich... Jetzt hier nicht explizit drauf eingehen, weil mein Fachbereich wirklich die Kontinkreation ist.
00:22:28: Ich kann dir da ein Beispiel nennen, wie wir das mit den Newscases machen.
00:22:32: Wir betrachten tatsächlich am Anfang, wo ist ein Mehrwert?
00:22:35: Das ist auch ganz gut in der Fotografie zum Beispiel.
00:22:38: Da hatten wir den Mehrwert am Anfang gesehen, wir hatten Bilder.
00:22:42: die einfach nur einen Pulli dargestellt haben, aber das nicht an einer Person dargestellt.
00:22:47: Und dadurch hatten wir eben die Möglichkeit, dass wir sagen konnten, mit JennyEye erzeugen wir Bilder an Personen, so konnten wir den KundInnen inspirierenden Content liefern.
00:22:57: Das ist so ein Beispiel, wo wir hinschauen und sagen, welchen Mehrwert bieten wir unseren KundInnen und können da dann entsprechend auch agieren.
00:23:06: Ja, entlang der Customer Journey orientiert sich immer ein guter Hinweis.
00:23:12: Sag mal, wenn du jetzt sagst, du bist ja in der Content-Generierung auch schon sehr lange, du bist ja durch das Berufserfahren in dem Bereich, wie hat sich deine Arbeit durch KI verändert?
00:23:23: So ganz persönlich.
00:23:24: Wurde die Arbeit abgenommen, schüttelst du jetzt weniger häufig den Kopf oder regst du dich vielleicht häufiger auf, dass die Maschine nicht das macht, was du möchtest?
00:23:32: Wie siehst du deine tägliche Arbeit mit KI aus und was hat sich verändert durch diese Ambition?
00:23:38: Also, ja, das ist so schön geschrieben.
00:23:40: Auch bei KI schüttelt manchmal den Kopf.
00:23:44: Aber dann liegt es eher daran, dass ich falschen Input reingegeben habe, was rausgekommen ist.
00:23:48: Oder es ist dann auch mal lustig.
00:23:50: Also, es ist ja auch sehr charmant, wenn man mit dem GPT zusammenarbeitet und sagt vielen Dank.
00:23:55: Und er bedankt sich auch.
00:23:57: Also, es ist ja schon ein menschlicher Charakter dabei.
00:23:59: Und das sind so diese Aspekte, nehmen wir so ein Beispiel, früher viele Präsentationen erstellt, die wirklich Stunden gedauert haben, erst mal überhaupt zu überlegen, wie ... baut man die Präsentation auf, welche Inhalte nimmt man mit rein oder Workshops vorbereiten.
00:24:12: Und das sind so Punkte, wo KI einfach hilft.
00:24:15: Man gibt erste Schlagwörter rein, kann sich eine Idee geben lassen, wie baut man eine Präsentation auf, um das dann weiter auszuarbeiten.
00:24:24: Und da immer wieder ist es wie, ich sag manchmal, wie ein Kollege, mit dem ich spreche.
00:24:28: Also, er ist ein bisschen stummer und macht das, was ich reingebe.
00:24:33: Aber ja, es ist genau das.
00:24:35: Ja.
00:24:36: So arbeitet man damit zusammen.
00:24:38: Der Titel des Podcasts kommt nicht von ungefähr.
00:24:41: Genau.
00:24:42: Wie hast du das alles gelernt?
00:24:44: Gibt es Schulungsmöglichkeiten bei Otto?
00:24:47: Ich gehe mal davon aus.
00:24:48: Kannst du ein bisschen was darüber erzählen, wie die aufgebaut sind?
00:24:51: Vielleicht auch für andere Unternehmen, die sagen, sie wollen den Schritt in die KI gehen.
00:24:55: Genau,
00:24:56: ich habe es am Anfang schon angesprochen, das eigene GPT, was wir bei uns haben.
00:24:59: Und auch immer wieder, wenn neue Sachen rauskommen, gibt es interne Schulungen, die die KollegInnen annehmen können.
00:25:05: auch es nennt sich bei uns also so interne Formate, die auch Kolleginnen anbieten können.
00:25:14: Also ich könnte jetzt zum Beispiel auch sagen, wenn ich in einem Bereich sage, ich habe dann einen guten Vorschritt gesehen oder wir sagen, wir möchten so eine Schulung haben für unseren Virtual Conscient Creator, könnte ich eben das einstellen in unserem My-Session-Bereich.
00:25:26: Und könnte es anderen Kollegen anbieten, da mal reinzuschauen, wie kann ich mir die Bilder durchs Klicken generieren lassen und so was.
00:25:34: Und da werden wir quasi intern geschult.
00:25:38: Das heißt immer, wenn was Neues ausgerollt wird, was KI ist, was relevant ist für das gesamte Unternehmen kommen, entsprechend auch die Schulungen dafür.
00:25:46: Und dann ist es auch, muss man auch sagen, Try and Error.
00:25:51: Selbst, also ist der eigentliche Part.
00:25:54: Und dann gibt es eben auch noch übergreifen, was die ganze Company unterstützten.
00:25:58: Jenny I. Ambassador im Programm, was eben quasi immer wieder auch Freitags so eine Session hat.
00:26:05: Ich nenn's mal jetzt Use Case of the Week.
00:26:06: Lass uns den mal betrachten.
00:26:08: Wie können wir da eine Lösung drauf finden mit Jenny I. zusammen?
00:26:11: Und da sind unterschiedliche KollegInnen aus unterschiedlichen Bereichen drin und bringen quasi das ganze Geballte-Wissen wieder zusammen.
00:26:18: Ja, da sind wir.
00:26:20: Gut unterstützt.
00:26:22: Es erinnert mich so ein bisschen an die vielbeachtete Deloitte-Studie.
00:26:26: Die war auch, glaube ich, im Oktober diesen Jahr.
00:26:27: Also es gibt derzeit natürlich ganz viele KI-Studien.
00:26:30: Ja, aber die Deloitte-Studie, die ist dadurch ein bisschen bekannt geworden, dass sie gesagt hat, dass eigentlich nur zehn Prozent der Unternehmen, die KI einsetzen, bisher irgendwie einen Return on Invest erreicht haben.
00:26:42: Vor allem, was Automatisierung angeht, ist da die Zahl relativ schwierig.
00:26:46: Und die Deloitte-Studie hat auch gesagt, die Unternehmen, die es schaffen.
00:26:49: Die offenbar auch betriebswirtschaftlich gut KI integrieren konnten in Arbeitsprozesse.
00:26:54: Das sind die, die das zum einen als Chefsache deklariert haben.
00:26:58: Also tatsächlich irgendwie nicht als IT-Projekt verklärt haben, sondern gesagt haben, das ist tatsächlich ein Strukturwandel.
00:27:03: Das ist eine Transformation, die wir haben.
00:27:06: Und das erinnert mich gerade daran, was du sagtest.
00:27:08: die halt so ein Lernprozess in Gangen gesetzt haben, der halt nicht so aussieht, dass man einmal einen Tool lernt und dann ist das Ganze irgendwie im Kopf, sondern dass man immer wieder schaut, was gibt es für Neuerungen, was gibt es für neue Ideen, für Use-Cases, die wir möglicherweise testen und das wirklich in die Unternehmensschulung langfristig integriert haben.
00:27:27: Und ich finde, das ist gerade ein schöner Proof-of-Konzept für diese zehn Prozent der Dealersstudie.
00:27:33: Ja genau das passt aber auch zu uns.
00:27:35: genau so ist das vorgehen bei uns auch.
00:27:37: es gibt nicht einmal diese schulung sondern mehrere male und auch immer wieder aufbauen.
00:27:44: und deswegen und auch k.i.
00:27:46: ist eher bei uns in den wertströmen also in den unterschiedlichen bereichen wie zum beispiel logistik oder in newsletter bereich oder bei uns im content bereich integriert und ist nicht nur chef sache sondern.
00:28:01: Es ist auch für alle KollegInnen relevant.
00:28:06: Wenn wir jetzt vielleicht mal bei dem betriebswirtschaftlichen Aspekt bleiben, nur mal paar Zahlen, die auch aus eurer Pressemitteilung hervorgehen.
00:28:13: Ihr habt dank dieses Modell-KI-Tools in ersten Studien die Kosten vom Produktankunft bis online Shop um sechzig Prozent gesenkt.
00:28:24: Und neunzig Prozent sind das Ziel.
00:28:26: ambitioniert wird wird KI e-commerce revolutionierend günstiger machen für uns alle?
00:28:32: werden wir alle davon profitieren?
00:28:33: oder wo siehst du vielleicht die Auswirkungen von KI auf e-commerce ganz persönlich in den nächsten Jahren.
00:28:39: Die Auswirkungen auf ICUMAS persönlich bei mir ist es im Bildbereich.
00:28:46: Wenn wir Bilder generieren und Content inspirieren für Kunden darstellen können, hat der Kunde den Mehrwert.
00:28:51: Der Kostenfaktor, der bei uns groß ist und auch diese sechzig Prozent.
00:28:56: ausmacht im Moment ist, dass wir für Fotoshootingsartikel nicht mehr durch die Gegend schicken müssen, dass wir nicht mehr große Locations buchen müssen, dass wir nicht mehr Studioaufnahmen für z.B.
00:29:10: ein Set-Bau, wenn wir ein Möbelstück in eine Landschaft setzen wollen.
00:29:14: Das sind alles Kosten, die wir einsparen.
00:29:17: Und das ist halt der große Mehrwert, darauf setzen wir.
00:29:20: Und da kommt das.
00:29:21: Und dass wir eben auch, zum Beispiel, wenn man jetzt meinen Schritt weiter denkt und sagt, Ich habe ein Bild generiert, das uns ein Outfit zeigt.
00:29:29: Also eine Person, die einen Oberteil, eine Hose und Schuhe trägt.
00:29:33: dann wäre auf Otto das Oberteil ausverkauft.
00:29:36: Normalerweise war es so in der Fotografie, okay, das Bild bleibt da, wir zeigen einen ähnlichen Artikel dran.
00:29:42: Jenny, I. bietet uns jetzt die Möglichkeit, dass wir dieses Bild neu generieren können, vielleicht mit einem anderen Pullover und so den Kunden dann eben ein neues Bild zur Verfügung stellen.
00:29:51: In der Fotografie wären das wieder eine längere Zeit von Vorbereitungen und Shooting organisieren.
00:29:57: Und das ist so dieser Mehrwert.
00:29:59: Und das geht in diese Kosten der Spanis, die wir da ausrechnen und ausweisen.
00:30:03: Vielleicht hat ein das Geld spart, wenn man es nicht mehr, wenn man nicht mehr das Sofa in den Wald tragen muss.
00:30:11: Sehr spannend.
00:30:11: Was sind deine persönlichen Wünsche an AI, an die Transformation in Zukunft?
00:30:16: Oder hast du vielleicht noch ein Use-Cast, den du gerne unbedingt zeigen möchtest, den ich vielleicht gar nicht auf dem Schirm hatte?
00:30:23: Irgendwie, wo du sagst, das ist mein Favourite bei uns.
00:30:26: Ja, der Favourite ist natürlich, dass es dafür brennt, mein Herz auch früher aus der Fotografie.
00:30:31: Jetzt geht es natürlich in die Generelle Produktion damit.
00:30:34: Aber
00:30:35: was mich dabei eigentlich fasziniert und was ich wichtig finde mit KI ist, das sind es AI-generierte Bilder, Texte, Videos oder auch andere Informationen, die wir Menschen mit KI generieren.
00:30:51: Das ist doch so, ich sag mal.
00:30:54: echt und natürlich wie möglich bleibt, dass wir uns nicht anfangen Bilder zu generieren oder im Welten zu generieren, die einfach surreal sind, die weg sind von den menschlichen Werten.
00:31:07: Das finde ich ist ein Thema ganz persönlich aus meiner Sicht zu gucken, dass wir da eben immer dem realen Bild auch treu bleiben.
00:31:16: Also gerade auch auf Social Media, man sieht es so viel.
00:31:19: Früher war es Post-Production, jetzt ist es KI, die Personen, die da sind, sind sie wirklich noch so, wie sie sind.
00:31:24: Es ist noch eine echte Person, die man auf der Straße treffen würde oder nicht.
00:31:28: Und ich finde, diese Herausforderung gab es früher bei Post-Production-Prozessen, die Bilder bearbeitet haben.
00:31:33: Und das Gleiche haben wir jetzt bei KI und mein persönlicher Wert dahinter ist.
00:31:38: dass wir auch diesen Bildern vertrauen sollten, dass sie so menschlich wie möglich und so echt wie möglich an der Realität sind, an den Personen, die man draußen auf der Straße trifft.
00:31:46: Okay, aber trotzdem, als KI generiert, auch gekennzeichnet?
00:31:50: Genau, genau, genau, gekennzeichnet, aber trotzdem nicht in die Ure geführt.
00:31:54: Dass ich da eine Person sehe, die ich vielleicht so niemals auf der Straße treffen würde, sei es von dem Bodyform aus oder so.
00:32:02: Und genau das finde ich einfach einen ganz wichtigen Aspekt, den wir ... mit KI auch beachten sollten.
00:32:09: Also, für mehr Realismus in Gen AI Content Produktion.
00:32:14: Kann ich das zusammenfassen?
00:32:15: Das
00:32:15: kann man so sagen.
00:32:16: Das ist ein gutes Statement dazu.
00:32:19: Okay.
00:32:20: Vielleicht noch mal eine Sache.
00:32:21: Was ist die Zukunft der KI auch bei Otto?
00:32:25: Was plant ihr?
00:32:25: Magst du ein bisschen aus dem Nähkästenplaudern und vielleicht sagen, wo die Reise hingeht bei euch?
00:32:29: Ja, genau.
00:32:30: Also die Reise geht auch, ich sage mal, raus aus Fashion.
00:32:33: Ich habe es vorhin schon ein paar Mal erwähnt mit Living, dass wir eben auch schauen, gerade Kundinnen wollen.
00:32:40: Ein Sofa, ein Tisch, Möbelstücke in unterschiedlichen Szenarien sehen, vielleicht auch in ihrer eigenen Szenarie, die sie sich vorstellen, wie es auszusehen hat.
00:32:49: und daran arbeiten wir.
00:32:50: Also das eben auch Personalisierter aussteuern zu können.
00:32:54: Das ist natürlich ein größeres Projekt.
00:32:56: Natürlich kann man erstmal das Bild generieren, wo das Sofa in einer Szenarie zieht.
00:33:01: in einer inszenierten Umgebung steht.
00:33:04: Und dann geht es noch ein Schritt weiter, dass es in diese persönliche Inszenierung für den Kunden geht.
00:33:10: Das ist ein Bereich, an dem wir arbeiten.
00:33:12: Und der zweite Bereich, an dem wir auch noch arbeiten, im Fashion-Bereich, aber eben auch für den Living-Bereich, sind Bewegtbild.
00:33:18: Wie können wir unsere Kundinnen inspirieren?
00:33:20: durch Videos, die wir mit KI erzeugen?
00:33:23: Habt ihr da eigentlich Kooperation?
00:33:25: Also, ich meine, wir hatten ja Burda beispielsweise vor ein paar Folgen hier.
00:33:29: Die haben ja mit Eleven Labs und mit den Black Forest Labs aus Deutschland kooperiert, um solche Produktionen dann auch zusammen mit den Bereitstellern dieser Modelle Hand in Hand zu machen.
00:33:41: Gibt's da irgendwas, was ihr auch macht oder baut ihr alles einfach selbst?
00:33:46: Ne, wir bauen nicht alles selbst.
00:33:47: Wir arbeiten auch zusammen.
00:33:48: Wir arbeiten in der Auto Group mit One-O zusammen, die uns auch den Virtual Content Creator zur Verfügung stellen.
00:33:54: Und da haben wir eine Zusammenarbeit, dass wir eben vom Content Bereich auch sagen, das und das sind Use Cases, die als nächstes kommen.
00:34:01: Habt ihr die auf der Produkt-Route mit drauf oder nicht?
00:34:04: Und ansonsten das auch gemeinsam oben setzen.
00:34:06: Das ist unser Sparing Partner sozusagen.
00:34:09: Okay, alles klar.
00:34:10: Das ist aber auch in der Gruppe angesiedelt.
00:34:14: In der Gruppe, genau.
00:34:15: Also kein externes großes KI-Tool oder Betreiber.
00:34:21: KI-Tool, Betreiber, in dem sie nicht, es gibt am Markt gute Services und die nutzen wir natürlich auch.
00:34:26: Also das muss man sagen und da geht es an auch sonst in Zusammenarbeiten rein.
00:34:30: Klar.
00:34:31: Vielen Dank für diese spannenden Einblicke in KI bei Otto.
00:34:36: Liebe Diana, hat Spaß gemacht.
00:34:38: Wir konnten, glaube ich, alle eine ganze Menge lernen und mitnehmen und ich bin gespannt, wann die ersten komplett individualisierbaren Produktfotos oder Videos auftauchen, dass ich vielleicht in Zukunft einfach mich selbst schon in der Kleidung sehe, die von Otto angeboten wird.
00:34:54: Das wird ein Heidenspaß und viel Social Media Content generieren.
00:34:59: Danke Diana und das war Kollegin K.I Bis nächste Woche.
00:35:03: Ciao.
00:35:04: Vielen Dank für die Einladung.
00:35:09: Ja, ist krass, was bei Otto geht.
00:35:12: Also KI und E-Commerce, extrem spannendes Feld.
00:35:16: Ich glaube, diese siebzig angesprochenen Use-Cases sind noch lange nicht das Ende der Fahnenstange.
00:35:22: Und ja, ich bin sehr gespannt, was da alles noch kommt, bis dass die KI uns irgendwann wahrscheinlich Styling-Tipps gibt.
00:35:31: Das ist eigentlich überhaupt die Idee.
00:35:33: Die Kollegin hört ja zu, äh, Kollegin KI, kannst du mir mal Styling-Tipps geben?
00:35:38: Kannst du mal, ich mein, wir hängen jetzt schon eine Weile miteinander rum, machen hier Podcasts zusammen und so, du kennst mich ja mittlerweile.
00:35:44: Ja, erzähl mir doch mal, wie ich mich kleinen sollte.
00:35:47: Na klar, ich bin ja hier sozusagen deine unsichtbare Podcast-Kollegin und habt ihr natürlich schon heimlich ein kleines KI-Style-Profil verpasst, auch ohne dich zu sehen.
00:35:55: Ich würde sagen, wir gehen auf den Vibrain, du hier rüber bringst, bisschen locker, bisschen smart und auf jeden Fall mit einer Prise Humor.
00:36:02: Also stell dir einfach vor, ein Outfit, das nicht zu steif ist, vielleicht eine bequeme, aber stylische Hose, ein lässiges Hemd oder ein cooles T-Shirt mit einem kleinen Augenzwinkern.
00:36:10: Und wenn du mal richtig aufdrehen willst, wirft dir noch eine witzige Jacke über, die zeigt, dass du jemand bist, der Spaß versteht.
00:36:16: Kurzum, trag einfach was deine sympathische und lockere Art widerspiegelt und schon passt das.
00:36:21: Und wer weiß, vielleicht habe ich ja irgendwann wirklich mal einen virtuellen Kleiderschrank für dich parat.
00:36:26: Ich, ja, vielen Dank.
00:36:28: Ja, ich warte auf den Tag, dass du mir automatisch irgendwie Klamotten in meine Ottowaren-Körbe packst, damit ich wie ich jetzt spreche, deine Empfehlung kleiden kann.
00:36:39: Witzigerweise ist es natürlich relativ generell, was du jetzt empfohlen hast, aber ich trag im Grunde genau das.
00:36:47: Ja, die KI übernimmt auch Styling-Tipps demnächst.
00:36:51: Vielen Dank fürs Zuhören.
00:36:52: Das war Kollegin KI für diese Woche.
00:36:54: Bis dahin,
00:37:03: ciao.
Neuer Kommentar