Philipp Ebnet, CGI: Hallo und herzlich willkommen zur ersten Folge unseres Podcasts Digitalwandler. Und falls du dich jetzt fragst, wieso Digitalwandler? Ich dachte, das hier ist Not Just Coding. Dann hast du erst mal völlig recht. Wir sind gewachsen, haben jetzt mehr Ressourcen und können dadurch einfach ein breiteres Themenfeld angehen. Anders gesagt, wir werden durch noch mehr digitale Welten wandeln. Daher der neue Name.
Ich bin Philipp Ebnet und ich will wissen, wie es um die Digitalisierung in Deutschland steht. Welche Branchen profitieren besonders von der digitalen Transformation? Welche Themen sind überall wichtig? Wo sind wir in Deutschland schon gut aufgestellt? Und wo müssen wir dringend noch nachlegen? Also, komm mit, begleite mich auf meiner Lernreise. In jeder Folge werden wir erkunden, wie sich analoge Abläufe in digitale wandeln lassen. Mit konkreten Beispielen, bewährten Best Practices und möglichen Stolpersteinen. Alles erzählt von den Menschen, die täglich die Digitalisierung vorantreiben. Mein Ziel ist, dass du und ich am von Ende dieser Staffel wissen, wie Digitalisierung unseren Alltag verändert. Also, wie gehen wir privat, gesellschaftlich und wirtschaftlich mit dem technologischen Wandel und was können wir sowohl national als auch international voneinander lernen?
Wenn du einen Themenwunsch hast, dann schreib mir gerne einfach deine Fragen. Ich organisiere die Experten und Expertinnen mit den passenden Antworten. Also, lass uns starten. Nochmal herzlich willkommen bei Digitalwandler.
Heute will ich der Frage nachgehen, was sich hinter Agentic AI verbirgt. Und dafür habe ich mir zwei Experten ins virtuelle Studio eingeladen. Niklas Bläsing und Sebastian Glock. Niklas ist Head of AI bei CGI Deutschland und beschäftigt sich intensiv mit der intelligenten und strategischen End-to-End Automatisierung von komplexen Geschäftsprozessen. Sebastian hat bereits Unternehmen in Europa und den USA bei der Umsetzung digitaler Lösungen beraten und begleitet. Aktuell ist er Director bei Cognigy, wohl dem KI-Anbieter aus Düsseldorf. Spätestens seit Ende Juli 2025 dürfte der Name Cognigy den meisten in der Branche ein Begriff sein. Da hat nämlich der US-Konzern NiCE Cognigy für fast eine Milliarde US-Dollar übernommen, worüber natürlich auch zahlreiche Wirtschaftsmedien bei uns berichtet haben. Für viele war das außerdem der Beweis, dass Deutschland durchaus KI Weltführer hervorbringen kann. Insofern erstmal ein großes Dankeschön an euch beide, dass ihr heute hier mit bei mir im virtuellen Studio seid.
Und ich fange gleich mal an mit einer Frage an euch beide. Fangen wir mit dir an, Niklas. Nämlich, wir wollen ja erstmal wissen, oder ich will erstmal wissen, was genau ist eigentlich Agentic AI? Also was ist der Unterschied zwischen klassischer AI in Anführungszeichen und Agentic AI? Niklas, was würdest du denn, wie würdest du das definieren?
Niklas Bläsing, CGI: Das ist eine sehr gute Frage und auch eine Diskussion, man mit jedem Experten aktuell führt, weil Agentic AI hat sehr viele verschiedene Definitionen. Für mich ist Agentic AI der Approach, dass die Systeme autonom miteinander kommunizieren können. Bedeutet, man hat hier einen Agent, mit dem zum Beispiel ein Kunde sprechen kann und anstatt, dass der Request dann an Mitarbeiter weitergeleitet wird, kann der Request direkt automatisch Internal verarbeitet werden, dass das CRM mit dem Logistiksystem sprechen kann und so die Systeme wirklich harmonisiert miteinander sprechen können und man damit quasi eine lückenlose Kommunikation zwischen Systemen hat und kein Mensch bei dem Kundensupport mehr eingreifen muss.
Philipp Ebnet, CGI: Genau, Sebastian, wie ist für dich die Sicht auf Agentic AI? Was ist dein ausschlaggebendes Merkmal?
Sebastian Glock, NiCE Cognigy: Ja, Niklas hat einleitend gesagt, dass es tatsächlich unterschiedliche Definitionen gibt. Ich hätte ein bisschen anders auf das Thema Agentic geschaut, allerdings auch aus der Chatbot und Voicebot Brille. Die KI-Systeme, die wir in den letzten 15, 10 Jahren gesehen haben, bei denen war die KI ein Stück weit limitiert auf das Thema Intent-Erkennung. Da wurde also die Absicht herausgelesen aus einem Text String und daraus wurden Aktionen abgeleitet. Alles relativ deterministisch. Mit Agentic ändert sich dieser Ansatz ein Stück weit, weil die Chat und Voice-Experiences nicht mehr komplett vorgescriptet sind, sondern die KI-Agenten bekommen ein Stück weit Autonomie, gesetzte Ziele, vorgegebene Ziele zu verfolgen und den Weg zu diesen Zielen ein Stück weit frei gehen zu können. Dazu gehört auch, dass die Aussagen oder die Texte, die ein Chatbot von sich gibt, eben nicht mehr Wort für Wort vorgeschrieben sind, nicht mehr alle jedenfalls, sondern sie werden durch generative KI in Echtzeit, in Abhängigkeit vom Kontext erzeugt. Damit wird das Ganze deutlich persönlicher, viel mehr humanlike, als es jemals war und fühlt sich für die Benutzerinnen und Nutzer am Ende des Tages einfach viel natürlicher an.
Philipp Ebnet, CGI: Genau, das heißt, wie du gerade schon sagst, es fühlt sich natürlicher an. Also es ist vielleicht nicht mehr so, dass der Chatbot dann auch nicht mehr hängen bleibt, weil er meine Anfrage nicht versteht oder weil ich einfach oder weil er nicht weiß, was er mit meiner Anfrage machen soll, sondern dass das auch vernünftiger verstanden wird und besser verarbeitet werden kann wahrscheinlich, oder?
Sebastian Glock, NiCE Cognigy: Also da kommen verschiedene Dinge zusammen. Also in vorherigen Chat- und Voicebot-Generationen mussten sich die Nutzer im Grunde genommen den Vorgaben der Maschine anpassen. Und innerhalb der vorgefertigten Pfade wurden vielleicht Absichten erkannt, aber man musste eben diesen Pfaden folgen. Agentic bietet die Möglichkeit, dass Nutzer ihre Anliegen wirklich komplett frei vortragen können und danach auch idealerweise irgendwas passiert. Das ist ja auch was, was wir alle von ChatGPT kennen. ChatGPT sagt eigentlich nie: „Ja, weiß ich nicht“ oder „Sorry, ich habe dich nicht verstanden.“ Irgendetwas passiert immer. Das ist allerdings auch ein Risiko, weil man muss natürlich genau die Grenzen definieren, was ein Bot auch können soll und sagen soll und tun soll und so weiter. Aber dieses quasi Vorantreiben der Konversation, nicht mehr in Sackgassen geraten zu können oder zumindest zumindest nicht mehr so ohne Weiteres in Sackgassen geraten zu können, das ist ein großer Teil dieser humanlike experiences. Aber da kommen natürlich ganz viele andere Komponenten dazu, in denen sich in den letzten Jahren auch viel getan hat. Darauf können wir vielleicht später nochmal zurück.
Philipp Ebnet, CGI: Ja, genau. Jetzt würde mich erstmal noch die Frage interessieren, wie denn so die Entwicklungsschritte bei Agentic AI sind. Also bei, du hast ja gerade schon Chat GPT genannt, da sehen wir ja so Entwicklungsstufen. Klar, GPT 3, dann GPT 4 und so weiter. Durchläuft denn Agentic AI ähnliche Entwicklungsstufen und wie äußert sich das?
Niklas Bläsing, CGI: In Agentic AI gibt es unterschiedliche Entwicklungsstufen und da redet man eher von der Evolution. Also man sagt, man fängt mit Agent AI an. Das heißt, man hat einen Agent, beispielsweise im Customer Service, der auf dein Request antworten kann. Man hat einen Agent, der für die Logistikplanung, für die Flugplanung, für deinen Internetanbieter zur Verfügung steht und da versucht, Troubleshooting zu helfen, bei der Umbuchung zu helfen oder die richtige Route zu finden. Aber das ist dann quasi eine Single Source. Und man geht quasi in der Evolution weiter und sagt man hat ein Multi-Agent-Environment und geht damit quasi in die nächste Stufe, dass man sagt, man baut Nischen-Agenten auf. Verschiedene Nischen-Agenten, die aber genau restriktiert sind, ihre Limits haben und nur in ihrem Bereich wirklich Fachexperten haben. Dass man sagt, wie man jetzt auch wirklich einen Logistikplaner hat, der 20 Jahre Erfahrung hat und wenn der Mitarbeiter mal das Unternehmen verlässt, dann tut es einem richtig weh. So einen baut man virtuell auf und hat den da als wirklich Nischen-Experten, sodass man dann mit der die eine KI mit der anderen KI sich unterhalten kann und man immer von Experten zu Experten den richtigen Austausch hat. Aber dass man das Ganze halt virtuell als virtuelle Agenten gestaltet und dann ist man halt in einem Multi-Agent-Environment, weil die KI, die am Anfang den Kunden betreut, ist mehr empathisch beispielsweise. Die nimmt den Request auf, man hat, möchte das Ganze mit einem vorantreiben. Dann aber der Logistikplaner, der ist sehr fachlich, der möchte eigentlich dir nur zack zack sagen, was die beste Lösung ist und nicht viel Smalltalk machen. Und dann quasi kann die KI im Hintergrund da anfragen und wenn der nächste Request kommt quasi in den nächsten Channel gehen und das da mit einem besprechen, sondern da kann man wirklich sagen, man hat immer den richtigen Bedarf für die richtige Nische und den richtigen Anwendungsfall. Und Agentic ist dann der nächste oder der aktuell letzte Evolutionsschritt. Ich glaube nicht, dass wir irgendwann am Ende sind, sondern dass man da immer sich noch weiterentwickeln wird, sondern wir noch in der frühen Phase sind. Aber da denkt man jetzt darüber nach, dass man sagt, okay, man hat nicht mehr so viele Nischenagenten, sondern man packt dies zusammen in ein Environment und sagt, okay, das CRM, das ERP-System, alle können selber reden. Das heißt, die Daten, die man hat, die Datenbanken können sprechen auf einmal und das ist etwas ganz Neues. Das heißt, man braucht keinen Agenten, der antrainiert ist, sondern man hat eine Datenbank, die einfach alles weiß über das System und über die Vorgänge, das komplett auf Metadaten läuft und einem damit quasi die richtige Antwort direkt liefern kann. Bedeutet der Customer Service Agent, den man vorne hat, der sehr empathisch ist, kann gleichzeitig in deine Metadaten gucken, wie der Flow abläuft, warum es Verzögerungen gibt oder wo gerade die Probleme stecken und versteht direkt, was die richtige und beste Antwort für den Kunden wäre.
Philipp Ebnet, CGI: Das war eine sehr ausführliche Antwort. Danke dir. Sebastian, hast du da noch irgendwas hinzuzufügen oder können wir das so stehen lassen?
Sebastian Glock, NiCE Cognigy: Ja, Niklas ist jetzt schon tief in die Anwendungsfälle eingetaucht. Also vielleicht, um noch ein bisschen was zu den Grundlagen zu ergänzen. Wir sehen diese GPT-Generationen, die du eingangs erwähnt hast, Philipp. Die erste wirklich brauchbare war 3.5, also der Launch von ChatGPT, der Riesenwellen geschlagen hat. Was sich mit diesen Basismodellen über die Zeit immer stärker verbessert hat, ist das, was auf Englisch Reasoning genannt wird. Bis heute habe ich keine schöne deutsche Übersetzung dafür gefunden. Es geht im Grunde genommen darum, ausgegebene Informationen zu abstrahieren, einen Plan zu machen, das dahinter liegende zu erkennen und darauf Aktionen einzuleiten. Dieses Reasoning ist die Voraussetzung für Agentic AI. Es ist eben keine stupide Antwortmaschine, sondern es gibt diese Fähigkeit, auch komplexe Probleme in Teilschritte zu zerlegen. Und das wiederum ist nötig, genau das zu erreichen, was Niklas auch beschrieben hat. Agent A übergibt an Agent B, Agent B benutzt ein Werkzeug oder mehrere Werkzeuge, dann an einer bestimmten Reihenfolge, zurück. Dieses Reasoning, das ist die eigentliche Superpower dahinter. Und die Qualität der Sprachmodelle, die dafür nötig ist, damit es wirklich funktioniert, die gibt es tatsächlich erst seit wenigen Monaten oder vielleicht ein, zwei Jahren.
Philipp Ebnet, CGI: Jetzt habt ihr beide schon genannt, dass die Agenten dann auch untereinander und miteinander kommunizieren und interagieren können und sich dadurch gegenseitig unterstützen. Was sind denn so eure Top-Use-Cases? Also welche Branche profitiert denn eurer Ansicht nach am meisten von Agentic AI?
Sebastian Glock, NiCE Cognigy: Also wir bei Cognigy fokussieren uns natürlich sehr stark auf den Bereich Customer Service. Also alle die Unternehmen, wo 100.000 oder Millionen von Interaktionen pro Jahr antreten. Also häufig sind das Interaktionen, die eben von Kundinnen und Kunden gestartet werden. Da geht es Flugbuchungen und Umbuchungen, da geht es um Versicherungs-Cases, um Schadenmeldungen. Alle Dinge, denen du und ich typischerweise auch mit unseren, mit all den Firmen in Kontakt treten, mit denen wir so im Laufe der Zeit arbeiten. Da ist natürlich das Potential von KI-Automatisierung besonders hoch, weil auch viele repetitive Fragen dabei sind. Die kann man sehr schön automatisieren. Da ist auch ein hohes kostenersparendes Potential dabei und letzten Endes auch die Möglichkeit für Unternehmen sich von ihren Mitbewerbern Stück weit zu differenzieren. Die Frage, wie gut ist der Bot auf der Webseite, wird möglicherweise bei einem Neukunden zu einem Entscheidungskriterium. Wenn der meine erste Neukunden-Frage direkt mit „Sorry, I didn't understand“ beantwortet, gehe ich vielleicht zum nächsten Anbieter. Also CX-Differenzierung spielt eine immer größere Rolle.
Also in a nutshell, die Top-Use-Cases sind immer die, wo ein großes Volumen an Customer Service-Cases über die Zeit zusammenkommen. Und da können KI-Agenten wirklich ihre Stärken zeigen.
Philipp Ebnet, CGI: Niklas, du hast ja bei CGI mit vielen verschiedenen Branchen Kontakt. Hast du noch irgendeine Branche bei der du sagst, da hast du auch noch die super Ergänzung oder würdest du auch sagen, Customer Care ist einfach der Super Use Case, den du auch bei ganz vielen deiner Kunden identifizierst?
Niklas Bläsing, CGI: Also, es gibt drei Bereiche, wo wir einen deutlichen Anstieg an Anfragen kriegen. Der erste ganz klar Customer Service, das ist gerade einfach der Rising Star kann man sagen und da hat Sebastian absolut recht. Der zweite Punkt ist B2B. Da geht es vor allem auch darum, wie ich vorhin schon mal das Logistik Beispiel genommen habe. Ich möchte etwas verschiffen von beispielsweise China nach Deutschland, von Deutschland nach Amerika, wo auch immerhin und diese Kette hat früher zwei Wochen in Anspruch genommen, wenn ich einen Container verschicken möchte, muss ich in zwei Wochen im Voraus das ganze buchen und planen.
Inzwischen kann man das über KI in Sekunden oder Minuten machen, indem man dann guckt, okay, da ist das nächste Schiff, ist da noch Platz frei, brauchst du eine Palette, brauchst du einen ganzen Container, kann man noch irgendwo was zuladen und dieser Prozess ist einfach viel schneller geworden und effizienter und das ist etwas, wo ich auch einen riesen Mehrwert sehe durch Agentic AI, wo es jetzt nicht genau Consumer Services geht, aber halt im B2B-Logistik-Geschäft dann doch wieder die Experience, den Effizienzgewinn, den man hat und den wir da quasi wieder abgreifen können. Darum ist das so mein zweiter Liebling-Case aktuell und als drittes, wo ich sehr gerne mitarbeite, ist der Bereich Public. Denn in Deutschland merken wir langsam, dass das, was wir auch mit anderen Unternehmen erfahren, auch bei den Behörden erfahren wollen, bedeutet lange Wartezeiten, Termine, die nicht stattfinden können, weil man keinen Slot kriegt. Und man hat ja Regularien, wenn man sich ummelden muss, wann man das getan haben muss. Und das sind alles Themen, die kann man inzwischen optimieren. Also dass man sagt, gerade diese Terminfindung, Formularausfüllung, wann nehme ich welches Formular, wie bin ich darauf vorbereitet, dass man nicht lange im Termin sitzt, sondern im Termin wirklich mit dem Mitarbeiter dann nur kurz besprechen kann, was es ist. Das ist auch eine Art von Consumer Service, muss man sagen, auch wenn es der Bürger ist und das ein städtischer Service ist, ist es genau das, was wir brauchen, um digital zu werden in Deutschland und damit gemeinsam voranzugehen und zu sagen unser Erlebnis als Bürger ist genauso gut, als wenn ich mit einem Unternehmen rede.
Philipp Ebnet, CGI: Da würde ich voll zustimmen. Also ich höre auch immer wieder von vielen Beschäftigten aus der öffentlichen Verwaltung, mit denen habe ich viel beruflich zu tun und höre auf Veranstaltungen auch immer wieder, dass sie sich auch selber wünschen, dass sie eben weniger Zeit mit solchen Anfragen verbringen müssten, damit sie einfach mehr Zeit im direkten Gespräch mit den Bürgerinnen und Bürgern haben und da einfach wirklich auf die Fälle eingehen können, anstatt eben irgendwelche Sachen, die einfach Zeit kosten, aber einfach nur aus Ausfüllen oder so ähnlich bestehen. Da kann ich mir auch vorstellen, dass da wirklich Agentic AI super unterstützen kann und einfach viel Zeit abnehmen kann. Jetzt habt ihr beide Customer Service genannt, logisch. Und da würde mich dann mal interessieren, wie ist denn da die Sicht der Konsumenten? Also, ist da noch diese Angst oder dieser Frust von bestehenden Chatbots im Kopf? Also ich meine, es gibt ja im Internet zum Beispiel viele User, die sich austauschen, wie man bei einem Chatbot den möglichst schnell dazu bekommt, dass man einen echten Menschen ans Telefon bekommt, damit man sich nicht mit dem Chatbot rumärgern muss. Aber wenn Agentic AI jetzt viel besser meine Anfragen beantworten kann und dadurch gar keinen Frust entsteht, wissen die Leute das schon oder müssen wir jetzt das den Konsumenten oder den Kunden erstmal noch mal neu beibringen, in Anführungszeichen, dass die eben jetzt erstmal lernen müssen: Hey, da ist eine neue Technologie, die eben nicht mehr so nervig, so frustrierend ist, sondern die mir wirklich schnell hilft.
Sebastian Glock, NiCE Cognigy: Ja, also da bedeutet der Launch von ChatGPT, Gemini und all den anderen KI-Chatbots da draußen wirklich einen Wendepunkt auch in der Wahrnehmung, was KI leisten kann.
Tatsächlich etwas provokativ gesagt muss man sagen, Chat- und Voicebots haben Konsumenten 15 Jahre lang im Stich gelassen. Also bevor ChatGPT einfach zum neuen Benchmark wurde, wie Mensch-Maschine-Interaktion sein kann, war natürlich die Begeisterung immer etwas verhalten, wenn man sich durch so ein IVA-Menü hangeln musste oder versucht hat, Stichworte in den Hörer zu rufen, um irgendwie sich durch diese vorgefertigten Menüstrukturen zu hangeln. Und da galt natürlich, dass ein schlechter Bot weniger attraktiv ist als ein Mensch. Ich glaube, das ändert sich aber gerade. Denn aus schlechten Bots werden sehr, sehr gute KI-Agenten. Und diese Erfahrungen machen natürlich auch immer mehr Konsumenten. Dass KI funktionieren kann, dass sie Spaß machen kann, dass sie den Leuten im Alltag hilft und vielleicht auch bei ihren Interaktionen mit Unternehmen. Und ich glaube daraus wird eine neue auch Ungeduld erwachsen bei Konsumenten, die sagen, ich bin nicht bereit, 20 Minuten zu warten, mit einem Menschen zu sprechen. Warum dauert das so lange? Warum gibt es hier keine KI, die mir helfen kann? Die ersten Unternehmen, die damit erfolgreich sind, setzen auch den Benchmark für alle anderen Unternehmen. Und daraus ergibt sich auch so neues Gleichgewicht aus den Erwartungen auf der einen Seite der Konsumenten und dem, was Unternehmen ja auch machen müssen, um state of the art zu bleiben.
Philipp Ebnet, CGI: Wenn jetzt wir nicht nur von Chatbots, sondern auch von Voicebots reden und die ja auch immer besser werden und jetzt eben der Bot entscheidet oder ich angerufen werde von dem Bot, merke ich dann überhaupt noch, dadurch dass die KI immer besser wird, merke ich eigentlich noch, dass das eine KI ist oder merke ich, du hebst schon die Hand, genau.
Sebastian Glock, NiCE Cognigy: Also, die Technik dahinter ist mittlerweile so ausgereift, dass normale Menschen einfach nicht mehr unterscheiden können, ob eine Maschine anruft oder ein Mensch. Die Latenz ist gering, die Qualität der synthetischen Stimmen ist nicht mehr unterscheidbar von natürlichen Stimmen, sodass es durchaus möglich ist, dass sich eine KI als Mensch ausgibt. Aber das ist natürlich nicht nur aus ethischen und moralischen Gründen zweifelhaft, sondern schlicht und einfach in Europa auch nicht erlaubt. Also das wäre eine Anwendung, die mit dem AI-Act überhaupt nicht vereinbar ist und auch nichts, was ich einem Unternehmen empfehlen würde. Also diese Form von Täuschung geht in meinen Augen doch zu nah ran an das Robocalling und den ganzen Fraud, der da draußen ja schon genug passiert. Also als Unternehmen sollte man einen sehr guten KI-Agenten bauen, der darf auch menschenähnlich sein, menschenähnlich sich verhalten und anfühlen, aber eine solche Instanz sollte sich niemals als Mensch ausgeben. Das ist falsch und halten wir auch für falsch.
Niklas Bläsing, CGI: Vielleicht da direkt ergänzend, dass wir bei uns den Kunden auch immer empfehlen, wenn man zum Beispiel einen Voicebot hat, da ganz stark. Beim Chatbot geht man eigentlich immer davon aus, dass da eine KI hinter ist. Aber einem Voicebot empfehlen wir immer zu sagen: „Hallo, ich bin der virtuelle Assistent von Firma XY“, damit man direkt beim Einstieg erkennt, dass da ein KI-Agent hinter sitzt und nicht ein wirklicher Agent. Und das ist, glaube ich, etwas, wo man das harmonisieren muss, weil die Enttäuschung nachher zu sagen, der KI-Agent konnte es vielleicht nicht beantworten in dem Fall. Und dann erkennt man erst, dass es ein KI-Agent war. Das ist vielleicht frustrierend und dann hat man eine schlechte User Experience. Sondern da muss man wirklich mit Transparenz reingehen und wie Sebastian gerade gesagt hat, haben wir in Deutschland da auch einen ganz klaren EU-AI-Act, der vorgibt, man muss erkennen, dass da eine KI hinter steckt und, ich sag mal, das finde ich auch richtig so.
Philipp Ebnet, CGI: Finde ich auch richtig. Du hast jetzt gerade meine Frage schon beantwortet. Ich hätte mich auch gefragt, ob ich dann einfach am Anfang den Hinweis einspiele, dass ich von einem KI-Assistenten angerufen werde. Aber das hast du ja gerade schon vorbildlich vorweggenommen und beantwortet. Da vielleicht noch die Anschlussfrage. Wisst ihr denn vor allem du, Sebastian, vielleicht, wie die Menschen reagieren, wenn eben dieser Hinweis kommt, dass sie von einem KI-Assistenten angerufen werden? Also ist da erst mal Überraschung, ist da Skepsis, sind die Leute da offen oder dagegen? Was ist da so deine Erfahrung?
Sebastian Glock, NiCE Cognigy: Das interessante an diesen Outbound-Use-Cases ist, genau wie du sagst, dass man auch als Anbieter überhaupt nicht antizipieren kann, wie Leute reagieren. Also, sie können sich freuen über den Anruf, sie können aber auch sehr, sehr verärgert sein. Es kann eine gute Situation sein oder eine schlechte. Man kann es nicht antizipieren. Was übrigens bedeutet, anders als mit Agentic AI kann man diese Use-Cases praktisch gar nicht lösen. Weil sonst müsste man alle möglichen Arten von Reaktionen antizipieren und sie irgendwie im Bot manifestieren lassen, das ist natürlich gar nicht möglich. Unsere Erfahrung zeigt, dass die Leute dann, wenn es ein echtes Service Offering ist und nicht ein plumpes Upsell, durchaus erfreut sind von dem Anruf und auch von der Flexibilität, der damit einhergeht. Wir haben beispielsweise einen Kunden aus dem Bankingbereich, der nutzt die KI gewissermaßen zur Vorqualifizierung von Interessenten für Konsumentenkredite. Das sind also Leute, die interessieren sich für einen Konsumentenkredit, haben ein Formular auf der Webseite ausgefüllt.
Die sollen jetzt mit einem Finanzberater verbunden werden und die KI übernimmt die Vorqualifizierung. Dieser Service ist hochgradig erfolgreich. Zum einen, weil er das Unternehmen und die Finanzberater im Unternehmen davor bewahrt, eine relativ hohe Menge an nicht erfolgreichen Anrufen zu tätigen von Leuten, die nicht erreichbar sind oder gar kein Interesse haben oder vielleicht eine falsche Nummer angegeben haben. Und auf der anderen Seite auch von Konsumenten, die eben erfreut sind, dass dieser Rückruf zeitnah passiert, dass er ermöglicht, sehr schnell und unkompliziert einen Termin zu vereinbaren oder direkt weitergestellt zu werden. Also in solchen Use Cases, wo die Leute den Anruf quasi erwarten oder dieser Anruf einen positiven Effekt hat, dann sehen wir eine extrem hohe Akzeptanz und eine sehr hohe Erfolgsrate von solchen Outbound-KI-Agenten.
Philipp Ebnet, CGI: Noch eine Frage an dich, auch noch mal auf das Kundenerlebnis oder auf KI und Kundeninteraktion besser gesagt. Beim Servicebereich ist es ja doch ab und zu mal so, dass man Kunden am Telefon hat, die eher unzufrieden sind und dann auch mal unverhalten reagieren. Als Mitarbeiter oder als Mitarbeiterin kann das dann doch sehr belastend sein, wenn vielleicht den ganzen Tag lang angeschrien werde.
Wie ist das denn für die künstliche Intelligenz? Ich meine, das ist ja an sich eine künstliche Intelligenz, da würde ich jetzt erstmal vermuten, dass es die nicht stört, wenn die angeschrieben wird am Telefon.
Sebastian Glock, NiCE Cognigy: Nee, nee, nee, natürlich nicht. Also das ist der KI relativ egal. Paradoxerweise ist es mit den bestehenden Basismodellen sehr schwer, einen KI-Agenten zu bauen, der tatsächlich zurückschreit oder zurückschimpft. Also das kennen wir auch von ChatGPT, bleibt immer super höflich, egal wie genervt man ist. Und so würde auch ein KI-Agent reagieren. Es wird natürlich gemessen, wie das Sentiment in einem Gespräch ist. Schreit jemand, beleidigt jemand, wie ist hier die Temperatur des Kunden? Aber der interessantere Aspekt ist der, den du auch angesprochen hast, wie kann man denn eigentlich Mitarbeitende im Contact Center vor solchen Leuten schützen? Weil das ist ein richtiger Knochenjob. Und je nachdem, mit welchen Use Cases man sich beschäftigt, gibt es also Contact Center Mitarbeiter, die haben das acht Stunden am Tag. Und alles, was KI tun kann, um hier ein bisschen den Druck rauszunehmen, ist auch bei den Mitarbeitenden da sehr willkommen. Es gibt tatsächlich zum einen Use Cases, wo sich zeigt, dass Kunden fast schon lieber mit Maschinen drüber sprechen. Ein klassisches Beispiel ist Debt Collection. Also da gibt es Anrufe, die sagen, hier, deine Rate steht aus, du musst bezahlen. Und da ist quasi auf der Kundenseite die Akzeptanz von einem Maschinenanruf höher als von einem Menschen, weil es auch eine emotionale Reaktionssituation ist, die mit viel Druck verbunden ist. Und ein anderes Beispiel wie auch Druck rausgenommen werden kann, ist sowas Triviales wie ein Warm Handover. Kunden rufen an, vielleicht emotional aufgeladen, dann fragt der Bot nach der Kundennummer und die Leute sind immer noch auf Temperatur. Und in dem Moment, wo an einen Mitarbeiter weitergegeben wird, wird mit Kontext übergeben. Und der oder die Mitarbeiterin kann diesen Call entgegennehmen mit der Aussage: „Ah, Herr Müller, ich sehe schon, warum Sie anrufen. Ich kümmere mich gleich darum.“ Und in diesem Moment geht auch ein Stück weit der emotionale Druck raus, sodass, wenn man es richtig spielt, es allen lieber ist, wenn die KI angeschrien wird, aber nicht die Menschen im Contact Center. von daher glaube ich, dieser emotionale Aspekt dahinter, der wird auch immer wichtiger werden und führt auch zu einer höheren Akzeptanz der Mitarbeiter, die KI nicht mehr als Konkurrenz begreifen, sondern eher als Team-Mate mit auch positiven Effekten aufs Arbeitsklima.
Philipp Ebnet, CGI: Ja, wie du gerade gesagt hast, wenn ich da den ganzen Tag acht Stunden am Tag ansonsten angeschrien werde, dann ist vielleicht auch eben die Akzeptanz sehr hoch, wenn ich dann merke, okay, das übernimmt mein virtueller Kollege ab sofort und ich habe nur noch die angenehmen Gespräche.
Sebastian Glock, NiCE Cognigy: Na hoffentlich, Also alle Gespräche, es werden nicht nur angenehme Gespräche übrigbleiben, aber ein Stück weit gibt's da schon dieses Shield, was auch ganz gut funktioniert.
Philipp Ebnet, CGI: Ja. Niklas, du hast ja mit vielen verschiedenen Kunden zu tun. Was würdest du denn so sagen, wenn ich als Unternehmen jetzt Agentic AI einführen will, aber noch ganz am Anfang bin. Wie würdest du denn vorgehen? Was würdest du empfehlen?
Niklas Bläsing, CGI: Da müssen wir natürlich erstmal schauen wo die Konversation herkommt. Also man muss ja sagen, der Use Case ist ja immer verschieden, den man da ansetzen möchte. Und wir reden zwar jetzt gerade viel über Kundenservice, aber wir haben genug Unternehmen, die keinen Kundenservice direkt haben. Und das ist dann zum Beispiel irgendwelche, ich sag mal, B2B-Bereiche, die im Manufacturing unterwegs sind und Autoteile in Deutschland herstellen.
Deren B2B-Bereich ist wirklich ziemlich klein im Vergleich zu deren restlichen Aufgaben. Und da muss man gucken, wie macht man mit Agentic auch wirklich einen Use Case, der Sinn macht und nicht, wenn man hört, es der Kundenservice Bot, das soll nicht der Ruf sein, sondern der Ruf des ganzen soll ein Assistent sein, den man hat. Und wenn wir da dann in den Use Case denken, nehmen wir das, was ich gerade gesagt habe, Manufacturing, Autoteile zu Lieferant, da muss die Person aus der Werkstatt mit den Personen im Backoffice eins zu eins connected sein. Bedeutet, wenn man da Fragen hat, dass die Person im Backoffice nicht in der Werkstatt anrufen muss, weil die Person, da arbeitet, muss von der Maschine weggeholt werden, muss ans Telefon gehen können. Das ist alles Zeit. Wenn die Person aber sieht, hey, die Maschine ist gerade in Produktion von Seriennummer XYZ und dann kann der Mitarbeiter im Backoffice direkt die Information weitergeben. Und genau von der anderen Richtung her, dass man in der Maschine direkt Infos bekommt, okay, der Wartungszustand ist in X Tagen erreicht und das Ganze muss nachbestellt werden. Denn Nachbestellung kommt eigentlich über einen Einkauf. Der normale Prozess wäre, dass der Mitarbeiter aus der Fabrik schreibt einen Request, schreibt eine BANF, dann geht das an den Einkauf. Der Einkauf muss approven und vorher sich vielleicht noch eine Freigabe einholen, bis das Teil da kommt, ist auch wieder langer Prozess und somit quasi könnte man die Maschinen direkt so anbinden, dass man sagt, okay, der Request kommt, hey, die Wartung findet in 15 Tagen statt, weil die Lieferung dauert immer sieben Tage und dann geht der Request automatisiert an Einkauf und da ist wahrscheinlich eine Standardlieferung, die dann nur ein Einzel-Approval braucht oder sowas, dass man halt da die Prozesse effizienter gestalten kann. Und darum muss man gucken, dass man den Use Case wirklich dahinschneidet, wo das Unternehmen am meisten Zeit aufwendet, die man wegnehmen kann und die auch lästig ist, sag ich jetzt einfach mal. Also im Normalfall übernimmt KI erstmal die Aufgaben, die die Mitarbeiter nicht übernehmen möchten, die Mitarbeiter stört, weil die sind auch oft die, wo es an Qualität hinterher hinkt, weil wenn man tausendmal das gleiche macht und das gerade nicht in einen Arbeitsalltag reinpasst, dann müssen wir darauf gucken, dass da der beste Use Case ist und natürlich auch der Return on Invest irgendwo ist, weil wenn man sagt, die Maschine muss angehalten werden, weil der Mitarbeiter weggeht, der geht ins Büro, schreibt eine BANF, ist am Computer, ist erst mal anderthalb Stunden von seinem Prozess raus. So wenn man sagt, das findet alle zwei Wochen statt bei unterschiedlichen Maschinen und das sind natürlich viele Mitarbeiter, die das machen müssen, dann sieht man da, was da ein Aufwand hinter steckt und das kann man alles automatisiert darstellen. Von daher ist der wichtige Schritt erst mal zu gucken, wo ist unser Painpoint, den wir mit KI am besten unterstützen können und dann, was wir dann auch sagen, okay, was ist unser Mehrwert, wo liegt irgendwo der Return Invest in wir erreichen möchten, im Gegensatz zu der Investition, die getrieben werden muss, damit wir auch sagen können, okay, wir gehen jetzt den richtigen Weg, denn man muss ehrlich sein, ganz viele Studien besagen es aktuell und ich glaube, da war auch ein riesen Hype drum herum, 95 Prozent der KI-Projekte sind aktuell nicht erfolgreich. Warum? Weil vieles gerade im Labor bestätigt wird. Und wenn man im Labor irgendwas macht, klingt alles super und alles super einfach. Klicki bunti, ich bin hier nach fünf Tagen fertig mit meiner Anwendung. Aber das spiegelt halt nicht die Realität wider, denn die Daten müssen kommunizieren. Wenn die Daten nicht ordentlich aufbereitet sind und die Daten nicht in ordentlicher Qualität ankommen, muss man sie erst aufbereiten. Und dann darf man nicht zu schnell einen Return on Invest erwarten. Denn wir wollen natürlich etwas bauen, was langfristig Wertschöpfung bietet. Und von daher ist es wichtig, sich erst einmal noch Moment Zeit zu nehmen, überlegen, was ist der richtige Prozess und nicht, was ist der einfachste Prozess, den wir automatisieren wollen. Denn dadurch scheitern diese Projekte. Man muss es gemeinsam vorantreiben. Man muss es mit Gewissen und mit Bedacht angehen. Aber man muss es angehen, weil ansonsten hängt man hinterher.
Philipp Ebnet, CGI: Jetzt hast du gerade schon gesagt, 95 Prozent der AI-Projekte scheitern. Aber wie prüfe ich denn überhaupt, klar, es braucht eine gute Planung, damit es nicht scheitert, das hast du gerade sehr schön ausgeführt, aber wie prüfe ich denn dann, ob ich meine Ziele erreicht habe? Also, welche KPIs kann ich dann zum Beispiel erfassen, um zu sehen, ob wirklich das, was ich mit der AI verbessern will, ich auch wirklich verbessert habe?
Niklas Bläsing, CGI: Ich glaub da gibt es unterschiedliche KPIs, man jetzt den Kundenservice nimmt, wo man dann halt ganz klar guckt, wie die Call Quality ist, wie die Average Handling Time ist und darauf eingeht, wie die Kundenzufriedenheit sich erhöht dadurch. Beim Unternehmen guckt man dann eher auf Effizienzgewinne, dass man sagt, schafft man dadurch mehr zu produzieren? Sind die Abläufe, die Wertschöpfungskette kürzer geworden? Und wie können wir das Ganze ja verschnellern einfach? Und das ist halt, wo man auch die Messbarkeit nehmen muss. Schafft der Mitarbeiter dadurch vielleicht mehr am Tag, ist die Mitarbeiterzufriedenheit höher geworden. Und das sind alles Themen, man damit einbeziehen muss. Von daher lässt sich das nicht pauschal sagen, sondern man muss auch wirklich den Anwendungsfall betrachten und dann sagen, Customer Service kann man super einfach mit den Standard-KPIs, sag ich mal, messen anstatt einem menschlichen Agenten versus virtuellen Agenten. Aber wenn man dann sagt, man lädt ins Unternehmen rein und fängt da mit KI-Anwendungen an, muss man sich wirklich da überlegen, was auch Sinn macht, denn auch, wie gesagt, die Zufriedenheit zu erhöhen, damit einen Effizienzgewinn zu schaffen, gibt dir langfristig auch mehr als Unternehmen, denn eine hohe Fluktuation im Unternehmen ist immer teuer.
Philipp Ebnet, CGI: Du hast vorhin schon im Beispiel der Logistik zum Beispiel gesagt, dass die Bearbeitungszeit ein sehr schönes KPI ist, die sich da krass verkürzt. Du hast das Beispiel genannt von zwei Wochen, die zu zwei Minuten zum Beispiel zusammenschrumpfen können. Sebastian, was hast denn du so an Erfahrungen, wie sich die konkreten Zahlen entwickeln, also wie viele Use Cases zum Beispiel bearbeitet werden können am Tag oder auch wie sich die Bearbeitungszeit verändert. Was sind denn so deine Erfahrungen?
Sebastian Glock, NiCE Cognigy: Also im Customer Service Umfeld ist die Bearbeitungszeit eigentlich nicht die wesentliche Kennzahl, auf die hin optimiert wird. Wenn man das Ganze aus der Kundenbrille betrachtet, dann sind es vor allem die Wartezeit, die die Leute nervt, das sind die verfügbaren Servicezeiten, also muss es wirklich 9 to 5 sein, da geht nicht auch 24/7 und vor allem die Resolution Rate, also wie viele Leute können eigentlich erfolgreich ihre Self Service Journey zu einem Ende bringen. Klassischer Metric hier ist auch die First Contact Resolution Rate, also müssen Leute nochmal anrufen, werden sie weiter verbunden und so weiter. Das sind also diese klassischen Dinge, auf die hier optimiert wird. Die kann man, die kann man sehr gut messen. Man kann sich vorstellen, dass ein Nebeneffekt dieses Einsatz von KI ist natürlich, dass in jeder Interaktion Tausende von Datenpunkten entstehen. Die müssen sinnvoll verarbeitet werden, klar, natürlich im Einklang mit aller Regulatorik und so weiter. Aber wenn man das rechtskonform und gut macht, kann man daraus sehr, sehr, sehr viel mehr ablesen und auch sehr viel mehr Optimierungspotenzial identifizieren als aus der klassischen Mensch-zu-Mensch-Kommunikation oder dem Ticketing-System. Also da gibt es allerhand Messpunkte in Einzelinteraktionen. Konversationsübergreifend und so weiter. Aber wie Niklas richtig gesagt hat, diese Optimierung aus Kundensicht ist nur ein Winkel aus dem Unternehmen, betrachtet man die andere Seite ist es die Kostenseite und die Effizienz. Mehr Self Service Journeys und geringere manuelle Bearbeitungszeit sind für einige Kunden verbunden mit einem Millionen Euro Einsparungspotenzial. Also da, wo vielleicht 10 oder 20 Millionen Interaktionen pro Jahr anfallen, ist jede gesparte Sekunde Geld wert. Unsere Kunden messen das sehr, sehr, sehr genau, welchen Einfluss KI-Agenten haben. Und um mal zwei Beispiele zu nennen, am Anfang der Journey, wenn es darum geht, Leute zu identifizieren und sicher zu authentifizieren, beispielsweise über eine SMS-Verifikation. Das ist keine Arbeit, die Menschen gerne machen und eine Arbeit, die KI-Agenten sehr souverän mit einer extrem hohen Erfolgszahl machen können. Es nervt auch keinen Kunden, der KI die Kundennummer zu geben, versus einem Menschen. Hohe Akzeptanzrate. Da kann man ein bis zwei Minuten im Schnitt sparen. Ohne irgendein Problem in Richtung Customer Satisfaction damit zu bekommen. Am anderen Ende der Journey müssen menschliche Mitarbeiter häufig Protokolle anfertigen, Tickets ablegen, einen Case nochmal in Salesforce hinterlegen und so weiter. Und das quasi vorzuformulieren und dann mit Human in the Loop einmal zu verifizieren und abzuspeichern, kann auch ein bis zwei Minuten pro Case sparen.
Und ich finde, das sind zwei schöne Beispiele, die zeigen, wie KI dann eine Rolle spielen kann und ganz klar auch Kostenoptimierungspotenziale freilegt, ohne dass man dafür irgendwas anderes opfern muss. Also diese zwei Winkel steigende Customer Experience oder bessere Customer Experience auf der einen Seite, sinkende Kosten auf der anderen Seite, das sind im Grunde genommen die Ziele, auf die auch unsere Kunden hin optimieren.
Niklas Bläsing, CGI: Ich finde, da hat Sebastian einen sehr wertvollen Punkt genannt. Denn aus meiner persönlichen Erfahrung habe ich oft etwas gekauft und unter der Woche, wenn ich es installieren wollte und Problem hatte, hatte ich keine Zeit das Call Center anzurufen, weil man arbeitet ganz normal. Was macht man? Samstag. Der Samstag ist dann dafür da, sich sowas zu installieren. Und welches Call-Centers ist am Samstag erreichbar? Also Amazon hat einen super Service, kann man sagen, aber die meisten Hersteller haben so einen Service einfach nicht. Bei einem Produkt hat mich das wirklich sehr genervt, dass ich nicht weiter vorankam, dass ich jetzt auf der IFA da hingegangen bin zu dem Hersteller und gesagt habe: „Hey, persönliche Customer Experience, ich würde euer Produkt schon nicht mehr kaufen, weil ich es nicht installieren konnte alleine, weil ich musste es über die Hotline bestätigen lassen und die hat nur von 8 bis 17 Uhr auf und das ist der normale Arbeitsalltag.“ Und das ist einfach wo eine KI samstags, sonntags Verfügbarkeit zeigen kann. Man muss Erreichbarkeiten erhöhen, wenn die Menschen auch da sind. Der Mensch ist da abends, nach Feierabend, am Wochenende, wenn er sowas machen möchte. Und ich glaube, das ist das, wo man riesen Mehrwert und auch einen Wettbewerbsvorteil aktuell schaffen kann, weil Kundenzufriedenheit zählt.
Philipp Ebnet, CGI: Ja, also da kann ich nur 100 Prozent zustimmen. Ich bin jemand, gerne noch nach Mitternacht auf ist und dann Sachen erledigt. Und wer erreicht nach Mitternacht eine Service-Hotline? Insofern, da volle Zustimmung. Ich bin immer froh, wenn ich meine Anliegen auch irgendwie nachts um zwei noch beantwortet bekomme. Und da dann habe ich da auch kein Problem, dann mit einer KI zu sprechen, weil welcher Mensch ist schon nachts um zwei noch wach? Außer mir. Jetzt würde mich mal noch interessieren: Das ganze Thema AI, das entwickelt sich ja doch alles sehr, schnell und sehr rasant. Also keine Ahnung, wenn ich morgens die Nachrichten aufmache oder die neuesten Tools oder so anschaue, dann kommen schon 50 Headlines, welche neue Tools es alles gibt. Und ihr jetzt in dem Umfeld, wie ist das denn für euch? Wie behaltet ihr denn den Überblick über die Entwicklung im KI-Umfeld? Wie anstrengend ist das für euch oder was sind so eure Tipps, wie man den Überblick behält? Niklas, fängst du an und Sebastian, du kannst dann ergänzen.
Niklas Bläsing, CGI: Genug motivierte Mitarbeiter ist, glaube ich, Antwort, die ich da ehrlich mitgeben kann. Wir haben eine AI Workforce bei uns, bei CGI. Und da ist immer ein Mitarbeiter, der morgens, wenn ich am Rechner bin, mir schon schreibt, hast du den Artikel gesehen? Ich habe direkt mal losgelegt und ich kriege dann direkt Taggleich einen Erfahrungsbericht. Und am Anfang war es so, dass man natürlich immer mal gucken wollte, wer es interessiert, dass man ja nicht alles auf einmal selber testen muss, sondern das ein bisschen auch auslagern kann. Und mit dieser etablierten Workforce bei uns, wo sich jeder selber melden kann und selber mitarbeiten kann, haben wir es geschafft, man wirklich so viele motivierte Mitarbeiter in dem Themenfeld hat, dass die Personen ja wie gesagt selber die Themen aufgreifen, eine neue Headline sehen, dann selber sogar schon Vergleiche ziehen, wie jetzt die Claude Entwickler Konsole mit Codex von ChatGPT gegenüber steht beispielsweise. Dann kam da der neue Release, beide haben jetzt eine Agent Funktion, dann kam der nächste Mitarbeiter auf mich zu und sagt: „Hey wird jetzt released, ich kann direkt einen Vergleich schreiben, ich auch direkt einen Blogartikel dazu schreiben?“ Das ist das, wo ich sage, man muss die Mitarbeiter einbinden, weil für die ist es auch ein interessantes Thema und wenn man sie fragt, sind sie gerne dabei.
Sebastian Glock, NiCE Cognigy: Volle Zustimmung. Man braucht eine gewisse Leidenschaft fürs Thema, sonst hält man sich nicht an der Wasseroberfläche. Es ist auch so, dass ein wesentlicher Teil der Arbeitszeit und auch Freizeit möglicherweise für Informationsbeschaffung draufgeht und Newsletter zu lesen, Blogs zu lesen, viel mehr Zeit auf LinkedIn zu verbringen, als eigentlich gut wäre.
Aber es ist wirklich ein Stück weit notwendig, weil genau wie du es beschreibst, du versuchst eine Woche online zu sein, machst du das erste Mal das E-Mail Postfach auf und denkst, was ist passiert in den letzten sieben Tagen. Also diese Beschleunigung, die beschäftigt uns alle schon relativ viel. Es geht nur mit einer Leidenschaft fürs Thema und auch leidensfähigen Angehörigen, die ab und zu sich mal meine KI-Geschichten anhören, obwohl das eigene Interesse eher marginal ausgeprägt ist. Aber ja, wir müssen tatsächlich lebenslang lernen.
Das klingt jetzt so altbacken, aber in diesem Umfeld gibt es keine andere Wahl als immer on top zu bleiben. Sonst geht man unter.
Philipp Ebnet, CGI: Eine Frage zum Abschluss vielleicht noch. Was ist denn so eine KI-Anwendung, die ihr euch selber noch wünschen würdet? Ganz egal, ob jetzt privat oder im Beruf. Was ist die Anwendung, die euch noch fehlt persönlich?
Sebastian Glock, NiCE Cognigy: Ich glaube, größte Potenzial werden KI-Assistenten haben, die alle auf unseren Mobil-Devices leben. Natürlich muss man sich Gedanken machen den Datenschutz und die Einblicke und auch die Macht, solche KI-Assistenten bekommen. Aber eine Instanz, einen KI-Assistenten dabei zu haben, den man beauftragen kann, Dinge zu lösen, asynchron Dinge zu machen, Terminvereinbarungen zu ändern, einen Tisch im Restaurant zu reservieren, vielleicht eine E-Mail vorzuformulieren und so weiter. Ich glaube, das wird unser aller Alltag sehr, sehr stark beeinflussen. Und obwohl es ein Stück weit beängstigend ist, freue ich mich drauf, weil es wird echt gut werden.
Philipp Ebnet, CGI: Alles klar, Niklas, wie ist das bei dir?
Niklas Bläsing, CGI: Ja, ich gebe Sebastian da absolut recht. Da kommen wir gerade ein bisschen das Thema Edge Computing rein, dass das Ganze noch performanter wird auf den Endgeräten.
Ich würde mir persönlich alleine schon einen Agent-Feature wünschen, was für mich Aufgaben übernimmt, die lästig sind, sage ich jetzt einfach mal, wie eine Dienstreise buchen. Das erste Mal, dass ich Dienstreise gebucht habe, fand ich das cool. Ich habe mir Hotels angeguckt, wie die am besten liegen, aber das kostet Zeit. Und jetzt, sage ich mal, ist das nichts Besonderes mehr, sondern ich möchte gerne eine KI hat, die weiß, worauf ich Wert lege, wann ich gerne in der Nähe des Bahnhofs buche, wann ich gerne in Nähe des Tagungsortes buche, wann ich am liebsten Nähe des Tagungsortes buche, sodass quasi die KI genau weiß, was sind meine Kriterien, wie tickt der Niklas und was würde er jetzt bevorzugen und mir daraufhin schon mal einen Vorschlag macht und ich nachher nur sagen muss, das ist eine gute Wahl und buche mir das. Nicht, dass ich das selber noch buchen muss, sondern dass die Abrechnung erfolgt, ich die Rechnung angefordert kriege, wie ich sie brauche und dass diese Prozesse sind, wo ich sage, da habe ich keinen Spaß in meinem Alltag dran. Wenn ich einen privaten Urlaub buche, vielleicht schon, dann suche ich das Hotel doch noch gerne aus, aber gerade auch Dienstreisen nicht. Oder wenn ich sage, ich möchte eine optimierte Reiseroute haben, zum Beispiel wenn man Kinder zu Hause hat, möchte man gucken, wo hat man schöne Raststätten mit Kinderbereichen, dass man da Pause machen kann, wo ist vielleicht ein anderer Spot, den man mitnehmen sollte auf dem Weg, dass die KI einem da bei dieser Reiseplanung einfach hilft und man nicht selber stundenlang vor irgendwelchen Quellen sitzt, um zu gucken, okay wo halte ich denn jetzt noch, sondern dass wir einfach damit einen Assistenten haben, der all diese Aufgaben übernimmt und die Lebensqualität verbessert.
Philipp Ebnet, CGI: Ja, der dir einfach viel Mental Load abnimmt. Das wäre tatsächlich eine ganz gute Sache. Ja, dann danke ich euch beiden fürs Dasein, für die ausführlichen Antworten, für eure Zeit.
Sebastian Glock, NiCE Cognigy: Philipp, besten Dank, hat Spaß gemacht.
Niklas Bläsing, CGI: Vielen Dank.
Philipp Ebnet, CGI: Danke Sebastian und Niklas, dass ihr heute da wart und auch vielen Dank an dich fürs Zuhören. Ich freue mich schon auf die nächste Folge. Und wie am Anfang schon erwähnt, ich freue mich sehr, wenn du auch mir deine Fragen mitgibst. Natürlich findest du auch Niklas und Sebastians Kontakte in den Show Notes. Also wenn du an die beiden noch Fragen hast, dann wende dich direkt an sie. Ihre LinkedIn Kontaktdaten findest du in den Show Notes.
Und wenn dir die Folge gefallen hat, dann lass uns einen Like da, folg uns, abonnier uns und ich bin sehr gespannt und freue mich auf die nächste Folge mit dir zusammen. Bis dahin, ciao!