Treten Sie mit uns in Kontakt! Wir stehen Ihnen mit innovativen Technologien und Services zur Verfügung.
.png?width=1440&name=MicrosoftTeams-image%20(6).png)
Chat- und Voicebots erfreuen sich dank ChatGPT großer Beliebtheit. Schließlich zeigt ChatGPT, was Bots heute alles leisten können. Doch eignet sich der Einsatz von ChatGPT bereits für den Kundenservice? Wir klären auf, ob und wie Sie ChatGPT im Kundenservice nutzen können. Zunächst erläutern wir wichtige Begriffe wie generative KI, Large Language Models (LLMs) und ChatGPT.
Spätestens seit ChatGPT ist ein Begriff in aller Munde: Generative KI. Worin unterscheidet sich diese Technologie von den Large Language Models - oder handelt es sich gar um das Gleiche?
Generative KI ist ein weit gefasster Begriff, der für jedes KI-System verwendet werden kann, dessen Hauptfunktion die Erstellung von Inhalten ist. Davon zu unterscheiden sind KI-Systeme, die andere Funktionen übernehmen, wie z.B. die Klassifikation von Daten (z.B. Zuordnung von E-Mails), das Clustern von Daten oder die Auswahl von Aktionen (z.B. Steuerung selbstfahrender Autos).
Einfach gesagt ist generative KI ein Algorithmus, der neue Inhalte anhand von gelernten Mustern aus vorhandenen Inhalten generiert. Dazu muss er mit großen Datenmengen trainiert werden mit teils mehreren hundert Milliarden Parametern.
Beispiele für generative KI-Systeme sind Bildgeneratoren (wie Midjourney oder Stable Diffusion, DALL-E), große Sprachmodelle (GPT-4 von OpenAI, Googles PaLM, Meta’s LLaMA oder Claude von Anthropic), Werkzeuge zur Codegenerierung (wie Copilot von OpenAI oder Alphacode) oder Werkzeuge zur Audiogenerierung (wie VALL-E von Microsoft oder RESEMBLE.AI).
%2c%20gro%C3%9Fe%20Sprachmodelle%20(z.B.%20GPT-4%20von%20OpenAI%2c%20Googles%20PaLM%2c%20Meta%E2%80%99s%20LLaMA%20oder%20Claude%20von%20Anthro%20(1).png?width=700&height=250&name=Beispiele%20f%C3%BCr%20generative%20KI-Systeme%20sind%20Bildgeneratoren%20(wie%20z.B.%20Midjourney%20oder%20Stable%20Diffusion%2c%20DALL-E)%2c%20gro%C3%9Fe%20Sprachmodelle%20(z.B.%20GPT-4%20von%20OpenAI%2c%20Googles%20PaLM%2c%20Meta%E2%80%99s%20LLaMA%20oder%20Claude%20von%20Anthro%20(1).png)
Wenn wir Chatbots und Voicebots betrachten, spielt Sprache natürlich eine wichtige Rolle. Um Sprache mit KI zu nutzen, werden Sprachmodelle benötigt. Large Language Models sind, wie der Name sagt, Sprachmodelle. Sie basieren auf maschinellem Lernen. Sie können natürliche Sprache verarbeiten. Ähnlich wie bei der generativen KI erzeugen diese Modelle Inhalte aus Daten, mit denen sie zuvor trainiert wurden. In diesem Fall sind es Texte, die zum Kontext passen. Der Begriff „Large“ ist dabei ein Hinweis auf die große Anzahl von Parametern, mit denen sie trainiert werden.
Die Large Language Models arbeiten auf der Basis von künstlichen neuronalen Netzen, die auf der Transformer-Architektur basieren. Die Transformer-Architektur ist in der Lage, Beziehungen zwischen Wörtern und Sätzen herzustellen und daraus neue Texte zu generieren, und zwar mit Hilfe eines neuronalen Netzes. Large Language Models verstehen, verarbeiten und generieren natürliche Sprache und sind eine Form der generativen KI für textbasierte Inhalte (also nicht Bilder oder Audio).

Nachdem wir nun wissen, was Large Language Models sind, können wir uns GPT zuwenden.
GPT steht für Generative Pre-trained Transformer und ist ein von OpenAI entwickeltes Large Language Modell. Die Architektur des Transformers ist in der Lage, mit Hilfe eines neuronalen Netzes komplexe Beziehungen herzustellen, wenn aus Wörtern und Sätzen neuer Text erzeugt wird.
Am 11. Juni 2018 veröffentlichte OpenAI-das Originalpapier, in dem die ersten generativen pretrained Transformer (GPT) vorgestellt wurden. Die Technologie wurde von OpenAI seitdem ständig weiterentwickelt und mit immer mehr Parametern trainiert. Laut PCMag verfügte GPT-1 über 117 Millionen Parameter, GPT-2 über 1,5 Milliaren und GPT-3 über 175 Milliarden Parameter.
ChatGPT basiert auf GPT, ist aber nicht mit GPT identisch, auch wenn die beiden Begriffe oft als Synonyme verwendet werden. GPT gibt es bereits seit 2018, ChatGPT wurde erst am 30. November 2022 von OpenAI veröffentlicht. Der KI-basierte Chatbot hatte im Januar 2023 bereits über 100 Millionen Nutzer und ist damit die bisher am schnellsten wachsende Anwendung (Quelle: Wikipedia). Wichtig ist hier der Begriff „Anwendung“: Denn neu ist nicht die Basistechnologie GPT, sondern die Chat-Applikation, die es den Nutzern ermöglicht, GPT einfach im Chat zu nutzen. Es handelt sich also um einen Chatbot, der das Large Language Model GPT verwendet.
Wer ChatGPT schon einmal ausprobiert hat, ist mit Sicherheit begeistert: ChatGPT weiß sehr viel und kann auch komplexe Fragen in wenigen Sekunden beantworten. Dennoch ist ChatGPT in dieser Form (noch) nicht für jeden Einsatz im Kundenservice geeignet, da es Einschränkungen gibt, die im Unternehmenseinsatz kritisch sind:
ChatGPT kann in der jetzigen Form vor allem wegen der Unsicherheiten beim Datenschutz noch nicht 1:1 im Kundenservice eingesetzt werden. Doch es gibt verschiedene Möglichkeiten Large Language Models dennoch zu nutzen:
Option 1: Ein eigenes lokal ausführbares Large Language Model installieren oder in einem Datencenter in Europa hosten. Bei lokal ausführbaren Sprachmodellen bleiben die Daten lokal und werden nicht über das Internet gesendet. Das Risiko eines Datenlecks wird minimiert. Eine Herausforderung stellt die Anforderung an Rechenkapazität und Speicherplatz dar. Zudem müssen diese Modelle immer aktuell gehalten werden, was eine administrative Aufgabe mit sich bringt.
Option 2: Aleph Alpha, die deutsche Antwort auf ChatGPT, nutzen. Dieses Modell richtet sich an die Industrie und öffentliche Verwaltung. Gehostet wird die Anwendung in Deutschland. Zudem punktet die Lösung bei der Entscheidungsfindung, denn Quellen werden verifiziert, was verantwortungsvolle und nachvollziehbare Entscheidungen ermöglicht.
Option 3: Kombination aus regelbasierter Nutzung durch ein Framework und Nutzung von LLMs. Dadurch kann individuelles Domänenwissen sicher genutzt werden und das Risiko des „Halluzinierens“ wird vermieden. Dabei werden Prozessschritte, die es „abzusichern“ gilt, mit einem sicheren Framework oder einem regelbasierten Prozess gesteuert, und zum Beispiel Zusammenfassungen relevanter Auszüge einer internen Wissensdatenbank mit Hilfe eines LLM zusammengefasst und in Form einer gut formulierten Antwort zur Verfügung gestellt.
Wenn Sie die Intelligenz der Large Language Models für Ihre Voice- und Chatbots nutzen möchten, dann sollten Sie uns kontaktieren. Wir zeigen Ihnen datensichere Optionen auf, die man auch in Europa nutzen kann.
Zum Weiterlesen:
Sprachmodelle verstehen und einsetzen | iX | Heise Magazine
How to Use Large Language Models (LLM) in Your Own Domains | by Eileen Pangu | Towards Data Science
Large Language Models absichern: Die 10 häufigsten LLM-Schwachstellen - CSO (csoonline.com)
The changing face of chatbots | Creative Virtual
Genutzte Quellen:
ChatGPT: Welche Auswirkungen hat die KI auf die Umwelt? - CHIP
AI chatbots aren’t trustworthy. Could OpenAI, Google or others fix it? - The Washington Post
Was ist VALL-E? (bigdata-insider.de)
TensorFlow: Ein umfassendes Tutorial für Data Scientists | Data Basecamp
https://t3n.de/news/chatpgt-konkurrenz-google-bard-faq-1533255/
ChatGPT: Deutschlands Datenschützer eröffnen Verfahren gegen OpenAI | heise online
Vorsicht: Der Einsatz von ChatGPT verstößt aktuell gegen den Datenschutz (it-recht-kanzlei.de)
GPT-4 vs. ChatGPT-3.5: What’s the Difference? (pcmag.com)
Martin Wild ist Co-Gründer und Geschäftsführer sogedes.ai. Gerne können Sie sich mit Martin Wild auf LinkedIn vernetzen.
Chat- und Voicebots erfreuen sich dank ChatGPT großer Beliebtheit. Schließlich zeigt ChatGPT, was Bots heute alles leisten können. Doch eignet sich der Einsatz von ChatGPT bereits für den Kundenservice? Wir klären auf, ob und wie Sie ChatGPT im Kundenservice nutzen können. Zunächst erläutern wir wichtige Begriffe wie generative KI, Large Language Models (LLMs) und ChatGPT.
Spätestens seit ChatGPT ist ein Begriff in aller Munde: Generative KI. Worin unterscheidet sich diese Technologie von den Large Language Models - oder handelt es sich gar um das Gleiche?
Generative KI ist ein weit gefasster Begriff, der für jedes KI-System verwendet werden kann, dessen Hauptfunktion die Erstellung von Inhalten ist. Davon zu unterscheiden sind KI-Systeme, die andere Funktionen übernehmen, wie z.B. die Klassifikation von Daten (z.B. Zuordnung von E-Mails), das Clustern von Daten oder die Auswahl von Aktionen (z.B. Steuerung selbstfahrender Autos).
Einfach gesagt ist generative KI ein Algorithmus, der neue Inhalte anhand von gelernten Mustern aus vorhandenen Inhalten generiert. Dazu muss er mit großen Datenmengen trainiert werden mit teils mehreren hundert Milliarden Parametern.
Beispiele für generative KI-Systeme sind Bildgeneratoren (wie Midjourney oder Stable Diffusion, DALL-E), große Sprachmodelle (GPT-4 von OpenAI, Googles PaLM, Meta’s LLaMA oder Claude von Anthropic), Werkzeuge zur Codegenerierung (wie Copilot von OpenAI oder Alphacode) oder Werkzeuge zur Audiogenerierung (wie VALL-E von Microsoft oder RESEMBLE.AI).
%2c%20gro%C3%9Fe%20Sprachmodelle%20(z.B.%20GPT-4%20von%20OpenAI%2c%20Googles%20PaLM%2c%20Meta%E2%80%99s%20LLaMA%20oder%20Claude%20von%20Anthro%20(1).png?width=700&height=250&name=Beispiele%20f%C3%BCr%20generative%20KI-Systeme%20sind%20Bildgeneratoren%20(wie%20z.B.%20Midjourney%20oder%20Stable%20Diffusion%2c%20DALL-E)%2c%20gro%C3%9Fe%20Sprachmodelle%20(z.B.%20GPT-4%20von%20OpenAI%2c%20Googles%20PaLM%2c%20Meta%E2%80%99s%20LLaMA%20oder%20Claude%20von%20Anthro%20(1).png)
Wenn wir Chatbots und Voicebots betrachten, spielt Sprache natürlich eine wichtige Rolle. Um Sprache mit KI zu nutzen, werden Sprachmodelle benötigt. Large Language Models sind, wie der Name sagt, Sprachmodelle. Sie basieren auf maschinellem Lernen. Sie können natürliche Sprache verarbeiten. Ähnlich wie bei der generativen KI erzeugen diese Modelle Inhalte aus Daten, mit denen sie zuvor trainiert wurden. In diesem Fall sind es Texte, die zum Kontext passen. Der Begriff „Large“ ist dabei ein Hinweis auf die große Anzahl von Parametern, mit denen sie trainiert werden.
Die Large Language Models arbeiten auf der Basis von künstlichen neuronalen Netzen, die auf der Transformer-Architektur basieren. Die Transformer-Architektur ist in der Lage, Beziehungen zwischen Wörtern und Sätzen herzustellen und daraus neue Texte zu generieren, und zwar mit Hilfe eines neuronalen Netzes. Large Language Models verstehen, verarbeiten und generieren natürliche Sprache und sind eine Form der generativen KI für textbasierte Inhalte (also nicht Bilder oder Audio).

Nachdem wir nun wissen, was Large Language Models sind, können wir uns GPT zuwenden.
GPT steht für Generative Pre-trained Transformer und ist ein von OpenAI entwickeltes Large Language Modell. Die Architektur des Transformers ist in der Lage, mit Hilfe eines neuronalen Netzes komplexe Beziehungen herzustellen, wenn aus Wörtern und Sätzen neuer Text erzeugt wird.
Am 11. Juni 2018 veröffentlichte OpenAI-das Originalpapier, in dem die ersten generativen pretrained Transformer (GPT) vorgestellt wurden. Die Technologie wurde von OpenAI seitdem ständig weiterentwickelt und mit immer mehr Parametern trainiert. Laut PCMag verfügte GPT-1 über 117 Millionen Parameter, GPT-2 über 1,5 Milliaren und GPT-3 über 175 Milliarden Parameter.
ChatGPT basiert auf GPT, ist aber nicht mit GPT identisch, auch wenn die beiden Begriffe oft als Synonyme verwendet werden. GPT gibt es bereits seit 2018, ChatGPT wurde erst am 30. November 2022 von OpenAI veröffentlicht. Der KI-basierte Chatbot hatte im Januar 2023 bereits über 100 Millionen Nutzer und ist damit die bisher am schnellsten wachsende Anwendung (Quelle: Wikipedia). Wichtig ist hier der Begriff „Anwendung“: Denn neu ist nicht die Basistechnologie GPT, sondern die Chat-Applikation, die es den Nutzern ermöglicht, GPT einfach im Chat zu nutzen. Es handelt sich also um einen Chatbot, der das Large Language Model GPT verwendet.
Wer ChatGPT schon einmal ausprobiert hat, ist mit Sicherheit begeistert: ChatGPT weiß sehr viel und kann auch komplexe Fragen in wenigen Sekunden beantworten. Dennoch ist ChatGPT in dieser Form (noch) nicht für jeden Einsatz im Kundenservice geeignet, da es Einschränkungen gibt, die im Unternehmenseinsatz kritisch sind:
ChatGPT kann in der jetzigen Form vor allem wegen der Unsicherheiten beim Datenschutz noch nicht 1:1 im Kundenservice eingesetzt werden. Doch es gibt verschiedene Möglichkeiten Large Language Models dennoch zu nutzen:
Option 1: Ein eigenes lokal ausführbares Large Language Model installieren oder in einem Datencenter in Europa hosten. Bei lokal ausführbaren Sprachmodellen bleiben die Daten lokal und werden nicht über das Internet gesendet. Das Risiko eines Datenlecks wird minimiert. Eine Herausforderung stellt die Anforderung an Rechenkapazität und Speicherplatz dar. Zudem müssen diese Modelle immer aktuell gehalten werden, was eine administrative Aufgabe mit sich bringt.
Option 2: Aleph Alpha, die deutsche Antwort auf ChatGPT, nutzen. Dieses Modell richtet sich an die Industrie und öffentliche Verwaltung. Gehostet wird die Anwendung in Deutschland. Zudem punktet die Lösung bei der Entscheidungsfindung, denn Quellen werden verifiziert, was verantwortungsvolle und nachvollziehbare Entscheidungen ermöglicht.
Option 3: Kombination aus regelbasierter Nutzung durch ein Framework und Nutzung von LLMs. Dadurch kann individuelles Domänenwissen sicher genutzt werden und das Risiko des „Halluzinierens“ wird vermieden. Dabei werden Prozessschritte, die es „abzusichern“ gilt, mit einem sicheren Framework oder einem regelbasierten Prozess gesteuert, und zum Beispiel Zusammenfassungen relevanter Auszüge einer internen Wissensdatenbank mit Hilfe eines LLM zusammengefasst und in Form einer gut formulierten Antwort zur Verfügung gestellt.
Wenn Sie die Intelligenz der Large Language Models für Ihre Voice- und Chatbots nutzen möchten, dann sollten Sie uns kontaktieren. Wir zeigen Ihnen datensichere Optionen auf, die man auch in Europa nutzen kann.
Zum Weiterlesen:
Sprachmodelle verstehen und einsetzen | iX | Heise Magazine
How to Use Large Language Models (LLM) in Your Own Domains | by Eileen Pangu | Towards Data Science
Large Language Models absichern: Die 10 häufigsten LLM-Schwachstellen - CSO (csoonline.com)
The changing face of chatbots | Creative Virtual
Genutzte Quellen:
ChatGPT: Welche Auswirkungen hat die KI auf die Umwelt? - CHIP
AI chatbots aren’t trustworthy. Could OpenAI, Google or others fix it? - The Washington Post
Was ist VALL-E? (bigdata-insider.de)
TensorFlow: Ein umfassendes Tutorial für Data Scientists | Data Basecamp
https://t3n.de/news/chatpgt-konkurrenz-google-bard-faq-1533255/
ChatGPT: Deutschlands Datenschützer eröffnen Verfahren gegen OpenAI | heise online
Vorsicht: Der Einsatz von ChatGPT verstößt aktuell gegen den Datenschutz (it-recht-kanzlei.de)
GPT-4 vs. ChatGPT-3.5: What’s the Difference? (pcmag.com)
Martin Wild ist Co-Gründer und Geschäftsführer sogedes.ai. Gerne können Sie sich mit Martin Wild auf LinkedIn vernetzen.
Bereit, in die Zukunft zu investieren?
Wir sind für Sie da!
Telefon +49 621 92108 300
Locations +41 71 575 7660
Mannheim, Deutschland
St. Gallen, Schweiz
E-Mail hello@aifactory.ai
E-Mail contact@sogedes.com
Your Comments :