Chatbots werden immer intelligenter, aber wie lassen sie Gespräche so menschlich erscheinen?
Die zentralen Thesen
- Regelbasierte Chatbots stützen sich bei der Bereitstellung von Antworten auf vordefinierte Bedingungen und Schlüsselwörter, ihnen fehlt jedoch die Fähigkeit, sich an den Kontext anzupassen oder aus früheren Interaktionen zu lernen.
- KI-Chatbots wie ChatGPT verwenden große Sprachmodelle, die auf riesigen Datensätzen trainiert werden, um menschenähnliche Gespräche zu simulieren und den Gesprächskontext zu verstehen.
- Zu den Fortschritten bei KI-Chatbots gehört die Integration künstlicher allgemeiner Intelligenz (AGI) und physischer Intelligenz Verkörperungen wie humanoide Roboter zeigen das Potenzial für interaktivere und gesprächigere Interaktionen mit Menschen.
Chatbots sind seit einiger Zeit ein eigenartiges, aber nützliches Online-Tool. Der Aufstieg KI-basierter Sprachmodelle wie GPT-4 und des darauf basierenden ChatGPT-Chatbots hat der Mensch-Bot-Mensch-Schnittstelle eine neue Dimension verliehen. Aber wie simulieren KI-Chatbots menschenähnliche Gespräche? Wie kann ein Computer Gespräche mit Menschen simulieren?
Was sind Chatbots? Wie funktionieren Chatbots?
Vor Chatbots wie ChatGPT, Claude und Google Bard gab es rudimentärere Chatbots. Diese werden als regelbasierte Chatbots oder Entscheidungsbaum-Chatbots bezeichnet.
Ein regelbasierter Chatbot passt sich nicht an Situationen an, versteht den Kontext nicht und kann keine menschliche Logik simulieren. Vielmehr verfügen sie über eine Reihe von Regeln, Mustern und Dialogbäumen, die vom Entwickler festgelegt wurden und an die sie sich halten müssen.
Regelbasierte Chatbots befolgen vordefinierte Bedingungen, wenn sie dazu aufgefordert werden. Schlüsselwörter sind hier ein wichtiger Faktor. Benutzereingaben werden vom Chatbot nach bestimmten Wörtern durchsucht, um ihm zu helfen, zu verstehen, was gefragt wird. Ohne die Fähigkeit, den Kontext zu verstehen, muss sich ein regelbasierter Chatbot auf solche Hinweise verlassen, um eine nützliche Antwort zu geben.
Viele Unternehmen nutzen regelbasierte Chatbots als Puffer zwischen einem Kunden und einem menschlichen Vertreter. Wenn Sie jemals versucht haben, Ihren Energie- oder Mobilfunkanbieter zu kontaktieren, wurden Sie möglicherweise gebeten, Ihre Anfrage zunächst einem Chatbot zu erläutern. Alternativ kann ein Chatbot auftauchen, wenn Sie eine Website besuchen und Fragen stellen.
Regelbasierte Chatbots können keine sehr komplizierten, vielschichtigen Fragen beantworten. Sie dienen dazu, auf kurze und einfache Fragen zu antworten, z. B. „Meine Kontodaten ändern“. Eine Frage, die viele Variablen enthält, wird wahrscheinlich sein über den Rahmen eines regelbasierten Chatbots hinaus, entweder weil er nicht darauf trainiert ist, natürliche Sprache zu interpretieren, oder weil seine Wissensdatenbank dies ist begrenzt.
Regelbasierte Chatbots können ohne manuelle Eingriffe auf der Entwicklungsseite nicht verbessert werden. Dies liegt daran, dass sie nicht aus früheren Interaktionen lernen können.
Auch KI-Chatbots erhalten Regeln. ChatGPT darf beispielsweise nicht schwören oder strafrechtliche Ratschläge erteilen. Die Art und Weise, wie KI-Chatbots funktionieren und interagieren, geht jedoch weit über das hinaus, was ein regelbasierter Chatbot bewältigen kann.
Wie KI-Chatbots funktionieren
KI-Chatbots begannen nicht mit ChatGPT. Bevor ChatGPT den Mainstream erreichte, verwendeten einige weniger fortschrittliche Chatbots noch KI, um mit ihren menschlichen Benutzern zu interagieren.
Nehmen Eviebot, Zum Beispiel. Evie wurde 2008 eingeführt und nutzt KI, um mit Benutzern zu interagieren. Als lernender KI-Chatbot kann Evie ihre Konversationsfähigkeiten verbessern, indem sie notiert, was andere Benutzer in der Vergangenheit eingegeben haben. Tatsächlich verwendet Evie dasselbe KI-System wie Cleverbot, ein weiterer Chatbot, der Ende der 2000er und Anfang der 2010er Jahre zum Mainstream-Hit wurde.
Aber dieser Chatbot ist weit entfernt von den modernen Versionen, die wir heute verwenden.
Wie Sie im Screenshot oben sehen können, ist Evie nicht besonders gut darin, Fragen genau zu beantworten oder den Gesprächsverlauf im Auge zu behalten. In nur wenigen Sekunden sagte der Chatbot, sein Name sei Eliza, änderte ihn aber in der nächsten Antwort in Adam.
Darüber hinaus ist Evie keine großartige Informationsquelle. Als wir Evie fragten, wie groß die Sonne sei, antwortete sie: „Größer als meine Zukunft.“ Evie ist zwar komisch, aber nicht in der Lage, Benutzern Fakten zu liefern, egal wie häufig diese auch vorkommen. Wenn Sie auf der Suche nach einem unterhaltsameren oder bizarreren Chatbot-Erlebnis sind, ist Evie möglicherweise die richtige Wahl für Sie.
Websites wie Cleverbot und Evie sind sicherlich unterhaltsam, für den praktischen Gebrauch sind sie jedoch nicht geeignet. Ende 2022 begann die Welt zu erkennen, wie unglaublich nützlich KI-Chatbots sein könnten.
Wie simulieren Chatbots Gespräche?
Die Frage bleibt: Wie simulieren KI-Chatbots wie ChatGPT genaue Gespräche mit Menschen? Wie kann es sein, dass sie kaum von einer normalen Person zu unterscheiden sind, die an einer Tastatur sitzt?
Im November 2022 veröffentlichte OpenAI eine öffentlich zugängliche Version seines großen Sprachmodells GPT-3.5 mit dem Namen ChatGPT. Dies war der erste KI-Chatbot, der die Fähigkeit unter Beweis stellte, sehr menschliche Gespräche zu simulieren. Wir haben einen eigenen Artikel ChatGPT ausführlich erklären, aber hier sind einige wichtige Hinweise zu beachten.
Erstens steht das „GPT“-Element im Namen des Tools für „Generative Pre-trained Transformer“, was eine Art ist großes Sprachmodell (LLM). Vielleicht haben Sie diese beiden Begriffe im Jahr 2023 oft gesehen, aber was bedeuten sie eigentlich?
Ein LLM ist ein KI-Lernmodell, das von allen wichtigen KI-Chatbots verwendet wird, die Sie heute sehen. Es basiert auf einem KI-Algorithmus, der Deep Learning nutzt, um auf einer unglaublich komplexen Ebene zu arbeiten. Alle LLMs werden mit sehr großen Datensätzen trainiert, wodurch sie über einen riesigen Wissensschatz zur Lösung von Problemen und zur Beantwortung von Anfragen verfügen. ChatGPT-4 wurde beispielsweise mit zwischen 1 Billion und 1,7 Billionen Parametern und Terabytes an Daten trainiert (obwohl OpenAI nicht genau verraten hat, wie viele).
Ein GPT ist eine spezielle Art von LLM, die ein neuronales Netzwerk umfasst, das zu Deep Learning fähig ist. GPTs sind vorab trainierte Modelle riesige Datenbanken mit Informationen zur Verfügung gestellt, aus denen man lernen kann. Im Fall von ChatGPT umfasst dies Texte aus Büchern, Zeitschriften, Artikeln und mehr. Aber wie spricht ChatGPT trotz all dieser Daten auf menschenähnliche Weise mit Menschen?
Während der Entwicklung von ChatGPT wurde es mithilfe der RLHF-Methode (Reinforcement Learning from Human Feedback) trainiert. Diese Form des Trainings nutzt Verstärkung, um ChatGPT in den gewünschten Chatbot zu formen. Mit einem Belohnungs- und Feedback-Modell kann ChatGPT verstehen, welche Antworten nützlich oder „gut“ sind und welche nicht. Diese Methode ermöglicht es ChatGPT auch, den Konversationskontext besser zu erfassen, was bedeutet, dass es Aufforderungen effektiver beantworten kann.
Die Verarbeitung natürlicher Sprache von ChatGPT spielt auch eine große Rolle bei der Reaktion auf Benutzer, einschließlich der Erkennung spezifischer Sprachmuster und Gefühle. In seinem Training wurden dem Algorithmus Beispiele menschlicher Gespräche zur Verfügung gestellt, um besser zu verstehen, wie Menschen kommunizieren. Der Algorithmus kann sich sogar Hinweise wie Begrüßungen und Verabschiedungen merken, um den Verlauf des Gesprächs zu überwachen.
Wie entwickeln sich KI-Chatbots?
OpenAI hat begrenzte Informationen zu GPT-5, der nächsten Iteration seines LLM, veröffentlicht. Das Besondere an GPT-5 (zusätzlich zu seiner aktuelleren Wissensbasis) ist, dass es Gerüchten zufolge integriert werden soll Künstliche allgemeine Intelligenz (AGI) in seinen Algorithmus ein. Angesichts der Tatsache, dass AGI theoretisch in der Lage sein sollte, die menschliche Wahrnehmung zu simulieren, könnte dies ein entscheidender Faktor sein.
ChatGPT eroberte die Welt im Sturm und tut dies auch weiterhin, aber KI-Chatbots enden nicht mit OpenAI. Unternehmen auf der ganzen Welt arbeiten daran, ihre KI-Chatbots zu verbessern, um Gespräche mit Menschen zu simulieren, wobei einige KI-Chatbots die Dinge auf eine physische Ebene bringen.
Nehmen wir zum Beispiel Desdemona, ein humanoides Robotermodell, das KI zur Kommunikation nutzt.
Desdemona wurde von Hanson Robotics und SingularityNET entwickelt und ist die „Schwester“ des bekannten Roboters Sophia, die aufgrund ihrer beeindruckenden, aber unheimlichen menschenähnlichen Gesichtszüge viele große Schlagzeilen gemacht hat und Temperament.
Im Gegensatz zu Sophia konzentriert sich Desdemona auf die Musik und ist sogar Teil einer Band mit anderen menschlichen Musikern. Der KI-Algorithmus greift auf eine Bibliothek bereits vorhandener Musik zurück und ermöglicht es Desdemona, beliebte Lieder mitzusingen. Der Roboter ist sogar mit ihren Bandkollegen live aufgetreten.
Aber Desdemona kann auch mit Menschen reden und Gespräche führen. Im Jahr 2022 wurde Desdemona vom YouTube-Ersteller Discover Crypto interviewt, wobei der Erfinder ihres KI-Algorithmus, Ben Goertzel, auch einige Fragen zur KI und ihrer Zukunft beantwortete.
Desdemonas langjähriger Witz darüber, Menschen in Aquarien zu halten, mag für manche beunruhigend sein, aber ihre Fähigkeit dazu Auf nicht einstudierte Aufforderungen zu reagieren, zeigt das Potenzial der KI für eine freundliche und gesprächige Interaktion mit Menschen Benehmen.
KI wird immer intelligenter
Im letzten Jahrzehnt wurden im KI-Bereich große Fortschritte gemacht: Chatbots sind mittlerweile in der Lage, Witze zu erzählen, Aufsätze zu schreiben, Sprachen zu übersetzen und eine große Menge an Informationen bereitzustellen. Vor allem verfügen sie über die unglaubliche Fähigkeit, menschliche Gespräche zu simulieren. Eines Tages werden wir vielleicht sehen, dass Chatbots die menschlichen Fähigkeiten übertreffen, aber im Moment gibt es noch viel Raum für Verbesserungen.