Die generative KI ist großartig, aber sie präsentiert ihre Informationen immer mit absoluter Autorität. Was großartig ist, es sei denn, es halluziniert die Wahrheit.
Halluzinationen künstlicher Intelligenz (KI) klingen verwirrend. Sie denken wahrscheinlich: "Ist Halluzination nicht ein menschliches Phänomen?" Nun ja, früher war es ein rein menschliches Wesen Phänomen, bis KI anfing, menschliche Eigenschaften wie Gesichtserkennung, Selbstlernen und Sprache zu zeigen Erkennung.
Leider nahm die KI einige negative Eigenschaften an, einschließlich Halluzinationen. Ist KI-Halluzination also der Art von Halluzination ähnlich, die Menschen erleben?
Was ist KI-Halluzination?
Halluzinationen von künstlicher Intelligenz treten auf, wenn ein KI-Modell Ausgaben erzeugt, die sich von den Erwartungen unterscheiden. Beachten Sie, dass einige KI-Modelle darauf trainiert sind, absichtlich Ausgaben zu generieren, die nichts mit realen Eingaben (Daten) zu tun haben.
Zum Beispiel, top KI-Text-to-Art-Generatoren
, wie DALL-E 2, können auf kreative Weise neuartige Bilder erzeugen, die wir als „Halluzinationen“ kennzeichnen können, da sie nicht auf realen Daten basieren.KI-Halluzination in großen Sprachverarbeitungsmodellen
Betrachten wir, wie KI-Halluzination in einem großen Sprachverarbeitungsmodell wie ChatGPT aussehen würde. Eine ChatGPT-Halluzination würde dazu führen, dass der Bot Ihnen mit einer Behauptung eine falsche Tatsache liefert, sodass Sie solche Tatsachen natürlich als Wahrheit annehmen würden.
Vereinfacht gesagt handelt es sich um erfundene Aussagen des künstlich intelligenten Chatbots. Hier ist ein Beispiel:
Auf weitere Nachfrage tauchte ChatGPT mit folgendem auf:
KI-Halluzination in Computer Vision
Betrachten wir einen anderen Bereich der KI, der KI-Halluzinationen erfahren kann: Computer Vision. Das Quiz unten zeigt eine 4x4-Montage mit zwei Entitäten, die so ähnlich aussehen. Die Bilder sind eine Mischung aus BBQ-Kartoffelchips und Blättern.
Die Herausforderung besteht darin, die Kartoffelchips auszuwählen, ohne Blätter in der Montage zu treffen. Dieses Bild sieht für einen Computer möglicherweise schwierig aus und kann möglicherweise nicht zwischen den gegrillten Kartoffelchips und den Blättern unterscheiden.
Hier ist eine weitere Montage mit einer Mischung aus Pudel- und Schweinefleischbrötchenbildern. Ein Computer wäre höchstwahrscheinlich nicht in der Lage, zwischen ihnen zu unterscheiden, und würde daher die Bilder vermischen.
Warum tritt KI-Halluzination auf?
KI-Halluzinationen können aufgrund von gegensätzlichen Beispielen auftreten – Eingabedaten, die eine KI-Anwendung dazu verleiten, sie falsch zu klassifizieren. Beim Training von KI-Anwendungen verwenden Entwickler beispielsweise Daten (Bild, Text oder andere); Wenn die Daten geändert oder verzerrt werden, interpretiert die Anwendung die Eingabe anders und gibt eine falsche Ausgabe aus.
Im Gegensatz dazu kann ein Mensch die Daten trotz der Verzerrungen immer noch genau erkennen und identifizieren. Wir können dies als gesunden Menschenverstand bezeichnen – eine menschliche Eigenschaft, die KI noch nicht besitzt. Sehen Sie sich in diesem Video an, wie KI mit gegnerischen Beispielen getäuscht wird:
Bei großen sprachbasierten Modellen wie z ChatGPT und seine Alternativen, Halluzinationen können durch ungenaue Dekodierung durch den Transformator (Modell des maschinellen Lernens) entstehen.
In der KI ist ein Transformer ein Deep-Learning-Modell, das die Selbstaufmerksamkeit nutzt (semantische Beziehungen zwischen Wörtern in ein Satz), um Text zu erzeugen, der dem ähnlich ist, den ein Mensch mit einem Encoder-Decoder (Eingabe-Ausgabe) schreiben würde Reihenfolge.
Transformers, ein Modell für halbüberwachtes maschinelles Lernen, können also einen neuen Textkörper (Ausgabe) aus dem großen Korpus von Textdaten generieren, der in seinem Training (Eingabe) verwendet wird. Dies geschieht durch Vorhersage des nächsten Wortes in einer Reihe basierend auf den vorherigen Wörtern.
In Bezug auf Halluzination wird erwartet, dass die Ausgabe erfunden und ungenau wäre, wenn ein Sprachmodell mit unzureichenden und ungenauen Daten und Ressourcen trainiert wurde. Das Sprachmodell kann eine Geschichte oder Erzählung ohne logische Inkonsistenzen oder unklare Verbindungen generieren.
Im Beispiel unten wurde ChatGPT gebeten, ein Wort ähnlich wie „Revolte“ zu geben und beginnt mit einem „b“. Hier ist seine Antwort:
Bei weiteren Nachforschungen gab es mit einem hohen Maß an Selbstvertrauen immer wieder falsche Antworten.
Warum ist ChatGPT also nicht in der Lage, eine genaue Antwort auf diese Eingabeaufforderungen zu geben?
Es könnte sein, dass das Sprachmodell nicht in der Lage ist, ziemlich komplexe Eingabeaufforderungen wie diese oder jene zu verarbeiten kann die Eingabeaufforderung nicht genau interpretieren und ignoriert die Eingabeaufforderung, wenn ein ähnliches Wort mit einem bestimmten angegeben wird Alphabet.
Wie erkennt man KI-Halluzinationen?
Es ist jetzt offensichtlich, dass KI-Anwendungen das Potenzial haben, zu halluzinieren – ohne böswillige Absicht Antworten auf andere Weise aus der erwarteten Ausgabe (Fakt oder Wahrheit) zu generieren. Und das Erkennen und Erkennen von KI-Halluzinationen ist Sache der Benutzer solcher Anwendungen.
Hier sind einige Möglichkeiten, KI-Halluzinationen bei der Verwendung gängiger KI-Anwendungen zu erkennen:
1. Große Sprachverarbeitungsmodelle
Obwohl es selten vorkommt, sollten Sie, wenn Sie einen Grammatikfehler in den Inhalten bemerken, die von einem großen Verarbeitungsmodell wie ChatGPT produziert werden, eine Augenbraue hochziehen und Sie eine Halluzination vermuten lassen. Ebenso sollten Sie eine Halluzination vermuten, wenn textgenerierte Inhalte nicht logisch klingen, nicht mit dem gegebenen Kontext korrelieren oder mit den Eingabedaten übereinstimmen.
Die Verwendung von menschlichem Urteilsvermögen oder gesundem Menschenverstand kann helfen, Halluzinationen zu erkennen, da Menschen leicht erkennen können, wenn ein Text keinen Sinn ergibt oder der Realität folgt.
2. Computer Vision
Als Zweig der künstlichen Intelligenz, des maschinellen Lernens und der Informatik befähigt Computer Vision Computer, Bilder wie menschliche Augen zu erkennen und zu verarbeiten. Verwenden Faltungsneuronale Netze, verlassen sie sich auf die unglaubliche Menge an visuellen Daten, die in ihrem Training verwendet werden.
Eine Abweichung von den Mustern der im Training verwendeten visuellen Daten führt zu Halluzinationen. Wenn beispielsweise ein Computer nicht mit Bildern eines Tennisballs trainiert wurde, könnte er ihn als grüne Orange identifizieren. Oder wenn ein Computer ein Pferd neben einer menschlichen Statue als ein Pferd neben einem echten Menschen erkennt, dann ist eine KI-Halluzination aufgetreten.
Um also eine Computervisionshalluzination zu erkennen, vergleichen Sie die erzeugte Ausgabe mit dem, was ein [normaler] Mensch zu sehen erwartet.
3. Selbstfahrende Autos
Dank KI erobern selbstfahrende Autos nach und nach den Automarkt. Pioniere wie Tesla Autopilot und Fords BlueCruise haben sich für die Szene der selbstfahrenden Autos eingesetzt. Sie können auschecken wie und was der Tesla Autopilot sieht um ein wenig zu verstehen, wie KI selbstfahrende Autos antreibt.
Wenn Sie eines dieser Autos besitzen, möchten Sie wissen, ob Ihr KI-Auto halluziniert. Ein Anzeichen dafür ist, dass Ihr Fahrzeug während der Fahrt von seinen normalen Verhaltensmustern abzuweichen scheint. Wenn das Fahrzeug beispielsweise ohne ersichtlichen Grund plötzlich bremst oder ausweicht, halluziniert Ihr KI-Fahrzeug möglicherweise.
Auch KI-Systeme können halluzinieren
Menschen und KI-Modelle erleben Halluzinationen unterschiedlich. In Bezug auf KI beziehen sich Halluzinationen auf fehlerhafte Ausgaben, die meilenweit von der Realität entfernt sind oder im Kontext der gegebenen Aufforderung keinen Sinn ergeben. Beispielsweise kann ein KI-Chatbot eine grammatikalisch oder logisch falsche Antwort geben oder ein Objekt aufgrund von Rauschen oder anderen strukturellen Faktoren falsch identifizieren.
KI-Halluzinationen resultieren nicht aus einem Bewusstsein oder Unterbewusstsein, wie Sie es bei Menschen beobachten würden. Vielmehr resultiert es aus der Unzulänglichkeit oder Unzulänglichkeit der Daten, die beim Training und der Programmierung des KI-Systems verwendet werden.