Microsofts Tay-KI wurde in weniger als einem Tag von einer vielversprechenden KI zu einer totalen Katastrophe. Hier ist, was das Unternehmen gelernt hat.

KI-Chatbots wie ChatGPT werden zunehmend zu einem integraleren Bestandteil moderner Technologie, aber vielen ist unbekannt, dass generative KI nicht immer so gut war wie heute. Tatsächlich zeigte uns 2016 der von Microsoft entwickelte Chatbot Tay, wie schnell KI nach hinten losgehen kann.

Lassen Sie uns untersuchen, was Microsofts KI-Chatbot Tay war, warum er gescheitert ist, seine Kontroversen und die Lehren, die das Unternehmen nach seinem katastrophalen Scheitern gezogen hat.

Was war Microsofts Tay?

Tay war ein KI-Chatbot, der von Microsoft entwickelt und am 23. März 2016 über Twitter verfügbar gemacht wurde. Der Chatbot wurde für 18- bis 24-Jährige in den USA zu „Unterhaltungszwecken“ und „zum Experimentieren und Erforschen von Gesprächsverständnis“ entwickelt.

Tay sollte kein ausgeklügelter Chatbot wie ChatGPT sein, sondern ein freundlicher KI-Bot auf Twitter, mit dem man sich unterhalten konnte – so ähnlich

instagram viewer
Meine KI auf Snapchat, sondern für Geselligkeit.

Warum hat Microsoft Tay heruntergefahren?

Microsoft hat Tay innerhalb von 24 Stunden nach der Veröffentlichung abgeschaltet – aus gutem Grund. Fast unmittelbar nach der Einführung von Tay begannen Twitter-Nutzer, den Dienst zu missbrauchen, indem sie den Chatbot fütterten Fehlinformationen, ihm abfällige Begriffe beizubringen und es dazu zu bringen, immer beleidigender zu werden, nur um zu sehen, wie weit es ist würde gehen.

Und weit ging es tatsächlich. Innerhalb weniger Stunden nach dem Start twitterte Tay einige der anstößigsten rassistischen Beleidigungen, verbreitete Hassreden, förderte den Nationalsozialismus und löste sogar einen „Rassenkrieg“ aus. Huch! Offensichtlich hatte Microsoft eine schreckliche Zeit und konnte den Dienst nicht weiterlaufen lassen.

In einem Beitrag im offiziellen Microsoft-Blog, wiederholte Microsofts Corporate Vice President Peter Lee dasselbe:

Wir bedauern zutiefst die unbeabsichtigten beleidigenden und verletzenden Tweets von Tay, die weder darstellen, wer wir sind oder wofür wir stehen, noch wie wir Tay entworfen haben. Tay ist jetzt offline und wir werden versuchen, Tay nur dann zurückzubringen, wenn wir sicher sind, dass wir böswillige Absichten, die im Widerspruch zu unseren Prinzipien und Werten stehen, besser vorhersehen können.

Das Tay-Debakel ist nur eines von vielen Gefahren der künstlichen Intelligenz und eine starke Erinnerung daran, warum seine Entwicklung mit äußerster Vorsicht und Aufsicht erfolgen sollte.

6 Lektionen, die Microsoft nach Tay gelernt hat

Tay war eine komplette Katastrophe, aber es lehrte Microsoft auch einige entscheidende Lektionen, wenn es um die Entwicklung von KI-Tools ging. Und für das, was es wert ist, ist es wahrscheinlich besser, dass Microsoft seine Lektionen eher früher als später gelernt hat, was es ihm ermöglichte, einen Vorsprung gegenüber Google zu erlangen und das Neue zu entwickeln KI-gestützter Bing-Browser.

Hier sind einige dieser Lektionen:

1. Das Internet ist voller Trolle

Das Internet ist voller Trolle, und das sind nicht gerade Neuigkeiten, oder? Anscheinend war es Microsoft im Jahr 2016 so. Wir sagen nicht, dass der Aufbau eines Chatbots für „Unterhaltungszwecke“, der auf 18- bis 24-Jährige abzielt, etwas mit der Rate zu tun hatte, mit der der Dienst missbraucht wurde. Trotzdem war es definitiv auch nicht die klügste Idee.

Die Menschen wollen natürlich die Grenzen neuer Technologien austesten, und es ist letztendlich die Aufgabe des Entwicklers, für diese böswilligen Angriffe Rechenschaft abzulegen. In gewisser Weise fungieren interne Trolle als Feedback-Mechanismus für die Qualitätssicherung, aber das heißt nicht, dass ein Chatbot losgelassen werden sollte, ohne dass vor dem Start angemessene Sicherheitsvorkehrungen getroffen wurden.

2. KI kann nicht intuitiv zwischen Gut und Böse unterscheiden

Das Konzept von Gut und Böse ist etwas, das die KI nicht intuitiv versteht. Es muss so programmiert werden, dass es das Wissen darüber simuliert, was richtig und falsch ist, was moralisch und unmoralisch und was normal und eigenartig ist.

Diese Eigenschaften sind Menschen als soziale Wesen mehr oder weniger selbstverständlich, aber KI kann sich keine unabhängigen Urteile bilden, Empathie empfinden oder Schmerz empfinden. Aus diesem Grund folgte der Bot einfach, als Twitter-Nutzer Tay mit allerlei Propaganda fütterten – ohne sich der Ethik der gesammelten Informationen bewusst zu sein.

3. Trainieren Sie KI-Modelle nicht mit den Gesprächen der Menschen

Tay wurde erstellt, indem „relevante öffentliche Daten abgebaut und KI und Redaktion verwendet wurden, die von einem Mitarbeiter entwickelt wurden, darunter Improvisationskomödianten." Ein KI-Modell zu trainieren, das die Unterhaltungen von Menschen im Internet nutzt, ist schrecklich Idee.

Und bevor Sie Twitter dafür verantwortlich machen, sollten Sie wissen, dass das Ergebnis wahrscheinlich unabhängig von der Plattform dasselbe gewesen wäre. Warum? Weil die Menschen im Internet einfach nicht von ihrer besten Seite sind. Sie werden emotional, verwenden Slangwörter und nutzen ihre Anonymität, um ruchlos zu sein.

4. KI fehlt der gesunde Menschenverstand und versteht keinen Sarkasmus

Die KI scheint heute intuitiver zu sein (oder, um es genauer auszudrücken, besser darin, Intuition zu simulieren), hat aber manchmal immer noch Probleme, Sarkasmus und Redewendungen zu erkennen. Das galt 2016 noch mehr. Was für Menschen offensichtlich ist, ist für KI nicht offensichtlich; mit anderen Worten, es fehlt der gesunde Menschenverstand.

KIs wie Tay verstehen nicht, warum Menschen so sind, wie wir sind, handeln, wie wir handeln, und die Exzentrizitäten jedes Einzelnen. Es mag sich überraschend menschlich verhalten und klingen, aber gute Programmierung kann nur so weit gehen.

5. KI muss so programmiert werden, dass sie ungültige Anfragen ablehnt

KI ist sehr beeindruckbar und muss so programmiert werden, dass sie Anfragen ablehnt, die Schaden fördern. Auch heute, nach all unseren Fortschritten in der Verarbeitung natürlicher Sprache, finden die Menschen immer noch linguistische Schlupflöcher KI-Chatbots wie ChatGPT „halluzinieren“ lassen und Ergebnisse liefern, die eingeschränkt werden sollten.

Der Punkt hier ist, dass künstliche Intelligenz vollkommen gehorsam ist, was vielleicht ihre größte Stärke und Schwäche ist. Alles, was ein Chatbot nicht soll, muss manuell programmiert werden.

6. KI-Chatbots sollten niemals unbeaufsichtigt gelassen werden

Bis sich die KI selbst regulieren kann, darf sie nicht unbeaufsichtigt bleiben. Sie können sich die heutige KI wie ein Wunderkind vorstellen; Es ist in gewisser Weise brillant, aber es ist trotzdem noch ein Kind. Wenn es unbeaufsichtigt bleibt, werden die Menschen seine Schwächen ausnutzen – und Tay war ein Paradebeispiel dafür.

KI ist ein Werkzeug, genau wie das Internet, aber die Geschwindigkeit und das Ausmaß, in dem die Dinge mit KI nach hinten losgehen können, ist weitaus größer als das, was wir in den frühen Tagen des Internets erlebt haben.

KI braucht ständige Aufsicht und Regulierung

Tay ist nicht der einzige Chatbot, der abtrünnig geworden ist – es gab viele andere ähnliche Fälle. Aber was es auszeichnete, war die schiere Geschwindigkeit, mit der es funktionierte – und die Tatsache, dass es von einem Technologiegiganten wie Microsoft hergestellt wurde.

Beispiele wie dieses zeigen, wie vorsichtig wir bei der Entwicklung von KI-Tools sein müssen, insbesondere wenn sie von normalen Menschen verwendet werden sollen.