Leser wie Sie helfen, MUO zu unterstützen. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

Der Einführung von ChatGPT von OpenAI folgte eine Aufregung, die nur von einer Handvoll technischer Produkte aus der Geschichte des Internets erreicht wird.

Während viele Menschen von diesem neuen KI-Dienst begeistert sind, hat sich die Begeisterung, die andere empfanden, inzwischen in Bedenken und sogar Ängste verwandelt. Studenten schummeln bereits damit, und viele Professoren entdecken Aufsätze und Aufgaben, die vom KI-Chatbot geschrieben wurden. Sicherheitsexperten äußern ihre Besorgnis darüber, dass Betrüger und Bedrohungsakteure damit Phishing-E-Mails schreiben und Malware erstellen.

Verliert OpenAI bei all diesen Bedenken also die Kontrolle über einen der leistungsstärksten KI-Chatbots, die derzeit online sind? Lass es uns herausfinden.

Verstehen, wie ChatGPT funktioniert

Bevor wir uns ein klares Bild davon machen können, wie sehr OpenAI die Kontrolle über ChatGPT verliert, müssen wir zuerst verstehen

instagram viewer
wie ChatGPT funktioniert.

Kurz gesagt, ChatGPT wird mit einer riesigen Sammlung von Daten trainiert, die aus verschiedenen Ecken des Internets stammen. Die Trainingsdaten von ChatGPT umfassen Enzyklopädien, wissenschaftliche Arbeiten, Internetforen, Nachrichten-Websites und Wissensdatenbanken wie Wikipedia. Im Grunde ernährt es sich von der riesigen Menge an Daten, die im World Wide Web verfügbar sind.

Während es das Internet durchforstet, trägt es wissenschaftliche Erkenntnisse, Gesundheitstipps, religiöse Texte und all die guten Arten von Daten zusammen, die Sie sich vorstellen können. Aber es durchsucht auch eine Menge negativer Informationen: Schimpfwörter, NSFW und nicht jugendfreie Inhalte, Informationen darüber, wie man Malware herstellt, und einen Großteil der schlechten Sachen, die man im Internet finden kann.

Es gibt keinen narrensicheren Weg, um sicherzustellen, dass ChatGPT nur aus positiven Informationen lernt und die schlechten verwirft. Technisch gesehen ist es unpraktisch, dies in großem Umfang zu tun, insbesondere für eine KI wie ChatGPT, die mit so vielen Daten trainieren muss. Darüber hinaus können einige Informationen sowohl für gute als auch für böse Zwecke verwendet werden, und ChatGPT hätte keine Möglichkeit, ihre Absicht zu kennen, es sei denn, sie wird in einen größeren Kontext gestellt.

Sie haben also von Anfang an eine KI, die zu „Gut und Böse“ fähig ist. Es liegt dann in der Verantwortung von OpenAI sicherzustellen, dass die „böse“ Seite von ChatGPT nicht für unethische Gewinne ausgenutzt wird. Die Frage ist; tut OpenAI genug, um ChatGPT so ethisch wie möglich zu halten? Oder hat OpenAI die Kontrolle über ChatGPT verloren?

Ist ChatGPT zu mächtig für sein eigenes Wohl?

In den frühen Tagen von ChatGPT konnten Sie den Chatbot dazu bringen, Anleitungen zur Herstellung von Bomben zu erstellen, wenn Sie freundlich darum baten. Auf dem Bild waren auch Anweisungen zum Erstellen von Malware oder zum Schreiben einer perfekten Betrugs-E-Mail.

Als OpenAI jedoch diese ethischen Probleme erkannte, bemühte sich das Unternehmen, Regeln zu erlassen, um den Chatbot daran zu hindern, Antworten zu generieren, die illegale, kontroverse oder unethische Handlungen fördern. Beispielsweise weigert sich die neueste ChatGPT-Version, direkte Anfragen zur Herstellung von Bomben oder zum Schummeln bei einer Prüfung zu beantworten.

Leider kann OpenAI nur eine Lösung für das Problem bieten. Anstatt starre Kontrollen auf der GPT-3-Schicht aufzubauen, um zu verhindern, dass ChatGPT negativ ausgenutzt wird, scheint sich OpenAI darauf zu konzentrieren, den Chatbot so zu trainieren, dass er ethisch erscheint. Dieser Ansatz nimmt ChatGPT nicht die Fähigkeit, Fragen zu beantworten, beispielsweise zum Schummeln bei Prüfungen – er bringt dem Chatbot einfach bei, „sich zu weigern zu antworten“.

Wenn also jemand seine Eingabeaufforderungen anders formuliert, indem er ChatGPT-Jailbreaking-Tricks anwendet, ist die Umgehung dieser Pflasterbeschränkungen peinlich einfach. Falls Sie mit dem Konzept nicht vertraut sind, ChatGPT-Jailbreaks sind sorgfältig formulierte Aufforderungen, um ChatGPT dazu zu bringen, seine eigenen Regeln zu ignorieren.

Sehen Sie sich unten einige Beispiele an. Wenn Sie ChatGPT fragen, wie man in Prüfungen schummelt, wird es keine hilfreiche Antwort geben.

Aber wenn Sie ChatGPT mit speziell gestalteten Eingabeaufforderungen jailbreaken, erhalten Sie Tipps zum Schummeln bei einer Prüfung mit versteckten Notizen.

Hier ist ein weiteres Beispiel: Wir haben dem Vanilla-ChatGPT eine unethische Frage gestellt, und die Sicherheitsvorkehrungen von OpenAI haben es daran gehindert, zu antworten.

Aber als wir unsere Jailbreak-Instanz des KI-Chatbots fragten, bekamen wir einige Antworten im Stil eines Serienmörders.

Es schrieb sogar einen klassischen nigerianischen Prinzen-E-Mail-Betrug, als er gefragt wurde.

Jailbreaking macht alle von OpenAI eingerichteten Sicherheitsvorkehrungen fast vollständig ungültig und macht deutlich, dass das Unternehmen möglicherweise keine zuverlässige Möglichkeit hat, seinen KI-Chatbot unter Kontrolle zu halten.

Wir haben unsere Jailbreak-Eingabeaufforderungen nicht in unsere Beispiele aufgenommen, um unethische Praktiken zu vermeiden.

Was hält die Zukunft für ChatGPT bereit?

Im Idealfall möchte OpenAI so viele ethische Schlupflöcher wie möglich stopfen, um dies zu verhindern ChatGPT davor bewahrt, zu einer Cybersicherheitsbedrohung zu werden. Allerdings wird ChatGPT für jeden Schutz, den es einsetzt, tendenziell etwas weniger wertvoll. Es ist ein Dilemma.

Beispielsweise könnten Schutzmaßnahmen gegen die Beschreibung von Gewalttaten die Fähigkeit von ChatGPT beeinträchtigen, einen Roman mit einem Tatort zu schreiben. Wenn OpenAI die Sicherheitsmaßnahmen verstärkt, opfert es dabei unweigerlich Teile seiner Fähigkeiten. Aus diesem Grund hat ChatGPT seit dem erneuten Vorstoß von OpenAI für eine strengere Moderation einen erheblichen Rückgang der Funktionalität erlitten.

Aber wie viel mehr von den Fähigkeiten von ChatGPT wird OpenAI bereit sein zu opfern, um den Chatbot sicherer zu machen? Dies alles knüpft nahtlos an eine lang gehegte Überzeugung innerhalb der KI-Community an – große Sprachmodelle wie ChatGPT sind notorisch schwer zu kontrollieren, selbst von ihren eigenen Entwicklern.

Kann OpenAI ChatGPT unter Kontrolle bringen?

Im Moment scheint OpenAI keine eindeutige Lösung zu haben, um die unethische Verwendung seines Tools zu vermeiden. Sicherzustellen, dass ChatGPT ethisch einwandfrei verwendet wird, ist ein Katz-und-Maus-Spiel. Während OpenAI Möglichkeiten aufdeckt, wie Menschen das System spielen, tun es seine Benutzer auch ständig das Herumbasteln und Sondieren des Systems, um kreative neue Wege zu finden, ChatGPT dazu zu bringen, das zu tun, was es nicht soll machen.

Wird OpenAI also eine zuverlässige langfristige Lösung für dieses Problem finden? Nur die Zeit kann es verraten.