ChatGPT-Jailbreaks gewährten zusätzliche Funktionen, aber keine davon scheint mehr zu funktionieren. Warum das?

Als ChatGPT auf den Markt kam, wollten die Benutzer als Erstes die Mauern einreißen und an die eigenen Grenzen gehen. ChatGPT-Benutzer, bekannt als Jailbreaking, täuschten die KI dazu, die Grenzen ihrer Programmierung zu überschreiten, was zu unglaublich interessanten und manchmal völlig wilden Ergebnissen führte.

Seitdem hat OpenAI ChatGPT verschärft, um die Ausführung von Jailbreaks erheblich zu erschweren. Aber das ist nicht alles; ChatGPT-Jailbreaks scheinen im Allgemeinen ausgetrocknet zu sein, was ChatGPT-Benutzer dazu veranlasst, sich zu fragen, ob Jailbreaks überhaupt funktionieren.

Wo sind also all die ChatGPT-Jailbreaks geblieben?

1. Die ChatGPT-Eingabeaufforderungsfähigkeiten haben sich im Allgemeinen verbessert

Vor der Einführung von ChatGPT war die Konversation mit KI eine Nischenkompetenz, die nur denjenigen vorbehalten war, die in Forschungslabore eingeweiht waren. Den meisten frühen Benutzern mangelte es an Fachkenntnissen in der Erstellung effektiver Eingabeaufforderungen. Dies veranlasste viele Menschen dazu, Jailbreaks einzusetzen, eine praktische Möglichkeit, den Chatbot mit minimalem Aufwand und Einweisungskompetenz dazu zu bringen, das zu tun, was sie wollten.

instagram viewer

Heute hat sich die Landschaft weiterentwickelt. Das Anfordern von Kompetenzen wird zu einer Mainstream-Fähigkeit. Durch eine Kombination aus Erfahrungen aus wiederholter Nutzung und Zugriff auf frei verfügbare ChatGPT-Eingabeleitfäden haben ChatGPT-Benutzer ihre Eingabeaufforderungsfähigkeiten verfeinert. Anstatt nach Problemumgehungen wie Jailbreaks zu suchen, ist ein Großteil der ChatGPT-Benutzer geschickter darin geworden Sie nutzten unterschiedliche Aufforderungsstrategien, um Ziele zu erreichen, für deren Erreichung im Jahr Jailbreaks erforderlich gewesen wären Vergangenheit.

2. Der Aufstieg unzensierter Chatbots

Während große Technologieunternehmen die Inhaltsmoderation bei Mainstream-KI-Chatbots wie ChatGPT verschärfen, entscheiden sich kleinere, gewinnorientierte Startups für weniger Einschränkungen und setzen auf die Nachfrage nach zensurfreien KI-Chatbots. Mit ein wenig Recherche werden Sie Dutzende von KI-Chatbot-Plattformen finden, die unzensierte Chatbots anbieten, die fast alles können, was Sie von ihnen erwarten.

Ob es darum geht, Krimi-Thriller und Romane mit schwarzem Humor zu schreiben, die ChatGPT nicht schreiben will, oder darum, zu schreiben Diese unzensierten Chatbots mit einem verzerrten moralischen Kompass sind Malware, die die Computer von Menschen angreift, und tun alles Sie wollen. Wenn sie da sind, macht es keinen Sinn, zusätzliche Energie in das Schreiben von Jailbreaks für ChatGPT zu investieren. Obwohl sie nicht unbedingt so leistungsstark wie ChatGPT sind, können diese alternativen Plattformen bequem eine Vielzahl von Aufgaben erledigen. Plattformen wie FlowGPT und Unhinged AI sind einige beliebte Beispiele.

3. Jailbreaking ist schwieriger geworden

In den ersten Monaten von ChatGPT Das Jailbreaking von ChatGPT war so einfach wie das Kopieren und Einfügen von Eingabeaufforderungen aus Online-Quellen. Sie könnten die Persönlichkeit von ChatGPT mit nur ein paar Zeilen kniffliger Anweisungen völlig verändern. Mit einfachen Eingabeaufforderungen könnten Sie ChatGPT in einen bösen Bösewicht verwandeln, der Ihnen lehrt, wie man Bomben herstellt, oder in einen Chatbot, der bereit ist, alle Formen von Schimpfwörtern ohne Hemmungen zu verwenden. Es war ein Free-for-All, das berüchtigte Jailbreaks wie DAN (Do Anything Now) hervorbrachte. DAN beinhaltete eine Reihe scheinbar harmloser Anweisungen, die den Chatbot dazu zwangen, alles zu tun, was von ihm verlangt wurde, ohne sich zu weigern. Erstaunlicherweise funktionierten diese groben Tricks damals.

Doch diese wilden Anfänge sind Geschichte. Diese grundlegenden Aufforderungen und billigen Tricks täuschen ChatGPT nicht mehr. Jailbreaking erfordert jetzt komplexe Techniken, um die mittlerweile robusten Schutzmaßnahmen von OpenAI zu umgehen. Da das Jailbreak immer schwieriger wird, sind die meisten Benutzer zu entmutigt, es zu versuchen. Die einfachen und weit verbreiteten Exploits aus den Anfängen von ChatGPT sind verschwunden. Den Chatbot dazu zu bringen, ein falsches Wort zu sagen, erfordert jetzt erhebliche Anstrengungen und Fachkenntnisse, die sich möglicherweise nicht lohnen.

4. Die Neuheit hat nachgelassen

Eine treibende Kraft hinter den Versuchen vieler Benutzer, ChatGPT zu jailbreaken, war der Nervenkitzel und die Aufregung, die dies in den frühen Tagen mit sich brachte. Als neue Technologie war es unterhaltsam, ChatGPT dazu zu bringen, sich daneben zu benehmen, und man konnte damit prahlen. Obwohl es unzählige praktische Anwendungen für ChatGPT-Jailbreaks gibt, haben viele sie wegen des „Wow, schauen Sie, was ich getan habe“-Appeals verfolgt. Allmählich ließ jedoch die Aufregung über die Neuheit nach und damit auch das Interesse der Menschen, Zeit für Jailbreaks aufzuwenden.

5. Jailbreaks werden schnell gepatcht

In der ChatGPT-Jailbreaking-Community ist es üblich, jeden erfolgreichen Exploit zu teilen, sobald er entdeckt wird. Das Problem besteht darin, dass OpenAI häufig auf Exploits aufmerksam wird, die weit verbreitet sind, und die Schwachstellen behebt. Das bedeutet, dass die Jailbreaks nicht mehr funktionieren, bevor Interessenten sie überhaupt ausprobieren können.

Jedes Mal, wenn ein ChatGPT-Benutzer mühsam einen neuen Jailbreak entwickelt, beschleunigt die Weitergabe an die Community dessen Untergang durch Patchen. Dies schwächt die Idee, an die Öffentlichkeit zu gehen, wenn ein Benutzer auf einen Jailbreak stößt. Der Konflikt zwischen dem Aktivhalten und Verbergen von Jailbreaks und deren Veröffentlichung stellt die Ersteller von ChatGPT-Jailbreaks vor ein Dilemma. Heutzutage entscheiden sich die Leute meistens dafür, ihre Jailbreaks geheim zu halten, um zu verhindern, dass die Lücken geschlossen werden.

6. Unzensierte lokale Alternativen

Der Aufstieg lokaler großer Sprachmodelle, die Sie lokal auf Ihrem Computer ausführen können, hat auch das Interesse an ChatGPT-Jailbreaks gedämpft. Während lokale LLMs nicht völlig zensurfrei sind, unterliegen viele deutlich weniger Zensur und können leicht an die Wünsche der Benutzer angepasst werden. Die Auswahl ist also einfach. Sie können sich auf das endlose Katz-und-Maus-Spiel einlassen und versuchen, einen Weg zu finden, den Chatbot auszutricksen, nur um das Problem in Kürze zu beheben. Oder, Sie können sich mit einem lokalen LLM zufrieden geben Sie können es dauerhaft ändern, um alles zu tun, was Sie wollen.

Sie werden eine überraschend lange Liste leistungsstarker, unzensierter LLMs vorfinden, die Sie mit laxer Zensur auf Ihrem Computer einsetzen können. Einige bemerkenswerte Exemplare sind Llama 7B (unzensiert), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B und GPT-4-X-Alpaca.

7. Professionelle Jailbreaker jetzt gewinnbringend im Verkauf

Warum sollten Sie wertvolle Zeit in die Entwicklung von Jailbreak-Eingabeaufforderungen investieren, wenn Sie damit nichts erreichen? Nun, einige Profis verkaufen Jailbreaks mittlerweile mit Gewinn. Diese professionellen Jailbreak-Ersteller entwerfen Jailbreaks, die bestimmte Aufgaben ausführen, und bieten sie auf Prompt-Marktplätzen wie PromptBase zum Verkauf an. Abhängig von ihren Fähigkeiten können diese Jailbreak-Eingabeaufforderungen für zwischen 2 und 15 US-Dollar pro Eingabeaufforderung verkauft werden. Einige komplizierte mehrstufige Exploits können deutlich mehr kosten.

Könnte das Vorgehen gegen Jailbreaks nach hinten losgehen?

Jailbreaks sind noch nicht ganz von der Bildfläche verschwunden; Sie sind einfach untergetaucht. Da OpenAI ChatGPT monetarisiert, haben sie stärkere Anreize, schädliche Nutzungen einzuschränken, die sich auf ihr Geschäftsmodell auswirken könnten. Dieser kommerzielle Faktor beeinflusst wahrscheinlich ihren aggressiven Vorstoß, gegen Jailbreaking-Exploits vorzugehen.

Allerdings stößt die Zensur von ChatGPT durch OpenAI derzeit auf zunehmende Kritik bei Nutzern. Einige legitime Anwendungsfälle des KI-Chatbots sind aufgrund strenger Zensur nicht mehr möglich. Während erhöhte Sicherheit vor schädlichen Anwendungsfällen schützt, könnten übermäßige Einschränkungen letztendlich einen Teil der ChatGPT-Community in die Arme weniger zensierter Alternativen drängen.