Nach der Einführung von ChatGPT im November 2022 hat sich der phänomenale KI-Chatbot zu einem der vertrauenswürdigsten Schreibtools im Internet entwickelt. Es ist einfach zu bedienen; Beschreiben Sie, was Sie schreiben müssen, und ChatGPT druckt es in Sekundenschnelle auf dem Bildschirm aus.

Doch in einer Zeit, in der KI-generierte Texte als von Menschen geschrieben gelten und dazu verwendet werden, sich einen unfairen Vorteil zu verschaffen, ist die Identifizierung von KI-Inhalten sehr wichtig. Aber ChatGPT kann KI-Inhalte nicht genau erkennen, nicht einmal seine eigene Arbeit – aber warum?

Gibt es einen Unterschied zwischen KI-Text und menschlichem Schreiben?

Eine Voraussetzung dafür, dass ChatGPT seine eigene Schrift oder einen KI-generierten Text erkennen kann, ist, dass zwischen ihm und von Menschen geschriebenem Text ein Unterschied besteht. Gibt es also einen signifikanten Unterschied zwischen von Menschen geschriebenen Texten und KI-generierten Inhalten? Wenn ja, sollte ein Tool wie ChatGPT dies sicherlich erkennen können.

instagram viewer

Wir haben eine Kurzgeschichte ohne Eingabe eines KI-Tools geschrieben und dann ChatGPT gefragt, ob es sich bei der Geschichte um KI-geschriebenen Inhalt handelt. ChatGPT hat es selbstbewusst als KI-generierten Text gekennzeichnet.

Anschließend haben wir ChatGPT gebeten, eine Story zu generieren, und im selben Chat-Thread haben wir den generierten Text kopiert und eingefügt und ChatGPT gefragt, ob der Text von der KI erstellt wurde. ChatGPTs Antwort? Ein selbstbewusstes „Nein.“

In beiden Fällen gelang es ChatGPT nicht, von Menschen geschriebenen oder KI-generierten Text zu identifizieren. Wie kommt es also, dass ChatGPT seinen eigenen Text nicht erkennen kann? Bedeutet das, dass es keinen Unterschied zwischen KI und menschlichem Text gibt?

Nun ja, das gibt es. Wir könnten ein ganzes Buch über den Unterschied zwischen den beiden schreiben, aber das wird keine große Rolle spielen. Wenn es also einen Unterschied gibt, warum ist ChatGPT oder ein anderes KI-Tool dann nicht in der Lage, diese Unterschiede zu erkennen und KI-generierten Text genau von einem von Menschen geschriebenen Text zu unterscheiden? Die Antwort liegt darin wie ChatGPT funktioniert und wie es Text generiert.

Wie ChatGPT Text generiert

Wenn Sie ChatGPT bitten, Text zu generieren, versucht es, den menschlichen Schreibprozess nachzuahmen. Erstens wurde das Modell hinter ChatGPT – Generative Pre-trained Transformer (GPT) – an einem großen Korpus menschlichen Textes trainiert. Alles, von E-Mails, Gesundheitsartikeln, technischen Artikeln, Schulaufsätzen bis hin zu nahezu jedem Text, den Sie online finden können, wurde während des Trainings in das Modell eingespeist. ChatGPT versteht also, wie jede dieser Textarten geschrieben werden sollte.

Wenn Sie ChatGPT bitten, eine E-Mail an Ihren Chef zu schreiben, weiß das Unternehmen, wie eine E-Mail dieser Art aussehen sollte, da es anhand ähnlicher E-Mails trainiert wurde – wahrscheinlich Tausenden davon. Wenn Sie es bitten, einen High-School-Aufsatz zu schreiben, weiß es auch, wie ein High-School-Aufsatz klingen sollte. ChatGPT wird versuchen, alles, was Sie möchten, so zu schreiben, wie es ein Mensch tun würde.

Aber da ist ein Fang. Im Gegensatz dazu, wie Menschen schreiben, versteht ChatGPT nicht wirklich, was es schreibt, so wie ein Mensch es tun würde. Stattdessen versucht der Chatbot vorherzusagen, welches das plausibelste nächste Wort in einem Satz wäre, bis er mit dem Schreiben fertig ist.

Wie ChatGPT durch Vorhersage schreibt

Nehmen wir an, Sie bitten ChatGPT, eine Geschichte über eine fiktive Stadt namens Volkra zu schreiben. Es besteht eine große Wahrscheinlichkeit, dass der Chatbot die Geschichte mit den Worten „Es war einmal“ beginnt. Das liegt daran, dass der Chatbot nicht nachdenkt selbst, sondern versucht vorherzusagen, was ein Mensch schreiben würde, basierend auf dem, was er aus den Tausenden von Geschichten gelernt hat, mit denen er gefüttert wurde Ausbildung.

Wenn man also davon ausgeht, dass ein Mensch die Geschichte wahrscheinlich mit den Worten „Es war einmal“ beginnen würde, würde ChatGPT dann versuchen, das nächste logische Wort vorherzusagen, was der Fall wäre sei „a“, gefolgt von „time“. Sie hätten dann also „Es war einmal...“, gefolgt vom nächsten logischen Wort und dem nächsten, bis die Geschichte fertig ist. ChatGPT schreibt grundsätzlich, indem es vorhersagt, welches Wort natürlicherweise (oder zumindest mit der höchsten Wahrscheinlichkeit) als nächstes in einem Satz auftauchen würde, und es einfügt.

Wenn also ein KI-Tool zu erkennen versucht, ob ein Text KI-generiert ist, ist eines der Kriterien, die es abzuwägen versucht, die Vorhersagbarkeit des Textes, da KI-Tools auf der Grundlage von Vorhersagen schreiben. Dieses Maß der Vorhersagbarkeit wird im KI-Sprachgebrauch als Perplexität bezeichnet. Wenn nun ein Text vorgelegt wird, versucht ein KI-Tool wie ChatGPT neben anderen Kriterien, den Text zu analysieren, um zu messen, wie vorhersehbar die Reihenfolge der Wörter oder Sätze im Text ist. Eine größere Vorhersehbarkeit oder eine geringere Ratlosigkeit bedeutet normalerweise, dass der Text wahrscheinlich von der KI generiert wurde. Eine geringere Vorhersehbarkeit oder eine höhere Ratlosigkeit bedeutet typischerweise, dass der Text wahrscheinlich von Menschen geschrieben wurde.

Diese Kriterien reichen zusammen mit anderen Faktoren wie dem Grad der Kreativität eines Textes leider nicht aus, um sicher zu sagen, ob ein Text von einem KI-Tool geschrieben wurde oder nicht. Dies liegt daran, dass Menschen mit größerer Varianz schreiben können, wie in dem Beispieltext, den wir zu Beginn dieses Artikels zur Demonstration verwendet haben.

KI-Chatbots wie ChatGPT sind so konzipiert, dass sie die natürliche menschliche Sprache so weit wie möglich nachahmen. Auch wenn KI-Texte erkennbare Muster aufweisen können, sind diese Muster selbst für ein leistungsstarkes Tool wie ChatGPT nicht so offensichtlich. Aus diesem Grund kann ChatGPT seine eigene Schrift nicht erkennen Warum KI-Texterkennungstools nicht funktionieren.

Wird ChatGPT in Zukunft seine eigene Schrift anerkennen?

Derzeit können Tools wie ChatGPT nicht erkennen, ob ein Text von ihnen selbst oder einem anderen KI-Tool geschrieben wurde, da es in KI-generierten Inhalten kein klares, erkennbares Muster gibt. Es besteht jedoch eine gute Chance, dass sich dies bald ändern könnte. Durch die Bemühungen von Unternehmen wie ChatGPT, digitale Wasserzeichen in von ChatGPT generierte Inhalte einzuführen, wird der vom Chatbot generierte Text ein besser erkennbares Muster aufweisen.