GPT-4 ist da, und das sind die neuen Funktionen, die Sie ausprobieren sollten.

OpenAI hat endlich sein mit Spannung erwartetes GPT-Update GPT-4 veröffentlicht. Das Large Language Model (LLM) verfügt über einige leistungsstarke neue Funktionen und Fähigkeiten, die Benutzer weltweit bereits schockiert haben.

GPT-4 ist nicht nur deutlich besser als GPT-3.5, sondern auch das vorhandene LLM, das den viralen Chatbot ChatGPT von OpenAI antreibt versteht komplexere Eingaben, hat ein viel größeres Zeicheneingabelimit, hat multimodale Fähigkeiten und ist Berichten zufolge sicherer zu handhaben verwenden.

1. GPT-4 kann komplexere Eingaben verstehen

Eine der größten neuen Funktionen von GPT-4 ist die Fähigkeit, komplexere und nuanciertere Eingabeaufforderungen zu verstehen. Entsprechend OpenAI, GPT-4 „zeigt Leistung auf menschlicher Ebene bei verschiedenen professionellen und akademischen Benchmarks.“

Dies wurde demonstriert, indem GPT-4 ohne spezielles Training mehreren Prüfungen auf menschlicher Ebene und standardisierten Tests wie SAT, BAR und GRE unterzogen wurde. GTP-4 hat diese Tests nicht nur verstanden und mit einer relativ hohen Punktzahl auf der ganzen Linie gelöst, sondern auch seinen Vorgänger GPT-3.5 jedes Mal geschlagen.

instagram viewer

Bildnachweis: OpenAI

Die Fähigkeit, differenziertere Eingabeaufforderungen zu verstehen, wird auch durch die Tatsache unterstützt, dass GPT-4 eine viel größere Wortbeschränkung hat. Das neue Modell kann Eingabeaufforderungen von bis zu 25.000 Wörtern verarbeiten (für den Kontext war GPT-3.5 auf 8.000 Wörter begrenzt). Dies wirkt sich direkt auf die Details aus, die Benutzer in ihre Eingabeaufforderungen quetschen können, wodurch das Modell viel mehr Informationen erhält, mit denen es arbeiten kann, und längere Ausgaben erzeugt.

GPT-4 unterstützt außerdem über 26 Sprachen, einschließlich ressourcenarmer Sprachen wie Lettisch, Walisisch und Suaheli. Beim Benchmarking der Drei-Schuss-Genauigkeit im MMLU-Benchmark schlug GPT-4 GPT-3.5 sowie andere führende LLMs wie PaLM und Chinchilla in Bezug auf die Leistung in englischer Sprache in 24 Sprachen.

2. Multimodale Fähigkeiten

Die Vorgängerversion von ChatGPT war auf nur Textaufforderungen beschränkt. Im Gegensatz dazu ist eines der neuesten Features von GPT-4 seine multimodalen Fähigkeiten. Das Modell kann sowohl Text- als auch Bildaufforderungen akzeptieren.

Das bedeutet, dass die KI ein Bild als Eingabe akzeptieren und es wie eine Textaufforderung interpretieren und verstehen kann. Diese Funktion umfasst alle Größen und Arten von Bildern und Text, einschließlich Dokumenten, die die beiden kombinieren, handgezeichneten Skizzen und sogar Screenshots.

Die Bildlesefähigkeiten von GPT-4 gehen jedoch über das bloße Interpretieren von Bildern hinaus. OpenAI zeigte dies in seinem Entwickler-Stream (oben), wo sie GPT-4 ein handgezeichnetes Mockup einer Witz-Website zur Verfügung stellten. Das Modell wurde beauftragt, HTML- und JavaScript-Code zu schreiben, um das Modell in eine Website zu verwandeln und die Witze durch echte zu ersetzen.

GPT-4 hat den Code unter Verwendung des im Mockup angegebenen Layouts geschrieben. Beim Testen erzeugte der Code eine funktionierende Seite mit, wie Sie sich vorstellen können, echten Witzen. Bedeutet das KI-Fortschritte bedeuten das Ende der Programmierung? Nicht ganz, aber es ist immer noch eine Funktion, die sich als nützlich erweisen wird, wenn es darum geht, Programmierern zu helfen.

So vielversprechend diese Funktion auch erscheinen mag, sie befindet sich noch in der Forschungsvorschau und ist nicht öffentlich verfügbar. Darüber hinaus benötigt das Modell viel Zeit, um visuelle Eingaben zu verarbeiten, wobei OpenAI selbst angibt, dass es Arbeit und Zeit kosten könnte, schneller zu werden.

3. Bessere Lenkbarkeit

OpenAI behauptet auch, dass GPT-4 ein hohes Maß an Steuerbarkeit hat. Es hat es der KI auch schwerer gemacht, den Charakter zu brechen, was bedeutet, dass es weniger wahrscheinlich ist, dass sie fehlschlägt, wenn sie in einer App implementiert wird, um einen bestimmten Charakter zu spielen.

Entwickler können den Stil und die Aufgabe ihrer KI vorschreiben, indem sie die Richtung in der „System“-Nachricht beschreiben. Diese Nachrichten ermöglichen es API-Benutzern, die Benutzererfahrung innerhalb bestimmter Grenzen stark anzupassen. Da diese Nachrichten auch der einfachste Weg sind, das Modell zu "jailbreaken", arbeiten sie auch daran, sie sicherer zu machen. Die Demo für GPT-4 brachte diesen Punkt auf den Punkt, indem sie einen Benutzer dazu brachte, zu versuchen, GPT-4 daran zu hindern, ein sokratischer Tutor zu sein, und seine Frage zu beantworten. Das Modell weigerte sich jedoch, den Charakter zu brechen.

4. Sicherheit

OpenAI hat sechs Monate damit verbracht, GPT-4 zu entwickeln sicherer und ausgerichteter. Das Unternehmen gibt an, dass es mit 82 % geringerer Wahrscheinlichkeit auf Anfragen nach unangemessenen oder anderweitig unzulässigen Inhalten antwortet, mit 29 % höherer Wahrscheinlichkeit Antworten Sie in Übereinstimmung mit den Richtlinien von OpenAI auf vertrauliche Anfragen und geben Sie mit einer um 40 % höheren Wahrscheinlichkeit sachliche Antworten im Vergleich zu GPT-3.5.

Es ist nicht perfekt, und Sie können immer noch erwarten, dass es von Zeit zu Zeit "halluziniert" und sich in seinen Vorhersagen irren kann. Sicher, GPT-4 hat eine bessere Wahrnehmung und Vorhersagekraft, aber Sie sollten der KI trotzdem nicht blind vertrauen.

5. Leistungsverbesserungen

Neben der Bewertung der Leistung des Modells bei menschlichen Prüfungen bewertete OpenAI den Bot auch anhand herkömmlicher Benchmarks, die für maschinelle Lernmodelle entwickelt wurden.

Es behauptet, dass GPT-4 bestehende LLMs und „die meisten hochmodernen Modelle“ „erheblich übertrifft“. Zu diesen Benchmarks gehören die die zuvor erwähnten MMLU, AI2 Reasoning Challenge (ARC), WinoGrande, HumanEval und Drop, die alle individuelle Fähigkeiten testen.

Sie werden ähnliche Ergebnisse finden, wenn Sie die Leistung bei akademischen Benchmarks für das Sehvermögen vergleichen. Zu den durchgeführten Tests gehören VQAv2, TextVQA, ChartQA, AI2 Diagram (AI2D), DocVQA, Infographic VQA, TVQA und LSMDC, die alle GPT-4-Spitzen sind. OpenAI hat jedoch erklärt, dass die Ergebnisse von GPT-4 in diesen Tests „das Ausmaß seiner Fähigkeiten nicht vollständig darstellen“, da Forscher immer wieder neue und herausforderndere Dinge finden, die das Modell bewältigen kann.

Kleiner Schritt für GPT-4, Riesensprung für KI

Mit mehr Genauigkeit, Anwendungssicherheit und erweiterten Funktionen wurde GPT-4 über das monatliche ChatGPT+-Abonnement für 20 pro Monat für die Öffentlichkeit freigegeben. Darüber hinaus hat sich OpenAI mit verschiedenen Organisationen zusammengetan, um mit der Entwicklung von verbraucherorientierten Produkten mit GPT-4 zu beginnen. Unter anderem haben Microsoft Bing, Duolingo, Stripe, Be My Eyes und die Khan Academy GPT-4 bereits in ihren Produkten implementiert.

GPT-4 mag ein inkrementelles Update gegenüber GPT-3.5 sein, aber insgesamt ist es ein großer Gewinn für die KI. Da das Modell sowohl für den durchschnittlichen Benutzer als auch für Entwickler über seine API zugänglicher wird, scheint es ein gutes Argument für LLM-Implementierungen in allen Bereichen zu sein.