Entdecken Sie die Leistungsfähigkeit der API von OpenAI und all die Möglichkeiten, die sie bietet.

Die generative Kraft von ChatGPT hat seit seiner Einführung in der Tech-Welt für Furore gesorgt. Um die Intuition der KI zu teilen, veröffentlichte OpenAI am 1. März 2023 die ChatGPT- und Whisper-APIs, die Entwickler in der App erkunden und nutzen können.

Die APIs von OpenAI verfügen über viele wertvolle Endpunkte, die die KI-Integration einfach machen. Lassen Sie uns die Leistungsfähigkeit von OpenAI-APIs untersuchen, um zu sehen, wie Sie davon profitieren können.

Was kann die OpenAI-API?

Der OpenAI-API enthält eine Reihe von Dienstprogrammen für Programmierer. Wenn Sie beabsichtigen, täglich In-App-KI bereitzustellen, wird OpenAI Ihnen das Leben mit den folgenden Fähigkeiten erleichtern.

Plaudern

Der Chat-Vervollständigungsendpunkt der OpenAI-API hilft dem Endbenutzer, eine natürliche, benutzerfreundliche interaktive Sitzung mit einem virtuellen Assistenten zu starten, der das GPT-3.5-Turbo-Modell verwendet.

instagram viewer

Backstage verwendet der API-Aufruf ein Nachrichten-Array mit Rollen und Inhalten. Auf der Benutzerseite ist Inhalt eine Reihe von Anweisungen für den virtuellen Assistenten, die den Benutzer einbeziehen, während Inhalt für das Modell seine Antwort ist.

Die oberste Rolle ist das System, in dem Sie die Gesamtfunktion des virtuellen Assistenten definieren. Wenn der Programmierer dem System beispielsweise sagt: „Sie sind ein hilfreicher virtueller Assistent“, erwarten Sie, dass es im Rahmen seiner Lernfähigkeit auf verschiedene Fragen antwortet.

Nachdem wir ihm gesagt hatten, er sei „ein hilfreicher virtueller Assistent“, verlief einer unserer Kommandozeilen-Chats mit dem GPT-3.5-turbo-Modell wie folgt:

Sie können die Leistung des Modells sogar verbessern, indem Sie Parameter wie Temperatur, Präsenzstrafe, Frequenzstrafe und mehr angeben. Wenn Sie jemals ChatGPT verwendet haben, wissen Sie bereits, wie das Chat-Vervollständigungsmodell von OpenAI funktioniert.

Textvervollständigung

Die Textvervollständigungs-API bietet Konversations-, Texteinfügungs- und Textvervollständigungsfunktionen basierend auf fortschrittlichen GPT-3.5-Modellen.

Das Championmodell im Textvervollständigungsendpunkt ist text-davinci-003, das erheblich intuitiver ist als GPT-3-Modelle für natürliche Sprache. Der Endpunkt akzeptiert eine Benutzeraufforderung, sodass das Modell auf natürliche Weise reagieren und einfache bis komplexe Sätze mit menschenfreundlichem Text vervollständigen kann.

Obwohl der Textvervollständigungs-Endpunkt nicht so intuitiv ist wie der Chat-Endpunkt, wird er besser – wenn Sie die Text-Token erhöhen, die dem Modell „text-davinci-003“ bereitgestellt werden.

Zum Beispiel haben wir einige unausgegorene Fertigstellungen erhalten, als wir das Modell auf max_tokens von sieben platziert haben:

Die Erhöhung von max_tokens auf 70 führte jedoch zu kohärenteren Gedanken:

Sprache-zu-Text

Sie können Audiosprache mithilfe der Transkriptions- und Übersetzungsendpunkte von OpenAI transkribieren und übersetzen. Die Sprache-zu-Text-Endpunkte basieren auf dem Whisper v2-Large-Modell, das durch groß angelegte schwache Überwachung entwickelt wurde.

OpenAI sagt jedoch, dass es keinen Unterschied zwischen seinem Whisper-Modell und dem in Open Source gibt. Es bietet also endlose Möglichkeiten, eine mehrsprachige Transkriptions- und Übersetzer-KI in großem Maßstab in Ihre App zu integrieren.

Die Endpunktnutzung ist einfach. Alles, was Sie tun müssen, ist, das Modell mit einer Audiodatei zu versorgen und die aufzurufen openai. Audio.übersetzen oder openai. Audio.transcribe endpoint, um es zu übersetzen bzw. zu transkribieren. Diese Endpunkte akzeptieren eine maximale Dateigröße von 25 MB und unterstützen die meisten Audiodateitypen, einschließlich mp3, mp4, MPEG, MPGA, m4a, wav und webm.

Textvergleich

Der Textvergleichsendpunkt der OpenAI-API misst die Beziehung zwischen Texten mithilfe des Text-embedding-ada-002-Modells, einem Einbettungsmodell der zweiten Generation. Die Einbettungs-API verwendet dieses Modell, um die Beziehung zwischen Texten basierend auf dem Abstand zwischen zwei Vektorpunkten auszuwerten. Je größer der Unterschied, desto weniger verwandt sind die verglichenen Texte.

Der Einbettungsendpunkt bietet Text-Clustering, Unterschiede, Relevanz, Empfehlungen, Stimmungen und Klassifizierung. Außerdem werden Gebühren pro Token-Volumen erhoben.

Obwohl die OpenAI-Dokumentation besagt, dass Sie die anderen Einbettungsmodelle der ersten Generation verwenden können, ist ersteres besser und günstiger. OpenAI warnt jedoch davor, dass das Einbettungsmodell soziale Vorurteile gegenüber bestimmten Personen aufweisen könnte, wie in Tests nachgewiesen wurde.

Code-Vervollständigung

Der Codevervollständigungsendpunkt basiert auf dem OpenAI Codex, einer Reihe von Modellen, die mit natürlicher Sprache und Milliarden von Codezeilen aus öffentlichen Repositories trainiert wurden.

Der Endpunkt befindet sich in einer begrenzten Betaversion und ist zum Zeitpunkt des Schreibens kostenlos und bietet Unterstützung für viele moderne Programmiersprachen, darunter JavaScript, Python, Go, PHP, Ruby, Shell, TypeScript, Swift, Perl und SQL.

Mit dem Code-davinci-002- oder Code-cushman-001-Modell kann der Codevervollständigungsendpunkt automatisch Codezeilen einfügen oder Codeblöcke über die Eingabeaufforderung eines Benutzers hochfahren. Während das letztere Modell schneller ist, ist ersteres das Kraftpaket des Endpunkts, da es Code-Einfügungen für die automatische Code-Vervollständigung bietet.

Sie können beispielsweise einen Codeblock generieren, indem Sie im Kommentar der Zielsprache eine Eingabeaufforderung an den Endpunkt senden.

Hier sind einige Antworten, die wir erhalten haben, als wir versucht haben, einige Codeblöcke in Python und JavaScript über das Terminal zu generieren:

Bilderzeugung

Dies ist eine der intuitivsten Funktionen der OpenAI-API. Basierend auf dem DALL.E-Bildmodell bietet die Bildfunktionalität der OpenAI-API Endpunkte zum Generieren, Bearbeiten und Erstellen von Bildvariationen aus Eingabeaufforderungen in natürlicher Sprache.

Obwohl es noch keine erweiterten Funktionen wie Upscaling hat, da es sich noch in der Beta-Phase befindet, sind seine unskalierten Ausgaben beeindruckender als die von Generative Kunstmodelle wie Midjourney und stabile Diffusion.

Beim Erreichen des Endpunkts der Bilderzeugung müssen Sie nur eine Eingabeaufforderung, die Bildgröße und die Bildanzahl angeben. Der Bildbearbeitungsendpunkt erfordert jedoch, dass Sie das Bild, das Sie bearbeiten möchten, und eine RGBA-Maske, die den Bearbeitungspunkt markiert, zusätzlich zu den anderen Parametern einfügen.

Der Variationsendpunkt hingegen erfordert nur das Zielbild, die Anzahl der Variationen und die Ausgabegröße. Zum Zeitpunkt des Verfassens dieses Artikels können die Beta-Bildendpunkte von OpenAI nur quadratische Frames im Bereich von 256 x 256, 512 x 512 und 1024 x 1024 Pixeln akzeptieren.

Wir haben mit diesem Endpunkt eine einfache Bildgenerierungsanwendung erstellt, und obwohl einige Details fehlten, lieferte sie ein unglaubliches Ergebnis:

So verwenden Sie die OpenAI-API

Die OpenAI-API-Nutzung ist einfach und folgt dem herkömmlichen API-Nutzungsmuster.

  1. Installiere das openai Paket mit Pip: pip installiere openai.Wenn Sie stattdessen Node verwenden, können Sie dies mit npm tun: npm installiere openai.
  2. Schnappen Sie sich Ihre API-Schlüssel: Melden Sie sich bei Ihrem OpenAI-Dashboard an und klicken Sie oben rechts auf Ihr Profilsymbol. Gehe zu API-Schlüssel anzeigen und klicken Erstellen Sie einen neuen geheimen Schlüssel um Ihren API-Geheimschlüssel zu generieren.
  3. Führen Sie API-Aufrufe an Ihre ausgewählten Modellendpunkte über eine serverseitige Sprache wie Python oder JavaScript (Node) durch. Geben Sie diese an Ihre benutzerdefinierten APIs weiter und testen Sie Ihre Endpunkte.
  4. Dann benutzerdefinierte APIs über JavaScript abrufen Frameworks wie React, Vue oder Angular.
  5. Präsentieren Sie Daten (Benutzeranfragen und Modellantworten) in einer visuell ansprechenden Benutzeroberfläche, und Ihre App ist bereit für den Einsatz in der realen Welt.

Was können Sie mit der OpenAI-API erstellen?

Die OpenAI-APIs schaffen Einstiegspunkte für die reale Nutzung von maschinellem Lernen und Verstärkungslernen. Es gibt viele Möglichkeiten für Kreativität, aber hier sind einige der Dinge, die Sie mit den OpenAI-APIs erstellen können:

  1. Integrieren Sie einen intuitiven virtuellen Assistenten-Chatbot in Ihre Website oder Anwendung, indem Sie den Chat-Vervollständigungs-Endpunkt verwenden.
  2. Erstellen Sie eine Bildbearbeitungs- und -manipulations-App, die mithilfe der Bildgenerierungsendpunkte an jedem angegebenen Punkt auf natürliche Weise ein Objekt in ein Bild einfügen kann.
  3. Erstellen Sie ein benutzerdefiniertes Modell für maschinelles Lernen von Grund auf mit dem Modellfeinabstimmungs-Endpunkt von OpenAI.
  4. Korrigieren Sie Untertitel und Übersetzungen für Videos, Audio und Live-Gespräche mithilfe des Speech-to-Text-Modellendpunkts.
  5. Identifizieren Sie negative Stimmungen in Ihrer App mithilfe des Endpunkts des OpenAI-Einbettungsmodells.
  6. Erstellen Sie programmiersprachenspezifische Codevervollständigungs-Plugins für Code-Editoren und integrierte Entwicklungsumgebungen (IDEs).

Erstellen Sie endlos mit den OpenAI-APIs

Unsere tägliche Kommunikation beinhaltet oft den Austausch von schriftlichen Inhalten. Die OpenAI-API erweitert nur ihre kreativen Tendenzen und ihr Potenzial mit scheinbar unbegrenzten Anwendungsfällen für natürliche Sprache.

Es ist noch früh für die OpenAI-API. Erwarten Sie jedoch, dass es sich im Laufe der Zeit mit mehr Funktionen weiterentwickelt.