OpenAI stellt verbesserte Modelle mit Funktionsaufruf und erschwinglichen Preisen vor – TechCult
Verschiedenes / / June 14, 2023
OpenAI, das führende Forschungslabor für künstliche Intelligenz, hat erhebliche Fortschritte bei seinen Sprachmodellen und seiner Preisstruktur erzielt. In einer aktuellen Ankündigung stellte OpenAI verbesserte Modelle mit Function Calling und erschwinglichen Preisen vor, die darauf abzielen, Entwicklern mehr Möglichkeiten zu geben und die Fähigkeiten ihrer Anwendungen zu verbessern.
Inhaltsverzeichnis
Funktionsaufruf: Verbesserung der Konnektivität und des Abrufs strukturierter Daten
Eines der wichtigsten Highlights ist die Einführung von Funktionen zum Aufrufen von Funktionen
Chat-Abschlüsse-API. Die Turbo-Modelle GPT-4 und GPT-3.5 von OpenAI wurden so optimiert, dass sie erkennen, wann Funktionen aufgerufen werden müssen, sodass Entwickler die Funktionen von GPT nahtlos mit externen Tools und APIs verbinden können.Zum Beispiel
Nehmen wir an, Sie haben eine Chatbot-Anwendung, die Informationen zu Filmen bereitstellt. Sie können Funktionsaufrufe verwenden, um den Chatbot mit einem externen Tool oder einer API zu verbinden, die Filmdetails basierend auf Benutzeranfragen abruft. So könnte das Gespräch aussehen:
Benutzer: Können Sie mir etwas über den neuesten Marvel-Film erzählen?
Chatbot: Sicher! Lassen Sie mich diese Informationen für Sie besorgen.
Im Hintergrund nutzt der Chatbot Funktionsaufrufe, um das externe Tool oder die API aufzurufen:
Funktionsaufruf: get_movie_details (movie_title: string)
Das externe Tool/die externe API verarbeitet den Funktionsaufruf und ruft die Details des neuesten Marvel-Films ab, z. B. Titel, Veröffentlichungsdatum, Besetzung und Handlung. Sobald die Informationen vorliegen, antwortet der Chatbot dem Benutzer:
Chatbot: Der neueste Marvel-Film ist „Spider-Man: No Way Home“. Es wurde am 17. Dezember 2021 veröffentlicht und zeigt Tom Holland, Zendaya und Benedict Cumberbatch in den Hauptrollen. Der Film folgt den Abenteuern von Spider-Man, während er durch mehrere Dimensionen navigiert.
Durch die Nutzung von Funktionsaufrufen lässt sich der Chatbot nahtlos in externe Tools oder APIs integrieren, sodass er strukturierte Daten abrufen und Benutzern genaue und aktuelle Informationen bereitstellen kann.
GPT-4: Aktualisiertes Modell mit Funktionsaufruf
OpenAI hat auch aktualisierte Versionen davon vorgestellt GPT-4 und GPT-3.5 Turbo-Modelle. GPT-4 verfügt über erweiterte Funktionen, einschließlich Funktionsaufrufen, sodass Entwickler die Funktionen des Modells effektiver nutzen können.
GPT-4-32k: Erweiterte Kontextlänge für besseres Verständnis
Darüber hinaus bietet GPT-4-32k eine erweiterte Kontextlänge, die ein besseres Verständnis größerer Texte ermöglicht, was es ideal für Anwendungen macht, die die Verarbeitung großer Informationsmengen erfordern.
GPT-3.5 Turbo-0613: Funktionsaufruf und verbesserte Steuerbarkeit
Die neueste Iteration, gpt-3.5-turbo-0613, enthält Funktionen zum Aufrufen von Funktionen und führt eine zuverlässigere Steuerbarkeit durch die Systemnachricht ein. Diese Verbesserungen ermöglichen es Entwicklern, die Reaktionen des Modells effektiver zu steuern, was zu genaueren und kontextbezogenen Interaktionen führt.
GPT-3.5 Turbo-16k: Erweiterte Kontextlänge für umfassende Textverarbeitung
Diese Variante unterstützt die vierfache Kontextlänge der Standardversion, sodass das Modell etwa 20 Textseiten in einer einzigen Anfrage verarbeiten kann. Obwohl gpt-3.5-turbo-16k erweiterte Funktionen bietet, ist der Preis doppelt so hoch wie die Standardversion. Dies bietet Entwicklern eine größere Flexibilität, ihre Anwendungen entsprechend spezifischer Anforderungen anzupassen.
75 % Kostenreduzierung bei Text-Embedding-Ada-002
Das beliebte text-embedding-ada-002 ist jetzt zu einem um 75 % reduzierten Preis von 0,0001 $ pro 1.000 Token erhältlich. Diese Kostenreduzierung ermöglicht es Entwicklern, hochwertige Einbettungen für eine Vielzahl von Aufgaben zur Verarbeitung natürlicher Sprache zu einem günstigeren Preis zu nutzen.
25 % Kostenreduzierung auf Eingabetoken für GPT-3.5 Turbo
Entwickler können jetzt von einer 25-prozentigen Kostenreduzierung auf Input-Tokens profitieren, wodurch der Preis auf 0,0015 $ pro 1.000 Input-Tokens und 0,002 $ pro 1.000 Output-Tokens gesenkt wird. Die Einführung von gpt-3.5-turbo-16k bietet eine erweiterte Kontextlänge zu etwas höheren Kosten von 0,003 $ pro 1.000 Eingabe-Tokens und 0,004 $ pro 1.000 Ausgabe-Tokens, was Entwicklern mehr Flexibilität bei der Arbeit mit größeren bietet Texte.
Durch die Vorstellung verbesserter Modelle mit Funktionsaufruf und erschwinglichen Preisen möchte OpenAI Entwickler in die Lage versetzen, noch anspruchsvollere und kostengünstigere Anwendungen zu erstellen. Das Feedback der Entwickler-Community bleibt für die Gestaltung der Zukunft der Plattform von entscheidender Bedeutung, und OpenAI freut sich darauf Wir freuen uns darauf, Zeuge der kreativen und innovativen Lösungen zu werden, die Entwickler mit diesen neuesten Modellen entwickeln werden Merkmale.
Quelle: OpenAI-Blog
Alex Craig
Alex wird von einer Leidenschaft für Technologie und Gaming-Inhalte angetrieben. Sei es, indem Sie die neuesten Videospiele spielen, sich über die neuesten technischen Nachrichten auf dem Laufenden halten oder sich engagieren Mit anderen Gleichgesinnten online ist Alex‘ Liebe zu Technologie und Spielen in allem, was er tut, offensichtlich tut.
Alex wird von einer Leidenschaft für Technologie und Gaming-Inhalte angetrieben. Sei es, indem Sie die neuesten Videospiele spielen, sich über die neuesten technischen Nachrichten auf dem Laufenden halten oder sich engagieren Mit anderen Gleichgesinnten online ist Alex‘ Liebe zu Technologie und Spielen in allem, was er tut, offensichtlich tut.