OpenAI przedstawia ulepszone modele z wywoływaniem funkcji i przystępną ceną – TechCult
Różne / / June 14, 2023
OpenAI, wiodące laboratorium badawcze sztucznej inteligencji, poczyniło znaczne postępy w swoich modelach językowych i strukturze cenowej. W niedawnym ogłoszeniu firma OpenAI zaprezentowała ulepszone modele z wywoływaniem funkcji i przystępną ceną, mające na celu wzmocnienie pozycji programistów i zwiększenie możliwości ich aplikacji.
Spis treści
Wywoływanie funkcji: poprawa łączności i wyszukiwanie danych strukturalnych
Jedną z głównych atrakcji jest wprowadzenie możliwości wywoływania funkcji w Interfejs API uzupełnień czatu. Modele GPT-4 i GPT-3.5 Turbo OpenAI zostały precyzyjnie dostrojone, aby wykrywać, kiedy należy wywołać funkcje, umożliwiając programistom bezproblemowe łączenie możliwości GPT z zewnętrznymi narzędziami i interfejsami API.
Na przykład
Załóżmy, że masz aplikację typu chatbot, która dostarcza informacji o filmach. Możesz użyć wywołania funkcji, aby połączyć chatbota z zewnętrznym narzędziem lub API, które pobiera szczegóły filmu na podstawie zapytań użytkowników. Oto jak może wyglądać rozmowa:
Użytkownik: Czy możesz mi opowiedzieć o najnowszym filmie Marvela?
Chatbot: Jasne! Pozwól, że przyniosę ci te informacje.
W tle chatbot wykorzystuje wywoływanie funkcji w celu wywołania zewnętrznego narzędzia lub API:
Wywołanie funkcji: get_movie_details (tytuł_filmu: string)
Zewnętrzne narzędzie/API przetwarza wywołanie funkcji i pobiera szczegóły najnowszego filmu Marvela, takie jak tytuł, data premiery, obsada i fabuła. Po uzyskaniu informacji chatbot odpowiada użytkownikowi:
Chatbot: Najnowszy film Marvela to „Spider-Man: No Way Home”. Został wydany 17 grudnia 2021 roku i zawiera Toma Hollanda, Zendayę i Benedicta Cumberbatcha w rolach głównych. Film opowiada o przygodach Spider-Mana, który porusza się po wielu wymiarach.
Wykorzystując wywoływanie funkcji, chatbot bezproblemowo integruje się z zewnętrznymi narzędziami lub interfejsami API, umożliwiając mu pobieranie danych strukturalnych i dostarczanie użytkownikom dokładnych i aktualnych informacji.
GPT-4: Ulepszony model z wywoływaniem funkcji
OpenAI zaprezentowała również zaktualizowane wersje swoich GPT-4 i modele GPT-3.5 Turbo. GPT-4 ma ulepszoną funkcjonalność, w tym wywoływanie funkcji, umożliwiając programistom efektywniejsze wykorzystanie możliwości modelu.
GPT-4-32k: Rozszerzona długość kontekstu dla lepszego zrozumienia
Dodatkowo GPT-4-32k oferuje rozszerzoną długość kontekstu, umożliwiając lepsze zrozumienie większych tekstów, dzięki czemu idealnie nadaje się do zastosowań wymagających przetwarzania znacznych ilości informacji.
GPT-3.5 Turbo-0613: Wywoływanie funkcji i ulepszona sterowność
Najnowsza iteracja, gpt-3.5-turbo-0613, zawiera funkcje wywoływania funkcji i wprowadza bardziej niezawodne sterowanie za pomocą komunikatu systemowego. Te ulepszenia umożliwiają programistom skuteczniejsze kierowanie reakcjami modelu, co skutkuje dokładniejszymi i świadomymi kontekstu interakcjami.
GPT-3.5 Turbo-16k: Rozszerzona długość kontekstu do wszechstronnego przetwarzania tekstu
Ten wariant obsługuje czterokrotnie większą długość kontekstu niż wersja standardowa, umożliwiając modelowi obsłużenie około 20 stron tekstu w jednym żądaniu. Chociaż gpt-3.5-turbo-16k oferuje rozszerzone możliwości, jest dwukrotnie droższy od wersji standardowej, zapewniając programistom większą elastyczność w dostosowywaniu ich aplikacji do określonych wymagań.
Redukcja kosztów o 75% na osadzanie tekstu-Ada-002
Popularna aplikacja do osadzania tekstu-ada-002 jest teraz dostępna w obniżonej o 75% cenie 0,0001 USD za 1000 tokenów. Ta redukcja kosztów umożliwia programistom wykorzystanie wysokiej jakości osadzania do szerokiego zakresu zadań związanych z przetwarzaniem języka naturalnego po bardziej przystępnej cenie.
25% zniżki na tokeny wejściowe dla GPT-3.5 Turbo
Deweloperzy mogą teraz skorzystać z 25% redukcji kosztów tokenów wejściowych, obniżając cenę do 0,0015 USD za 1000 tokenów wejściowych i 0,002 USD za 1000 tokenów wyjściowych. Wprowadzenie gpt-3.5-turbo-16k oferuje rozszerzoną długość kontekstu przy nieco wyższym koszcie 0,003 USD za 1000 tokenów wejściowych i 0,004 USD za 1000 tokenów wyjściowych, zapewniając programistom większą elastyczność podczas pracy z większymi teksty.
Prezentując udoskonalone modele z funkcją Function Calling i przystępnymi cenami, OpenAI ma na celu umożliwienie programistom tworzenia jeszcze bardziej wyrafinowanych i ekonomicznych aplikacji. Informacje zwrotne od społeczności programistów pozostają kluczowe w kształtowaniu przyszłości platformy, a OpenAI niecierpliwie patrzy nie mogę się doczekać, aby być świadkami kreatywnych i innowacyjnych rozwiązań, które programiści opracują przy użyciu tych najnowszych modeli i cechy.
Źródło: Blog OpenAI
Alexa Craiga
Alex jest napędzany pasją do technologii i gier. Niezależnie od tego, czy chodzi o granie w najnowsze gry wideo, nadążanie za najnowszymi wiadomościami technicznymi czy wciąganie z innymi podobnie myślącymi osobami online, miłość Alexa do technologii i gier jest widoczna we wszystkim, co robi robi.
Alex jest napędzany pasją do technologii i gier. Niezależnie od tego, czy chodzi o granie w najnowsze gry wideo, nadążanie za najnowszymi wiadomościami technicznymi czy wciąganie z innymi podobnie myślącymi osobami online, miłość Alexa do technologii i gier jest widoczna we wszystkim, co robi robi.