OpenAI a récemment dévoilé une série de mises à jour et de nouvelles fonctionnalités lors de sa première conférence, OpenAI DevDay. Ces annonces promettent de transformer l’interaction avec les modèles d’intelligence artificielle et d’élargir considérablement leur accessibilité et leurs applications.
GPT-4 Turbo : Le modèle avancé à la portée de tous
La grande révélation a été le GPT-4 Turbo, le modèle LLM le plus avancé à ce jour, qui se distingue par une fenêtre de contexte de 128K et une connaissance des événements mondiaux jusqu’en avril 2023. OpenAI a considérablement réduit les coûts, rendant ce modèle 3 fois moins cher pour les tokens d’entrée et 2 fois moins cher pour les tokens de sortie par rapport au GPT-4 précédent. De plus, la fonction d’appel de fonctions a été améliorée, permettant de multiples appels dans un seul message et garantissant la validité et la précision des paramètres de fonction.
Améliorations du GPT-3.5 Turbo
Le nouveau gpt-3.5-turbo-1106 prend désormais en charge une contexte par défaut de 16K et offre cette extension à un coût réduit. La personnalisation de ce modèle est également disponible, avec une réduction significative des coûts d’utilisation. Ce modèle rejoint le GPT-4 Turbo avec des appels de fonctions améliorés et des sorties reproductibles.
L’API Assistants : Créez des expériences Agent-Like sans effort
L’API Assistants, actuellement en version bêta, est conçue pour faciliter l’intégration d’expériences similaires à celles d’un agent dans vos applications. Elle permet de créer des assistants AI spécialisés capables de suivre des instructions précises, d’exploiter des connaissances supplémentaires et d’interagir avec des modèles et des outils pour accomplir diverses tâches. Les développeurs peuvent également profiter de Threads persistants pour une meilleure gestion de l’état et contourner les contraintes de fenêtre de contexte.
Capacités multimodales
GPT-4 Turbo intègre désormais des entrées visuelles dans l’API Chat Completions, ouvrant la voie à des cas d’utilisation tels que la génération de légendes et l’analyse visuelle. Les fonctionnalités de vision seront intégrées dans la version de production de GPT-4 Turbo plus tard dans l’année. Par ailleurs, l’intégration de DALL·E 3 pour la génération d’images et les nouvelles capacités de synthèse vocale enrichissent l’éventail des applications possibles.
Personnalisation des GPT dans ChatGPT
OpenAI a lancé une nouvelle fonctionnalité nommée GPTs, qui permet de combiner des instructions, des données et des capacités dans une version personnalisée de ChatGPT. Les développeurs peuvent désormais contrôler une plus grande partie de l’expérience utilisateur en transformant facilement des plugins existants en actions.
Ces avancées marquent un tournant dans l’accessibilité et la polyvalence des modèles d’IA d’OpenAI, promettant une intégration plus profonde et plus intuitive de l’intelligence artificielle dans nos vies quotidiennes et professionnelles. Le futur de l’IA est non seulement brillant mais aussi à portée de main.