Comment utiliser OpenAl GPT-4o, quelles sont ses fonctionnalités ?

Parmi l’actualité technologique, ChatGPT est l’un des contenus les plus curieux de ces dernières années. OpenAl, une société américaine de recherche en intelligence artificielle, a fait des déclarations importantes sur cette question lors de son événement du printemps. Il a également parlé spécifiquement du nouveau modèle d'intelligence artificielle appelé OpenAl GPT-4o qu'il utilisera dans ses produits.

Bien, Que sont les fonctionnalités d'OpenAl GPT-4o et comment l'utiliser ? Nous avons compilé ici pour vous les réponses à toutes ces questions.

IL PEUT FAIRE UNE TRADUCTION INSTANTANÉE

Murati Chen et Zoph ont démontré comment ChatGPT-4o peut traduire une conversation en direct entre l'italien et l'anglais.

Dans l'annonce, GPT-4o a instantanément traduit le dialogue de deux personnes parlant italien et anglais.

CARACTÉRISTIQUES OUVERTES DU GBT-4o

GPT-4o, dont Muri Murati, directeur technique d'OpenAl, a annoncé qu'il serait offert gratuitement à tous les utilisateurs, attire l'attention par ses diverses fonctionnalités. Le modèle OpenAl GPT-4o, dans lequel les utilisateurs payants auront 5 fois plus de limites de capacité que les utilisateurs gratuits, prend en charge 50 langues. Ce modèle dispose également de capacités de traduction.

chatgpt 4o

Lors de l'événement, OpenAl GPT-4o a fourni une traduction simultanée entre l'anglais et l'italien et a lu les émotions des gens à partir d'images vidéo. Le nouveau modèle d'OpenAl fonctionne efficacement et rapidement, notamment dans les domaines suivants :

– Vidéo

– Texte

– Son

Il peut communiquer avec ses utilisateurs en temps réel. De plus, il distingue clairement la différence entre les intonations des voix. La production de sons dans différentes tonalités fait également partie de ses caractéristiques importantes. Des changements de ton peuvent être apportés en ajoutant des expressions au ton de voix du modèle.

Lors de l'événement, OpenAl a donné des exemples de la façon dont le nouveau modèle peut écrire du code et lire des graphiques. Ainsi, le modèle interprète tous les éléments qu’il entend et voit en temps réel. Le nouveau modèle aidera également ses utilisateurs à résoudre des problèmes mathématiques. Il affiche des vidéos en temps réel et propose des solutions à des problèmes mathématiques.

GPT-4o a également la capacité de créer des graphiques et d'analyser des données. Il peut également accéder aux GPT et au GPT Store. Il peut communiquer plus profondément avec son utilisateur en se souvenant des conversations précédentes. Il peut télécharger des fichiers pour faciliter l'analyse, la synthèse et la rédaction. Comme le montrent les fonctionnalités ci-dessus, OpenAl GPT-4o peut être considéré comme un modèle développé avec une interaction naturelle homme-machine.

COMMENT UTILISER OPENAL GBT-4o ?

Tous les utilisateurs de ChatGPT peuvent accéder gratuitement à OpenAl GPT-4o. Ce modèle; Formé avec des données audio, image et texte. Dans GPT-40, toutes les entrées sont traitées via un seul réseau neuronal. Il établit de nouveaux standards avec ses capacités multi-voix, multilingues et visuelles. Il s'agit de performances de niveau GPT-4 Turbo, notamment en matière de raisonnement, de codage et de texte.

OpenAl a donné de nombreux exemples d'utilisation du nouveau modèle lors de l'événement. Dans un exemple de vidéo, l'utilisateur a montré son chien au modèle et lui a dit : «Je vais vous présenter quelqu'un». GPT-4o réagit alors comme un humain. Il demande son nom puis commence à l'appeler par son nom.

Le modèle peut être utilisé pour créer plusieurs vues d'une seule image. Les images créées peuvent ensuite être converties en objets 3D. En même temps, le modèle peut être utilisé pour créer des récits visuels.

Dans un autre exemple, l'utilisateur demande à GPT-4o de chanter une berceuse sur les pommes de terre. Puis il lui demande de chanter la berceuse à voix basse. Le nouveau modèle d'OpenAl semble faciliter la vie des personnes malvoyantes. Car une vidéo sur ce sujet a également été présentée lors de l'événement.

La vidéo présente deux GPT-4os chantant et interagissant. L’un de ces modèles peut voir à travers la caméra, l’autre non. Le modèle voyant explique joliment l'environnement à l'autre personne. Les deux modèles commencent à chanter ensemble.