4 attaques de Meta: Racing avec la nouvelle série d’intelligence artificielle est chaude

Meta a publié samedi une nouvelle collection d’intelligence artificielle dans la famille Llama.

Il y a quatre nouveaux modèles dans le total: Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. Meta dit que tous ont été formés sur une «grande compréhension visuelle» pour leur donner «des données de texte, d’image et de vidéo non étiquetées en grande quantité».

Concours Deepseek accéléré

Le succès de Deepseek, le laboratoire de l’IA chinois, le succès de la performance ouverte ou meilleure de Meta avec les modèles phares précédents de Meta a accéléré le développement de LLAMA, comme cela a été rapporté. Meta aurait confondu les salles de guerre pour résoudre la façon dont Deepseek a réduit le coût de la course et de la distribution de modèles comme R1 et V3.

Scout et Maverick sont en ondes, le géant est sur la route

Scout et Maverick sont clairement disponibles sur les partenaires de la plate-forme géante de l’IA étreignant le visage, tandis que Behemoth est toujours au stade éducatif. Meta dit que Meta AI adjointe AI supportée dans des applications telles que WhatsApp, Messenger et Instagram a été mise à jour pour utiliser Llama 4 dans 40 pays. Les fonctionnalités multimod sont limitées aux États-Unis en anglais pour l’instant.

Certains développeurs peuvent faire appel à la licence Llam 4.

Les restrictions et les problèmes de licence connaissent dans l’UE

Les utilisateurs et les entreprises ayant «résident» ou «principal lieu de travail» dans l’UE ont probablement été interdits d’utiliser ou de distribuer des modèles en raison des exigences de gestion imposées par les lois de l’intelligence artificielle et de la confidentialité des données de la région. (Dans le passé, Meta a décrit ces lois comme extrêmement lourdes.) En outre, les entreprises avec plus de 700 millions d’utilisateurs actifs par mois, comme dans les versions précédentes LLAM, devraient demander une licence spéciale de Meta à leur propre discrétion ou rejeter.

«Ces modèles LLAMA 4 indiquent le début d’une nouvelle ère pour l’écosystème de lama», a écrit Meta dans un article de blog. «Ce n’est qu’un début pour la collection Llama 4.»

Meta dit que LLAMA 4 est le premier groupe de modèles utilisant une architecture MOE Mixture (MOE) qui est plus informatique en termes de réponse à la formation et aux requêtes. MOE consacre principalement des tâches de traitement des données aux sous-tâches, puis les transfère à des modèles «experts» plus petits et spécialisés.

Par exemple, Maverick a un total de 400 milliards de paramètres, mais seulement 17 milliards de paramètres actifs entre 128 «experts». (Les paramètres correspondent aux compétences en résolution du problème d’un modèle rugueux.) Scout a 17 milliards de paramètres actifs, 16 experts et un total de 109 milliards de paramètres.

Selon les tests internes de Meta, Maverick, qui, selon la société, est le meilleur pour l’utilisation de «Assistant général et CHAT», tels que l’écriture créative, laisse derrière lui le GPT-4O d’Openai et Gemini 2.0 de Google. Cependant, Maverick ne peut pas rivaliser pleinement avec de nouveaux modèles plus talentueux tels que Google’s Gemini 2.5 Pro, le Sonnet Claude 3.7 d’Anthropic et le GPT-4.5 d’OpenAI.

Les aspects puissants de Scout résident dans des tâches telles que le résumé des documents et le raisonnement sur la base de code importante. Iné à même, il a une très grande fenêtre de contexte: 10 millions de marqueurs. («Marqueurs» représente des pièces de texte brutes – par exemple le mot «fantastique» est divisé en «fan», «tas» et «tic».

Selon les calculs de Meta, Scout peut fonctionner dans un seul GPU NVIDIA H100, tandis que Maverick a besoin d’un système NVIDIA H100 DGX ou équivalent.

Le géant non autorisé de Meta aura besoin d’un équipement encore plus fort. Selon la société, Behemoth a 288 milliards de paramètres actifs, 16 experts et environ deux billions de paramètres au total. La comparaison interne de Meta montre que le GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0 Pro (pas 2.5 Pro) dans diverses évaluations qui mesurent les compétences STEM telles que la résolution de résolution de problèmes de mathématiques.

Aucun des modèles remarquables Llama 4 n’est un modèle «raisonnement» approprié des O1 et O3-MinI d’OpenAI. Les modèles de raisonnement confirment leurs réponses et répondent souvent aux questions de manière plus fiable, mais en conséquence, il faut plus de temps que les modèles traditionnels «raisonnables» pour offrir des réponses.

Fait intéressant, Meta dit que tous les modèles LLAMA 4 sont organisés pour refuser de répondre aux questions «controversées» moins fréquemment. Selon la société, Llama 4 répond aux problèmes politiques et sociaux «controversés» auxquels n’ont pas répondu par les modèles LLAMA précédents. De plus, la société affirme que Llama 4 est «dramatique plus équilibré» et ne divertira certainement pas ces demandes.

«(L) Vous pouvez avoir confiance que Lama 4 fournira des réponses réalistes sans juger», a déclaré un porte-parole de Meta. «(L) Nous continuons à rendre Lama plus sensible, afin qu’il puisse répondre à plus de questions, répondre à différentes perspectives différentes (…) et ne préfère pas certains points de vue à d’autres.»

Ces changements sont survenus après que certains des Maison Blanche accusant les robots de chat d’intelligence artificielle d’être «éveillés» de robots de chat d’intelligence artificielle.

La plupart des proches confidents du président Donald Trump, dont le milliardaire Elon Musk et la crypto et la crypto et l’intelligence artificielle «Tsar» David Sacks, ont affirmé que les robots de chat de renseignement artificiel populaires ont censuré des vues conservatrices. Historiquement, Sacks a décrit le chatpt d’Openai «programmé pour se réveiller» et en tant que menteur sur les questions politiques.

En fait, les préjugés de l’intelligence artificielle sont un problème technique difficile à résoudre. La propre société d’intelligence artificielle de Musk, Xai, a essayé de créer un robot de chat qui ne soutient pas plus les opinions politiques que d’autres.

Cela n’a pas empêché les entreprises telles que OpenAI d’organiser des modèles d’intelligence artificielle pour répondre à plus de questions, en particulier des questions sur les problèmes controversés.