Openai prévoyait d’ouvrir ce nouveau modèle à l’accès de chacun. Cela signifie que le modèle est partagé non seulement via une API, mais peut être téléchargé directement sur les ordinateurs. Cependant, Altman a souligné que cette approche a de grands risques:
«Une fois les poids publiés, il n’y a pas de retour. Par conséquent, davantage d’évaluations de sécurité doivent être effectuées.»
Selon Altman, le potentiel d’abus de l’intelligence artificielle – en particulier dans les versions open source – n’est toujours pas suffisamment contrôlée. Par conséquent, OpenAI resserrera les contrôles de sécurité pour empêcher le modèle d’être utilisé dans des scénarios qui peuvent être nocifs pour la société.
Équilibre entre la sécurité et la transparence
Dans le monde de la technologie, la décision d’Openai pour reporter une discussion importante également évoquée:
D’une part, des entreprises comme Meta encouragent la contribution communautaire en développant l’intelligence artificielle en tant qu’open source.
D’un autre côté, des entreprises comme OpenAI tentent d’empêcher les abus en contrôlant des modèles puissants comme centralement.
Bien qu’Altman apprécie le potentiel du développement de l’ouverture ouverte, il soutient que l’ouverture de modèles puissants à un accès illimité peut entraîner de graves risques. En particulier dans des domaines tels que la désinformation, la production de logiciels malveillants ou les systèmes d’attaque automatiques, les personnes malveillantes peuvent abuser de ces modèles.
Nouvelle date non donnée
OpenAI n’a pas expliqué une date définie sur le moment où le modèle reporté serait publié. Cependant, la société a clairement indiqué qu’elle ne partagerait aucun partage avant la fin de tous les chèques de sécurité.