Lors de sa conférence GTC 2026, Jensen Huang, patron de Nvidia, a affirmé que son entreprise était aujourd’hui « le plus grand contributeur à l’IA open source au monde ». Une déclaration ambitieuse… mais difficile à contester. Depuis plusieurs années, le géant américain met à disposition des développeurs une vaste panoplie d’outils : modèles d’intelligence artificielle, jeux de données, environnements de simulation ou encore frameworks, ces briques logicielles qui facilitent le développement d’applications.
Dernier exemple en date : la création de la coalition Nemotron. Ce consortium réunit plusieurs acteurs majeurs de la recherche en IA, dont la startup française Mistral AI. Leur objectif : concevoir ensemble un modèle de pointe, ce que l’on appelle un frontier model, c’est-à-dire un système situé à la frontière des capacités actuelles de l’intelligence artificielle. Ce modèle sera entraîné sur l’infrastructure cloud de Nvidia, baptisée DGX Cloud, et servira de base à une nouvelle génération de modèles ouverts. « Ouverts », car leur code et leur fonctionnement seront accessibles, permettant à des entreprises ou des chercheurs de les adapter à leurs propres usages.
Mais derrière cette stratégie se cache aussi une logique industrielle très claire. En favorisant l’open source, Nvidia s’assure que ses technologies deviennent des standards. Et comme ces modèles sont optimisés pour fonctionner sur ses propres puces, cela incite indirectement les utilisateurs à adopter son matériel.
Autre annonce marquante : NemoClaw, un module conçu pour encadrer les agents d’intelligence artificielle. Ces agents, capables d’agir de manière autonome, écrire du code, manipuler des fichiers ou interagir avec Internet, posent encore des problèmes de fiabilité. NemoClaw introduit des garde-fous : restrictions d’accès, contrôle des actions, et même un système capable de décider si une tâche doit être traitée en local ou dans le cloud, notamment lorsqu’elle implique des données sensibles. Car ces agents consomment énormément de tokens, ces unités de texte utilisées par les modèles pour traiter l’information. Un détail technique… mais stratégique : plus il y a de tokens, plus la demande en puissance de calcul augmente, et donc en matériel Nvidia.
Lors de la conférence, Arthur Mensch, dirigeant de Mistral AI, a toutefois rappelé une réalité plus nuancée. Si ces outils ouvrent des possibilités inédites, leur déploiement à grande échelle reste complexe pour les entreprises. Mais il a aussi défendu un point essentiel : les modèles ouverts permettent aux organisations de garder le contrôle sur leurs technologies.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.