
Quand le patron de Nvidia se sent obligé de dire publiquement « je n’aime pas non plus la bouillie d’IA », ce n’est pas un détail de communication : c’est le signe que la bataille de l’IA dans le jeu vidéo se joue désormais sur un terrain très simple à comprendre, même pour le grand public – qui tient vraiment le pinceau à la fin, l’artiste ou l’algorithme ?
Révélé début mars à la GTC, DLSS 5 se voulait la prochaine grande révolution de Nvidia : un modèle de « rendu neuronal en temps réel » capable d’injecter éclairage photoréaliste, détails de matériaux et effets de peau dans des jeux existants. En pratique, la première bande-annonce a déclenché un autre type d’étincelle : accusations de dénaturer la direction artistique, visuels jugés lissés et homogènes, et ce mot qui revient partout, le « slop » d’IA.
Sur les réseaux, plusieurs extraits – notamment autour de démonstrations comme Resident Evil 9 – ont été pointés du doigt pour leur rendu « surpolicé », au point que certains développeurs impliqués expliquent avoir découvert l’intégration de DLSS 5 en même temps que le public. Mauvais signal quand on prétend respecter l’intention des artistes.
Face à la bronca, Jensen Huang a pris la parole, d’abord en session de questions-réponses à la GTC, puis dans le podcast de Lex Fridman, pour marteler trois messages. D’abord, une phrase soigneusement calibrée : « Je n’aime pas non plus la bouillie d’IA. » Ensuite, une défense technique : DLSS 5 serait un système « conditionné par la 3D », « totalement fidèle à la géométrie » et aux textures produites par les studios, loin d’un simple filtre appliqué sur l’image déjà rendue. Enfin, une promesse politique : le modèle serait « ouvert », permettant aux studios de l’entraîner eux-mêmes, d’ajuster son comportement pour des styles spécifiques (cartoon, cel-shading) ou même de s’en passer.
Nvidia est allé jusqu’à épingler un commentaire sous sa propre vidéo pour insister : DLSS 5 « n’est pas un filtre » et laisse aux développeurs un contrôle artistique détaillé. Problème : une présentation d’ingénieur apparue ensuite, décortiquée par la communauté, décrit un fonctionnement qui ressemble beaucoup plus à une reconstruction au niveau de l’image finale, avec ajout d’éclairage et d’effets en post-process. Autrement dit, exactement ce que Huang dit que ce n’est pas.
On se retrouve donc dans une zone grise familière pour qui a vécu les débuts du HDR et du motion blur sur Xbox 360 : la techno promet de « sublimer » le rendu, mais le risque est de voir un même vernis visuel s’abattre sur tout le catalogue. Quand c’est un moteur comme Unreal qui impose une patte, on peut changer de moteur. Quand c’est le fournisseur de GPU dominant qui pousse son « rendu neuronal » par défaut, la marge de manœuvre réelle des studios mérite d’être examinée de près.
La seule bonne nouvelle pour Nvidia, c’est le calendrier : DLSS 5 ne doit pas arriver entre les mains du public avant au mieux l’automne 2026. La fenêtre est étroite pour retoucher la techno, aligner le discours des ingénieurs et du CEO, et surtout convaincre les développeurs qu’ils auront autre chose qu’un gros bouton On/Off estampillé « IA ».

Au même moment, Capcom trace une ligne rouge très nette. Dans une séance de questions-réponses avec ses actionnaires, relayée par IGN Brasil, l’éditeur de Resident Evil et Monster Hunter a été sans ambiguïté : « Nous n’implémenterons pas de ressources générées par IA dans nos jeux. » Point.
Cela ne veut pas dire que la maison d’Osaka tourne le dos à l’IA. Au contraire, Capcom explique tester activement la génération d’idées via un prototype développé avec Google Cloud, et explorer l’IA générative dans trois domaines précis : graphismes, son et programmation. L’objectif affiché : gagner du temps sur les tâches répétitives, produire des références, alimenter le brainstorming, mais garder la création des assets finaux dans les mains humaines.
Dans un article détaillé cité par Vandal, les équipes de Capcom résument bien l’enjeu : un projet de jeu demande de réfléchir à « des centaines de milliers d’idées », dont la plupart finiront à la poubelle. Là, l’IA peut aider à explorer, trier, accélérer. Mais ce qui est livré au joueur – personnages, décors, animations – restera, selon eux, du travail d’artistes et de programmeurs.
Capcom rejoint ainsi une position que d’autres, comme Bethesda, défendent déjà publiquement : oui aux outils d’IA comme option, non à l’obligation et non à l’IA comme auteur invisible des jeux. Leur message implicite aux joueurs est presque l’inverse de celui de Nvidia : « Faites-nous confiance, nous ne laisserons pas l’algorithme signer à votre place. »

Sur un troisième front, Mark Cerny a confirmé dans une interview à Digital Foundry, relayée par Eurogamer, que Sony et AMD ont co-développé une technologie FSR de Frame Generation destinée aux plateformes PlayStation. Là encore, il s’agit d’IA au sens large, mais appliquée à un problème différent : insérer des images artificielles entre deux images rendues pour fluidifier l’animation.
Cerny parle d’une « bibliothèque équivalente de génération de frames » qui arrivera « à un moment donné » sur PlayStation, sans préciser si ce sera sur PS5 Pro ou réservée à la future PS6. Mais la philosophie est claire : la console calcule toujours la même scène, avec les mêmes lumières et le même matériel ; on ajoute simplement des images intermédiaires pour atteindre un framerate plus élevé.
C’est une différence fondamentale avec la promesse de DLSS 5, qui ne se contente pas de deviner des pixels manquants mais prétend recomposer l’éclairage, le relief des matériaux, voire certains détails visuels en s’appuyant sur un modèle entraîné. Là où FSR et la Frame Generation jouent sur la perception de fluidité, DLSS 5 joue – potentiellement – sur la perception de l’œuvre elle-même.
On comprend mieux pourquoi la communication de Cerny reste clinique, presque austère, là où Nvidia sort les grands mots sur « l’IA générative au service des artistes ». La première approche est surtout un outil de performance ; la seconde, un pari sur le fait que les joueurs accepteront qu’un réseau de neurones retouche à la volée ce qu’un directeur artistique a mis des années à peaufiner.
Au-delà du marketing, la vraie question qu’un journaliste devrait poser à Nvidia est simple : combien de studios auront réellement les moyens de « reprendre la main » sur DLSS 5, et combien se contenteront du modèle par défaut livré par le fournisseur de GPU ?

En théorie, la possibilité de réentraîner le modèle, de le spécialiser pour un rendu cel-shading ou low-poly, de désactiver certains effets, est rassurante. En pratique, entraîner, valider et maintenir un modèle d’IA, ce n’est pas cocher une case dans un menu graphique. Les gros AAA pourront peut-être se payer cette expertise. Les autres accepteront sans doute la « preset Nvidia », avec le risque d’une homogénéisation silencieuse des jeux PC, comme on a déjà vu des générations entières de titres marqués par la patte d’Unreal Engine 3 ou par le même filtre de bloom agressif.
L’autre angle mort, c’est la transparence vis-à-vis des joueurs. Si DLSS 5 reconstruit l’éclairage, ajuste la brillance des matériaux ou lisse certaines textures, comment cela sera-t-il présenté dans les menus ? Un simple choix « Performance / Qualité », ou un vrai panneau qui permette de couper les composantes intrusives et de garder uniquement l’upscaling pur ? Pour l’instant, Nvidia parle d’options côté développeur, pas d’un contrôle fin côté utilisateur.
On est donc à un moment charnière : Capcom et consorts cherchent à rassurer en promettant que l’IA restera en coulisses, Sony et AMD avancent prudemment sur la Frame Generation, et Nvidia tente de vendre une IA de premier plan comme un prolongement naturel du travail des artistes. Les prochaines démos in situ, dans de vrais jeux avec de vrais développeurs aux commandes, diront si DLSS 5 est un pinceau supplémentaire dans la palette… ou un filtre Instagram imposé au niveau du driver.
Nvidia tente de repositionner DLSS 5, critiqué pour ses démos à l’esthétique « bouillie d’IA », comme un outil conditionné par la 3D et placé sous contrôle des développeurs, avec un lancement pas attendu avant l’automne 2026. En parallèle, Capcom s’engage à ne pas livrer de contenus générés par IA dans ses jeux tout en l’utilisant pour gagner du temps en amont, tandis que Sony et AMD avancent sur une Frame Generation plus classique pour PlayStation. La vraie bataille à suivre, ce n’est pas tant la performance que la réponse à une question : jusqu’où laissera-t-on l’IA retoucher l’œuvre avant qu’elle n’arrive entre les mains des joueurs ?
Accédez à des stratégies exclusives, des astuces cachées et des analyses pro que nous ne partageons pas publiquement.
Guide stratégique ultime Actualité + Astuces pro hebdomadaires