Entertainment
Le jeu vidéo à l’ère de l’IA : personnages qui apprennent, mondes infinis et la mort du level design ?
PNJ avec mémoire, mondes générés à l’infini, dialogues contextuels : l’IA générative transforme le jeu vidéo à une vitesse vertigineuse. Immersion décuplée, questions éthiques, artistes remplacés ? Le point sur une révolution déjà en marche.
Le jeu vidéo a toujours été à l’avant-garde de l’adoption des nouvelles technologies. La 3D, l’internet, le cloud gaming, la réalité virtuelle — chaque vague technologique a trouvé son terrain d’expérimentation privilégié dans l’industrie du jeu. L’intelligence artificielle générative ne fait pas exception, et son impact sur la création et l’expérience des jeux vidéo commence à se manifester de manière concrète et, parfois, troublante.
Les PNJ qui ont une vraie mémoire
La révolution la plus immédiate et la plus visible pour les joueurs arrive sous la forme de personnages non-joueurs (PNJ) propulsés par des LLMs. Fini les dialogues pré-écrits avec des arbres de décisions limités — des studios comme Convai, Inworld AI et Replica Studios proposent des technologies qui permettent à des PNJ de tenir des conversations naturelles, de se souvenir de vos interactions passées, et d’adapter leur comportement à votre style de jeu.
NVIDIA a intégré cette technologie dans sa plateforme ACE (Avatar Cloud Engine), testée dans plusieurs jeux indépendants. Les premiers retours des joueurs sont fascinants : une partie d’entre eux trouve l’expérience transformatrice et immersive. Une autre partie trouve le résultat « uncanny » — trop proche de la conversation humaine pour être confortable dans un contexte de jeu. Ce débat sur l’authenticité des interactions dans les jeux vidéo va occuper les game designers pendant des années.
La génération procédurale IA : des mondes sans fin
Minecraft a popularisé la génération procédurale il y a 15 ans. L’IA générative pousse ce concept vers des dimensions inédites. Des outils comme WorldFoundry ou les technologies développées en interne par Ubisoft permettent de générer des environnements de jeu cohérents — architecture, végétation, systèmes climatiques, structures narratives — à partir de descriptions textuelles ou de paramètres de haut niveau.
No Man’s Sky était déjà pionnier dans la génération procédurale de planètes. La prochaine génération de jeux open world pourrait proposer des univers pratiquement infinis où chaque zone visitée est unique, cohérente avec l’univers établi, et jamais totalement répétitive. Hades II, développé par Supergiant Games, a été parmi les premiers AAA à intégrer de la génération de dialogue contextuelle par IA, avec des résultats qui ont reçu des retours très positifs de la communauté.
La question qui divise l’industrie : les artistes remplacés ?
L’utilisation de l’IA générative dans les studios de jeux vidéo a déclenché des conflits sociaux importants. La grève des acteurs de doublage de l’industrie américaine du jeu vidéo en 2025 avait pour enjeu central la reproduction vocale par IA — les studios voulant créer des « bibliothèques vocales » infinies à partir d’enregistrements limités. L’accord obtenu après des mois de négociation a établi un cadre de droits et de compensation qui fera jurisprudence.
Les concept artists et les modélisateurs 3D vivent une situation similaire. Des outils comme Scenario.gg ou les solutions internes de grands studios permettent de générer des assets visuels en quantité industrielle. Certains studios ont réduit leurs équipes artistiques de 20 à 30%. D’autres ont choisi d’utiliser l’IA pour augmenter la productivité de leurs artistes humains plutôt que de les remplacer. La direction prise — et la négociation des droits afférents — sera déterminante pour la structure créative de l’industrie dans les années à venir.