DeepMind

L’intelligence artificielle DeepMind de Google relève le défi des jeux Atari

DeepMind a publié un article détaillant comment sa technologie d’intelligence artificielle a non seulement appris à jouer à une multitude de jeux Atari, mais a également excellé dans plusieurs d’entre eux.

L’unité d’intelligence artificielle de Google, DeepMind, a démontré que, avec seulement quelques pixels comme base de départ, son algorithme pouvait non seulement apprendre à jouer à des jeux vidéo à partir de zéro, mais aussi les maîtriser après quelques heures d’entraînement.

DeepMind a publié cette semaine un article dans la revue scientifique Nature décrivant les capacités de son algorithme « deep Q-network » (DQN) à jouer à 49 jeux vidéo conçus initialement pour l’Atari 2600 – notamment un jeu semblable à Pong appelé Breakout, ainsi que River Raid, Boxing et Enduro – et à rivaliser avec des joueurs humains sur la moitié d’entre eux.

Cet article dans Nature s’appuie sur des travaux antérieurs de DeepMind, qui exploraient les performances de l’algorithme sur sept jeux Atari 2600. Bien que le système ait bien performé par rapport à un joueur humain, il était moins performant face à des jeux comme Space Invaders, où une stratégie à long terme est nécessaire pour réussir.

Que cache DeepMind ?

Une vidéo montrant le fondateur de DeepMind, Demis Hassabis, en train de démontrer les performances de DQN sur le jeu Breakout a été publiée sur YouTube en avril dernier. Au début, l’algorithme avait du mal à renvoyer la balle, mais après quelques centaines de parties, il a fini par apprendre la meilleure stratégie pour battre le jeu : creuser un tunnel sur le côté du mur de briques pour ensuite diriger la balle derrière celui-ci.

Aujourd’hui, le système excelle dans plusieurs jeux, comme Video Pinball, Boxing, Breakout, et Star Gunner, mais reste moins performant que les humains sur Ms. Pac-Man, Asteroids, et Seaquest.

« Ce qui est frappant, c’est que DQN a pu fonctionner directement “clé en main” sur l’ensemble de ces jeux – en utilisant la même architecture de réseau et les mêmes paramètres de réglage, tout en n’étant fourni qu’avec les pixels bruts de l’écran, les actions possibles et le score comme données d’entrée », ont déclaré Hassabis et Dharshan Kumaran, co-auteur de l’article, dans un billet de blog mercredi.

Le duo ajoute que DQN combine des réseaux neuronaux profonds et l’apprentissage par renforcement.

« Parmi les mécanismes les plus remarquables figure un procédé inspiré de la neurobiologie, appelé “relecture d’expérience”. Pendant la phase d’apprentissage, DQN s’est entraîné sur des échantillons tirés d’un ensemble d’épisodes enregistrés – un processus reproduit physiquement dans une structure cérébrale appelée hippocampe, grâce à la réactivation ultra-rapide d’expériences récentes pendant les périodes de repos (par exemple, le sommeil) », ont-ils expliqué.

L’impact de DeepMind

Google a acquis DeepMind l’année dernière pour un montant estimé à 400 millions de dollars et a depuis collaboré avec l’Université d’Oxford pour mener des recherches conjointes sur l’intelligence artificielle. DeepMind avait été initialement financé par des investisseurs comme Elon Musk, PDG de Tesla Motors, qui avait déclaré l’année dernière qu’il avait investi dans l’entreprise pour orienter l’intelligence artificielle loin d’un futur semblable à celui de Terminator.

DeepMind affirme que sa technologie pourrait à terme contribuer à améliorer des produits comme Google Now. « Imaginez si vous pouviez demander à l’application Google d’accomplir n’importe quelle tâche complexe : “OK Google, organise-moi un super voyage de randonnée à travers l’Europe !” »

Voir aussi :

DeepMind
DeepMind. Illustration de Megan Jorgensen.

Laisser un commentaire