Actualité web & High tech sur Usine Digitale

Comment l'intelligence artificielle de Google a battu un joueur de go professionnel

|
Twitter Facebook Linkedin Google + Email
×

Vidéo Google ne regrette à l'évidence pas son rachat de DeepMind. L'ancienne start-up a établi un record historique en développant une intelligence artificielle capable de battre un joueur de go professionnel, une performance considérée comme très difficile à atteindre.

Comment l'intelligence artificielle de Google a battu un joueur de go professionnel
Comment l'intelligence artificielle de Google a battu un joueur de go professionnel

Des chercheurs de Google DeepMind, une filiale du groupe Alphabet, ont publié le 28 janvier dans la revue Nature leurs travaux sur un programme d'intelligence artificielle qui a, pour la première fois au monde, été capable de battre un joueur professionnel de go sur un plateau complet de 19 x 19 lignes. Le logiciel en question, baptisé AlphaGo, est parvenu à battre le champion d'Europe de go, Fan Hui, cinq parties à zéro. Les logiciels de go n'avaient jusqu'à présent réussi à battres des joueurs humains que sur des tableaux de jeux de taille réduite. AlphaGo a de plus obtenu un taux de victoire de 99.8% contre les autres logiciels de go.

 

Ce résultat est remarquable de par la complexité du jeu de go. Créé en Chine il y a environ 2500 ans, il possède un nombre de combinaisons très élevé dû à la taille de son plateau, et ses règles le rendent difficile à appréhender par les programmes d'apprentissage automatiques comparé aux jeu d'échecs. Lorsque le système Deep Blue d'IBM a battu Garry Kasparov aux échecs en 1997 (une victoire controversée), il choisissait parmi un nombre de coups limités, qu'il connaissait tous. En comparaison, AlphaGo a dû apprendre à faire de la reconnaissance de formes et à jouer stratégiquement pour gagner, comme un être humain.

 

Powered by deep learning

Pour réussir cette prouesse, AlphaGo utilise deux réseaux neuronaux d'apprentissage profond (deep learning). Le premier fait de l'apprentissage supervisé, aidé par les chercheurs qui lui ont montré 30 millions de coups joués par des humains. Le deuxième réseau a utilisé une approche plus innovante, en jouant de manière non supervisée des milliers de parties contre lui-même pour établir ses propres stratégies. Les deux réseaux sont ensuite combinés à l'algorithme MCTS (Monte Carlo Tree Search), régulièrement utilisé pour les programmes de jeu de go.

 

Cette capacité de raisonnement rend AlphaGo plus polyvalent qu'un système hyper spécialisé comme Deep Blue. Google, qui avait acquis DeepMind en janvier 2014 pour une somme estimée entre 400 et 500 millions de dollars, pourrait d'ailleurs intégrer la technologie derrière AlphaGo dans certains de ses produits d'ici quelques années, d'après Demis Hassabis, directeur général de DeepMind.

 

 

En attendant, la prochaine étape pour AlphaGo sera un match à Séoul, en mars prochain, contre Lee Sedol, l'un des meilleurs joueurs de go du monde. Une rencontre au sommet pensée pour émuler celles organisées par IBM contre Kasparov (dont le champion russe avait remporté la première).

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

media

Les cookies assurent le bon fonctionnement de nos sites et services. En utilisant ces derniers, vous acceptez l'utilisation des cookies.OK

En savoir plus
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale