Recevez chaque jour toute l'actualité du numérique

x

Comment l'intelligence artificielle de Google a battu un joueur de go professionnel

Vidéo Google ne regrette à l'évidence pas son rachat de DeepMind. L'ancienne start-up a établi un record historique en développant une intelligence artificielle capable de battre un joueur de go professionnel, une performance considérée comme très difficile à atteindre.
Twitter Facebook Linkedin Flipboard Email
×

Comment l'intelligence artificielle de Google a battu un joueur de go professionnel
Comment l'intelligence artificielle de Google a battu un joueur de go professionnel

Des chercheurs de Google DeepMind, une filiale du groupe Alphabet, ont publié le 28 janvier dans la revue Nature leurs travaux sur un programme d'intelligence artificielle qui a, pour la première fois au monde, été capable de battre un joueur professionnel de go sur un plateau complet de 19 x 19 lignes. Le logiciel en question, baptisé AlphaGo, est parvenu à battre le champion d'Europe de go, Fan Hui, cinq parties à zéro. Les logiciels de go n'avaient jusqu'à présent réussi à battres des joueurs humains que sur des tableaux de jeux de taille réduite. AlphaGo a de plus obtenu un taux de victoire de 99.8% contre les autres logiciels de go.

 

Ce résultat est remarquable de par la complexité du jeu de go. Créé en Chine il y a environ 2500 ans, il possède un nombre de combinaisons très élevé dû à la taille de son plateau, et ses règles le rendent difficile à appréhender par les programmes d'apprentissage automatiques comparé aux jeu d'échecs. Lorsque le système Deep Blue d'IBM a battu Garry Kasparov aux échecs en 1997 (une victoire controversée), il choisissait parmi un nombre de coups limités, qu'il connaissait tous. En comparaison, AlphaGo a dû apprendre à faire de la reconnaissance de formes et à jouer stratégiquement pour gagner, comme un être humain.

 

Powered by deep learning

Pour réussir cette prouesse, AlphaGo utilise deux réseaux neuronaux d'apprentissage profond (deep learning). Le premier fait de l'apprentissage supervisé, aidé par les chercheurs qui lui ont montré 30 millions de coups joués par des humains. Le deuxième réseau a utilisé une approche plus innovante, en jouant de manière non supervisée des milliers de parties contre lui-même pour établir ses propres stratégies. Les deux réseaux sont ensuite combinés à l'algorithme MCTS (Monte Carlo Tree Search), régulièrement utilisé pour les programmes de jeu de go.

 

Cette capacité de raisonnement rend AlphaGo plus polyvalent qu'un système hyper spécialisé comme Deep Blue. Google, qui avait acquis DeepMind en janvier 2014 pour une somme estimée entre 400 et 500 millions de dollars, pourrait d'ailleurs intégrer la technologie derrière AlphaGo dans certains de ses produits d'ici quelques années, d'après Demis Hassabis, directeur général de DeepMind.

 

 

En attendant, la prochaine étape pour AlphaGo sera un match à Séoul, en mars prochain, contre Lee Sedol, l'un des meilleurs joueurs de go du monde. Une rencontre au sommet pensée pour émuler celles organisées par IBM contre Kasparov (dont le champion russe avait remporté la première).

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

1 commentaire

Jean-François Bruneau
29/06/2016 07h09 - Jean-François Bruneau

D'abord Bravo! Toutefois, la comparaison avec Deep Blue et le match Kadparov datera bientôt 20 ans. C'est une sorte de Back tp the Futur! En effet, ilme semblerait plus équitable de comparer IBM WATSON et ses matches de géopardi, avec DeepMind. Cependant, je salue l'exploit de Deep Mind. L'IA est en train de faire ses marques. Chaque jour nous amène des avancés plus spectaculaires les une que les autres.o

Répondre au commentaire | Signaler un abus

 
media