Durante muchos años los expertos en informática e inteligencia artificial han “enseñado” a sus sistemas juegos como ajedrez, pero el Go es tan complicado que parecía imposible lograr que una I.A. fuera tan buena que pudiera vencer a un campeón. Sin embargo, Google lo ha logrado.
Desde hace dos décadas expertos en inteligencia artificial han buscado que sus creaciones aprendieran a jugar Go, el juego de estrategia chino que existe desde hace más de 2500 años, a la perfección. Pero hasta ahora esto era considerado imposible, dado que la cantidad de movimientos y posiciones posibles en Go es extremadamente amplia (y hasta hace poco se creía que infinita), lo que lo convertía en un juego muy complicado, incluso para una I.A.
No obstante DeepMind, el departamento de inteligencia artificial de Google, lo ha logrado y publicaron un estudio en la revista Nature. Su programa de inteligencia artificial, llamado “AlphaGo”, ha aprendido a jugar Go lo suficientemente bien como para vencer cinco veces seguidas a Fan Hui, quien es tres veces campeón de Go en Europa.
Las partidas se llevaron a cabo en un tablero de Go estándar de 19x19 intersecciones, considerada la dificultad máxima en un partido profesional.
El siguiente reto de AlphaGo y el equipo de Google DeepMind es vencer cinco veces seguidas a Lee Sedol, un coreano que es considerado no solo el mejor jugador de Go en el mundo actualmente, sino el mejor de nuestra era.
Enseñar a un programa de I.A. a jugar Go a la perfección no es un capricho, sino que supone un gran avance en cuanto al razonamiento y la forma de planificar estrategias de estos sistemas, tomando en cuenta las consecuencias de sus acciones.
Comenta: