Google desarrolla programa de ordenador capaz de tareas de aprendizaje independiente

  • 'Agent' aclamado como primer paso hacia una verdadera inteligencia artificial como se dispone a jugar 49 juegos retro-informáticos utilizando sus propias estrategias ganadoras.
  • El programa de ordenador llamado agente inicia el juego con movimientos al azar, pero después de 600 juegos funciona con una estrategia óptima.


Los científicos de Google han desarrollado el primer programa de ordenador capaz de aprender una amplia variedad de tareas de forma independiente, en lo que ha sido aclamado como un paso significativo hacia la verdadera inteligencia artificial.

El mismo programa, o "agente", como sus creadores lo llaman, aprendieron a jugar 49 diferentes juegos retro-informáticos, y se acercó con sus propias estrategias para ganar. En el futuro, el mismo enfoque podría utilizarse para alimentar los coches de auto-conducción, asistentes personales en los teléfonos inteligentes o llevar a cabo la investigación científica en los campos de cambio climático a la cosmología.

La investigación fue llevada a cabo por DeepMind, la compañía británica adquirida por Google el año pasado por 400 millones de libras, cuyo objetivo declarado es crear "máquinas inteligentes". Demis Hassabis, fundador de la compañía, dijo: "Este es el primer peldaño importante de la escalera que nos conduce hacia un sistema de aprendizaje en general que realmente funcione. Se puede trabajar en una tarea desafiante que incluso los seres humanos encuentran difícil. Es el primer paso de bebé hacia ese objetivo grandioso ... pero importante ".

El trabajo es visto como una desviación fundamental de los intentos anteriores de crear inteligencia artificial como el programa Deep Blue, que venció a Gary Kasparov famoso en el ajedrez en 1997 o Watson de IBM, que ganó el concurso de televisión Jeopardy! en 2011. En estos dos casos, las computadoras estaban pre-programadas con las reglas del juego y las estrategias específicas y superaron el rendimiento humano a través de una potencia de cálculo enorme.

“En el caso de Deep Blue, fue el equipo de programadores y grandes maestros los que destilaron los conocimientos necesarios que después se introdujeron en el programa”, dice Hassabis. “En este caso, sin embargo, hemos construido algoritmos que aprenden a partir de cero”.

Al programa 'Agent', simplemente se le da una entrada de información en bruto, formada por los píxeles que componen la pantalla de juegos de Atari y provista de un marcador con la puntuación. Cuando 'Agent' empieza a jugar, simplemente observa los frames del juego y va pulsando los botones al azar, para ver qué pasa. “Es un poco como un bebé que abre los ojos y ve el mundo por primera vez”, afirma Hassabis.

'Agent' utiliza un método llamado "aprendizaje profundo" para activar la entrada visual basic en conceptos significativos, lo que refleja la forma en que el cerebro humano tiene la información sensorial en bruto y lo transforma en una rica comprensión del mundo. 'Agent' está programado para trabajar en lo que es significativo a través de "aprendizaje por refuerzo", la noción básica de que sumar puntos es bueno y perdiéndolos es malo.

Tim Behrens, profesor de neurociencia cognitiva del University College de Londres, dijo: "Lo que han hecho es realmente impresionante, no hay duda. Tienen agentes de aprender conceptos basados ​​en justa recompensa y castigo. Nadie lo ha hecho antes ".

En los videos proporcionados por Mente Profunda, 'Agent' se muestra haciendo movimientos al azar y en gran medida sin éxito al principio, pero después de seiscientas rondas de entrenamiento (dos semanas de tiempo de computadora) el programa descubre como funcionan los juegos. Incluso en algunos casos, 'Agent' utilizó estrategias ganadoras que ni los propios investigadores habían considerado, creando sus propias estrategias para alzarse ganador del juego.

Hassabis no llega a llamar a esto un "paso creativo", pero dijo que demuestra que las computadoras pueden "resolver las cosas por sí mismas" de manera considerada como exclusividad humana. "Las máquinas de un día serán capaces de alguna forma de creatividad, pero aún no estamos ahí", dijo.

Behrens dijo que observando la capacidad de aprender de 'agent', da la impresión de que "hay algo humano en ello" -probablemente debido a que está pidiendo prestado el concepto de ensayo y error, uno de los principales métodos por los cuales los seres humanos aprenden-.



El estudio, publicado en la revista Nature, mostró que 'agent' actuó en el 75% del nivel de un probador de juegos profesional y mejor en la mitad de los juegos probados, que iban desde los tiradores de desplazamiento lateral, boxeo y carreras de coches en 3D. En algunos juegos, como Space Invaders, Pong y Breakout, el algoritmo superó significativamente a los seres humanos, mientras que en otros le fue mucho peor.

Los investigadores dijeron que esto era debido al algoritmo que por el momento no tiene ninguna memoria real, con lo cual es incapaz de comprometerse con estrategias a largo plazo que requieren mayor planificación. En alguno de los juegos, 'agent' se quedó atascado una vez conseguidos los puntos, pero en realidad nunca comprendió el objetivo general del juego. El equipo ahora está tratando de construir un componente de memoria en el sistema y aplicarlo a los juegos de ordenador en 3D más realistas.

El año pasado, el empresario estadounidense, Elon Musk, uno de los primeros inversores de Deep Mind, describe la inteligencia artificial como la mayor amenaza a la existencia de la humanidad. "A menos que tenga la exposición directa a grupos como Deepmind, no tienes idea de lo rápido que está creciendo", dijo. "El riesgo de que algo serio está sucediendo es peligroso en el plazo de cinco años. diez años como máximo ".

Sin embargo, el equipo de Google le restó las preocupaciones. "Estamos de acuerdo con él, existen riesgos que deben tenerse en cuenta, pero estamos a décadas de distancia de cualquier tipo de tecnología por la que tengamos que preocuparnos", dijo Hassabis.