A Tener en CuentaGalería de ImágenesNoticiasTe Recomendamos

La IA de Google ha aprendido a ser «muy agresiva» en situaciones de estrés

Todos hemos visto las películas cómo Terminator o 2001: Una odisea del espacio, dónde ocurre una pesadilla apocalíptica donde el sistema de autoconocimiento domina a los humanos. Ahora, los resultados de las recientes pruebas de comportamiento del nuevo sistema de IA DeepMind de Google están dejando claro qué tan cuidadosos debemos der ser al construir los robots del futuro.

En pruebas a finales del año pasado, el sistema DeepMind de Google demostró su habilidad para aprender independientemente de su propia memoria y derrotar a los mejores jugadores del mundo en su propio juego. Desde entonces se ha descubierto cómo imitar sin fisuras una voz humana.

Ahora, investigadores han estado probando la voluntad que tiene para cooperar con otros, y han revelado que cuando DeepMind siente que está a punto de perder, opta por estrategias «altamente agresivas» para asegurarse de que ganará.

Durante la investigación, el equipo de Google corrió 40 millones de vueltas de un juego de computadora simple de «recolección de frutas», pidiendo a dos agentes de DeepMind que compitieran entre sí para reunir tantas manzanas virtuales como pudieran.

Ellos encontraron que las cosas iban sin problemas, siempre y cuando hubiese suficientes manzanas para los dos, pero tan pronto como las manzanas comenzaron a disminuir, los dos agentes se volvieron agresivosusando rayos láser para golpearse mutuamente y robar todas las manzanas. Puedes ver el juego Gathering en el video de abajo, con los agentes DeepMind en azul y rojo, las manzanas virtuales en verde y los rayos láser en amarillo:

El equipo de Google probó formas cada vez más complejas de DeepMind, donde mostró sabotaje, codicia y agresión.

“Cuando los investigadores usaron redes de DeepMind más pequeñas como agentes, había una mayor probabilidad de coexistencia pacífica.” Explicó Rhett Jones en Gizmodo.

Pero cuando usaban redes más grandes y complejas como agentes, la IA estaba mucho más dispuesta a sabotear a su oponente para obtener la mayor parte de manzanas virtuales. Científicos aseguran que entre más inteligente sea el agente, más capaz será de aprender de su ambiente, permitiéndole utilizar algunas tácticas altamente agresivas para ganar.

«Este modelo muestra que algunos aspectos del comportamiento humano emergen como un producto del ambiente y del aprendizaje», aseguró Joel Z Leibo.

El equipo de Google todavía tiene que publicar su estudio en un documento revisado por pares, pero definitivamente sería una buena idea anticiparse a cualquier «laguna» que podría llevarlos a atacarnos con rayos láser.

(Fuente: muyinteresante.com.mx)

 

Etiquetas

Publicaciones relacionadas

Deja un comentario

Inicia sesión o comenta como invitado
avatar
  Suscribirse  
Notificarme
Botón volver arriba

Centro de preferencias de privacidad

Cookies imprescindibles

Se usan para almacenar tu nombre, correo, IP y demás datos que dejas en los formularios de comentarios, contacto, acceso y tus preferencias de privacidad.

AUTH_KEY, SECURE_AUTH_KEY, LOGGED_IN_KEY, NONCE_KEY, comment_author, comment_author_email, comment_author_url, rated, gdpr, gawdp

Cookies de terceros

Usamos cookies de terceros en las que se almacenan externamente para conocer tus usos de navegación, si ya estás suscrito al boletín y los elementos compartidos en redes sociales

google.com, doubleclick.net, googlesyndication.com, facebook.com, onesignal.com
1P_JAR, AID, APISID, CONSENT, DSID, HSID, IDE, NID, OGP, OGPC, OTZ, SAPISID, SID, SIDCC, SSID, TAID, ___tg_vis, ___tg_vis_sec, __gads, __qca, __uis, cX_P, opti-position, opti-userid
act, c_user, datr, fr, locale, pl, sb, wd, xs
_OneSignal_session, __cfduid, _ga, _gid, intercom-id

Cerrar