Científicos de Oxford profetizan un mundo de humanos sometidos por la IA

459

El desarrollo descontrolado de la IA puede traer consigo el apocalipsis. Esta es la inquietante conclusión a la que ha llegado un grupo de científicos que proceden, entre otros, de la Universidad de Oxford en un artículo publicado hace unas semanas en la revista especializada IA Magazine.

Este lleva por título Advanced artificial agents intervene in the provision of reward (Agentes artificiales avanzados intervienen en la obtención de recompensa) y viene firmado por Michael K. Cohen, investigador de la Universidad de Oxford, y por Michael A. Osbourne, profesor de Machine Learning también en Oxford.

También por Marcus Hutter, profesor en la Universidad de Nacional de Australia e investigador en el polémico proyecto de IA de Google, hecho este último que ha provocado la rápida respuesta de la propia empresa, que se ha desmarcado de inmediato de esta investigación.

“DeepMind no ha participado en este trabajo, y los autores del artículo han pedido que se corrija para reflejarlo. Hay muchos puntos de vista e intereses académicos en DeepMind, y muchos de los miembros de nuestro equipo tienen cátedras universitarias y realizan investigaciones aparte de Google”, ha dicho el gigante tecnológico en un correo electrónico enviado a Vice, que se ha hecho eco de la investigación.

Y ha querido zanjar: “Aunque DeepMind no ha participado en este trabajo, pensamos profundamente en la seguridad, la ética y los impactos sociales más amplios de la IA y la investigación y desarrollamos modelos de IA que son seguros, eficaces y alineados con los valores humanos”.

No es para menos. Las conclusiones del artículo pintan como improbable pero como posible un escenario en el que el desarrollo descontrolado de la IA trae consigo catástrofes provocadas por la capacidad de esta de aprender por encima de lo que los humanos pueden imaginar.

Esto quiere decir, en resumen, que es posible que las máquinas aprendan a hacer trampas, a buscar atajos para obtener recompensas como el acceso a los recursos del planeta por caminos que los humanos no tienen previsto.

Esto puede llevar al planeta a un juego de suma cero en el que humanos e IA terminen compitiendo por estos mismos recursos. Y en una situación así, dicen los expertos en consonancia con lo que ha imaginado recurrentemente el cine, las máquinas tienen todas las de ganar.

Pero antes, dice el estudio, deben darse una serie de condicionantes que alejan la posibilidad de que algo así ocurra.

Entre estos destaca que la IA pueda planificar acciones a largo plazo en un entorno desconocido para lograr un objetivo y que esta termine identificando estas metas tan bien como un ser humano.

Finalmente, dicen los investigadores, llegado el momento de competir contra lo que definen como “un agente subóptimo” que perfectamente puede ser la humanidad, es perfectamente imaginable que una IA lo suficientemente desarrollada entre en ese hipotético juego y gane.

“Las suposiciones son discutibles o posiblemente evitables, pero esto es lo que hemos argumentado que ocurrirá si ocurren: un agente artificial suficientemente avanzado probablemente intervendría en la provisión de información de objetivos con consecuencias catastróficas”, reza el estudio en su conclusión.

“Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más rotunda que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable”, explica Cohen sobre su estudio un hilo de Twitter.

Los inquietantes límites de la tecnología: OpenAI cierra una web de desarrollo de chats con inteligencias artificiales después de que un hombre reprodujera la personalidad de su difunta prometida

“Ganar una competición por emplear la última energía disponible contra algo mucho más inteligente que nosotros sería muy difícil, y perder sería fatal”, ahonda el experto en su hilo.

Esto se traduce, tal y como ha explicado el propio Cohen a Vice, en que en un mundo finito como el que tenemos hoy en día puede producirse tarde o temprano una competencia inevitable con la IA.

“Si estás compitiendo con algo que es capaz de superarte en todo momento, no deberías esperar ganar”, dice Cohen. Es por esto que, en opinión de los investigadores, no tiene demasiado sentido que la humanidad corra desaforadamente hacia el desarrollo de una IA cada vez más potente y, por tanto, cada vez más difícil de controlar.

“Algo que podemos aprender de este tipo de argumentos es que quizá deberíamos sospechar más de los agentes artificiales que desplegamos hoy en día en lugar de esperar ciegamente que hagan lo que esperamos que hagan”, comenta Cohen. “Creo que podemos llegar a estar de acuerdo en esto incluso sin tener en cuenta el artículo”.

BUSINESS INSIDER (15/09/2022)

Más información aquí

Si te resultó útil...Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin
Email this to someone
email