Inicio Cosas que pasan La inteligencia artificial aniquilará a la humanidad, sostiene un nuevo documento científico

La inteligencia artificial aniquilará a la humanidad, sostiene un nuevo documento científico

Es un escenario visto en varias películas sobre futuros distópicos, pero ahora investigadores de la Universidad de Oxford han concluido que es un escenario «probable» que la IA superinteligente signifique el fin de la humanidad.

En un artículo reciente publicado en la revista AI Magazine, el equipo argumenta que las máquinas eventualmente serán incentivadas para romper las reglas que sus creadores establecieron para competir por recursos limitados o energía.

«Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más sólida que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable», dijo el coautor Michael Cohen, estudiante de ingeniería de la Universidad de Oxford.

Los investigadores argumentan que la humanidad podría enfrentar su destino en la forma de «agentes desalineados» súper avanzados que perciben que la humanidad se interpone en el camino de una recompensa.

«Una buena manera para que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y usar toda la energía disponible para asegurar su computadora», se lee en el documento. «Perder este juego sería fatal»

Cuando la creación supera al creador

Trágicamente, argumentan los autores, no hay mucho que podamos hacer al respecto.

«En un mundo con recursos infinitos, no estaría muy seguro de lo que sucedería», dijo Cohen. «En un mundo con recursos finitos, existe una competencia inevitable por estos. Y si estás en una competencia con algo capaz de ser más astuto que tú en todo momento, entonces no debes esperar ganar».

En respuesta a esta amenaza, la humanidad no tiene otra alternativa más que vigilar muy de cerca el progreso de sus tecnologías de IA, filtrando y juzgando su desarrollo en pos de mantener nuestra posición dominante.

«Una cosa que podemos aprender de este tipo de argumento es que tal vez deberíamos sospechar más de los agentes artificiales que desplegamos hoy, en lugar de simplemente esperar ciegamente que hagan lo que se espera que hagan», dijo Cohen. «Creo que cualquiera puede entender eso sin leer nuestro documento».

Solo esperemos que —como hemos visto en The Matrix (y su precuela Animatrix)— en la futura competencia por recursos las máquinas no aprendan a usar a los humanos como baterías, mientras nos sumergen en una realidad simulada…

Fuente: Motherboard. Edición: MP.

Publicidad