Inicio Cosas que pasan La humanidad podría ser destruida por la IA en tan solo 5...

La humanidad podría ser destruida por la IA en tan solo 5 años, advierte experto

El ritmo vertiginoso al que está avanzando esta nueva tecnología ha generado que algunos expertos en el campo comiencen a preocuparse, con vaticinios a cumplirse más pronto que tarde sobre un sombrío y distópico futuro para nuestra especie.

Eliezer Yudkowsky es un investigador estadounidense en inteligencia artificial y escritor especializado en teoría de decisiones y ética. Es mejor conocido por popularizar ideas relacionadas con la inteligencia artificial (IA) amigable, incluida la noción de que podría no haber una «alarma» que nos diga cuándo dejará de serlo.

Sus trabajos sobre la posibilidad de una explosión de una IA descontrolada influyó en el libro Superinteligencia: Caminos, Peligros, Estrategias del filósofo Nick Bostrom, publicado en 2014.

Ahora, en una entrevista concedida al medio británico The Guardian, Yudkowsky ha vaticinado que dicho descontrol podría ocurrir más pronto de lo que muchos creen.

«La dificultad radica en que la gente no se da cuenta de que solo tenemos una pequeña posibilidad de que la humanidad sobreviva», dijo el tecnopesimista. «Si me apuras y me obligas a asignar probabilidades a las cosas, tengo la sensación de que nuestro actual plazo restante se parece más a cinco años que a cincuenta. Podrían ser dos años, podrían ser diez».

Eliezer Yudkowsky.

Yudkowsky en la Universidad de Stanford en 2006

Y con «plazo restante», Yudkowsky se refiere al tiempo que nos queda hasta que enfrentemos el fin de todas las cosas causado por las máquinas, en un escenario que podría oscilar entre uno de estilo Terminator (guerra causada o impulsada por IA) y uno Matrix (civilización dependiente de una IA que se comporta como un Dios).

«No imagines un cerebro hecho por humanos en una caja», continuó el experto. «Para entender hacia dónde se dirigen las cosas, trata de imaginar una civilización alienígena que piensa mil veces más rápido que nosotros, en muchas cajas, casi demasiadas para que las desmontemos de manera factible, incluso si decidimos hacerlo».

Tratando de sacudir a la humanidad de su complacencia al respecto, Yudkowsky publicó un artículo de opinión en Time la primavera pasada donde llegó a sugerir, como última alternativa de supervivencia de la humanidad, el bombardear las granjas de computadoras donde se desarrollan y entrenan las IA.

Fuente: The Guardian. Edición: MP.