Expertos de alto nivel de Google, OpenAI y Anthropic aseguran que la IA "podría causar la extinción humana"
La declaración, que ha sido publicada por la organización sin ánimo de lucro estadounidense, Centro para la Seguridad de la IA, que trabaja para reducir los riesgos a escala social asociados a la IA, fue firmada por ejecutivos y especialistas reconocidos en el campo, como por ejemplo Sam Altman, Demis Hassabis y Dario Amodei.

Afrontar el "riesgo de extinción" que plantea la inteligencia artificial debería ser una prioridad mundial al mismo nivel que evitar catástrofes como la guerra nuclear, advirtió el martes un grupo de líderes y expertos en tecnología, "Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear", reza la declaración de una sola frase.

La declaración ha sido publicada por la organización sin ánimo de lucro estadounidense, Centro para la Seguridad de la IA, que trabaja para reducir los riesgos a escala social asociados a la IA mediante la realización de investigaciones sobre seguridad y la defensa de normas de seguridad.

Inteligencia artificial Salud Mental

La carta ha sido firmada por un gran número de ejecutivos y expertos de alto nivel que trabajan en este campo, como Sam Altman, Demis Hassabis y Dario Amodei, respectivamente, directores ejecutivos de OpenAI -que creó el bot ChatGPT-, Google DeepMind y Anthropic.

Entre los demás firmantes se encuentran especialistas de empresas como Google y Microsoft, así como respetados informáticos como Yoshua Bengio y Geoffrey Hinton, ambos considerados pioneros en este campo y cuyo trabajo ha hecho posibles algunas de las aplicaciones que se están desplegando hoy en día.

Ejecutivos de Meta, un actor fuerte en la IA y la empresa matriz de Facebook, WhatsApp e Instagram, no han firmado la declaración, dijo el Centro para la Seguridad de la IA.

 

"Mitigar el riesgo de extinción de la IA requerirá una acción global similar a la utilizada para mitigar el riesgo de una guerra nuclear", dijo Dan Hendrycks, director del Centro para la Seguridad de la IA, subrayando que se necesitará un nivel similar de esfuerzo y coordinación para abordar adecuadamente los futuros riesgos de la IA.

"No es demasiado pronto para poner guardarraíles y crear instituciones para que los riesgos de la IA no nos agarren desprevenidos", afirmó Hendrycks en una declaración que acompañaba a la advertencia de 22 palabras. Hendrycks dijo que la creciente preocupación de la sociedad por los impactos potenciales de la IA recuerda a lo que ocurrió en los primeros días de la energía nuclear y que "necesitamos tener las conversaciones que los científicos nucleares tenían antes de la creación de la bomba atómica". 

 

Aunque es importante que abordemos los problemas acuciantes que ya plantean los sistemas de IA -entre ellos, que se utilicen para difundir información errónea o eliminar millones de puestos de trabajo- Hendrycks afirmó que es importante que "la industria de la IA y los gobiernos de todo el mundo... afronten seriamente el riesgo de que la IA futura pueda suponer una amenaza para la existencia humana".

La escueta declaración es la última de varias advertencias de alto nivel de líderes de la sociedad civil, el mundo académico y la industria para alertar sobre los riesgos potenciales que plantea la IA, incluida una carta firmada por personajes de la talla de Elon Musk y Steve Wozniak en la que se pide una pausa de seis meses para hacer balance de los riesgos que plantea la IA. 

Aunque muchos de los firmantes llevan muchos años hablando del riesgo existencial de la IA -entre ellos el cofundador de Skype Jaan Tallinn y el aclamado físico británico Martin Rees-, el despliegue generalizado de sistemas de IA generativa como ChatGPT ha añadido urgencia al debate, sobre todo porque las empresas compiten por desarrollar, construir y desplegar mejores sistemas más rápido que sus rivales.

Contra

Pocos familiarizados con este campo afirmarán que no existen riesgos asociados a la IA y muchos de ellos, incluido el riesgo de exacerbar los prejuicios y desigualdades existentes, promover la desinformación, perturbar la política y trastocar la economía y el mercado laboral, ya se están dejando sentir. 

Sin embargo, hay menos acuerdo sobre si los sistemas de IA llegarán algún día a amenazar la supervivencia misma de la humanidad. 

Tales amenazas, conocidas como riesgos existenciales, abarcan un amplio abanico que va desde amenazas más tangibles como la guerra nuclear, el impacto de asteroides, el cambio climático y las pandemias hasta cosas más esotéricas como un ataque de extraterrestres o una nanotecnología desbocada. 

Los partidarios de clasificar la IA como un riesgo existencial varían en los detalles que aportan a su razonamiento y gran parte es, necesariamente, especulativa. Otros afirman que tal postura es irresponsable e ignora de hecho problemas actuales muy reales a expensas de un problema futuro especulativo. Aunque las capacidades de los sistemas de IA son cada vez mayores, muchos señalan su incapacidad general para realizar incluso tareas sencillas como razón para descartar la IA como amenaza existencial.

 

Nota publicada en Forbes US.