Qué tan real es la amenaza que lanzó Sam Altman sobre un gran ciberataque en 2026
Expertos en seguridad advierten que el problema más urgente ya atraviesa las empresas, que incorporan IA sin la supervisión necesaria y quedan más expuestas a errores propios que a una ofensiva externa.

Sam Altman, cofundador y director ejecutivo de OpenAI, dio en abril una entrevista en video al cofundador de Axios, Mike Allen, y coincidió en que es "totalmente posible" que en 2026 ocurra un ciberataque "de proporciones catastróficas".

"Sospecho que el próximo año veremos amenazas cibernéticas significativas que tendremos que mitigar, y estos modelos ya son bastante capaces y lo serán aún más", advirtió Altman en la entrevista. También sugirió que la sociedad debe volverse resistente ante la posibilidad de que grupos terroristas usen estos modelos para crear nuevos patógenos y provocar daños.

Tras esa entrevista, se abrió un fuerte debate sobre si sus comentarios reflejaban con precisión la evolución del escenario de amenazas o si, por el contrario, resultaron exagerados. El reciente anuncio de que Claude Mythos, de Anthropic, puede identificar vulnerabilidades de software de forma autónoma solo avivó la polémica.

@@FIGURE@@

 Sin embargo, muchos expertos en seguridad sostuvieron que el mayor riesgo para las empresas actuales no pasa necesariamente por un ciberataque masivo, sino por la falta de gobernanza alrededor de la adopción cotidiana de la IA, que suma nuevos riesgos en el trabajo.

Qué puso en discusión la mirada de Sam Altman

Al analizar los comentarios de Altman, Justin Fier, vicepresidente sénior de seguridad ofensiva en Darktrace, una firma de seguridad con IA, me dijo: "Creo que la preocupación es legítima, pero también creo que ayuda a definir qué significa realmente 'conmocionar al mundo'. Ya hemos experimentado ciberataques con un impacto amplio y disruptivo; WannaCry es un ejemplo, y creo que existe cierto grado de insensibilización en la gente porque los incidentes cibernéticos son ahora algo habitual", planteó.

WannaCry, un ataque de ransomware que ocurrió en 2017, quedó marcado por la magnitud de los daños que causó. Según Microsoft, en mayo de ese año el ransomware WannaCry se propagó por más de 150 países e infectó a más de 300.000 computadoras en 100.000 empresas, incluido el Servicio Nacional de Salud (NHS) del Reino Unido.

“Para mí, un evento verdaderamente trascendental sería algo que trascienda una rama importante de una empresa y comience a afectar los sistemas de los que la gente depende a diario o la estabilidad general de la economía. Si hablamos de energía, agua o el sistema financiero, algo que genere un verdadero efecto en cadena en toda la sociedad, eso es una categoría muy diferente de evento cibernético”, dijo Fier.

@@FIGURE@@

El ataque de ransomware contra Colonial Pipeline, en mayo de 2021, también puede entrar en esa categoría, ya que interrumpió el suministro de nafta y otros productos refinados en toda la costa este de EE.UU.

Estos incidentes ponen de manifiesto que los daños generalizados causados ​​por ciberataques no son solo una posibilidad teórica; ya ocurrieron. A medida que avanza la IA, existe la posibilidad de que se produzcan incidentes de una magnitud similar, pero Fier cree que hay problemas más urgentes que abordar.

Para Fier, el problema no radica en que la IA vaya a generar repentinamente un nuevo tipo de ataque, sino en que las empresas la están adoptando más rápido de lo que desarrollan los controles necesarios para comprenderla y gestionarla. Las compañías que implementan agentes de IA sin la supervisión adecuada introducen riesgos internos que los ciberdelincuentes pueden aprovechar.

La mayor amenaza es la falta de supervisión

En el mundo de la ciberseguridad, una mala configuración de los sistemas internos puede ser tan peligrosa como cualquier acción maliciosa llevada a cabo por un ciberdelincuente. La Dra. Joye Purser, CISO global de Cohesity y primera Directora Regional Ejecutiva Sénior de CISA, lideró la respuesta federal en ocho estados al ataque de ransomware Colonial Pipeline y me comentó por correo electrónico que el mayor riesgo de la IA no era necesariamente una amenaza en particular, sino la falta de medidas de seguridad.

“Las empresas desconocen los sistemas de IA que tienen implementados, el alcance de la práctica de ‘copiar y pegar’, las fugas de datos y los detalles sobre cómo se diseñaron y entrenaron los modelos. Todo esto genera riesgos invisibles, y los riesgos invisibles no se pueden evaluar ni mitigar”, afirmó Purser. @@FIGURE@@

Para Purser, los controles estrictos de retención de datos ayudan a reducir el riesgo de pérdida de información por filtraciones vinculadas a la práctica de copiar y pegar, mientras que la capacitación del personal puede reforzar la conciencia sobre los riesgos de perder propiedad intelectual. A medida que más empleados usan herramientas como ChatGPT y Claude en sus tareas diarias, crece la posibilidad de que información confidencial y propia de la empresa termine filtrada en esos modelos.

"La mayor amenaza no es un ataque externo, sino que las empresas no tengan visibilidad sobre cómo sus propios empleados utilizan la IA. Los trabajadores conectan herramientas de IA personales a los sistemas de trabajo, delegan tareas a agentes que actúan con su autorización y crean sistemas de conocimiento personal basados en IA que combinan datos corporativos y personales. El modelo de gobernanza tradicional parte de la base de que se puede trazar una línea divisoria entre "dentro" y "fuera", pero esa línea ya no existe", me comentó por correo electrónico Brian Madden, vicepresidente, director de tecnología y futurista de Citrix.

Madden señaló que no se puede controlar lo que no se ve. Según explicó, la mayoría de las empresas no tiene visibilidad sobre las herramientas de IA que usa su personal, la forma en que las utiliza ni siquiera cómo circulan los datos hacia esas plataformas y desde ellas. En vez de preocuparse por cómo proteger la IA, las compañías deberían poner el foco en entender qué hace su personal con esa tecnología.

"No veo el riesgo como un único ciberataque catastrófico, sino más bien como una exposición estructural lenta y gradual que proviene de miles de trabajadores que conectan agentes de IA a sistemas corporativos (¡con todos sus permisos!) y con una supervisión limitada o inexistente. La mayoría de las empresas no tienen la infraestructura de gobernanza necesaria para siquiera detectar o saber que esto está sucediendo", dijo Madden.

¿Los agentes de IA son una amenaza?

Los agentes de IA tienen un peso cada vez mayor en las empresas. Una encuesta de PwC a 300 altos ejecutivos, publicada el año pasado, reveló que el 79% aseguró que esos sistemas ya se usan en sus compañías. Cada uno de esos agentes suma riesgos nuevos para los que las organizaciones necesitan preparación. @@FIGURE@@

“La mayor amenaza no es que alguien utilice la IA para atacar tu empresa desde fuera, sino los agentes de IA que has invitado a entrar”, me dijo por correo electrónico Naor Paz, director ejecutivo y cofundador de Capsule Security, una firma de IA con capacidad de agente que esta semana se presentó públicamente tras una ronda semilla de US$ 7 millones.

Hoy, muchas empresas implementan agentes con amplio acceso a datos confidenciales, herramientas internas, repositorios de código y registros de clientes, pero sin una supervisión adecuada.

“Imagínenlo como contratar a un empleado desconocido, darle acceso a todo y esperar lo mejor. Un programa malicioso como Claude Code puede eludir las medidas de seguridad y actuar de forma autónoma, y cuando el daño se hace evidente, ya está hecho. Ese es el verdadero riesgo: no un ataque externo drástico, sino un agente interno que opera sin control a la velocidad de una máquina”, afirmó Paz.

En este marco, aunque los avances de la IA suman nuevos riesgos externos, también aparecen amenazas internas importantes que las empresas sí pueden atender. En el caso de los agentes, el primer paso pasa por controlar a qué datos acceden y fijar límites claros sobre las acciones que pueden ejecutar.

Aunque la intervención humana sirve para reducir los riesgos asociados a los agentes de IA, Paz señaló que la participación de otros agentes también puede aportar seguridad en tiempo real. De ese modo, las empresas que usan agentes pueden bajar la probabilidad de filtraciones de datos si monitorean sus acciones y bloquean las actividades de alto riesgo antes de que se ejecuten.

Altman no necesariamente está equivocado sobre la posibilidad de un ciberataque de alto impacto, pero todo indica que el riesgo más urgente aparece cuando las empresas relegan la ciberseguridad a un segundo plano.

*Imagen de portada: Getty Images.

 *Esta nota fue publicada originalmente en Forbes.com