a cell phone sitting on top of a laptop computer
innovación

OpenAI activa las alarmas: sus nuevos modelos de IA podrían ser una gran amenaza para la seguridad

En el acelerado mundo de la inteligencia artificial, cada avance viene acompañado de nuevas preguntas sobre sus implicaciones. OpenAI, una de las compañías líderes en este campo, ha decidido no solo celebrar sus logros, sino también encender las luces de advertencia. En un reciente informe compartido con medios especializados, la empresa ha reconocido que sus próximos modelos de IA podrían representar un riesgo significativo para la seguridad cibernética global. Esta advertencia no es solo para los usuarios de sus productos, sino para todos, ya que las consecuencias de un mal uso podrían extenderse mucho más allá de su ecosistema directo.

El informe detalla que los hackers, incluso aquellos sin conocimientos técnicos profundos, podrían aprovechar las capacidades avanzadas de estos modelos para ejecutar ciberataques sofisticados. Los modelos más recientes, como GPT-5 y GPT-5.1 Codex Max, cuentan con funciones que permiten realizar tareas de forma más autónoma y prolongada, lo que los hace herramientas potencialmente peligrosas en manos equivocadas. Para medir este riesgo, OpenAI realizó pruebas de ‘captura la bandera’, donde los modelos deben encontrar cadenas de texto secretas en sistemas vulnerables. Los resultados fueron preocupantes: GPT-5 logró un 27% de éxito, mientras que GPT-5.1 Codex Max alcanzó un asombroso 76%. Estos niveles de desempeño indican que la IA podría facilitar ataques más precisos y difíciles de detectar.

Pero los riesgos no se limitan al ámbito digital. OpenAI ya había alertado previamente sobre otros peligros, como cuando su modelo ChatGPT Agent recibió una clasificación ‘alta’ por riesgos relacionados con armas biológicas. Para el usuario común, esto se traduce en un posible aumento de ciberataques y estafas. Un ejemplo reciente es la aparición de una versión falsa de ChatGPT Altlas, utilizada por atacantes para robar credenciales y contraseñas. Ante este panorama, la compañía no se queda de brazos cruzados. Ha anunciado la creación de un Consejo de Riesgo Fronterizo, integrado por expertos que trabajarán para identificar y mitigar estas amenazas, buscando un equilibrio entre innovación y seguridad.

La advertencia de OpenAI es un recordatorio crucial en la era de la IA: el progreso tecnológico debe ir de la mano con la responsabilidad. Mientras la inteligencia artificial continúa evolucionando, es esencial que tanto las empresas como los usuarios estemos atentos a sus posibles usos malintencionados. La transparencia y la colaboración, como la que promueve OpenAI con su nuevo consejo, son pasos vitales para construir un futuro digital más seguro. Al final, la pregunta no es si la IA cambiará nuestro mundo, sino cómo podemos guiar ese cambio para proteger lo que más valoramos.