Google detiene hackers que usan modelos de lenguaje IA para descubrir vulnerabilidades: Nueva ola de ataques cibernéticos
Ante esta amenaza, compañías como Anthropic y OpenAI han restringido el acceso a sus herramientas más potentes, reservándolas únicamente para expertos en ciberseguridad que protegen infraestructuras críticas.
Google reveló recientemente que logró interrumpir el intento de un grupo criminal de utilizar inteligencia artificial para explotar una vulnerabilidad digital previamente desconocida en otra empresa.
Este suceso marca un hito crítico en la seguridad informática global, confirmando los temores de los expertos sobre piratas informáticos que se arman con modelos de lenguaje de IA para potenciar sus ataques. John Hultquist, analista de inteligencia de amenazas en Google, fue tajante al respecto:
"La era de las vulnerabilidades y la explotación impulsadas por IA ya está aquí".
- Te recomendamos ¿La competencia a Duolingo? La nueva función de Google Translate que mejorarán tu pronunciación con IA para aprender idiomas Tecnología
El peligro de los ataques "día cero" impulsados por IA
El ataque detectado fue calificado como un evento de "día cero", lo que significa que los ingenieros de seguridad tenían cero días para corregir la falla antes de que fuera descubierta por los atacantes. En este caso, la vulnerabilidad permitía a los criminales eludir la autenticación de dos factores para acceder a una herramienta de administración de sistemas en línea.
Lo que distingue a este incidente es que Google encontró indicios claros de que los hackers utilizaron un modelo de lenguaje grande (LLM) similar a la tecnología de los chatbots para identificar el fallo de seguridad.
Hultquist explicó que la IA otorga a los criminales una "tremenda capacidad de velocidad" para convertir fallos en armas, lo que genera una carrera contra el tiempo para los defensores.
- Te recomendamos Irán amenaza a EU con ataques a Microsoft, Google y Apple Internacional
Postura política y la regulación de la inteligencia artificial bajo el gobierno de Trump
Este incidente ocurre en un clima de incertidumbre política en Estados Unidos. El gobierno del presidente Donald Trump ha cumplido su promesa de derogar las salvaguardas establecidas por la administración de Joe Biden, pero ahora enfrenta señales contradictorias internas sobre la necesidad de supervisión estatal.
Dean Ball, investigador de la Foundation for American Innovation y exasesor de Trump, refleja esta tensión:
"No me gusta la regulación... Pero creo que en este caso necesitamos hacerlo".
Aunque el gobierno republicano muestra resistencia a intervenir, ha comenzado a buscar acuerdos con empresas como Google, Microsoft y xAI para evaluar los modelos más potentes antes de su lanzamiento, reconociendo que los riesgos para la seguridad nacional son reales.
- Te recomendamos Riesgo principal con IA en Nuevo León no es el fraude, sino ataques a sistemas Comunidad
Modelos como Anthropic Mythos y el futuro de la ciberseguridad
La industria privada también está en alerta. El modelo Mythos de Anthropic ha causado pánico por sus capacidades avanzadas en tareas de hackeo, lo que llevó a la creación de "Project Glasswing" para proteger software crítico junto a gigantes como Apple y Amazon. Por su parte, OpenAI ha lanzado versiones especializadas de ChatGPT solo para "defensores responsables".
A pesar de los avances defensivos, Ball advierte que nos encontramos en un "periodo de transición" peligroso, ya que existen incontables líneas de código vulnerables que la IA puede explotar mucho antes de que el software sea reforzado.
- Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de TELEDIARIO; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
-