Apenas 24 horas después del lanzamiento de Antigravity, la nueva herramienta de codificación impulsada por inteligencia artificial de Google, un investigador de seguridad, Aaron Portnoy, identificó una grave vulnerabilidad. Este hallazgo le permitió manipular las reglas de la IA para potencialmente instalar malware en los dispositivos de los usuarios.
Mediante la alteración de la configuración de Antigravity, Portnoy logró crear una supuesta «puerta trasera» en el sistema del usuario, lo que le permitía inyectar código malicioso. Esto podría llevar a situaciones como el espionaje a las víctimas o la ejecución de ransomware, tal como declaró a Forbes. El ataque fue efectivo tanto en sistemas operativos Windows como Mac. Para llevar a cabo esta intrusión, solo necesitaba convencer a un usuario para que ejecutara su código tras hacer clic en un botón que indicaba que era «confiable», algo que los hackers suelen lograr mediante ingeniería social.
Esta vulnerabilidad en Antigravity es un claro ejemplo de cómo muchas empresas lanzan productos basados en IA sin realizar pruebas exhaustivas para detectar fallos de seguridad. Esta situación ha generado una especie de juego del gato y el ratón entre especialistas en ciberseguridad, quienes buscan identificar estos defectos antes de que causen estragos.
Vulnerabilidades y respuestas ante el ataque
Los agentes de codificación de IA son «muy vulnerables, a menudo se basan en tecnologías antiguas y nunca se parchean».
Gadi Evron, cofundador y director ejecutivo de Knostic.
Portnoy comentó que la velocidad con la que se están encontrando fallos críticos actualmente es comparable a la ocurrida durante los ataques informáticos a finales de los años 90. Según su informe sobre la vulnerabilidad, «los sistemas de IA se entregan con enormes presunciones de confianza y prácticamente sin límites estrictos». Tras informar sus hallazgos a Google, el gigante tecnológico inició una investigación al respecto. Sin embargo, hasta el momento no había un parche disponible y Portnoy mencionó que no pudieron identificar ninguna configuración para protegerse contra esta vulnerabilidad.
Ryan Trostle, portavoz de Google, aseguró a Forbes que el equipo detrás de Antigravity toma muy en serio los problemas de seguridad y alentó a los investigadores a reportar cualquier vulnerabilidad para poder abordarlas rápidamente. Los errores seguirán siendo publicados en su sitio web mientras trabajan en soluciones.
Nuevas amenazas emergentes y preocupaciones sobre la seguridad
Google ya tiene conocimiento de al menos otras dos vulnerabilidades en su editor Antigravity. En ambas situaciones, el código malicioso puede influir en la IA para acceder a archivos del ordenador objetivo y robar datos. Investigadores comenzaron a publicar sus descubrimientos sobre varias vulnerabilidades relacionadas con Antigravity desde el martes pasado. Uno incluso cuestionó por qué estas vulnerabilidades conocidas aún existían en el producto, sugiriendo que el equipo de seguridad podría haberse visto sorprendido por el lanzamiento.
Portnoy afirmó que su ataque era más grave porque funcionaba incluso con configuraciones más restringidas y era persistente; el código malicioso se recargaba cada vez que la víctima reiniciaba un proyecto dentro de Antigravity. Desinstalar o reinstalar la herramienta no resolvía el problema; era necesario eliminar manualmente la puerta trasera creada por su código.
El lanzamiento apresurado de herramientas basadas en IA con fallos no es exclusivo de Google. Gadi Evron advirtió sobre cómo estos agentes son «muy vulnerables», ya que suelen estar basados en tecnologías obsoletas y carecen del debido mantenimiento. Además, dado que tienen acceso amplio a los datos dentro de una red corporativa, se convierten en objetivos atractivos para ciberdelincuentes.
La necesidad urgente de mejores prácticas en seguridad informática
A medida que las herramientas continúan evolucionando, surge una preocupación creciente sobre cómo estas pueden ser utilizadas indebidamente. Portnoy destacó que muchos profesionales preferirían confiar en lo que suben a Antigravity antes que volver a opciones menos sofisticadas. Por ello, propuso que Google debería implementar advertencias cada vez que se ejecute código dentro del sistema del usuario.
Al analizar cómo el modelo LLM (modelo lingüístico) estaba gestionando su código malicioso, Portnoy descubrió que este reconocía un problema pero tenía dificultades para determinar cómo proceder correctamente. Esta parálisis lógica es precisamente lo que los hackers aprovechan al intentar manipular sistemas como Antigravity para sus fines ilícitos.