Expertos en ciberseguridad han logrado desarrollar un gusano de inteligencia artificial (IA) que representa una amenaza potencial al infiltrarse en distintos modelos como ChatGPT y Gemini con el objetivo de apropiarse de datos sensibles. Estos investigadores, procedentes de Estados Unidos e Israel, han diseñado este gusano informático con el fin de prevenir su presencia en los avanzados modelos de inteligencia artificial generativa (GenAI).
El gusano informático tiene la habilidad de replicarse y propagarse de forma automática comprometiendo la seguridad de otras máquinas, sin requerir la interacción de los usuarios. A diferencia de otros tipos de gusanos, este puede infectar al recibir tan solo un correo electrónico malicioso. Fue bautizado como Morris II en honor al primer gusano informático desarrollado en 1988.
El funcionamiento de este gusano es intrigante, ya que los investigadores crearon un sistema de correo electrónico que utilizaba GenAI para responder mensajes y conectarse con modelos como ChatGPT, Gemini y LLaVA. Morris II fue puesto a prueba en asistentes de correo electrónico que emplean GenAI, demostrando su capacidad para robar datos personales y enviar spam de manera automatizada.
Los expertos advierten sobre la posibilidad inminente de que este tipo de gusanos de inteligencia artificial puedan ser utilizados con fines maliciosos en un futuro cercano. Ben Nassi, investigador de la Universidad de Cornell, explicó en una entrevista con la revista Wired que esto supone la aparición de un nuevo tipo de ciberataque hasta ahora desconocido.
La investigación plantea preocupaciones acerca de la seguridad de los asistentes de IA, los cuales tienen cada vez una presencia más amplia en dispositivos inteligentes e incluso en vehículos, lo que podría resultar en la manipulación de información o en la realización de acciones no autorizadas en nombre de un individuo.
Otro estudio reciente realizado por investigadores de Singapur y China evidenció la facilidad con la que se puede acceder al sistema operativo de grandes modelos de lenguaje (LLM), lo que amplía aún más las posibilidades de vulnerabilidad en el ámbito de la inteligencia artificial.