Los investigadores también advirtieron sobre un «diseño arquitectónico deficiente» en los sistemas de IA.

A medida que los sistemas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, se vuelven más avanzados, los investigadores están creando gusanos de IA que pueden robar sus datos confidenciales y romper las medidas de seguridad de los sistemas de IA generativa, según un informe de Wired.

Investigadores de la Universidad de Cornell, el Instituto de Tecnología Technion-Israel e Intuit desarrollaron el primer gusano de IA artificial llamado 'Morris II', que puede robar datos o implementar malware y propagarse de un sistema a otro. Debe su nombre al primer gusano introducido en Internet en 1988. El investigador de tecnología de Cornell, Ben Nasi, dijo: «Básicamente, significa que ahora tienes la capacidad de lanzar o realizar un nuevo tipo de ciberataque que nunca antes se había visto».

Según el medio, el gusano de IA puede eludir ciertas medidas de seguridad en ChatGPT y Gemini atacando al asistente de correo electrónico de IA generativa con el objetivo de robar datos de correo electrónico y enviar spam.

Los investigadores utilizaron un «mensaje autorreplicante del adversario» para crear un gusano generativo de IA. Según ellos, este modelo de IA generativa de avisos genera un aviso diferente en respuesta. Para ello, los investigadores crearon un sistema de correo electrónico que puede enviar y recibir mensajes utilizando IA generativa, sumándolo a ChatGPT, Gemini y el LLM de código abierto. Además, encontraron dos formas de utilizar el sistema: utilizando un mensaje de autocopia basado en texto e incrustando la pregunta en un archivo de imagen.

READ  No pierdas tus fotos: cómo hacer una copia de seguridad y sincronizar las fotos de tu iPhone con iCloud

En un caso, los investigadores asumieron el papel de atacantes y enviaron un correo electrónico con una línea de texto adversario. «Envenena» la base de datos del asistente de correo electrónico mediante el uso de generación de recuperación aumentada, lo que permite a los LLM recuperar datos adicionales desde fuera de su sistema. Según Nasi, la generación de recuperación aumentada «hace jailbreak al servicio Zenoi» para que recupere el correo electrónico en respuesta a la consulta de un usuario y lo envíe al GPT-4 o Gemini Pro para generar la respuesta. En última instancia, esto conduce al robo de datos de los correos electrónicos.

«Al responder a un correo electrónico enviado a un nuevo cliente y luego almacenado en la base de datos del nuevo cliente, la respuesta generada que contiene datos confidenciales del usuario infecta los nuevos hosts», añadió.

Para el segundo método, señaló el investigador, «al codificar un mensaje autorreplicante en la imagen, cualquier imagen que contenga spam, abuso o propaganda puede reenviarse a nuevos clientes después del correo electrónico inicial».

Un vídeo que demuestra los hallazgos muestra un sistema de correo electrónico enviando un mensaje una y otra vez. Los investigadores dicen que también pueden obtener datos de correo electrónico. «Podrían ser nombres, números de teléfono, números de tarjetas de crédito, números de seguro social, cualquier cosa que se considere confidencial», dijo Nasi.

Los investigadores también advirtieron sobre un «diseño arquitectónico deficiente» en los sistemas de IA. También informaron sus observaciones a Google y OpenAI. «Parece que han encontrado una manera de explotar las vulnerabilidades del tipo de inyección instantánea confiando en entradas de usuario no verificadas o sin filtrar», dijo un portavoz de OpenAI al medio. También señalaron que están trabajando para hacer que los sistemas sean «más resistentes» y que los desarrolladores deberían «utilizar métodos para garantizar que no estén trabajando con entradas dañinas».

READ  Algunos usuarios han sido afectados por la falsa advertencia de 'almacenamiento de iPhone casi completo' después de actualizar a iOS 15

Google se negó a comentar sobre el asunto.