WormGPT, el «lado oscuro» de ChatGPT
WormGPT es un chatbot tipo ChatGPT, pero diseñado específicamente para facilitar que los ciberdelincuentes pueden realizar sus «tareas». El acceso al programa se está vendiendo en foros de la Internet Profunda y confirma la capacidad de la IA también para fines maliciosos.
Las aplicaciones de inteligencia artificial generativas han llegado al gran público de la mano de ChatGPT, el Bard de Google y las que están por llegar porque vamos a tener IA «hasta en la sopa». Y todavía sin regular como piden los expertos mundiales, en una escalada que la verdad nadie sabe cómo acabará. O sí… cuando las máquinas sean más listas que los humanos que las diseñaron y la ciencia ficción vista en pelis como Terminator se convierta en realidad.
WormGPT, el lado oscuro de la IA
El mundo de la ciberdelincuencia no es ajena a las capacidad de la IA y ha llamado la atención el desarrollo que nos ocupa. Diseccionado por SlashNext, ha sido creado utilizando el GPT-J de código abierto con módulos personalizados similares a ChatGPT, pero más potente y fácil de usar para creación de código malicioso a usar en ataques informáticos.
Si la IA generativa ya se usa en Deepfakes, fake news y spam, WormGPT va más allá y permite escribir malware en código Python y ofrece ayuda específica para ciberdelincuentes. Cuenta con una variedad de características, que incluyen soporte ilimitado de caracteres, retención de memoria de chat y capacidades de formato de código. Al igual que ChatGPT sigue aprendiendo de su red neuronal (dicen la más grande de su tipo), WormGPT ha sido entrenado para manejar una amplia gama de fuentes de datos, concentrándose particularmente en los relacionados con el malware.
Un caso de uso específico muestra el potencial de la IA generativa para refinar un correo electrónico que podría usarse en un ataque de phishing o los que ponen el objetivo en correo electrónico empresarial (BEC). Los ciberdelincuentes pueden utilizar dicha tecnología para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados para el destinatario, lo que aumenta las posibilidades de éxito del ataque.
En los foros donde se publicita este desarrollo, se muestra también como manipular interfaces como ChatGPT para generar resultados que podrían implicar la divulgación de información confidencial, la producción de contenido inapropiado o la ejecución de código malicioso.
Muy peligroso todo esto. Fortalece a los grandes ciberdelincuentes, pero capacita a otros menos especializados porque se venden los módulos personalizados para cualquier tarea. Dicen en SlashNext que la proliferación de estas prácticas subraya los crecientes desafíos para mantener la seguridad de la IA frente a los delincuentes y amplía los desafíos del ecosistema de la ciberseguridad debido a la creciente complejidad y adaptabilidad de estas actividades en un mundo moldeado por la IA.