Conecta con nosotros

Noticias

OpenAI confirma el uso de ChatGPT para crear malware

Publicado

el

ChatGPT para crear malware

El uso de ChatGPT para crear malware fue denunciado desde su lanzamiento como una de las actividades perniciosas que abusaban de la potencia del chatbot. En ámbitos de seguridad se conocía sobradamente, pero un informe reciente de OpenAI constituye la primera confirmación oficial de que se utilizan herramientas de inteligencia artificial generativa convencional para mejorar las operaciones cibernéticas ofensivas.

Poniendo en contexto lo que si nos sigues ya sabes. La última década nos ha dejado avances extraordinarios en Inteligencia Artificial. Tantos, que distintos grupos de importantes expertos pidieron una moratoria ante lo que entendían como «profundos riesgos para la sociedad y la humanidad». Pero no hubo parón para nada. Más aún, el lanzamiento al público de ChatGPT y la red neuronal más grande de su tipo, fue un punto de inflexión en el despegue de estas tecnologías. El resto de competidores también ha tirado para delante y ya hemos pasado el punto de no retorno.

ChatGPT para crear malware

OpenAI dice haber desmantelado decenas de operaciones cibernéticas maliciosas que abusaban de su chatbot para depurar y desarrollar malware, difundir información falsa, evadir la detección por los sistemas de seguridad o realizar ataques de phishing.

Los primeros signos de esa actividad fueron reportados por Proofpoint en abril , quienes sospechaban que TA547 (también conocido como «Scully Spider») estaba implementando un cargador de PowerShell escrito por IA para su carga útil final, el ladrón de información y datos Rhadamanthys. El mes pasado, los investigadores de HP Wolf informaron de una campaña a gran escala contra usuarios francesas que estaba empleando herramientas de inteligencia artificial para escribir scripts utilizados en una cadena de infección de varios pasos.

ChatGPT para crear malware

El informe de OpenAI confirma por primera vez el abuso de su IA para crear malware, presentando casos de actores de amenazas de varios países que lo aprovechan para mejorar la efectividad de sus operaciones. Los casos descritos pueden no otorgar a los ciberedelincuentes nuevas capacidades para desarrollar malware, pero constituyen una prueba de que las herramientas de IA generativa pueden hacer que las operaciones ofensivas sean más eficientes. Especialmente a los que tienen menos recursos y calificación, ayudándolos en todas las etapas, desde la planificación hasta la ejecución.

A pesar del cierre de operaciones maliciosas publicitado por OpenAI, no es difícil entender que la historia del camino conjunto de la IA y el malware va a continuar. Se han detectado casos sospechosos de malware creado por IA en ataques reales y complementarios como el uso de estas tecnologías para crear correos electrónicos de lo más convincentes para preparar las campañas de phishing y/o Ransomware. O como la conocida red de sitios falsos creada por el grupo APT mediante IA, con generadores de deepnude impulsados ​​para infectar a los visitantes con malware para robar información.

Editor en MC, MCPRO y MuyCanal. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Lo más leído