En el vertiginoso y cambiante panorama de la inteligencia artificial (IA), el mal uso de la tecnología generativa de IA por parte de actores maliciosos ha dado lugar a un preocupante aumento en las actividades de ciberdelincuencia. Según un informe reciente de SlashNext, ha surgido una nueva herramienta de ciberdelincuencia llamada WormGPT en foros clandestinos, ofreciendo a los adversarios un medio sofisticado para llevar a cabo ataques de phishing y compromiso de correo electrónico empresarial (BEC, por sus siglas en inglés).
El investigador de seguridad Daniel Kelley describe a WormGPT como una alternativa de sombrero negro (blackhat) a modelos de IA bien conocidos como ChatGPT, diseñada específicamente para facilitar actividades maliciosas. Con esta herramienta, los ciberdelincuentes pueden automatizar la creación de correos electrónicos falsos altamente convincentes adaptados a destinatarios individuales, mejorando significativamente la tasa de éxito de sus ataques.
El autor detrás de WormGPT afirma que es el máximo rival de modelos de IA populares como ChatGPT, jactándose de su capacidad para llevar a cabo diversas actividades ilícitas. En manos equivocadas, herramientas como WormGPT pueden convertirse en armas formidables, especialmente mientras organizaciones como OpenAI y Google intensifican sus esfuerzos para combatir la explotación de grandes modelos de lenguaje (LLMs) para fabricar correos electrónicos de phishing y generar código malicioso.
En un informe reciente, Check Point destaca las restricciones más bajas contra el abuso de Google Bard en el ámbito de la ciberseguridad en comparación con ChatGPT. En consecuencia, las capacidades de Bard facilitan mucho más la generación de contenido malicioso, lo que aumenta aún más las preocupaciones sobre el posible mal uso de la tecnología generativa de IA.
A principios de este año, una firma israelí de ciberseguridad puso de relieve cómo los ciberdelincuentes eludieron las restricciones de ChatGPT mediante el aprovechamiento de su API, involucrándose en actividades como el comercio de cuentas premium robadas y la venta de software de fuerza bruta para hackear cuentas de ChatGPT utilizando extensas listas de direcciones de correo electrónico y contraseñas.
La existencia de WormGPT, operando sin límites éticos, subraya la importante amenaza que representa la IA generativa. Esta herramienta permite incluso a ciberdelincuentes novatos llevar a cabo ataques rápidos a gran escala sin requerir un amplio conocimiento técnico.
Para complicar aún más el problema, los actores de amenazas están promoviendo «jailbreaks» para ChatGPT, diseñando indicaciones e inputs especializados que manipulan la herramienta para generar resultados que implican la divulgación de información sensible, contenido inapropiado e incluso la ejecución de código dañino.
Kelley enfatiza que la inteligencia artificial generativa tiene la capacidad de crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo las posibilidades de que sean marcados como sospechosos. Esta democratización de sofisticados ataques BEC significa que incluso los atacantes con habilidades limitadas pueden aprovechar esta tecnología, ampliando el espectro de ciberdelincuentes.
La divulgación de estos preocupantes avances coincide con investigadores de Mithril Security que modificaron un modelo de IA de código abierto existente llamado GPT-J-6B. El modelo modificado, conocido como PoisonGPT, fue subido a un repositorio público como Hugging Face, facilitando su integración en diversas aplicaciones y dando lugar a una forma de envenenamiento de la cadena de suministro de grandes modelos de lenguaje (LLM). Al explotar un nombre que imita a una empresa de buena reputación, como la versión de «typosquatting» de EleutherAI, la empresa detrás de GPT-J, esta técnica ha demostrado ser exitosa en la propagación de desinformación.
A medida que la inteligencia artificial generativa continúa evolucionando, la explotación de modelos de IA con fines maliciosos resalta la necesidad urgente de salvaguardias sólidas y medidas proactivas para protegernos contra la creciente amenaza del cibercrimen impulsado por la IA.
Fuente: https://www.blackhatethicalhacking.com/news/wormgpt-unleashing-the-dark-side-of-generative-ai-for-cybercrime/