El auge de los chatbots de IA maliciosos: los actores de amenazas adoptan los «hackbots»

La ola de popularidad de la inteligencia artificial ha abrumado tanto a quienes tienen buenas intenciones como a quienes tienen intenciones que pueden ser más siniestras. Los especialistas en seguridad hacen sonar la alarma y señalan que el uso de este tipo de modelos, la generación de textos maliciosos o "hackbots", es ahora famoso entre los actores de amenazas. Ha alcanzado el nivel de un servicio llave en mano en servicios basados ​​en suscripción.

Los ciberdelincuentes aprovechan las herramientas de inteligencia artificial

Por un lado, los expertos en ciberseguridad se dieron cuenta rápidamente del potencial de las herramientas basadas en IA para proteger mejor sus sistemas. Los actores de amenazas también han mostrado el mismo entusiasmo por utilizar estas tecnologías para explotar las brechas de seguridad dejadas por los atacantes. En los últimos años, ha habido un aumento exponencial en la cantidad de aplicaciones de IA utilizadas por actores maliciosos, lo que ha hecho que los equipos de seguridad se centren en un enfoque suficiente para acabar con las amenazas relacionadas con la IA.

Por otro lado, los especialistas británicos en ciberseguridad también han señalado a la inteligencia artificial como un nuevo riesgo emergente que involucra aguas inexploradas y su naturaleza en constante cambio. El NCSC predice que 2024, el primer trimestre, será el más grande y superará con éxito los récords de 2022 y 2023. Asimismo, delincuentes astutos han utilizado patrones de lenguaje para la ingeniería social, lo que requirió que las celebridades fueran insertadas en un entorno de video o audio usando esquemas de phishing. o dispositivos de reconocimiento de voz. Vascut Jakkal, vicepresidente de seguridad de Microsoft Corporation, asistió a la Conferencia RSA 2024. El problema no es el deterioro de estas herramientas sino su disponibilidad cada vez mayor y generalizada para descifrar contraseñas, lo que está ligado a 10 veces el crecimiento de la identidad de las amenazas relacionadas con las computadoras. . ataques.

Algunos expertos también han llegado a la conclusión de que los chatbots utilizan una frase única para desarrollar activamente malware. De hecho, servicios disponibles públicamente como ChatGPT y Gemini han implementado salvaguardas para evitar su uso indebido con fines maliciosos. Sin embargo, los piratas informáticos han logrado eludir muchas protecciones mediante técnicas de ingeniería sofisticadas y oportunas.

Hackbot-as-a-service: la tendencia creciente del cibercrimen

Según estudios recientes, los modelos de lenguaje públicamente visibles normalmente no logran abusar de las debilidades de seguridad del software. Sin embargo, sólo el GPT-4 de OpenAI mostró características prometedoras, ya que podía producir ejecutables para fallas conocidas. Es probable que las restricciones anteriores hayan favorecido la producción de prototipos de chatbot maliciosos diseñados para ayudar a los perpetradores de delitos cibernéticos a llevar a cabo sus actividades maliciosas.

Se anuncian en foros y mercados de la web oscura, que ofrecen el poder de contratar y explotar atacantes, alimentando un modelo de hackbot como servicio. Una de las publicaciones de blog recientes publicadas por el equipo de Trustwave SpiderLabs en agosto de 2023 ilustra el creciente volumen de patrones de lenguaje maliciosos alojados en múltiples foros de mensajes web ocultos con fines de lucro.

Trustwave lanzó el patrón WormGPT en junio de 2021, uno de los patrones de lenguaje maliciosos conocidos de estos piratas informáticos. Este enfoque puede ocurrir en equipos donde los bots inyectan ataques cibernéticos desde instalaciones de piratería alojadas en la web oscura. FraudGPT, generado en julio de 2023, fue descubierto por primera vez por investigadores de amenazas de Netenrich antes de llegar a Telegram.

Estas herramientas permiten a los atacantes diseñar activos utilizados en ataques de ingeniería social, como correos electrónicos de phishing, deepfakes y clonación de voz. Sin embargo, sus creadores afirman que su verdadero valor reside en explotar las vulnerabilidades. Permiten a los piratas informáticos inyectar código sobre vulnerabilidades específicas en estas plantillas maliciosas, lo que en teoría podría producir varios exploits de prueba de concepto (PoC) para que los pruebe un atacante.

Estos productos se venden en mercados encubiertos en la web oscura, donde a los piratas informáticos se les cobra una tarifa de licencia mensual para usar el hackbot, al igual que el ransomware se implementa en el modelo de ransomware como servicio (raas), que está directamente vinculado a un complejo de ransomware. que muchas empresas enfrentan hoy en día.

Aunque WormGPT es el primer patrón de lenguaje malicioso a gran escala introducido, pronto le siguieron otros patrones de lenguaje maliciosos y poco éticos, como BlackHatGPT, XXXGPT y WolfGPT, formando un nuevo segmento de mercado del mercado negro cibernético.

La eficacia de los hackbots: ¿publicidad o amenaza real?

En contraste con la investigación realizada por Trustwave, que se realizó para probar la eficiencia de las herramientas recomendadas comparando sus resultados con los generados por chatbots legítimos, los resultados indicaron que ChatGPT en realidad podría crear malware Python con las herramientas adecuadas. señales. Para hacer esto, se tuvo que enviar el mensaje al problema indicando que el código era de sombrero blanco antes de la implementación y que la salida del código también necesitaba modificaciones adicionales.

ChatGPT puede transmitir mensajes de texto reales para ataques de phishing, pero el comando de instrucción debe ser muy específico a este efecto. ChatGPT generalmente confiará en esto solo cuando los usuarios soliciten algo incorrecto. Por esta razón, estos chatbots pueden verse como un método más fácil para que los ciberdelincuentes o la IA ataquen a los usuarios del chat en lugar de trabajar tediosamente para crear una página o malware.

Si bien esta industria es nueva y las amenazas siguen cambiando constantemente, las empresas deben ser realmente conscientes de sus niveles actuales de protección. Se puede abusar del contenido y las características culturales que inundan los sistemas de IA para crear una brecha de desinformación que solo puede cerrarse mediante la creación de programas de seguridad de IA y herramientas de gestión de identidad más sólidos.

La legitimidad de las soluciones al creciente problema sigue siendo un tema de debate. Sin embargo, las recientes cepas de ransomware han demostrado que los ciberdelincuentes pueden igualar, si no superar, la velocidad de desarrollo de los desarrolladores de software.