Los grupos de hackers más temidos del mundo han encontrado un nuevo aliado en ChatGPT

Hackers usan IA como ChatGPT para mejorar ciberataques, revela investigación de Microsoft y OpenAI.

La utilización de ChatGPT y otras aplicaciones impulsadas por la inteligencia artificial con fines maliciosos no es algo nuevo. Sin embargo, Microsoft y OpenAI han compartido una investigación que revela cómo los principales grupos de hackers afiliados a Rusia, China, Irán y Corea del Norte están aprovechando estas herramientas para mejorar sus ciberataques.

Según ambas compañías, los piratas informáticos emplean ChatGPT y modelos de lenguaje de gran tamaño (LLM) como “herramientas de productividad” para idear nuevos ataques. Aunque los investigadores no han identificado técnicas de abuso únicas impulsadas por IA, han notado un aumento en el interés por las utilidades de OpenAI para aplicaciones maliciosas.

Microsoft explicó: “Los grupos cibercriminales, las amenazas vinculadas con estados nación y otros adversarios están explorando y probando diferentes tecnologías de inteligencia artificial para comprender el valor potencial de sus operaciones y los controles de seguridad que posiblemente deban evadir”.

Por su parte, OpenAI detectó que cinco grupos de hackers estaban utilizando sus herramientas de manera ilícita. Dos de ellos tenían vínculos con el gobierno chino, mientras que los demás estaban asociados con Rusia, Corea del Norte e Irán. La compañía no solo identificó las cuentas que accedían a ChatGPT, sino que también las inhabilitó.

Durante la investigación, se observó que los hackers empleaban ChatGPT para diversas tareas, como traducción de documentos, programación, búsqueda de errores en código y generación de contenido para campañas de phishing. Además, se detectaron usos más específicos.

Por ejemplo, el grupo iraní CURIUM usó herramientas basadas en IA para obtener información sobre ingeniería social y estudiar cómo el software malicioso podría evadir la detección. Los hackers rusos de STRONTIUM aprovecharon ChatGPT para recopilar datos sobre protocolos satelitales y tecnologías de imágenes de radar. Mientras tanto, los norcoreanos de THALLIUM usaron la inteligencia artificial de OpenAI para identificar organizaciones y expertos en Defensa de la región Asia-Pacífico.

Los grupos CHROMIUM y SODIUM de China utilizaron ChatGPT para investigar programas de ciberseguridad, traducir documentos técnicos y recopilar información pública de agencias de inteligencia, entre otras actividades.

Si bien ChatGPT y otras aplicaciones similares no pueden desarrollar malware por sí solas, siguen siendo atractivas para los hackers, ya que automatizan o simplifican tareas que pueden optimizar los ciberataques. Aunque GPT-4 solo ofrece “capacidades incrementales limitadas” a los ciberdelincuentes, es importante estar alerta, ya que el soporte lingüístico de los LLM resulta atractivo para actores maliciosos que se enfocan en técnicas de ingeniería social y comunicaciones engañosas adaptadas a sus objetivos.

¿Cuál es tu reacción?
+1
0
+1
0
+1
0
+1
0
+1
0
Total
0
Shares
Publicación anterior

Windows 11 optimizará tus experiencias de juego mediante el aprovechamiento de la inteligencia artificial, tal como el DLSS de NVIDIA.

Siguiente Publicación

¿Se puede interpretar el número de devoluciones de las Vision Pro como un indicador de fracaso del dispositivo?

Publicaciones Relacionadas