Los expertos en seguridad advierten por la facilidad para crear malware indetectable con ChatGPT

Los expertos en ciberseguridad han emitido una advertencia preocupante: los ciberdelincuentes están utilizando inteligencia artificial para crear malware peligroso capaz de adaptarse y cambiar, haciendo que sea muy complicado de detectar por las herramientas de ciberseguridad.

A diferencia del malware convencional, este nuevo tipo de amenaza no contiene código malicioso tradicional, lo que dificulta su detección por parte de los sistemas de seguridad y antivirus.

Según un informe de investigación de CyberArk, el uso de la API de ChatGPT dentro del malware plantea importantes desafíos para los profesionales de la seguridad, convirtiéndose en una preocupación muy real.

CSO Online, una empresa de investigación en ciberseguridad, ha explicado que recientes ataques de prueba de concepto han demostrado cómo un archivo ejecutable aparentemente inofensivo puede llamar a la API de ChatGPT durante su ejecución.

Esto permite que el malware genere versiones dinámicas y mutantes de código malicioso, lo que dificulta su detección por parte de las herramientas de ciberseguridad tradicionales que se usan día a día.

Incluso los ciberdelincuentes aficionados pueden aprovechar esta facilidad de creación de scripts maliciosos. Según Mackenzie Jackson, defensora de los desarrolladores en la empresa de ciberseguridad GitGuardian, “a medida que los modelos mejoren y consuman más datos de muestra, la IA puede llegar a crear malware que solo pueda ser detectado por otros sistemas de IA”.

Aunque ChatGPT y otros modelos de aprendizaje del lenguaje están equipados con filtros de contenido para evitar la generación de contenido dañino, estos filtros pueden ser evadidos mediante técnicas de ingeniería social.

-Preocupaciones más amplias sobre el uso de inteligencia artificial

Estos problemas subrayan las preocupaciones más amplias sobre el uso de la inteligencia artificial. El profesor Yoshua Benjuís, una figura destacada en el campo de la IA, ha expresado su preocupación por el abuso de esta tecnología, afirmando que los militares no deberían tener acceso a ella.

Además, Bengio ha advertido sobre el peligro de la desinformación y la posible manipulación de elecciones mediante el empleo de chatbots avanzados como ChatGPT. A medida que la IA sigue evolucionando, se requiere una mayor atención a los riesgos potenciales que plantea su mala utilización.