En la actualidad estamos siendo partícipes de una nueva y gran tendencia basada en nuevas herramientas de inteligencia artificial con un gran protagonista en el centro: ChatGPT. Sin embargo, consigo ha nacido otra novedad, el uso de la IA como herramienta de desarrollo de malware.

Y es que, la inteligencia artificial puede utilizarse para crear, modificar o incluso mejorar el malware. También puede utilizarse para convertir código malicioso de un lenguaje de programación a otro, ayudando a la compatibilidad entre plataformas, e incluso se puede utilizar para escribir un correo electrónico de phishing.

Eso sí, matizar antes de nada que si le pides a ChatGPT que escriba un correo electrónico de phishing haciéndose pasar por un banco o que cree malware, no lo generará. Sin embargo, aquí hablamos del uso de la versión actual de la API de OpenAI por hackers ya que cuenta con muy pocas medidas para evitar estos casos (por ejemplo, la integración del modelo GPT-3 de OpenAI a los canales de Telegram).

El gran problema de base es que el código generado por inteligencia artificial podría tener un efecto muy negativo en la ciberseguridad, ya que el software defensivo escrito por humanos podría no ser suficiente para protegerse contra él. Analicemos cómo ChatGPT ya está siendo utilizada para crear malware y estafar a los usuarios.

En concreto, investigadores de Check Point Software descubrieron que ChatGPT podía utilizarse para crear correos electrónicos de phishing. Combinado con Codex, un sistema de conversión de lenguaje natural a código también de OpenAI, ChatGPT podría utilizarse para desarrollar e inyectar código malicioso. 

Shares: