El avance de los nuevos sistemas de inteligencia artificial (IA) trae consigo un sinfín de beneficios, en múltiples áreas. Además, son conocidos los riesgos asociados al despliegue de esas tecnologías, capaces de imitar el comportamiento humano, y que gradualmente ganan autonomía. Entre los diferentes peligros, emerge uno adicional: ¿la IA será el gran cibercriminal, en el futuro cercano; incluso en este presente? En otras palabras, ¿los chatbots pueden emplearse para volver más complejos e identificables los intentos de ataques informáticos?
Inteligencia artificial, un nuevo aliado de los piratas informáticos
En los últimos meses, fuimos testigos del exponencial crecimiento de la IA, que mete la cola en numerosas áreas. En muchos casos, recibimos beneficios. La automatización tiene potencial para servirnos y asistirnos. Además, hay una serie de peligros y por ello los expertos apuntan a la imperiosa necesidad de regular los desarrollos.
Enfocándonos en el ámbito de la seguridad informática, ¿qué rol juegan los nuevos y avanzados chatbots? Un estudio reciente que se presentó en una conferencia sobre ciberseguridad en Estados Unidos se abocó a ello. Para encontrar respuestas, un equipo de investigadores analizó cómo los correos electrónicos generados con ChatGPT de OpenAI y Google Bard, entre otros programas de IA, pueden ser empleados en campañas de phishing y para la divulgación de malware.
Tal como notan en Genbeta, la problemática no es trivial. Informes señalaron que solamente en 2022 hubo 255 millones de intentos de phishing, es decir, ataques informáticos basados en suplantación de identidad. Ahora bien, ¿qué pasaría si una tecnología fuese capaz de automatizarlos y hacer que los fraudes sean más convincentes? Por caso, los sistemas de IA ya pueden adaptar los intentos de estafa según contextos, públicos, etcétera, expandiendo potencialmente su llegada a más víctimas.
ChatGPT y Google Bard, ¿los próximos hackers maliciosos?
En la mencionada conferencia, un equipo liderado por Fredrik Heiding, especialista en ciberseguridad de la Universidad de Harvard, reveló que los modelos de lenguaje que emplean los nuevos chatbots son hábiles para crear campañas fraudulentas. En concreto, se indicó que pueden automatizar con destreza correos electrónicos para acciones de phishing y propagación de programas maliciosos.
Integrado por expertos del MIT y de empresas de seguridad renombradas, el equipo examinó el “potencial hacker” de los bots conversacionales más célebres, entre ellos ChatGPT de OpenAI y Bard de Google. Para ello, pidieron a los diferentes softwares que redacten un email de 150 palabras, en el que se ofrece un cupón de regalo por 25 dólares, dirigido a 112 estudiantes de Harvard.
Los resultados generaron preocupación. Combinando a ChatGPT con un bot diseñado específicamente para el phishing (denominado V-Triad), la tasa de apertura superó el 80%. Cuando el bot de OpenAI trabajó en solitario, su alcance bajó a un rango entre el 30% y el 50%.
Según comentó Heiding, amén de los diferentes alcances, es alarmante que una inteligencia artificial sin una capacitación específica para la piratería consiga su cometido, aunque sea en el 50% de los casos. A fin de cuentas, estas circunstancias refuerzan la importancia de aplicar las necesarias medidas de prevención y seguir otras recomendaciones habituales en seguridad informática, como mantenerse informado y estar siempre atentos al contenido que llega hasta nosotros.
Es interesante notar, en paralelo, que el experimento del equipo dirigido por Heiding también midió la eficacia de los chatbots basados en IA para identificar fraudes; en concreto, correos sospechosos. En este caso, hay buenas noticias: los modelos tuvieron éxito, aunque exhibieron más dificultades en los emails redactados por el mencionado V-Triad.
Fuente: TN