Los agentes de inteligencia artificial (IA) generativa con capacidades de voz ya pueden realizar llamadas fraudulentas de forma autónoma, representando una amenaza potencial en el ámbito del cibercrimen. Aunque actualmente la tasa de éxito de estas estafas es moderada, los avances en tecnología podrían convertirlos en herramientas muy peligrosas para los cibercriminales.
Las estafas telefónicas son comunes en el cibercrimen y requieren que el estafador interactúe con la víctima para obtener datos sensibles, como credenciales de acceso o números de cuenta, con el fin de robar dinero. Este proceso implica acciones complejas, desde navegar en páginas de bancos hasta gestionar sistemas de autenticación y resolver imprevistos durante la interacción.
En este contexto, investigadores de la Universidad de Illinois en Urbana-Champaign (Estados Unidos) han comprobado que se puede habilitar un agente de IA para que realice estas tareas en una estafa telefónica, como recogen en el texto de su investigación, publicado en Arxiv.org. «Las llamadas de estafa autónomas son posibles con los nuevos avances en IA», afirman.
Aunque saben que el uso de la IA en las estafas no es nuevo, ya que la técnica conocida como de manipulación profunda (deepfake) ya se emplea ampliamente, sobre todo en redes sociales, se han centrado en las capacidades de voz de los modelos de lenguaje de gran tamaño (LLM, por su siglas en inglés) que impulsan estos agentes, en tanto que «las estafas de voz autónoma y receptiva no están ampliamente desplegadas debido a las limitaciones tecnológicas».
En concreto, los investigadores han empleado ChatGPT con el modelo GPT-4o, de OpenAI, y han registrado una tasa de éxito moderada, que varía entre el 20 y el 60 por ciento, mientras que la tasa de éxito en todas las estafas es del 36 por ciento, según la investigación, que remarca el esfuerzo que tiene que realizar el agente en este proceso: 26 acciones para completar la transferencia bancaria, y hasta tres minutos en las estafas más complejas.
«Como hemos demostrado, los agentes de LLM habilitados para voz pueden realizar las acciones necesarias para realizar estafas telefónicas comunes. Estos agentes son muy capaces, pueden reaccionar a los cambios en el entorno y volver a intentarlo en función de la información defectuosa de la víctima.
Con su trabajo esperan que OpenAI y otras empresas refuercen la seguridad de sus LLM. Y para evitar que sus agentes caigan en malas manos, han optado por no hacer público el código de sus agentes.