Apate, que es una inteligencia artificial para engañar a los estafadores telefónicos
Expertos en ciberseguridad han desarrollado un sistema de inteligencia artificial para atender las llamadas de estos estafadores y hacerles perder el tiempo prolongando el chat el mayor tiempo posible.
Si bien la inteligencia artificial (IA) se utiliza en las estafas telefónicas, los expertos en seguridad cibernética quieren frustrar los planes de los estafadores utilizando la misma tecnología. Un equipo de la Universidad de Macquarie, Australia, desarrolló un sistema de inteligencia artificial que crea víctimas falsas disfrazadas de chatbots multilingües. El objetivo: hacer perder el tiempo a los estafadores para reducir la cantidad que las víctimas pierden cada año por culpa de ellos, es decir, 55 mil millones de dólares.
estafadores perdiendo el tiempo
Llamado Apate, en honor a la diosa griega del engaño, este sistema tiene como objetivo robar a los estafadores. El director ejecutivo del Centro de Seguridad Cibernética de la universidad, Dali Kavar, tuvo la idea de desarrollarlo luego de recibir una llamada fraudulenta mientras almorzaba con su familia. Logró mantener al bromista en línea durante 40 minutos mientras sus hijos se reían. «Me di cuenta de que, aunque le había hecho perder el tiempo al ladrón para que no pudiera llegar a los desvalidos, y ese era el punto: también fueron 40 minutos de mi vida de los que nunca me recuperaré».es para explicar.
Entonces Dale Wasteland comenzó a pensar en una forma de automatizar este proceso y«Uso del procesamiento del lenguaje natural para desarrollar un chatbot computarizado que pueda tener una conversación razonable con el estafador». El equipo comenzó analizando las llamadas telefónicas fraudulentas e identificando las técnicas de ingeniería social que los estafadores usan con sus víctimas, utilizando técnicas de procesamiento de lenguaje natural y aprendizaje automático.
Redirigir llamadas fraudulentas a chatbots
Luego, los chatbots fueron entrenados en un conjunto de datos de conversaciones fraudulentas del mundo real (grabaciones de llamadas fraudulentas, guiones de correo electrónico fraudulentos, etc.) para poder crear sus propias conversaciones similares a las de una estafa. “Los bots conversacionales de IA que desarrollamos pueden engañar a los estafadores para que piensen que están hablando con víctimas de una estafa viable, por lo que dedican tiempo a intentar engañar a los bots”.Dijo Daly Kaver.
Estos chatbots se están probando actualmente en llamadas de fraude en vivo, redirigiendo las llamadas de las víctimas a un sistema desarrollado por expertos. El equipo colocó los números de estos chatbots en línea, ingresándolos en aplicaciones de spam o incluso publicándolos en páginas web, para aumentar las posibilidades de recibir estas llamadas fraudulentas. Actualmente, los chatbots pueden mantener a los estafadores en línea durante un promedio de cinco minutos. El objetivo es que puedan hacer esto durante 40 minutos.
En un esfuerzo por difundir esta tecnología a nivel mundial, el equipo se encuentra actualmente en conversaciones con varios proveedores de servicios de telecomunicaciones. “La asociación con los proveedores de servicios de telecomunicaciones será clave para que esto sea realmente efectivo”.dijo el director ejecutivo del Centro de Seguridad Cibernética de la universidad.
«Especialista en música. Friki del alcohol. Fanático del café. Gurú de los viajes malvados. Nerd de la televisión. Amante de la cultura pop».