Las estafas más sofisticadas con IA
Redacción 800 Noticias | Foto referencial
Los delincuentes informáticos están recurriendo a la inteligencia artificial para evadir los sistemas de autenticación de identidad, utilizados por bancos y plataformas de criptomonedas.
Vincenzo Ciancaglini, investigador principal de amenazas en la empresa de seguridad Trend Micro, afirmó en una entrevista con MIT Technology Review que la mayoría de los delincuentes no operan desde lugares clandestinos, sino que son personas comunes que buscan mejorar su productividad a través de estas tecnologías.
Un claro ejemplo de esta situación se está viviendo en América Latina, donde el incremento de estafas en línea ha alcanzado niveles preocupantes. En 2024, los intentos de fraude mediante mensajes falsos han aumentado un 140%, según la empresa de ciberseguridad Kaspersky.
Phishing
El principal uso de la IA generativa entre los delincuentes en la actualidad es el phishing, una práctica que busca engañar a las personas para obtener información sensible con fines maliciosos. Según MIT Technology Review, los investigadores han observado un aumento significativo en los correos electrónicos de phishing tras el auge de ChatGPT.
Herramientas que generan spam, como GoMail Pro, integran ChatGPT, lo que permite a los delincuentes traducir y mejorar los mensajes que envían a las víctimas, según explica Vincenzo Ciancaglini.
Estafas de audio deepfake
La IA generativa ha impulsado el avance en la creación de deepfakes, logrando que las imágenes, videos y audios sintéticos sean más realistas que nunca, lo que ha captado la atención de los ciberdelincuentes.
A principios de 2024, un empleado en Hong Kong fue víctima de una estafa en la que perdió 25 millones de dólares después de que los delincuentes utilizaran un deepfake del director financiero de su empresa para persuadirlo de transferir el dinero a la cuenta del estafador.
Eludir los controles de identidad
Otra forma en que los ciberdelincuentes están utilizando los deepfakes es para evadir los sistemas de verificación de identidad.
Tanto los bancos como las plataformas de intercambio de criptomonedas emplean estos sistemas para confirmar que sus clientes son personas reales, exigiendo a los nuevos usuarios que se tomen una foto con su documento de identidad frente a una cámara. Sin embargo, los delincuentes han comenzado a vender en plataformas como Telegram aplicaciones que permiten burlar este proceso.
Jailbreak-as-a-service
Si se le pregunta a la mayoría de los sistemas de IA cómo fabricar una bomba, la respuesta no será útil. Esto se debe a que las empresas responsables de desarrollar inteligencia artificial han implementado diversas salvaguardias para impedir que sus modelos proporcionen información peligrosa o dañina.
Doxxing y vigilancia
Los modelos de lenguaje de IA no solo son útiles para el phishing, sino también para actividades como el doxxing, que consiste en revelar información privada e identificable de una persona en línea.
Un ejemplo de cómo esto funciona sería solicitar a un chatbot que se hiciera pasar por un investigador privado experto en la elaboración de perfiles.
Con información de Infobae
Únete a nuestro canal de Telegram, información sin censura: https://t.me/canal800noticias