Voces clonadas: La nueva modalidad de estafa con IA - 800Noticias
800Noticias
Tecnología

800 Noticias/Agencias

Cuando en febrero un empleado de finanzas de Hong Kong fue convocado a una videoconferencia en directo por el director financiero de su empresa multinacional, todo parecía normal. El director financiero y otros ejecutivos actuaron y sonaron como siempre, aunque el motivo de la reunión era extraño: recibió instrucciones de transferir $25.6 millones a varias cuentas bancarias. Él, por supuesto, hizo lo que su jefe le pidió.

Sorprendentemente, la imagen y la voz del “director financiero” fueron generadas por una computadora, al igual que las de los demás ejecutivos que aparecieron en la llamada. Y las cuentas pertenecían a estafadores. El trabajador fue víctima de una estafa de inteligencia artificial asombrosamente compleja, según informan los medios de comunicación locales. El dinero sigue perdido.

Bienvenido al lado oscuro de la tecnología de IA, en el que las voces y los rostros de personas que conoces pueden falsificarse impecablemente como parte de un esfuerzo por robar tu dinero o tu identidad.

Los científicos llevan décadas programando computadoras para que piensen y hagan predicciones, pero solo en los últimos años la tecnología ha llegado al nivel en el que una computadora puede imitar con eficacia las voces, los movimientos y el estilo de escritura de los humanos y, lo más difícil, predecir lo que una persona podría decir o hacer a continuación. El lanzamiento público en los dos últimos años de herramientas como ChatGPT y DALL-E de OpenAI, Gemini de Google (antes Bard), Copilot de Microsoft y otros programas de IA generativa de fácil acceso han puesto algunas de estas capacidades al alcance de las masas.

Las herramientas de IA pueden ser legítimamente útiles por muchas razones, pero también pueden ser fácilmente utilizadas por los delincuentes para crear voces, sitios web, vídeos y otros contenidos realistas pero falsos para cometer fraudes. Muchos temen que lo peor esté aún por llegar.

Siga leyendo en aarp

Síguenos por @800noticias