Skip to content
News Press Service

News Press Service

NOTICIAS PARA TODOS

  • NEWS PRESS SERVICE
  • NOTICIAS
  • NOSOTROS
  • POLITICA DE PRIVACIDAD
  • POLÍTICA DE INFORMACION
  • ECONOMÍA
  • EL MUNDO
  • NO TE PUEDES PERDER
  • NOTICIAS
  • ÚLTIMAS NOTICIAS

LA FORMA MÁS SOFISTICADA DE ‘LIMPIAR’ TU CUENTA BANCARIA: ULTRFALSOS DE VOZ

newspress 2 de septiembre de 2023 7 min read
Compartir esta noticia
   

Emily Flitter and Stacy Cowley

News Press Service

Yahoo

Esta primavera, Clive Kabatznik, un inversor de Florida, llamó a su representante local de Bank of America para hablar de una gran transferencia de dinero que pensaba hacer. Luego volvió a llamar.

Pero la segunda llamada no era de Kabatznik. En su lugar, un programa informático había generado de manera artificial su voz e intentó engañar a la empleada del banco para que transfiriera el dinero a otro lugar.

Kabatznik y su banquera fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de la inteligencia artificial para generar “deepfakes”, o ultrafalsos, de voz, interpretaciones vocales que imitan la voz de personas reales.

El problema es aún tan nuevo que no existe un recuento exhaustivo de la frecuencia con que se produce. Pero un experto cuya empresa, Pindrop, supervisa el tráfico de audio para muchos de los más grandes bancos de Estados Unidos, dijo que había visto un aumento de su prevalencia este año, y en la sofisticación de los intentos de fraude con voz por parte de los estafadores. Otro gran proveedor de autenticación de voz, Nuance, sufrió su primer ataque exitoso con ultrafalsos contra un cliente de servicios financieros a finales del año pasado.

En el caso de Kabatznik, el fraude fue detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en internet han creado las condiciones perfectas para las estafas ayudadas por programas de IA relacionados con la voz.

Los estafadores intentan engañar a los banqueros para que les envíen dinero utilizando inteligencia artificial que imita las voces de los clientes bancarios. (Ariel Davis/The New York Times).

Esta primavera, Clive Kabatznik, un inversor de Florida, llamó a su representante local de Bank of America para hablar de una gran transferencia de dinero que pensaba hacer. Luego volvió a llamar.

Pero la segunda llamada no era de Kabatznik. En su lugar, un programa informático había generado de manera artificial su voz e intentó engañar a la empleada del banco para que transfiriera el dinero a otro lugar.

Kabatznik y su banquera fueron objeto de un intento de estafa de última generación que ha captado la atención de los expertos en ciberseguridad: el uso de la inteligencia artificial para generar “deepfakes”, o ultrafalsos, de voz, interpretaciones vocales que imitan la voz de personas reales.

El problema es aún tan nuevo que no existe un recuento exhaustivo de la frecuencia con que se produce. Pero un experto cuya empresa, Pindrop, supervisa el tráfico de audio para muchos de los más grandes bancos de Estados Unidos, dijo que había visto un aumento de su prevalencia este año, y en la sofisticación de los intentos de fraude con voz por parte de los estafadores. Otro gran proveedor de autenticación de voz, Nuance, sufrió su primer ataque exitoso con ultrafalsos contra un cliente de servicios financieros a finales del año pasado.

En el caso de Kabatznik, el fraude fue detectable. Sin embargo, la velocidad del desarrollo tecnológico, la caída de los costos de los programas de inteligencia artificial generativa y la amplia disponibilidad de grabaciones de voces de personas en internet han creado las condiciones perfectas para las estafas ayudadas por programas de IA relacionados con la voz.

Los programas que imitan voces sunen todavía robóticos y pueden ser fáciles de detectar, pero se teme que mejoren exponencialmente en poco tiempo. Foto: Getty Images.

Los datos de clientes, como las cuentas bancarias, que roban los piratas informáticos —y están disponibles en los mercados clandestinos— ayudan a los estafadores a llevar a cabo estos ataques. Resultan aún más fáciles con clientes adinerados, cuyas apariciones públicas, incluyendo discursos, suelen estar ampliamente disponibles en internet. Encontrar muestras de audio de clientes cotidianos también puede ser tan fácil como realizar una búsqueda en línea —por ejemplo, en aplicaciones de redes sociales como TikTok e Instagram— del nombre de alguien cuyos datos bancarios ya tienen los estafadores.

“Hay mucho contenido de audio por ahí”, afirmó Vijay Balasubramaniyan, consejero delegado y fundador de Pindrop, que revisa los sistemas automáticos de verificación por voz de ocho de las diez mayores entidades crediticias de Estados Unidos.

Hasta 10.000 llamadas de estafadores al año

En la última década, Pindrop ha revisado las grabaciones de más de 5000 millones de llamadas recibidas en los centros de atención telefónica de las empresas financieras a las que presta servicios. Los centros gestionan productos como cuentas bancarias, tarjetas de crédito y otros servicios ofrecidos por grandes bancos minoristas. Todos los centros de atención telefónica reciben llamadas de estafadores, normalmente entre 1000 y 10.000 al año. Es habitual que se reciban veinte llamadas de estafadores a la semana, según Balasubramaniyan.

Hasta ahora, las voces falsas creadas por programas informáticos solo representan “un puñado” de estas llamadas, según Balasubramaniyan, y no habían empezado a producirse sino hasta el año pasado.

La mayoría de los ataques con voces falsas que ha visto Pindrop se han producido en centros de atención telefónica de tarjetas de crédito, donde representantes humanos atienden a clientes que necesitan ayuda con sus tarjetas.

Balasubramaniyan le mostró a un periodista una grabación anónima de una de estas llamadas, que tuvo lugar en marzo. Aunque se trata de un ejemplo muy rudimentario —la voz en este caso suena robótica, más parecida a la de un lector electrónico que a la de una persona—, la llamada ilustra cómo podrían producirse estafas a medida que la IA facilite más la imitación de voces humanas.

Los programas que imitan voces suenan todavía robóticos y pueden ser fáciles de detectar, pero se teme que mejoren exponencialmente en poco tiempo. Foto: Getty Images

Se oye a un banquero saludar al cliente. Luego la voz, similar a una automatizada, dice: “Mi tarjeta ha sido rechazada”.

“¿Puedo preguntar con quién tengo el gusto?”, responde el banquero.

“Mi tarjeta ha sido rechazada”, vuelve a decir la voz.

El banquero vuelve a preguntar el nombre del cliente. Se hace un silencio durante el cual se oye el débil sonido de unas teclas. Según Balasubramaniyan, el número de pulsaciones corresponde al número de letras en el nombre del cliente. El estafador teclea palabras en un programa que luego las lee.

En este caso, el habla sintética del interlocutor llevó al empleado a transferir la llamada a otro departamento y marcarla como potencialmente fraudulenta, explicó Balasubramaniyan.

Una carrera entre las armas de defensa y de ataque

Llamadas como la que compartió, que utilizan tecnología de texto a voz, son algunos de los ataques más fáciles de combatir: los centros de atención telefónica pueden utilizar software de detección para identificar indicios técnicos de que el discurso ha sido generado por una máquina.

“El habla sintética deja rastros, y muchos algoritmos antifalsificación los detectan”, explicó Peter Soufleris, director general de IngenID, un proveedor de tecnología de biometría de voz.

No obstante, como ocurre con muchas medidas de seguridad, se trata de una carrera armamentística entre atacantes y defensores, y esta ha evolucionado en últimas fechas. Ahora, un estafador puede solo hablar por un micrófono o teclear un mensaje y traducirlo rápidamente a la voz del objetivo.

Balasubramaniyan señaló que un sistema de inteligencia artificial generativa, VALL-E de Microsoft, podía crear una imitación de voz que dijera lo que el usuario deseara a partir de una muestra de audio de solo tres segundos.

Brett Beranek, director general de seguridad y biometría en Nuance, un proveedor de tecnología de voz que Microsoft adquirió en 2021, afirma que, aunque las demostraciones de ultrafalsos son habituales en las conferencias de seguridad, los ataques reales siguen siendo muy poco frecuentes. El único ataque exitoso contra un cliente de Nuance, en octubre, le llevó al atacante más de una decena de intentos.

La tecnología que intenta detectar las estafas con programas de voz trata de seguir el ritmo de mejora de estos ‘deepfakes’ cada vez más sofisticados. Foto: Getty Images.

La mayor preocupación de Beranek no son los ataques a centros de atención telefónica o sistemas automatizados, como los sistemas biométricos de voz que muchos bancos han desplegado. Le preocupan las estafas en las que la persona que llama llega directamente a un individuo.

Un intento de estafa frustrado

Eso es lo que ocurrió en el caso de Kabatznik. Según la descripción de la banquera, parecía que el estafador intentaba convencerla de transferir el dinero a un nuevo destino, pero la voz era repetitiva, hablaba por encima de ella y utilizaba frases confusas. La banquera colgó.

Kabatznik explica que, tras recibir otras dos llamadas seguidas, la banquera informó al equipo de seguridad de Bank of America. Preocupada por la seguridad de la cuenta de Kabatznik, dejó de responder a sus llamadas y correos electrónicos, incluso a los que procedían del verdadero Kabatznik. Tardaron unos diez días en restablecer la conexión, cuando Kabatznik quedó de visitarla en su oficina.

Continue Reading

Previous: EL BANCO MUNDIAL Y EL BID UNEN FUERZAS PARA MAXIMIZAR EL IMPACTO EN EL DESARROLLO
Next: LAS PROPUESTAS DE RAFAEL QUINTERO MORA, CANDIDATO A LA ALCALDÍA DE BOGOTÁ PARTIDO ADA

NOTICIAS RELACIONADAS

OBRAS DEFINITIVAS EN ROSAS, CONEXIÓN VÍA PANAMERICANA
2 min read
  • COLOMBIA
  • ECONOMÍA
  • NO TE PUEDES PERDER
  • NOTICIAS
  • ÚLTIMAS NOTICIAS

OBRAS DEFINITIVAS EN ROSAS, CONEXIÓN VÍA PANAMERICANA

1 de octubre de 2023
VIDA Y LIBERTAD DE LAS MUJERES EN IRÁN: LOGROS, PÉRDIDAS Y ELECCIONES UN AÑO DESPUÉS
3 min read
  • CULTURA
  • EL MUNDO
  • NOTICIAS
  • ÚLTIMAS NOTICIAS

VIDA Y LIBERTAD DE LAS MUJERES EN IRÁN: LOGROS, PÉRDIDAS Y ELECCIONES UN AÑO DESPUÉS

1 de octubre de 2023
EL CALOR DERRITE LOS POLOS Y LOS PINGUINOS MUEREN
3 min read
  • ECONOMÍA
  • EL MUNDO
  • NO TE PUEDES PERDER
  • NOTICIAS
  • ÚLTIMAS NOTICIAS

EL CALOR DERRITE LOS POLOS Y LOS PINGUINOS MUEREN

1 de octubre de 2023
Copyright News Press Service 2023 © Todos los derechos reservados. Implementado por Antonio Martínez J. 320 845 3907 | DarkNews by AF themes.