Technology

Hasta ahora la estafa más común por IA consistía en “clonar” voces. Ahora llega el turno de las videollamadas

By Adriana P

May 25, 2023

Hace unas semanas nos hicimos eco en Xataka de cómo la inteligencia artificial está siendo utilizada para el fraude de diversas formas. En contamos la historia de Ruth Card, de 73 años, una mujer mayor que recibió una llamada del que parecía ser su nieto Brandon, pero que en realidad era un grupo de estafadores: “Abuela, estoy en la cárcel, sin cartera, sin teléfono. Necesito dinero para la fianza”. El timo se realizó usando un deepfake de audio que imitaba la voz de su nieto mientras se realizaba la llamada.

La cosa no ha quedado ahí. Este tipo de estafas con la incipiente creación de herramientas de IA y ya se usan clonaciones de voz e incluso de vídeo de una persona para estafar a sus familiares por videollamada.

IA con el objetivo de estafar. Tal y como señala El Mundo en , un hombre del norte de China recibió una videollamada por WeChat de su mujer. Esta le pidió 3.600 euros porque había tenido un accidente de coche y tenía que solucionar la situación con el otro conductor. Claro está, no era su mujer. Y aunque le llamó desde otra cuenta, el hombre cayó en la trampa ya que la cara que aparecía en la videollamada gesticulando y hablando con su mismo tono de voz era la de su mujer. Aunque se trataba de otra imitación con IA.

Al parecer, los estafadores habían estado vigilando al matrimonio y conocían sus hábitos, además de que la mujer tenía un canal de cocina bastante popular en una red social y de ahí sacaron las capturas de su rostro y voz para hacer el deepfake.

Una tendencia global. Una nueva oleada de estafas usando voces generadas por IA está creciendo en todo el mundo. y advierten de que, , en 2022 este tipo de fraudes en los que alguien suplanta la identidad de otra persona fueron los segundos más frecuentes, con más de 36.000 denuncias de gente que fue engañada (o casi) por otros que simulaban ser amigos o familiares. En 2021, una persona a un banco usando esta tecnología.

¿Cómo funciona Los avances en inteligencia artificial ya permiten (algo muy fácilmente accesible en las redes sociales de la persona). El software de generación de voz analiza lo que hace que la voz de una persona sea única (edad, género o acento), y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones. Luego puede para crear un efecto similar. A partir de ahí, el estafador puede decir lo que quiera con esa voz.

En la mayoría de ocasiones es casi imposible distinguirla, y mucho menos cuando quien realiza la llamada lo hace con cierto tono de urgencia. Y más complicado es aún que una persona mayor y que desconoce estas tecnologías se de cuenta del peligro. Empresas como , una startup de síntesis de voz con IA, transforman una breve muestra vocal en una voz generada sintéticamente por un módico precio que va desde los 5 euros a los 300 al mes, dependiendo del límite de audios.

Preocupaciones en China. En el país asiático este fenómeno , que han comenzado a aconsejar el público mediante publicaciones en Weibo, el twitter chino, que “sean cauteloso al dar información biométrica y que se abstenga de compartir videos y otras imágenes de sí mismos en Internet”. Se están dando casos muy dispares. Uno ha creado cierta polémica en la industria del e-commerce porque algunos usuarios están utilizando esta tecnología para clonar los rostros de los streamers famosos y vender sus productos.

Otro caso sonado fue el arresto de un hombre que con nueve muertos. No sólo eso, había conseguido posicionarlo en los primeros puestos del buscador Baidu.

La legislación. Es el obstáculo más grande para frenar esta lacra. Los expertos dicen que los reguladores, las fuerzas del orden público y los tribunales no tienen suficientes recursos para frenar este fenómeno creciente. Primero, porque , que están localizadas alrededor del mundo y no siempre la jurisdicción de un país llega a todas partes. Y segundo, porque se trata de una tecnología nueva y no existe suficiente jurisprudencia para que los tribunales responsabilicen a las empresas por esto.

En China van a la cabeza en la batalla contra este tipo de fraude. En el país asiático se ha aprobado de texto, imágenes y vídeos. Esta ley, lanzada por la Administración del Ciberespacio, que se ocupa del campo de Internet en China, se aprobó poco después de que se lanzara ChatGPT, el chatbot de OpenAI, que también está censurado en el país, aunque mucho hayan accedido a él ilegalmente.

Imagen:

En Xataka | Diferenciar al Chicote real del Chicote deepfake generado por IA ya es casi imposible (y es un problema)

– La noticia Hasta ahora la estafa más común por IA consistía en “clonar” voces. Ahora llega el turno de las videollamadas fue publicada originalmente en Xataka por Albert Sanchis .