Ciencia y Tecnología

Cómo funcionan las nuevas estafas telefónicas con Inteligencia Artificial

REDACCION TECNOLOGIA La clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han cobrado importancia en el 2023 y vuelve a ocupar portadas en 2024.

Sin ir más lejos, la gigante tecnológica china, ByteDance, la empresa que se esconde detrás de TikTok, hace unos días fue noticia por el lanzamiento de StreamVoice, una herramienta, impulsada por inteligencia artificial, que permite a los usuarios transformar sus voces, en directo y con una enorme calidad para imitar a otras personas. Por así decirlo, el caldo de cultivo perfecto para los delincuentes.

¿Por qué? Pues resulta sencillo. Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz. Pero ¿y si no son ellos?

De talla Carolina González Valenzuela que para que esto realmente se lleve a cabo los estafadores necesitan tener muestras de audio real de esas personas, la velocidad con la que esta tecnología está evolucionando, si además se tiene en cuenta el fácil acceso a estas herramientas, preocupa.

«Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras», explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture.

Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.

«Es evidente que necesitamos no solo una mejor regulación al respecto, sino, también, dotar a los Cuerpos y Fuerzas de Seguridad de herramientas suficientes para enfrentarse al ciberdelito en general y, en concreto, a las nuevas actividades delictivas que estamos ya viendo y que seguirán evolucionando en torno a la IA», explica en una entrevista para Computer Hoy Miguel López, Director General de Barracuda Networks.

Entonces, ¿cómo se podrían identificar este tipo de llamadas falsas creadas con IA?

En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello.

Publicaciones relacionadas

Botón volver arriba