Actualidad

Deepfake: así es como puede detectar si el audio de una persona es real o no

Con el avance de la tecnología han surgido algunos problemas relacionados con la suplantación de imagen y voz de las personas, conozca de que se trata.

Mujer preocupada sosteniendo su celular junto a una persona que realiza actos ilegales en un computador (Fotos vía Getty Images)

Mujer preocupada sosteniendo su celular junto a una persona que realiza actos ilegales en un computador (Fotos vía Getty Images)

En muchas partes del mundo se ha venido presentando una problemática que solo va en aumento y está relacionada con el uso de diferentes tecnologías para crear productos como videos, imágenes o audios falsos, denominados como DeepFake; los cuales han terminado por perjudicar a varios individuos y figuras públicas en los últimos años.

De acuerdo con un documento publicado por la Editorial Universidad de Sevilla, el término “Deepfake” resulta de una combinación de dos palabras “Deep” de “Deep Learning” (aprendizaje profundo) y “Fake” (falso).

¿Para qué se utilizan los Deepfakes?

El mismo documento mencionado resalta que estos archivos creados suelen utilizarse para:

Lea también

  • Cometer delitos.
  • Desacreditar a otros individuos.
  • Generar desinformación y aumentar la desconfianza de los públicos, afectando a las empresas, organizaciones y marcas.
  • Propagar noticias falsas.
  • Influir en la opinión pública.
  • Representar riesgos a nivel político, de seguridad cibernética, fraude y ciberbullying.

¿Cómo detectar un Deepfake?

Un artículo publicado por LISA Institute, explica que en ocasiones puede tornarse difícil detectarlos. Sin embargo, existen ciertos detalles que pueden ayudar a verificar la validez de cualquiera de estos productos creados casi siempre por personas malintencionadas:

  • El parpadeo es una de las formas más sencillas de detectar manipulación en un video, dado que los algoritmos no son capaces de hacer parpadear a una persona de manera rápida y consecutiva, tal como en la vida real.
  • Cuando las características físicas no coinciden completa y detalladamente con las de la persona real, puede tratarse de un archivo falso.
  • Cuando un contenido tiene una duración corta e inverosímil, debe dudar de su veracidad.
  • Al averiguar el origen de una grabación y quién o dónde se publicó por primera vez, puede ayudar a detectar si el contenido es falso.
  • En ocasiones el sonido no se ajusta correctamente con la imagen, es decir, no hay sincronización entre el movimiento de los labios y el sonido.
  • Los algoritmos de la Inteligencia Artificial no son precisos al copiar los movimientos de la lengua o la apariencia de los dientes y el interior de la boca al hablar.

Deepfake de audios

De acuerdo con un artículo publicado por Juan Carlos Mejía Llano, Consultor de Marketing y Transformación Digital, este tipo de Deepfakes son falsificaciones para crear audios que parecen haber sido grabados por personas reales, a través de un proceso llamado ‘aprendizaje profundo’ que permite a los algoritmos aprender a identificar patrones en los datos, con el fin de generar un sonido igual al de la persona que se intenta imitar.

Asimismo, explica que existen ciertas características de la voz que pueden analizarse mediante un software especializado para comprobar la veracidad de un audio. Estas son:

  • Tono.
  • Timbre.
  • Resonancia.
  • Intensidad.
  • Ruidos vocales.

¿Qué programas sirven para detectar audios falsos?

Ante el surgimiento de audios falsos, se han creado varios programas y herramientas que buscan identificar la originalidad de los mismos:

  • VerificAudio: PRISA Media, ha creado esta herramienta al servicio de sus periodistas en colaboración con Google News Initiative y Minsait, con el fin de combatir la desinformación en el audio y reforzar el periodismo de calidad con la verificación de las fuentes.
  • McAfee: esta firma de ciberseguridad ha presentado un nuevo sistema de detección de ‘Deepfakes’ impulsado por IA, para ayudar a defender a los consumidores contra la creciente amenaza de los ciberdelincuentes que utilizan audio fabricado para llevar a cabo estafas que roban a las personas su dinero e información personal, que permiten el ciberacoso y manipulan la imagen pública de figuras públicas.

El siguiente artículo se está cargando

Escucha la radioen directo

Caracol Radio
Directo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad