Radio en vivo

Actualidad

Inteligencia Artificial: ¿La amenaza de la política mundial?: Con audios falsos intentan manipular

En la actualidad los ciudadanos pueden emplear la IA para construir imágenes, videos, textos y audios con solo dar una detallada descripción de lo que desean.

Clonación de voz - Imagen creada con inteligencia artificial en Copilot de Microsoft

El uso consciente de la inteligencia artificial es cada vez más frecuente, pues pese a que hace décadas se creó este tipo de tecnología, hasta ahora la ciudadanía en general se ha percatado de su existencia. Recordemos que esta herramienta está presente en diversas aplicaciones y con los avances recientes las personas pueden usar la IA para diferentes fines.

Leer más:

Por ejemplo, en la actualidad los ciudadanos pueden emplear la IA para construir imágenes con solo dar una detallada descripción de lo que desean (tal como la imagen que acompaña este artículo). Asimismo, pueden tener la posibilidad de borrar objetos no deseados en fotografías; solicitar respuestas sobre diferentes temas; o hasta pedirle a la IA que construya resúmenes, y textos sobre asuntos específicos.

Ahora bien, otro uso que se le está dando a la inteligencia artificial tiene que ver con la creación de videos y audios. Sin embargo, personas mal intencionadas están usando esta tecnología para recrear audios y videos de personas reales para esparcir noticias y hechos falsos.

Todo esto ocurre en uno de los años electorales más importantes de los últimos tiempos. El 2024 marcará el panorama político internacional, pues más de 60 países irán a las urnas, es decir, cerca de la mitad de la población mundial saldrá a las calles a depositar su voto por los futuros gobernantes nacionales y territoriales.

De acuerdo a Naciones Unidas, “avances en inteligencia artificial, en particular la IA generativa como ChatGPT (OpenAI) y Copilot (Microsoft), podrían tener un impacto mayúsculo en los procesos electorales.”

Ante este preocupante panorama, Prisa Media, el grupo de medios del cual hace parte Caracol Radio, desarrolló junto a Google VerificAudio, una plataforma que permite detectar audios falsos y deepfakes desarrollados con inteligencia artificial.

¿Cómo se construyen audios falsos con inteligencia artificial?

En Caracol Radio consultamos a Carlos Infante, ingeniero de software, quien explicó que la creación de audios falsos es cada vez más común, gracias a la democratización de la tecnología. “Crear un audio que imite la voz de una persona utilizando inteligencia artificial es algo que se ha vuelto cada vez más accesible. Esto gracias a los avances en tecnología en cuanto a síntesis de voz y modelos de aprendizaje profundo”

Asimismo, el experto comentó que para la construcción de audios es necesario de una recolección de muestras de voz de la persona a la que se le va a imitar. Esto se hace para que posteriormente una inteligencia artificial pueda imitar la voz de la persona. Sin embargo, el ingeniero señaló que se requiere de una cantidad significativa de muestras de voz para así poder entrenar el modelo de IA.

Infante señaló que en este proceso la inteligencia artificial analiza la voz real que le comparten, “revisa diversas características del habla como el tono, la entonación, el ritmo, el timbre y más. Con suficiente información, el modelo aprende a replicar estos patrones de manera precisa. Y una vez está entrenado con los fragmentos de voz, el modelo de IA puede generar un nuevo audio que suena como la voz de la persona original”.

Tras el entrenamiento de la IA para generar audios falsos a partir de grabaciones de voz de una persona, puede construir los nuevos audios con solo proporcionarle un texto y con este “la inteligencia artificial va a convertir lo escrito en una voz sintética”.

¿Debemos tener precaución con los audios?

El experto en tecnología aclaró que es importante que la ciudadanía sea cautelosa y se cuestione cada vez más sobre los audios que recibe. De esta manera, sugiere que se intente verificar la autenticidad de los audios, sobre todo cuando proviene de fuentes no confiables. Además, se debe tener consciencia y educación sobre estos temas de audios falsos.

Al mismo tiempo, destacó que en la actualidad hay compañías de ciberseguridad para identificar la síntesis de voz y que ayudan a prevenir fraudes. “Es vital que tomemos medidas preventivas para protegernos contra posibles fraudes y engaños. La combinación de la conciencia, la verificación y el uso de herramientas detección también pueden ayudarnos a mantenernos seguros”.

Inteligencia artificial: ¿La amenaza de la política mundial?

Con este importante año electoral para el mundo, Naciones Unidas comentó que la IA “podría desestabilizar los procesos democráticos, amenazar la integridad del discurso político y erosionar la confianza pública.”

Así las cosas, António Guterres, el secretario general de la ONU, detalló que aunque la IA y la tecnología pueden acelerar el desarrollo, también pueden afectar de manera considerable cuando son usadas de manera mal intencionada.

Entre los riesgos que alerta la entidad, se encuentra la posibilidad de la propagación de desinformación. “Los deepfakes generados por IA -audios, vídeos e imágenes muy realistas, pero falsos, pueden utilizarse para engañar a los votantes y socavar la confianza en el proceso electoral. Los deepfakes pueden hacer que las personas parezcan hacer o decir cosas que nunca hicieron.”

En medio de este panorama, periodistas de todo el mundo han aprovechado la herramienta de VerificAudio de Prisa Media para solicitar la revisión de audios que tienen probabilidad de ser falsos. Algunos de los casos revisados son:

  • Miguel Mario Díaz - Canel Bermúdez, presidente del Consejo de Estado y de Ministros de la República de Cuba
  • Juan Guaidó, ex presidente interino de Venezuela
  • Edmundo González, ex embajador de Venezuela en Argentina
  • Karina Milei, la secretaria general de la Presidencia de Argentina.
  • Javier Milei, presidente de Argentina