Tendencias

The New York Times alerta sobre el aumento de errores en la inteligencia artificial

Existe la necesidad de nuevas estrategias que reduzcan el riesgo de desinformación en sistemas ampliamente utilizados.

Colombia es uno de los países que no sabe usar la IA // Getty Images //

Colombia es uno de los países que no sabe usar la IA // Getty Images // / Adrian Vidal

El diario ‘The New York Times’ reportó que, a más de dos años del lanzamiento de ChatGPT, las herramientas de inteligencia artificial aún presentan un problema recurrente, que se ha denominado como ‘alucinaciones’.

Este fenómeno ocurre cuando los modelos generan información ficticia en lugar de datos verificados. Esto plantea dudas sobre su fiabilidad.

De acuerdo con pruebas internas realizadas por ‘OpenAI’, su modelo o3 presentó un 33 % de errores en el examen PersonQA, diseñado para evaluar respuestas basadas en hechos.

Más preocupante fue el desempeño de o4-mini, que alcanzó un 48 % en la misma prueba. En otro test, SimpleQA, la situación se agravó.

Según ‘The New Yor Times’, los fallos llegaron hasta el 79 %, evidenciando que, aunque los modelos han mostrado avances en áreas técnicas como matemáticas y programación, su capacidad para ofrecer precisión factual parece estancarse o incluso deteriorarse con el tiempo.

Estos hallazgos denotaron la necesidad de nuevas estrategias que reduzcan el riesgo de desinformación en sistemas ampliamente utilizados.

¿Qué dicen los estudios e instituciones académicas sobre el tema?

Empresas tecnológicas y centros académicos coincidieron en que las alucinaciones de los sistemas de inteligencia artificial constituyen un problema serio y aún poco comprendido.

Investigadores de la Universidad de Washington y del Instituto Allen de Inteligencia Artificial advirtieron que resulta casi imposible rastrear el origen de los errores, ya que los modelos aprenden de enormes volúmenes de datos cuya trazabilidad es limitada.

Desde la Universidad de Edimburgo se agregó que los sistemas de razonamiento, al construir respuestas de manera secuencial, son especialmente propensos a acumular fallos en cada paso del proceso.

Por otra parte, el panorama no mejora en aplicaciones prácticas. La start-up Vectara, liderada por el exejecutivo de Google Amr Awadallah, encontró que incluso al resumir noticias verificables, los chatbots inventaron información en un 27 % de los casos.

Estos resultados dan nociones de que la inteligencia artificial, pese a su potencial, enfrenta un reto fundamental, enfocado en garantizar que su producción de conocimiento no solo sea coherente, sino también preciso y confiable para el uso cotidiano.

¿Qué implicaciones tiene, para usuarios y empresas, el margen de error de las ‘alucinaciones’?

Aunque las alucinaciones de la inteligencia artificial pueden parecer inofensivas en tareas sencillas, pueden convertirse en un riesgo significativo al intervenir, por ejemplo, en ámbitos sensibles como documentos legales, diagnósticos médicos o información empresarial.

Un ejemplo citado es el de la compañía ‘Cursor’, donde un bot de soporte anunció de manera errónea una nueva política inexistente, generando confusión y debilitando la confianza en la herramienta.

El ‘The New York Times’, en un artículo desarrollado por Cade Metz y Karen Weise, enfatizó que gigantes tecnológicos como OpenAI, Google y DeepSeek aún enfrentan dificultades para controlar este fenómeno.

Según estos autores, esta incapacidad también plantea un reto central: la necesidad de asegurar que los modelos no solo sean creativos o rápidos, sino también precisos.

Finalmente, cabe resaltar que usuarios y organizaciones deben destinar tiempo y recursos a verificar lo que reciben de estas plataformas, filtrando lo real de lo inventado; la utilidad de la inteligencia artificial como instrumento confiable se ve limitada, a pesar de sus avances en otras áreas.

El siguiente artículo se está cargando

Caracol Radio
Directo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad