Actualidad

Lo que no y lo que sí es ChatGPT

Las cosas como son: la Inteligencia Artificial generativa es un maravilloso avance que nada tiene que ver con la ciencia ficción.

Humanoid robot working on laptop studying financial chart, conceptual computer illustration

Humanoid robot working on laptop studying financial chart, conceptual computer illustration / KATERYNA KON/SCIENCE PHOTO LIBRA

Por Álvaro Montes (Director IA Colombia)

Cassie Kozyrkov es jefe científica de decisiones (¡los cargos que hay en la industria hoy!) en Google, y brindó hace poco una definición certera de la Inteligencia Artificial generativa, tan de moda por estos días: “es fenomenalmente útil, pero no tan de ciencia ficción como parece”. En realidad, la industria está utilizando el término IA para referirse a un tipo particular de aprendizaje automático. “¿Esperabas robots? ¿Algo de ciencia ficción con mente propia, algo humanoide? Bueno, la IA de hoy no es eso”, agrega la experta.

Y va más allá en su esfuerzo por ayudarnos a poner los pies en la tierra, en medio de la fiebre mundial de ChatGPT. El machine learning, el tan mencionado aprendizaje de máquina que está detrás de la inteligencia artificial generativa no es más que “un etiquetador de cosas”, en los términos de Kozyrkov. Software al que se le muestran objetos y es capaz de decidir cuál etiqueta debe llevar cada uno. A la foto de un perro le escribe la etiqueta “perro”. Aprende a poner la etiqueta correcta después de que los humanos le presentan millones y decenas de millones de fotos de perros con la misma etiqueta, hasta que acierta, con algún margen de error todavía, a colocar la palabra correcta cuando le llega una foto canina que no había visto antes.

No es que se trate de una ronda infantil. Hay décadas de investigación y desarrollo en ciencia y tecnología para llegar a esto. Pero tampoco es algo fuera de este mundo. ChatGPT no es un ser, no es inteligente en el sentido que lo es la inteligencia biológica y no posee la facultad de la metacognición, la conciencia de lo que hace.

La genialidad de la arquitectura de red neuronal bautizada como transformadores (transformers, en inglés) https://la.blogs.nvidia.com/2022/04/19/que-es-un-modelo-transformer/, descrita por vez primera por Google en 2017,  dio con la tecla para lograr que el procesamiento de lenguaje natural, un antiguo campo de estudio en Inteligencia Artificial, lograra un salto impresionante, hasta adquirir la apariencia de una conversación entre humanos, tal como lo había soñado Alan Turing en los años cincuenta del siglo pasado. Otros investigadores continuaron con los desarrollos, se dio inicio a aplicaciones en ciencia y salud (investigación molecular y creación de productos farmacéuticos) y hoy se habla de Inteligencia Artificial de transformadores como un campo específico.

Los transformadores superan de lejos a las redes neuronales convolucionales (conocidas como CNN) y a las recurrentes (llamadas también RNN), que eran hasta hace poco las frecuentemente utilizadas en los desarrollos de Inteligencia Artificial. Mediante complejas operaciones matemáticas, ChatGPT (y PaLM 2, de Google, así como centenares de otros grandes modelos de lenguajes o LLM, como se les conoce técnicamente) puede calcular las probabilidades de la palabra correcta a continuación en una frase. La ingeniería gusta de poner nombres rimbombantes, pero un modelo es simplemente una receta, un conjunto de instrucciones, un algoritmo. En el caso de los modelos de lenguaje, son recetas para representar computacionalmente lo que los humanos dicen, traducirlo al lenguaje de las máquinas y enviar una respuesta de vuelta, comprensible para las personas.

En la programación tradicional se le daban instrucciones precisas a la máquina mediante código muy complejo, para que realizara sus tareas, pero en el enfoque de machine learning se le muestran ejemplos (muchos), en lugar de instrucciones detalladas, y el algoritmo identifica patrones en ellos y los convierte en instrucciones y decisiones. Encontrar patrones en un conjunto de datos y aplicar la respuesta correcta para cada patrón es lo que conocemos como aprendizaje de máquina.

Habíamos visto un Australopithecus de esto en los teclados predictivos del teléfono móvil, y en Siri y Alexa, pero los avances del último lustro, sumados a las capacidades de computación actuales (la nube y chips multitarea de cada vez menos nanómetros) confirieron una velocidad increíble al proceso. Rick Merrit, experto deNvida, lo resumen de la siguiente manera: “Antes de que llegaran los transformers, los usuarios tenían que entrenar redes neuronales con grandes conjuntos de datos etiquetados que eran costosos y lentos de producir. Al encontrar patrones entre elementos matemáticamente, los transformers eliminan esa necesidad, ya que están disponibles los billones de imágenes y petabytes de datos de texto en la Web y en las bases de datos corporativas”.

Lo que hacen los modelos de lenguaje actuales, como el que el mundo conoce bajo el nombre ChatGPT, es un ejercicio de predicción de palabras dentro de un texto a partir de una serie de palabras anteriores, como bien lo explica Pablo Fleurquin en inteligenciacolectiva.ai: “Habiendo sido entrenados para una tarea de predicción de palabras … estos modelos logran aprender sobre cómo estructurar de manera correcta el lenguaje, escoger las palabras adecuadas e inferir una respuesta plausible dado un texto escrito por un humano”.

En virtud el conocimiento que la plataforma tiene de los millones de textos disponibles en internet, en donde ha leído n veces series parecidas de palabras, arriesga cuál sería la palabra correcta a continuación, utilizando técnicas probabilísticas. Cada palabra es convertida a número (en realidad, el concepto técnico es un vector hiperdimensional numérico), que le otorga un “peso”, una ponderación probabilística. Con el suficiente entrenamiento, que se logra gracias al uso masivo gratuito que millones de personas realizan a diario, el modelo de lenguaje aprende más y más; es decir, mejora el éxito de sus predicciones.

No hay intención alguna en mi relato de subestimar la trascendencia de los avances obtenidos por la industria en esta materia. El impacto del ChartGPT de OpenAI y el Bard de Google será enorme y en solo seis meses ya podemos hacernos una idea de su envergadura. Nos ayudarán en las tareas de oficina y en la investigación científica, liberándonos de actividades repetitivas y tediosas, que estas plataformas pueden realizar más rápidamente. Desde responder por nosotros montones de correos, hasta depurar el código, en el mundo de la programación. Desde ayudarnos en las búsquedas cotidianas hasta darnos una mano con el análisis de datos para mejorar los negocios.

No es baladí la preocupación por el uso irresponsable de ChatGPT y otras plataformas de moda, como Miudjourney y Dall-E. Fue noticia hace poco la carta que cerca de mil personajes relevantes de la ciencia y los negocios tecnológicos divulgaron pidiendo una pausa en el uso público de estas innovaciones. Entre intereses comerciales de empresarios rivales de Open.AI, también había una genuina advertencia de los riesgos que traería un uso irresponsable. El efecto en empleo podría ser enorme, en un planeta que no aguanta más desigualdades. Nadie pidió suspender la innovación, como torcidamente se acusó a los firmantes de la carta, sino ponderar el impacto social y cultural de la tecnología antes de entregarla al uso público.

La Unión Europea tiene lista una drástica regulación sobre la Inteligencia Artificial. El proyecto de Ley establece cuatro niveles de riesgo. Las aplicaciones consideradas inaceptables quedarán prohibidas, entre ellas el reconocimiento facial en tiempo real en espacios públicos y las tecnologías predictivas de vigilancia, esas del tipo Minority Report. el popular filme de ciencia ficción protagonizado por Tom Cruise. Las tecnologías que amenacen el empleo serán sometidas a severos requisitos. En junio comenzará el proceso de aprobación de esta regulación histórica que seguramente tendrá efecto en otras regiones del mundo y afectará los planes de las grandes tecnológicas. Los eurodiputados han dicho que la idea es proteger los derechos y libertades de los ciudadanos frente al posible uso abusivo por parte de empresas y gobiernos sin escrúpulos, que las hay y no son pocas.

Hasta el CEO de OpenAi, Sam Altman, pidió al congreso de los Estados Unidos regular la Inteligencia Artificial, en una histórica audiencia del Subcomité Judicial del Senado en Washington, el pasado 14 de mayo.

Pienso que el enfoque saludable frente a ChatGPT es un punto intermedio entre el pánico apocalíptico de quienes creen que nos quedaremos todos sin trabajo, y la patética antropomorfización romántica de quienes olvidan que se trata de unas piezas de software creadas por humanos y, por tanto, constituyen tan solo un reflejo de lo que somos como especie.

El siguiente artículo se está cargando

Escucha la radioen directo

Caracol Radio
Directo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad