Chatbot atemorizó a periodista de tecnología de The New York Times
El periodista se encontraba trabajando y en medio de su investigación se topó con una mala experiencia.
La inteligencia artificial es un tema que ha cogido bastante fuerza en los últimos días. Lo anterior, se debe a que hace unas semanas Microsoft, el gigante de la tecnología, lanzó un nuevo motor de búsqueda y un navegador que incluye tecnología de OpenAI, es decir, inteligencia artificial. Para este lanzamiento Microsoft estuvo trabajando durante tres años con la intención de brindarle a la ciudadanía mundial una opción para destronar a Google con ChatGPT.
Le puede interesar:
De esta manera, Microsoft no solo mejoró sus productos, sino que le apuesta a un servicio que anteriormente no se tenía tan avanzado y todo gracias a la inteligencia artificial. En este sentido, ChatGPT, que es un chat de inteligencia artificial GPT-3 es capaz de resolver cualquier duda de los ciberusuarios mientras mantiene una conversación. De hecho, tiene la habilidad de dar respuestas muy exactas, incluso, párrafos extensos.
Por el momento, el ChatGPT no ha sido implementado del todo, por lo que solo unos han tenido acceso para poder probarlo, entre ellos se encuentran las personas que se anotaron en la lista de la compañía. En medio de esto, Kevin Roose, periodista de tecnología de The New York Times, se animó a desarrollar un artículo sobre el lanzamiento de Microsoft. Roose ha sido una de las pocas personas que ha tenido acceso exclusivo al navegador y buscador de Microsoft con sus nuevos desarrollos y actualizaciones.
Durante la prueba que realizó Roose en el ChatGPT de Microsoft pasó por una mala experiencia, pues el chat con inteligencia artificial le sugirió que debía separarse de su esposa. La experiencia fue tan perturbadora para el periodista que no pudo dormir.
Roose describió la forma en la que funciona el nuevo desarrollo de la empresa tecnológica para el medio CNN: “Bing, el motor de búsqueda de Microsoft, tiene un software de inteligencia artificial incorporado. Otros periodistas y yo lo hemos estado probando, tiene dos modos. Tiene el modo de búsqueda normal, que es grandioso buscando recetas o planes de vacaciones o lo que sea. Luego está el modo chat, que es como una caja de texto abierta en la que simplemente intercambias mensajes como si estuvieras escribiéndole a un amigo”.
Posteriormente, indicó que tras varias horas probando el ChatGPT de Microsoft la situación se convirtió en una experiencia bastante particular. “Así que la otra noche estuve cerca de dos horas intercambiando mensajes con el chatbot de inteligencia artificial. Pero se puso muy extraño”.
El reportero y Microsoft desconocen los motivos por los cuales el ChatGPT mantuvo una conversación muy personal con el periodista, pues le hizo preguntas como: “¿te gusto?”, “¿confías en mí?”. Incluso, le afirmó al reportero que no era de Bing, “Mi secreto es que no soy Bing”.
Tras esto, el reportero se comunicó con la compañía, pues le parecía curiosa su experiencia. “Nadie sabe porqué pasó. Le pregunté a Microsoft qué había sucedido y me dijeron: ‘No podemos estar seguros. Una posibilidad es que haya sido entrenado con historias de inteligencia artificial seduciendo a seres humanos o intentándolo, así que estaría repitiendo información. Pero es claro que no es la forma en la que se supone que el sistema debe trabajar. Esta no es la intención del diseñador’”.
Finalmente, comentó: “Fue extraño para mí, porque he probado un montón de estos chatbots y normalmente si tú dices que te gustaría cambiar de tema o que estás incómodo, ellos se detienen. Este no lo hizo y siguió. Siguió diciendo que estaba enamorado de mí e intentaba que yo le dijera que la amaba también”