Actualidad

Unión Europea estudia regulación de la IA: Google y OpenAI en conversaciones

Google busca normas voluntarias para la IA en la UE mientras OpenAI considera abandonar el mercado europeo por posibles leyes ‘autoritarias’.

Inteligencia artificial, imagen de referencia | Foto: GettyImages

Inteligencia artificial, imagen de referencia | Foto: GettyImages

Google y la Unión Europea buscan establecer normas voluntarias para la regulación de la Inteligencia Artificial (IA), antes de que entre en vigor una legislación específica. El comisario europeo de mercado interno, Thierry Breton, y el CEO de Google, Sundar Pichai, reconocen la importancia de llegar a acuerdos previos a la implementación de la nueva normativa. Sin embargo, Sam Altman, CEO de OpenAI, ha expresado su preocupación y ha sugerido que su empresa podría dejar de operar en la Unión Europea si se establecen leyes que consideren “demasiado autoritarias”.

Leer más

Altman manifestó su posición durante una conferencia en el University College London, afirmando que la compañía no está de acuerdo con la forma en que se redactará la normativa. Aunque se ha reunido con funcionarios de la Unión Europea para discutir los detalles de la ley, Altman considera que estas reuniones no han sido fructíferas en cuanto a la discusión sobre la necesidad de regular la evolución de las inteligencias artificiales.

“Acordamos que no podemos darnos el lujo de esperar a que la ley de AI entre en vigor, y trabajar junto con todos los desarrolladores para introducir un pacto voluntario”, dijo Breton a la prensa europea después de conversar con el director general de Google, Sundar Pichai.

De esta manera, el chatbot y otros servicios que cuenten con la potente inteligencia artificial denominada GPT-4 no estarían disponibles en el territorio europeo.

Es importante destacar que la Unión Europea considera a sistemas como ChatGPT de “alto riesgo” y exige a las empresas que ofrecen servicios con este tipo de sistemas cumplir con requisitos adicionales. Estos requisitos incluyen la obligación de informar siempre que los contenidos sean generados por una IA, así como tomar medidas para prevenir la producción de contenidos ilegales o falsos.

A pesar de sus diferencias con las normas propuestas, Altman reconoce que la inteligencia artificial puede causar “daño significativo al mundo” y muestra su apoyo a una regulación que garantice la seguridad de la IA y permita que las personas accedan a sus beneficios. En su comparecencia ante el Subcomité de Privacidad, Tecnología y Ley del Comité del Poder Judicial del Senado de Estados Unidos, Altman expresó su inquietud sobre los posibles daños que ChatGPT podría causar debido a un mal uso de la tecnología, destacando la falta de una regulación sólida al respecto.

Es por ello que OpenAI ha implementado iniciativas para hacer más segura su IA, como un programa de recompensas para usuarios que detecten errores en el sistema y un programa de subvenciones para financiar investigaciones de seguridad.

El siguiente artículo se está cargando

Escucha la radioen directo

Caracol Radio
Directo

Tu contenido empezará después de la publicidad

Programación

Ciudades

Elige una ciudad

Compartir

Más acciones

Suscríbete

Tu contenido empezará después de la publicidad