Expertos colombianos dudan que la IA pueda extinguirnos
Un teólogo, un artista, un hacker ético y un ingeniero opinan sobre el supuesto riesgo apocalíptico de la IA del que se habla por estos días en el mundo.
La controversia acerca de en qué medida los recientes desarrollos de Inteligencia Artificial generativa impactarán negativamente a las sociedades no para de crecer. Nadie discute que la numerosa familia de grandes modelos de lenguaje que lidera ChatGPT cambiará nuestras vidas en los próximos años; solo se conversa acerca de cuán grande y radical será el impacto.
Los puntos de vista al respecto son variados. Desde el escepticismo crítico, pasando por el pánico apocalíptico hasta la adoración casi religiosa, una gran parte de la opinión pública se alinea en alguna de estas posturas.
Dado que se trata de un debate sobre filosofía, política y ética de la tecnología, en Inteligencia Artificial Colombia consultamos diferentes voces, porque en esta conversación deben involucrarse no solamente los duros del código computacional, sino también opiniones autorizadas en muchos campos del conocimiento, así como todos los ciudadanos, que día a día, desde que cepillan sus dientes en la mañana, se las ven con algoritmos.
Felipe Gómez, experto en ciberseguridad de la firma Fluid Attacks destaca que “la IA en sí misma no tiene deseos, intenciones o emociones propias. La IA es una creación humana y su comportamiento está determinado por los algoritmos y datos con los que es programada”. Acerca de la necesidad de regular esta tecnología, propone leyes relacionadas con la ética; la privacidad y la protección de datos; la explicabilidad (exigir cómo funcionan los sistemas de IA, especialmente en casos de toma de decisiones importantes) y responsabilidad; los sesgos y la discriminación (las regulaciones pueden exigir pruebas de equidad y salvaguardias para minimizar los efectos negativos). Y, finalmente, sobre la seguridad, “especialmente en áreas críticas como la salud, la infraestructura y la seguridad nacional”, dijo.
Andrés Sepúlveda, desarrollador de software y experto en algoritmos, es fundador de Canto de Lobo, un startup que utiliza IA para apoyar proyectos de salud mental de niñas y niños en La Guajira. “Con respecto a la solicitud de regulación de Sam Altman, me quedo con una frase que dijo un Senador demócrata que escuchaba al creador de Chat GPT: ‘las empresas históricamente han hecho lobby para evitar leyes que las regulen y usted viene aquí a rogar que le hagamos una ley’.… Y entonces me pregunto ¿Realmente fue Altman a pedir barreras de entrada para que nuevos competidores se queden enredados en la burocracia estatal, justo en el momento en el que él es el líder del mercado?”
Sepúlveda no cree en absoluto en aquello de que la IA destruirá a la humanidad. “Quizá la puedan destruir primero las armas, las súper bacterias, la contaminación producida por empresas o los políticos”.
El pastor Ariel Muñoz, de la iglesia Vidas Restauradas, directivo de las Asambleas de Dios y físico de formación, participa en conversaciones sobre ética de la Inteligencia Artificial y es portador de una visión desde el campo de la teología: “Pienso que extinguirla no, pero si es mal utilizada podría deshumanizar al humano. Las tecnologías bien utilizadas pueden servir para provecho del hombre, sin embargo, vemos como cuando se pierde el temor a Dios, se deja de lado la dignidad humana, el respeto por el otro; entonces, muchas veces lo creado por el hombre atenta contra la creación de Dios y tecnologías como la IA podrían no ser usadas para provecho del hombre, sino para aprovecharse del hombre. Entonces, la IA que no es un ser, podría ser usada por el ser humano, no para extinguir la humanidad, sino, para perder la humanización, el respeto por la vida, por la dignidad del otro. La responsabilidad del daño o los alcances de la IA, los usos o abusos, son responsabilidad del hombre”.
Joaquín Restrepo, reconocido artista plástico, pionero del uso de algoritmos en su trabajo creativo, opina que “el gran problema de la inteligencia artificial es el tema de la alineación. Actualmente, la inteligencia artificial que ha estado avanzando enormemente está hecha a base de algoritmos de caja negra apilados uno sobre otros que no conocemos realmente y tampoco sabemos con que están alineados. Y es que como raza humana tampoco hemos sido capaces de alinearnos nosotros mismos, no compartimos los mismos ideales, la misma moralidad e incluso no somos capaces de entendernos bien. ¿Cómo vamos a ser capaces de alinear la inteligencia artificial? “.
La discusión acerca de los riesgos de la Inteligencia Artificial generativa tomó auge este año, tras la aparición de ChatGPT, y se exacerbó esta semana, tras conocerse una declaración firmada por 350 expertos y líderes de la industria tecnológica (entre ellos Sam Altman, el CEO de OpenAI), en la que advirtieron que la IA puede conducirnos a la extinción y debe ser tratada como una amenaza del mismo calibre que una pandemia o una guerra nuclear.