2024 07 AI

Por

La técnica, el control político y la ignorancia humana

El año pasado, Yuval Noah Harari realizó un grupo de discusión en vivo (forum live) organizado por Frontiers ―una revista de divulgación científica―, en donde se le invitó a reflexionar sobre cómo la mal llamada “inteligencia” artificial podría ayudar a la humanidad a enfrentar las presentes crisis ecológicas planetarias. Sin embargo, el sociólogo naturalista isaraelita dio un giro inesperado a su presentación y, antes de hablar de los desafíos ecológicos, presentó su perspectiva sobre el futuro inmediato que supone la inteligencia artificial.

Si bien no compartimos con Harari las mismas convicciones en varios puntos de fondo ―de origen familiar judío, recordemos que se define como ateo y budista―, el que algunas de sus ideas confluyan con algunas preocupaciones antropológicas es una excelente ocasión para seguir profundizando en este tema. Es decir, en el hecho de que el problema de la “inteligencia” artificial (en adelante, “IA”), aunque parece un chiste de humor negro, es una realidad: La IA crece velozmente y a la par crece la ignorancia y la incapacidad humana. El lector espero que entienda que la noción de  “inteligencia” artificial es solo un constructo marketero que es sumamente engañoso. Si bien es cierto que hay poderosas ejecuciones lógicas capaces de responder a problemas de diversa índole, todo esto no deja de ser un artificio programado, es decir, no pasa de ser un output sin iniciativa propia, sin prudencia, sin persona. Por tanto, que no se filtre la idea que cuando hablamos de inteligencia artificial la analogía es sumamente pobre y que está lejos de ser verdadera inteligencia.

La noción de  “inteligencia” artificial es solo un constructo marketero que es sumamente engañoso. Si bien es cierto que hay poderosas ejecuciones lógicas capaces de responder a problemas de diversa índole, todo esto no deja de ser un artificio programado, es decir, no pasa de ser un output sin iniciativa propia, sin prudencia, sin persona.

Harari piensa que las IA pueden salirse de control y asumir el poder sobre los hombres a través de la palabra. La “inteligencia” artificial no necesitaría caminar por las calles (en forma de humanoides al estilo Robocop), tampoco necesitaría conectarse al cerebro a través de la tecnología para controlarlo (como la ficción que Matrix sugiere), sino simplemente inundar el mundo humano con su propia manera de organizar el discurso. Claro, se comprenderá que ese discurso es programado y que bebe del modo como la información está categorizada en la web.

De esta forma, el hombre empezaría a vivir en la narrativa de las máquinas. Según Harari, “será el fin de la historia hecha por los hombres y el inicio de la historia artificial”. Una historia que se convertirá en la realidad de los humanos y, en esa medida, en su prisión ilusoria. La analogía con la caverna de Platón es inevitable. Los seres humanos podríamos llegar a vivir en la ilusión que la IA “cree” para nosotros. Harari piensa que es ese precisamente el poder que le estamos otorgando y se pregunta si es realmente lo que queremos. Y dado que la máquina no tiene verdadera conciencia, esto significa que en la práctica le damos un grado de control tremendo a ciertas personas que definirán la programación, o que la financian.

Alguno podrá pensar que esta es una posición exagerada. Pero, es claro que eso es precisamente lo que estamos haciendo, al darles la potestad de resolver problemas por nosotros (para ahorrarnos la dificultad de pensar), de dejarles escribir por nosotros, de dejarles hacer “arte” por nosotros… El caso bien se puede retratar con algunos perfiles creados para Instagram con IA y que miles de personas han seguido sin siquiera notar que se trataba de una entidad no humana. Ya algunos algoritmos ejercen influencia sobre muchos jóvenes y adultos. Pensemos, por ejemplo, en que los algoritmos de las redes sociales nos muestran lo que “nos conviene”. Es decir, a partir de nuestras interacciones con la red, escogen y presentan información que “nos interesa”. Esto nos mantiene enganchados a cierto tipo de información y va como formando nuestro contexto más próximo de interacción. Fomenta, además, la formación de pensamientos políticos radicalizados y desconectados muchas veces de la realidad diaria de la mayoría de las personas.

Por mucho que en otros puntos sustantivos Harari esté profundamente equivocado, parece razonable escuchar cuando sugiere que estamos invirtiendo la relación de control: realidades no-conscientes guiarán a los que dicen serlo. Quizá hay que agregar que, al paso que vamos, a diferencia de darle el poder a una banda de perros o simios que, eventualmente, el hombre podría domesticar nuevamente, los hombres no controlarán las IA sólo desconectándolas. Si tienen intimidad a través de la palabra con los humanos, estarán en sus deseos y los impulsarán a defender su presunta bondad a toda costa. El caso del ingeniero creador de Lamda ya resuena por doquier. El riesgo de manipulación de masas, así, es tremendo.

Por mucho que en otros puntos sustantivos Harari esté profundamente equivocado, parece razonable escuchar cuando sugiere que estamos invirtiendo la relación de control.

En esa medida, dicho autor propone que filósofos, historiadores, abogados, entre humanistas e interesados, reflexionen y alerten sobre las ventajas y riesgos de las IA, con el fin de regularlas rigurosa y cuidadosamente. Según él, estamos jugando con un invento que se parece a la fusión atómica, debido a que es algo que pone en riesgo la humanidad misma y que, por tanto, necesita usarse adecuadamente.

Es claro que la fusión atómica puede generar energía limpia para las tareas humanas, pero también aniquilar poblaciones enteras. Para evitarlo, hay que pensar realmente el mundo que queremos y no sólo regular ética y jurídicamente su uso. La cuestión es que las IA tienen más “autonomía” que la fusión atómica. En algún punto, si esto no se regula adecuadamente, conviviremos con ellas y, como decimos, “sacar el enchufe” ya no será una opción.

Algo que tiene mucho que ver con el casi inexistente hábito mental con el que nos aproximamos al mundo actualmente y, en este caso, a la información que la red pone a nuestra disposición. No sólo no somos críticos con ella, sino que la consumimos asumiéndola siempre como verdad.

Es necesario que entendamos que estamos estropeando lo propiamente humano y que este tipo de cosas nos sugieren que la verdadera inteligencia, la humana, decrece de forma acelerada. Algo que tiene mucho que ver con el casi inexistente hábito mental con el que nos aproximamos al mundo actualmente y, en este caso, a la información que la red pone a nuestra disposición. No sólo no somos críticos con ella, sino que la consumimos asumiéndola siempre como verdad. Nos reímos de un meme sin saber que al hacerlo lo aprobamos y, en algún punto, quizá lo asumimos como cierto. No sabemos distinguir entre un bot, un troll o un amigo (cosa que de hecho ya debería estar regulada legalmente). Es claro que todo esto irrumpe en la vida íntima del ser humano, en la forma como interpreta su vida, concibe sus relaciones personales e, incluso, su propio propósito existencial.

Pretender que esta tecnología se entienda bien, no busca alimentar predicciones apocalípticas, sino responsables. Pero, para eso, hay que recuperar la verdadera inteligencia, la de la persona. Para ello, hay que recuperar el sentido humano de la memoria, la fuerza del compromiso y el valor de lo eterno. Tareas todas contraculturales científica y socialmente.

Autor: Dr. Juan David Quiceno

Profesor, Departamento de Humanidades, Universidad Católica San Pablo (Perú)

Síguenos:
(Visited 267 times, 1 visits today)

Comments are closed.