El popular historiador y divulgador Yuval Harari nos advierte de, entre otros peligros, el de la Inteligencia Artificial, pero lo hace cuestionando lo que considera la “hipótesis ingenua” sobre la divulgación de la información.
La idea ingenua (…) es que la información es esencialmente algo bueno y que, cuanta más podamos reunir, mejor. Con la información y el tiempo suficientes, estamos destinados a descubrir la verdad sobre asuntos que pueden ir de las infecciones víricas a los prejuicios racistas, con lo cual desarrollaremos no solo nuestro poder, sino también la sabiduría necesaria para emplearlo con acierto. (Prólogo)
Eliminar las barreras que obstaculizan el flujo de información no tiene por qué conducir al descubrimiento y la difusión de la verdad, sino que con la misma facilidad puede llevar a la divulgación de mentiras y fantasías, y a la creación de esferas de información tóxicas. (Capítulo 4)
Al considerar que la amplia propagación de la información puede ser enormemente dañina para la convivencia, pone como ejemplo del pasado a la caza de brujas.
La imprenta desempeñó un papel fundamental en la rápida divulgación de la creencia en una conspiración satánica global (Capítulo 4)
Y en el presente señala los riesgos de la Inteligencia Artificial dentro del marco de los riesgos que implican los algoritmos autónomos que ya existen en las redes sociales. Y aquí pone un ejemplo particularmente lamentable: la propagación, en parte gracias a un algoritmo informático ideado con fines comerciales, de movimientos políticos de odio y limpieza étnica.
En 2016-2017 (…) los algoritmos de Facebook contribuyeron a avivar las llamas de la violencia antirrohinyá en Myanmar (Capítulo 6)
Los creadores de contenido de YouTube que tenían especial interés en captar la atención se dieron cuenta de que, cuando publicaban un vídeo escandaloso y lleno de mentiras, el algoritmo los premiaba recomendándoselo a numerosos usuarios y aumentando la popularidad y las ganancias de los youtubers. En cambio, cuando moderaban el tono y se adherían a la verdad, el algoritmo solía ignorarlos. (Capítulo 8)
Por su parte, los peligros de los algoritmos de la IA irían aún más allá. Serían supuestamente incontrolables.
Nos hallamos al borde de un colapso ecológico causado por el mal uso de nuestro propio poder. También nos afanamos en la creación de nuevas tecnologías como la inteligencia artificial (IA), que tienen el potencial de escapar de nuestro control y de esclavizarnos o aniquilarnos. (Prólogo)
Harari coincide con otros autores que no creen que la problemática humana actual tenga que ver con los cambios culturales, sino más bien con los cambios institucionales. Para Harari, el progreso social humano solo ha sido posible desde el momento en que se crearon mecanismos de autocorrección, y aparentemente la IA estaría más allá de tal recurso
Este libro afirma que el defecto no está en nuestra naturaleza, sino en nuestras redes de información. Debido a que favorecen el orden por encima de la verdad, a menudo las redes de información humanas han generado mucho poder pero poca sabiduría. (Epílogo)
La humanidad consigue un poder enorme mediante la construcción de grandes redes de cooperación, pero la forma en que se construyen dichas redes las predispone a hacer un uso imprudente del poder. Nuestro problema, por lo tanto, tiene que ver con las redes. (Prólogo)
En tanto que tecnología de la información, los mecanismos de autocorrección son el polo opuesto del libro sagrado. (Capítulo 4)
La creación de ciertas instituciones sociales en particular podría ser un recurso contra la manipulación de la información. La democracia y la ciencia son nuestras mejores opciones. Sin embargo, no todos los ejemplos que pone son convincentes y a veces parece caer en un injustificado catastrofismo.
Tal como demostró la crisis financiera de 2007-2008, las estrategias y principios financieros más complejos, como los que hay detrás de los CDO, solo eran inteligibles para unos pocos magos de las finanzas. ¿Qué ocurrirá con la democracia cuando las IA creen estrategias financieras todavía más complejas y cuando el número de humanos capaces de entender el sistema financiero se reduzca a cero? (Capítulo 9)
¿Por qué no considera, por el contrario, que tal vez la IA podría evitar tales crisis financieras, si se le ordena que así lo haga? Las crisis financieras existen ya desde el siglo XVII. Para existir, no necesitan de los algoritmos informáticos.
Podemos llegar a un punto en el que los ordenadores dominen los mercados financieros e inventen herramientas económicas totalmente nuevas que escapen a nuestra comprensión. (Capítulo 6)
La cuestión acerca de que la IA no podría ser programada para ayudar a la humanidad lo que muestra es que falta una idea de humanidad, que lo que quizá necesita la humanidad, más que control de la tecnología o tendencias luditas, es una formulación de los fines últimos a alcanzar.
Es probable que surjan dificultades económicas: ¿quién mantendrá a aquellos que han perdido sus antiguos trabajos mientras se encuentran en transición, aprendiendo un nuevo conjunto de habilidades? (Capítulo 9)
Naturalmente, hay soluciones, y los inocentes algoritmos informáticos no tienen la culpa. Más bien se diría que la sociedad no ha madurado lo suficiente para afrontar estas tecnologías
Una salvaguarda podría consistir en adiestrar a los ordenadores para que sean conscientes de su propia falibilidad. (Capítulo 8)
Mientras la humanidad permanezca unida, podemos forjar instituciones que controlen la IA y que identifiquen y corrijan los errores algorítmicos. (Capítulo 11)
Harari no olvida mencionar que en este periodo histórico, Occidente se ve azotado por un fenómeno social inquietante por su estupidez: el populismo. Puede que no esté necesariamente relacionado con las nuevas realidades del mundo de los algoritmos, pero, desde luego, estos no le ponen freno.
[El] populismo (…) [se ve] descrito como una «ideología que considera que la sociedad está dividida en último término en dos grupos homogéneos y antagonistas, “la gente pura” y “la élite corrupta”» (Prólogo)
Tal vez las instituciones puedan hacer algo para controlar los peligros de la IA, pero difícilmente controlarán la degeneración de la democracia que el populismo supone. Poner la esperanza en las instituciones no parece demasiado esperanzador. Las instituciones se originan a partir de la sociedad, no surgen por mero voluntarismo y las mismas instituciones pueden tener efectos muy diferentes en otras sociedades, aunque eso no niega la importancia de valorarlas y sostenerlas cuando son benignas. La ciencia, una disciplina basada en la honestidad, la lógica y la falta de prejuicios (que también es lógica) supone la base de lo mejor de la sociedad contemporánea.
Las instituciones científicas son diferentes de las religiosas, puesto que premian el escepticismo y la innovación en lugar de la conformidad. (Capítulo 4)
Las instituciones de organización y conservación que desempeñaron un papel fundamental en la revolución científica conectaron a estudiosos e investigadores tanto en las universidades como fuera de ellas, lo que creó una red de información que se extendió por toda Europa y, finalmente, por todo el mundo. Para acelerar esa revolución, los científicos tuvieron que confiar en la información publicada por colegas de países distantes. La confianza en el trabajo de compañeros a los que nunca se había visto se manifestó en asociaciones científicas como la Royal Society of London for Improving Natural Knowledge, fundada en 1660, y la Académie des Sciences francesa (1666); en revistas científicas como las Philosophical Transactions of the Royal Society (1665) y laHistoire de l’Académie Royale des Sciences (1699), y en editores científicos como los artífices de la Encyclopédie (1751-1772). Estas instituciones organizaban y conservaban información sobre la base de la evidencia empírica (Capítulo 4)
Pero evidencia empírica también parece la necesidad de que, con independencia de cuestiones como la amenaza de la IA, las redes sociales y el cambio climático, necesitamos innovaciones en el pensamiento social, avanzar más en la evolución civilizatoria, que es, en esencia, evolución moral. Y esto no puede verse fuera de una concepción de tendencias relacionadas con la naturaleza humana, con respecto a las cuales las instituciones son consecuencia y no causa.
Si nuestra regla de oro es «toda acción debe ajustarse a un objetivo superior», por definición no hay manera racional de definir este objetivo final. Así que ¿cómo podemos proporcionar a una red informática un objetivo final que bajo ningún concepto debe alterar o ignorar? Los ejecutivos e ingenieros que se apresuran a desarrollar la IA cometen un enorme error si piensan que existe una manera racional de decirle a la IA cuál ha de ser su objetivo principal. (Capítulo 8)
Las advertencias están bien, incluso si están teñidas de catastrofismo, pero el error más grave parece encontrarse en que Harari no cree en el proceso civilizatorio. Afirmar que la especie humana carece de un “objetivo principal” cuando al mismo tiempo considera que la IA es capaz de comprender a la perfección la psicología humana es anunciar que estamos en un callejón sin salida.
El hecho que la IA pueda hacerse pasar por un humano amenaza con destruir la confianza entre humanos y con desgarrar el tejido de la sociedad. (Capítulo 9)
Por supuesto que la IA puede comprender el objetivo principal de la raza humana… una vez ésta sea capaz de formularlo (¡o podría dárnoslo ella misma!).
Harari no considera que el progreso en la información y el progreso tecnológico vayan parejos al progreso cultural. Al fijarse solo en lo negativo se parece un poco a los luditas…
Los luditas no iban tan desencaminados (Capítulo 9)
El esfuerzo de cambio debemos ponerlo en el cambio cultural en el sentido de progreso moral y en el contexto del progreso de la civilización. ¿El “objetivo principal” de la raza humana? Obviamente se trata del perfeccionamiento de nuestras cualidades cooperativas –y el consecuente control de las agresivas y antisociales- con vistas a desarrollar una trascendencia cuya meta final será el control de la naturaleza. Qué si no. Ser “como dioses”. La IA lo comprendería perfectamente. Y también comprendería que el primer paso es buscar formas imaginativas para mejorar los controles culturales al comportamiento humano antisocial (civilización), controles que han de ser interiorizados en el individuo y no tanto depender de las instituciones.
Lectura de “Nexus” en “Debate” 2024; traducción de Joan Domenec Ros
No hay comentarios:
Publicar un comentario