Por Sol de María 07 Sep, 2024
El autor de ‘Sapiens’ destacó la urgente necesidad de establecer mecanismos de control sobre las potentes entidades que creó el ser humano . Es el tema de “Nexus”, su nuevo libro, que está por salir
El historiador israelí Yuval Noah Harari lanzó advertencias contundentes en su más reciente entrevista con La Vanguardia acerca de los riesgos que entraña la Inteligencia Artificial (IA). En el marco de la publicación de su nuevo libro titulado Nexus, el autor de aclamados títulos como Sapiens y 21 lecciones para el siglo XXI, sostiene que “los algoritmos ya han matado a gente” y subraya los peligros potenciales que puede enfrentar la humanidad si la IA se sale de control.
Harari plantea que hemos creado una entidad más inteligente y poderosa que el ser humano, y si no establecemos mecanismos de control adecuados, las repercusiones podrían ser devastadoras no solo para la humanidad, sino para todo el sistema ecológico.
En diálogo telefónico con el periodista Justo Barranco, el historiaador expresó: “No porque la IA sea malvada, pero es extremadamente poderosa y no le importamos, podría hacernos lo que hemos hecho nosotros a tantos otros organismos”, destacó el historiador, añadiendo que los escenarios catastróficos no son solo imaginarios, sino plausibles.
Además, enfatizó que, cada vez más, la IA está tomando un rol crucial en la creación y difusión de ideas. Contrario a lo que algunos suponen, la IA no se limita a replicar ideas, sino que es capaz de generar sus propias visiones y tomar decisiones sobre cómo y qué difundir. “En TikTok o Facebook es un algoritmo el que decide qué mensajes recibirán mucha atención. Y eso moldea la opinión pública”, puntualizó Harari en diálogo con La Vanguardia. Esto tiene implicaciones masivas para nuestras sociedades ya que, según él, se está empezando a ver cómo las decisiones de los algoritmos influyen en la política, la cultura y la comunidad internacional.
“Con la IA, parte del problema es que hay cientos de escenarios muy peligrosos. Algunos fáciles de imaginar: un dictador le da a la IA el control de las armas nucleares y por error de cálculo hay una catástrofe”, dijo el historiador.
Y pensó otro ejemplo: “Los terroristas crean con la IA un nuevo virus mortal. Pero la naturaleza misma de la IA es que puede crear nuevas visiones e ideas por sí misma. No es una herramienta en nuestras manos. Estamos liberando millones de nuevos agentes autónomos que podrían volverse más inteligentes que nosotros y no podemos anticipar ni controlar qué harán”.
El autor también reflexionó sobre la influencia de la IA en el lenguaje y la política. “La clave de casi todo lo que hemos creado es en última instancia el lenguaje. Hasta hoy, nadie excepto los humanos podía entender o crear estas cosas”. Harari destacó que la IA no solo es capaz de dominar el lenguaje similar a los humanos, sino que puede hacerlo mejor en muchos aspectos. Sostuvo que, en un futuro cercano, la IA será capaz de elaborar manifiestos políticos y textos religiosos, lo que podría significar un cambio radical en cómo se desarrollan y estructuran las sociedades.
“Algunos dicen -contó- que la IA es como la imprenta o la radio, y que copia nuestras ideas y las difunde. No es cierto. Es capaz de crear ideas propias y también toma decisiones sobre la difusión de las ideas humanas. En TikTok o Facebook es un algoritmo el que decide qué mensajes recibirán mucha atención. Y eso moldea la opinión pública”.
Las preocupaciones de Harari se extienden también a la estructura de la democracia moderna. Según explicó, hay una disrupción tecnológica que está dificultando la conversación democrática al mezclar las voces humanas con las no humanas, generando un efecto de desinformación. “La democracia es una conversación y debería ser entre humanos”, dijo. Pero hoy “más del 20% del contenido de Twitter lo difunden bots”, señaló el historiador, subrayando que la calidad del debate democrático se deteriora. “¿Qué pasa con la conversación humana cuando las voces más fuertes en ella no son humanas?”
La democracia no es un fenómeno natural, se construye en condiciones determinadas. Explicaba el historiador: “Las democracias antiguas eran pequeñas ciudades-Estado o tribus. Si millones de personas intentan mantener un debate y no hay periódicos ni radio ni televisión, no pueden. Y como la democracia se edifica sobre esas tecnologías de la información, cualquier revolución importante en ellas está destinada a crear conmoción en la democracia”.
¿Peligros? Harari cree que la Inteligencia Artificial ya se cobró vidas humanas. “Lo vimos hace casi diez años, con la campaña de limpieza étnica en Myanmar contra los rohingya, en parte impulsada por algoritmos que, para aumentar la participación de los usuarios en Facebook, difundieron teorías conspirativas escandalosas, noticias falsas y odio contra esta minoría”, le dijo al medio español. Esto llevó al asesinato de decenas de miles. Incluso si los algoritmos tienen solo un 1% de responsabilidad es la primera vez en la historia que las decisiones tomadas por una IA sobre qué información difundir han contribuido a un importante cambio histórico. Los algoritmos ya han matado a gente”.
Cómo sería el futuro de la sociedad si la IA continúa avanzando a gran velocidad
Haciendo un paralelismo con las divisiones ideológicas en Estados Unidos, Harari plantea que el problema actual no es necesariamente mayor que en los años 60, pero la tecnología de la información exacerba la situación al impedir conversaciones razonadas. “Es difícil explicar lo que está sucediendo solo en términos de ideología”, afirmó. Esta falta de diálogo racional, según él, agrava la crisis social y política, transformando incluso a partidos conservadores en entidades radicales.
Uno de los aspectos más alarmantes es el potencial de la IA para influir en los procesos electorales y democráticos. Harari expresó temor sobre la posibilidad de que líderes autoritarios puedan aprovecharse de la tecnología para socavar los fundamentos democráticos. “Lo más importante de las democracias es su capacidad de autocorrección. Si votas por un hombre fuerte, un dictador, puede tomar muchas decisiones buenas pero tarde o temprano tomará una mala, no reconocerá su error y no podrás deshacerte de él”, dijo Harari al medio español. Además, utilizó ejemplos como el caso de Hugo Chávez en Venezuela para ilustrar cómo el poder mal manejado puede llevar al deterioro de una nación. “En Venezuela, Chávez y su movimiento llegaron al poder democráticamente y durante un tiempo mucha gente pensó que estaban haciendo cosas buenas, pero finalmente comenzaron a destruir el país. Y ahora el pueblo de Venezuela no puede deshacerse de ellos. Y el peligro es que algo similar pueda suceder en Estados Unidos. Si Trump es elegido, podría hacer algo similar a Chávez y Putin”.
Respecto a cómo mitigar estos riesgos, Harari propone una regulación estricta sobre la IA y la prohibición de bots que puedan hacerse pasar por humanos. Las redes sociales, según aclaró, deben ser responsables de los contenidos que difunden a través de sus algoritmos. “Una IA nunca debería hacerse pasar por un ser humano”, enfatizó el historiador, instando a las autoridades a actuar de manera firme para proteger la integridad de la conversación pública.
“Las empresas de redes sociales dicen que no quieren censurar las opiniones de ningún ser humano por la libertad de expresión -declaró Harari-. Y puedo entenderlo, pero los bots no tienen libertad de expresión. No hay defensa para las empresas de redes sociales que permiten que entidades no humanas, bots, secuestren la conversación”.
Finalmente, al referirse al conflicto en Israel, Harari lamentó la situación actual y acusó a los extremistas de ambos bandos de alimentar el conflicto por sus propias fantasías mesiánicas. “Lo que tenemos que recordar es que la raíz del conflicto es que hay dos pueblos que existen en esta tierra y que tienen derecho a existir aquí”, afirmó.
Harari aboga por una paz basada en el reconocimiento mutuo y es crítico de las políticas del Primer Ministro Benjamin Netanyahu, señalando que Israel no es simplemente su líder, sino una sociedad democrática con una fuerte oposición interna.
https://www.infobae.com/cultura/2024/09/08/yuval-noah-harari-la-inteligencia-artificial-podria-hacernos-lo-que-nosotros-les-hicimos-a-otros-no-por-malvada-sino-porque-es-poderosa-y-no-le-importamos/