top of page

Política de la inteligencia artificial: aceleracionistas y largoplacistas

Foto del escritor: Piero Gayozzo Piero Gayozzo

Hace unas semanas Donald Trump anunció el lanzamiento del Stargate Project para lograr avances en inteligencia artificial a la vez que China dio a conocer su programa DeepSeek. Ambos son indicadores de que estamos espectando una competencia política por el desarrollo de la iA y el cambio de la historia. En este nueva disputa, nuevas ideologías tecno-políticas o actitudes sobre el desarrollo de la iA se asoman. 



Actualmente vivimos una Cuarta Revolución Industrial (4RI), un conjunto de trasformaciones sociales producidas por el surgimiento de tecnologías avanzadas que parecen propias de la ciencia ficción. Estamos hablando de biotecnologías o la manipulación deliberada de organismos vivos, la nanotecnología, o el trabajo con materiales a escala nanométrica, las tecnologías de la información y las neurociencias. A diferencia de las tres primeras revoluciones, la 4RI promete cambios directos en la biología y, gracias al desarrollo de programas de inteligencia artificial, lleva la automatización a un extremo que podría redefinir el sentido de trabajo tal cual lo conocemos.  Debido a su rol en la computación de grandes cantidades de datos y de integrar la realidad física con la digital, entre otras características, podemos decir que la iA es el corazón de la 4RI. 


Se entiende por iA a un conjunto de programas computacionales que replican mediante algoritmos procesos autónomos para el cumplimiento de tareas o la resolución de problemas específicos. Existen variedades de algoritmos que caben en esta denominación, algunos son el machine learning y el Deep learning. En principio, se considera que una iA podrá replicar y, por qué no, superar las capacidades humanas. Por eso, en la teoría sobre iA se han concebido diferentes niveles de desarrollo de la complejidad de estos sistemas. Al menos tres pueden distinguirse: la inteligencia artificial estrecha, la inteligencia artificial general (AGI) y la superinteligencia artificial. 


Una inteligencia artificial estrecha está diseñada para tareas específicas. Basa su conducta en la programación previa y, si bien puede ser mejor que un humano en una tarea, no tiene la capacidad de abstracción ni resolución de problemas como la humana. Sistemas de inteligencia artificial estrecha abundan hoy en día y están presentes en casa, con Siri o Alexa, mediante aplicaciones generativas, como Leonardo.Ai y ChatGPT, o los sistemas empleados para lidiar con grandes cantidades de datos (BigData). Con respecto a la AGI, para el filósofo Nick Bostrom, una AGI será un sistema capaz de aprender, de lidiar efectivamente con la incertidumbre y la información probabilística, de reconfigurar su programación, de extraer conceptos de data sensorial y de estados internos, además de usar el razonamiento lógico e intuitivo para resolver problemas. Sobre la superinteligencia artificial, Nick Bostrom la define como un sistema con un intelecto que supera ampliamente el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés. 


La aparición de una superinteligencia artificial consciente generaría tantos cambios en tan poco tiempo que la sociedad como la conocemos vería sus estructuras y dinámicas completamente obsoletas. Este escenario hipotético se conoce como Singularidad Tecnológica. Es el rol de la inteligencia artificial y la posibilidad de crear una AGI y, subsecuentemente, una superinteligencia artificial, lo que para muchos se ha convertido en una esperanza y/o en un gran problema. Para los más optimistas, esto significa la creación de la última tecnología elaborada por el hombre, pues una superinteligencia artificial sería capaz de resolver problemas súper complejos en poco tiempo y generar un avance científico sin precedentes. Esto se traduciría en la cura para enfermedades, solución de problemas de gestión, optimización de procesos, automatización de tareas y, poco a poco, el conocimiento de los secretos de la realidad. Sin embargo, existen otros teóricos que anuncian que, si no somos capaces de asegurar que dicha superinteligencia artificial sea amigable con los humanos, podríamos crear un sistema que, al competir con nosotros por recursos para su supervivencia, concluya que somos una amenaza para él y termine extinguiéndonos. El panorama que hemos descrito ha configurado la diferencia entre tres perspectivas tecno-políticas: los aceleracionistas efectivos (effective accelerationism), los largoplacistas y los aceleracionistas oscuros (Dark Accelerationism). 


Tanto el aceleracionismo efectivo como el largoplacismo consideran que la iA es una pieza clave en el progreso, pero solo el desarrollo de la humanidad y la creación del futuro glorioso de nuestra especie. A diferencia de los conservadores, patriotas y nacionalistas que buscan regulaciones (precaucionismo) y la defensa de un orden natural o social, los enfoques tecno-políticos anteriores celebran la intromisión de la iA y de la tecnología en nuestra realidad y en la reconfiguración de todas nuestras dinámicas sociales. No hay institución social que no deba ser modificada, mucho menos la humanidad (por eso, el conservadurismo solo es una reacción y no posee una verdadera posición política sobre la iA). A pesar de compartir esta visión, el enfoque sobre seguridad de la iA es una de sus principales diferencias. 


El aceleracionismo efectivo (effective accelerationism – e/acc) es un movimiento tecno-optimista cofundado por Guillaume Verdon (conocido como Beff Jezos). Sus seguidores consideran que la iA no significa ningún riesgo para la humanidad. Al contrario, creen que el futuro debe acelerarse mediante un proceso social que consideran es intrínsecamente acelerador del progreso: el capitalismo. Para los e/accs el libre mercado es la mejor herramienta para fomentar el desarrollo y el surgimiento de la iA. Permitir la investigación y la libre competencia solo generará que la llegada de la superinteligencia artificial sea acelerada. Mientras menos obstáculos de parte del Estado, de las legislaciones y de cualquier institución social, más se acelerará el desarrollo tecnológico. Es más, se oponen a cualquier forma de ralentización de la investigación en inteligencia artificial. El objetivo es que la sociedad humana logre avanzar en la escala civilizatoria de Nikolai Kardashev y domine el cosmos. 


Nacidos en el seno del Altruismo Eficaz de Peter Singer, los largoplacistas rechazan el optimismo aceleracionista y optan por un enfoque más prudente. El largoplacismo es un enfoque ético elaborado por William MacAskill y Toby Ord que considera que el sufrimiento es moralmente relevante así ocurra cerca o lejos de nosotros en términos espaciales o temporales. El sufrimiento de hoy importa tanto como el sufrimiento futuro. Para lograr el mayor bien posible, los largoplacistas prestan atención a los intereses de las personas presentes y futuras. En vista de que el futuro es potencialmente glorioso, una de sus preocupaciones es el desarrollo de una superinteligencia artificial que termine destruyéndonos. Por eso asumen una posición de cautela (tecno-cautos) y apuestan por construir una iA alineada con los valores de la humanidad y sugieren que su desarrollo debe ir de la mano de avances en seguridad (Ai Safety). Para los largoplacistas la iA es una gran aliada para lograr el futuro glorioso, pero también una amenaza si no logramos controlarla. 


Entre estas dos opciones se asoma una tercera corriente que comparte el entusiasmo sobre el progreso del e/acc, pero con un enfoque nihilista de la tecnología en su relación con la humanidad. Se trata del Dark Accelerationism o Aceleracionismo Oscuro, una conexión entre el movimiento de la Ilustración Oscura (Dark Enlightenment) del filósofo Nick Land y el aceleracionismo efectivo que ve en el proceso de aceleración capitalista la oportunidad para lograr transformaciones sociales tan radicales que conllevarían al fin de la misma humanidad. Un fin que es considerado inevitable y no resulta indeseable. Lejos de ser un peligro, como para los largoplacistas, o una amenaza inexistente, como para los aceleracionistas efectivos, la extinción de la humanidad en manos de la iA es para el aceleracionismo oscuro un propósito, incluso, deseable. 


De estas tres visiones políticas o actitudes para con el desarrollo de la inteligencia artificial, al menos el aceleracionismo efectivo y el largoplacismo son predominantes en Silicon Valley. Los largoplacistas ven en Elon Musk uno de sus principales aliados, mientras que otros ven en Eliezer Yudkowski su principal activista. Por su parte, los aceleracionistas efectivos consideran a Peter Thiel y a Sam Altman como sus mayores promotores. En simultáneo, empresas como Google o Meta se ubican en puntos medios más identificables e incentivan el desarrollo de la iA de la mano de departamentos de ética y de responsabilidad. Como era previsible, una tecnología con tanto potencial como la iA no quedaría al margen de la competencia política y Silicon Valley parece ser uno de sus principales escenarios de disputa.


Comments


bottom of page