DOI: https://doi.org/10.29092/uacm.v22i57.1166
Los límites de la automatización
Nicolás Germinal Pagura*
Resumen. En los últimos años, se ha intensificado el debate sobre la automatización de la producción, que entre sus numerosas aristas contiene una poco abordada, que es de índole fundamentalmente normativa. En discusión con una serie de planteamientos actuales que abogan por una automatización plena de la producción para dar lugar a una sociedad poscapitalista, el objetivo de este artículo es pensar críticamente los límites ético-políticos de la automatización. Por un lado, si bien la automatización es un medio para lograr mayor tiempo libre y abundancia material, estos fines no son absolutos y pueden entrar en contradicción con otros objetivos igualmente deseables. Por otro lado, la automatización actual sigue un patrón que estaría atentando contra ciertas capacidades humanas cuyo desarrollo resulta imprescindible para una política emancipatoria.
Palabras clave. Automatización; aceleracionismo; poscapitalismo; inteligencia artificial; tecnología.
The limits of automation
Abstract. In recent years, the debate on the automation of production has intensified, which among its many aspects contains an under-addressed one, which is fundamentally normative in nature. In discussion with a series of current approaches that advocate full automation of production to give rise to a post-capitalist society, the objective of this article is to critically think about the ethical-political limits of automation. On the one hand, although automation is a means to achieve greater free time and material abundance, these goals are not absolute and may contradict other equally desirable objectives. On the other hand, current automation follows a pattern that would threaten certain human capacities whose development is essential for an emancipatory policy.
Key words. Automation; accelerationism; postcapitalism; artificial intelligence; technology.
Introducción
Particularmente desde los inicios de la segunda década de este siglo XXI ha recibido un notable impulso el desarrollo de una serie de tecnologías vinculadas fundamentalmente con la extracción masiva y el análisis de datos digitales. La extensión en el uso de dispositivos como los teléfonos móviles, de plataformas virtuales como las redes sociales, así como la creciente conexión a internet de todo tipo de objetos (el llamado “internet de las cosas”) han facilitado, junto con otros, la puesta a disposición de una enorme masa de datos digitales que, entre otras cosas, han servido para desarrollar y perfeccionar una serie de tecnologías, fundamentalmente vinculadas con distintas modalidades de inteligencia artificial.
Estos desarrollos han dotado a las máquinas de capacidades en las que hasta hace poco se mostraban muy deficientes, como el reconocimiento de patrones o la comunicación compleja. Y han reavivado también el debate sobre la automatización de la producción y el futuro del trabajo. Así, por ejemplo, Brynjolfsson y McAfee (2014, p. 17-37) anuncian el advenimiento de una nueva “división del trabajo” entre personas y máquinas en la que, obviamente, las segundas ganan terreno en desmedro de las primeras. En un artículo que ha tenido una amplia repercusión, Frey y Osborne (2013) señalaban que con la tecnología disponible se podrían automatizar hasta el 47% de los empleos existentes en Estados Unidos.
Por su parte, Martin Ford (2015) plantea que las tecnologías de la información estarían eliminando empleos en todos los sectores, abarcando no sólo a los rutinarios y poco calificados: las nuevas máquinas “inteligentes” empezarían a hacerse cargo también de tareas no rutinarias, reservadas hasta ahora a trabajadores calificados que gozan en general de salarios medios y altos (abogados, médicos, periodistas, arquitectos, etc.).
Muchos autores, no sin buenos argumentos, señalan reservas cuando no un abierto escepticismo respecto de estas proyecciones. Así, se han relativizado vaticinios como los de Frey y Osborne objetando que proyectan directamente la automatización de tareas específicas a los empleos en sí, cuando estos últimos en general involucran una heterogeneidad de actividades anexas, no necesariamente automatizables (Arntz, Gregory y Zierahn, 2016). Más fundamental, el problema de los pronósticos sobre el desempleo tecnológico radica en que implícitamente suponen una suerte de imperativo tecnológico según el cual del hecho de que un empleo o tarea sea técnicamente automatizable, se derivaría que se automatizará efectivamente en el futuro. Este supuesto desconocería factores que no son meramente técnicos: cabe mencionar la gradualidad y contingencia en la difusión y adopción de tecnologías disponibles y los factores económicos que podrían incentivar o no dicha adopción, como el nivel de los salarios (Arntz, Gregory y Zierahn, 2016, p. 21-23). Incluso, hay quienes piensan que la automatización es en cierta medida un mito ideológico (Figueroa, 2019) o parte de una estrategia de marketing impulsada por Silicon Valley.
Es cierto también que los aumentos de productividad de los últimos años no son explosivos ni mucho menos: son significativamente menores que los del período de posguerra, lo cual constituye una razón adicional para tomar los discursos más exacerbados sobre la automatización con cautela.1
Ahora bien, más allá de estas reservas respecto del alcance y la velocidad de la automatización contemporánea y sus repercusiones en el empleo, resulta indudable la tendencia al aumento de la productividad del trabajo gracias al desarrollo tecnológico que acaece en la mayoría de las sociedades capitalistas desde la revolución industrial. Es esta tendencia la que ha servido de punto de partida a una serie de planteamientos que apuestan por la constitución de un tipo de sociedad diferente, basada en la reducción sistemática del tiempo de trabajo y el incremento del tiempo denominado “libre”.
Esta idea ha estado muy presente en parte del pensamiento político de izquierda, crítico del capitalismo. Ya Marx había avizorado que el desarrollo tecnológico impulsado por el capital tendía a reducir el tiempo de trabajo a un mínimo, lo cual entraba en contradicción con la explotación del trabajo asalariado, base del sistema capitalista según su perspectiva (Marx, 2001, Vol. 2, p. 227-228). Una sociedad poscapitalista se apoyaría en esta tendencia, que según reza un famoso pasaje del Tomo III de El capital –de inspiración kantiana y aristotélica– permitiría reducir el reino de la necesidad –la esfera del trabajo, entendida como un medio para la satisfacción de las necesidades– y ampliar el reino de la libertad –en el que las fuerzas y capacidades humanas no serían medios para otra cosa sino que encontrarían en su propio despliegue su fin inmanente– (Marx, 2006, Vol. 3, p. 1044). Esta idea ha sido revisitada en el siglo XX: caben señalar las invectivas de Marcuse hacia fines de la década de 1960 respecto del carácter potencialmente disruptivo de la automatización (1969, p. 41-43 y 1995, p. 66-68) y, más recientemente –ya con la difusión de las tecnologías de la información y la comunicación en las décadas de 1980 y 1990– los debates sobre el fin del trabajo (por ejemplo Gorz, 1997 y 2003; Rifkin, 1996; para un análisis crítico de este debate, véase Pagura, 2018, cap. 3).
En la segunda década de este siglo XXI, nos reencontramos con la misma idea, ahora esbozada de un modo aún más radical. El llamado “Aceleracionismo”, particularmente en su versión de izquierda, plantea que el capitalismo ha comenzado a reprimir el desarrollo tecnológico (Srnicek y Williams, 2017a, p. 40), y propone entre sus demandas fundamentales (junto con la reducción de la jornada laboral y el establecimiento de una renta básica universal) la automatización plena de la producción (Srnicek y Williams, 2017b, p. 85-89). Esta demanda es entonces explícitamente articulada en términos normativos y ya no meramente descriptivos: es, según los autores, un ideal que tal vez nunca pueda alcanzarse por completo pero que resultaría deseable: “La plena automatización es una demanda utópica que apunta a reducir lo más posible el trabajo necesario” (Srnicek y Williams, 2017b, p. 89). Una apuesta similar reencontramos en el reciente libro del periodista y ensayista británico Aaron Bastani, un manifiesto que lleva el sugerente título de Fully Automated Luxury Communism (2019). En su planteamiento, las tecnologías que reemplazan el trabajo humano se conjugan con la energía solar y la minería de asteroides para terminar con la escasez de recursos y dar lugar a lo mentado por el título del libro: un comunismo de lujo completamente automatizado.
La tesis central que voy a tratar de sostener en este artículo, en un diálogo crítico con estas perspectivas, es que un proyecto emancipatorio acorde a las condiciones de nuestro tiempo exige reflexionar seriamente sobre los límites de la automatización. No se trata, vale aclarar, de negar la importancia de la automatización: de hecho, compartimos con los planteamientos antedichos la idea de que su desarrollo resulta uno de los ejes fundamentales sobre los que debe pivotar un proyecto poscapitalista. Sin embargo, del mismo modo que la ilustración trató de pensar los límites de la razón no para rechazarla sino para emplearla correctamente, entendemos que para hacer un buen uso de la automatización tenemos que conocer también sus límites. Las actuales condiciones exigen una crítica de la razón automática, que aquí al menos trataremos de comenzar a esbozar.
Para esto, en el próximo apartado analizaremos el papel que la automatización debería tener para un proyecto emancipatorio, en contraposición con su función en el sistema capitalista. Plantearemos que si bien es cierto –como plantean los Aceleracionistas– que la automatización es un medio imprescindible para alcanzar dos objetivos loables como lo son el tiempo libre y la abundancia material, deberían sopesarse otros fines igualmente deseables con los que la automatización podría entrar en tensión. En el tercer apartado, mostraremos que incluso la implementación efectiva de las tecnologías que se encuentran a la vanguardia del actual proceso de automatización estaría atentando contra ciertas capacidades y facultades humanas cuyo despliegue resultaría imprescindible para un proyecto emancipatorio. En el cuarto apartado explicitaremos las distintas posturas respecto de la tecnología que aparecen supuestas en el debate para luego, en las consideraciones finales, esbozar nuestra propuesta de una automatización ya no plena sino reflexiva.
La automatización, los medios y los fines de la producción2
Para reflexionar sobre el lugar de la automatización en un proyecto poscapitalista como el que plantean los aceleracionistas, vale la pena primero hacer algunos señalamientos generales sobre el rol de la automatización en el propio sistema capitalista. En este último, la automatización –que podemos definir a grandes rasgos como el reemplazo parcial o total de fuerza de trabajo humana por fuerza maquínica– es fundamentalmente un medio con el cual las empresas buscan reducir sus costos de producción para aumentar sus ganancias. Este último objetivo puede alcanzarse inmediatamente si las empresas mantienen sus precios de venta –con lo cual los menores costos implican directamente márgenes mayores de ganancia por unidad vendida– o mediatamente, si reducen sus precios de un modo acorde a la reducción de costos con el objetivo de ganarle cuotas del mercado a la competencia –esta estrategia implica en general la perspectiva de aumentar la escala de la producción, ya que en este caso las mayores ganancias provendrían de un aumento de las unidades vendidas–.
Por lo tanto, la automatización en este sistema es un medio y no un fin, que en tanto tal está sujeto a ciertas restricciones específicamente económicas. La primera y más evidente, es que el costo de la máquina debe ser menor que el costo del trabajo que reemplaza. No es una cuestión menor, ya que entonces la automatización puede verse frenada por la existencia de bajos salarios. Marx había conceptualizado esta cuestión con claridad,3 y Srnicek y Williams (2017b, p. 87) la esgrimen como una de las causas que explicarían el rezago de la automatización en el capitalismo contemporáneo, a la vez que exhortan consecuentemente a un aumento de los salarios para acelerar aún más el proceso.
Existen otros factores, algunos mencionados por Srnicek y Williams (2017a, p. 40), que presumiblemente también limitan el desarrollo tecnológico en el sistema capitalista. Sin pretender ser exhaustivos, podemos mencionar los regímenes de propiedad intelectual, que otorgan un monopolio cuando menos temporal sobre ciertos desarrollos tecnológicos a los innovadores para capitalizar sus inversiones, y así obstaculizan su difusión y la posibilidad de futuras innovaciones (Mazzucato, 2018, p. 189-192). A lo cual cabe añadir que la lógica de la maximización de la ganancia tiende a inhibir también las inversiones que no pueden capitalizarse en el corto plazo, como las vinculadas a la investigación básica, que no casualmente suelen ser emprendidas con fondos públicos. Sin lugar a dudas, una sociedad poscapitalista no sólo podría, sino que debería remover estos y otros obstáculos que en el sistema capitalista frenan el desarrollo tecnológico y la automatización. Pero a mi juicio hay otro tipo de límites más importantes, que un proyecto político con perspectivas emancipatorias tendría que poner en un primer plano del análisis.
Lo primero que hay que enfatizar es que la automatización para nosotros –pero también, según interpretamos, para los aceleracionistas– es un medio y no un fin. Su sentido estratégico es la reducción del tiempo de trabajo en vistas de un fin que es el aumento del tiempo libre disponible. Pero la importancia de este fin no lo transforma en el único relevante, algo que al menos implícitamente acaba implicando la demanda aceleracionista de una “automatización plena” de la producción. En efecto, puede pensarse en una pluralidad de fines deseables que en ciertos contextos podrían entrar en tensión con el imperativo de productividad que conlleva esta demanda. Un ejemplo es el cuidado del medio ambiente, con el cual muchos desarrollos tecnológicos –justificables en términos de aumento de la productividad– están lejos de tener una relación armónica. Los debates que hoy se dan en muchas partes del mundo y especialmente en América Latina alrededor de ciertas tecnologías para explotar recursos naturales –el uso sistemático de transgénicos y el modelo de una agricultura “sin agricultores”, la minería a cielo abierto, la explotación de hidrocarburos bajo modelos no convencionales como el Fracking– ponen esta cuestión en el centro de la discusión (véase por ejemplo Acosta y Brand, 2017). En relación con esto, puede pensarse también en la necesidad ética de sostener ciertos entornos con sus formas de vida locales.
En América Latina en particular ha ganado terreno en algunos ámbitos académicos, sociales y políticos, el debate sobre la necesidad de impulsar formas alternativas de vida y de desarrollo económico, por ejemplo el “Buen Vivir” y otras perspectivas pos-desarrollistas, ancladas en cosmovisiones que cuestionan la axiomática social característica del capitalismo, basada en la utilización unilateral de la naturaleza y la relación costo-beneficio (véanse por ejemplo Dávalos, 2008; Gudynas, 2011; y Unceta, 2015). Incluso es ampliamente conocido que países de la Unión Europea como Francia otorgan subsidios a sus agricultores no en vistas de que incrementen su productividad, sino para sostener sus entornos y técnicas de producción, parte indisoluble de sus formas de vida.4
Vista desde esta perspectiva, la “automatización plena” implica la imposición de un imperativo de eficiencia y productividad, tan unidimensional como el imperativo de rentabilidad que domina la vida económica en el sistema capitalista. Por el contrario, desde nuestra perspectiva, una propuesta poscapitalista tiene que partir del reconocimiento de que hay una pluralidad de fines de la producción, cuya definición debería depender, en última instancia, de decisiones políticas que deben tomarse de forma participativa y democrática. La ampliación del tiempo libre y la abundancia material son sin lugar a dudas fines importantes, pero no los únicos.5
Lo dicho hasta ahora se vincula con la automatización en tanto medio para un fin. Si pasamos a pensar la automatización en sí misma, surge una segunda cuestión que es incluso más fundamental. Sucede que la automatización transforma las actividades sobre las que opera, así como sus productos. El ejemplo clásico para pensar esto nos lo ofrece la primera Revolución industrial. Respecto de las actividades laborales, la introducción del maquinismo implicó la descualificación de los trabajadores, su subordinación a los ritmos maquínicos y la estandarización de sus actividades. El saber-hacer dejó de estar en posesión de los productores directos y pasó a objetivarse en las máquinas, proceso que Bernard Stiegler denomina “proletarización” (2016, p. 50-53) –este concepto es importante para esta investigación y lo retomaremos más adelante–. Respecto de los productos, la revolución industrial implicó el pasaje del “producto artesanal” al “producto industrial”, este último un objeto estandarizado y uniforme, sin huellas de su productor. Este proceso signó toda una época de auge del industrialismo, desde finales del siglo XVIII, con las primeras máquinas hiladoras, hasta la primera mitad del siglo XX, con la expansión del fordismo –que introdujo la cinta transportadora automática que fijaba “maquinalmente” los tiempos de las operaciones–, pasando por la descomposición y medición meticulosa de los tiempos de trabajo en el taylorismo.
Si se enfoca la cuestión desde esta perspectiva, la automatización total adquiere un aspecto inquietante. Llevada al límite, implicaría la estandarización y homogeneización definitivas de todas las actividades humanas. El blanco, naturalmente, ya no sería la producción de bienes materiales –donde el proceso ya ha adquirido un carácter irreversible– sino los servicios a las personas –que, como es ampliamente conocido, absorben la mayor parte del empleo en las sociedades contemporáneas–. Se profundizaría un proceso que de hecho está en curso en muchas áreas. Pensemos por ejemplo en la enseñanza. En principio, es perfectamente posible en términos técnicos pensar en un proceso de enseñanza-aprendizaje enteramente automatizado, sin docentes humanos. O, al menos, con muy pocos de ellos, que ayudarían a diseñar los programas de enseñanza que después ejecutarían unos sistemas informáticos sofisticados, equipados con los últimos desarrollos de inteligencia artificial. Ahora bien: ¿El resultado final de esto no sería una estandarización y homogeneización de los procesos de transmisión del saber e, incluso, de los mismos saberes, además de la pérdida, más general, de un espacio de socialización de gran importancia? Preguntas similares pueden hacerse respecto de la automatización de otros campos laborales, desde la medicina hasta el diseño arquitectónico.
Se revela aquí un problema más profundo y general que cuando menos hay que plantear frontalmente a la hora de pensar la automatización, y que tiene que ver con el mismo concepto de “trabajo”. En las sociedades capitalistas contemporáneas, llamamos “trabajo” a actividades que en cuanto a su sustancia son sumamente disímiles. Desde la producción de todo tipo de bienes industriales a la provisión de servicios diversos, incluyendo la actividad política y la producción científica: a toda esta gama heterogénea de actividades la denominamos con este insidioso término. No se trata, no obstante, de una generalización injustificada: lo que ocurre es que con este concepto asimilamos un conjunto de actividades no en cuanto a su contenido sino en cuanto a su forma. Básicamente, entendemos como “trabajo” toda actividad que se hace para otros (sea un empleador privado o público, sea directamente el mercado en el caso de un trabajador autónomo) a cambio de un salario o ingreso.
Las invectivas actuales a favor de una “automatización plena” en pos de la fundación de una “sociedad postrabajo” no problematizan este concepto abstracto y formal de “trabajo”. Sin embargo, habría que dar un paso adelante y pensar que en una sociedad como la que proyectan estos planteos –con las necesidades materiales cubiertas por un ingreso básico universal– este concepto formal implosionaría, posibilitando la emergencia en el debate público de la cuestión fundamental del sentido y el contenido inmanente de las distintas actividades que hoy denominamos indistintamente como “trabajo”. En este marco, emergería con su debida importancia la pregunta ético-política respecto de las actividades en las que la automatización debería limitarse.
Ciertamente, Srnicek y Williams mencionan este problema cuando reconocen que ciertas tareas, particularmente las de cuidado, podrían plantear “límites morales” al principio general de la automatización (2017b, p. 88-89). Las tareas de cuidado son un caso particular de un tipo más general de actividades, aquellas que implican afecto, comprensión y empatía, cualidades que las máquinas apenas pueden simular mediante respuestas convencionales (Bodem, 2017, p. 140). Dejarles a las personas más vulnerables (niños, ancianos, etc.) este simulacro de comprensión no parece corresponderse en absoluto con una sociedad que enarbole valores comunitarios. Es cierto que hay un sesgo sexista en el reparto de estas actividades, pero la respuesta ante el mismo debería ser su reparto equitativo, no su delegación a las máquinas.
Sin embargo, entendemos que esta problemática es más general y no se reduce a las tareas de cuidado, y además no es una cuestión sólo moral sino también y sobre todo política. En el marco de una hipotética “sociedad postrabajo”, las personas tendrán más tiempo, y más allá del ocio querrán seguir realizando actividades útiles. La pregunta que se abre entonces es cuáles son aquellas en las que los seres humanos –en compañía y con ayuda de las máquinas, por qué no– deberían seguir teniendo un papel fundamental. Esta pregunta se vuelve más crucial atendiendo a una serie de procesos técnico-sociales en curso, que analizaremos críticamente a continuación.
La automatización actual: el auge del Machine Learning y la proletarización de la razón
Para profundizar la indagación respecto de los límites de la automatización tenemos que prestar mayor atención a las tecnologías que actualmente se encuentran a la vanguardia de dicho proceso. El relanzamiento del debate sobre la automatización –que reseñamos en la introducción de este artículo– está fundamentalmente vinculado con el desarrollo, desde fines de la primera década de este milenio, de una serie de técnicas de análisis estadístico de datos, en general conocidas con el nombre de Aprendizaje automático o Machine Learning (a partir de aquí, abreviaremos como ML). La historia del ML se remonta más atrás en el tiempo, hasta el surgimiento de las primeras investigaciones en el campo de la Inteligencia Artificial (abreviaremos como IA a partir de aquí), a mediados de la década de 1950. Sin embargo, hasta su regreso triunfal en los últimos años, el ML había sido un enfoque más bien marginal dentro de este campo, eclipsado por otro, denominado en ocasiones como Inteligencia Artificial Simbólica o Clásica –los estudiosos actuales del campo suelen referir a ella con el acrónimo GOFAI, “Good Old-Fashioned Artificial Intelligence”,6 lo cual denota el cambio de paradigma acaecido–. La IA simbólica procuraba implementar en las máquinas lo que este enfoque considera que son las funciones cognitivas más elevadas de la mente humana, fundamentalmente el razonamiento y las reglas lógicas, como formas de tratar con el lenguaje, representado como un sistema de símbolos que debe formalizarse para ser operado informáticamente (Steinhoff, 2021, p. 125).
La IA simbólica consiguió algunos logros parciales, pero muy tempranamente comenzaron a ponerse de manifiesto sus limitaciones. En las décadas de 1950 y 1960, una de las aplicaciones donde más fondos invirtió el gobierno norteamericano y a donde se dirigieron muchos esfuerzos de los investigadores fue la traducción automática. El interés del gobierno radicaba en que esta aplicación podía resultar estratégica para traducir documentos del gobierno ruso en el marco de la Guerra Fría. El enfoque de la IA simbólica para el procesamiento del lenguaje natural estaba centrado en las reglas sintácticas, que se suponía que los sistemas tenían que “saber” para poder procesarlo. Pero los resultados no fueron los esperados. En 1966 un demoledor informe de un comité encargado por el gobierno norteamericano para evaluar estos sistemas decretó que los mismos eran ciegos al contexto y a la relevancia en su procesamiento del lenguaje natural, y por lo tanto terminaban forcejeando con la sintaxis sin alcanzar resultados satisfactorios. Los fondos para la investigación no sólo en traducción automática sino en la IA en general comenzaron a ser recortados, y durante los años siguientes se vivió un período crítico que los investigadores nominan como “El invierno de la IA” (Bodem, 2017, p. 56; Steinhoff, 2021, p. 129-130).
En la década de 1980 la IA simbólica tuvo un resurgimiento con los llamados “Sistemas expertos”, que constituyeron de hecho los primeros desarrollos de la IA a nivel industrial. Estos sistemas procuraban codificar el conocimiento especializado en determinados dominios –química, medicina, etc.–, articulándolo mediante un conjunto de reglas lógicas, fundamentalmente condicionales (Steinhoff, 2021, p. 131). Y aunque lograron algunas aplicaciones a nivel industrial, pronto afrontaron problemas. Los sistemas tenían que construirse cada vez para cada dominio o proceso a afrontar, y su estructura formal y estática encontraba problemas para adaptarse a situaciones complejas y dinámicas. Para permitir su adaptación en entornos reales, se requería entonces sumar permanentemente nuevas reglas que no sólo encarecían su funcionamiento sino que también aumentaban la opacidad de los sistemas y la dificultad de manejarlos por personas no especializadas (Steinhoff, 2021, p. 137-139). La IA, de hecho, entró en un “segundo invierno” a principios de la década de 1990, que se extendería hasta bien entrado el nuevo milenio.
¿Cómo es que entonces se dio el ascenso del hasta entonces marginado ML? Empecemos haciendo un paréntesis crítico. Para explicar las causas de la actual fase de automatización, autores como Brynjolfsson y McAfee (2014, p. 42-48), así como el propio Bastani (2019, p. 40-46), ponen particular énfasis en lo que se denomina “la ley de Moore”. Esta ley es en realidad una generalización empírica, y debe su nombre a quien la formulara por primera vez en 1965, el cofundador de Intel Gordon Moore. Constata y proyecta que la capacidad de los circuitos integrados (microchips) se duplica año a año.7 Esto implica un crecimiento exponencial que pasadas algunas décadas arroja números tan altos que resultan difíciles de concebir para la mente humana.8
La ley de Moore bien puede servir para dar cuenta del gran aumento de la potencia informática en las últimas décadas. Sin embargo, observo cierta exageración retórica en algunos autores cuando apelan a la misma para explicarnos que estamos en un momento bisagra del progreso científico-tecnológico: los nuevos desarrollos en IA serían apenas la punta del iceberg, las primeras manifestaciones del “crecimiento exponencial”, y el futuro nos esperaría con hallazgos impredecibles, ahora impensados.9 Por ejemplo, la ley de Moore y algunos ejemplos de desarrollos apenas incipientes constituyen el principal sostén de Bastani para anunciar la llegada cercana de la minería de asteroides y otros hallazgos con los que se terminaría el reino de la escasez que haría posible su comunismo de lujo plenamente automatizado. Sin embargo, todo esto constituye una vaga elucubración: incluso cuando la ley de Moore siguiera funcionando no indica nada más que se podrán solucionar problemas y desarrollar dispositivos que requieran mayor potencia para el procesamiento de información. Ir más allá de esto y predecir con La ley de Moore cambios cualitativos que ni siquiera podemos imaginar constituye un exceso de retórica que también esconde una muy discutible asimilación entre la velocidad de procesamiento de la información y el avance del conocimiento.10
Más allá de lo inapropiado que resulta apelar a la ley de Moore para predecir futuros avances en el conocimiento, sí es cierto que el aumento en la velocidad de los procesadores fue una de las condiciones necesarias para el ascenso del ML. Lo otro que se necesitaba era una gran cantidad de datos digitales para entrenar los sistemas de IA. Se suele decir que estos datos los puso a disposición internet, lo cual es una afirmación sumamente imprecisa y abstracta. De hecho, la primera internet se desarrolló en el marco de lo que los investigadores denominan el “segundo invierno de la IA”. En internet había, ciertamente, datos, pero se necesitaba una infraestructura adecuada para su extracción y utilización sistemática. Esta infraestructura la facilitó el denominado “capitalismo de plataformas” (Srnicek, 2018) o “capitalismo de vigilancia” (Zuboff, 2020). Una verdadera maquinaria deliberadamente estructurada para obtener y acumular datos de los usuarios en vistas de distintos fines (en particular, aunque no solamente, comerciales) fuertemente vinculados entre sí, entre los cuales se cuenta –y no en último término– entrenar los algoritmos del ML. Fue esta suerte de “acumulación originaria” de datos –y el concepto marxiano es atinado en este caso por los mecanismos compulsivos y opacos, incluso desde el punto de vista legal, mediante los cuales se concretó la extracción (sobre esta cuestión, véase Zuboff, 2020, cap. 5)– la que desbloqueó está técnica, anteriormente un mero subcampo marginal dentro de los estudios de la IA. Naturalmente, son las mismas empresas líderes del “capitalismo de plataformas” (Google, Amazon, Facebook, Microsoft) las que también dominan fuertemente el campo actual de las investigaciones y aplicaciones de la IA.
Aunque existen diversas técnicas y algoritmos dentro del campo del ML, todas ellas se basan fundamentalmente en el análisis de datos para realizar inferencias de índole estadística o inductiva. Como señala Erik Larson: “el aprendizaje automático es el tratamiento informático de la inducción: la adquisición de conocimiento a partir de la experiencia. El aprendizaje automático no es más que una inducción automatizada” (2022, p. 160). Por ejemplo: los traductores actuales basados en el ML como el de Google –que no son perfectos, pero sin dudas superan todos los intentos anteriores– utilizan una gran base de datos de textos traducidos a distintos idiomas en los cuales “mapean” palabras o frases y las traducciones más frecuentes de las mismas (Larson, 2022, p. 240).
Más allá del fervor actual en torno de las posibilidades de la IA –graficado en la proliferación de discursos, algunos de tono esperanzado, otros más apocalípticos, sobre el advenimiento de máquinas más inteligentes que los seres humanos– muchos investigadores han puesto de manifiesto los límites del ML. Vale señalar someramente algunos. Al basarse en la inducción y la estadística, estos sistemas tienen dificultades para resolver situaciones imprevistas, ya que no tienen otra forma de hacerlo que con los datos con que fueron entrenados (Larson, 2022, p. 167-169).
Otro problema es el llamado “sesgo de los datos”: los sistemas predicen y enfrentan situaciones a partir de datos anteriores que, sin embargo, en muchos casos no son neutrales, sino que contienen sesgos de distintos tipos que, por ejemplo, directa o indirectamente perjudican a ciertos grupos sociales. Cathy O O’Neil (2016) ofrece distintos ejemplos que ilustran esta cuestión, como el caso de los sistemas de prevención del delito basados en el análisis de datos que se utilizan en muchas ciudades de Estados Unidos. Estos sistemas establecen las zonas que la policía debe patrullar en base a los datos obtenidos sobre delitos anteriores. Como la mayor parte de ellos son delitos menores (vagabundeo, consumo de drogas, etc.) cometidos en barrios empobrecidos, se intensifica la vigilancia policial sobre esos lugares, lo cual genera nuevos datos de delitos que a su vez llevan a incrementar la vigilancia, generándose una suerte de bucle de retroalimentación que resulta en una criminalización creciente de esas poblaciones (O’Neil, 2016, p. 137-138).
Naturalmente, no tiene el mayor sentido demonizar al ML, que puede ser útil para muchas cosas, pero sí su uso acrítico e irreflexivo, particularmente considerando que forma parte de una infraestructura digital fuertemente controlada por unas pocas grandes empresas. En las plataformas digitales, tan importantes en el capitalismo actual y en el desarrollo de la IA, hay una asimetría evidente en términos de la información que manejan los propietarios de las mismas, por un lado, y los usuarios, por el otro. Las plataformas recolectan los datos de estos últimos registrando cada una de sus actividades, y mediante técnicas automatizadas de ML establecen relaciones entre esos datos y los de otros usuarios. A partir de estas correlaciones establecen “perfiles” de los usuarios que resultan útiles para predecir y operar sobre sus gustos, deseos, comportamientos, etc. Rouvroy y Berns (2016) plantean que esta forma de poder –a la que denominan “gubernamentalidad algorítmica”– se caracteriza por actuar sobre los usuarios de un modo básicamente conductista,11 utilizando la información para generar estímulos en busca de respuestas reflejas e irreflexivas:
Se trata de producir un paso al acto sin formación ni formulación de deseo. El gobierno algorítmico parece así sellar la consumación de un proceso de disipación de las condiciones espaciales, temporales y lingüísticas de la subjetivación y de la individuación, en provecho de una regulación objetiva, operacional, de las conductas posibles, y esto, partiendo de “datos brutos” en sí mismos a-significantes, y cuyo tratamiento estadístico apunta ante todo a acelerar los flujos –ahorrándose toda forma de “desvío” o de “suspensión reflexiva” subjetiva entre los “estímulos” y sus “respuestas reflejas”–. (Rouvroy y Berns, 2016, p. 100)
Lo que resulta particularmente problemático de la “gubernamentalidad algorítmica” es la pretensión de predecir los deseos, decisiones, etc. en base a esos “dobles” de nosotros que son los “perfiles”, omitiendo precisamente el momento de la deliberación y decisión de los sujetos. Bernard Stiegler lleva más lejos este planteo, sosteniendo que asistimos a un nuevo avance en el proceso histórico de proletarización, que reconocería tres momentos. La primera ya la explicamos en el apartado anterior: es la proletarización del saber-hacer, que acontece en la revolución industrial, cuando el saber del obrero manual pasa a objetivarse en la máquina. La segunda es la proletarización del saber-vivir, que se desarrolla aproximadamente desde la tercera década del siglo XX, con el surgimiento de la sociedad de consumo y los medios masivos de comunicación. Se proletarizan ahora el deseo, la sensibilidad, la atención y la vida simbólica de los sujetos, que en tanto consumidores son conducidos por las industrias masivas de bienes materiales y culturales (cf. Stiegler, 2016, p. 20-22 y 2017, p. 53-55).
Stiegler plantea que actualmente hay un avance hacia la proletarización del saber teórico que profundizaría y completaría a las dos anteriores (2016, p. 24-25). El análisis de datos y su proyección estadística hacia el futuro tornarían superfluos los procesos propiamente cognitivos de reflexión, deliberación y decisión. En esta línea, Chris Anderson, ex editor en jefe de la revista Wired, ha llegado a plantear que el big data y el ML tornarían obsoleta la teoría científica: las correlaciones estadísticas obtenidas automáticamente del análisis de grandes cantidades de datos harían innecesarias las hipótesis, las teorías y los modelos (Anderson, 2008).
La tesis de Stiegler, a nuestro juicio, hay que entenderla en un sentido amplio: no es sólo el saber específicamente teórico lo que está en riesgo de proletarización; también está en riesgo el saber práctico, crucial para una política emancipatoria. No se puede transformar lo dado si se interpreta el futuro como una mera proyección estadística del pasado. Del mismo modo, una práctica política basada en la mera estadística conlleva la reproducción y retroalimentación de las injusticias existentes. En este punto, vale enfatizar con Stiegler (2016, p. 43-50) la importancia de la distinción entre hecho y ley que, como bien sabía Kant, es constitutiva de toda racionalidad, sea teórica o práctica.12 La teoría no se reduce a un conjunto de hechos; es también construcción de categorías para ordenarlos, organizarlos y darles sentido. En el caso de una teoría crítica –perspectiva amplia en la cual se enmarca este trabajo– es fundamental que estas categorías además pongan en cuestión lo dado y abran el campo de lo posible (Pagura, 2018, p. 444-449). La crítica es uno de los blancos de la gubernamentalidad algorítmica, que en efecto reduce lo posible –aquello que no es pero podría ser– a lo estadísticamente probable (Rouvroy, 2020, p. 1). En cuanto a la razón práctica, el concepto de ley es el que permite establecer la distinción entre lo que es y lo que debería ser. Así, la confianza ciega en los algoritmos que toman decisiones abre la puerta a la irresponsabilidad individual y colectiva. Stiegler utiliza una expresión elocuente para referir al actual vaciamiento de la razón teórica y práctica: estupidez sistémica (2016, p. 24).13
¿Acelerar o reorientar la tecnología?
Recapitulemos lo planteado hasta aquí. Empezamos tratando de aclarar el sentido de la automatización en un proyecto poscapitalista. Señalamos que la automatización es un medio para unos fines loables (la reducción del tiempo de trabajo en particular) que sin embargo no son los únicos a considerar. Explicamos también que en tanto medio, la automatización no es neutral, teniendo consecuencias sobre las actividades en las que opera y sus resultados. Luego nos detuvimos –para entender con más profundidad el proceso de automatización en curso– en el desarrollo de la inteligencia artificial, el auge del Machine Learning, la constitución de lo que Rouvroy y Berns denominan “gubernamentalidad algorítmica” y su decurso en lo que con ayuda de Stiegler llamamos “proletarización de la razón”. Es en este terreno que hay que pensar los límites de la automatización. Puede ser, como proponen los aceleracionistas, que haya mucho aún para automatizar. Pero también hay muchos automatismos por romper. En esta línea, Stiegler sostiene que a los planteos sobre el “fin del trabajo” les falta pensar otro concepto de “trabajo”: aquel realizado de modo intermitente, cuyos tiempos no pueden prescribirse coactivamente y que contrarresta los automatismos que precisamente conducen a aumentar irremediablemente la entropía del sistema (Stiegler, 2016, p. 164-181).
Lo mismo puede decirse respecto de los planteamientos aceleracionistas. La automatización total es un mal ideal porque una sociedad completamente automatizada entraría en un estado de entropía en el cual ya no habría nada por hacer, nada por crear. Cabría pensar seriamente también qué tiene de libre un tiempo sujeto a automatismos maquínicos. Además, y como planteamos anteriormente, la automatización implica cuestiones sobre los fines de la vida humana que desde una perspectiva emancipatoria deberían deliberarse en una esfera pública y democrática. Algo contra lo que atenta también la gubernamentalidad algorítmica, que además de ocluir la reflexión y la deliberación, tiende a segmentar el espacio público en micro-comunidades que piensan, sienten y se expresan de modo similar. Es lo que construye la dinámica algorítmica de los perfiles, que en última instancia apunta a generar un entorno cómodo para captar la atención del usuario, ofrecerle publicidad personalizada y obtener lo que Zuboff (2015, p. 81-83) denomina “conformidad anticipada”.
Ahora bien: ¿qué posición sobre la tecnología corresponde asumir entonces? No se trata de destruir la tecnología, postura evidentemente romántica que Srnicek y Williams atribuyen a parte de la izquierda actual, a la que acusan de tener tendencias que denominan “primitivistas” (2017b, p. 113). Tampoco se trata de asumir una postura de tipo “instrumentalista”, es decir, aquella que sostiene que la tecnología es neutral y que en definitiva será su uso la que determinará si es buena o mala. El problema es que la tecnología suele ser diseñada a priori con determinados objetivos que implican determinados resultados. Un instrumentalista objetaría que técnicas como el Machine Learning o el Data Mining podrían ser útiles para distintos fines, y que serían de gran utilidad en una economía poscapitalista. El límite de este argumento es que supone que estas técnicas existen de modo etéreo y aisladas de las infraestructuras materiales en las que funcionan efectivamente. Como afirma Kate Crawford:
La IA como la conocemos depende por completo de un conjunto mucho más vasto de estructuras políticas y sociales. Y, debido al capital que se necesita para construir IA a gran escala y a las maneras de ver que optimiza, los sistemas de IA son, al fin y al cabo, diseñados para servir a intereses dominantes ya existentes. (2022, p. 29)
La postura que entendemos más adecuada para una perspectiva poscapitalista es la que Andrew Feenberg (2012) denomina teoría crítica, que sostiene que la tecnología no es neutral pero puede ser reorientada y transformada, mas no meramente en su aplicación a posteriori –esto sería recaer en el instrumentalismo– sino en el mismo proceso de diseño y construcción de infraestructuras tecnológicas.
¿Qué postura asumen los Aceleracionistas? En su Comunismo de lujo…, Bastani implícitamente parece abonar una perspectiva instrumentalista. Aunque sostiene que el desarrollo tecnológico por sí sólo no conlleva emancipación –sería una condición necesaria mas no suficiente– en definitiva entiende que bajo determinadas condiciones políticas e ideológicas la infraestructura tecnológica existente llevaría al poscapitalismo (Bastani, 2019, p. 239-242). Y nunca se plantea la pregunta sobre la neutralidad de la técnica, asumiéndola implícitamente. La postura de Srnicek y Williams, en cambio, es más explícita e interesante, aunque en definitiva no es enteramente consistente. En el Manifiesto parecen asumir una postura más cercana al instrumentalismo: sostienen que “la base material del neoliberalismo no necesita ser destruida sino redirigida hacia objetivos comunes” (2017a, p. 40-41) e incluso citan con aprobación una famosa invectiva de Lenin contra el llamado “izquierdismo” destacando la necesidad indefectible, para el socialismo, de utilizar la gigantesca maquinaria capitalista de producción y distribución (2017a, p. 38).
Además, insisten con el lema de “acelerar” el desarrollo tecnológico, una idea que sólo parece ser consistente si se asume que el medio técnico, tal como existe, es un instrumento neutral. En Inventar el futuro –donde llamativamente la idea de aceleración está casi ausente– parece continuarse la misma línea cuando se plantea el ya mentado ideal de “automatización plena”. Sin embargo, más adelante en el mismo texto, en un interesante apartado denominado “Reorientar la tecnología” (2017b, p. 113-119) los autores reconocen que la tecnología no es neutral, y que su reorientación hacia otros fines tiene que considerar ciertos límites intrínsecos. Incluso aquí toman como caso histórico de estos límites la adopción, por la Unión Soviética, de tecnologías y formas de organización del trabajo –taylorismo, fordismo, etc.– que tendían a la máxima eficiencia y eliminaban la autonomía de los trabajadores, convirtiéndolos en eslabones de las máquinas: “Dada su adopción indiscriminada de la maquinaria capitalista y sus técnicas de administración, no resulta sorprendente que el sistema tendiera hacia los modos de operar del capitalismo” (2017b, p. 118). Y concluyen que habrá que decidir con cuidado, en base a ciertos criterios que los autores enuncian de modo muy general, qué tecnologías son aptas y cuáles no para construir un futuro poscapitalista.
La pregunta emerge por sí sola: ¿Se puede reorientar la tecnología y a la vez sostener el ideal de “automatización plena” de la producción? Por lo que venimos desarrollando, la respuesta parece ser negativa. La reorientación de la tecnología requiere un proceso reflexivo, crítico y electivo que inevitablemente entra en tensión con el imperativo de automatización, que como ya planteamos es unidimensionalmente economicista y productivista. Cuestión que se agrava teniendo en cuenta que la automatización contemporánea es solidaria con una forma “algorítmica” de gobierno de lo social que ocluye la crítica, la deliberación colectiva e incluso el concepto mismo de ley.
Consideraciones finales: por una automatización reflexiva
Tener una red en la que está disponible buena parte del conocimiento producido por la humanidad y tener además la posibilidad de procesarlo mediante potentes máquinas informáticas es una cuestión cuya importancia no correspondería en absoluto subestimar. En cierto sentido, es el cumplimiento de un sueño ilustrado que puede encontrarse ya en pensadores e inventores del siglo XVII. Justin Smith señala que:
Leibniz había anticipado la posibilidad de delegar en máquinas las operaciones mentales más tediosas y pesadas; las máquinas harían los cálculos matemáticos y el análisis de argumentos, de modo tal que nosotros pudiéramos “pensar en grande”: contemplar ideas y sintetizar los resultados de las máquinas en argumentos nuevos y originales. (Smith, 2023, p. 67)
Pero alcanzado con creces el primer objetivo, parece que nos hemos olvidado del segundo:
Lo que en realidad parece haber ocurrido es que, a medida que recibimos los resultados de esas operaciones pesadas y tediosas, las tomamos por la forma más elevada posible del trabajo intelectual, y las usamos como modelo –y a la vez como límite– del modo en que concebimos nuestra mente y nuestra voluntad. (Smith, 2023, p. 67)
De ahí una paradoja de nuestra época, signada por una impotencia que, como plantea Paolo Virno (2021, p. 7-9), resulta sumamente peculiar: no se debe a una falta de capacidades y medios sino más bien a un exceso de los mismos que, sin embargo, no parecen poder actualizarse y así efectivizarse. En donde más clara se hace esta impotencia es en la dificultad para proponer y alcanzar metas colectivas.
Para remediar esta impotencia colectiva, una de las labores necesarias será des-automatizar, democratizar y ampliar las instancias de reflexión, deliberación y decisión, lo cual requiere replantear el funcionamiento de las instituciones políticas, pero también –y particularmente– el de la infraestructura digital que domina crecientemente la vida social. Esta última es mayormente cerrada: los usuarios tienen acceso –en algunos casos gratuito– pero su funcionamiento es completamente opaco. Y es además fundamentalmente privada –con fuerte dominancia de unas pocas corporaciones– lo cual hace que sus mecanismos –en gran medida automatizados– tengan como fin la maximización de las ganancias.
Lejos de ser el ideal normativo de un proyecto emancipatorio que pretende el “Aceleracionismo de izquierda”, la automatización plena de la producción es el ideal de un capitalismo que funciona sin trabas como las que implican la reflexión y la deliberación. Estas últimas requieren un tiempo individual y social que no es reembolsable en términos pecuniarios y enlentece la velocidad de rotación del capital: desde una perspectiva reductivamente economicista, bien podrían dejarse en manos de unas máquinas que calculan a la velocidad de la luz. No deja de ser sumamente significativo el hecho de que en el sector financiero –que desde el giro neoliberal de la década de 1980 viene limitando el campo de acción de los Estados Nación y de las directivas políticas– el uso de algoritmos para la toma de decisiones de inversión esté ampliamente extendido.14
Por eso, frente al ideal de una automatización plena planteamos el ideal de una automatización reflexiva como aquel que debería guiar la praxis de un proyecto emancipatorio. El mismo considera a la automatización como un medio para alcanzar bienestar material aunado con un mayor tiempo libre para todos. Pero estos fines no son absolutos ni unívocos, y su lugar relativo debe ser sopesado en relación con otros fines. El reconocimiento de una pluralidad de fines –cuestión eminentemente ética y política, que debería resolverse por la deliberación colectiva– implica una primera restricción a la automatización. Una segunda restricción se debe a que, en tanto medio, la automatización no es neutral y afecta las actividades y facultades humanas sobre las que opera. El riesgo fundamental de la automatización actual es que precisamente amenaza con avanzar sobre aquellas capacidades individuales y colectivas que deberían guiarla y encauzarla normativamente. Bien puede entenderse este artículo como un ejercicio en este sentido. Sus consideraciones, ciertamente provisorias y seguramente incompletas, procuraron aportar reflexiones para una deliberación que para cobrar efectividad tendrá que ser asumida de manera colectiva.
Fuentes consultadas
Acosta, A. y Brand, U. (2017). Salidas del laberinto capitalista: Decrecimiento y postextractivismo. Buenos Aires: Tinta Limón y Fundación Rosa Luxemburgo.
Anderson, C. (2008). The End of Theory: the Data Deluge Makes the Scientific Method Obsolete. En Wired. Recuperado de: https://pdodds.w3.uvm.edu/files/papers/others/2008/anderson2008a.pdf
Arntz, M., Gregory, T. y Zierahn, U. (2016). The Risk of Automation for Jobs in OECD Countries: A Comparative Analysis. En OECD Social, Employment and Migration Working Papers. Núm. 189. pp. 1-34. DOI: https://doi.org/10.1787/5jlz9h56dvq7-en
Bastani, A. (2019). Fully Automated Luxury Communism. Londres: Verso.
Benenav, A. (2020). La automatización y el futuro del trabajo – II. En New Left Review. Núm. 120. pp. 125-158.
Benanav, A. (2019). La automatización y el futuro del trabajo -I. En New Left Review. Núm. 119. pp. 7-44.
Bodem, M. (2017). Inteligencia artificial. Madrid: Turner.
Brynjolfsson, E., Rock, D. y Syverson, C. (2017). Artificial Intelligence and the Modern Productivity Paradox: a Clash of Expectations and Stastistics. En National Bureau of Economic Research. Working paper 24001. Recuperado de: https://www.nber.org/system/files/working_papers/w24001/w24001.pdf
Brynjolfsson, E. y McAfee, A. (2014). The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. Nueva York: WW Norton & Company.
Crawford, K. (2022). Atlas de inteligencia artificial: poder, política y costos planetarios. Buenos Aires: FCE.
Dávalos, P. (2008). Reflexiones sobre el Sumak Kawsay (el Buen Vivir) y las teorías del desarrollo. En Boletín ICCI-ARY Rimay. Núm. 113. Recuperado de: http://icci.nativeweb.org/boletin/113/davalos.html
Feenberg, A. (2012). Transformar la tecnología. Una nueva visita a la teoría crítica. Bernal: Universidad Nacional de Quilmes.
Figueroa, V. (2019). ¿Hacia el fin del trabajo? Mitos, verdades y especulaciones. Nueva Sociedad. Núm. 279. pp. 49-61. Recuperado de: https://nuso.org/articulo/hacia-el-fin-del-trabajo/
Ford, M. (2015). El auge de los robots. Barcelona: Paidós.
Frey, C. y Osborne, M. (2013). The Future of Employment: How Susceptible Are Jobs To Computerisation? Reino Unido: Oxford Martin School. Recuperado de: https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf
Gorz, A. (2003). Miserias del presente, riqueza de lo posible. Buenos Aires: Paidós.
Gorz, A. (1997). Metamorfosis del trabajo. Madrid: Sistema.
Gudynas, E. (2011). Buen Vivir: germinando alternativas al desarrollo. En América Latina en movimiento. Núm. 462. pp. 1-20. Recuperado de: http://www.gudynas.com/publicaciones/articulos/GudynasBuenVivirGerminandoALAI11.pdf
Kurzweil, R. (1999). The Age of Spiritual Machines: When Computers Exceed Human Intelligence. Nueva York: Viking Press.
Larson, E. (2022). El mito de la inteligencia artificial: por qué las máquinas no pueden pensar como nosotros lo hacemos. España: Shackleton Books.
Marcuse, H. (1995). El hombre unidimensional. Barcelona: Planeta-Agostini.
Marcuse, H. (1969). La sociedad industrial y el marxismo. Buenos Aires: Quintaria.
Marx, K. (2006). El capital, Tomo III: El proceso global de la producción capitalista (3 volúmenes). México: Siglo XXI.
Marx, K. (2003). El capital, Tomo I: El proceso de producción del capital (3 volúmenes). Buenos Aires: Siglo XXI.
Marx, K. (2001). Elementos fundamentales para la crítica de la economía política (Grundrisse) 1857-1858 (3 volúmenes). México: Siglo XXI.
Mazzucato, M. (2018). The Value of Everything: Making and Taking in the Global Economy. Nueva York: PublicAffairs.
O’Neil, C. (2016). Armas de destrucción matemática: cómo el Big Data aumenta la desigualdad y amenaza la democracia. Madrid: Capitán Swing.
Pagura, N. (2021). El lugar de la automatización en el capitalismo actual y sus proyecciones emancipatorias. En Argumentos de Razón Técnica. Núm. 24. pp. 194-238. DOI: http://doi.org/10.12795/Argumentos/2021.i24.08
Pagura, N. (2018), Hacia una teoría crítica del trabajo en el capitalismo actual: revisión de las tesis sobre el «fin del trabajo» e indagación de perspectivas alternativas. Buenos Aires: Teseo Press. Disponible en línea: https://www.teseopress.com/hacia/
Rifkin, J. (1996). El fin del trabajo. Buenos Aires: Paidós.
Rouvroy, A. (2020). Algorithmic Governmentality and the Death of Politics. En Green European Journal. Recuperado de: https://www.greeneuropeanjournal.eu/algorithmic-governmentality-and-the-death-of-politics/
Rouvroy, A. y Berns, T. (2016). Gubernamentalidad algorítmica y perspectivas de emancipación: ¿la disparidad como condición de individuación a través de la relación? En Adenda filosófica. Núm. 1. pp. 87-116.
Smith, J. (2023). Internet no es lo que pensamos: una historia, una filosofía, una advertencia. Buenos Aires: FCE.
Solow, R. (1987). We’d Better Watch out. En New York Times Book Review. Recuperado de: http://digamo.free.fr/solow87.pdf
Srnicek, N. (2018). Capitalismo de plataformas. Buenos Aires: Caja Negra.
Srnicek, N. y Williams, A. (2017a). Manifiesto por una política aceleracionista. En Avanessian, A. y Reis, M. (Comps.). Aceleracionismo. pp. 33-48. Buenos Aires: Caja Negra.
Srnicek, N. y Williams, A. (2017b). Inventar el futuro: postcapitalismo y un mundo sin trabajo. Barcelona: Malpaso.
Steinhoff, J. (2021). Automation and Autonomy: Labour, Capital and Machines in the Artificial Intelligence Industry. Suiza: Palgrave Macmillan.
Stiegler, B. (2017). Para una nueva crítica de la economía política. Buenos Aires: Capital Intelectual.
Stiegler, B. (2016). Automatic Society, Vol. 1: the Future of Work. Cambridge: Polity Press.
Unceta, K. (2015). Más allá del crecimiento: debates sobre desarrollo y posdesarrollo. Buenos Aires: Mardulce.
Virno, P. (2021). Sobre la impotencia: la vida en la era de su parálisis frenética. Madrid: Traficantes de Sueños. Recuperado de: https://traficantes.net/sites/default/files/pdfs/sobre%20la%20impotencia_web.pdf
Vogl, J. (2023). Capital y resentimiento: una breve historia del presente. Buenos Aires: Adriana Hidalgo editora.
Zuboff, S. (2020). La era del capitalismo de vigilancia. Barcelona: Paidós.
Zuboff, S. (2015). Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. En Journal of Information Technology. Vol. 30. Núm. 1. pp. 75-89. DOI: https://doi.org/10.1057/jit.20
Fecha de recepción: 10 de octubre de 2023
Fecha de aceptación: 20 de octubre de 2024
DOI: https://doi.org/10.29092/uacm.v22i57.1166
1 Esta cuestión es conocida y debatida desde la década de 1980, con la primera expansión de las tecnologías de la información y la comunicación. Se la denomina “paradoja de la productividad” o “paradoja de Solow”, quien en un artículo (1987) escribió esta célebre frase: “You can see the computer age everywhere but in the productivity statistics” (“puedes ver la era de la computación en todas partes excepto en las estadísticas de productividad”). En los debates más recientes sobre la automatización, la cuestión sigue presente, bajo distintas perspectivas. Así, por ejemplo, Brynjolfsson, Rock y Syverson (2017) constatan el fenómeno una vez más en la era de la inteligencia artificial, explicando que el desfasaje se debería fundamentalmente a la demora que hay entre los desarrollos tecnológicos y su difusión masiva. Por otro lado, Benavav (2019 y 2020) sostiene que efectivamente hay un declive en la demanda global de mano de obra, pero la causa principal del mismo no sería la automatización per se –que de hecho sigue sin poder ser constatada en las estadísticas de productividad– sino el proceso de desindustrialización, que desde su perspectiva es un fenómeno de alcance global. Hemos referido a esta cuestión en un artículo reciente (Pagura, 2021), en el que buscamos dar un encuadre histórico y teórico adecuado a la discusión sobre la automatización, y que en parte aquí continuamos.
2 Este apartado desarrolla y profundiza algunas cuestiones que ya comenzamos a plantear en Pagura (2021), p. 229-233.
3 La formulación de Marx es interesante y vale la pena citarla, pues mediante su teoría de la plusvalía –la apropiación de trabajo no pago– logra explicitar que las condiciones para la automatización son particularmente exigentes en el sistema capitalista: “Considerada exclusivamente como medio para el abaratamiento del producto, el límite para el uso de la maquinaria está dado por el hecho de que su propia producción cueste menos trabajo que el trabajo sustituido por su empleo. Para el capital, no obstante, este límite es más estrecho. Como aquel no paga el trabajo empleado, sino el valor de la fuerza de trabajo empleada, para él el uso de la máquina está limitado por la diferencia que existe entre el valor de la misma y el valor de la fuerza de trabajo que reemplaza” (Marx, 2003, Vol. 2, p. 478).
4 En los textos de los Aceleracionistas, estas cuestiones apenas se mencionan, como si todos los problemas pudieran resolverse mediante el desarrollo tecnológico, que además nunca entraría en tensión con otras necesidades y fines. Si tomamos como ejemplo la cuestión ecológica, llama la atención su ausencia en los textos de Srnicek y Williams: hay sólo una alusión al cambio climático como parte del diagnóstico del presente al principio del Manifiesto (2017a, p. 37). Bastani, en cambio, trabaja ampliamente el tema. No obstante, básicamente entiende que todos los problemas ecológicos se solucionarán, sin necesidad de tomar decisiones costosas, mediante el desarrollo tecnológico. Su respuesta al cambio climático está anclada fundamentalmente a la esperanza de que la energía solar será infinita y gratuita en el corto plazo, por lo cual sustituirá casi naturalmente a los combustibles fósiles (2019, pp. 99-105). Si esto parece optimista, mucho más lo es su perspectiva de que la escasez de recursos minerales será resuelta mediante la minería de asteroides (2019, pp. 119-137), una idea cuando menos controvertida que fuera planteada en primera instancia por Elon Musk, el famoso CEO de SpaceX y Tesla.
5 Srnicek y Williams incurren en una grosera simplificación de las opciones políticas cuando sostienen: “sin una automatización plena, los futuros poscapitalistas deben escoger necesariamente entre la abundancia a expensas de la libertad (haciendo eco de la centralidad del trabajo en la Rusia soviética) o la libertad a expensas de la abundancia, representada por las distopías primitivistas” (2017b, p. 85). Nótese que la encrucijada planteada por los autores supone que la abundancia material y la libertad (entendida reductivamente, como mero tiempo libre) son los únicos fines a considerar.
6 Expresión que podríamos traducir como “Inteligencia Artificial del buen y antiguo estilo”.
7 Se trata, claro está, de un cálculo aproximado. El mismo Moore amplió años después el tiempo de duplicación y hoy el mismo se estima en dieciocho meses.
8 Para graficar el crecimiento exponencial, tanto Brynjolfsson y McAfee (2014, p. 46-48) como Bastani (2019, p. 41-42) retoman una vieja leyenda sobre el origen del juego de ajedrez. Aunque tiene distintas formulaciones, esta leyenda cuenta cómo, en el siglo VI en India, el presunto inventor del ajedrez presentó su hallazgo a un poderoso brahmán. Fascinado con el juego, este último le ofreció una recompensa al inventor, quien ante ello esbozó una propuesta que a primera vista parecía humilde: dos granos de arroz que se irían duplicando en cada casillero del ajedrez (que tiene 64 en total). El brahmán, crédulo, aceptó; pero luego descubrió que, pasada la mitad del tablero, los números comenzaban a ser tan grandes que el cumplimiento del trato se volvía imposible. El final de la leyenda varía: en algunas versiones el brahmán mandó a asesinar al inventor insolente y en otras recompensó su ingenio poniéndolo a su servicio.
9 Brynjofsson y McAfee expresan esto apelando a la sugestiva leyenda en torno de la invención del ajedrez (véase supra nota N°8): según ellos, recién estaríamos llegando a la mitad del tablero.
10 El ejemplo emblemático de este exceso es el anuncio de la llegada inminente e inevitable de máquinas super-inteligentes que superarán a los seres humanos. Resulta indicativo que en su libro The Age of Spiritual Machines (1999) el futurólogo Ray Kurzweil lanzara esta profecía apelando en parte también a la ley de Moore.
11 Zuboff se detiene especialmente en el papel del conductismo en el denominado “capitalismo de vigilancia” (2020, p. 511-530).
12 La crisis de esta distinción –y sus desastrosas consecuencias– se expresa de modo emblemático en el uso intensivo de drones que en base a correlaciones estadísticas detectan y ejecutan extrajudicialmente “objetivos” catalogados como “peligrosos”.
13 El problema de que los automatismos maquínicos desplegados por la infraestructura digital actual estén atentando contra las capacidades humanas es a mi juicio un tema importante, inquietante y de suma actualidad. Sin embargo, tiene bastante más publicidad otro debate, sumamente especulativo, sobre la posibilidad de que la IA adquiera una inteligencia superior a la humana. Cabe así la pregunta retórica sobre si las máquinas se están volviendo más inteligentes o en realidad lo que sucede es que los seres humanos nos estamos volviendo más estúpidos.
14 Sobre las estrechas relaciones entre las nuevas tecnologías informáticas y el capital financiero, véase Vogl (2023).
* Docente de la carrera de Filosofía de la Facultad de Filosofía y Letras de la Universidad Buenos Aires, Argentina y de la Licenciatura en Ciencia Política y Gobierno de la Universidad Nacional de Lanús. Correo electrónico: nicolas_pagura@yahoo.com.ar
Volumen 22, número 57, enero-abril de 2025, pp. 409-435
ISSN versión electrónica: 2594-1917
ISSN versión impresa: 1870-0063