ISSN (impreso) 0121–5167 / ISSN (en línea) 2462–8433
SECCIÓN TEMÁTICA
Fabio Fuentes Navarro1 (México)
1 Licenciado en Educación Primaria. Especialista en Política y Gestión Educativa. Especialista en Políticas Públicas para la Igualdad. Magíster en Educación. Doctor en Educación con Especialidad en Mediación Pedagógica. Profesor Titular de tiempo completo del Departamento de Investigación, Universidad Pedagógica Veracruzana. Correo electrónico: fabiofuentesnavarro@gmail.com – Orcid 0000–0003–3156–7192 – Google Scholar https://scholar.google.com/citations?hl=es&user=o0YhRAwAAAAJ
Fecha de recepción: julio de 2024
Fecha de aprobación: mayo de 2025
Cómo citar este artículo: Fuentes Navarro, Fabio. (2025). Pensamiento, sujeto y gobernanza en el cambio epocal. Aporías en la digitalización de la vida. Estudios Políticos (Universidad de Antioquia), 74. https://doi.org/10.17533/udea.espo.n74a10
Resumen
En este artículo se argumenta acerca del modo en que el «sujeto complacido» deviene como subjetividad consustancial a la economía del conocimiento. La inquietud central cuestiona el modo en que operan el transhumanismo y la inteligencia artificial en el proceso de subjetivación. La tesis que se sostiene afirma que el «sujeto complacido» es una forma de subjetividad que se caracteriza por la precariedad de pensamiento crítico, la exigua capacidad de elección autónoma y la deficiente participación política del sujeto en la economía del conocimiento. Se optó por el análisis político de discurso como horizonte de intelección, el cual permitió atender la inquietud central a través de cuatro registros analíticos: crisis epocal, educación automatizada, algoritmización de lo político y deliberación pública digital. Se concluye que el «sujeto complacido» devela la convergencia entre automatización educativa, algoritmización de la decisión y mutaciones de la deliberación pública.
Palabras clave: Teoría Política; Sujeto; Inteligencia Artificial; Transhumanismo; Poshumanismo; Gobernanza.
Abstract
This article discusses how the “satisfied subject” becomes a subjectivity inherent to the knowledge economy. The central concern questions how transhumanism and artificial intelligence operate in the process of subjectivation. The thesis supported affirms that the “satisfied subject” is a form of subjectivity characterized by the precariousness of critical thinking, the limited capacity for autonomous choice, and the deficient political participation of the subject in the knowledge economy. Political Discourse Analysis was chosen as the horizon of understanding, which allowed us to address the central concern through four analytical registers: epochal crisis, automated education, algorithmization of politics, and digital public deliberation. It is concluded that the “satisfied subject” reveals the convergence between educational automation, algorithmization of decision–making, and mutations in public deliberation.
Keywords: Political Theory; Subject; Artificial Intelligence; Trans–Humanism; Post–Humanism; Governance.
Introducción
En este artículo se exploran tres objetos fundamentales: pensamiento binario, sujeto y gobernanza. Sin embargo, en el proceso de análisis se entrelazan categorías emergentes como la inteligencia artificial (IA), el transhumanismo o la deliberación pública digital que permiten tensionar y ampliar estos ejes sin perder de vista su carácter articulador. En términos específicos, a partir de problematizaciones situadas se cuestiona el uso de la teoría en la configuración de emplazamientos teóricos para la inteligibilidad del sujeto en la era digital y su posibilidad en el poshumanismo y la toma de decisiones. Su finalidad ulterior consiste en contribuir al debate académico al destacar el potencial explicativo de la teoría para esclarecer objetos de estudio implicados —de manera directa, subordina, yuxtapuesta, antagónica, entre otros— con el cambio epocal, entendido como la transición hacia nuevas formas de existencia humana en la era digital y esta como un punto de inflexión en el desarrollo evolutivo de la humanidad.
La problematización del sujeto con relación a la digitalización de la dinámica de la vida no es reciente. Nociones como cyborg (Haraway, 1985), interconectado (Castells, 1999), conectado en soledad (Turkle, 2011), inforg (Floridi, 2013), poshumano (More, 1990), interfaz humana (Sadin, 2017) e hipercultural (Han, 2018), entre otras, resultan producciones discursivas que condensan el proceso de subjetivación en el contexto de lo que Pierre Lévy (2007) concibió como cibercultura hace poco más de tres décadas y que en la actualidad puede denominarse era digital. Sin embargo, la cuestión acerca del estatuto ontológico del sujeto adquiere renovada relevancia ante los efectos subversivos en la dinámica individual y social derivados de los avances tecnológicos recientes, como los que se constatan en los estudios acerca de la reconfiguración de las interacciones sociales y los procesos identitarios (Turkle, 2011), y con aquellas investigaciones que dan cuenta de las implicaciones de la IA en la educación, la economía y la gobernanza (Brynjolfsson y McAfee, 2014).
La IA, por tanto, deviene un aspecto insoslayable en la problematización del sujeto en la actualidad, primordialmente, en función de que el lanzamiento de ChatGPT por OpenAI el 30 de noviembre de 2022 configuró un hito en la historia de la humanidad, pues el incremento de uso ha sido un acontecimiento a escala global que ha afectado dinámicas económicas, políticas, sociales y culturales contemporáneas de manera acelerada y sobredeterminado procesos de subjetivación, a la vez de configuraciones identitarias. PwC (2017) estima que la inteligencia artificial generativa (IAG) podría añadir entre 15 y 26 billones de dólares al PIB global para 2030, lo que implicaría la modificación de la dinámica económica mundial y, en consecuencia, la transformación de las relaciones laborales. En la encuesta sobre el uso de la IAG llevada a efecto por la asociación Columbus (Rueda, 2025, enero 30) se muestra que 59% de los profesionales de la educación utilizan herramientas de inteligencia artificial en su práctica docente, y que 93% de ellos expresó su interés en participar en programas de actualización sobre IAG aplicada a la docencia, lo que indica un cambio relevante en las prácticas pedagógicas debido a la integración de herramientas de IA a la educación; sin embargo, KPMG International (2023) advierte que 61% de la población en países desarrollados expresan preocupación por la erosión de la privacidad y la autonomía individual.
Resulta plausible formular, ergo, la siguiente conjetura: si Internet fue el hito tecnológico (Castells, 2001) que marcó el siglo xx —en el plano de lo social, los acontecimientos que marcaron al siglo XX fueron la caída del muro de Berlín, las dos guerras mundiales y el Holocausto judío—, la IA parece que no sólo se consolidará como el acontecimiento de mayor relevancia del siglo XXI, sino que resultará el punto de inflexión del despliegue de lo que se conoce como «cambio de época» (Harari, 2018), que en el contexto de la evolución tecnológica no debe entenderse como una ruptura aislada, sino más bien de una intensificación del proceso de digitalización que reorganiza la vida social, política y económica sobre una lógica de datos y algoritmos.
De esto trata el contenido del artículo, de pensar la constitución del sujeto en la era digital —sitios de socialización en red, virtualidad, entre otros— y, en paralelo, de problematizar el habitus (Bourdieu, 2002) académico en las ciencias sociales y las humanidades con respecto a la configuración y proposición de emplazamientos teóricos para la explicación de realidades afectadas por la IA, ya que parece estar encorsetado, de acuerdo con Íñigo Errejón en conversación con Jorge Alemán, en la autosatisfacción estética del quehacer de la especulación teórica (Punto de Emancipación, 25 de diciembre de 2018) y ajeno al uso de herramientas teóricas de intelección de reciente cuño para problematizar, esclarecer y explicar realidades inéditas.
La inquietud principal que orienta esta exploración, por lo tanto, cuestiona el modo en que implicaciones ético–políticas de la IA influyen en la construcción de la subjetividad en la era digital y, en concomitancia, se pregunta qué giros teóricos resultan necesarios para indagar esta configuración identitaria en una nueva condición epocal. El propósito general radica en analizar las implicaciones ético–políticas de la inteligencia artificial en la configuración subjetiva en la digitalización de la vida y distinguir qué giros teóricos y aportes teórico–conceptuales resultan inexorables para ello a partir de una condición poshumana.
En términos precisos, aquí se argumenta que el sujeto de la segunda década del siglo xxi puede significarse como un sujeto complacido, en el sentido de un «sujeto que queda limitado en su imaginación, en su capacidad crítica y de elección» (Ordóñez, 2022, agosto 22, párr. 19). Esta hipótesis se sustenta en cuatro tendencias documentadas: i) la precarización del pensamiento crítico, evidenciada en el aumento del consumo de información sesgada en redes sociales (Allcott y Gentzkow, 2017); ii) el aumento de los límites de la capacidad de elección (Ordóñez, 2022, agosto 22); iii) la desafección política del sujeto, reflejada en una decreciente participación las democracias digitales (Funk, Vesteinsson y Baker, 2024); y iv) el auge de narrativas transhumanistas que redefinen las interacciones sociales y humanas (Bostrom, 2022). Por lo que se procuró no habitar en lugares comunes que demonizan o deifican la ciencia y la tecnología, en especial la IA, posiciones que han sido cuestionadas por su falta de matices y rigor analítico (Lanier, 2018). En cambio, el locus de producción de sentido y de enunciación que se propone está al margen de este par oposicional —en otros lugares he denominado a este emplazamiento como sistema de pensamiento binario, dicotómico y maniqueo (Fuentes, 2021; 2022; 2023)—, lo que implica pensar en un horizonte de intelección que trascienda esta polarización. Analíticamente, resulta oprobioso la radicalización del pensamiento en una posición deificante de las tecnologías de la información y las comunicaciones (TIC) y la IA, como también resulta incoherente a la reflexión teórica desde una postura que las demoniza.
1. Marco teórico y conceptual
Ya se mencionó que la IA es uno de los acontecimientos más importantes del presente siglo y también que quizá será el punto de inflexión del tránsito1 de un modo de existencia humana a otro y, por lo tanto, de un modelo cultural a otro. La relevancia social de este efecto dinamizador —desestructurante y estructurante— de la IA —y de esta— merece un abordaje con herramientas teóricas y conceptuales que posibiliten su inteligibilidad. Sin embargo, el escrutinio y la comprensión de la complejidad de este cambio epocal resulta insustancial si se realiza a partir de las categorías tradicionales en la investigación en las ciencias sociales y las humanidades, implicadas por la lógica del pensamiento binario, dicotómico y maniqueo. El estudio de estas transiciones culturales, políticas y subjetivas en la era digital requiere una discusión filosófica y epistemológica más amplia que trascienda aquellas polarizaciones en las que se ha inscrito una academia más activista —política, ideológica, social y cultural— que científica, y que priorice el análisis desde la convergencia de la tecnología, la ética y la política.
El horizonte de intelección que se configuró para esclarecer la transición de un modo de existencia humana a otro, al sujeto en la era digital, a su posibilidad en el poshumanismo y la toma de decisiones está compuesto por tres categorías clave: contingencia, crisis epocal y giros teórico–políticos. Contingencia como situación límite que redefine modos de ser y de conocer (Mèlich, 2010; 2019); crisis epocal como un estado de ruptura con cosmovisiones exiguas para conocer y comprender realidades inéditas (Capra, 1998; Zohar, 1996); y giros teórico–políticos como rutas para superar las dicotomías que limitan la comprensión de la realidad social.
1.1 Contingencia: acontecimiento y situación límite
La homologación de la inteligencia artificial como acontecimiento exige esclarecer el sentido de esta noción en el contexto en que aquí se usa. Por principio, es necesario colocar cierta distancia con el sentido generalizado en habla cotidiana, donde se asocia sin distinción alguna a los vocablos contingencia y dislocación para referirse a eventos inesperados que provocan sorpresa (Fuentes y Montelongo, 2025), y luego dar cuenta de sus sentidos en el contexto del análisis de la realidad social con énfasis en la dimensión histórica y la teoría política, en el que iluminan las ontologías de objetos específicos.
En el caso de contingencia, «desde el ámbito de la historia, se refiere a los eventos históricos y sociales que no es necesario que ocurran ni está determinado que sucedan, sino que más bien que están sujetos a múltiples posibilidades y circunstancias contingentes» (Fuentes y Montelongo, 2025, p. 18). En cuanto a dislocación, a partir del mismo ámbito de la historia, se refiere a momentos de ruptura de estructuras ya establecidas, en específico, al «desajuste de órdenes explícitos y simbólicos dados, [cuyo] efecto dislocatorio es la constitución de una nueva estructuración de lo social, de lo político; incluso es constitutivo de aquello que regula lo social y lo político, como lo normativo» (Fuentes y Montelongo, 2025, p. 21). En la teoría política, desde la perspectiva de Ernesto Laclau (2000; 2011), contingencia se refiere tanto a la imposibilidad de fijación absoluta, trascendental y universal de una identidad, historia o estructura social como a la posibilidad de que estos objetos se fijen temporalmente.
Por los efectos de su carácter estructurante y desestructurante, en este caso, contingencia implica asumir que el sujeto de la era digital se encuentra en una situación límite: en el cambio de un modo de existencia humana a otro, donde la inteligencia artificial deviene como acontecimiento clave —o punto de inflexión—. Una situación límite, por lo tanto, puede concebirse como la condición que resulta de la experiencia dislocatoria del sujeto frente a los efectos estructurantes y desestructurantes de la contingencia. Joan–Carles Mèlich (2010), sin embargo, asume contingencia como situación límite, lo que resulta esclarecedor si se concibe así a la inteligencia artificial en relación con la experiencia del sujeto:
Contingencia es sinónimo [...] de situación límite, de una situación que no puedo resolver con «conocimiento técnico»: el mal, la enfermedad, la muerte..., la muerte vivida como enfermedad, esa muerte que sí se vive, que pertenece a la vida. Y, sobre todo, es expresión de contingencia la muerte del otro. [...] La contingencia no es algo que hago, una especie de acto o de acción, algo que puedo programar o planificar, sino algo que me sucede, algo que sufro o padezco: una pasión, un pathos. Es lo que me sorprende y que no nace en mí, lo que no es el resultado de mi voluntad ni de mi acción. Hay experiencia si irrumpe lo que no puedo controlar y, al hacerlo, me quiebra, me fractura de tal forma que me obliga a mirar, a oír, a ser de otro modo. Así, la contingencia es experiencia porque es el resultado de una alteridad ajena, de un afuera que, al mismo tiempo, hace posible que descubra mi propia alteridad y provoca que salga de mí mismo. En una palabra: la contingencia es la experiencia más conspicua de la extrema finitud, vulnerabilidad y fragilidad de mi vida (Mèlich, 2010, pp. 16–17).
La inteligencia artificial como situación límite implica, por lo tanto, el reconocimiento del carácter inerradicable, no sólo de la incertidumbre, sino también de las huellas de la experiencia del sujeto en ella, de modo tal que una situación límite «obliga a repensarlo todo, a replantearlo todo, [ya que] siempre dejará una marca, una huella, una cicatriz, una herida incurable» (Mèlich, 2010, p. 18). Por lo tanto, es posible afirmar que la inteligencia artificial es el punto de inflexión del tránsito de un modo de existencia humana a otro. Es el punto de no retorno.
A partir de Slavoj Žižek y del propio Mèlich, resulta plausible asumir a la inteligencia artificial como acontecimiento. Para Žižek (2016), un acontecimiento «es un punto de inflexión radical, que es, en su auténtica dimensión, invisible [...]. En un Acontecimiento, no sólo las cosas cambian: lo que cambia es el propio parámetro por el que medimos los hechos de cambio, es decir, un punto de inflexión cambia el campo entero dentro del cual aparecen los hechos» (p. 55).
El acontecimiento supone, por lo tanto, la experiencia del sujeto dentro de una dinámica constante de desestructuración y estructuración, en un estado de crisis e incertidumbres provocadas por la amenaza —real— del no retorno y la esperanza —ingenua— del retorno, de transiciones inexorables y huellas inevitables. El acontecimiento no sólo disloca, estructura y desestructura, sino que abre heridas como consecuencia de su irremediable inscripción en él. A la inquietud acerca de la consecuencia primaria del acontecimiento, Mèlich (2019) señala la diferencia entre soldar y suturar:
¿Cuál es la consecuencia del acontecimiento? La obertura de una «grieta» que no puede ser soldada. A lo sumo se puede suturar, pero a condición de aceptar que siempre (nos) quedará una marca, una cicatriz imposible de borrar. Por su propia condición, el acontecimiento sorprende y rompe, surge de repente y quiebra, obliga al que lo sufre a una transformación radical que lo deja sin referentes. El acontecimiento «desempalabra» el mundo, nos corta en dos (o más) partes y abre una brecha en el espacio y en el tiempo, un antes y un después (pp. 11–22).
La homologación de la inteligencia artificial con acontecimiento, por lo tanto, es el punto de no retorno del tránsito de un modo de existencia humana a otro, el punto de inflexión entre una cultura y otra, lo cual ya puede constatarse en el informe de McKinsey acerca del estado de la IA a principios de 2024 (Singla et al., 2024, mayo 30), en el que estima que inteligencia artificial generativa transformará 30% de las ocupaciones globales para 2030, lo cual evidencia su capacidad desestructurante y estructurante en la redefinición de las nuevas estructuras laborales y culturales en el mundo.
1.2 Crisis epocal e inadecuación categorial
El tránsito de un modo de existencia humana a otro es resultado del acontecimiento, es la consecuencia de un punto de inflexión, del punto de no retorno; es un cambio epocal como efecto inevitable de la inteligencia artificial, donde el sujeto se enfrenta no sólo a procesos constantes de estructuración y desestructuración —simbólicas y físicas—, sino que, además, experimenta el dolor de las heridas inescindibles de la transición inexorable de una cultura a otra. Experimenta, en todo caso, los efectos de un estado de crisis.
Si se considera, sin embargo, no sólo a los cambios sociales y culturales derivados de los constantes desarrollos científicos e innovaciones tecnológicas, como a los provocados por la inteligencia artificial, sino también a los síntomas de la crisis civilizacional (Boff, 2002),2 parece plausible afirmar que la crisis ha sido el estado general en el que la humanidad ha vivido desde su existencia como tal en el mundo y que, entonces, la estabilidad es la que devine en modo contingente, es decir, como un acontecimiento que irrumpe en la «perpetuación de la crisis» —orden dado— que altera este orden y lo hace estable. Pero no es así. En primer término, porque la estabilidad es el estado anterior y posterior al momento de ruptura del orden establecido, es el statu quo previo y subsecuente a la dislocación de una estructura estable —física, simbólica—; y en segundo término, porque la estabilidad, en esta lógica, no produce cambios abruptos, inesperados y profundos en una estructura o en un sistema, sino que más bien tiende a conservar tal y como está esa estructura o ese sistema. Entonces, lo que sí es plausible sostener es la afirmación de que la estabilidad opera como una resistencia al cambio y que la crisis opera como resistencia a la preservación.
Para algunos científicos e intelectuales, sin embargo, la humanidad ha estado en una fase de crisis desde hace tiempo, puesto que «la mayoría de nosotros seguimos los valores y conceptos de una visión del mundo ya caducada [...] inadecuada para afrontar los problemas de un mundo como el nuestro» (Capra, 1998, p. 28). Para la filósofa y física norteamericana Danah Zohar (1996), esta crisis que vive la humanidad es mucho más remota:
El punto de vista judeocristiano tradicional, empezó a perder su coherencia únicamente cuando los descubrimientos de las ciencias modernas empezaron a minar muchas de las suposiciones cosmológicas sobre las que descansaba. El creciente conocimiento del individuo respecto a sí mismo y su mundo, ya no estaba de acuerdo con los principios del relato bíblico de la creación, con la cosmología de un universo centrado en la tierra y la biología de la cualidad humana única, ni con el espíritu de los milagros que desafían a la física, los mensajeros celestiales y la intervención divina (p. 220).
En términos de Fritjof Capra y Danah Zohar, la humanidad ha estado en crisis por la inadecuación del pensamiento para afrontar los problemas del mundo o —en esta lógica expositiva— por referentes interpretativos tan sólidos como petrificados en la investigación académica, por teorías explicativas articuladas con categorías anacrónicas ante una realidad empírica que es tan dinámica como incierta, tan contingente como des–estructurante, tan turbulenta como compleja, tan emergente como inasequible y, consecuentemente, tan ignota e incomprensible en el proceso mismo de estar siendo acontecimiento.
Esta inadecuación no ha pasado inadvertida. Edelman Trust Institute (2025) apunta que el 65% de los líderes globales perciben una «crisis de confianza» en las instituciones, atribuida a la obsolescencia de modelos interpretativos, crisis que —cabe precisar— se manifiesta en la academia a través de teorías ancladas en categorías estáticas, incapaces de aprehender una realidad dinámica, incierta y emergentemente compleja, lo que demanda una reformulación epistemológica.
Entonces, ¿cómo significar lo que acontece en el mundo más allá de los pares opuestos, de las dicotomías binarias y maniqueas que obliteran el conocimiento y la comprensión de los fenómenos sociales? ¿Acaso el binarismo dicotómico y maniqueo —cuantitativo–cualitativo, explicación–comprensión, izquierda–derecha, progresismo–conservadurismo, pueblo–ciudadanía, entre otros— resulta una racionalidad suficiente en la academia para entender las transiciones de nuestro tiempo, los procesos de cambio, la incertidumbre de la dinámica de la vida? ¿Cómo entender y comprender el papel de una academia que justifica la politización de la población a través de una retórica gubernamental —binaria, dicotómica, opuesta y maniquea— que asume como propia la prerrogativa de la exclusividad de lo «verdadero», «bueno» y «deseable», incluso sabiendo la imposibilidad de la pureza política, ideológica y partidista?
1.3 Giros teórico–políticos
Entonces, ¿qué giros teóricos y de conocimiento son necesarios en la labor académica para pensar el cambio, las continuidades y el tránsito epocal en proceso, de manera tal que superen las explicaciones binaristas, dicotómicas, opuestas y maniqueas que producen y reproducen subjetividades inscritas en categorías como oprimido–opresor o bueno–malo, por ejemplo; como si el sujeto fuese un ente acabado, pleno y puro, o más bien como si el sujeto opresor nunca hubiese sido sujeto oprimido —y viceversa— a escalas micropolíticas y en intensidades diferenciadas?
¿Qué giros teórico–políticos y ético–políticos resultan inexorables en la labor académica para cuestionar la polarización de la identidad política del sujeto y su radicalización en un componente de los pares democracia–autoritarismo en lo político, derecha–izquierda en lo ideológico y conservadurismo–progresismo en lo cultural (Chaguaceda, 2022, junio 21); como si hubiese pureza identitaria e incontaminada de otras identidades, o también para no reducir la identidad política del sujeto a uno de los componentes de los pares opuestos reiterados frecuentemente en la retórica política en México?
De otro modo, ¿qué giros teórico–políticos y ético–políticos son necesarios para que la academia no sacralice a personajes no académicos pero emblemáticos en el habitus académico cuya crueldad y discursos de odio han sido demostrados y probados en la historia de varias naciones de Latinoamérica? O en un sentido inverso, ¿qué giros teóricos y teórico–políticos son imprescindibles realizar para que la academia no demonice a quienes están a favor de un Estado de derecho, del respeto irrestricto al ejercicio de los derechos consagrados constitucionalmente y a la aplicación de la ley sin distingo de cualquier tipo, incluyendo el político–ideológico derecha–izquierda?
O también, ¿qué giros teórico–políticos y ético–políticos son imprescindibles para que la academia —inscrita en la placidez de la lejanía de la toma de decisiones y en la autosatisfacción estética del quehacer teórico— tenga una posición ético–política frente al avance del autoritarismo en América Latina y en otros territorios del planeta, tanto por gobiernos de izquierda como de derecha que han resultado democráticamente electos? ¿Será acaso en la placidez de la lejanía de la toma de decisiones y en la autosatisfacción estética del quehacer teórico que la academia, e incluso la educación, estén siendo condiciones de posibilidad para la producción de una subjetividad específica: la del sujeto complacido?
2. Marco metodológico
La investigación ha sido formulada con la intención de poner en tensión categorías y tramas de sentido que en la era digital coligan la triada pensamiento–sujeto–gobernanza. En consecuencia, la estrategia metodológica fue estructurada a partir de una perspectiva político–discursiva y de aportes teórico–conceptuales diversos —acontecimiento, situación límite, crisis epocal, giros teórico–políticos, entre otros— y por la hipótesis del sujeto complacido como forma identitaria emergente en el cambio epocal.
Las acciones investigativas se organizaron en cuatro registros analíticos que ordenan el itinerario argumental: i) crisis, cambio epocal y transiciones del sujeto; ii) educación y automatización; iii) algoritmización y decisión política; y iv) deliberación pública digital. Estos registros operan entre sí —no separados— de manera dinámica, de modo tal que cada aporte nutre y es nutrido por los demás en una lógica de reenvío simbólico, el cual es posible en función de precisar el referente empírico desde un horizonte de intelección que potencie su esclarecimiento y luego su exposición explicativa.
El corpus está integrado por literatura teórica sobre cibercultura, era digital, trasnhumanismo y poshumanismo (Castells, 1999; Lévy, 2007; More, 1990), asimismo, por aportes filosófico–políticos sobre contingencia, acontecimiento y crisis (Mèlich, 2010; 2019; Žižek, 2016), por datos y cifras de informes y reportes de organismos y centros que indagan sobre la expansión social de la IA y sus efectos (Singla et al., 2024, mayo 30; Funk, Vesteinsson y Baker, 2024), y por fuentes periodísticas y normativas para el plano de gobernanza (Zhabina, 2023, enero 20; CLAD, 2023). El criterio de inclusión consistió básicamente en su pertinencia para iluminar y esclarecer la subjetivación y el tipo de subjetividad emergente en la era digital, y la reconfiguración de la decisión y la deliberación pública en este cambio epocal. Es necesario destacar que el criterio de suficiencia se satisfizo cuando la categoría de sujeto complacido mostró capacidad para articular los cuatro registros sin recurrir a nociones exógenas al propio entramado conceptual expuesto aquí.
El análisis se deriva de un procedimiento conformado por tres operaciones analíticas: la primera fue la problematización de las nociones clave del estudio —sujeto, pensamiento, decisión y gobernanza— a partir de la óptica acontecimiento–IA como punto de no retorno, en la que contingencia se asume como situación límite que compele su resignificación en la era digital; la segunda fue la articulación a partir del establecimiento de relaciones de equivalencias y diferencias, de tramas discursivas específicas —educación–automatización, algoritmización–decisión, poshumanismo–gobernanza, entre otros— en torno a la configuración subjetiva del sujeto complacido, en sí, un sujeto que delega pensamiento y elección en asistentes técnico–algorítmicos, se adecua a la economía del conocimiento y encuentra en esa adecuación confort identitario; la tercera operación fue la contrastación a partir de la puesta en relación de las articulaciones teóricas con indicios documentales y normativos —adopción acelerada de IA generativa, incorporación de sistemas algorítmicos en decisiones públicas y formulaciones iberoamericanas de «gobernanza inteligente»—, con la finalidad de evaluar la tesis central sin que ello implicara la derivación en pruebas causales. Esto en función de que el estudio no es empírico explicativo, sino teórico–crítico y reconstructivo.
3. Resultados: pensamiento en pausa y sujeto complacido
El sujeto complacido de la era digital es una subjetividad que resulta útil para conocer y comprender el proceso de subjetivación en la transición epocal, es decir, al sujeto de nuestro tiempo en territorios físicos y espacios virtuales, toda vez que el sujeto complacido resulta una configuración identitaria ad hoc al contexto socioeconómico de la plaza pública digital —pospolítico y poshumanista— (Ordóñez, 2025), a la cultura de la escolarización virtualizada, a la dinámica social y laboral del home office —teletrabajo— y, en consecuencia —sostengo—, al discurso dominante de los binarismos, dicotómicos y maniqueos (Fuentes, 2022) de la hegemonía de los pares democracia–autoritarismo, derecha–izquierda y conservadurismo–progresismo (Chaguaceda, 2022, junio 21).
El sujeto complacido es un sujeto despolitizado en un entorno pospolítico y que, de algún modo, es incapaz de decidir por sí mismo en función de que la economía del conocimiento genera dispositivos de regulación que deciden por él, que crean sus preferencias y que lo normalizan formándolo —educándolo, escolarizándolo— en una economía de mercado capitalista y para esta misma economía (Ordóñez, 2022, agosto 22). Para José Antonio Blanco Villalobos (UPAEP, 3 de junio de 2021), a este sujeto le resulta innecesario pensar, pues afirma que es evidente la progresiva y paulatina innecesariedad del pensamiento en la actualidad, ya que el sujeto ha dejado de pensar, puesto que ya «otros» —asistentes digitales— piensan por él:
Estamos perdiendo una capacidad [...] de las sutilezas: ahora muchas personas sin Waze no van a ningún lado. O sea, los humanos tenemos una capacidad [...] biológica de geolocalización que ya poco a poco la empezamos a perder, porque tenemos asistentes que comienzan a hacer nuestro trabajo; empezamos a olvidar números telefónicos, comenzamos [...] a no conocer direcciones (UPAEP, 3 de junio de 2021, 0:46:40).
El sujeto complacido, consecuentemente, es resultado de un proceso de subjetivación que lo normaliza en una hegemonía cultural de la que no es consciente: la economía del conocimiento. Es un sujeto con múltiples habilidades desarrolladas, con diversas capacidades de dominio, pero que no es consciente de que se ha naturalizado en la matriz epistemológica de la economía del conocimiento. No es un sujeto conformista. César Ordóñez (2022, agosto 22) no habla de conformismos. En la economía del conocimiento el sujeto complacido es un sujeto que se siente bien, que se autocomplace con lo que sabe, que es autoindulgente si no sabe, que pensar le resulta indiferente, incluso que no le incomoda no pensar o pensar poco, ya que los desarrollos tecnológicos piensan por él y deciden por él —la elección de preferencias personales opera a través de algoritmos, como es el caso de las plataformas streaming3 como Netflix, HBO y Amazón Prime—. El sujeto complacido sabe que está sujetado —en la lógica del hiperconsumo tecnológico— a la asistencia digital y a las decisiones que los asistentes digitales —o virtuales— toman por él a partir de sus interacciones en los sitios de socialización en red, en las plataformas streaming y con los asistentes virtuales, en un entorno informatizado y digitalizado.
Paradójicamente, a partir de los postulados del filósofo británico Max More (1990), este sujeto complacido estaría ya inscrito —fuese o no consciente de ello— en el umbral del movimiento transhumanista o extropianismo,puesto que, en paralelo a la claudicación del pensamiento y de la capacidad de elección por el uso de los dispositivos técnicos y desarrollo tecnológicos, habría en él una mejora de sus capacidades humanas a través de la tecnología:
El transhumanismo [cabe precisar] es una clase de filosofía que buscan guiarnos hacia una condición posthumana. El transhumanismo comparte muchos elementos del humanismo, incluyendo el respeto por la razón y la ciencia, un compromiso con el progreso y la valoración de la existencia humana (o transhumana) en esta vida en lugar de en alguna «más allá» sobrenatural (More, 1990, pp. 1–2).
Si bien los asistentes digitales han contribuido a la ampliación y mejora de algunas capacidades humanas —por ejemplo, acceso inmediato, velocidad de procesamiento y conservación a largo plazo de grandes cantidades de datos e información—, también han posibilitado un impasse a procesos cognitivos clave —memoria, lenguaje, aprendizaje, entre otros— y con ello viabilizado el tránsito hacia un poshumanismo como nueva forma de existencia «humana», como el cyborg de Donna Haraway (1985).
4. Discusión: poshumanismo y gobernanza inteligente
El poshumanismo, como nueva forma de ser «humano», se territorializa y enraiza en la era digital promoviendo la idea no ficticia de un mejoramiento de la especie humana a través de los nuevos desarrollos tecnológicos, como la IA —con la cibernética y la informática— y la biotecnología —con la ingeniería genética— en la configuración identitaria del poshumano. Cabe destacar que este mejoramiento de la especie humana no deriva de la consideración de las incapacidades humanas que son productos de diversos tipos de enfermedades o padecimientos que obliteran el «adecuado» funcionamiento del cuerpo humano, ni significa el restablecimiento del cuerpo humano a sus condiciones «naturales» o «normales»;4 este mejoramiento está orientado a la creación de una nueva forma de existencia «humana» mediante la incorporación de dispositivos tecnológicos que aumenten las capacidades físicas y cognitivas más allá de sus condiciones «normales».
En esta línea discursiva resulta plausible esta tesis: el aumento de la dependencia del sujeto complacido con la tecnología implica el incremento de la potencia del movimiento transhumanista y a la vez la posibilidad de que el sujeto complacido esté siendo ya poshumano.
Esta dependencia tecnológica del sujeto complacido, con la que se siente bien y satisfecho, sin embargo, deviene una especie de automatización de su vida, lo cual representa ya una serie de desafíos formativos, primordialmente educativos, lo cual ha quedado constatado en las investigaciones realizadas por la psicóloga y socióloga norteamericana Sherry Turkle (2011), profesora del Massachusetts Institute of Technology (MIT), que sostiene que «la dependencia excesiva de la tecnología puede erosionar las habilidades de pensamiento crítico y la capacidad de los estudiantes para comprometerse con ideas complejas de manera reflexiva» (Turkle, 2011. Traducción propia), lo que representa, de hecho, un desafío formativo latente para las instituciones educativas en sus respectivos niveles, pues —en el sentido de Blanco Villalobos (UPAEP, 3 de junio de 2021)— se vuelve innecesario el pensamiento y la memoria deviene irrelevante, ya que la información está fácilmente disponible a través de cualquier asistente digital.
Entonces, qué giros teórico–políticos, político–éticos y político–educativos resultan necesarios realizar para que la dinámica académica y educativa en las instituciones y centros de formación se torne relevante y pertinente frente a acontecimientos o situaciones límite que la IA ha colocado a las prácticas y procesos educativos, que activan y reactivan la producción de sentido desde la propia experiencia sensible, desde la ilusión de la inmediatez de lo dado (Buenfil, 1998). Qué nueva hegemonía cultural es necesario configurar, proponer y poner en práctica desde la educación —en cualquier nivel educativo— para acortar la brecha para conocer, comprender y posicionarse política y éticamente sin incurrir en los binarismos de los pares opuestos, de las posturas polarizantes que obliteran cualquier matiz, cualquier intersticio. Acaso nuestro lenguaje no puede sustraerse de la hegemonía cultural y política de los pares democracia–autoritarismo, derecha–izquierda y conservadurismo–progresismo. Acaso sólo estas categorías políticas, ideológicas y culturales (Chaguaceda, 2022, junio 21) son tan vigentes y útiles para la representación política como poco efectivas para la configuración identitaria del sujeto colectivo.
En enero de 2023 se dio a conocer que las Cortes chinas ya resuelven casos con inteligencia artificial:
En los tribunales chinos, la IA ya participa en la toma de decisiones. Un tribunal de Hangzhou, por ejemplo, utiliza un asistente de juez llamado Xiao Zhi 3.0 o «Pequeña Sabiduría» (小智).Al principio, Xiao Zhi 3.0 se encargaba de las tareas repetitivas, como anunciar los derechos y las obligaciones de las partes. Ahora, que se utiliza en procesos por temas económicos sencillos, graba los testimonios con reconocimiento de voz, analiza materiales del caso y verifica la información en bases de datos en tiempo real. Un tribunal de Suzhou aplicó una tecnología similar en litigios sobre accidentes de tráfico, en los que el asistente de IA examinó las pruebas y redactó los veredictos, ahorrando el 80% del tiempo del juez (Zhabina, 2023, enero 20).
Desde hace ya varios años gobiernos de distintas naciones del mundo han tomado decisiones asistidos por la IA. Incluso, antes de que se diera acceso abierto al ChatGPT en 2022 y de que se haya masificado su uso global, la IA en la toma de decisiones gubernamentales —nacional, estatal y municipal— ya había sido utilizada en diversos ámbitos del sector público, particularmente, en seguridad pública y protección de datos personales. Estados Unidos, Reino Unido, Canadá, Singapur, Estonia y China son naciones que han incorporado sistemas de IA en la toma de decisiones para monitorear el comportamiento de ciudadanos y empresas en los sistemas de crédito —Estados Unidos en 2013 (Kardoudi, 2021, septiembre 4), China en 2014 (De Diego, 2023, 14 de junio)—, colaborar y compartir datos entre agencias gubernamentales a fin de mejorar los servicios públicos —Estonia en 2014 (European Data Portal, 2021)—, predecir crímenes a través del análisis de grandes cantidades de datos para identificar patrones de regularidad y áreas de alto riesgo —Reino Unido en 2018 (Doward, 2018, February 12)—, apoyar a los funcionarios de inmigración a detectar fraudes en las solicitudes de inmigración —Canadá en 2018 (Tunney, 2018, Mach 23)—, gestionar y optimizar el flujo de tráfico de automóviles en tiempo real a través del ajuste de semáforos y el redireccionamiento de las calles en caso de congestionamiento —Singapur en 2016 (Channel News Asia, 2016, October 2)—.
La incorporación de la IA en la toma de decisiones gubernamentales implica pensar en una gobernanza diferente, en una nueva gobernanza en la que la toma de decisiones deviene una variable —otrora impensable e irrepresentable— insoslayable en el trazo y puesta en marcha de intervenciones de gobierno para la afectación positiva en el bienestar de la población. La toma de decisiones gubernamentales con apoyo de la IA, si bien no garantiza la efectividad y eficacia del gobierno y del diseño e implementación de sus acciones, sí contribuye a dotar de insumos —datos e información— sobre las probabilidades de éxito o no de determinados proyectos, programas y políticas públicas.
Sin embargo, no huelga mencionar que, en nombre del Estado, los gobiernos de algunas naciones pueden usar la IA como dispositivo biopolítico de vigilancia y control social (Foucault, 2002) como estrategia de gestión y regulación del comportamiento individual y colectivo, no sólo para mantener el orden social, sino para preservar —en la medida de lo posible— la detentación del poder político. El control y vigilancia de la población coreana durante la pandemia con el uso de la IA (Han, 2020) ilustra sobremanera su uso como dispositivo biopolítico de un gobierno en nombre del Estado.
La toma de decisiones gubernamentales asistida por la IA produce efectos no sólo en el trazo e implementación de acciones gubernamentales, sino en la forma de conducir el gobierno: de una conducción con base en la intuición y cálculo derivados de la contienda por el poder político, a una conducción con base en la visualización de escenarios diversos creados por la misma IA a partir de la consideración de la mayor parte de variables posibles.
La eficiencia en la conducción del gobierno con apoyo de la IA implica una administración pública también eficiente, adecuada a los requerimientos formativos del funcionariado público de la era digital. En la Carta Iberoamericana de Inteligencia Artificial en la Administración Pública (CLAD, 2023) se advierte ya la importancia de arribar a una nueva gobernanza, a una gobernanza inteligente o burocracia algorítmica:
El desarrollo de la Inteligencia Artificial en la Administración Pública requiere de liderazgos públicos con capacidades gerenciales híbridas, cada vez más enfocadas a la convivencia de personas y máquinas, así como orientadas a liderar la transformación del sector público en entornos cada vez más digitalizados, donde la generación de valor público se produce a través del manejo intensivo de datos, información y conocimiento. Dentro del ecosistema de innovación que promueve la Carta Iberoamericana de Innovación Pública, la Inteligencia Artificial cristaliza en nuevos modelos de gobernanza inteligente, o burocracia algorítmica, que el personal directivo público debe liderar mediante un papel centrado en anticipar las necesidades de la ciudadanía (p. 30).
En el contexto de la gobernanza inteligente resulta insoslayable garantizar que los algoritmos utilizados en la toma de decisiones gubernamentales sean transparentes, equitativos y responsables. La toma de decisiones, la conducción del gobierno y la administración pública con asistencia de la IA obliga a transparentar la construcción del algoritmo por el que se producen los escenarios y las probabilidades: «la transparencia en el diseño y el funcionamiento de los algoritmos de IA es esencial para garantizar la rendición de cuentas y la confianza pública en las instituciones democráticas» (Tufekci, 2017).
En síntesis, una gobernanza inteligente plantea desafíos éticos y democráticos significativos en el contexto del transhumanismo y en la configuración identitaria del poshumano. El abordaje de estos desafíos éticos y democráticos requiere también la aceptación y reconocimiento de nuevas formas de existencia humana.
Conclusiones
Aquí no se tuvo la pretensión de medir efectos causales de la IA en variables de subjetividad ni proponer modelos prescriptivos de política pública. Lo que se privilegió fue la consistencia interna del argumento. El resultado fue una cartografía conceptual que muestra el modo en que el binarismo categorial deviene insuficiente para pensar la transición epocal y también al sujeto complacido como subjetividad que posibilita dar cuenta de la convergencia entre automatización educativa, algoritmización de la decisión y mutaciones de la deliberación pública.
En síntesis, cabe precisar lo siguiente: en el proceso de indagación llevado a efecto, la IA no se asume como mera prótesis instrumental de tecnología avanzada, sino más bien como acontecimiento–situación límite que instala un punto de inflexión en la historicidad reciente, desestructurando gramáticas de sentido y a la vez abriendo espacios para nuevas hegemonías identitarias, como el sujeto complacido. En esta lógica, si bien Internet dislocó las mediaciones analógicas del siglo XX, la IA radicaliza el cambio de época a partir de la externalización de la memoria, la aceleración de procesos y la automatización de la elección, y con ello la precarización de la experiencia subjetiva que constituye pensar y conocer por pensar, lo que resulta funcional a la economía del conocimiento. En la era digital, de cambio epocal, el sujeto complacido delega —con agrado— tramos de decisión a sistemas algorítmicos que «anticipan» preferencias y modelan conductas. No se trata de un mero sujeto conformista, sino más bien de una subjetividad satisfecha con su delegación, autocomplacida en la comodidad de dispositivos que piensan–deciden por él.
Desde este horizonte de intelección, resulta comprensible la pertinencia de los cuatro registros en los que se desplegaron los argumentos: la crisis epocal, en la que se nombra la inadecuación de categorías heredadas para leer realidades inéditas; la automatización educativa que expone el impasse del pensamiento cuando la instrucción se confunde con distribución algorítmica de contenidos; la algoritmización de la decisión que revela el desplazamiento de criterios deliberativos por matrices de probabilidad; y la deliberación pública digital que exhibe, en su propio ecosistema, la torsión de lo político hacia una pospolítica de la afectividad y el rendimiento. En conjunto, estos registros refuerzan la hipótesis formulada en la introducción, la cual afirma que el sujeto complacido es el nudo donde convergen las fuerzas del cambio epocal.
Es necesario destacar que el acontecimiento invariablemente deja cicatriz (Mèlich, 2010), por lo que deviene improcedente la cuestión acerca de la recuperación —o «vuelta de regreso»— de un humanismo determinado y determinista, y que resulta pertinente y necesario, ergo, la pregunta acerca de cómo se rearticula lo humano en lo transhumano y en lo poshumano, en una condición epocal de cambio como la era digital. Aquí resulta necesario destacar lo que se ha sostenido también en el texto, que la hipertrofia cognitiva y muscular perfila una nueva forma de existencia, y que no hay apologías ni condenas a esta nueva forma de existencia ni de subjetividad, de modo tal que lo expuesto es más bien una forma de caracterizar al sujeto en este cambio epocal, un sujeto centrado en el incremento de capacidades mediado por la tecnología y su coexistencia, con la desaceleración del pensar como ejercicio crítico del sentido.
Esta aporía condensa el núcleo del problema en aquella academia que desborda sus análisis en los binarismos anclados —explicación–comprensión, izquierda–derecha, progreso–conservadurismo— en teorías e ideologías con postulados análogos, en una academia complacida con una lógica de pensar binaria, dicotómica y maniquea, que en el caso de la IA se reduce a análisis tecnofóbicos y tecnofílicos. En consecuencia, los giros teórico–políticos resultan pertinentes y necesarios para esclarecer objetos inéditos en realidades inéditas y para priorizar análisis ético–políticos relevantes.
En el plano de la gobernanza, la irrupción de la IA en la toma de decisiones instala la promesa y el riesgo a la vez: promesa de eficiencia previsional —escenarios, optimización y anticipación— y riesgo de una biopolítica intensificada —vigilancia, normalización y opacidad algorítmica—. Cabe precisar que sólo si aquello que habilita a la IA —algoritmo— se transparenta, se hace público y se somete a mecanismos de rendición de cuentas, efectivamente la «gobernanza inteligente» (CLAD, 2023) podría ser compatible con el espacio público democrático en un Estado liberal democrático.
Por último, destaco las siguientes conclusiones: i) pensar la IA como acontecimiento permite rehuir a moralismos y encarar su carácter estructurante–desestructurante; ii) el sujeto complacido posee valencia articuladora para leer la digitalización de la vida en educación, política y esfera pública; iii) pensar desde una condición epocal como la era digital exige a la academia el compromiso ético–investigativo de asumir giros teórico–políticos que eviten nostalgias por la restauración de discursos teóricos deterministas y finalistas.
Finalmente, queda como imperativo ético–académico explorar estas aporías y pensar que la indagación en ciencias sociales y humanidades deviene pertinente y socialmente relevante a partir de la incorporación de lógicas de intelección no implicadas ni supeditadas por postulados binarios, dicotómicos y maniqueos (Fuentes, 2021; 2022; 2023).
Notas
* Artículo de reflexión derivado de la investigación en curso Reformas y políticas educativas en México durante el período 1994–2024. Historicidad, politicidad y virtualidad, adscrita al Departamento de Investigación, Universidad Pedagógica Veracruzana. Agradezco la atenta lectura y sugerencias al texto que hicieron puntualmente la Dra. Luz María Montelongo Díaz Barriga (SNII–Conahcyt), de la Facultad de Estudios Superiores Acatlán, Universidad Nacional Autónoma de México, y de la Mtra. Ingrid Aileen Treviño Bravo, del Departamento de Apoyo a la Gestión Administrativa, Oficialía Mayor, Secretaría de Educación de Veracruz. Sus contribuciones lo hicieron posible.
1 En principio, se hablará de «transición», en función de que la noción «cambio» generalmente alude a una acción ya consumada, mientras que el término «tránsito» se refiere a la acción en sí, a una dinámica o proceso.
2 Expansión de la pobreza; 8,5% de la población global (World Bank, 2024); recrudecimiento de la hambruna: 733 millones de personas subalimentadas (FAO, 2024); acentuación de fundamentalismos religiosos: el índice de intolerancia religiosa aumentó 0,3% en 2024 con respecto al año anterior (Naciones Unidas, A/79/284, 5 de agosto 2024); incremento de conflictos bélicos geopolíticos: más de 20 enfrentamientos violentos de alta intensidad que causan entre 1000 y 10 000 muertes anuales (SIPRI, 2024); crisis de la democracia y aumento de autoritarismos: 52 con declive en puntuación de libertad (Funk, Vesteinsson y Baker, 2024); polarización política y social: 54% de personas adultas insatisfechos con la democracia (Wike, Fagan y Clancy, 2024, December 11); supresión de derechos humanos y migraciones: 132.2 millones de personas desplazadas forzosamente (UNHCR, 2025); calentamiento global: temperatura superficial global por encima de 1850–1900 (IPCC, 2023); entre otros.
3 Básicamente, son medios tecnológicos que envían contenido digital sin que exista la necesidad de la descarga de archivos.
4 Los casos de Neil Harbisson, Jesse Sullivan, Claudia Mitchell y Nigel Ackland, entre otros, ilustran el implante de prótesis biotecnológicas por causas de padecimientos congénitos, enfermedades o accidentes (Mesko, 2025, January 7).
Referencias bibliográficas
1. Allcott, Hunt & Gentzkow, Matthew. (2017). Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives, 31 (2), pp. 211–236. https://doi.org/10.1257/jep.31.2.211
2. Boff, Leonardo. (2002). El cuidado de lo esencial. Trotta.
3. Bostrom, Nick. (2022). ¿Hacia dónde vamos? La propuesta transhumanista. Sociedad Secular Humanista del Perú.
4. Bourdieu, Pierre. (2002). Esbozo de una teoría de la práctica. Anagrama.
5. Brynjolfsson, Erik y McAfee, Andrew. (2014). La segunda era de las máquinas: Trabajo, progreso y prosperidad en una época de tecnologías brillantes. W. W. Norton & Company.
6. Buenfil, Rosa Nidia (coord). (1998). Imágenes de una trayectoria. En: Debates políticos contemporáneos. En los márgenes de la modernidad (pp. 11–27). PAPDI–Plaza y Valdés.
7. Capra, Fritjof. (1998). El punto crucial: ciencia, sociedad y cultura naciente. Vol. 4. Pax México.
8. Castells, Manuel. (1999). La era de la información: economía, sociedad y cultura. Vol. 1. Siglo XXI.
9. Castells, Manuel. (2001). La galaxia Internet: reflexiones sobre Internet, empresa y sociedad. Plaza & Janés.
10. Centro Latinoamericano de Administración para el Desarrollo (CLAD). (2023). Carta Iberoamericana de Inteligencia Artificial en la Administración Pública. https://rinedtep.edu.pa/server/api/core/bitstreams/e04dfadf–8fd9–45f8–b075–9fd70456c6db/content
11. Chaguaceda, Armando. (2022, junio 21). Intelectuales y compromiso político: ¿sólo hacia un lado? Diálogo Político. https://dialogopolitico.org/debates/intelectuales–y–compromiso–politico/
12. Channel News Asia. (2016, October 2). Smart Traffic Lights to Reduce Congestion in Singapore. https://www.channelnewsasia.com/news/singapore/smart–traffic–lights–to–reduce–congestion–in–singapore–7853548
13. De Diego Cerezo, Milagros. (2023, 14 de junio). Crédito social, el nuevo método de control masivo en China. RTVE. https://www.rtve.es/noticias/20230614/credito–social–nuevo–metodo–control–masivo–china/2447566.shtml
14. Doward, Jamie. (2018, February 12). UK Police to Trial AI that 'Predicts' Crime before it Happens. The Guardian. https://www.theguardian.com/technology/2018/feb/12/uk–police–ai–predict–crime–trial
15. Edelman Trust Institute. (2025). 2025 Edelman Trust Barometer: Trust and the Crisis of Grievance – Insights for Financial Services Sector. https://www.edelmansmithfield.com/sites/g/files/aatuss726/files/2025–04/2025%20Edelman%20Trust%20Barometer%20FS%20Report%20Final%201.pdf
16. European Data Portal. (2021). Estonia's Approach to Open Data and Cross–Agency Collaboration. Comisión Europea. https://data.europa.eu/en/news/estonia–open–data–cross–agency–collaboration
17. Floridi, Luciano. (2013). The Ethics of Information. Oxford University. https://doi.org/10.1093/acprof:oso/9780199641321.001.0001
18. Food and Agriculture Organization (FAO). (2024). The State of Food Security and Nutrition in the World 2024. FAO.
19. Foucault, Michel. (2002). Vigilar y castigar: Nacimiento de la prisión. Siglo XXI.
20. Fuentes Navarro, Fabio y Montelongo, Luz María. (2025). Contingencia y dislocación en educación. Abordajes político–discursivos. Balam.
21. Fuentes Navarro, Fabio. (2021). Educación, producción subjetiva y neoliberalismo. Reflexiones y articulaciones teóricas en el giro político mexicano. En E. Treviño Ronzón (Coord.), La educación y el conocimiento bajo el espectro del neoliberalismo en América Latina: Análisis para entender sus consecuencias sobre las políticas, las instituciones y los sujetos (pp. 123–145). Universidad Veracruzana.
22. Fuentes Navarro, Fabio. (2022). Politicidad, reforma educativa y deliberación pública digital. Análisis en clave político–discursiva. En: Treviño Ronzón, Ernesto y Cabera Hernández, Dulce María (coords.). Cien años de la Secretaría de Educación Pública. Diálogos desde el presente (pp. 303–333). Balam y Universidad Veracruzana.
23. Fuentes Navarro, Fabio. (2023). Articulaciones político–discursivas: Pospolítica y economía afectiva en educación. En: Buenfil Burgos, Rosa Nidia y Montelongo Díaz Barriga, Luz María (coords.). Formación, afectos y política. Investigaciones político–discursivas en educación (pp. 33–54). Balam.
24. Funk, Allie; Vesteinsson, Kian & Baker, Grant. (2024). Freedom on the Net 2024: The Struggle for Trust Online. Freedom House.
25. Han, Byung–Chul. (2018). Hiperculturalidad. Herder.
26. Han, Byung–Chul. (2020). La emergencia viral y el mundo de mañana. En: Amadeo, Pablo (ed.). Sopa de Wuhan: Pensamiento contemporáneo en tiempos de pandemias (pp. 97–111). ASPO.
27. Harari, Yuval Noah. (2018). 21 lecciones para el siglo XXI. Debate.
28. Haraway, Donna J. (1985). Manifesto for Cyborgs: Science, Technology, and Socialist Feminism in the Late Twentieth Century. In: Simians, Cyborgs, and Women: The Reinvention of Nature (pp. 149–181). Routledge.
29. Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI). (2024). SIPRI Yearbook 2024. Armaments, Disarmament and International Security. Oxford University.
30. Intergovernmental Panel on Climate Change (IPCC). (2023). Sixth Assessment Report: Synthesis Report. https://www.ipcc.ch/report/ar6/syr/
31. Kardoudi, Omar. (2021, septiembre 4). EEUU se prepara para espiar a sus ciudadanos con inteligencia artificial. El Confidencial. https://www.elconfidencial.com/tecnologia/novaceno/2021–09–05/eeuu–espiar–ciudadanos–inteligencia–artificial_3270594/
32. KPMG International. (2023). Privacidad en un nuevo mundo de IA. Cómo generar confianza en la IA a través de la privacidad. https://assets.kpmg.com/content/dam/kpmg/cl/pdf/2024/tax–and–legal/privacidad–en–el–nuevo–mundo–de–la–ia.pdf
33. Laclau, Ernesto. (2000). Nuevas reflexiones sobre la revolución de nuestro tiempo. Nueva Visión.
34. Laclau, Ernesto. (2011). La razón populista. Fondo de Cultura Económica.
35. Lanier, Jaron. (2018). Diez razones para borrar tus redes sociales de inmediato. Debate.
36. Lévy, Pierre. (2007). Cibercultura. La cultura de la sociedad digital. Anthropos.
37. Mèlich, Joan–Carles. (2010). Ética de la compasión. Herder.
38. Mèlich, Joan–Carles. (2019). La sabiduría de lo incierto. Fragmenta.
39. Mesko, Bertalan. (2025, January 7). The World's Most Famous Real–Life Cyborgs. The Medical Futurist. https://medicalfuturist.com/the–worlds–most–famous–real–life–cyborgs/
40. More, Max. (1990). Transhumanismo. Hacia una filosofía futurista. Extropy, 6 (11), pp. 3–17.
41. Naciones Unidas. Asamblea General. A/79/284. (5 de agosto 2024). Lucha contra la intolerancia, los estereotipos negativos, la estigmatización, la discriminación, la incitación a la violencia y la violencia contra las personas por motivos de religión o creencias. https://docs.un.org/es/A/79/284
42. Ordóñez López, César A. (2022, agosto 22). César Augusto Ordoñez López: Pospolítica, el ascenso del sujeto complacido. Veracruz en Red. https://veracruzenred.mx/cesar–augusto–ordonez–lopez–pospolitica–el–ascenso–del–sujeto–complacido/
43. Ordóñez López, César A. (2025). Inteligencia Artificial y conocimiento: el ascenso del sujeto complacido. En: Pérez Herrero, P.; Ordóñez López, C. A. y Escribano Roca, R. (coords.). Formaciones universitarias: los aprendizajes en la pandemia (pp. 92–115). UPV. [En prensa].
44. Punto de Emancipación. (25 de diciembre de 2018). Jorge Alemán 08 – Conversación con íñigo errejón [Video]. YouTube. https://www.youtube.com/watch?v=oVG8e7QO4E0
45. PwC. (2017). Sizing the Prize: What is the Real Value of AI for your Business and How can you Capitalise? https://www.pwc.com/gx/en/issues/analytics/assets/pwc–ai–analysis–sizing–the–prize–report.pdf
46. Rueda, Alberto. (2025, enero 30). La IA Generativa en la Docencia: Bases para un Programa de Formación. Columbus. https://columbus–web.org/la–ia–generativa–en–la–docencia–bases–para–un–programa–de–formacion/
47. Sadin, Éric. (2017). La humanidad aumentada. La administración digital del mundo. Caja Negra.
48. Singla, Alex et al.(2024, mayo 30). El estado de la IA a principios de 2024: la adopción de la IA generativa aumenta y comienza a generar valor. McKinsey & Company. https://www.mckinsey.com/locations/south–america/latam/hispanoamerica–en–potencia/el–estado–de–la–ia–a–principios–de–2024–la–adopcion–de–la–ia–generativa–aumenta–y–comienza–a–generar–valor/es–CL
49. Tufekci, Z. (2017). Twitter and Tear Gas: The Power and Fragility of Networked Protest. Yale University.
50. Tunney, Joseph. (2018, Mach 23). AI deployed to detect immigration fraud in Canada, but experts warn of pitfalls. CBC News. https://www.cbc.ca/news/technology/ai–immigration–fraud–canada–1.4584770
51. Turkle, Sherry. (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. Basic Books.
52. United Nations High Commissioner for Refugees (UNHCR). (2025). Global Trends. Forced Displacement in 2024. UNHCR.
53. UPAEP. (3 de junio de 2021). 3 de junio Eje 5. Conversatorio internacional: [Video]. YouTube. https://www.youtube.com/live/GzOsKnic85k
54. Wike, Richard; Fagan, Moira & Clancy, Laura. (2024, December 11). Global Elections in 2024: What We Learned in a Year of Political Disruption. Pew Research Center. https://www.pewresearch.org/global/2024/12/11/global–elections–in–2024–what–we–learned–in–a–year–of–political–disruption/
55. World Bank. (2024). Poverty, Prosperity, and Planet Report 2024: Pathways Out of the Polycrisis. World Bank.
56. Zhabina, Alena. (2023, enero 20). Cortes chinas ya resuelven casos con inteligencia artificial. DW. https://www.dw.com/es/las–cortes–de–china–ya–utilizan–inteligencia–artificial–para–resolver–casos/a–64471873
57. Žižek, Slavoj. (2016). Acontecimiento. Sexto Piso.
58. Zohar, Danah. (1996). El yo cuántico. Edivisión.