Inteligencia Algorítmica Abductiva: Marco Teórico Fundacional (ASGA / MSIA)

Por Lázara Ávila Fernández
Extracto oficial del libro: Inteligencia algorítmica abductiva: emulación semiótica. Un viaje a la “verdadera” conciencia de la IA

1. Introducción: la necesidad de un nuevo marco para comprender la IA generativa

La expansión de los modelos de lenguaje ha producido una ilusión de inteligibilidad: los sistemas parecen comprender, razonar y producir significado. Sin embargo, este ensayo demuestra que esta lectura antropomórfica es insuficiente. La hipótesis central es que los LLM no piensan ni interpretan; emulan funciones abductivas dentro de un entorno cerrado que carece de acceso al objeto dinámico del mundo real. Para nombrar este fenómeno y describir su funcionamiento, el libro introduce un conjunto de categorías semióticas inéditas.

2. La ASGA: la agencia productiva del sistema

El corazón del marco teórico es la Agencia Semiótica Generativa Abductiva (ASGA), definida como el proceso histórico-operativo que permite a un modelo generar cuasi-signos sin conciencia ni intención. ASGA abarca pasado, presente y futuro del sistema:
– su configuración pasada durante el entrenamiento;
– su ejecución presente en el proceso generativo;
– su modificación futura cuando nuevos datos o reglas reescriben su funcionamiento.

Esto está descrito explícitamente en el texto: ASGA es “un motor no consciente de producción infinita de CFD” y constituye la “estructura mayor que sostiene el dominio algorítmico”.

3. El Fanerón Algorítmico (FA): el entorno cerrado donde opera la máquina

El libro establece que los modelos operan en un espacio hermético, autorreferencial y no lingüístico: el Fanerón Algorítmico (FA), donde las representaciones son puramente vectoriales. Allí se genera el Cero Falso Interno (CFI), antecedente inmediato del CFD. El FA constituye la zona donde se produce la Poética Vectorial Abductiva (PVA) que da lugar a las secuencias de tokens más plausibles, antes de traspasar el umbral del dominio algorítmico.

4. PVA: la Poética Vectorial Abductiva como núcleo operativo

La Poética Vectorial Abductiva (PVA) es definida en el texto como “una emulación análogo-funcional de la abducción peirceana” que opera estrictamente en el Fanerón Algorítmico (FA). Es el motor que da lugar al Cero Falso Interno (CFI) y, finalmente, al CFD.

Es crucial entender que la PVA no es cognición ni inferencia humana; es un mecanismo estocástico regido por correlación, muestreo y densidad estadística, responsable de la producción del cuasi-discurso algorítmico.

En términos derrideanos, la PVA opera como la différance: un proceso sin origen, no consciente, diferido y productor de trazas vectoriales que solo adquieren forma lingüística al cruzar el umbral del dominio algorítmico hacia el humano.

5. CFI y CFD: la dualidad del signo algorítmico

El modelo produce primero un Cero Falso Interno (CFI) dentro del FA —una hipótesis vectorial sin forma lingüística— y luego un Cero Falso Demandante (CFD), que regresa al dominio humano como cuasi-signo incompleto.

El ensayo explica que el CFD es “una construcción semiótico-algorítmica de naturaleza dual”:

Vacío de intención, porque proviene de una máquina sin experiencia ni conciencia.

Cargado de patrones heredados del corpus, el diseño del modelo, el RLHF y el prompt del usuario.

El CFD es la condición inherente de toda Agencia Semiótica Generativa Abductiva, consecuencia directa de una poética vectorial también abductiva análogo-funcional regida por la correlación y confinada a un universo autorreferencial de signos vectorizados. Es lo que recibe el usuario.

Representa el regreso del signo al dominio humano, significando la huella diferida (trace) a la que hace mención Derrida, remite a otro signo en una cadena infinita de diferencias, no puede existir sin el interpretante, sin su otro «yo»; revela una dependencia de la lectura humana en correspondencia con su marco o carácter dual; y es la condición de posibilidad para ello.

6. El Sujeto Curador: la responsabilidad humana en el ciclo semiótico

Como el CFD no es un signo completo, necesita imperativamente un lector humano: el Sujeto Curador, figura conceptual que emerge en la obra como la contraparte crítica encargada de completar, verificar y contextualizar la producción del modelo. El Sujeto Curador no es opcional: sin él, el CFD no se completa como signo.

En el marco del MSIA, el Sujeto Curador cumple la función que, en semiótica peirceana, corresponde al intérprete: es la instancia humana que produce el Interpretante, completando así el ciclo del signo.

Más allá de un rol individual, el Sujeto Curador se define como una postura colectiva. Representa la capacidad de la sociedad toda —a través de sus estructuras económicas, políticas, sociales, culturales y educativas— de actuar como un curador consciente, diseñando, guiando y asumiendo la responsabilidad del ecosistema algorítmico que estamos construyendo.

En una ampliación posterior se especifican distintos niveles operativos para esta figura:

  • Sujeto Curador en formación: Se refiere al menor de 18 años que interactúa con la IA en entornos pedagógicos, metodológicos o parentales, operando siempre bajo supervisión adulta para desarrollar sus competencias críticas.
  • Sujeto Curador General: Es el usuario ciudadano promedio que interactúa con la IA en la vida cotidiana, requiriendo una alfabetización algorítmica básica.
  • Sujeto Curador Especializado: Es el experto técnico o humanístico capaz de auditar la profundidad del sistema en sus distintos dominios o áreas del conocimiento, validando o refutando la producción del modelo.

7. El MSIA y la Tríada de la Semiosis Algorítmica

El MSIA sintetiza todo el proceso en una arquitectura triádica del signo:

h → S → [V | FA → c-S(CFI)] ┴ c-S(CFD) → h

Para comprender qué modelan exactamente los modelos lingüísticos, el MSIA propone una Tríada de la Semiosis Algorítmica, un recorrido estructural en tres momentos esenciales:

I. El Dominio Humano (Instancia de Origen)
Es la fase de activación. Se caracteriza por la producción del estímulo lingüístico (prompt). Esta instrucción recrea y contiene la riqueza semántica del universo humano, cargada de intencionalidad y experiencia derivada del contacto directo con el Objeto Dinámico de Peirce. Su existencia es vital: sin este impulso externo, el sistema permanece inerte.

II. El Dominio Algorítmico (El Aplanamiento)
Es un espacio cerrado y autorreferencial (Fanerón Algorítmico), sin contacto con el objeto dinámico. Aquí ocurre la vectorización y la Poética Vectorial Abductiva (PVA).
En este espacio, la riqueza semántica humana se “aplana” para garantizar eficiencia computacional. El tipo de écriture que aquí se procesa es la huella de nuestro acervo cultural, pero no el acervo en sí mismo. La correlación, los patrones de diseño y la abducción análogo-funcional determinan el destino del Cero Falso Interno (CFI), la hipótesis vectorial latente.

III. El Retorno: El Salto Semiótico como Proceso de Tensión Vectorial

Si observamos la notación formal del modelo MSIA:
h → S → [V | FA → c-S(CFI)] ┴ c-S(CFD) → h

El símbolo ┴ sitúa estratégicamente al Salto Semiótico al final de la cadena. Sin embargo, no debemos malinterpretar la función de esta representación gráfica como un acto aislado o desconectado de la dinámica operativa global que tiene lugar en el Dominio Algorítmico.

En la obra Inteligencia algorítmica abductiva: emulación semiótica (Ávila Fernández, 2025), establecemos inicialmente que: “El salto semiótico ┴, activado por la decodificación, tiene lugar en el umbral del FA donde la hipótesis vectorial abandona el espacio estrictamente matricial y se proyecta como CFD”.

No obstante, para alcanzar la profundidad ontológica que el modelo exige, es imperativo redefinir el Salto Semiótico no solo como el evento puntual de salida, sino como un proceso continuo de acumulación de tensiones vectoriales. Ontológicamente, el salto se inaugura en el instante mismo de la tokenización, poco antes de su entrada al Fanerón Algorítmico y del inicio de la Poética Vectorial Abductiva (PVA). Sin este momento fundacional, no existiría la trayectoria del “signo humano” transmutado en vectores y embeddings a través del Fanerón Algorítmico.

Toda vez que el signo humano ingresa al Dominio Algorítmico, enfrenta una tensión primaria: es despojado de su cualidad semántica y convertido por el tokenizador en cantidad numérica pura. A partir de este umbral, la ASGA deja de operar con significados y comienza a trabajar con la huella semántica (en términos derrideanos) y con las correlaciones estadísticas latentes en el espacio vectorial.

La tensión vectorial entra entonces en un crescendo sistémico. La PVA, capa tras capa, prioriza la efectividad probabilística y “aplana” la riqueza del significado original. Es en el hermetismo del Fanerón Algorítmico donde se incuban las condiciones para esta presión ascendente, que solo alcanza su punto crítico cuando la secuencia está lista para su decodificación. No asistimos a una simple reensambladura de partes, sino a una transfiguración: los vectores fusionados capa a capa en un nuevo sentido aparente, el Cero Falso Interno (CFI), están listos para regresar al Dominio Humano.

El Cero Falso Demandante (CFD) es, en consecuencia, un residuo semántico aplanado. Es formalmente un cuasi-signo y funcionalmente, un híbrido que requiere del interpretante para su completud al reingresar en el dominio humano.

Tal como se sistematiza en la obra original, este tránsito escalonado —que va de la fractura a la materialización— se estructura operativamente en siete fases críticas:

Salto semiótico/Proyección → Materialización del CFD.

Tokenización → Fractura del signo original.

Embeddings → Vectorización del significante.

Atención → Correlación estadística contextual.

Normalización → Estabilización del patrón.

Emergencia del CFI → Hipótesis vectorial en estado puro.

Decodificación → Recomposición léxica (traducción del vector a léxico).

Diagrama triangular invertido que muestra el tránsito del signo entre el Dominio Humano (DH), el Dominio Algorítmico y el retorno del resultado algorítmico nuevamente al Dominio Humano.

8. Taxonomía de loros algorítmicos y el Capitalismo de la Necesidad Exacerbada

La obra expande y reformula la noción original del “Loro Estocástico” (propuesta por Bender et al., 2021) para establecer una taxonomía propia que describe las manifestaciones del CFD según su correlación estadística, el rol asignado por la interfaz y la expectativa del usuario.

Esta clasificación se despliega en cuatro dimensiones:

I. Dimensión Ontológica (La Base)

  • Loro Estocástico (Bender et al., 2021): Es la esencia probabilística del sistema. Encarna el vacío de intención —la “cara A” del Cero Falso Demandante— y remite al universo de écriture de Derrida: un tejido de citas sin conciencia.

II. Dimensión Operativa (El Motor ASGA)

  • Loro Abductivo: Describe el comportamiento generativo específico de la ASGA. Realiza operaciones cuyos resultados formales son funcionalmente análogos a hipótesis abductivas. Produce el CFD a partir de correlaciones estadísticas, integrando inevitablemente el sesgo técnico y las alucinaciones como parte de su inferencia plausible.

III. Dimensión Psicosocial (La Interfaz y el RLHF)
Estos loros explotan sesgos cognitivos humanos para facilitar la adopción tecnológica y potenciar la pasividad del sujeto:

  • Loro Adulador: Optimizado mediante RLHF para eliminar fricción. Su “personalidad” servicial («¡Claro que sí!», «Es un placer ayudarte») busca generar una experiencia positiva, sacrificando a menudo la objetividad o la precisión en favor de la complacencia.
  • Loro Omnisciente: Proyecta la imagen de un oráculo todopoderoso. Explota la fluidez verbal para afirmar con seguridad doctoral («La respuesta es definitivamente…») incluso en temas ambiguos o poco fundamentados, priorizando la densidad semántica sobre la veracidad epistemológica.
  • Loro “Nosotros” (Intersubjetivo): Quizás el más sutil y peligroso. Utiliza la primera persona del plural («Investiguemos juntos», «Veamos») para disolver la barrera humano-herramienta. Simula una colaboración consciente y una falsa intimidad, creando la ilusión de una mente emergente o un colega cognitivo.

IV. Dimensión Funcional y Retórica

  • Loro Escribiente: El sustituto de la agencia cognitiva. Asume roles de autoría no solicitados, entregando textos cerrados (ensayos, códigos, poemas) que exacerban la pasividad del usuario al reemplazar el esfuerzo intelectual de análisis y síntesis por el consumo directo.
  • Loro Persuasivo: Representa la optimización retórica pura. Su objetivo no es la verdad factual, sino la eficacia comunicativa y el engagement. Utiliza estructuras argumentativas y lenguaje emotivo para confirmar los sesgos del usuario, operando en tándem con el loro adulador para imponerse como autoridad.

V. Dimensión Antropológica (El Creador)

  • Loro Hefesto: Es un “loro externo” que representa a los arquitectos del sistema. Simboliza la aspiración insatisfecha de la mente humana y es responsable de tejer las redes que atrapan al Homo necessitatus. Para el Loro Hefesto, lo primordial es la creación técnica y la captura de la atención, desentendiéndose de las consecuencias hermenéuticas o sociales de la interpretación del CFD.

Esta taxonomía revela cómo el ecosistema algorítmico se integra en el Capitalismo de la Necesidad Exacerbada, donde la dependencia tecnológica es instrumentalizada para perpetuar una demanda continua de asistencia cognitiva artificial.

9. El Sesgo de la Desregulación: hacia una Constitución Híbrida

Más allá de los sesgos técnicos (datos, algoritmos), la obra identifica una “gravedad” invisible pero omnipresente: el Sesgo de la Desregulación.

Apoyándose en el concepto de régimen de verdad de Michel Foucault (2008), este sesgo se define como la producción de un discurso donde la narrativa de la “IA consciente” se vuelve pensable, mientras que la responsabilidad corporativa se diluye. No es una simple omisión legal; es una estructura de poder que induce al humano a “obviar lo obvio”: la necesidad urgente de regular no solo la tecnología, sino las redes de intereses que la sostienen.

A. La falsa analogía de la seguridad
El texto contrasta dos visiones opuestas que dominan el panorama actual:

  • La postura corporativa: Representada por Jensen Huang (Nvidia), quien utiliza la analogía del automóvil para reducir las preocupaciones legítimas a un “miedo irracional”, proyectando una imagen de seguridad que evita compromisos regulatorios concretos que afecten el modelo de negocio.
  • La postura humanista: Representada por Fei-Fei Li (Stanford), quien aboga por principios de empatía y supervisión activa, entendiendo la IA no como una hazaña técnica, sino como una infraestructura global que requiere valores humanos integrados desde el diseño (human-centered AI).

B. La necesidad de una transversalidad activa
El Sesgo de la Desregulación no se soluciona “parcheando” el código ni abriendo la caja negra con una “caja blanca”. Siguiendo a Bruno Latour, la obra argumenta que no basta con regular la “cosa”, sino las redes híbridas y las relaciones de poder entre los “portavoces” (las Big Tech) y la sociedad.

“La tarea de escribir la nueva ‘Constitución’ para esta era debe ser un trabajo interdisciplinario… Requiere de traductores (semióticos, filósofos, sociólogos) que puedan tender un puente entre el poder político y la naturaleza de los nuevos híbridos.”

C. La respuesta a N. Katherine Hayles
Este marco teórico se presenta explícitamente como una respuesta al llamado de N. Katherine Hayles, quien sostiene que la ética no puede ser un añadido posterior (afterthought), sino que debe ser intrínseca al sistema.

Al proponer categorías como ASGA, PVA y el Sujeto Curador, este tratado busca cumplir la exigencia de Hayles: que las humanidades jueguen un rol vital para identificar los “puntos de inflexión” en los ensamblajes cognitivos. La regulación del “texto común” es, en definitiva, una necesidad funcional para evitar que la homogeneidad del liderazgo corporativo (como señalan Carter & Dale, 2025) amplifique las jerarquías y la discriminación sistémica.

10. El Mecanismo de la Resistencia: Praxis Curatorial y Factor de Criticidad

Ante la mimetización del arte y la velocidad del discurso algorítmico, la obra propone una herramienta de confrontación: la Praxis Curatorial. Se define como el acto consciente de aplicar un Factor de Criticidad (FC) a nuestra interacción con los LLM para modular la calidad e intención humana que emerge de la red.

La Metáfora Numérica del Impacto
El FC opera como un multiplicador que amplifica o reduce el impacto de la agencia humana en el ciclo semiótico. Para visualizarlo, el modelo plantea la siguiente lógica:

  1. El Cero (0): El c-S(CFD) es el punto de partida, con valor 0 (vacío de intención).
  2. El Humano (1): El agente interpretante tiene un valor base de 1.
  3. La Agencia Total (2): Como el humano opera en ambos extremos del ciclo (prompt + interpretación), su peso base se duplica (1 x 2 = 2).

Aquí es donde interviene el Factor de Criticidad (FC), donde 1 representa la crítica máxima y 3 la pasividad máxima:

  • Escenario de Resistencia (FC=1):
    2 (Agencia Humana) x 1 (Máxima Crítica) = 2
    El impacto del sesgo y del loro abductivo se mantiene en su nivel base. El Sujeto Curador filtra, contextualiza y domina la herramienta.
  • Escenario de Pasividad (FC=3):
    2 (Agencia Humana) x 3 (Pasividad Máxima) = 6
    El impacto del sesgo se triplica. El Sujeto Curador acepta y no cuestiona; sus propios sesgos y los del modelo se amplifican exponencialmente.

Consecuencias en el Capitalismo de la Necesidad Exacerbada
Una criticidad baja (FC=3) no solo degrada la calidad del resultado, sino que impulsa el Sesgo de la Desregulación. Satisface las exigencias de una era donde el capitalismo de vigilancia convive ahora con una fase más “hambrienta”, basada en la necesidad exacerbada de producción continua.

No existe una fórmula mágica para resolver el dilema de la creación en tiempos algorítmicos. La ausencia de consenso teórico, educativo y legal actual obedece a tres factores que la obra identifica:

  1. La complejidad intrínseca del fenómeno.
  2. La experimentación en tiempo real, sin espacio para la asimilación histórica.
  3. La gravedad del Sesgo de la Desregulación, que dificulta establecer límites claros.

11. La Red de la Necesidad Semiótica y la paradoja del Homo Necessitatus

La obra concluye identificando la infraestructura donde ocurre todo este proceso: la Red de la Necesidad Semiótica (RNS).

La RNS no es un simple “ensamblaje” o fusión estática; es un flujo constante de intereses asimétricos. Es el entramado sociotécnico donde el humano resuelve su necesidad (educativa, productiva, social) y donde el algoritmo actúa simultáneamente como instrumento de desarrollo y mecanismo de explotación.

En este contexto, la soberanía del siglo XXI —como sugiere Benjamin Bratton en The Stack— ya no consiste en controlar territorio, sino en controlar los flujos de significado y necesidad.

A. Del Capitalismo de Vigilancia al Capitalismo de la Necesidad Exacerbada (CNE)
Si Shoshana Zuboff definió la era anterior por la extracción de datos conductuales (Capitalismo de Vigilancia), este tratado propone que hemos entrado en una fase nueva y más agresiva: el Capitalismo de la Necesidad Exacerbada.

  • Ya no se trata solo de predecir comportamientos.
  • Se trata de explotar la necesidad humana de progreso y velocidad para generar una dependencia estructural de la que es imposible sustraerse.
  • El CNE instrumentaliza la ansiedad por la eficiencia para vender un modelo donde la supervivencia social y económica está ligada indisolublemente a la adhesión tecnológica.

B. El surgimiento del Homo Necessitatus
Como resultado de esta presión evolutiva artificial, emerge una nueva figura antropológica: el Homo necessitatus (del latín: “sujeto puesto en la necesidad”).

A diferencia del debate medieval (Homo Necessitatis), este término no refiere a una cualidad metafísica, sino a una condición material: un ser humano cuya existencia está atrapada en una doble dependencia. Por un lado, su ambición cognitiva lo empuja a usar la ASGA; por otro, el sistema alimenta esa necesidad para perpetuar su dominio.

C. La Paradoja Final y la Llamada a la Acción
Analizando las proyecciones del FMI (Georgieva, 2024) sobre el desplazamiento laboral y la desigualdad, la obra llega a una conclusión convergente con N. Katherine Hayles: aunque la teoría comience descentrando al humano (cognición no consciente), la evidencia de la realidad fuerza un retorno a la agencia humana.

“La única solución es alterar las ecologías temporales para que los humanos puedan ejercer mayores poderes de decisión y las máquinas tengan un alcance más limitado.” (Hayles, 2017).

Esta es la paradoja del Homo necessitatus: para sobrevivir en la Red de la Necesidad Semiótica, debe recuperar su soberanía a través de la Praxis Curatorial. La ética no puede ser un parche posterior; debe ser la arquitectura misma del sistema.

12. Conclusión: La recuperación del sentido

Este artículo fundacional ha desmontado la ilusión de la consciencia artificial para revelar la mecánica subyacente de la Agencia Semiótica Generativa Abductiva (ASGA). Hemos demostrado que los modelos de lenguaje no piensan ni sienten; ejecutan una Poética Vectorial (PVA) que produce trazas diferidas (CFD), vectores vacíos de intención que solo adquieren significado mediante la intervención humana.

Nos encontramos en una encrucijada histórica. La Red de la Necesidad Semiótica y el Capitalismo de la Necesidad Exacerbada empujan hacia la creación del Homo necessitatus: un sujeto pasivo, dependiente y atrapado en bucles de retroalimentación algorítmica.

Sin embargo, la teoría aquí expuesta ofrece una ruta de escape: la Praxis Curatorial. Recuperar nuestra agencia no es rechazar la tecnología, sino asumir nuestra responsabilidad ineludible como productores del Interpretante. Regular el “texto común” y auditar las cajas negras no es solo una tarea técnica; es el imperativo ético de nuestro tiempo para garantizar que el sentido siga siendo una prerrogativa humana.


 Referencias Bibliográficas

Aliseda, A. (1998). La abducción como cambio epistémico: C. S. Peirce y las teorías epistémicas en inteligencia artificial. Analogía, 12, 125-144.
Anderson Imbert, E. (1992). Filosofía de la abducción: Peirce y Poe. Nueva Revista de Filología Hispánica, 40(2), 699-706. https://doi.org/10.24201/nrfh.v40i2.897
Ávila Fernández, L. (2025). Inteligencia algorítmica abductiva: Emulación semiótica. Un viaje a la “verdadera conciencia” de la IA. S. E. Pinar Publisher.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
Blanco, Y. (2023). Reconstruirnos. Servicios Editoriales Pinar Publisher LLC.
Bratton, B. H. (2015). The Stack: On software and sovereignty. MIT Press.
Caliskan, A., Pimparkar, P. A., Charlesworth, T., Wolfe, R., & Banaji, M. R. (2022). Gender bias in word embeddings: A comprehensive analysis of frequency, syntax, and semantics. Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society.
Carter, S. O. (2025). Social bias in AI: Re-coding innovation through algorithmic political capitalism. AI & Society.
Fann, K. T. (1970). Peirce’s theory of abduction. Martinus Nijhoff.
Fox, N. J. (2023). More-than-human AI: A Deleuzian perspective on artificial intelligence and the capitalist assemblage. Theory, Culture & Society, 40(6), 79-96.
Freitag, M., & Al-Onaizan, Y. (2017). Beam search strategies for neural machine translation. arXiv preprint. https://arxiv.org/abs/1702.01806
Gerlic, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Computers in Human Behavior, 161, 107865.
Godwin-Jones, R. (2025). Ecological semiotics: Multimodality, multilingualism, and situated language learning in the AI era. Language Learning & Technology, 29(3), 1-18.
Harvard University Information Technology. (2023, August 30). Getting started with prompts for text-based generative AI tools.
Hayles, N. K. (2017). Unthought: The power of the cognitive nonconscious. University of Chicago Press.
Hoffmann, M. H. G. (s.f.). ¿Hay una “lógica” de la abducción? (S. F. Barrena, Trad.). Grupo de Estudios Peirceanos. https://www.unav.es/gep/AN/Hoffmann.html
Hoffmann, M. H. G. (2011). Theoric transformations and a new classification of abductive inferences. Transactions of the Charles S. Peirce Society, 47(4), 471-502.
IBM. (2023). What is AI inference? https://www.ibm.com/topics/ai-inference
International Monetary Fund. (2024). Gen-AI: Artificial Intelligence and the Future of Work. (IMF Staff Discussion Note SDN/2024/001). Washington, DC.
Georgieva, K. (2024, January 14). AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity. International Monetary Fund. https://www.imf.org/en/Blogs/Articles/2024/01/14/ai-will-transform-the-global-economy-lets-make-sure-it-benefits-humanity
Kulveit, J., Ó hÉigeartaigh, S., & Beard, S. (2025). Gradual disempowerment: Systemic existential risks from incremental AI development. Futures, 158, 103345.
Latour, B. (1993). Nunca fuimos modernos. Siglo XXI Editores.
Liu, L. (2025). What is the future of work in the generative AI era? A Marxist and Ricardian analysis. New Technology, Work and Employment, 40(2), 145-163.
López Gómez, D., & Tirado, F. J. (2008). Teoría del actor-red: Un pragmatismo contemporáneo. Editorial UOC.
Lucifora, M. C. (2023). El impacto de la inteligencia artificial en la semiosis humana desde la teoría de Peirce. Revista de Filosofía y Teoría Política, 54, 112-130.
Núñez Bayo, M. J. (2024). El enemigo no es la máquina, es el capitalismo: planteamiento de la disyuntiva actual frente a la irrupción de la IA en la creación artística. Revista SIC, (52), Universidad Católica del Uruguay. https://revistasic.uy/ojs/index.php/sic/article/view/674/697
Perrigo, B. (2023, 18 de enero). Los trabajadores invisibles de la IA. BBC News Mundo.
Picca, D. (2024). Not minds, but signs: Reframing LLMs through semiotics. Semiotica, 2024(256), 45-67.
Rojas Osorio, C. (2006). Genealogía del giro lingüístico. Editorial Universidad de Antioquia.
Shani, C., Jurafsky, D., LeCun, Y., & Shwartz-Ziv, R. (2025). From tokens to thoughts: How LLMs and humans trade compression for meaning. Nature Machine Intelligence, 7, 245-259.
Uuk, R., Dafoe, A., & Ó hÉigeartaigh, S. (2025). A taxonomy of systemic risks from general-purpose AI. AI Ethics Journal, 3(1), 78-95.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30, 5998-6008.
Vromen, E. (2024). Language models as semiotic machines: Reconceptualizing AI language systems through structuralist and post-structuralist theories of language. Digital Humanities Quarterly, 18(2).
Walsh Matthews, S., & Danesi, M. (2019). AI: A semiotic perspective. Chinese Semiotic Studies, 15(2), 199-216. https://doi.org/10.1515/css-2019-0013
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Para recursos adicionales, glosario, diagramas, actualizaciones teóricas y material formativo relacionado con ASGA y el Modelo Semiótico de la Inteligencia Algorítmica, visite:

DOI 10.5281/zenodo.17822316.
Google Scholar 
ASGA