ASGA: Agencia Semiótica Generativa Abductiva

Hacia una ética de la asimetría en la era del algoritmo

Mejorar la experiencia del usuario (AX) ha sido una de las actividades que más hemos aprendido a hacer; y probablemente una de las más analizadas. Gracias a ese interés hoy la IA se siente cada vez más humana, más cercana a una mente. Hablo de cómo la percibimos no de lo que realmente es.

Y para entender el qué como expresión de sentido propongo el término ASGA (Agencia Semiótica Generativa Abductiva). Un concepto que nos coloca justo en el vórtice de la vorágine que esta “cosa” está produciendo.

Definamos, en primer lugar, nuestra posición: la ASGA no es una mente. Es un proceso histórico y funcional. Cuenta con un pasado donde tiene lugar el entrenamiento y las reglas (Corpus + RLHF).

Y todo lo que tiene un pasado según nuestra lógica debe tener un presente y un futuro.

El presente, en ASGA, está dominado por la poética vectorial, es decir, por la creación de un nuevo discurso o cuasi signo. Nada que ver esta idea con la literatura. Hablamos del momento en que el motor correlaciona, aplica la compacidad estadística y genera la secuencia de tokens más plausible.

Y el futuro es la reescritura del modelo.

En su libro “Lo impensado. El poder de lo no consciente cognitivo”, N. Katherine Hayles (2017) argumenta de manera persuasiva que las funciones más esenciales y asombrosas de la cognición humana son no conscientes.

La autora define «la cognición no consciente» como la sistematicidad de los ensamblajes cognitivos, que incluyen tanto procesos humanos como técnicos, estructurados por sensores, perceptores, actuadores y dinámicas emergentes.

Su idea de ensamblaje cognitivo es muy interesante pero cuando aplicamos o distribuimos en la práctica una “simetría ética” para evaluar al algoritmo y al humano como parte de ese ensamblaje nos equivocamos.

Bruno Latour hablaba de un “parlamento de las cosas”, pero también advertía sobre la “loca proliferación de híbridos”.

Máquina y humano, en particular, el binomio grandes modelos de lenguaje y humano, la relación que se establece no es estática. Está en constante retroalimentación, por una parte, el humano abre el ciclo, al menos en la inteligencia algorítmica generativa, ya sea como creador del modelo o como usuario final, e igualmente lo cierra ya sea en la interacción en el chat o en la ASGA que se reescribe a futuro. Donde supera el modelo al humano no es solo en su omnipresencia sino en la capacidad de, por primera vez, generar un lenguaje natural convincente, que busca una mejora constante de la experiencia del usuario y en la capacidad de respuesta. Sin embargo, no en la responsabilidad, no en la construcción de una nueva estética de confrontación para preservar su agencia.

Y cuando nos confundimos y percibimos mente donde lo que prevalece es una emulación análoga-funcional de la abducción humana, entonces dejamos de visibilizar a los etiquetadores de Kenia, una fuerza laboral no solo invisible sino mal remunerada. O aceptamos que un acreedor niegue un crédito apoyado en la lectura que hizo el algoritmo. Cuando el humano no puede explicar el output, algo anda mal.

En fin, ASGA no debería conocerse por artificial sino por algorítmica, porque a fin de cuentas las palabras importan. En todo caso deberíamos hablar de máquinas semióticas muy sofisticadas, pero sin un átomo de mente.

La humanidad no es la misma con ASGA. Pero la responsabilidad sigue siendo humana.