¿Quieres seguir usando IA que no entiende tu organización… o prefieres tejer una a tu medida?

El sujeto comunicador en tiempos de inteligencia artificial: desafíos epistemológicos y nuevas conceptualizaciones

TABLA DE CONTENIDOS

1. Introduccion

La irrupción de la inteligencia artificial (IA) obliga a repensar quién comunica, desde dónde se legitima el conocimiento y cómo se distribuye la autoridad epistémica. Este texto sintetiza los argumentos centrales del ensayo y propone un marco de lectura práctico para equipos y organizaciones que ya conviven con sistemas algorítmicos en su quehacer cotidiano.

2. De Descartes a la IA: un recorrido por la subjetividad

Desde el cogito cartesiano hasta la apercepción trascendental de Kant, la modernidad entendió al sujeto como fundamento del saber. Las críticas de Foucault y Derrida, junto con el metamodelo dialógico de Robert T. Craig, desestabilizaron esa base única: la subjetividad es histórica, relacional y disputada. La IA intensifica esa tensión: arquitecturas de machine learning introducen cálculos opacos en la producción simbólica, desplazando el locus tradicional de autoridad e interpretación.

3. Claves para la práctica

Los portavoces ya no son solo humanos. En ecosistemas mediados por IA, la enunciación se redistribuye entre personas, datos y sistemas; se requieren nuevas rutinas de validación y mecanismos claros de rendición de cuentas.

4. Habermas y la acción comunicativa en la era algorítmica

La Teoría de la Acción Comunicativa de Habermas sitúa la racionalidad en la práctica argumentativa: consensos basados en razones, no en coerción. Pero cuando la coordinación social se traslada a algoritmos poco auditables, emergen patologías: colonización de espacios deliberativos, métricas instrumentales que sustituyen la crítica, y “brechas de responsabilidad” donde las decisiones se atribuyen a “la IA”. Propuestas deliberativas para innovación responsable (condiciones de igualdad, reciprocidad y publicidad) ofrecen criterios para gobernanza algorítmica en contextos de alta complejidad.

Claves para la práctica: cualquier despliegue de IA que afecte procesos, personas o públicos debe acompañarse de foros deliberativos, políticas de uso y trazabilidad de decisiones (qué modelo, con qué datos y bajo qué supuestos).

5. Imaginarios socio-técnicos y agencia híbrida

Los imaginarios sociales no solo representan el mundo: lo instituyen. En IA, los imaginarios socio-técnicos (de eficiencia, personalización, seguridad) orientan inversiones, regulaciones y expectativas. En la práctica, esto convive con tribalismos digitales y cámaras de eco que dan pertenencia afectiva a costa de pluralidad, abriendo espacio a la manipulación algorítmica. La hipertextualidad y los entornos en red amplían el espacio público, pero su potencial depende de que no sean absorbidos por lógicas meramente mercantiles.

Claves para la práctica: diseñar con ética de la comunicación: medir impactos “duros” (productividad) y “blandos” (confianza, cohesión, aprendizaje), y resguardar diversidad, autenticidad y apertura del debate en plataformas mediadas por IA.

6. De la agencia humana a la agencia distribuida

La literatura distingue autonomía funcional (capacidad de actuar sin intervención directa) de autonomía moral (capacidad de autoimponer fines y responder por ellos). Los sistemas actuales exhiben la primera, no la segunda. Aun así, participan activamente en la construcción de sentido: seleccionan, reordenan, priorizan y hasta generan contenidos, configurando agencias distribuidas hombre-máquina. Este corrimiento produce “brechas de rendición de cuentas” (culpa, justificación, transparencia, proactividad) y, si no se gestiona, deriva en agency laundering (dilución de responsabilidades tras la “neutralidad” del algoritmo). 

Claves para la práctica: separar diseño y operación (quién configura), uso (quién decide con la salida) y supervisión (quién rinde cuentas); aplicar Evaluaciones de Impacto Algorítmico proporcionales al riesgo y publicar matrices de decisión legibles por no expertos. 

7. Hacia una arquitectura de gobernanza comunicacional para IA

El “sujeto comunicador” ya no es exclusivamente humano: es una posición relacional donde interactúan personas, datos y arquitecturas de cómputo. El desafío no es decidir si la IA “piensa”, sino cómo asegurar responsabilidad, transparencia y deliberación cuando los algoritmos también enuncian, interpretan y validan. Proponemos, entonces, una arquitectura mínima de gobernanza comunicacional: 

  1. Diagnóstico situado y co-diseño: mapear procesos, fricciones y expectativas; diseñar con los equipos, no para ellos.
  2. Políticas claras y trazables: propósitos, datos, modelos, umbrales de intervención humana y criterios de calidad comunicacional.
  3. Métricas mixtas: productividad y eficiencia, pero también confianza, motivación, calidad del diálogo y reducción de asimetrías.
  4. Evaluación y auditoría continua: logs explicables, revisiones periódicas, simulaciones de sesgo y canales de reclamo.
  5. Formación y cultura: alfabetización algorítmica y ética práctica para que la adopción no sea un “simulacro” sino un cambio sostenible.

Pasar de “herramientas” dispersas a agentes organizacionales alineados con cultura y objetivos —y con indicadores medibles de impacto— permite aprovechar la potencia técnica de la IA sin renunciar a la agencia crítica humana.

ARTÍCULOS RELACIONADOS
Trenzar IA - Implementación Ética y Estratégica de IA

Conecta con nosotros ahora  ➤➤➤

© 2025