indexcomunicación

Revista científica de comunicación aplicada

nº 16(1) 2026 | Páginas 13-36

e-ISSN: 2174-1859 | ISSN: 2444-3239

 

Inteligencia artificial y comunicación: mediación crítica y educomunicativa

Artificial Intelligence and Communication: Critical and Educommunicative Mediation

Recibido el 07/11/2025 | Aceptado el 04/12/2025 | Publicado el 15/01/2026

https://doi.org/10.62008/ixc/16/01Artifi

 

Odiel Estrada Molina | Universidad de Valladolid

odiel.estrada@uva.es | https://orcid.org/0000-0002-0918-418X

Elvira G. Rincon-Flores | Tecnológico de Monterrey

elvira.rincon@tec.mx | https://orcid.org/0000-0001-5957-2335

Juanjo Mena | Universidad de Salamanca

juanjo_mena@usal.es | https://orcid.org/0000-0002-6925-889X

 

Resumen: El estudio tiene como objetivo analizar el impacto de la inteligencia artificial (IA) en la comunicación desde un enfoque educomunicativo y crítico, identificando sus implicaciones éticas, cognitivas y formativas. Se desarrolló una revisión teórica y documental de literatura académica reciente, contrastando enfoques epistemológicos, tendencias comunicativas y políticas educativas internacionales. Los resultados evidencian que la IA ha pasado de ser una herramienta técnica a convertirse en un agente cognitivo y simbólico que redefine la producción de sentido, el periodismo, el marketing y la educación. Asimismo, se constata la emergencia de un paradigma algorítmico que exige alfabetización mediática y ética digital. Se concluye que la mediación pedagógica y la educomunicación crítica son esenciales para humanizar la tecnología, garantizar la transparencia algorítmica y fortalecer la agencia humana en entornos comunicativos automatizados.

Palabras clave: inteligencia artificial; comunicación; educomunicación; alfabetización mediática; ética digital; paradigma algorítmico.

Abstract: This study aims to analyze the impact of artificial intelligence (AI) on communication from a critical and educommunicative perspective, identifying its ethical, cognitive, and educational implications. A theoretical and documentary review of recent academic literature was conducted, contrasting epistemological approaches, communicative trends, and international educational policies. The results show that AI has evolved from a technical tool into a cognitive and symbolic agent that redefines meaning production, journalism, marketing, and education. Furthermore, an emerging algorithmic paradigm is identified, one that demands media literacy and digital ethics. It is concluded that pedagogical mediation and critical educommunication are essential to humanize technology, ensure algorithmic transparency, and strengthen human agency within automated communicative environments.

Keywords: Artificial Intelligence; Communication; Educommunication; Media Literacy; Digital Ethics; Algorithmic Paradigm.

 

 

CC BY-NC 4.0

 

 

Para citar este trabajo: Estrada Molina, O.; Rincón-Flores, E.G. y Mena, J. (2026). Inteligencia artificial y comunicación: mediación crítica y educomunicativa. index.comunicación, 16(1), 13-36. https://doi.org/10.62008/ixc/16/01Artifi

 

                                   

1.   Introducción

La irrupción de la inteligencia artificial (IA) en los ecosistemas mediáticos contemporáneos ha transformado de manera profunda los procesos de comunicación y aprendizaje. Más allá de su dimensión tecnológica, la IA se ha convertido en un dispositivo cultural y cognitivo que reorganiza la forma en que los individuos producen, circulan y legitiman la información. En esta nueva ecología digital, los algoritmos no solo median la interacción, sino que condicionan la visibilidad del conocimiento, la experiencia de los usuarios y la configuración de los espacios públicos de deliberación (van Dijck et al., 2018; Floridi, 2019).

Comprender la IA desde la comunicación supone reconocerla como un agente de mediación simbólica que participa activamente en la generación de sentido. Su expansión en campos como el periodismo automatizado, el marketing algorítmico o la gestión de comunidades digitales revela una tendencia hacia la personalización y la predicción del comportamiento, donde la información se ajusta a patrones de consumo y no siempre a criterios de pluralidad o veracidad (Shneiderman, 2020; Sundar, 2020). Este proceso conlleva implicaciones éticas, cognitivas y sociales que exigen una mirada crítica y humanista.

Desde una perspectiva educomunicativa, la IA plantea la necesidad de repensar los vínculos entre tecnología, educación y cultura. No se trata únicamente de integrar herramientas inteligentes en la práctica comunicativa o formativa, sino de fortalecer las competencias críticas y éticas que permitan interpretar sus lógicas y efectos. La alfabetización mediática se amplía así hacia una alfabetización algorítmica, centrada en la comprensión de los procesos automatizados que organizan la información, los discursos y las relaciones sociales. Solo desde esta conciencia crítica es posible garantizar una comunicación democrática y orientada al bien común.

El análisis que se presenta a continuación aborda la IA como fenómeno comunicativo y educativo desde tres dimensiones complementarias. En primer lugar, se examinan los fundamentos teóricos y epistemológicos que permiten entender la IA como una nueva forma de mediación cultural. En segundo lugar, se analizan las principales transformaciones comunicativas derivadas del paradigma algorítmico, con atención especial al impacto en la producción informativa, el marketing digital y las comunidades en red. Finalmente, se considera la dimensión formativa y política de la IA, centrada en la necesidad de diseñar políticas inclusivas y estrategias de alfabetización que promuevan un uso ético, transparente y socialmente responsable de la tecnología.

Comprender estas transformaciones exige revisar los fundamentos epistemológicos y comunicativos que sustentan la IA. En este sentido, el siguiente apartado profundiza en su evolución conceptual y en el tránsito de una inteligencia esencialmente técnica hacia una inteligencia comunicativa orientada a la producción de sentido.

1.1. De la inteligencia técnica a la inteligencia comunicativa

La IA ha pasado de ser un desarrollo tecnológico centrado en la automatización de tareas a convertirse en una infraestructura cognitiva que reconfigura la cultura comunicativa contemporánea. Más allá de su dimensión instrumental, constituye un fenómeno sociotécnico que transforma las formas de producir, interpretar y distribuir el sentido. Desde esta perspectiva, la IA puede definirse —siguiendo a Russell y Norvig (2020)— como la capacidad de los sistemas informáticos para realizar funciones que tradicionalmente requerían inteligencia humana: aprender de la experiencia, reconocer patrones, razonar y adaptarse a contextos cambiantes.

Sin embargo, el enfoque comunicativo exige ir más allá de esta definición operativa. Floridi (2019) sostiene que la IA no solo amplía el alcance de la cognición humana, sino que instaura un nuevo régimen de conocimiento basado en la correlación algorítmica y la generación automatizada de información. En este sentido, la IA no es una simple herramienta, sino un actor epistemológico que participa en la construcción de realidad mediada. Esta coautoría algorítmica altera los modos de representación y legitimación del saber, afectando tanto a los procesos educativos como a los comunicativos.

El desarrollo histórico de la IA —desde el test de Turing (1950) hasta los modelos generativos contemporáneos— muestra una convergencia entre procesamiento de datos y mediación simbólica. Lo que en su momento fue un problema de ingeniería, hoy se traduce en un desafío comunicacional: la coexistencia entre inteligencias humanas y artificiales en la esfera pública. Así, la cuestión central ya no es qué tan «inteligente» es la máquina, sino cómo sus operaciones modifican la ecología de la comunicación y el aprendizaje.

1.2. La IA como agente de sentido: entre automatización
y alfabetización mediática

La comunicación contemporánea se desarrolla en entornos donde los algoritmos actúan como agentes de producción y circulación de sentido. Esta «agencialidad maquínica» (Sundar, 2020) redefine las nociones tradicionales de emisor y receptor, generando una copresencia entre humanos y sistemas inteligentes. Chatbots, asistentes conversacionales y plataformas de recomendación no solo median el intercambio, sino que modelan la interacción, jerarquizan la información y configuran la experiencia de los usuarios.

Desde la educomunicación, este fenómeno plantea una doble tensión: la expansión del acceso y la pérdida de agencia crítica. Si bien la IA potencia la personalización del contenido y la interactividad, también condiciona la autonomía interpretativa del sujeto. Como advierte Gunkel (2012: 8), los sistemas inteligentes producen «respuestas significativas sin conciencia», generando una ilusión de diálogo que puede sustituir la deliberación crítica por la mera respuesta automatizada.

Frente a esta situación, la alfabetización mediática y algorítmica se convierte en un requisito estructural de la ciudadanía digital. No se trata solo de aprender a usar tecnologías, sino de comprender sus lógicas de funcionamiento, sesgos y efectos culturales. Floridi (2019) y Shneiderman (2020) coinciden en que la confianza en la IA debe basarse en su auditabilidad y transparencia, principios que la educación comunicativa debe incorporar como competencias éticas y cognitivas. En consecuencia, la alfabetización en IA implica formar sujetos capaces de dialogar críticamente con los sistemas, reconocer la mediación técnica y ejercer control consciente sobre la automatización de sus entornos simbólicos.

Esta perspectiva conecta directamente con los procesos descritos en los apartados posteriores del ensayo —el paradigma algorítmico, la comunicación estratégica y la mediación pedagógica—, al situar la IA como mediadora entre aprendizaje, tecnología y ciudadanía. La comunicación, entendida como espacio de construcción colectiva de significado, se enfrenta así al reto de preservar la agencia humana en un ecosistema gobernado por la predicción algorítmica.

1.3. Hacia una ética educomunicativa de la IA

Reconocer a la IA como agente comunicativo implica asumir una nueva responsabilidad educomunicativa. El desafío no es solo técnico o regulatorio, sino epistemológico y ético. En palabras de Shneiderman (2020), el objetivo debe ser una IA centrada en lo humano, orientada a la fiabilidad, la seguridad y la transparencia. Para la educomunicación, esto supone integrar la reflexión sobre los algoritmos como actores culturales en los procesos formativos y mediáticos.

Desde una ética de la comunicación crítica, el riesgo principal radica en la automatización de la atención y del pensamiento. Cuando la mediación se delega a sistemas que priorizan la eficiencia sobre la deliberación, la educación debe reorientar su función hacia la alfabetización en pensamiento crítico y la ética del dato. La mediación pedagógica se convierte, entonces, en una forma de resistencia simbólica: enseñar a interpretar, contextualizar y cuestionar los mensajes generados o filtrados por IA.

En este marco, la educomunicación emerge como el puente necesario entre tecnología, cultura y ética. Su función no se limita a integrar herramientas, sino a construir criterios de sentido y responsabilidad que guíen la convivencia entre inteligencias humanas y artificiales. La IA puede y debe actuar como mediadora cognitiva, pero su legitimidad dependerá del grado en que los sistemas sean comprensibles, auditables y socialmente justos.

Así, el reto contemporáneo no consiste en «domesticar» la IA, sino en educar la inteligencia humana para convivir críticamente con ella. La comunicación y la educación comparten, en esta tarea, un horizonte común: garantizar que la automatización del conocimiento no derive en una automatización del pensamiento.

2.   Tendencias de la IA en la comunicación

La IA ha dejado de ser un fenómeno tecnológico periférico para convertirse en un principio estructurante de la cultura comunicativa contemporánea. Más que una herramienta, actúa como una matriz cognitiva que redefine los modos de producir, distribuir y legitimar el conocimiento mediático. Las prácticas comunicativas actuales se configuran bajo la influencia de sistemas capaces de analizar datos masivos, generar contenidos y anticipar comportamientos, desplazando la mediación profesional hacia una lógica de predicción y aprendizaje automático. La comunicación, tradicionalmente entendida como un proceso simbólico sustentado en la intencionalidad humana, se transforma así en un ecosistema de sentido híbrido, donde algoritmos y agentes humanos coproducen realidad informativa y social.

Comprender las tendencias de este proceso implica atender a cómo la IA reordena las epistemologías, las éticas y las prácticas de la comunicación. El fenómeno no se reduce a una innovación técnica, sino que inaugura un régimen algorítmico de conocimiento que permea los niveles estratégico, mediático y relacional. En este marco, el primer eje de análisis se centra en la consolidación del paradigma algorítmico, entendido como el núcleo estructural que sustenta las transformaciones posteriores en la comunicación contemporánea.

2.1. La consolidación del paradigma algorítmico
en la comunicación

El llamado paradigma algorítmico constituye una reconfiguración epistemológica, ontológica y profesional del campo comunicacional. Su consolidación deriva de la integración progresiva de sistemas de IA, big data y aprendizaje automático en la producción, circulación y recepción del sentido. Desde mediados de la década de 2010, lo que comenzó como experimentación tecnológica se ha convertido en una infraestructura estructurante que modela la práctica mediática, la gobernanza digital y la organización institucional de la comunicación.

El concepto de cultura algorítmica formulado por Striphas (2015) resulta fundacional para comprender esta mutación: el juicio cultural y editorial humano se desplaza hacia infraestructuras automatizadas de clasificación y ordenamiento simbólico. Los algoritmos dejan de ser meros instrumentos técnicos para convertirse en agentes de producción simbólica, determinando qué es visible, creíble y circulante en la esfera pública. Esta lógica de mediación automatizada, como documentan Garde et al. (2024), produce un «periodismo oscuro», caracterizado por la opacidad de los procesos, la pérdida de agencia profesional y la subordinación del discurso informativo a la optimización predictiva.

La evidencia empírica reciente confirma este cambio estructural. En su revisión de una década de investigación sobre IA y periodismo, Ioscote et al. (2024) demuestran una expansión transversal de la automatización en todas las fases del proceso comunicativo y una rápida institucionalización del algoritmo como objeto científico. De modo complementario, De Sousa y Fontes (2024) muestran la convergencia terminológica entre periodismo automatizado, computacional y algorítmico, lo que consolida su legitimidad como subcampo disciplinar. Este giro revela una transición hacia una racionalidad comunicativa basada en la correlación estadística y la predicción, desplazando la lógica interpretativa tradicional.

El paradigma algorítmico trasciende el ámbito mediático y penetra en las estructuras políticas y organizacionales. De la Garza Montemayor y Gómez Díaz De León (2024) evidencian su influencia en la gobernanza digital, donde la toma de decisiones se apoya en modelos predictivos y en la gestión automatizada de la opinión pública. En la misma línea, López (2025) describe la emergencia de una comunicación estratégica predictiva, en la que los algoritmos anticipan comportamientos y reconfiguran la planificación institucional. Ambos estudios coinciden en que el algoritmo actúa hoy como actor de gobernanza simbólica, reorganizando las decisiones y los flujos de poder en la esfera pública.

En el ámbito mediático tradicional, la automatización se ha normalizado. García-Orosa et al. (2022) muestran cómo los sistemas de recomendación y análisis de audiencias han transformado la producción y la distribución de contenidos, confirmando la hibridación entre lo humano y lo maquínico en la gestión de la visibilidad mediática. En el contexto latinoamericano, Suárez Poveda y Del Campo Saltos (2024) documentan que los medios compiten en ecosistemas dominados por algoritmos de redes sociales, lo que exige nuevas competencias técnicas y éticas para garantizar la autonomía profesional.

La dimensión ética del fenómeno es subrayada por Rojas-Calderón (2024), quien advierte sobre los riesgos de deshumanización y la pérdida del sentido moral de la información, proponiendo un modelo de periodismo humanista basado en transparencia y responsabilidad. Esta postura converge con la noción de «atención crítica» propuesta por Codina (2024) y con la idea de responsabilidad epistémica de Oke (2025), quien plantea que la IA generativa introduce una crisis de confianza epistemológica al sustituir la referencia empírica por la síntesis algorítmica. En su visión, la comunicación entra en una fase «generativa» que exige repensar la ética del conocimiento desde la responsabilidad cognitiva.

En coherencia con lo anterior, la literatura converge en tres hallazgos fundamentales:

·     Delegación cognitiva: los sistemas automáticos asumen tareas de análisis, clasificación y narración, desplazando funciones humanas.

·     Institucionalización del algoritmo: la automatización deja de ser experimental y se convierte en núcleo estructural de la práctica comunicativa y de la investigación académica.

·     Ética epistémica emergente: ante la expansión del aprendizaje automático, la transparencia, la auditabilidad y la trazabilidad se constituyen en principios deontológicos esenciales.

Por tanto, la comunicación contemporánea debe entenderse como un sistema híbrido de producción de sentido, donde los algoritmos operan como coautores, mediadores y reguladores de la experiencia informativa. Este nuevo régimen algorítmico redefine los marcos teóricos de la disciplina y plantea el reto de integrar una educomunicación crítica capaz de preservar la agencia humana y la responsabilidad epistémica en la era de la automatización cognitiva.

2.2. Comunicación estratégica y marketing algorítmico

La comunicación estratégica contemporánea atraviesa un proceso de reconfiguración estructural impulsado por la IA, que altera las lógicas de planificación, segmentación y relación con los públicos. En este nuevo entorno, los algoritmos no solo automatizan tareas, sino que asumen una función agencial en la producción simbólica: determinan qué mensajes circulan, con qué formato y bajo qué criterios de optimización. Como plantean Guzman y Lewis (2019), la machine agency convierte a los sistemas inteligentes en actores comunicativos autónomos, capaces de intervenir en la interacción y redefinir las nociones tradicionales de emisor y receptor.

Desde esta perspectiva, la comunicación con IA debe entenderse como una co-producción de sentido humano–máquina, donde la tecnología media la creación de mensajes, la gestión relacional y la construcción de confianza. De este modo, el marketing comunicacional evoluciona de un modelo reactivo hacia un ecosistema adaptativo y predictivo, en el que la colaboración entre la inteligencia humana y la artificial se convierte en la condición estructural de la eficacia comunicativa.

Diversos estudios han descrito este giro hacia la racionalidad algorítmica. Haleem et al. (2022) identifican tres ejes centrales: la automatización de decisiones estratégicas, la personalización predictiva y la optimización continua del rendimiento relacional. La IA no solo asiste la planificación, sino que codirige la toma de decisiones, instaurando un modelo cíclico de análisis, predicción y ajuste permanente de mensajes. Esta dinámica confirma la consolidación del paradigma algorítmico descrito previamente (véase 1.1), en el que la correlación estadística y el aprendizaje automático sustituyen el juicio empírico tradicional.

Los avances en aprendizaje profundo han extendido esta lógica a la comunicación digital personalizada donde los sistemas pueden adaptar los mensajes publicitarios en tiempo real según variables psicográficas y emocionales, incrementando las tasas de interacción y conversión. Este tránsito desde la segmentación demográfica hacia la personalización cognitivo-afectiva reconfigura la comunicación como un sistema de retroalimentación algorítmica, donde cada interacción alimenta nuevas predicciones. En línea con esta tendencia, Binlibdah (2024) confirma que la IA incrementa la «riqueza comunicativa» (media richness) al mejorar la capacidad de respuesta y contextualización, fortaleciendo la percepción de personalización y la fidelización simbólica de los públicos.

Sin embargo, la eficacia técnica no garantiza legitimidad social. Desde una mirada ética y sociocultural, Barroso Huertas (2025) propone el marketing predictivo inclusivo, orientado a equilibrar eficiencia algorítmica y justicia comunicativa. La autora advierte que la confianza no deriva de la precisión técnica, sino del cumplimiento de expectativas éticas y del respeto a la diversidad cultural. En esta línea, la transparencia y auditabilidad de los sistemas son condiciones indispensables para la credibilidad del emisor automatizado.

En síntesis, la literatura revisada permite identificar tres rasgos convergentes del nuevo régimen de la comunicación estratégica:

·     Agencialidad maquínica, que redistribuye la toma de decisiones hacia sistemas de aprendizaje autónomo (Guzman & Lewis, 2019).

·     Personalización predictiva, que reemplaza la segmentación estática por arquitecturas adaptativas y sensibles al contexto (Haleem et al., 2022; Wen et al., 2022).

·     Ética de la confianza algorítmica, centrada en la transparencia, la equidad y la responsabilidad social (Barroso Huertas, 2025).

De este modo, la comunicación estratégica y el marketing algorítmico se consolidan como campos híbridos, donde convergen la inteligencia técnica y la responsabilidad simbólica. La gestión comunicativa se redefine como un proceso cognitivo, adaptativo y ético, coherente con la racionalidad predictiva que sostiene el paradigma algorítmico de la comunicación contemporánea.

2.3. Periodismo automatizado y producción informativa

El periodismo constituye uno de los espacios donde la IA evidencia con mayor claridad la transformación epistemológica del campo comunicativo. Desde los primeros experimentos de automatización redaccional en la década de 2010, se ha pasado a un estadio de producción informativa algorítmica integral, en el que los sistemas inteligentes no solo procesan datos, sino que generan narrativas, interpretan contextos y evalúan la recepción de los contenidos. Este tránsito se conceptualiza como algorithmic accountability journalism, es decir, un periodismo basado en la transparencia y la trazabilidad de las decisiones computacionales.

Dörr (2015) anticipa esta evolución, distinguiendo entre automatización de plantillas, análisis predictivo y distribución automatizada, y advirtiendo que la IA debía comprenderse como aumento cognitivo, no como sustitución del profesional. Esta lógica de coautoría se confirma en el modelo de medios híbridos descrito por Meso Ayerdi et al. (2023), donde la agencia periodística se reconfigura en torno a funciones de curaduría, supervisión y control ético. En este modelo, la IA actúa como infraestructura invisible que condiciona la producción y la recepción de la información, sin eliminar la intervención humana.

El grado de madurez del periodismo algorítmico se observa en los estudios de Fieiras Ceide et al. (2025), quienes analizan los primeros medios sintéticos integrales —como Intar Radio y NewsGPT— gestionados casi en su totalidad por IA. Estos entornos mediáticos confirman la delegación operativa de las funciones editoriales: selección temática, redacción, locución y difusión automatizadas. Sin embargo, también evidencian una crisis de responsabilidad: la opacidad de las fuentes, la veracidad de los contenidos y la autoría de las piezas informativas plantean dilemas éticos y jurídicos aún sin resolver.

Por otro lado, Illescas Reinoso et al. (2025) documentan la adopción masiva de herramientas generativas —Copy.ai, Jasper, Perplexity o DeepL— en las redacciones, lo que incrementa la productividad, pero profundiza la dependencia tecnológica y la precarización profesional. Su análisis empírico refuerza la necesidad de una alfabetización algorítmica crítica, capaz de dotar a los periodistas de competencias para comprender y auditar los procesos automatizados. En esa misma línea, Vayas Ruiz et al. (2025) muestran que, aunque los profesionales reconocen la utilidad de la IA en la verificación y edición, persiste la preocupación por la pérdida de control editorial y la manipulación algorítmica de las narrativas.

La literatura reciente permite sintetizar tres rasgos estructurales del periodismo algorítmico consolidado:

·     Delegación operativa, donde los algoritmos asumen tareas tradicionalmente humanas en la selección, redacción y distribución (Fieiras Ceide et al., 2025).

·     Reconfiguración epistemológica, que sustituye la noción clásica de objetividad por una precisión algorítmica basada en plausibilidad estadística (Meso Ayerdi et al., 2023; Illescas Reinoso et al., 2025).

·     Tensión ética y de confianza, que demanda transparencia, explicabilidad y supervisión humana (Vayas Ruiz et al., 2025).

Estos estudios delinean un ecosistema poshumano de coautoría periodística, coherente con el paradigma algorítmico descrito en los apartados anteriores. Más que una sustitución profesional, la automatización supone una rearticulación cognitiva y ética del oficio periodístico. El desafío central no radica en integrar tecnologías, sino en preservar la función crítica e interpretativa del periodista frente a la creciente autonomía de la IA. Solo una ética de la responsabilidad epistémica —ya planteada por Oke (2025) y extendida a la práctica informativa— puede garantizar que la innovación algorítmica no erosione los fundamentos democráticos del espacio público.

2.4. Comunidades digitales y sistemas conversacionales

La expansión de la IA en los entornos comunicativos inaugura una fase en la que los sistemas conversacionales —chatbots, asistentes virtuales y agentes generativos— se convierten en interlocutores sociales y no solo en intermediarios técnicos. Este viraje reconfigura categorías clásicas del campo —interacción, agencia, pertenencia— y desplaza el eje de la comunicación interpersonal hacia formas híbridas humano–máquina, en las que los algoritmos participan activamente en la producción de sentido y en la gestión afectiva de la relación.

En perspectiva histórica, la atribución de rasgos humanos a los artefactos comunicativos —planteada por la CASA theory— mostró tempranamente que las personas interactúan socialmente con máquinas (Nass & Moon, 2000). Esta línea anticipó un giro cultural que, en la década de 2020, se profundiza con plataformas generativas capaces de sostener intercambios lingüísticos, contextuales y emocionales. En paralelo, se advierten desplazamientos éticos: la transparencia técnica no equivale a comprensión humana y la confianza exige responsabilidad y rendición de cuentas en el diseño y despliegue de agentes conversacionales (Edwards & Veale, 2017). De hecho, la advertencia de West (2017) sobre la «automatización de la vida afectiva» ayuda a ubicar estas prácticas en un registro sociotécnico que excede la eficiencia y compromete identidades, emociones y vínculos.

Desde un enfoque fenomenológico, la relación humano–máquina puede entenderse como co-construcción enactiva: la IA simula intencionalidad y genera una experiencia de interlocución subjetivamente real, sin que ello implique conciencia (Jacomuzzi & Alioto, 2024). Esta pseudo-agencia explicaría por qué los sistemas conversacionales organizan confianza, modulan empatía y estructuran pertenencias en comunidades digitales, con efectos tangibles sobre dinámicas de influencia y autoridad simbólica.

La evidencia empírica reciente confirma este desplazamiento. Entre jóvenes universitarios latinoamericanos, el uso habitual de chatbots como práctica comunicativa convive con una ambivalencia: se reconoce la utilidad informativa y relacional, pero se perciben pérdidas en contacto humano y fiabilidad (Neme Pinto, 2024). A escala macro, la bibliometría ubica la human–machine communication y los chatbots como temas emergentes y muy dinámicos, mientras revisiones comparativas identifican una «tercera fase» de la comunicación digital, definida por interactividad personalizada, retroalimentación en tiempo real y simulación afectiva (Gholami & Abdwani, 2024). Este avance, sin embargo, instala un régimen de dataficación relacional: la experiencia conversacional deviene fuente de extracción de datos emocionales y conductuales, tensando los pares personalización/vigilancia y autenticidad/simulacro.

En clave normativa, el desplazamiento dialoga con el eje ético–epistémico ya planteado en 3.1: más allá de la eficacia, urge una responsabilidad epistémica que atienda quién responde, qué interpreta y quién asume consecuencias en las conversaciones mediadas por IA (Edwards & Veale, 2017; Oke, 2025). Las comunidades digitales actuales se articulan crecientemente en torno a mediaciones conversacionales algorítmicas: la frontera entre lo interpersonal y lo asistido se difumina, y los sistemas conversacionales actúan como co-actores simbólicos que organizan la interacción, gestionan confianza y modelan la afectividad colectiva. Esta constatación enlaza con el cierre del bloque: sin mediación pedagógica crítica, el régimen conversacional corre el riesgo de normalizar opacidades técnicas y asimetrías de poder informacional ya detectadas en los apartados 2.1–2.3.

2.5. De la mediación algorítmica a la mediación pedagógica

El recorrido anterior permite sostener, con base empírica y conceptual, que la IA ha dejado de ser un conjunto de herramientas para convertirse en una infraestructura epistemológica que reordena la producción, interpretación y circulación del sentido. En los tres niveles analizados —estratégico, mediático–informativo y relacional–comunitario—, los algoritmos pasan de mediar a coautorizar: intervienen en la generación de discursos, en la gestión de la atención y en la regulación de la interacción. Ello consolida el paradigma algorítmico descrito y cristaliza el trípode de la mutación contemporánea: automatización, predicción y generación.

Este movimiento común delegó progresivamente de agencia cognitiva y decisional a sistemas automáticos, a la vez que elevó las exigencias de responsabilidad: explicabilidad, trazabilidad, control humano significativo y ética pública de los procesos (Codina, 2024; Oke, 2025). La consecuencia es inequívoca: la comunicación actual funciona como laboratorio de convivencia entre inteligencias —humanas, artificiales y colectivas— y demanda nuevas mediaciones formativas para preservar agencia humana, juicio crítico y pluralismo epistémico.

Bajo esta premisa, el tránsito hacia la mediación pedagógica no es accesorio, sino condición de posibilidad para un ecosistema comunicativo fiable, inclusivo y justo. La educomunicación emerge como el espacio donde se tensionan aprendizaje y automatización, creatividad y predicción, ética y eficiencia. En términos operativos, ello implica:

·     Competencias humanas transversales (pensamiento crítico, creatividad, colaboración, alfabetizaciones info–media–data).

·     Capacitación docente para traducir potencial técnico en valor didáctico y diseñar prácticas de evaluación acordes con la era generativa.

·     Gobernanza algorítmica (transparencia, auditoría, equidad y protección de datos), particularmente relevante en contextos de dataficación afectiva (3.4) y de automatización editorial (3.3).

Por lo cual, si el paradigma algorítmico redefine prácticas, medios y vínculos, la mediación pedagógica es el puente estructural hacia una educomunicación aumentada: un modelo en el que inteligencia humana e IA coexisten para producir conocimiento, creatividad y responsabilidad social. Este cierre enlaza apertura el próximo apartado, dedicado a políticas, competencias y usos de la IA/IAG en la formación de profesionales (3.1–3.2), donde se desarrollará la arquitectura curricular, regulatoria y ética que hace sostenible el ecosistema descrito en este bloque.

3.   Educomunicación, IA y tendencias en la formación
de profesionales

El impacto de la IA en la educación superior ha desbordado los límites de la innovación tecnológica para instalarse como un problema epistemológico y ético de primer orden. Su presencia polariza el debate académico entre posturas de fascinación y alarma, en un espectro que va del entusiasmo tecnopedagógico a la resistencia cultural. Como advierten Shata (2025) y Tripathi et al. (2025), las reacciones ante la IA oscilan entre el asombro por su potencial formativo y el temor a la sustitución de funciones humanas, especialmente en las trayectorias profesionales de docentes y comunicadores. Sin embargo, la historia demuestra que toda tecnología disruptiva —de la imprenta a la televisión, de Internet a las redes sociales— suscita inicialmente resistencias simbólicas, que tienden a moderarse conforme los actores sociales integran sus usos y resignifican sus riesgos.

En este contexto, la reflexión sobre la IA en educación —y particularmente en la educomunicación— exige superar la dicotomía entre aceptación acrítica y rechazo catastrofista. Por un lado, la IA puede potenciar los procesos de aprendizaje, ofreciendo personalización de trayectorias, automatización de tareas, ampliación de recursos y nuevas formas de creación multimodal. Por otro, introduce riesgos comunicacionales que inciden en la veracidad informativa y en la formación ética del estudiantado, al facilitar la circulación de desinformación y contenidos sintéticos manipulados (Bañuelos & Abbruzzese, 2023).

De allí que el debate no deba centrarse en si incorporar o no la IA, sino en cómo integrarla con pertinencia pedagógica, equidad tecnológica y ética pública, de manera que sus beneficios se traduzcan en mejores aprendizajes sin comprometer la integridad informativa ni la formación ciudadana. La educomunicación —entendida como campo de mediación crítica entre cultura digital, educación y comunicación— se configura así en laboratorio de articulación entre inteligencia humana y artificial, retomando el horizonte de responsabilidad epistémica delineado en el anterior apartado.

3.1. Políticas para la IA en educación: urgencias normativas
y oportunidades para la inclusión social

El avance de la IA en los sistemas educativos plantea el reto de regular la innovación sin inhibirla, garantizando que su adopción responda a principios de equidad, transparencia y finalidad pedagógica. Como ya ocurrió con la televisión, los teléfonos inteligentes o las redes sociales, la IA no puede excluirse de la vida académica, pero sí debe enmarcarse en políticas de uso responsable.

En el plano internacional, la UNESCO (2023) ha propuesto el primer marco global sobre el uso de la IA generativa en educación e investigación, subrayando la necesidad de salvaguardas relativas a la edad, la privacidad y la validación didáctica de las herramientas antes de su adopción institucional. La OECD (2024) complementa esta perspectiva al advertir que la IA puede tanto reducir como ampliar las brechas de desigualdad, dependiendo del nivel de infraestructura digital y de las políticas de acceso. Estas advertencias resultan pertinentes si se considera que, según UNICEF (2020), más de 460 millones de niños quedaron excluidos del aprendizaje remoto por falta de conectividad durante la pandemia, evidencia de que la inclusión digital es condición previa para cualquier política de IA educativa.

En el ámbito regional y nacional, la Comisión Europea difundió las Ethical Guidelines on the Use of AI and Data in Teaching and Learning for Educators, adoptadas como referencia por numerosos ministerios. Reino Unido, EE. UU. y Australia han avanzado en directrices propias (Department for Education, 2023; Education Ministers, 2023; U.S. Department of Education, 2023; Ofqual, 2024). En contraste, América Latina carece aún de una regulación sectorial robusta. Predominan enfoques de soft law —recomendaciones, lineamientos o estrategias— en lugar de marcos normativos vinculantes. No obstante, Brasil, Chile, Uruguay, Colombia y Argentina comienzan a mostrar avances institucionales significativos en la incorporación de IA en políticas públicas y educación superior (Rivas, 2025).

El panorama global revela una paradoja: la abundancia de orientaciones éticas frente a la escasez de marcos legales obligatorios. Esta asimetría refleja dos causas estructurales:

·     El ritmo acelerado del desarrollo tecnológico frente a la lenta adaptación normativa y curricular.

·     Las brechas socioeconómicas y de conectividad que limitan el acceso equitativo a las herramientas digitales.

En consecuencia, resulta urgente diseñar políticas integrales que regulen no solo la aplicación pedagógica de la IA, sino también la trazabilidad de los datos, la transparencia algorítmica y la gobernanza de modelos generativos. Sin estos componentes, cualquier innovación educativa corre el riesgo de reproducir desigualdades.

La consolidación de una IA educativa inclusiva demanda, por tanto, tres principios:

·     Equidad, garantizando acceso universal y capacitación docente.

·     Transparencia, mediante la auditabilidad de algoritmos y el uso ético de datos.

·     Pertinencia pedagógica, para que la innovación técnica se traduzca en aprendizaje significativo y desarrollo humano.

Solo a través de estos criterios la IA podrá convertirse en instrumento de justicia educativa y no de exclusión, coherente con la noción de responsabilidad social de la mediación tecnológica expuesta anteriormente.

3.2. IA & IAG en la educación

Entre las promesas más recurrentes de la IA en la educación superior destaca la personalización del aprendizaje, concebida como un proceso de adaptación dinámica que optimiza las trayectorias formativas y libera al profesorado de tareas rutinarias. Diversas universidades han comenzado a emplearla para nivelar competencias iniciales y atender a estudiantes con brechas cognitivas o formativas (Aldape-Valdes et al., 2026). Sin embargo, el acceso a estas capacidades sigue siendo asimétrico, concentrado en instituciones con mayor infraestructura y conectividad.

Los metaanálisis recientes confirman el predominio de los sistemas adaptativos, tutores inteligentes y algoritmos predictivos en la educación superior (Bond et al., 2024; Wang et al., 2024). Estos modelos refuerzan la tendencia hacia la retroalimentación inmediata y la gestión docente asistida, favoreciendo la consolidación de aprendizajes y la atención diferenciada del estudiantado (Luckin et al., 2016; Holmes et al., 2019). A ello se suman aplicaciones para la detección temprana de abandono (Rodríguez-Hernández et al., 2023), el análisis predictivo del desempeño (Rincón-Flores et al., 2022) o la automatización de tareas de transcripción, verificación y traducción multilingüe.

En el ámbito de la educomunicación, la expansión de herramientas de IA ha configurado un ecosistema funcional orientado a la producción, análisis y verificación de información. Plataformas como Ecree o SourceWrite actúan como tutores de escritura con retroalimentación inmediata; NotebookLM y Pinpoint asisten la investigación documental; Whisper automatiza transcripciones y traducciones; y InVID-WeVerify o TinEye apoyan la detección de desinformación y deepfakes. Estas tecnologías no solo aumentan la productividad, sino que redefinen las competencias profesionales requeridas en los grados de Comunicación y Periodismo, ampliando el espectro de habilidades digitales, críticas y creativas.

No obstante, diversos estudios evidencian un desajuste entre la oferta académica y las demandas del ecosistema mediático. Las carreras de comunicación aún incorporan de forma insuficiente las competencias emergentes en IA, y el profesorado muestra formación limitada y carencia de lineamientos éticos claros (Tejedor et al., 2024; Babacan et al., 2025; Garzón et al., 2025; Medina-Cambrón et al., 2025). Ello genera una brecha entre el perfil de egreso y las exigencias del mercado profesional, dominado por herramientas de análisis automatizado, narrativas generativas y comunicación asistida por algoritmos.

Frente a esta brecha, la formación en IA —tanto para docentes como para estudiantes— debe orientarse hacia un modelo de competencias integradas, que combine capacidades técnicas, éticas y reflexivas. Entre ellas destacan:

·     Búsqueda avanzada, redacción asistida y análisis de datos, junto con fundamentos de ingeniería de prompts y ética aplicada (Babacan et al., 2025).

·     Literacidades convergentes —info, media y data literacy—, verificación de hechos, trazabilidad y citación del uso de IA; comprensión del sesgo algorítmico y de la propiedad intelectual y privacidad de datos.

·     Competencias humanas transversales, como pensamiento crítico, creatividad, trabajo colaborativo y pensamiento sistémico (Fernández-Barrero et al., 2024).

Particular relevancia adquiere el pensamiento crítico como núcleo de las competencias humanas, condición indispensable para el ejercicio responsable de la comunicación. En un entorno saturado de desinformación, deepfakes y narrativas sintéticas, el profesional debe ser capaz de evaluar fuentes, contrastar evidencias y contextualizar significados, mientras el profesorado actualiza sus prácticas para guiar este aprendizaje en contextos mediados por IA.

La IA —y especialmente la IA generativa (IAG)— ofrece un potencial transformador cuando se integra pedagógicamente con criterios de transparencia y equidad. Permite sintetizar grandes volúmenes de información, generar representaciones visuales y favorecer enfoques de pensamiento sistémico, enriqueciendo los procesos creativos y analíticos del campo comunicacional. Pero su adopción responsable depende de tres pilares inseparables:

·     Competencias humanas que orienten el juicio ético y la toma de decisiones.

·     Formación docente continua capaz de traducir el potencial técnico en prácticas didácticas de valor.

·     Gobernanza institucional que establezca normas claras sobre diseño, entrenamiento y aplicación de modelos algorítmicos.

Solo la convergencia de estos factores garantizará un ecosistema educomunicativo fiable, creativo y justo, donde la IA actúe no como sustituto, sino como mediadora cognitiva y pedagógica que amplía la agencia humana y fortalece la formación crítica de los futuros comunicadores.

4.   Conclusiones

La IA ha dejado de ser un soporte instrumental para convertirse en infraestructura cognitiva de la cultura comunicativa contemporánea. En este tránsito, los algoritmos no solo agilizan procesos, sino que ejercen agencialidad al coautorizar la producción, circulación y legitimación del sentido. Ello redefine los equilibrios entre eficiencia y deliberación: la optimización predictiva tiende a comprimir la diversidad informativa y a desplazar el juicio interpretativo hacia cálculos de plausibilidad estadística. Por eso, más que preguntarnos qué tan «inteligente» es la máquina, resulta crucial dilucidar cómo su mediación reconfigura la experiencia comunicativa, los criterios de verdad y las prácticas de aprendizaje.

Este panorama plantea un riesgo epistémico y ético ineludible: opacidades técnicas, sesgos de entrenamiento, dataficación afectiva y ambigüedades de autoría desafían la confianza pública y la responsabilidad profesional. La respuesta no puede ser tecnofílica ni tecnofóbica, sino educomunicativa: una mediación pedagógica que dote a instituciones, profesionales y ciudadanía de alfabetización info–media–data–algorítmica, capaz de comprender lógicas de funcionamiento, auditar decisiones y mantener control humano significativo. La transparencia, la auditabilidad y la explicabilidad deben evolucionar de principios abstractos a protocolos operativos en redacciones, gabinetes de comunicación y comunidades en línea.

Los ámbitos analizados ilustran esta mutación. En el periodismo, la delegación operativa convive con la necesidad de criterios de verificación, trazabilidad de fuentes y supervisión editorial. En la comunicación estratégica y el marketing, la personalización predictiva exige marcos que equilibren eficacia con justicia comunicativa y respeto a la diversidad cultural. En las comunidades digitales y sistemas conversacionales, la simulación de interlocución y empatía obliga a discutir autoría, responsabilidad y extracción de datos emocionales. Todo ello confirma que la comunicación actual es híbrida humano–máquina y requiere nuevas formas de gobernanza simbólica.

Finalmente, la educación superior y las políticas públicas concentran el reto y la oportunidad: integrar curricularmente competencias técnicas, críticas y éticas; profesionalizar al profesorado para traducir potencial técnico en valor didáctico; y establecer reglas institucionales sobre datos, derechos y evaluación de impacto. Humanizar la IA no significa ralentizar la innovación, sino orientarla a preservar pluralismo, dignidad y deliberación. El horizonte deseable es una comunicación aumentada por IA, donde la tecnología amplíe la agencia humana sin automatizar el pensamiento.

Ética y transparencia

Agradecimientos

Los autores agradecen el apoyo institucional de sus respectivas universidades. Además, desean agradecer el apoyo financiero del Writing Lab, Institute for the Future of Education, Tecnológico de Monterrey, México, en la realización de este trabajo (traducción profesional).

Conflicto de intereses

Los autores declaran que no existe conflicto de intereses.

Financiación

Este trabajo ha sido financiado por el Ministerio de Ciencia, Innovación y Universidades de España en el marco del proyecto «Inclusión social, bienestar psicológico y disminución de la soledad de personas mayores a través del juego interactivo digital» (EDU-SENIORGAMES), Ref. PID2024-160462NB-I00.

Contribuciones de los autores

Función

Autor 1

Autor 2

Autor 3

Autor 4

Conceptualización

X

 

 

 

Curación de datos

 

X

X

 

Análisis formal

X

X

X

 

Adquisición de financiamiento

X

 

 

 

Investigación

 

 

 

 

Metodología

 

 

 

 

Administración de proyecto

X

 

 

 

Recursos

 

 

 

 

Software

 

 

 

 

Supervisión

X

 

 

 

Validación

 

 

 

 

Visualización

 

X

X

 

Escritura - borrador original

X

X

X

 

Escritura - revisión y edición

X

X

X

 

Disponibilidad de los datos

No procede.

Referencias bibliográficas

Aldape-Valdes, P., Rincon-Flores, E. G., Castano, L. & Guerrero, S. (2026). Nivelación inteligente: estrategia de aprendizaje adaptativo con IA en educación superior. RIED-Revista Iberoamericana de Educación a Distancia, 29(1). https://doi.org/10.5944/ried.45482

Babacan, H., Arık, E., Bilişli, Y., Akgün, H. & Özkara, Y. (2025). Artificial intelligence and journalism education in higher education: Digital transformation in undergraduate and graduate curricula in Türkiye. Journalism and Media, 6(2), 52. https://doi.org/10.3390/journalmedia6020052

Bañuelos, J. & Abbruzzese, M. (2023). From Deepfake to Deeptruth: Toward a Technological Resignification with Social and Activist Uses. En M. Cebral-Loured, E. G. Rincon-Flores, & G. Sánchez-Ante (Eds.), What AI can do, strengths and limitations of artificial intelligence (pp. 75-92). Taylor & Francis Group.

Barroso Huertas, O. (2025). Marketing de Moda Predictivo e Inclusivo: Estrategias de Segmentación Avanzada para Audiencias Diversas con Inteligencia Artificial. GDI. Revista de investigación de Género, Diseño e Innovación, (2), 87-104. https://doi.org/10.63206/GDI.2025.2.5

Binlibdah, S. (2024). Investigating the Role of Artificial Intelligence to Measure Consumer Efficiency: The Use of Strategic Communication and Personalized Media Content. Journalism And Media, 5(3), 1142-1161. https://doi.org/10.3390/journalmedia5030073

Bond, M., Khosravi, H., De Laat, M., Bergdahl, N., Negrea, V., Oxley, E., Pham, P., Chong, S. W. & Siemens, G. (2024). A meta systematic review of artificial intelligence in higher education: A call for increased ethics, collaboration, and rigour. International Journal of Educational Technology in Higher Education, 21, Article 4. https://doi.org/10.1186/s41239-023-00436-z

Codina, L. (2024). La inteligencia artificial y el mundo de la comunicación: paradigmas y atención crítica. adComunica. Revista Científica de Estrategias, Tendencias e Innovación en Comunicación, (28), 319-322.

De la Garza Montemayor, D. J. & Gómez Díaz De León, C. (2024). Inteligencia Artificial y big data: nuevos paradigmas de la Comunicación Política y la Gobernanza Digital. Más Poder Local, (56), 9-26.

https://doi.org/10.56151/maspoderlocal.214

De Sousa, M. E. & Fontes, A. J. (2024). Tendência conceitual para o Jornalismo Automatizado. E-Compós, 27. https://doi.org/10.30962/ecomps.3035

Department of Education (Victoria). (2023, December 1). Generative artificial intelligence: Policy. Policy and Advisory Library (VIC.GOV.AU). https://shorturl.at/PVN2Y

Dörr, K. N. (2015). Mapping the field of Algorithmic Journalism. Digital Journalism, 4(6), 700-722. https://doi.org/10.1080/21670811.2015.1096748

Education Ministers (2023, October). Communiqué — Education Ministers’ Meeting [Communiqué]. Australian Government Department for Education. https://shorturl.at/Z5V0h

Edwards, L. & Veale, M. (2017). Slave to the algorithm? Why a “right to an explanation” is probably not the remedy you are looking for. Duke Law & Technology Review, 16(1), 18-84. https://shorturl.at/k0kLo

Fernández-Barrero, M., López-Redondo, I. & Aramburú-Moncada, L. (2024). Possibilities and challenges of Artificial Intelligence in the teaching and learning process of Journalism Writing. The experience in Spanish universities. Communication & Society, 37(4), 241-256. https://doi.org/10.15581/003.37.4.241-256

Fieiras Ceide, C., Fernández Lombao, T. & Túñez López, M. (2025). Periodismo sin periodistas. Revista ICONO 14, 23(1), e2275. https://doi.org/10.7195/ri14.v23i1.2275

Floridi, L. (2019). The logic of information: A theory of philosophy as conceptual design. Oxford University Press.

García-Orosa, B., Canavilhas, J. & Vázquez-Herrero, J. (2022). Algorithms and communication: A systematized literature review. Comunicar, 31(74), 9-21. https://doi.org/10.3916/c74-2023-01

Garde Cano, C., Gayà Morlà, C. & Vidal Castell, D. (2024). Periodismo oscuro: Cómo los algoritmos han invadido los medios de comunicación. Clivatge Estudis I Tesitimonis del Conflicte I el Canvi Social, (12).

https://doi.org/10.1344/CLIVATGE2024.12.6

Gholami, M. J. & Abdwani, T. A. (2024). The Rise of Thinking Machines: A Review of Artificial Intelligence in Contemporary Communication. Journal of Business Communication & Technology, 3(1), 29-43. https://doi.org/10.56632/bct.2024.3103

Gunkel, D. J. (2012). The machine question: Critical perspectives on AI, robots, and ethics. MIT Press.

Guzman, A. L. & Lewis, S. C. (2019). Artificial intelligence and communication: A Human-Machine Communication research agenda. New Media & Society, 22(1), 70-86. https://doi.org/10.1177/1461444819858691

Haleem, A., Javaid, M., Qadri, M. A., Singh, R. P. & Suman, R. (2022). Artificial intelligence (AI) applications for marketing: A literature-based study. International Journal of Intelligent Networks, 3, 119-132. https://doi.org/10.1016/j.ijin.2022.08.005

Holmes, W., Bialik, M. & Fadel, C. (2019). Artificial intelligence in education: Promises and implications for teaching and learning. Center for Curriculum Redesign. https://curriculumredesign.org

Illescas Reinoso, D., Palacios, A. G. & Ortiz Vizuete, F. (2025). La inteligencia artificial en el periodismo: herramientas y aplicaciones. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, 6(1). https://doi.org/10.56712/latam.v6i1.3503

Ioscote, F., Gonçalves, A. & Quadros, C. (2024). Artificial Intelligence in Journalism: A Ten-Year Retrospective of Scientific Articles (2014-2023). Journalism And Media, 5(3), 873-891.

https://doi.org/10.3390/journalmedia5030056

Jacomuzzi, A. C. & Alioto, B. P. (2024). People and machines in communication / Personas y máquinas en comunicación. Studies In Psychology - Estudios de Psicología, 45(1), 145-165. https://doi.org/10.1177/02109395241241380

López, C. A. (2025). IA y narrativas emergentes hacia una reconfiguración de la comunicación social en la cultura digital. Cuadernos del Centro de Estudios de Diseño y Comunicación, (283). https://doi.org/10.18682/cdc.vi283.12703

Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). Intelligence unleashed: An argument for AI in education. Pearson.
https://shorturl.at/Mk88f

Meso Ayerdi, K., Larrondo Ureta, A. & Peña Fernández, S. P. (2023). Algoritmos, inteligencia artificial y periodismo automatizado en el sistema híbrido de medios. Textual & Visual Media, 17(1), 1-6. https://doi.org/10.56418/txt.17.1.2023.0

Nass, C. & Moon, Y. (2000). Machines and mindlessness: Social responses to computers. Journal of Social Issues, 56(1), 81-103. 

https://doi.org/10.1111/0022-4537.00153

Neme Pinto, J. E. (2024). Comunicación mediada por Computadora: La Intrusión de la Inteligencia Artificial en la Comunicación Digital en Jóvenes. Ciencia Latina Revista Científica Multidisciplinar, 8(5), 3302-3319. https://doi.org/10.37811/cl_rcm.v8i5.13817

OECD. (2024). The potential impact of artificial intelligence on equity and inclusion in education (OECD Artificial Intelligence Papers No. 23). OECD Publishing. https://doi.org/10.1787/15df715b-en

Ofqual. (2024, April 24). Ofqual’s approach to regulating the use of artificial intelligence in the qualifications sector. GOV.UK.

Oke, T. (2025). Algorithmic narrativity as a new narrative mode. AI & Society, 40. https://doi.org/10.1007/s00146-025-02297-8

Rincón-Flores, E. G., López-Camacho, E., Mena, J. & Olmos, O. (2022). Teaching through learning analytics: Predicting student learning profiles in a physics course at a higher education institution. International Journal of Interactive Multimedia and Artificial Intelligence, 7(7). https://doi.org/10.9781/ijimai.2022.01.005

Rivas, A. (2025). La llegada de la IA a la educación en América Latina: En construcción. ProFuturo & Organización de Estados Iberoamericanos (OEI).

Rodríguez-Hernández, C. F., Kyndt, E. & Cascallar, E. (2023). A cluster analysis of academic performance in higher education through self-organizing maps. En M. Cebral-Loureda, E. G. Rincon-Flores, & G. Sánchez-Ante (Eds.), What AI can do, strengths and limitations of artificial intelligence (pp. 115-134). Taylor & Francis Group.

Rojas-Calderón, A. (2024). Los usos de imágenes generadas con IA en la política española: entre la creatividad y la manipulación. Revista de Comunicación Política, 6(1), 1-26. https://doi.org/10.29105/rcp.v6i1.60

Russell, S. J. & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.

Shata, A. (2025). Artificial intelligence and communication technologies in academia: Faculty perceptions and the adoption of generative AI. International Journal of Educational Technology in Higher Education, 22, 51. https://doi.org/10.1186/s41239-025-00511-7

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504. https://doi.org/10.1080/10447318.2020.1741118

Striphas, T. (2015). Algorithmic culture. European Journal of Cultural Studies, 18(4-5), 395-412. https://doi.org/10.1177/1367549415577392

Suárez Poveda, J. F. & Del Campo Saltos, G. (2024). Algoritmos en redes sociales y estrategias comunicacionales para el posicionamiento de medios tradicionales. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, 5(6). https://doi.org/10.56712/latam.v5i6.3114

Sundar, S. S. (2020). Rise of machine communication: How algorithms shape conversational media. Journal of Computer-Mediated Communication, 25(2), 74-88. https://doi.org/10.1093/jcmc/zmz028

Tripathi, T., Sharma, S. R., Singh, V., Bhargava, P. & Raj, C. (2025). Teaching and learning with AI: A qualitative study on K-12 teachers’ use and engagement with artificial intelligence. Frontiers in Education, 10, Article 1651217. https://doi.org/10.3389/feduc.2025.1651217

U.S. Department of Education, Office of Educational Technology (2023). Artificial intelligence and the future of teaching and learning: Insights and recommendations.

UNESCO (2023). Guidance for generative AI in education and research. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000386693

UNICEF (2020). COVID-19: Are children able to continue learning during school closures? Remote learning reachability factsheet. UNICEF.

van Dijck, J., Poell, T. & de Waal, M. (2018). The platform society: Public values in a connective world. Oxford University Press.

Vayas Ruiz, E. C., Proaño Zurita, J. D. A. & Herdoíza Mancheno, F. G. (2025). Inteligencia artificial: retos y desafíos en la práctica profesional periodística. Chasqui Revista Latinoamericana de Comunicación, 1(158), 245-258. https://doi.org/10.16921/chasqui.v1i158.5060

Wang, S., Wang, F., Zhu, Z., Wang, J., Tran, T. & Du, Z. (2024). Artificial intelligence in education: A systematic literature review. Expert Systems with Applications, 252, 124167. https://doi.org/10.1016/j.eswa.2024.124167

Wen, L., Lin, W. & Guo, M. (2022). Study on Optimization of Marketing Communication Strategies in the Era of Artificial Intelligence. Mobile Information Systems, 1-11. https://doi.org/10.1155/2022/1604184

West, S. M. (2017). Data Capitalism: Redefining the Logics of Surveillance and Privacy. Business & Society, 58(1), 20-41. https://doi.org/10.1177/0007650317718185