fbpx
Una de las mayores promesas de la IA es la eficiencia. Pero en el campo de la comunicación científica, la eficiencia sin criterio puede volverse una amenaza

Por: Magister Nathalie Carrasco-Krentzien. Consultora en Comunicación Científica y Organizacional | Especialista en Neurocomunicación Estratégica



En los últimos años, la inteligencia artificial (IA) ha dejado de ser una promesa lejana para convertirse en una presencia cotidiana en casi todos los sectores. La ciencia, por supuesto, no es la excepción. Pero más allá de los avances técnicos —automatización de experimentos, aceleración de hallazgos, modelado predictivo— hay un fenómeno silencioso que está revolucionando el ecosistema científico: la forma en que se comunica la ciencia está siendo transformada por la IA.

Y aunque esta transformación abre puertas fascinantes, también nos obliga a detenernos, reflexionar y preguntarnos: ¿quién está hablando cuando una IA comunica ciencia? ¿Qué voz representa? ¿Qué ética sostiene sus palabras?

De la difusión al diseño inteligente del mensaje

Uno de los grandes aportes de la IA a la comunicación científica ha sido su capacidad para procesar grandes volúmenes de información y traducirlos en formatos accesibles. Herramientas como SciSummary, Elicit o Consensus AI permiten ya generar resúmenes automáticos de artículos científicos, responder preguntas con base en papers verificados, y construir visualizaciones interactivas a partir de datos complejos.

Estas tecnologías no solo acortan la distancia entre el experto y el público general. También ayudan a los propios científicos a simplificar, organizar y presentar sus hallazgos de manera más estratégica.

En mi experiencia formando a equipos de investigación, he observado cómo la IA ha comenzado a integrarse en los procesos de diseminación del conocimiento. Desde la elaboración de informes para stakeholders no técnicos, hasta la producción de contenidos para redes sociales, la IA ha sido un aliado eficaz para ampliar el alcance de la ciencia sin perder su esencia.

Pero —y aquí comienza el primer dilema— ¿dónde termina la asistencia técnica y comienza la autoría ética?

¿Quién habla cuando la IA escribe?

Cuando una herramienta como ChatGPT o Gemini redacta un texto científico o un post divulgativo, ¿a quién pertenece esa voz? ¿A la IA? ¿A quien formula el prompt? ¿A quién revisa el resultado final?

La UNESCO en su Recomendación sobre la Ética de la Inteligencia Artificial (2021) plantea que las tecnologías de IA deben garantizar transparencia, trazabilidad y responsabilidad humana. En el caso de la comunicación científica, esto implica declarar claramente cuándo un contenido ha sido generado por IA y asegurar que la supervisión humana no sea solo formal, sino significativa.

Además, está el riesgo de que estas herramientas reproduzcan sesgos presentes en sus datos de entrenamiento. Investigaciones como la de Bender et al. (2021) alertan sobre cómo los modelos de lenguaje pueden amplificar estereotipos, invisibilizar voces minoritarias o replicar patrones de inequidad histórica.

En el caso de la ciencia, esto puede significar que ciertas líneas de investigación, regiones geográficas o lenguajes epistemológicos sean sistemáticamente subrepresentados.

La paradoja de la eficiencia: más comunicación, ¿menos criterio?

Una de las mayores promesas de la IA es la eficiencia. Pero en el campo de la comunicación científica, la eficiencia sin criterio puede volverse una amenaza.

Cuando automatizamos la redacción de abstracts, la producción de infografías o incluso la creación de scripts para videos divulgativos, corremos el riesgo de normalizar un lenguaje plano, poco crítico, descontextualizado. Y si bien es cierto que no toda IA trabaja con plantillas impersonales, la pregunta sigue en pie: ¿qué estamos dispuestos a delegar? ¿Y qué no deberíamos delegar nunca?

Desde mi práctica profesional he insistido en que la comunicación científica no es solo transferencia de información. Es construcción de sentido. Y el sentido se construye en el diálogo, en la intencionalidad, en la responsabilidad discursiva que implica elegir una palabra y no otra.

Por eso, incluso con IA, la decisión última debe seguir siendo humana.

Ética del lenguaje, impacto social y rendición de cuentas

La ciencia no ocurre en el vacío. Y su comunicación tampoco. Cada elección narrativa tiene consecuencias: puede abrir o cerrar el acceso al conocimiento, puede reducir o aumentar la incertidumbre social, puede generar confianza o sembrar desinformación.

Cuando delegamos parte de ese proceso a una IA, necesitamos contar con criterios éticos claros:

  • ¿Cómo validamos que lo que la IA comunica está científicamente sustentado?

  • ¿Quién asume la responsabilidad si una herramienta genera contenido incorrecto o malinterpretado?

  • ¿Qué protocolos institucionales necesitamos para integrar la IA en la comunicación científica sin perder la autoría, el contexto ni la precisión?

Estas preguntas no pueden responderse con una sola política. Requieren reflexión, co-creación de lineamientos interdisciplinares, y sobre todo, una conversación ética que no quede limitada a los desarrolladores tecnológicos.

Lo que la IA aún no puede reemplazar

La inteligencia artificial puede organizar datos, sintetizar ideas y generar texto. Lo que aún no puede hacer —y aquí radica nuestra ventaja humana— es conectar emocionalmente, leer el contexto cultural, captar las implicancias políticas y éticas de un descubrimiento científico.

En términos de neurocomunicación, esto es clave: el impacto de una comunicación no solo depende del contenido, sino del tono, del momento, del emisor y del canal. Y esos elementos siguen requiriendo una mirada entrenada, crítica, profundamente humana.

Una ciencia que se comunica con criterio también se comunica con conciencia

La IA ha llegado para quedarse, y su papel en la comunicación científica seguirá creciendo. Lo importante no es resistirse, sino aprender a convivir con ella desde el criterio, la ética y el diseño estratégico.

Como profesionales de la ciencia, la salud, la educación y la comunicación, nos toca liderar esa convivencia con lucidez, no con ingenuidad. Y tú, ¿qué estás haciendo para que tu voz científica no se pierda entre las voces generadas automáticamente? Compárteme tus impresiones.

La autora es abogado, comunicadora y Business Process Manager, enfocada en gestión empresarial con tres maestrías en Comunicación: Máster en Comunicación Estratégica y organizacional, Máster en Neurocomunicación, Máster en Comunicación Científica. Vive en Canadá.