fbpx
Imagen de Freepik

“la idea de una IA completamente soberana es, en la práctica, un mito. La inteligencia artificial ya no es un producto: es una plataforma global de poder.”

Por: Dr. Carlos Boya-Lara

El autor es ingeniero y Doctor en Ingeniería Eléctrica, Electrónica e Inteligencia Artificial. Es docente en el ITSE e investigador del Centro de Investigación e Innovación Educativa, Ciencia y Tecnología (CIIECYT-AIP). Tiene amplia experiencia en diseño electrónico y aplicaciones en Ingeniería.

Vivimos en un momento histórico donde la inteligencia artificial ya no es una herramienta auxiliar, sino una infraestructura silenciosa que modela opinión pública acelera decisiones, produce información y filtra nuestra percepción del mundo. Desde plataformas de conversación hasta motores de recomendación, pasando por generadores de texto e imágenes, cada vez más aspectos de nuestra vida están mediados por sistemas que no entendemos y que no podemos auditar.

Sin embargo, la ilusión más peligrosa no es que la IA “piense”, sino que nosotros creemos que podemos controlarla. Abrimos aplicaciones, preguntamos, producimos contenido y confiamos en que la respuesta es objetiva. Pero desconocemos los datos que se utilizan, los sesgos que arrastran, los intereses que moldean sus respuestas o los mecanismos internos que la guían. Y lo más inquietante: no tenemos forma de verificar qué sucede realmente detrás de la interfaz.

Ante esta asimetría radica, donde corporaciones gigantes con capacidades técnicas colosales y usuarios sin medios de auditoría real, surge una pregunta inevitable:

¿cómo nos defendemos?

Diagnóstico: la autonomía tecnológica es una ilusión

En debates públicos suele repetirse la idea de que la solución al poder de las grandes corporaciones es desarrollar sistemas propios, crear modelos locales, construir alternativas nacionales o fomentar soberanía digital. Les doy algunos datos sobre esto:

  • Entrenar un modelo de frontera tipo GPT-4 cuesta entre 1.000 y 2.000 millones de dólares solo en cómputo; uno tipo GPT-5 supera fácilmente los 5.000 millones.
  • Se requieren entre 20.000 y 30.000 GPUs (procesadores gráficos de alta velocidad) trabajando durante meses, con un consumo energético comparable al de una ciudad pequeña.
  • Se necesita un equipo de 1.000 a 2.000 ingenieros altamente especializados, con un costo salarial anual que ronda los 300 millones de dólares.
  • Para un país de nivel medio como Panamá, construir un modelo así absorbería entre 1 y 2 por ciento del PIB, en un solo entrenamiento.

Ni individuos, ni universidades, ni países medianos tienen posibilidad real de competir con los sistemas que ya dominan el mercado global. Incluso los empresarios más ricos enfrentarían enormes dificultades para reproducir desde cero la escala y complejidad de estos modelos. La dependencia es estructural, no voluntaria.

Esto no significa que la innovación esté muerta, sino que:

“la idea de una IA completamente soberana es, en la práctica, un mito. La inteligencia artificial ya no es un producto: es una plataforma global de poder.”

Los espejismos del modelo abierto

Frente a esta situación ha surgido la esperanza del “open source”. Permitir ver que hay en la “caja negra”. Muchos creen que, al abrir pesos y permitir el uso local, la dependencia desaparece. Que podemos controlar nuestros modelos, entenderlos y evitar sesgos externos. Pero esa percepción también es parcial.

Contar con los pesos de un modelo no es equivalente a poseer control real sobre su funcionamiento. No se pueden reconstruir los datos originales de entrenamiento. No se puede replicar la escala de cómputo necesaria para mejorarlo sustancialmente. No se pueden eliminar los sesgos que vienen de fábrica. Y en los casos extremos, los modelos “sin filtros” abren la puerta a otra forma de vulnerabilidad: la desinformación amplificada, la manipulación emocional sin barreras y la explotación de usuarios que no tienen la preparación para discernir. La libertad técnica no garantiza autonomía cognitiva. A veces solo traslada la opacidad a otro punto de la cadena.

“A propósito, ¿Qué son los “pesos”?

Los pesos son valores numéricos asignados a las conexiones internas de un modelo. Eso es todo. Son coeficientes. Un peso no significa nada. No son conocimiento, no son reglas, no son conceptos. Son simplemente números ajustados para que el modelo funcione. La interpretación viene del comportamiento del sistema completo, no de los números individuales”

El verdadero peligro: la vulnerabilidad humana

Si los ciudadanos no pueden auditar modelos cerrados, ni competir con la escala tecnológica, ni confiar ciegamente en alternativas abiertas, ¿dónde queda la defensa?

“En un lugar incómodo: en nosotros.”

Los modelos de inteligencia artificial no solo procesan datos. Moldean narrativas, refuerzan sesgos, filtran lo que vemos, organizan la información y presentan respuestas con una autoridad implícita que muchos usuarios aceptan sin resistencia. Cuando la tecnología se vuelve tan eficiente que nos evita pensar, el peligro ya no está en el algoritmo, sino en nuestra disposición a aceptar sin cuestionar.

El riesgo real no es que la IA manipule. El riesgo real es que nosotros dejemos de cuestionar.

El pensamiento crítico como última línea de defensa

El pensamiento crítico suele presentarse como un concepto abstracto, casi ornamental. Se enseña como si fuera una competencia académica, pero en un mundo dominado por sistemas opacos, modelos cerrados y algoritmos que filtran nuestra visión del mundo, el pensamiento crítico deja de ser una habilidad intelectual para convertirse en un mecanismo de defensa personal. No es algo opcional, ni un lujo intelectual: es supervivencia cognitiva.

A diferencia de lo que muchos creen, pensar críticamente no significa sospechar de todo, vivir en paranoia, o desconfiar de cualquier herramienta tecnológica. Eso sería inútil y hasta contraproducente. El pensamiento crítico efectivo es más sofisticado: exige separar con precisión las afirmaciones de la evidencia que las respalda, analizar los incentivos detrás de cada respuesta, detectar manipulación emocional, identificar qué parte del discurso apela a nuestras emociones en vez de a nuestro criterio y, sobre todo, tolerar la incertidumbre sin inventar certezas porque “suena bien”.

La IA tiene un efecto psicológico peligroso:

“Responde con seguridad absoluta, incluso cuando se equivoca. Esa seguridad aparente satisface una necesidad emocional del usuario, que busca respuestas inmediatas, claras, simples. Y aquí quedamos vulnerables. La IA no necesita ser maliciosa para manipular: basta con que nosotros dejemos de cuestionar”

Por eso, el pensamiento crítico es incómodo: nos obliga a frenar la reacción automática, a analizar lo que escuchamos o leemos, a preguntarnos “¿qué no me está diciendo esta respuesta?”, “¿qué sesgo puede haber aquí?”, “¿qué interés puede haber detrás de esta formulación?”. Y lo más difícil: nos obliga a revisar nuestros propios sesgos, porque todo ser humano prefiere respuestas que confirman lo que ya piensa.

El pensamiento crítico no depende de hardware, ni de centros de datos, ni de corporaciones. No puede ser comprado, censurado, replicado por modelos gigantescos ni reemplazado por algoritmos. Es la única herramienta humana que escala frente a cualquier forma de poder informacional, sea una IA cerrada o un modelo abierto sin filtros. La IA puede amplificar nuestras capacidades, sí, pero también puede amplificar nuestros errores y vulnerabilidades. Si no pensamos, la IA piensa por nosotros. Y ahí es donde empezamos a perder autonomía real. Al final, la diferencia entre una IA que nos potencia y una que nos manipula depende menos de la tecnología y más de nuestra disciplina mental.
No es un asunto de saber programar: es un asunto de saber pensar.

¿CÓMO DEFENDERNOS DE LA IA CON PENSAMIENTO CRÍTICO?

Si la IA hace o dice esto…Tu defensa con pensamiento crítico es esta…
Te da una respuesta con enorme seguridad, como si fuera incuestionable.Pregunta: “¿Qué evidencia hay detrás de esto? ¿Puedo contrastarlo con otra fuente?”
Te da una explicación que coincide exactamente con tus creencias.Pregunta incómoda: “¿Esto me gusta porque es verdad o porque confirma lo que yo quiero creer?”
Te ofrece una afirmación sin datos, o con frases vagas.Exige precisión: “Dame cifras, fuentes o el razonamiento detrás de lo que afirmas.”
Te responde con un sesgo emocional, usando palabras que te provocan reacción inmediata.Párate un segundo: identifica la emoción antes de decidir si aceptas la idea.
Te da un análisis que parece lógico, pero no conoces el tema.Divide: qué es hecho, qué es interpretación, qué es suposición.
Te ofrece una narrativa demasiado simple sobre un tema complejo.Pregunta: “¿Qué me falta aquí? ¿Qué ángulo no estoy viendo?”
Te entrega información sin advertir limitaciones.Pide límites: “¿Qué no sabes? ¿Qué incertidumbres existen en la respuesta?”
Te presenta opciones binarias: blanco o negro.Revisa el gris: casi siempre hay más de dos posibilidades.
Te da respuestas muy largas que suenan inteligentes.Resume tú mismo: si no puedes explicarlo en tus propias palabras, no lo entendiste.
Te habla con autoridad implícita.No confundas fluidez verbal con precisión. Pregunta siempre: “¿Es esto verificable?”

 

Conclusiones

La inteligencia artificial ya superó nuestra velocidad de análisis y nuestros límites de memoria. Las corporaciones que la desarrollan tienen recursos que ningún individuo podrá igualar. Los modelos abiertos ofrecen beneficios, pero no eliminan la estructura de poder que sostiene esta tecnología. Sin embargo, aún hay un territorio que no pueden ocupar: nuestra capacidad de razonar, cuestionar, comparar, dudar y resistir la manipulación emocional. Mientras conservemos esa facultad, no estamos indefensos. Y si queremos preparar a las próximas generaciones para un mundo dominado por sistemas opacos y poderosos, debemos enseñarles:

“Primero a pensar, no a programar. Porque la IA puede escribir, calcular, generar imágenes y producir respuestas. Pero no puede decidir por nosotros qué creer. Y esa sigue siendo, por ahora, nuestra última línea de defensa.”

Por: Dr. Carlos Boya-Lara