Compartimos la conferencia dictada por el periodista Francisco (Larry) Camacho, a propósito de reciente ciclo organizado por el Colegio Nacional de Periodistas, seccional Lara (Venezuela)
Por: Francisco (Larry) Camacho
Francisco «Larry» Camacho es profesor categoría Asociado de la Universidad Centroccidental Lisandro Alvarado, Barquisimeto, Venezuela. Licenciado en Comunicación Social , magíster scientiarum en Historia, y doctor en Historia. Ha sido periodista y fotógrafo de diversos medios impresos en Venezuela. Desde 2016, es el director de Mayéutica revista científica de humanidades y artes, del Decanato Experimental de Humanidades y Artes de la UCLA. (Arbitrada e indexada).ORCID: https://orcid.org/0000-0002-0528-9523
Jaron Lanier -creador de los juegos Atari en los años 80, uno de los genios de Silicon Valley y, actualmente, científico de “unificación principal” de Microsoft-, confesó el temor que le produce la inteligencia artificial (IA) por la enorme capacidad de los bots conversacionales de producir desinformación.
Su declaración de diciembre pasado, debió asombrar a más de un espectador de la entrevista hecha por Jackie Davalos y Nate Lanxon en Bloomberg a este crítico del sistema que él mismo ayudó a construir y que ahora, como el también gurú de Silicon Valley, Sam Altman, y muchos de sus colegas, pide que se regule por el bien de la humanidad. Lanier, apodado sus estudiantes el Octupus por su largo cabello enrulado y por su fascinación por la estructura neurológica de los pulpos, es el primero en acuñar el término “realidad virtual” y uno de los pioneros en el desarrollo de tecnologías que anteceden a las gafas HMD que hoy nos fascinan.
Jaron Lanier (Foto: Wikimedia Commons)
Lanier habló del peligro de los deepfakes, contenidos audiovisuales creados con IA que suplantan la imagen y las voces de personas, y que son ampliamente usados en la publicidad y la información política que circula en las redes sociales. El video en el que aparece un Morgan Freeman que no es Morgan Freeman, es un ejemplo de lo que puede lograrse con esta tecnología y de su potencial para engañar hasta a los más cautos. Lo que han hecho los creadores de este material hiperrealista con Freeman, es “impersonarlo”, un verbo de la jerga de los expertos en IA aún no lexicalizado en español, pero que, seguramente, en poco tiempo será parte de nuestro idioma, como chatear o googlear.
Es muy probable que el video haya tenido la aprobación del célebre actor, ya que puede considerarse didáctico en lo que IA concierne; el problema es cuando se usan deepfakes en los que se pone en boca de una persona, con su imagen (falseada parcial o totalmente), palabras que nunca dijo pero que son verosímiles y en un contexto espacio temporal en el que nunca ha estado.
Morgan Freeman, “impersonado”. (Foto: Diep Nep on YouTube)
Si a finales de los 90 la derrota que el robot Deep Blue le propinó al campeón mundial de ajedrez, Garry Kasparov, suscitó una gran emoción, hoy, esta máquina puede considerarse un juego de niños quizás no tan divertido como lo fue entonces.
Estamos en un tiempo de asombro permanente por lo que puede hacerse con la IA desde su primera fase (las apps de nuestros móviles, Alexa, el buscador de Google, los robots que limpian la casa, etc.). Pero, a estas alturas, compartimos una dualidad de emociones ante lo que trae la segunda fase de la IA, la IA Generativa (como el Chat GPT en sus varias versiones que genera contenidos inesperados por los usuarios), en los muchos campos en lo que se ha desplegado: por un lado, hay quienes celebran este avance de la ciencia, señalando incluso que lograremos la inmortalidad para el año 2030 con los nanobots que podrían revertir la edad, como afirma el exingeniero de Google, Ray Kurzweil; por el otro, está el bando distópico que señala que la IA traerá consigo el “fin de la humanidad”, como predijo en 2014 el científico Stephen Hawking.
Esta incertidumbre parece aplacarse cuando vemos las bondades de la inteligencia artificial en campos como la medicina; por ejemplo, los exoesqueletos que permiten la movilidad de personas cuadripléjicas, la detección y diagnóstico temprano de enfermedades, imágenes médicas de alta precisión, reducción del margen de errores humanos en intervenciones quirúrgicas, entre otras.
No obstante, lo que se anuncia como la tercera fase de la IA sí que entraña muchos más riesgos por sus implicaciones éticas, ya que esta, a diferencia de la IA Generativa (IAG), tiene capacidad de autonomía y de sustitución total de cualquier actividad humana, y con mucha más efectividad que cualquier persona.
El impacto que ya está teniendo la IAG en el campo laboral y en la economía, se expresa en el trabajo intelectual de muchos profesionales que han sido desplazados por una tecnología capaz de producir textos, imágenes, diseños y material audiovisual cada vez más perfeccionados y únicos.
Los algoritmos “aprenden” de la big data producida por los millones de internautas y mejoran los patrones progresivamente para que cualquier usuario aproveche los servicios y sin costo alguno, gracias al código abierto de la IA.
Escritores “fantasmas”, diseñadores, productores de videos, docentes en línea, son algunos de los oficios en riesgo, y hasta ahora, no parece algo beneficioso la inteligencia artificial, ni siquiera la promesa de una renta básica universal como la que propone Sam Altman para quienes generen contenido en Internet o brinden información personal a la web a través de lectores de sus iris.
De momento, para el periodismo no luce tan prometedora la IA
Uno de los problemas de esta tecnología para el periodismo, es que los algoritmos aún no son capaces de mejorar la información perecedera y que no tiene suficiente presencia en la Internet; una noticia sustituye a la otra rápidamente en la vorágine informativa de la comunicación digital.
A primera vista, eso podría considerarse una ventaja porque el periodista no sería sustituido por un robot, lo cual no es tan cierto (ya hay varias experiencias de notas periodísticas hechas con IA que no fueron detectables por humanos); pero, por otra parte, hasta ahora, no hay acceso en el código abierto a herramientas que permitan la trazabilidad de los contenidos que circulan en la web. Ello dificulta el trabajo de los cazadores de fake news (bulos) que nadan a contracorriente en el océano de la red en busca de contenidos desinformativos y sus fuentes.
El problema, más que lo que puede producir la IA generativa en materia de contenidos falseados parcial o totalmente, es la circulación de estos en las redes sociales. Las organizaciones dedicadas al fact cheking (cazadores de bulos) suelen enfrentarse a búsquedas muy dificultosas cuando desaparecen informaciones que circulan en las redes y servicios como WhatsApp, porque sus creadores las eliminan fugazmente.
Se valora positivamente que las grandes plataformas digitales hayan establecido restricciones para frenar el abuso y la difusión de noticias falsas; no obstante, los cibernautas falseadores con sus bots, botnets (red de robots) y troll farm (productores de seguidores y contenidos), siempre hallan maneras de evadir los controles.
Conceptualizando la desinformación
Desinformar no es lo mismo que informar mal: la desinformación puede ser, la más de las veces intencional, pero también se desinforma cuando inocentemente se rebotan bulos en las redes, creyendo que se presta un servicio útil a otros.
Los expertos llaman a esta modalidad, missinformation. Hay que decir también que cuando se oculta información o se dicen medias verdades, también se está desinformando. Los gobiernos corruptos que no rinden cuentas de los recursos públicos y los dedican a fines distintos al bienestar de la sociedad, son un buen ejemplo de los efectos de la falta de transparencia.
«La corrupción mata”, es el título de un libro de la periodista de investigación Florencia Halfon Laksman en el que explica qué antecedió a varios accidentes en los que perdieron la vida cientos de personas en Argentina porque unos funcionarios no hicieron lo que tenían que hacer para evitar las tragedias.
La Federación Internacional de Periodistas es más explícita a la hora de explicar los siete tipos de información falsa:
1)Sátira o parodia: No pretende causar daño o engaño.
2)Contenido engañoso: Se trata del uso engañoso de la información para incriminar a alguien o algo. 3)Contenido impostor: Es el tipo de información que suplanta fuentes genuinas.
4)Contenido fabricado: Contenido nuevo que es predominantemente falso, diseñado especialmente para engañar y perjudicar.
5)Conexión falsa: Cuando los titulares, imágenes o leyendas no confirman el contenido.
6)Contexto falso: Cuando el contenido genuino se difunde con información de contexto falsa. 7)Contenido manipulado: Cuando información o imágenes genuinas se manipulan para engañar.
Más alfabetización digital y autocontrol de los prosumidores de contenidos
¿A quiénes se dirige las campañas de desinformación? Los más afectados son los grupos vulnerables que no tienen una suficiente educación y alfabetización tecnológica ni criterios para dudar o discernir entre lo real y lo falso que les llega a sus cuentas. Usualmente, los productores de desinformación periodística operan cuando hay noticias de mucha relevancia.
En las formas de periodismo tradicional (prensa, radio y TV) es más fácil rastrear las fuentes de lo que se publica gracias a la tecnología y porque los medios de mayor trayectoria se juegan su prestigio si no confirman lo que difunden. Por supuesto, las más serias plataformas digitales de noticias curan sus contenidos y confirman responsablemente sus publicaciones; pero, la facilidad que ofrecen los servicios de código abierto permiten que cualquiera con ciertos conocimientos se convierta en “periodista” y divulgue información que puede ser engañosa y falsa en su propia cuenta.
Cuando de manera ingenua la gente rebota este tipo de noticias en sus cuentas, se convierte en instrumento de los manipuladores. Como señalara el fallecido catedrático e investigador Jean-François Fogel, miembro del equipo de la Fundación Gabo, hemos pasado de un mundo de medios de comunicación de masas a una masa de medios de comunicación. Los antiguos consumidores pasivos de noticias, pasaron (pasamos) al rol de prosumidores de contenidos, gracias a estas tecnologías.
En el periodismo tradicional, es más controlable la desinformación (Foto de wal_172629 en Pixabay)
¿Por qué es tan importante combatir la desinformación en la comunicación digital? Por la democracia, por los derechos humanos y de la naturaleza, y por las consecuencias que deja en la sociedad. Cuando la gente está desinformada, sus decisiones no suelen ser las más acertadas.
Pero, también ocurre en materia sanitaria. Solo durante la epidemia del COVID 19, circuló un considerable número de campañas antivacunas que convencieron a mucha gente de que la inoculación contra el virus y la pandemia formaban parte de una conspiración mundial. La organización Rest of World denunció en su momento a una cuenta sospechosa con casi 85 mil seguidores en Facebook e Instagram que difundió información en América Latina en contra del uso de mascarillas y la seguridad de las vacunas.
Imagen de OpenClipart-Vectors en Pixabay
Jaren Lanier dice que hay maneras para enfrentar problemas de la desinformación como rastrear las fuentes en los servicios de código abierto y tener un control interno de las compañías y de los propios Estados hacia estas, sin que ello implique la censura, como hacen los regímenes autoritarios. “Yo mismo tildé a los políticos de ineptos y creo que de tanto presionarlos logramos que se volvieran tímidos, los cual nos perjudica”, confesó en la entrevista a Bloomberg, valorando la propia sostenibilidad del negocio más rentable de nuestro tiempo.
Nuevamente, citamos a la Federación Internacional de Periodistas con estas seis recomendaciones para detectar las fake news en redes y páginas web:
- Desconfiar de los títulos grandes y en mayúsculas
- Analizar la sección “Acerca de” o “About” del sitio
- Chequear los links y las citas
- Desconfiar de URL similares a sitios conocidos
- Encontrar una fuente local y consultarla
- Realizar una búsqueda inversa de imágenes (Google Lens, por ejemplo).
Si sirve de aliciente, el caudal de desinformación que circula en las redes sociales y sitios web es mucho menor que el del periodismo de calidad, pero eso no resta lo dañino que puede ser aquel. ¡Atentos!
Por: Francisco (Larry) Camacho