El auge de los «Científicos Zombis» en YouTube: Cuando la Inteligencia Artificial secuestra la divulgación
Navegas por YouTube un domingo por la tarde. El algoritmo, que ya conoce tu afición por la ciencia, el cosmos y la filosofía, te recomienda un vídeo con una miniatura impecable. En ella aparece el rostro solemne de un gran físico, un fondo galáctico y un título que promete revelarte «El secreto del universo que la ciencia oculta». Haces clic. La voz es profunda, el montaje es dinámico y el mensaje parece, en teoría, de una altísima calidad intelectual.
Sin embargo, a los pocos minutos, una sensación de disonancia cognitiva te asalta. El guion suena grandilocuente pero extrañamente vacío. Las frases están construidas con esa estructura robótica, repetitiva y carente de alma que grita a los cuatro vientos: «Fui escrito por una Inteligencia Artificial». Peor aún, te das cuenta de que el vídeo está ilustrado con imágenes del matemático Roger Penrose, pero la voz en off y el texto en pantalla insisten en atribuirle la cita a Richard Feynman.
¿Qué está pasando aquí? Estás presenciando la última y más preocupante tendencia de internet: la proliferación de canales de «divulgación científica» creados en cadena por personas que no tienen el más mínimo conocimiento sobre la materia que abordan.
La ilusión de la erudición y el «Cortapega» algorítmico
El modelo de negocio de estos canales es tan rentable como cínico. Se conocen como faceless channels (canales sin rostro). Los creadores detrás de ellos no son físicos teóricos, ni biólogos, ni comunicadores científicos; son, en su mayoría, «emprendedores» digitales que buscan monetizar la plataforma con el mínimo esfuerzo posible.
Para lograrlo, utilizan herramientas de Inteligencia Artificial generativa. Le piden a ChatGPT un guion sobre mecánica cuántica o astrofísica. Luego, pasan ese texto por un generador de voz neuronal (text-to-speech) y, finalmente, le piden a otra IA que genere imágenes o utilizan bancos de vídeos de archivo.
El problema radica en que, al no tener conocimiento real del tema, el creador es incapaz de auditar el contenido. No detectan las alucinaciones de la IA ni los errores conceptuales. Para ellos, Roger Penrose y Richard Feynman son solo «señores mayores de pelo blanco que hacían cosas de física». No distinguen un diagrama de Feynman de los tensores de la relatividad general, y el resultado es un producto de Frankenstein: un vídeo que suena culto pero que, en esencia, es una ensalada de palabras pseudocientíficas que desinforma y confunde al espectador.
¿Por qué YouTube permite y fomenta esto?
Llegados a este punto, la pregunta es inevitable: si es tan evidente que el contenido es artificial, erróneo y de baja calidad (a pesar de su envoltorio premium), ¿por qué YouTube no lo penaliza? La respuesta se divide en tres crudas realidades de la era digital:
- El reinado de la retención de audiencia: A las métricas de YouTube no les importa la verdad, les importa el watch time (tiempo de visualización). Si la miniatura atractiva y la voz profunda logran que los usuarios se queden viendo el vídeo durante 10 minutos, el algoritmo interpretará que el contenido es valioso y lo recomendará masivamente. Ahora lo llaman en Hype.
- Las políticas de desinformación son limitadas: YouTube tiene reglas estrictas contra la desinformación médica (como vimos durante la pandemia) o la manipulación electoral. Sin embargo, confundir a Penrose con Feynman, o explicar mal la paradoja del gato de Schrödinger, no viola directamente ninguna política de la comunidad. No es un contenido que «ponga en riesgo la integridad física», por lo que queda en un limbo legal y de moderación.
- Los derechos de imagen de los fallecidos: Las figuras históricas y los científicos ya fallecidos tienen protecciones legales mucho más difusas en cuanto a sus derechos de imagen y difamación. Esto los convierte en un blanco fácil y gratuito para ser utilizados como avatares de estos canales.
La zombificación de nuestros genios: El futuro que nos espera
Si esta tendencia sigue demostrando ser lucrativa, no nos cabe duda de que irá a más. Estamos a las puertas de la era de los «divulgadores zombis». La tecnología de deepfake de audio y vídeo está avanzando a una velocidad vertiginosa. Ya no solo veremos imágenes estáticas mal etiquetadas; pronto veremos a nuestros referentes históricos «revividos» digitalmente para darnos versiones sesgadas, superficiales o no contrastadas de sus propios mensajes.
Imagina las implicaciones de esto a nivel nacional e internacional:
- En España: Es cuestión de tiempo que empecemos a ver vídeos virales narrados por un clon perfecto de la voz de Félix Rodríguez de la Fuente. Podrían usar su imagen generada por IA para dar discursos sobre el cambio climático o el ecologismo que él jamás escribió, perdiendo por completo la pasión genuina, el conocimiento de campo y la poesía visceral que caracterizaban al naturalista burgalés, sustituyéndolo por un tono plano y moralista de ChatGPT.
- En Francia: Veremos al legendario Jacques Cousteau con su característico gorro rojo, navegando en un Calypso digital, recitando datos de Wikipedia sobre la contaminación por microplásticos, despojando a su legado de su auténtico espíritu explorador.
- A nivel internacional: El impacto será aún mayor. Usarán (ya lo están haciendo) el rostro de mi admirado Carl Sagan para vendernos filosofías New Age baratas bajo el disfraz de la astronomía. Resucitarán a Albert Einstein y Nikola Tesla (quienes ya sufren terriblemente de citas falsas en internet) poniéndolos a debatir en vídeos generados por IA que tergiversan por completo la historia de la ciencia. Veremos a Stephen Hawking o Marie Curie reducidos a avatares que dan consejos de autoayuda pseudocientíficos.
- En la cultura popular y la ficción: Ni siquiera figuras asociadas a la ciencia desde la ficción se salvarán. Actores icónicos como Leonard Nimoy podrían ser recreados con la apariencia del Sr. Spock para validar argumentos lógicos llenos de falacias, difuminando la línea entre el personaje, el actor y el mensaje científico que siempre apoyó en vida.
Proteger el legado frente al ruido
El verdadero peligro de esta proliferación de canales no es solo la desinformación puntual. Es la devaluación de la ciencia misma. La divulgación científica requiere pasión, comprensión profunda, matices y, sobre todo, la capacidad de dudar. Una Inteligencia Artificial, guiada por un creador que solo busca visitas, no duda; solo afirma con seguridad absoluta.
Cuando permitimos que la imagen y la voz de grandes pensadores sean secuestradas por granjas de contenido, estamos permitiendo que se reescriba su legado. Nos enfrentamos a un futuro donde el espectador promedio tendrá enormes dificultades para distinguir entre una verdadera reflexión de Richard Feynman y una alucinación algorítmica empaquetada para vender anuncios.
Como espectadores, nuestra mejor defensa es el pensamiento crítico. Debemos exigir fuentes, buscar a los verdaderos divulgadores (aquellos que muestran su rostro, sus credenciales y su pasión), y dejar de premiar con nuestra atención a los canales que utilizan la ciencia como un simple disfraz. Porque si no defendemos la verdad hoy, el día de mañana la historia de la ciencia será contada por voces muertas recitando guiones vacíos.

