La revancha de los expertos
Ahora llega la inteligencia artificial y los analistas más perspicaces están formulando una hipótesis incómoda: que los grandes modelos de lenguaje no son la prolongación de las redes sociales, sino su antídoto
Hace quince años, el relato dominante sobre las redes sociales era el de la libertad. Cualquiera podía publicar, cualquiera podía ser escuchado; las élites habían perdido el monopolio del micrófono y la democracia florecería en la plaza digital. Lo que floreció, en cambio, fue el populismo, la teoría conspirativa y un ecosistema informativo donde el algoritmo premia la indignación sobre la verdad. Twitter y la imprenta de Gutenberg llegaron al mundo con seis siglos de diferencia, pero comparten la misma vocación: democratizar la voz, ampliar el coro y, con él, su cacofonía.
Ahora llega la inteligencia artificial y los analistas más perspicaces están formulando una hipótesis incómoda: que los grandes modelos de lenguaje no son la prolongación de las redes sociales, sino su antídoto. El filósofo Dan Williams lo ha articulado con precisión: si las plataformas sociales democratizaron la información –transfiriendo poder de los expertos a las masas y a sus prejuicios–, los modelos de lenguaje la tecnocratizan. Empujan en sentido contrario: hacia el consenso académico, hacia la evidencia, hacia la moderación.
¿Cuál es la razón detrás de estas diferencias? Las plataformas sociales ganan dinero con la atención, y la atención se captura con el escándalo. Los fabricantes de IA, en cambio, compiten por construir herramientas de utilidad real para empresas que pagan por información fiable; si su modelo desvaría o propaga bulos, son ellos quienes asumen la responsabilidad legal y reputacional, no un usuario anónimo en un red social.
Esta diferencia de incentivos no es menor. Cuando ChatGPT desinforma, la culpa recae directamente en OpenAI. Esa cadena de responsabilidad, ausente en el modelo de las redes sociales, genera presión real para que los sistemas sean rigurosos.
El escritor Dylan Matthews añade una dimensión epistemológica: la distinción entre tecnologías divergentes y convergentes. La imprenta multiplicó las cosmovisiones en pugna; las redes sociales llevaron esto al extremo, con cada usuario recibiendo una realidad confeccionada a medida por un algoritmo de captación. Los grandes modelos de lenguaje, en cambio, se comportan más como la televisión de los años sesenta –pocas cadenas, audiencia mayoritaria, consenso implícito–, pero a escala global y sin los sesgos editoriales de entonces. Preguntas similares obtienen respuestas similares. Son sistemas centralizados que, en ausencia de contexto previo, convergen.
¿Y los datos? John Burn-Murdoch, en el Financial Times, ha sometido la hipótesis a prueba empírica. Utilizando un conjunto de decenas de miles de respuestas de los principales asistentes de inteligencia artificial a 61 preguntas sobre valores sociales y preferencias de política pública –extraídas del Cooperative Election Study–, midió en qué dirección se desplazan las posiciones de los usuarios tras conversar con cada plataforma. El resultado es sorprendente en su consistencia: todos los modelos estudiados empujan hacia posiciones más moderadas y más alineadas con el consenso experto que las creencias de partida. Grok, el asistente de Elon Musk, deriva hacia el centro-derecha —un desplazamiento que, paradójicamente, modera a los más radicales de ese flanco—; GPT, Gemini y DeepSeek operan un movimiento simétrico hacia el centro-izquierda. Lo más relevante es que el efecto se mantiene incluso cuando los modelos conocen de antemano la afiliación política del interlocutor, lo que descarta que se limite a halagar las convicciones previas del usuario. Burn-Murdoch había constatado previamente, con los mismos datos, que las redes sociales sobrerepresentan a la derecha e izquierda radicales respecto al conjunto de la población; los asistentes de inteligencia artificial operan en la dirección opuesta. Las creencias conspirativas –fraude electoral, vacunas y autismo, negacionismo climático– raramente encuentran acomodo en ninguno de los modelos estudiados.
El caso de Grok es el más irónico. Elon Musk construyó su asistente como antídoto al llamado pensamiento woke. Pero cuando en enero un agente de inmigración mató de un disparo a una ciudadana estadounidense en Mineápolis y el propio Musk defendió al agente en su red social, sus seguidores recurrieron a Grok para zanjar la discusión. El modelo les respondió, sobre la base del vídeo y los testimonios disponibles, que la mujer no constituía amenaza alguna y que el uso de la fuerza letal no estaba justificado. La IA de Musk contradice a su creador. Estudios independientes han confirmado, además, que las evaluaciones de verificación de hechos realizadas por Grok –cuando opera con acceso a búsqueda web– coinciden en lo esencial con las de los verificadores profesionales.
Esta nueva tendencia merece cautela. Estamos en fases tempranas; los modelos tienen una acusada tendencia a la complacencia con el usuario y la personalización puede acentuarse con el tiempo. Ninguna tecnología es neutral, y la convergencia epistémica tiene sus propias patologías: el experto también se equivoca, y la uniformidad intelectual es un riesgo democrático tan real como la cacofonía. Pero la dirección del movimiento importa. Quince años de algoritmos del caos merecen al menos que la hipótesis contraria se tome en serio.