The Objective
Tecnología

Esta es la ideología que quieren contagiarte Gemini, ChatGPT y Grok cuando las consultas

Todas las plataformas de IA están marcadas por el sesgo ideológico de quienes las entrenan, de sus dueños

Esta es la ideología que quieren contagiarte Gemini, ChatGPT y Grok cuando las consultas

El logo de Grok y Elon Musk. | Algi Febri Sugita (EP)

La inteligencia artificial (IA) ha dejado de ser una simple herramienta tecnológica. Muchos usuarios la utilizan para trabajar, estudiar, pedir consejo o, incluso, informarse sobre política y actualidad. El problema es que gran parte de ellos siguen creyendo que los modelos responden desde una posición neutral. La realidad empieza a demostrar que no existe una IA objetiva.

Las cuatro grandes inteligencias artificiales que lideran el mercado —ChatGPT, Gemini, Claude y Grok— no solo compiten por velocidad o precisión. La IA de OpenAI domina las conversaciones; Gemini se ha convertido en la gran apuesta multimodal de Google gracias a la integración de texto, imágenes y vídeo en un mismo modelo. Claude destaca entre programadores por su capacidad para analizar documentos y código, mientras que Grok, integrada en X, crece como la IA especializada en información en tiempo real gracias a su conexión directa con las publicaciones y tendencias de la red social.

Todas estas inteligencias generativas aprenden de humanos. Eso significa que también heredan ideologías, prioridades políticas y sesgos culturales, igual que ocurre en medios tradicionales o las redes sociales. Las respuestas de estas IA están condicionadas por las reglas, límites y principios de las compañías que las desarrollan. El riesgo ya no es únicamente que una respuesta sea inexacta. El verdadero debate es hasta qué punto el usuario termina otorgando autoridad absoluta a respuestas condicionadas por criterios humanos, afectando directamente al pensamiento crítico.

Silicon Valley entrena la ideología

El epicentro del desarrollo inteligente concentra hoy grandes modelos lingüísticos. Estas herramientas absorben cantidades masivas de información de internet. Posteriormente, pasan por procesos de alineación donde humanos corrigen respuestas y determinan cuáles son aceptables y cuáles no.

Ese sistema, conocido como aprendizaje por refuerzo a partir de retroalimentación humana (RLHF, por sus siglas en inglés), es clave para entender el debate. La IA aprende qué respuestas debe priorizar según criterios humanos. Y esos perfiles suelen compartir contextos culturales similares, especialmente entre ingenieros y anotadores de datos. Según información de GFT Group, multinacional alemana especializada en la digitalización de empresas y la inteligencia artificial, el problema de estos sesgos artificiales es la «psicosis o delirios» que provocan incoherencia en las conversaciones, destruyendo el sentido de los modelos.

ChatGPT: la IA que evita el conflicto

OpenAI ha convertido a ChatGPT en la inteligencia artificial más utilizada del mundo gracias a su facilidad para conversar, resumir textos o automatizar tareas cotidianas. El sistema presenta un modelo de lenguaje (LLM) que ofrece un tono amable, prudente y animado. Versiones anteriores del modelo han negado generar poemas positivos sobre el presidente estadounidense Donald Trump, mientras que sí aceptaban hacerlo sobre Joe Biden. La propia OpenAI terminó reconociendo que sus modelos presentaban inclinaciones políticas reseñables en cuestiones sensibles.

El modelo busca evitar confrontaciones directas y suele alinearse con posiciones progresistas en cuestiones sociales o climáticas. Para muchos expertos, el riesgo principal aparece cuando el usuario percibe esas respuestas como consensos neutrales y no como interpretaciones condicionadas por el entrenamiento humano.

Gemini altera la historia

Google DeepMind apostó con Gemini por una IA versátil —texto, imágenes y vídeo— en un mismo sistema. El modelo utiliza capas de seguridad y alineación desarrolladas bajo los principios éticos de Google. Sin embargo, también protagonizó uno de los mayores escándalos recientes sobre sesgos algorítmicos. En 2024, usuarios comenzaron a detectar imágenes históricas alteradas. Entre ellas, soldados nazis racializados o padres fundadores estadounidenses representados con perfiles étnicos incorrectos. La polémica obligó a Google a pausar temporalmente la generación de imágenes humanas tras las críticas.

En el caso de esta IA, su comportamiento está profundamente marcado por los principios corporativos de Google, relacionados con la diversidad, inclusión, seguridad y moderación de contenidos. Esta filosofía llevó al modelo a priorizar la corrección de determinados sesgos históricos. El caso evidenció cómo la búsqueda de una IA más inclusiva también puede abrir debates sobre manipulación.

Claude: seguridad extrema

Anthropic diseñó Claude con el objetivo de convertirse en una de las IA más seguras del mercado. Para ello utiliza un sistema conocido como «La nueva constitución de Claude», donde el propio modelo evalúa sus respuestas siguiendo reglas redactadas por la empresa. En su última versión, publicada en enero de 2026, el documento de 84 páginas incluye conceptos de la Declaración Universal de los Derechos Humanos de la ONU, priorizando la seguridad y la ética.

Según información de GFT Group, el modelo emitía juicios de valor sobre figuras públicas estadounidenses como Charlie Kirk o George Floyd, alimentando el debate sobre hasta qué punto los principios éticos de Anthropic condicionan las respuestas de la inteligencia artificial.

Grok y las teorías comparativas

xAI nació como la respuesta directa de Elon Musk al supuesto exceso de correlación política en Silicon Valley. Grok se presenta como una IA menos censurada que la de los competidores. Su integración con X le permite acceder a conversaciones en tiempo real y adoptar un tono más provocador.

Los usuarios detectan respuestas con teorías conspirativas o comentarios extremistas. Musk defendió que la inteligencia artificial debía priorizar la libertad de expresión frente a la moderación excesiva. El sesgo de Grok se asocia a posiciones extremistas sin una censura moderada, lo que amenaza a los grupos de usuarios jóvenes.

En resumen, el error es asumir que la IA funciona como un espejo de la verdad. Todas responden a criterios humanos que implican un contexto ideológico. Es recomendable usar más de una inteligencia como fuente de información, especialmente en temas políticos o sociales. Comparar respuestas entre modelos, contrastar con medios fiables y tratar de interiorizar que el pensamiento crítico es una necesidad básica.

Publicidad