DeepSeek y la batalla por el control de la inteligencia artificial

El chatbot DeepSeek encendió la alarma global por su censura alineada con el régimen chino, pero reducir el debate a un caso de propaganda es quedarse en la superficie. Los chatbots, en China y en Occidente, están atravesados por sesgos, intereses estratégicos y disputas de poder. ¿Todo chatbot es político?
Por Roni Berkowitz y Yael Ram
A comienzos de 2025, la empresa china DeepSeek lanzó un potente chatbot basado en modelos extensos de lenguaje (LLM, por sus siglas en inglés) que de inmediato llamó la atención mundial. Al principio, el entusiasmo se centró en la afirmación de DeepSeek de que había desarrollado el modelo a una fracción del costo típicamente asociado a los modelos más avanzados de inteligencia artificial. Pero el mayor revuelo llegó poco después, cuando las plataformas online y las noticias se inundaron de ejemplos de respuestas de DeepSeek en las que se afirmaba que Taiwán era parte de China, se negaba la discusión de acontecimientos como la masacre en la plaza de Tiananmén o se evitaba responder preguntas sobre Xi Jinping.
Una fuente principal de preocupación fueron los singulares mecanismos de filtrado de información del modelo, que censuraban las respuestas en tiempo real y reemplazaban resultados políticamente sensibles por otros alineados con el Partido. Luego se reveló que esta censura también estaba integrada en el propio modelo, y no únicamente en el nivel de la aplicación, lo que dificultaba eludirla. Esto encendió las alarmas sobre el funcionamiento de DeepSeek como herramienta de propaganda del Partido Comunista Chino (PCCh). En respuesta, varios gobiernos, incluidos los de Estados Unidos, Taiwán, Corea del Sur y Australia, prohibieron la utilización del modelo en dispositivos oficiales, alegando preocupación por la seguridad nacional y la integridad de la información.
No obstante, en lugar de considerarlo tan solo como «una ventana a la censura china», sostenemos que el caso DeepSeek debería servir como una ventana a la politización de los modelos de inteligencia artificial en general de maneras que van más allá del filtrado y el control de contenidos y que no son exclusivas de los modelos chinos.
Por supuesto que está censurado
El hecho de que DeepSeek filtre respuestas políticamente sensibles no sorprende. La infraestructura regulatoria y técnica de China ha considerado durante mucho tiempo internet como un «campo de batalla ideológico» (yishixingtai zhendi 意识形态阵地), y este enfoque tiene sus raíces en una tradición mucho más extensa de control de la información. Desde sus primeras décadas, el mercado mediático chino estuvo dominado por los sistemas de medios estatales, que eran dirigidos por el Departamento Central de Propaganda y diseñados para asegurar la cohesión ideológica y limitar los discursos críticos. Con la llegada de internet, estos principios no fueron abandonados sino adaptados: el Gran Cortafuegos bloqueó sitios web extranjeros y permitió el monitoreo a gran escala de las plataformas nacionales. Por un lado, internet abrió espacios públicos limitados donde los usuarios podrían tener cuentas alternativas; por otra parte, las sucesivas capas de directivas nacionales y de aplicación local crearon rápidamente un sistema de gobernanza en el que se asignó a las empresas tecnológicas la responsabilidad por el filtrado de material sensible. Bajo Xi Jinping, este modelo se ha intensificado mediante políticas de «cibersoberanía», lo que generó un entorno informativo en el que la censura es una característica habitual de las plataformas de medios, y ahora, de los LLM.
Las regulaciones señalan que todos los productos de inteligencia artificial implementados a escala nacional deben «defender los valores socialistas fundamentales» y ser sometidos a una revisión de contenido antes de su lanzamiento. Por lo tanto, los desarrolladores trabajan en un entorno de información ya configurado por amplios controles. Los censores chinos actúan como una barrera regulatoria que filtra el material considerado incompatible con las prioridades del Partido. En la práctica, esto significa que (a) los datos de entrenamiento locales disponibles para los desarrolladores ya están censurados, pues cierto contenido está prácticamente ausente de las noticias, los motores de búsqueda y las redes sociales nacionales; (b) el propio proceso de creación de modelos se lleva a cabo bajo requisitos de cumplimiento de normas; y (c) los mecanismos en tiempo real están integrados, lo que garantiza que ciertos prompts activen scripts de evasión o respuestas predefinidas.
De modo que así es la cuestión: por supuesto, DeepSeek se autocensura. No es una excepción, es lo esperable.
El sesgo está incorporado
Si bien el caso chino atrajo la atención mundial debido a la bien conocida injerencia del PCCh en internet y las tecnologías digitales, sería un error suponer que el sesgo de la información en los chatbots es exclusivo de China o de otros países no democráticos. Una actualización reciente de Grok, impulsada por el objetivo expreso de Elon Musk de hacer que el chatbot sea «más políticamente incorrecto» desató una ola de críticas, y muchos analistas acusaron al modelo de promover contenido racista y antisemita. Mientras tanto, el chatbot de Google, Gemini, enfrentó una reacción negativa por generar imágenes de los Padres Fundadores de Estados Unidos como hombres negros, algo que se percibió en gran medida como resultado de la sobrecorrección de la empresa en su política de diversidad y representación. De ser así, estos modelos también tienen sesgos. Sin embargo, ese sesgo en contextos democráticos no es el resultado de un control ideológico vertical, y las sociedades democráticas ofrecen mecanismos como el periodismo independiente y un mayor pluralismo, lo que incluye la coexistencia de ideas y marcos de valores en pugna en diferentes sistemas de inteligencia artificial.
Esto subraya que los modelos de inteligencia artificial generativa son esencialmente un reflejo de su contexto político y que la creación de contenido está inherentemente moldeada por fuerzas políticas e ideológicas. Si bien centrarse en los resultados –lo que un modelo dice o se niega a decir– genera ejemplos que llegan a los titulares, se omite el panorama más amplio de cómo funciona el poder en todas las etapas de desarrollo del modelo de inteligencia artificial.
La censura es apenas la punta del iceberg
La censura en el nivel de los resultados es solo el síntoma más visible de un entramado político mucho más profundo, que va desde el diseño y el desarrollo hasta la capacitación y la implementación. El control sobre estas diversas etapas de la cadena de valor de la inteligencia artificial otorga a los actores un poder que excede la elaboración de contenido o agendas discursivas; también les confiere acceso a recursos económicos, prestigio, estatus y dominio tecnológico, todo lo cual está estrechamente entrelazado en el campo de los LLM.
En el nivel más fundamental, los modelos de inteligencia artificial generativa reflejan las prioridades, las visiones y los valores de sus creadores. Por ejemplo, Elon Musk describió su chatbot, Grok 3, como «buscador de la verdad al máximo», en contraste con lo que él denominó modelos woke, como ChatGPT, que, según él, tienen un sesgo favorable a puntos de vista progresistas y de izquierda. En el nivel estatal, estas prioridades suelen estar integradas a estrategias nacionales de inteligencia artificial y decisiones de financiación. La semana pasada, Donald Trump lanzó un Plan de Acción en IA cuyo objetivo es mantener la competitividad de las iniciativas estadounidenses respecto a las chinas, y presentó la iniciativa como parte de una nueva «carrera de inteligencia artificial», comparable, en escala, a la carrera espacial. Días después, China presentó su propio Plan de Acción sobre la Gobernanza Global de la Inteligencia Artificial, que hace hincapié en la cooperación internacional en el desarrollo y la regulación de la tecnología, y prometió apoyar la adopción de inteligencia artificial en los países en desarrollo, particularmente en el Sur global.
En este sentido, la inteligencia artificial también se está convirtiendo en un ámbito de intercambio diplomático, como se ha visto en los recientes acuerdos de Estados Unidos en Oriente Medio, que involucran alianzas estratégicas en materia de investigación y desarrollo de inteligencia artificial, incluido el desarrollo de LLM.
Estos objetivos y prioridades están sustancialmente influidos por la base material de la inteligencia artificial, a saber, los semiconductores, las unidades de procesamiento gráfico (GPU, por sus siglas en inglés) y las tierras raras, que están estrechamente comprometidos en las luchas de poder globales. La guerra comercial entre Estados Unidos y China lo ha dejado en claro. Los controles de exportación de Washington sobre chips de alto rendimiento tuvieron como objetivo limitar la capacidad china de entrenar modelos avanzados, como DeepSeek. En respuesta, las empresas chinas se han apresurado a conseguir alternativas nacionales o a reutilizar hardware antiguo, lo que revela un nuevo frente en lo que se conoce como la «guerra de los chips». Mientras tanto, las cadenas de suministro de materiales críticos como litio, cobalto y galio son crecientemente encuadradas como asuntos de seguridad nacional.
La competencia no se detiene en el hardware: el talento en inteligencia artificial se ha convertido en otro punto crítico de control. El Programa de los Mil Talentos de China incentiva a los investigadores a regresar al país, mientras que naciones como Estados Unidos, Canadá y Australia han impuesto restricciones de visado y un mayor escrutinio de los vínculos académicos con el extranjero. Donde la experiencia en inteligencia artificial fluye, los intereses estatales siguen de cerca. La reciente guerra de talentos entre Meta y OpenAI ilustra cómo se desenvuelven estas dinámicas en el nivel corporativo. Según algunos informes, Meta ha ofrecido hasta 100 millones de dólares para atraer a ingenieros y científicos sénior de sus competidores. Estas pujas no se limitan a la contratación de un equipo individual, sino que reflejan disputas de mayor magnitud sobre propiedad intelectual y know-how estratégico.
Y, por supuesto, los datos. Los datos no aparecen así como así: se recopilan, se depuran y se filtran, lo que los hace muy vulnerables al sesgo y la manipulación. Tomemos como ejemplo el auge de las granjas de contenido dirigido por la inteligencia artificial y las redes de bots que siembran en internet narrativas sintéticas: noticias falsas escritas no para engañar directamente a la gente, sino para influir en los datos con los que se entrenarán los modelos futuros. El sesgo también se deriva de las asimetrías en la disponibilidad de datos entre distintos idiomas. Dado que la mayoría de los datos de entrenamiento provienen de la internet abierta, que está dominada por fuentes en inglés, los estudios muestran que estos modelos están muy sesgados hacia las cosmovisiones anglosajonas y occidentales y funcionan con menor precisión en idiomas de bajos recursos.
Una vez entrenado el modelo, las decisiones sobre su implementación –en particular, si se publica o no como código abierto– son profundamente políticas. Si bien publicar ciertos modelos como código abierto puede acarrear el riesgo de que la competencia acceda a algunas capacidades, también puede servir para construir ecosistemas en torno de su tecnología, establecer estándares y obtener liderazgo dentro de la comunidad global de investigación en inteligencia artificial. Mientras que las iniciativas de código abierto a menudo surgen de comunidades de base (como Hugging Face), existe una tendencia creciente entre las principales empresas a publicar sus modelos como código abierto, desde DeepSeek hasta el LLaMA de Meta. Sin embargo, algunos se han preguntado si muchos de estos modelos llamados «abiertos» reflejan realmente una apertura genuina o sirven principalmente como herramientas de branding.
Estos temas suelen abordarse de forma aislada, en lugar de concebirse como parte de un proceso más amplio e interconectado en el que las agendas políticas y los intereses estratégicos modelan cada capa de los sistemas de inteligencia artificial. Si bien muchas de estas dinámicas no son necesariamente visibles en el producto final que encuentran los usuarios, forman parte de un intento gradual de ganar influencia mediante el control de una de las tecnologías más poderosas de nuestro tiempo.
Conclusión
Centrarse exclusivamente en la censura de resultados implica ver el árbol y perder de vista el bosque. Es preciso prestar atención a la politización más amplia que subyace a los modelos de inteligencia artificial, desde los recursos utilizados para entrenarlos hasta los valores que definen su desarrollo. En un sistema en el que principios como la rendición de cuentas, el pluralismo y la reflexión crítica están rigurosamente controlados, el modelo evita temas delicados y refleja discursos oficiales. DeepSeek ejemplifica cómo los modelos de lenguaje internalizan y reproducen la lógica política de los sistemas que los producen. Sin embargo, el caso de DeepSeek no es simplemente una historia de censura autoritaria; revela cómo los marcos de gobernanza, las asimetrías de recursos y las agendas ideológicas están arraigados en toda la cadena de valor de la inteligencia artificial generativa. A medida que la competencia geopolítica global modela la trayectoria de la inteligencia artificial, el desafío no consiste simplemente en detectar sesgos o filtrar la desinformación. De lo que se trata es de ver cómo el poder, ya sea estatal o corporativo, modela la propia tecnología y, en última instancia, influye en su funcionamiento y en la información que produce.
En un nivel sistémico, esta perspectiva holística tiene importantes implicancias para la gobernanza de la inteligencia artificial y abarca tanto la regulación de su desarrollo como la supervisión de su implementación. En un nivel individual, entender cómo los modelos populares de inteligencia artificial reflejan luchas políticas más profundas permite a las personas convertirse en consumidoras más críticas del contenido generado por esta tecnología. Cuando analizamos los sesgos en la inteligencia artificial, debemos desviar nuestra atención de la punta del iceberg y dirigirla hacia las estructuras políticas subyacentes y profundamente establecidas.
Fuente:
https://nuso.org/articulo/deepsek-chatgpt-china-comunista-sesgo-politico-censura/