#CancelChatGPT y la reacción que provocó


OpenAI aprendió, a la mala, que hace tiempo dejó de ser una startup sin huella social.


Cuando comenzó a circular que el Departamento de Defensa de Estados Unidos (rebautizado en redes como “Department of War (DoW)”) estaba estructurando acuerdos formales con laboratorios de IA avanzada, Anthropic hizo saber, primero en privado y luego en conversaciones que trascendieron, que el diseño regulatorio podía ser problemático.

La objeción no era por la colaboración misma. Era otra cosa: quién queda dentro, con qué privilegios, bajo qué obligaciones. Si el gobierno elegía “proveedores” sin reglas claras, no solo se distorsionaba la competencia; se empezaba a decidir qué empresa sería la capa que administra el conocimiento del Estado.

Tras esa objeción inicial empezó a circular que el gobierno evaluaba otorgar a OpenAI una posición preferente que no incluiría a otros, principalmente Anthropic, y, más tarde, se habló de una etiqueta punitiva para esa empresa: la designación de “supply chain risk”; es decir, que contratar a Anthropic era un riesgo para EU.

Lo que Estados Unidos busca en los proveedores de IA es claro: capacidad técnica para anticipar amenazas, desde ciberataques automatizados hasta escenarios de seguridad nacional donde la velocidad importa más que la corrección ética.

El giro llegó cuando OpenAI anunció públicamente que sí había acuerdo con el Gobierno.

Fue el 27 de febrero, y el detalle que encendió el debate no fue el contrato en sí, sino lo que simbolizaba: la empresa que nació con la promesa de “beneficiar a toda la humanidad” entraba, formalmente, en la órbita de defensa.

Las redes reaccionaron con su velocidad habitual.

En X y foros especializados circuló una pregunta: ¿ChatGPT, interfaz cotidiana de millones, se convertía en proveedor del aparato militar? El hashtag #CancelChatGPT apareció ese fin de semana, no como marea universal, sino como señal de desconfianza entre desarrolladores, investigadores y académicos. Los mismos que la habían encumbrado en el pasado.

La crítica no era por un contrato ilegal. Era por la coherencia.

OpenAI se había posicionado como actor civil, orientado a la evolución y la democratización. El salto se leyó como fractura simbólica: el momento exacto en que una empresa deja de ser “startup con misión” y empieza a comportarse como lo que es (y lo que el público ya le exige): un actor geopolítico.

Sam Altman respondió el lunes 2 de marzo con un texto extenso, presentado como republicación de un mensaje interno. Admitió el error táctico: “No debimos apresurarnos el viernes”; la comunicación, dijo, pareció oportunista y descuidada.

Pero lo central fueron las enmiendas: OpenAI añadió lenguaje explícito al acuerdo para prohibir el uso de sus sistemas en vigilancia doméstica de ciudadanos estadounidenses, incluyendo la vía más sensible del capitalismo de vigilancia: el uso de información personal adquirida comercialmente.

Esa cláusula fue el corazón del episodio y de la crítica.

Porque el temor no era por drones autónomos provocando explosiones. Era la convergencia entre capacidad predictiva de la IA y el poder estatal: cuando el Estado puede comprar datos, y una IA puede extraer y gestionar patrones, la vigilancia deja de necesitar equipamiento de guerra. Solo necesita correlaciones.

Altman intentó cerrar la grieta: aclaró que agencias de inteligencia como la NSA no están incluidas y que cualquier servicio a ellas requeriría un acuerdo posterior. Y añadió una frase diseñada para el juicio público: ante una orden inconstitucional, preferiría ir a la cárcel antes que obedecerla.

La frase tuvo doble efecto: para algunos, convicción; para otros, la prueba de que el dilema era real y solo estaba siendo administrado.

Altman también tocó la tensión con Anthropic: dijo que esperaba que el gobierno ofreciera a Anthropic los mismos términos. Gesto conciliador, sí, pero también reconocimiento de una verdad incómoda: OpenAI y Anthropic compiten por contratos, talento y legitimidad. El vínculo con el Estado definirá la próxima fase del sector.

La controversia reveló también ángulos más amplios.


Estas empresas nacieron como emprendimientos de nicho con ambiciones filosóficas. En menos de un lustro se convirtieron en interlocutores de seguridad nacional. No hay tradición que guíe esa mutación. No hay antecedentes.

Google y Meta, sí, tuvieron escándalos de privacidad. Pero eran plataformas. OpenAI vende infraestructura cognitiva: no distribuye contenido; distribuye capacidad.

Cuando esa capacidad se vincula con actividades militares, la narrativa pública cambia.

Altman insistió en que el proceso democrático debe permanecer en control. Pero la velocidad tecnológica suele adelantarse a la deliberación política, y cuando eso ocurre, quien controla la infraestructura fija la dirección.

La tentativa de cancelar ChatGPT no solo fue una amenaza comercial de sus clientes. Fue también un aviso cultural. Un aviso sobre la fuerza de la reputación que recae sobre los actores sociales más relevantes.

En la era del capitalismo de vigilancia, la confianza es finita. Y la sospecha ya no se dirige solo a lo que una empresa hace, sino a con quién se sienta y qué límites acepta.

El episodio dejó una enseñanza incómoda: las compañías que diseñan la arquitectura cognitiva del siglo XXI ya no se pueden comunicar como startups experimentales.

Son actores geopolíticos. Pesan.

Y en ese terreno, cada decisión sensible tomada un viernes al azar importa más que cualquier cláusula bien redactada. Importa porque, voluntaria o involuntariamente, comunica.

Cuánto invierte EU en su seguridad
Los datos son innegables: si los Estados Unidos han estado involucrados en el 81% de los conflictos bélicos en el mundo después de la Segunda Guerra Mundial, se trata de un Estado hecho de y para la guerra.


Y la guerra, todos lo sabemos, demanda recursos estratosféricos. Los datos para sustentarlo son evidentes:

El gasto militar, si bien ha crecido, no lo ha hecho en el mismo porcentaje en el que el mismo Gobierno de Estados Unidos ha invertido en inteligencia artificial. Por los antecedentes, esa inversión indica que ven un uso que conviene a sus intereses.

El tiempo dirá cómo la están aprovechando.

Post a Comment

Artículo Anterior Artículo Siguiente