Dos compañías tecnológicas estadounidenses, Open AI y Anthropic, han protagonizado un escándalo en EEUU relacionado con la seguridad y el uso de la inteligencia artificial para vigilancia de ciudadanos y desarrollo de armas autónomas. El Pentágono rompió el contrato que mantenía con Anthropic, cuando esta se negó a permitir usar sus sistemas para estos fines que le exigía el gobierno de Trump. Apareció entonces la empresa de Sam Altman, Open AI, para ocupar su lugar y aceptar las condiciones marcadas. Esto provocó un enorme revuelo en el mundo tecnológico y una campaña de boicot contra los creadores de ChatGPT. Pero además ha evidenciado otro dilema de fondo para las democracias: ¿Quién pone los límites a la IA? o ¿Quién decide qué usos deben ser excluidos? En The Conversation analizan este asunto señalando la dificultad para establecer quién debe ser responsable y la importancia de la rendición de cuentas.


Photo For Everything/Shutterstock
Fernando Aguiar, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)

El 5 de marzo de 2026, el Pentágono hizo pública una decisión insólita: declarar que la empresa Anthropic es “un riesgo para la cadena de suministro”. La expresión se usa para señalar que una empresa puede poner en peligro la existencia, la seguridad o el control de sistemas e infraestructuras esenciales para Estados Unidos. Lo excepcional del caso es que, por primera vez, esta medida se ha dirigido contra una empresa de su propio país.

Petición que traspasa límites éticos

El conflicto surgió cuando el Departamento de Defensa quiso que Anthropic retirara las salvaguardas que impedían usar sus sistemas de inteligencia artificial (IA) para la vigilancia masiva de ciudadanos de Estados Unidos y para el desarrollo de sistemas de armas plenamente autónomos.

Ante la negativa de Anthropic, la respuesta del Pentágono fue contundente: una empresa privada de IA no puede imponer restricciones operativas a priori cuando el uso previsto de esa nueva tecnología es legal.

Al calor de la disputa, OpenAI anunció su propio acuerdo con el Pentágono, dado que acepta la legitimidad de establecer límites a posteriori dentro del marco legal.

En sí mismas, ambas posturas son defendibles, pero la cuestión de fondo que nos interesa aquí es otra: ¿acaso cuestiones de semejante trascendencia deben resolverlas solo las grandes corporaciones negociando con las instituciones del Estado?

Qué pinta la democracia en esto

Este caso concreto no gira, pues, en torno a si las empresas de IA deben colaborar o no en tareas de defensa y vigilancia masiva –Anthropic ya tenía contratos con el Pentágono–, sino sobre una cuestión previa más importante: quién decide qué usos de la IA deben ser excluidos.

Una democracia no puede abordar un problema de esa magnitud apelando solo a normas legales pensadas para tecnologías muy distintas. Cuando, en el terreno del control de la ciudadanía, la capacidad estatal de cruzar datos, perfilar conductas y automatizar inferencias sobre los ciudadanos crece de manera exponencial gracias a la IA, la frontera entre el uso legal y el uso moralmente legítimo se vuelve menos nítida.

Otro tanto ocurre en el ámbito militar, donde son necesarios “niveles apropiados de juicio humano”, como señala la Directiva 3000.09 del Departamento de Defensa de EE. UU.. Legalidad no equivale sin más a legitimidad.

Quién es responsable

Surge aquí un serio problema de atribución de responsabilidades, que no se resuelve apelando solo a un “control humano” de la IA –suele estar mal definido y peor delimitado, como queda patente en la Directiva 3000.09–.

Ni en el ámbito militar ni en el del control de la ciudadanía decide un sistema de IA aislado ni una persona claramente identificable. Intervienen proveedores, contratos, modelos de IA, operadores, cadenas de mando y asesores jurídicos. El resultado es un ensamblaje en el que el poder se reparte y la responsabilidad se diluye.

En contextos de vigilancia intensiva de ciudadanos o uso de armamento militar autónomo, se puede producir una situación muy conveniente para todos los implicados: el sistema actúa, la decisión se ejecuta, el daño se produce y, sin embargo, nadie aparece como plenamente responsable. La empresa dirá que solo suministró una herramienta. El técnico asegurará que siguió el procedimiento. El mando alegará que el sistema estaba autorizado. El jurista recordará que no había una prohibición expresa.

Rendición de cuentas, la clave

Por eso el caso Anthropic importa más allá del conflicto entre una empresa y el Pentágono. Obliga a reconocer una tensión que las democracias no han resuelto bien, y no solo porque sigamos aplicando marcos jurídicos previos a nuevos sistemas que han ampliado la capacidad de vigilancia y de selección autónoma de objetivos militares, sino porque la atribución de responsabilidades es confusa.

Si intervienen el proveedor, el técnico, el mando, el contratista, la asesoría jurídica y la propia IA de manera autónoma, cada actor conservará una parte del control, pero nadie asumirá las decisiones finales, que se dejan en “manos” de la máquina. Esa dispersión no es un detalle menor, ya que convierte la rendición democrática de cuentas en una ficción precisamente allí donde sería más necesaria.

De ahí que la cuestión decisiva no sea solo si preferimos imponer límites a priori o controles a posteriori. La pregunta más profunda es quién está legitimado para decidir los límites. Si se deja solo en manos de las empresas, corremos el riesgo de privatizar decisiones que afectan a los derechos humanos y al uso legítimo de la fuerza. Si se deja solo en manos del Estado y de sus contratistas, el peligro es reducir un problema político y moral a una cláusula de legalidad formal.

En una democracia, esa elección no debería resolverse ni por la lógica corporativa ni por la mera razón de Estado, sino mediante deliberación pública, control parlamentario y supervisión independiente. Porque aquí no se está discutiendo solo cómo usar una tecnología nueva, sino bajo qué condiciones aceptamos que se reorganice, mediante sistemas autónomos de IA, el poder de vigilar, decidir e, incluso, matar.The Conversation

Fernando Aguiar, Investigador científico, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.

linea

Print Friendly, PDF & Email