Inteligencia de guerra…
Líbano. Bombardeos sobre Beirut. El uso bélico de la inteligencia artificial,
debatido en el conflicto en Medio Oriente. Fotografía: Getty Images.
La IA empieza a ocupar un lugar central en el
terreno militar. La reciente disputa entre Anthropic y el Pentágono reactivó el
debate sobre los riesgos y dilemas éticos de entregar el control de armas
letales a estas herramientas.
© Escrito por Esteban Magnani el
martes 31/03/2026 y publicado por la Revista
Acción de la Ciudad Autónoma de Buenos Aires, República Argentina.
Uno de los principales incentivos para el desarrollo tecnológico a lo largo de
la historia ha sido el uso militar. El ejemplo paradigmático es el Proyecto
Manhattan, que durante la Segunda Guerra Mundial reunió en los Estados Unidos a
los mejores cerebros y muchísimo dinero para desarrollar en solo tres años una
bomba atómica antes de que lo hiciera, como se temía, el régimen de Adolf
Hitler. El conocimiento desarrollado con apuro permitió luego, en tiempos de
paz, aprovechar la energía nuclear.
En la actualidad, la tecnología que podría compararse con ese ambicioso
proyecto es la IA generativa: países como Estados Unidos y China, sobre todo,
compiten por desarrollar sus modelos, a los que consideran clave para definir
la disputa geopolítica entre ambas potencias. Esta tecnología podría incidir en
cuestiones de distinto tipo, desde comerciales o científicas hasta logísticas o
espaciales. Pero el área en el que esta herramienta podría resultar más
determinante ‒y la más discutida‒ es la militar.
El uso bélico de la IA generativa se debate desde hace tiempo: un caso que
avivó la discusión y la instaló en un primer plano internacional ocurrió en
2024, durante el contraataque de Israel a Palestina. Durante varios días
prácticamente se delegó en una IA llamada Lavender el
bombardeo sobre presuntos blancos terroristas, a pesar del margen de error
estadístico de esta herramienta.
Ahora la discusión se reactivó en los Estados Unidos por la negativa de la
empresa Anthropic a que su herramienta de IA generativa tenga control total
sobre armas letales o sea usadas para tareas de vigilancia interior. La disputa
entre la empresa desarrolladora de Claude y el Pentágono escaló y abrió un
debate necesario sobre el uso militar de las IA.
Una empresa moral
Darío Amodei es el CEO de Anthropic, una empresa que fundó luego de abandonar
OpenAI por discrepar con su CEO, Sam Altman. Desde el punto de vista de Amodei,
la urgencia económica no daba tiempo para testear los potenciales usos
peligrosos de las herramientas. Por eso, en 2021 decidió armar su propia
compañía.
Anthropic no solo parecía la cara más «ética» de Silicon Valley, sino que lanzó
una de las herramientas mejor valoradas del mercado de IA generativa: Claude.
Gracias a su posterior asociación con Amazon, que le prestó infraestructura,
dinero y contactos, la nueva empresa pudo conseguir algunos anhelados contratos
con el Estado norteamericano, incluido el aparato militar, que le permitieron
importantes ingresos.
El dinero fue bienvenido, pero generó una fuerte
tensión con el discurso ético de Amodei,
quien se mostró independiente de su nuevo cliente, por ejemplo, criticando la
política de volver a exportar chips a China. Sobre el tema específico de la IA
generativa, denunció violaciones a acuerdos sobre el uso de una versión de Claude
retocada para uso militar que fue utilizada en el secuestro de Nicolás Maduro.
Amodei dio a conocer públicamente sus opiniones frente a un Gobierno al que no
le gusta en absoluto la disidencia.
El diálogo terminó de quebrarse el 26 de febrero cuando el CEO de Anthropic
publicó una carta abierta en la que reconocía que era el Departamento de
Guerra, «no empresas privadas, quienes toman las decisiones militares», pero
que «en algunos pocos casos, la IA puede minar, más que defender, valores
democráticos. Algunos usos también están fuera de los límites de lo que la
tecnología de hoy puede hacer de manera segura y confiable».
Al día siguiente de esta publicación se vencía el plazo para llegar a un
acuerdo con el Pentágono que exigía, según Amodei, que se quitaran todas las
salvaguardas que impedían a la IA ser usada para automatizar totalmente armas
letales o usarlas para la vigilancia interna. Como era de esperar, la
publicación fue leída como una declaración de guerra por el propio presidente
Donald Trump quien respondió en su red social Truth Social con un extenso
posteo: «Los locos izquierdistas de Anthropic acaban de cometer un ERROR
DESASTROSO intentando torcer EL BRAZO del Departamento de Guerra». En el mismo
tono escribieron otros funcionarios.
Desde el Pentágono aseguraron que su plan no era hacer ninguna de las tareas
que denunciaba Amodei, sino que simplemente querían disponer de toda la
capacidad de la herramienta en caso de urgencia. Luego, el Gobierno
de Estados Unidos declaró a Anthropic como un «riesgo para la cadena de
suministro», prohibió sus herramientas en el Estado y también contratar a
quienes tuvieran vínculos con ellas. El anuncio funcionó como una gigantesca
advertencia para una industria a la que Trump viene protegiendo como a pocas.
Empleados de distintas empresas de IA apoyaron la posición de Amodei y
convocaron a otros empresarios a imitarlo. Algunos de estos líderes, como Sam
Altman, hablaron en favor de Anthropic, pero pronto se supo que habían firmado
un contrato suficientemente ambiguo con el Pentágono como para que este pudiera
hacer lo que quisiera con sus herramientas.
Urgido, el mismo Amodei pidió reabrir las negociaciones, sin suerte, por lo que
presentó una demanda contra el Gobierno de los Estados Unidos para que se revierta
su condición de «riesgo para la seguridad nacional». Aun si consigue un fallo
favorable, su relación con los clientes más grandes quedará seriamente dañada,
al menos hasta que haya un cambio de signo político en el Gobierno
estadounidense.
Dinero y locura
La inversión en IA generativa que se está realizando en los Estados Unidos es
tan desmedida que cada vez más especialistas señalan que va a ser imposible recuperarla.
Por eso, cualquier contrato es valorado enormemente, no tanto por los ingresos
que propicia (que no llegan a modificar una ecuación muy deficitaria), sino
porque ayuda a generar un aura de sostenibilidad económica. Por eso, no resulta
extraño que OpenAI y Google se hayan alineado rápidamente para conseguir los
contratos del Estado que Anthropic acaba de perder. Negocios son los negocios.
Más allá de la problemática cuestión comercial, lo más preocupante es que el
Gobierno de los Estados Unidos considere una buena idea delegar el control
total de armas de guerra en IA generativas. Tal como explicó Amodei, estas no
dan garantías suficientes para tareas que requieren certezas.
Es que, pese a lo engañoso del nombre, la inteligencia artificial no es
inteligencia, sino estadística. Si bien resulta sorprendente lo que puede
hacer, el mecanismo probabilístico sobre el que se construye también define sus
límites. Por eso se repiten las historias en que distintas IA cometen lo que
resulta un error evidente para cualquier humano. Al ser herramientas
estadísticas que se basan en miles de millones de ejemplos, carecen de un
criterio propio y pueden generar respuestas poco sensatas en áreas para las que
no tienen suficientes datos, estos quedaron viejos o simplemente arrojan algo
«posible» pero improbable simplemente porque los datos con los que cuentan
avalan esa posibilidad.
Este límite puede no ser tan grave en casos de una tarea escolar o una receta
de cocina, pero cuando se trata de un arma letal, puede costar miles de vidas.
De hecho, se sabe que la IA Claude fue utilizada en el ataque a Irán pese a la
prohibición publicada por Trump horas antes: durante ese ataque, según denuncia
Irán, se bombardeó una escuela en la que murieron más de 170 niñas. El caso
está en discusión, pero no debería descontarse un «error estadístico» o que
estuviera basado en información vieja, como indican algunas investigaciones.
La disputa entre Anthropic y el Gobierno de los Estados Unidos es excepcional
para ilustrar la relación simbiótica entre una industria que necesita contratos
y desregulación, por un lado, y un Gobierno que busca automatizar decisiones
con IA para conseguir un aura de neutralidad ideológica que reduzca las
críticas y disidencias internas.






No hay comentarios.:
Publicar un comentario
Por favor, indicar Nombre Completo y Lugar de Origen. Muchas Gracias