Nueva York – El Departamento de Guerra de Estados Unidos y la empresa de
inteligencia artificial (IA) Anthropic se encuentran en una escalada de tensión
que podría culminar en una intervención gubernamental, debido a las
discrepancias sobre el uso de la tecnología para fines letales y de vigilancia,
según informa este viernes The Washington Post.
La disputa,
que ha alcanzado niveles críticos esta semana, se centra en si el modelo de
lenguaje Claude, desarrollado por Anthropic, puede ser utilizado en sistemas de
armas autónomas y en la toma de decisiones durante escenarios de conflicto
extremo, incluyendo hipotéticos ataques nucleares.
El
Pentágono fijó la fecha límite para Anthropic para las 17:01 hora local (22:01
GMT) de este viernes. De no cumplir con las exigencias, el Gobierno ha sugerido
que podría invocar su autoridad legal -posiblemente a través de la Ley de
Producción de Defensa (DPA, por sus siglas en inglés)- para obligar a la
empresa a entregar su tecnología, además de incluirla en una «lista negra» para
futuros contratos de defensa.
Según una
fuente de Defensa citada por el rotativo, el jefe de tecnología del Pentágono
redujo el debate a un escenario nuclear de vida o muerte en una reunión el mes
pasado e hizo la siguiente pregunta: si se lanzara un misil balístico
intercontinental contra Estados Unidos, ¿podrían los militares utilizar el
sistema de inteligencia artificial Claude de Anthropic para ayudar a
derribarlo?
La
respuesta del director ejecutivo de Anthropic, Dario Amodei, fue algo similar
a: «Podrías llamarnos y lo resolveríamos», algo que irritó al Pentágono, según
el medio.
No
obstante, un portavoz de Anthropic negó a The Washington Post que Amodei diera
esa respuesta, calificándola de «manifiestamente falsa» y afirmando que la
compañía accedió a permitir el uso de Claude para la defensa antimisiles.
El
conflicto también tiene tintes políticos, ya que varios expertos consultados
por el diario sugieren que Anthropic, fundada por exmiembros de OpenAI con un
enfoque en la seguridad, está bajo la lupa de la administración del presidente
Donald Trump por no estar alineada con su agenda.
Por su
parte, el portavoz del Pentágono, Sean Parnell, aseguró ayer en una publicación
en la red social X que: «el Departamento de Guerra no tiene ningún interés en
usar IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal)
ni quiere usar IA para desarrollar armas autónomas que funcionen sin
intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los
medios».
«Solicitamos
lo siguiente: Permitir que el Pentágono utilice el modelo de Anthropic para
todos los fines legales», anotó, y señaló que EE. UU. no permitirá que «ninguna
empresa dicte las condiciones de las decisiones operativas».
El
subsecretario Emil Michael dijo a CBSNews ayer que Anthropic ha sido invitada a
participar en la junta de ética de IA, pero que no se pueden poner las normas y
políticas del Ejército y el Gobierno de Estados Unidos en manos de una sola
empresa privada».

No hay comentarios.:
Publicar un comentario