Nueva York – Funcionarios de múltiples agencias
federales han manifestado dudas sobre la seguridad y fiabilidad de Grok, la
inteligencia artificial (IA) del magnate Elon Musk, según informa este viernes
The Wall Street Journal (WSJ).
Este asistente de IA conversacional,
desarrollado por xAI -propiedad de Musk- está integrado en la red social X y
puede responder a preguntas de los usuarios.
Según el WSJ, Ed Forst, principal
funcionario de la Administración de Servicios Generales (GSA, en inglés),
alertó en los últimos meses a miembros de la Casa Blanca sobre posibles
problemas de seguridad con Grok.
Otros trabajadores de la agencia
comparten esta preocupación y consideran a la IA de Musk «demasiado susceptible
a la manipulación o corrupción por datos erróneos o sesgados», de acuerdo con
el periódico, que cita a personas familiarizadas con el asunto.
La jefa de gabinete de la Casa
Blanca, Susie Wiles, también mostró su preocupación por la creación de imágenes
sexualizadas y desnudos sin consentimiento por parte de Grok y se puso en
contacto con un alto ejecutivo de xAI para manifestarle sus dudas al respecto.
A esto se suma que Matthew Johnson,
jefe de IA responsable del Pentágono, dimitió hace dos semanas debido, en
parte, «a su preocupación por que la seguridad y la gobernanza se hubieran
convertido en una prioridad secundaria» del Departamento de Guerra, según el
rotativo.
El WSJ señala que altos funcionarios
de EE.UU., entre ellos de la Casa Blanca, se decantan por Grok para implementar
esta IA en el Pentágono por su menor regulación y por «la postura absolutista»
de Musk sobre la libertad de expresión.
Asimismo, indica que estos
funcionarios han manifestado su rechazo a la tecnológica Anthropic, creadora de
la herramienta de IA Claude, por su postura sobre seguridad y sus vínculos con
donantes demócratas.
Anthropic anunció ayer que no cederá
a los términos del Pentágono para el uso completo de Claude al considerar que
permitir su uso en armas totalmente autónomas o en vigilancia masiva sería
«incompatible con los valores democráticos».
La compañía señaló en un comunicado
que el Pentágono pretende contratar únicamente a empresas de IA que acepten
«cualquier uso legal» de su IA y eliminen estas salvaguardas.
El Pentágono dio de plazo a Anthropic
hasta hoy a las 17:01 hora del este (22:01 GMT) para permitirle usar su IA sin
restricciones o, de lo contrario, ser calificada como una empresa «riesgo para
la cadena de suministro».
Por su parte, el director ejecutivo
de OpenAI, Sam Altman, ha revelado que su compañía negocia un acuerdo con el
Departamento de Guerra para desplegar sus modelos de IA en entornos clasificados,
aunque todavía no se ha firmado ningún acuerdo y las conversaciones podrían
fracasar, según el WSJ.

No hay comentarios.:
Publicar un comentario