Empresa Anthropic de IA se niega a permitir uso de su tecnología por parte del Pentágono
COMPARTIR
Las autoridades estadounidenses aseguraron que no hay interés por parte del gobierno de utilizar esta inteligencia artificial para fines de espionaje o bélicos
El director general de Anthropic, Dario Amodei, manifestó el jueves que la empresa de inteligencia artificial “no puede, en conciencia, acceder” a las exigencias del Pentágono de permitir un uso sin restricciones de su tecnología, lo que profundiza el choque inusualmente público con el gobierno del presidente Donald Trump, que amenaza con retirarle su contrato y tomar otras medidas drásticas para el viernes.
La compañía señaló en un comunicado que no se está retirando de la negociación, pero que el nuevo lenguaje contractual recibido del Departamento de Defensa “prácticamente no avanzó nada en impedir el uso (del chatbot) Claude para la vigilancia masiva de estadounidenses o en armas totalmente autónomas”.
TE PUEDE INTERESAR: OpenAI anuncia inversión de 110 mil mdd y alianza estratégica con Amazon
Sean Parnell, el principal portavoz del Pentágono, escribió el jueves en redes sociales que los militares “no tienen ningún interés en usar la IA para realizar vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar la IA para desarrollar armas autónomas que operen sin participación humana”.
Las políticas de Anthropic impiden que sus modelos se utilicen con esos fines. Es la más reciente entre sus pares —el Pentágono también tiene contratos con Google, OpenAI y xAI de Elon Musk— en no suministrar su tecnología a una nueva red militar interna de Estados Unidos.
“Es prerrogativa del Departamento (de Defensa) seleccionar a los contratistas más alineados con su visión”, escribió Amodei en un comunicado. “Pero dado el valor sustancial que la tecnología de Anthropic proporciona a nuestras fuerzas armadas, esperamos que lo reconsideren”.
El secretario de Defensa, Pete Hegseth, le dio a Anthropic un ultimátum el martes después de reunirse con Amodei: abrir su tecnología de inteligencia artificial para un uso militar sin restricciones para el viernes, o arriesgarse a perder su contrato gubernamental. Funcionarios militares advirtieron que podrían ir aún más lejos y designar a la empresa como un riesgo para la cadena de suministro, o invocar una ley de la era de la Guerra Fría, llamada Ley de Producción para la Defensa, con el fin de otorgar a las fuerzas armadas una autoridad más amplia para usar sus productos.
Amodei declaró el jueves que “esas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”.
Parnell indicó que el Pentágono quiere “usar el modelo de Anthropic para todos los fines lícitos”, pero no ofreció detalles sobre lo que eso implica. Sostuvo que abrir el uso de la tecnología evitaría que la empresa “ponga en riesgo operaciones militares cruciales”.
“No permitiremos que ninguna compañía dicte los términos sobre cómo tomamos decisiones operativas”, manifestó.