O governo dos Estados Unidos classificou a Anthropic como 'risco inaceitável' para a cadeia de suprimentos militares, após a empresa recusar o uso ilimitado de seu modelo de IA, Claude, por militares.
Contexto
O modelo Claude vem sendo utilizado na identificação de alvos para bombardeios americanos no Irã e a Anthropic não aceita seu uso irrestrito para fins militares.
Ação judicial
A empresa entrou com um processo contra o governo dos EUA, contestando a classificação como 'risco para a cadeia de suprimentos'. A designação pode impedir que fornecedores do governo façam negócios com a Anthropic.
Posição da Microsoft
A Microsoft se posicionou a favor da Anthropic, afirmando que não é o momento de pôr em risco o ecossistema de IA.