Saltar para o conteúdo

O tribunal deu razão à Anthropic na disputa com o Pentágono sobre riscos na cadeia de abastecimento.

Mulher de fato formal segura tablet e pasta a caminhar em escadaria de edifício público com colunas.

Anthropic obtém suspensão judicial temporária da exclusão dos contratos

A empresa norte-americana Anthropic, que se dedica ao desenvolvimento de inteligência artificial, conseguiu uma suspensão judicial temporária da decisão do Pentágono que a excluía da lista de fornecedores. A juíza Rita F. Lin, do Distrito Norte da Califórnia, considerou que as ações do Departamento de Defesa dos EUA podem ser entendidas como uma violação da Primeira Emenda.

O conflito começou depois de o Pentágono ter classificado a Anthropic como um “risco para a cadeia de abastecimento” devido às críticas públicas da empresa às condições dos contratos. A Anthropic afirma que a sua exclusão está ligada à recusa em permitir que a sua IA seja utilizada para armas autónomas e vigilância em massa.

A juíza Lin observou que punir a empresa pela sua posição nos meios de comunicação social constitui uma retaliação ilegal. Sublinhou que a forma de utilizar a IA deve ser decidida pelos militares, mas acrescentou que as ações do Pentágono ultrapassam os limites da lei.

A Anthropic sustenta que a decisão do Pentágono causou danos graves ao seu negócio. Muitos parceiros manifestaram preocupação e incerteza quanto à continuação da colaboração. As potenciais perdas são avaliadas em centenas de milhões de dólares.

O conflito teve origem num memorando do secretário da Defesa dos EUA, Pete Hegseth, que exigia a inclusão nos contratos da formulação sobre “qualquer utilização legal” da IA. A Anthropic recusou esses termos, o que levou à sua exclusão da lista de fornecedores.

O processo gerou ampla repercussão, uma vez que, pela primeira vez, uma empresa norte-americana foi descrita como um risco para a cadeia de abastecimento. Normalmente, esse estatuto é atribuído a empresas estrangeiras associadas a potenciais adversários dos EUA.

A Anthropic afirma que a sua tecnologia Claude não se destina a ser usada em armas autónomas nem em vigilância em massa. A empresa insiste que o governo deve respeitar essas limitações.

O processo continua, e a decisão final poderá ser proferida dentro de რამდენიმე meses. A suspensão temporária permite à Anthropic continuar a trabalhar com parceiros enquanto decorre o processo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário