OpenAI fecha acordo com o Pentágono após Anthropic ser banida por Trump

OpenAI fecha acordo com o Pentágono após Anthropic ser banida por Trump

by Patrícia Moreira
0 comentários

Acordo entre OpenAI e o Departamento de Defesa dos EUA

Anúncio de Sam Altman

Na noite de sexta-feira, o CEO da OpenAI, Sam Altman, afirmou que sua empresa chegou a um entendimento com o Departamento de Defesa dos Estados Unidos em relação ao uso de seus modelos de inteligência artificial. O anúncio ocorreu logo após o presidente Donald Trump declarar que o governo não colaboraria com a empresa concorrente Anthropic.

Em uma publicação na plataforma X, Altman afirmou: "Hoje à noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada." Ele também destacou que, em todas as interações, o DoW demonstrou um profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.

Contexto Político e Tensão na Indústria de IA

A declaração de Altman veio no final de uma semana intensa para a indústria de IA, que se viu no centro de um debate político sobre as formas de uso de seus modelos. No mesmo dia, o secretário de Defesa, Pete Hegseth, declarou a Anthropic como um "risco à cadeia de suprimentos para a segurança nacional", após semanas de negociações tensas. Essa classificação é geralmente reservada para adversários estrangeiros, e acabaria forçando fornecedores e contratados do Departamento de Defesa a certificar que não utilizam os modelos de Anthropic.

Além disso, Trump ordenou que todas as agências federais dos EUA "cessassem imediatamente" todo uso da tecnologia da Anthropic.

O histórico da Anthropic com o Departamento de Defesa

A Anthropic foi o primeiro laboratório a implementar seus modelos na rede classificada do Departamento de Defesa, e vinha tentando negociar os termos de seu contrato com a agência antes que as conversas falhassem. A empresa buscava garantias de que seus modelos não seriam utilizados para a criação de armas totalmente autônomas ou para vigilância em massa de cidadãos americanos, enquanto o DoD exigia que a Anthropic permitisse o uso de seus modelos em todos os casos legais.

Compromissos de Segurança da OpenAI

Em um memorando enviado aos funcionários na quinta-feira, Altman mencionou que a OpenAI compartilha das mesmas "linhas vermelhas" da Anthropic. Em sua publicação na sexta-feira, ele afirmou que o Departamento de Defesa aceitou as restrições propostas pela OpenAI. "Dois dos nossos princípios de segurança mais importantes são a proibição de vigilância em massa no país e a responsabilidade humana pelo uso da força, inclusive em sistemas de armas autônomas", escreveu Altman. Ele ressaltou que o DoW concorda com esses princípios e que eles estão refletidos na legislação e nas políticas, sendo, por sua vez, incorporados ao acordo.

Motivações e Próximos Passos

Não está claro imediatamente por que o DoD concordou em atender às demandas da OpenAI e não às da Anthropic. Nos últimos meses, autoridades governamentais criticaram a Anthropic por alegadamente estar excessivamente preocupada com a segurança da IA. Altman afirmou que a OpenAI construirá "salvaguardas técnicas para garantir que seus modelos se comportem como deveriam" e que a empresa enviará pessoal para "ajudar com nossos modelos e garantir sua segurança".

"Estamos pedindo ao DoW que ofereça os mesmos termos a todas as empresas de IA, o que, em nossa opinião, todos deveriam estar dispostos a aceitar", escreveu Altman. "Expressamos nosso forte desejo de ver uma desescalada das ações legais e governamentais em direção a acordos razoáveis."

Reação da Anthropic

A Anthropic, em uma declaração feita na sexta-feira, expressou que estava "profundamente triste" pela decisão do Pentágono de rotular a empresa como um risco à cadeia de suprimentos. A companhia afirmou que pretende contestar essa designação judicialmente.

Resumo da Situação Atual

A situação em que se encontram OpenAI e Anthropic reflete um momento crítico na indústria de inteligência artificial, marcado por uma crescente regulamentação e a necessidade de garantir o uso responsável da tecnologia. A dinâmica entre essas duas empresas e as agências governamentais pode influenciar o futuro do desenvolvimento e da implementação de modelos de IA nos Estados Unidos e em outros lugares.

Fonte: www.cnbc.com

As informações apresentadas neste artigo têm caráter educativo e informativo. Não constituem recomendação de compra, venda ou manutenção de ativos financeiros. O mercado de capitais envolve riscos e cada investidor deve avaliar cuidadosamente seus objetivos, perfil e tolerância ao risco antes de tomar decisões. Sempre consulte profissionais qualificados antes de realizar qualquer investimento.

Você pode se interessar

Utilizamos cookies para melhorar sua experiência de navegação, personalizar conteúdo e analisar o tráfego do site. Ao continuar navegando em nosso site, você concorda com o uso de cookies conforme descrito em nossa Política de Privacidade. Você pode alterar suas preferências a qualquer momento nas configurações do seu navegador. Aceitar Leia Mais

Privacy & Cookies Policy