Altman da OpenAI classifica acordo de defesa como ‘oportunista e mal elaborado’

CEO da OpenAI Comenta sobre Acordo com o Departamento de Defesa dos EUA

A declaração de Sam Altman

Na segunda-feira, o CEO da OpenAI, Sam Altman, declarou que a empresa "não deveria ter apressado" o recente acordo com o Departamento de Defesa dos Estados Unidos e que fará algumas revisões na convenção estabelecida.

O contexto do acordo

Essa declaração ocorre após a OpenAI ter anunciado um novo entendimento com o Departamento de Defesa na sexta-feira, poucas horas após a Casa Branca ter ordenado que agências federais parassem de utilizar as ferramentas da concorrente Anthropic, e antes de Washington realizar ataques no Irã.

Revisões no contrato

Em uma postagem na plataforma X, Altman informou que a OpenAI pretende emendar o contrato para incluir nova redação, especificamente que "o sistema de IA não deverá ser utilizado intencionalmente para vigilância doméstica de cidadãos e nacionais dos EUA". Ele destacou ainda que o Departamento de Defesa confirmou que as ferramentas da OpenAI não seriam empregadas por agências de inteligência, como a NSA.

Considerações sobre a tecnologia

Altman afirmou que "existem muitas coisas para as quais a tecnologia ainda não está pronta, assim como muitas áreas cujas consequências exigem uma compreensão mais aprofundada para garantir segurança". Ele acrescentou que a empresa pretende trabalhar com o Pentágono em medidas técnicas de segurança.

Reconhecimento de erro

O CEO admitiu que cometeu um engano ao "apressar" a formalização do acordo na sexta-feira. Ele explicou: "Estávamos genuinamente tentando desescalar a situação e evitar um resultado muito pior, mas creio que isso acabou parecendo oportunista e descuidado".

Disputa entre empresas

Esse reconhecimento vem após uma disputa pública entre a Anthropic e o governo dos EUA sobre as garantias de segurança para os sistemas de IA Claude da Anthropic. O Secretário de Defesa, Pete Hegseth, também comentou que a empresa seria considerada uma ameaça à cadeia de suprimentos.

Garantias solicitadas pela Anthropic

A Anthropic havia solicitado garantias de que suas ferramentas não seriam utilizadas para vigília doméstica nos EUA, ou para operar e desenvolver armas autônomas sem controle humano. O conflito começou após a revelação de que o Claude da Anthropic foi utilizado pelo exército dos EUA na operação que visava capturar o presidente da Venezuela, Nicolás Maduro, em janeiro, embora a empresa não tenha protestado publicamente contra esse uso.

Consequências do novo acordo da OpenAI

O acordo da OpenAI com o Pentágono foi estabelecido logo após o fracasso das negociações entre a Anthropic e o Departamento de Defesa, gerando uma reação pública negativa. Muitos usuários teriam abandonado o ChatGPT em favor do Claude nas lojas de aplicativos.

Posicionamento em relação à Anthropic

Em sua postagem, Altman abordou ainda a polêmica, afirmando: "Durante minhas conversas ao longo do final de semana, reiterei que a Anthropic não deveria ser designada como um [risco à cadeia de suprimentos], e que esperamos que o [Departamento de Defesa] ofereça a eles os mesmos termos que concordamos".

Fonte: www.cnbc.com

Related posts

Atualização do Orçamento do Reino Unido: O que Esperar da Declaração de Primavera

Futuros do Dow, S&P 500 e Nasdaq despencam com novas greves que intensificam conflito no Irã

Quais países serão mais impactados?

Utilizamos cookies para melhorar sua experiência de navegação, personalizar conteúdo e analisar o tráfego do site. Ao continuar navegando em nosso site, você concorda com o uso de cookies conforme descrito em nossa Política de Privacidade. Você pode alterar suas preferências a qualquer momento nas configurações do seu navegador. Leia Mais