Sam Altman e o Papel da OpenAI em Relação ao Departamento de Defesa
Sam Altman, CEO da OpenAI Inc., comunicou a equipe, na última quinta-feira, que a empresa tem a intenção de "tentar ajudar a desescalar" a tensão entre a rival Anthropic e o Departamento de Defesa dos Estados Unidos.
Posicionamento da OpenAI sobre o uso de IA
Altman enfatizou em um memorando, que foi visto pela CNBC, que a OpenAI sempre defendeu que a inteligência artificial não deve ser utilizada para vigilância em massa ou para armamentos letais autônomos. Ele destacou que a presença humana deve ser garantida em decisões automatizadas de alta relevância. "Essas são nossas principais linhas vermelhas", escreveu Altman.
Prazos e Expectativas com a Anthropic
A Anthropic tem um prazo até às 17h01 ET de sexta-feira para decidir se vai permitir que o Pentágono utilize seus modelos de inteligência artificial em todos os casos legais, sem limitações. A startup busca assegurar que sua tecnologia não será empregada em armas totalmente autônomas ou na vigilância em massa de americanos, mas o Departamento de Defesa não cedeu até o momento.
Alinhamento de Posições
O comunicado interno de Altman, enviado na quinta-feira, visou evidenciar que a OpenAI compartilha os limites éticos estabelecidos pela Anthropic. O Wall Street Journal foi o primeiro a reportar sobre o memorando.
Suporte dos Funcionários da OpenAI
Antes da divulgação do memorando por Altman, colaboradores da OpenAI começaram a se manifestar em apoio à Anthropic nas redes sociais. Aproximadamente 70 funcionários atuais assinaram uma carta aberta intitulada "Nós Não Seremos Divididos", com o objetivo de promover "uma compreensão compartilhada e solidariedade diante dessa pressão" do departamento, conforme estabelecido em seu site.
A Visão de Altman sobre a Anthropic
"Por todas as diferenças que tenho com a Anthropic, eu, em grande parte, confio neles como empresa, e acredito que eles realmente se preocupam com a segurança. Fico contente que tenham apoiado nossos combatentes", afirmou Altman em uma entrevista à CNBC na sexta-feira. Ele expressou incerteza sobre os desdobramentos da situação.
Contrato com o Departamento de Defesa
No ano anterior, a OpenAI foi contemplada com um contrato de 200 milhões de dólares pelo Departamento de Defesa. Esse contrato permitiu que a agência começasse a utilizar os modelos da startup em casos não classificados. A Anthropic, por sua vez, foi o primeiro laboratório de inteligência artificial a integrar seus modelos em fluxos de trabalho de missão em redes classificadas.
Perspectivas Futuras da OpenAI
Altman mencionou que a OpenAI procura negociar um acordo com o Departamento de Defesa que possibilite a implementação de seus modelos em ambientes classificados, de maneira que "seja compatível com nossos princípios". Ele também afirmou que a empresa deve desenvolver salvaguardas técnicas e alocar pessoal para "assegurar que as coisas estejam funcionando corretamente."
"No contrato, solicitaríamos que ele abrangesse qualquer uso, exceto aqueles que sejam ilegais ou inadequados para implantações em nuvem, como vigilância doméstica e armamentos ofensivos autônomos", acrescentou Altman.
Discussões Internas em Andamento
Altman afirmou que a OpenAI realizou reuniões sobre o assunto nos últimos dias, mas ainda não tomou uma decisão definitiva a respeito das ações a serem tomadas. Ele anunciou que mais encontros ocorrerão com as equipes de segurança da OpenAI na sexta-feira.
"Este é um caso em que é importante para mim que façamos a coisa certa, e não a fácil que parece forte, mas que é desonesta," escreveu Altman. "Reconheço que pode não ‘parecer bom’ para nós a curto prazo, e que existe muita nuance e contexto que deve ser considerado."
— CNBC’s Kate Rooney contribuiu para este relatório.
Fonte: www.cnbc.com