Movimento de Trabalhadores de Tecnologia
Trabalhadores de tecnologia das empresas Google, OpenAI e algumas de suas concorrentes estão circulando um conjunto de cartas que pedem limites mais claros sobre como seus empregadores colaboram com o exército. Essa movimentação ocorre após os Estados Unidos realizarem ataques no Irã durante o final de semana, além de o Pentágono ter incluído modelos de inteligência artificial da Anthropic em sua lista negra.
Carta Aberta Crescente
Uma carta aberta, intitulada “Não Seremos Divididos”, passou de algumas centenas de assinaturas na sexta-feira para quase 900 na segunda-feira, com quase 100 signatários da OpenAI e cerca de 800 do Google. O documento criticava as ações do Departamento de Defesa contra a Anthropic, que se recusou a permitir que sua tecnologia fosse utilizada para vigilância em massa ou para armamentos totalmente autônomos.
A carta declara: “Eles estão tentando dividir cada empresa com medo de que a outra ceda”. A seguir, ela explica: “Essa estratégia só funciona se nenhum de nós souber onde os outros estão. Esta carta serve para criar um entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra”.
As operações de combate começaram no Irã horas depois da decisão da administração Trump na sexta-feira de bloquear a Anthropic e designá-la como um “risco à cadeia de suprimentos”. Embora o governo dos EUA tenha alegado que o ataque ao Irã era necessário para neutralizar “ameaças iminentes” dos programas nuclear e de mísseis do país, as ações parecem ter levado um número maior de trabalhadores de tecnologia a assinar seus nomes em diversas petições.
Preocupações em Aumento
As tensões na tecnologia vêm crescendo há meses, em grande parte devido à agressividade crescente dos agentes de imigração federal, incluindo os homicídios de dois cidadãos americanos em Minnesota no início deste ano. Os trabalhadores do setor exigem maior transparência em relação ao trabalho que seus empregadores realizam com o governo, especialmente em relação a contratos relacionados a nuvem e inteligência artificial.
No caso do Google, a recente reação negativa ocorre enquanto a empresa está, segundo informações, em conversações com o Pentágono para trazer seu modelo de inteligência artificial Gemini para um sistema classificado, reavivando uma luta interna que dura anos sobre a inteligência artificial militar.
Críticas a Contratos Governamentais
Na sexta-feira, o grupo No Tech For Apartheid, que há muito critica os acordos de nuvem entre o governo dos EUA e grandes empresas de tecnologia, divulgou uma declaração conjunta sob o título “Amazon, Google, Microsoft Devem Rejeitar as Exigências do Pentágono”.
A coalizão afirmou que as três líderes em infraestrutura de nuvem deveriam se recusar às condições do Departamento de Defesa que possibilitem a vigilância em massa ou outras utilizações abusivas da inteligência artificial, demandando também maior clareza em torno dos contratos que envolvem o exército e agências como o Departamento de Segurança Interna e o Departamento de Imigração e Controle Alfandegário (ICE).
O grupo mencionou diretamente o Google, citando o potencial de um acordo com o Pentágono que poderia se assemelhar a um acordo que permite ao Departamento de Defesa implantar o Grok, da xAI de Elon Musk, “em ambientes classificados – até onde sabemos, sem qualquer proteção”.
A declaração prosseguiu: “Nossas próprias empresas também estão à beira de aceitar termos contratuais semelhantes. O Google está em negociações com o Pentágono para implantar o Gemini, seu próprio modelo de fronteira, para usos classificados”.
Embora a Anthropic e a OpenAI tenham feito numerosas declarações públicas sobre suas negociações com o Departamento de Defesa e o estado atual de seus contratos, a Alphabet, empresa-mãe do Google, permaneceu em silêncio. A companhia não respondeu a múltiplos pedidos de comentário.
Risco à Cadeia de Suprimentos
Em outro esforço de apoio à Anthropic, centenas de trabalhadores de tecnologia assinaram uma carta aberta pedindo ao Departamento de Defesa que retirasse sua designação da empresa como “risco à cadeia de suprimentos”. A lista inclui dezenas de colaboradores da OpenAI, bem como trabalhadores associados a empresas como Salesforce, Databricks, IBM e Cursor.
A carta pede ao Congresso que “examine se o uso dessas autoridades extraordinárias contra uma empresa de tecnologia americana é apropriado” e afirma que a Anthropic, assim como outras empresas privadas, não devem sofrer represálias por se recusar a ceder às exigências do governo.
Preocupações semelhantes foram levantadas internamente no Google na semana passada, quando mais de 100 funcionários que trabalham com tecnologia de inteligência artificial teriam assinado uma carta para a gestão, expressando temores sobre a colaboração da empresa com o Departamento de Defesa. Eles pediram ao gigante das buscas para estabelecer as mesmas linhas vermelhas que a Anthropic, segundo o The New York Times.
Posição dos Executivos do Google
Jeff Dean, cientista-chefe do Google, recebeu o memorando e aparentou simpatizar com, ao menos, algumas das preocupações expressas. Ele postou em um fórum na rede social X que “a vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão”.
Ele acrescentou que sistemas de vigilância são “propensos a abusos para fins políticos ou discriminatórios”.
No passado recente, Dean enfrentou questões relacionadas no Google.
Histórico de Controvérsias
Em 2018, a empresa experimentou uma revolta interna devido ao Projeto Maven, um programa do Pentágono que utilizava inteligência artificial para analisar imagens de drones. Após milhares de funcionários protestarem, o Google deixou o contrato expirando. Posteriormente, a empresa estabeleceu seus “Princípios de IA”, que delineiam como sua tecnologia pode ser utilizada.
Esse assunto continua gerando descontentamento. Em 2024, o Google demitiu mais de 50 funcionários após protestos em torno do Projeto Nimbus, um contrato conjunto de US$ 1,2 bilhão com a Amazon para trabalhos com o governo israelense. Executivos frequentemente afirmaram que o contrato não violava quaisquer dos princípios de IA da empresa. No entanto, documentos e reportagens indicam que o acordo da empresa permitia fornecer a Israel ferramentas de inteligência artificial que incluíam categorização de imagens, rastreamento de objetos e disposições para fabricantes de armas pertencentes ao estado.
Em dezembro daquele ano, um relatório do New York Times revelou que quatro meses antes do acordo com Nimbus, oficiais da empresa estavam preocupados que assinar o contrato prejudicaria sua reputação e que “os serviços em nuvem do Google poderiam ser utilizados para, ou relacionados à, facilitação de violações dos direitos humanos”.
No início do ano passado, o Google, relatadamente, revisou seus Princípios de IA e removeu trechos que explicitamente proibiam “a construção de armas” ou “tecnologia de vigilância”.
Fonte: www.cnbc.com

