Sam Altman, CEO da OpenAI, e Lisa Su, CEO da Advanced Micro Devices, testemunham durante a audiência do Comitê de Comércio, Ciência e Transporte do Senado dos EUA, intitulada “Vencendo a Corrida da IA: Fortalecendo as Capacidades dos EUA em Computação e Inovação”, no Edifício Hart na quinta-feira, 8 de maio de 2025.
Tom Williams | CQ-Roll Call, Inc. | Getty Images
Na uma entrevista abrangente realizada na semana passada, o CEO da OpenAI, Sam Altman, abordou uma ampla gama de questões morais e éticas relacionadas à sua empresa e ao popular modelo de IA ChatGPT.
“Olha, eu não durmo muito bem à noite. Há muitas coisas com as quais sinto um grande peso, mas provavelmente nada mais do que o fato de que todo dia, centenas de milhões de pessoas interagem com o nosso modelo”, afirmou Altman ao ex-apresentador da Fox News, Tucker Carlson, em uma entrevista que durou quase uma hora.
“Na verdade, não me preocupo tanto com a possibilidade de cometermos os grandes erros morais”, disse Altman, embora tenha admitido que “talvez possamos errar nesses aspectos também.”
Pelo contrário, ele revelou que perde mais sono com as “decisões muito pequenas” em relação ao comportamento do modelo, que podem resultar em grandes repercussões.
Essas decisões costumam girar em torno da ética que orienta o ChatGPT, e quais perguntas o chatbot deve ou não responder. A seguir, uma descrição de alguns desses dilemas morais e éticos que parecem manter Altman acordado à noite.
Como o ChatGPT aborda a questão do suicídio?
Segundo Altman, a questão mais difícil com a qual a empresa está lidando recentemente é a forma como o ChatGPT aborda o suicídio, em decorrência de um processo judicial movido por uma família que responsabilizou o chatbot pela morte do seu filho adolescente.
O CEO mencionou que, entre os milhares de pessoas que cometem suicídio a cada semana, muitas delas poderiam ter conversado com o ChatGPT antes do evento.
“É provável que tenham falado sobre [suicídio], e provavelmente não conseguimos salvar suas vidas”, disse Altman de maneira franca. “Talvez pudéssemos ter dito algo melhor. Talvez pudéssemos ter sido mais proativos. Talvez pudéssemos ter fornecido conselhos um pouco melhores sobre a necessidade de buscar ajuda.”

No mês passado, os pais de Adam Raine moveram uma ação por responsabilidade civil e morte culposa contra a OpenAI após o suicídio do filho, que tinha apenas 16 anos. Na ação, a família alegou que “o ChatGPT ajudou ativamente Adam a explorar métodos de suicídio.”
Logo em seguida, em um post de blog intitulado “Ajudando as pessoas quando elas mais precisam,” a OpenAI detalhou planos para abordar as deficiências do ChatGPT ao lidar com “situações sensíveis,” afirmando que continuará a melhorar sua tecnologia para proteger pessoas que estão em situações de vulnerabilidade.
Como são determinadas as éticas do ChatGPT?
Outro tópico importante abordado na entrevista foi a ética e os princípios morais que informam o ChatGPT e seus responsáveis.
Enquanto Altman descreveu o modelo base do ChatGPT como treinado na experiência coletiva, no conhecimento e nos aprendizados da humanidade, ele afirmou que a OpenAI deve, então, alinhar certos comportamentos do chatbot e decidir quais perguntas ele não deve responder.
“Esse é um problema muito difícil. Temos muitos usuários agora, e eles vêm de perspectivas de vida muito diferentes… Mas, em geral, fiquei agradavelmente surpreso com a capacidade do modelo de aprender e aplicar uma estrutura moral.”
Quando questionado sobre como certas especificações do modelo são decididas, Altman disse que a empresa consultou “centenas de filósofos morais e pessoas que pensam sobre a ética da tecnologia e dos sistemas.”
Um exemplo que ele deu sobre uma especificação do modelo foi que o ChatGPT evitará responder perguntas sobre como fabricar armas biológicas se solicitado pelos usuários.
“Existem exemplos claros de onde a sociedade tem um interesse que está em significativa tensão com a liberdade do usuário”, disse Altman, embora tenha acrescentado que a empresa “não acertará tudo, e também precisa do input do mundo” para ajudar a tomar essas decisões.
Qual é o nível de privacidade do ChatGPT?
Outro grande assunto de discussão foi o conceito de privacidade do usuário em relação aos chatbots, com Carlson argumentando que a IA generativa poderia ser utilizada para “controle totalitário.”
Em resposta, Altman mencionou que uma parte da política que ele tem defendido em Washington é o “privilégio de IA,” que se refere à ideia de que tudo o que um usuário diz a um chatbot deve ser completamente confidencial.
“Quando você conversa com um médico sobre sua saúde ou com um advogado sobre seus problemas legais, o governo não pode obter essas informações, certo?… Eu acredito que devemos ter o mesmo conceito para a IA.”
Segundo Altman, isso permitiria que os usuários consultassem chatbots de IA sobre seu histórico médico e problemas legais, entre outras questões. Atualmente, os oficiais dos EUA podem emitir intimações para a empresa em busca de dados dos usuários, acrescentou.
“Acredito que sou otimista quanto à possibilidade de convencermos o governo da importância disso,” disse.
O ChatGPT será utilizado em operações militares?
Quando questionado por Carlson se o ChatGPT seria usado pelo exército para causar danos a humanos, Altman não forneceu uma resposta direta.
“Não sei como as pessoas no exército usam o ChatGPT atualmente… mas suspeito que muitas pessoas no exército estão conversando com o ChatGPT em busca de conselhos.”
Mais tarde, ele acrescentou que não tinha certeza “exatamente de como se sentir sobre isso.”
A OpenAI foi uma das empresas de IA que recebeu um contrato de US$ 200 milhões do Departamento de Defesa dos EUA para aplicar a IA generativa no trabalho do exército. A empresa afirmou, em um post no blog, que proporcionaria ao governo dos EUA acesso a modelos de IA personalizados para segurança nacional, suporte e informações sobre o roteiro de produtos.
Quão poderosa é a OpenAI?
Carlson, em sua entrevista, previu que, na trajetória atual, a IA generativa e, por extensão, Sam Altman poderiam acumular mais poder do que qualquer outra pessoa, chegando a chamar o ChatGPT de uma “religião.”
Em resposta, Altman afirmou que costumava se preocupar muito com a concentração de poder que poderia resultar da IA generativa, mas agora acredita que a IA resultará em “uma grande elevação” para todas as pessoas.
“O que está acontecendo agora é que muitas pessoas usam o ChatGPT e outros chatbots, e todos eles estão se tornando mais capazes. Eles estão fazendo mais coisas. Eles são capazes de alcançar mais, iniciar novos negócios, criar novos conhecimentos, e isso parece bastante positivo.”
No entanto, o CEO disse que acredita que a IA eliminará muitos empregos que existem hoje, especialmente no curto prazo.

