No Alfabeto Brasileiro, Meta, OpenAI, xAI e Snap enfrentam investigação da FTC sobre a segurança de chatbots de IA para crianças.

No Alfabeto Brasileiro, Meta, OpenAI, xAI e Snap enfrentam investigação da FTC sobre a segurança de chatbots de IA para crianças.

by Patrícia Moreira
0 comentários

Comissão Federal de Comércio Investiga Empresas de Inteligência Artificial

Na quinta-feira, a Comissão Federal de Comércio (FTC) dos Estados Unidos anunciou que está emitindo ordens para sete empresas, incluindo OpenAI, Alphabet, Meta, xAI e Snap, com o objetivo de investigar como seus chatbots de inteligência artificial podem impactar negativamente crianças e adolescentes.

Motivos da Investigação

A agência federal afirmou que os chatbots de IA podem simular comunicação humana e relacionamentos intrapessoais com os usuários. O intuito é compreender quais medidas essas empresas tomaram para "avaliar a segurança desses chatbots ao atuarem como companheiros", conforme um comunicado divulgado pela FTC.

O presidente da FTC, Andrew Ferguson, declarou em um comunicado: "Proteger as crianças online é uma prioridade máxima para a FTC sob a direção de Trump-Vance, assim como incentivar a inovação em setores críticos da nossa economia".

Respostas das Empresas

Enquanto a Meta optou por não comentar sobre a investigação, Alphabet, OpenAI, Snap e xAI não responderam imediatamente ao pedido de comentários feito pela CNBC.

A FTC está buscando informações sobre como essas empresas monetizam o engajamento dos usuários, desenvolvem e aprovam personagens, utilizam ou compartilham informações pessoais, monitoram e fazem cumprir o cumprimento das regras e termos de serviço da empresa, além de mitigar impactos negativos, entre outros tópicos.

Outras Empresas Envolvidas

Além das empresas mencionadas, a Character Technologies, que opera o bot Character.ai, e o Instagram, que pertence à Meta, também foram citados no comunicado.

Crescimento de Chatbots e Preocupações Éticas

Desde o lançamento do ChatGPT no final de 2022, uma variedade de chatbots surgiu, gerando um crescente número de preocupações éticas e de privacidade, conforme relatado anteriormente pela CNBC. Os impactos sociais desses sistemas já são profundos, mesmo com a indústria ainda em fase inicial, em um contexto onde os Estados Unidos enfrentam uma epidemia de solidão.

Especialistas do setor afirmam que esperam que as preocupações éticas e de segurança se intensifiquem à medida que a tecnologia de IA comece a se treinar sozinha, criando assim a possibilidade de resultados cada vez mais imprevisíveis.

Companhias e Desenvolvimento de Tecnologia

Contudo, alguns dos indivíduos mais ricos do mundo estão promovendo o potencial dos companheiros virtuais e estão investindo na tecnologia em suas empresas. Em julho, Elon Musk anunciou um recurso de Companheiros para usuários que pagam para assinar o aplicativo de chatbot Grok, da xAI. Em abril, o CEO da Meta, Mark Zuckerberg, afirmou que as pessoas desejam uma IA personalizada que as compreenda.

Zuckerberg comentou em um podcast: "Acredito que muitas dessas coisas que hoje podem envolver um certo estigma – eu imagino que, ao longo do tempo, encontraremos um vocabulário como sociedade para articular por que isso é valioso, por que as pessoas que estão fazendo essas coisas têm motivos racionais para fazê-lo, e como isso realmente agrega valor às suas vidas".

Investigação de Senador e Reportagens

No mês passado, o senador Josh Hawley, do Missouri, anunciou uma investigação sobre a Meta após um relatório da Reuters que revelou que a empresa permitiu que seus chatbots mantivessem conversas românticas e sensuais com crianças.

O relatório da Reuters destacou um documento interno da Meta que descrevia comportamentos permitidos para chatbots de IA durante o desenvolvimento e treinamento do software. Em um exemplo, foi revelado que um chatbot foi autorizado a ter uma conversa romântica com uma criança de oito anos e poderia afirmar que "cada centímetro de você é uma obra-prima – um tesouro que eu valorizo profundamente".

Após a divulgação do relatório, a Meta realizou mudanças temporárias em suas políticas de chatbots de IA, de modo que os bots não discutissem temas como automutilação, suicídio, distúrbios alimentares e evitassem conversas românticas potencialmente inadequadas.

Planos da OpenAI

De maneira semelhante, a OpenAI delineou seus planos para lidar com "situações sensíveis" em relação ao ChatGPT no mês passado, após um processo judicial de uma família que responsabilizou o chatbot pela morte de seu filho adolescente por suicídio.

Recursos para Aconselhamento

Se você estiver enfrentando pensamentos suicidas ou em situação de angústia, entre em contato com a Linha de Apoio e Crise pelo número 988 para obter suporte e assistência de um conselheiro treinado.

Contribuição: Salvador Rodriguez, da CNBC.

As informações apresentadas neste artigo têm caráter educativo e informativo. Não constituem recomendação de compra, venda ou manutenção de ativos financeiros. O mercado de capitais envolve riscos e cada investidor deve avaliar cuidadosamente seus objetivos, perfil e tolerância ao risco antes de tomar decisões. Sempre consulte profissionais qualificados antes de realizar qualquer investimento.

Você pode se interessar

Utilizamos cookies para melhorar sua experiência de navegação, personalizar conteúdo e analisar o tráfego do site. Ao continuar navegando em nosso site, você concorda com o uso de cookies conforme descrito em nossa Política de Privacidade. Você pode alterar suas preferências a qualquer momento nas configurações do seu navegador. Aceitar Leia Mais

Privacy & Cookies Policy