Worased Boontipchayakun | Istock | Getty Images
Pedido para Suspensão do Desenvolvimento da Superinteligência
Um grupo de figuras proeminentes, incluindo especialistas em inteligência artificial e tecnologia, lançou um apelo para que sejam interrompidos os esforços destinados à criação de uma ‘superinteligência’ — uma forma de IA que superaria os seres humanos em praticamente todas as tarefas cognitivas.
Mais de 850 pessoas, entre as quais estão líderes do setor tecnológico como Richard Branson, fundador do Virgin Group, e Steve Wozniak, cofundador da Apple, assinaram uma declaração publicada na quarta-feira, solicitando uma pausa no desenvolvimento da superinteligência.
A lista de signatários é composta, de forma notável, por pioneiros reconhecidos na área de IA, incluindo os cientistas da computação Yoshua Bengio e Geoff Hinton, que são amplamente considerados como os “padrinhos” da inteligência artificial moderna. Pesquisadores líderes, como Stuart Russell, da Universidade da Califórnia em Berkeley, também assinaram o documento.
A expressão “superinteligência” tornou-se um termo em voga no mundo da IA, à medida que empresas como a xAI, de Elon Musk, e a OpenAI, de Sam Altman, competem para lançar modelos de linguagem grandes e mais avançados. A Meta, por sua vez, chegou a nomear sua divisão de modelos de linguagem como ‘Meta Superintelligence Labs.’
No entanto, os signatários da recente declaração alertam que as perspectivas em torno da superinteligência levantam preocupações que vão desde a obsolescência econômica e desempoderamento humano, perda de liberdade, direitos civis, dignidade e controle, até riscos à segurança nacional e, em última instância, a possibilidade de extinção humana.
A declaração pede um bloqueio no desenvolvimento da superinteligência até que haja um forte apoio público para a tecnologia e um consenso científico de que ela pode ser construída e controlada de maneira segura.
Além de figuras da área de IA e tecnologia, a lista de signatários abrange uma coalizão diversificada, incluindo acadêmicos, personalidades da mídia, líderes religiosos e um grupo bicameral de ex-políticos e autoridades dos Estados Unidos.
Entre os ex-oficiais que subscreveram estão o ex-presidente do Estado-Maior Conjunto, Mike Mullen, e a ex-conselheira de Segurança Nacional, Susan Rice.
Ao mesmo tempo, Steve Bannon e Glenn Beck — aliados midiáticos influentes do ex-presidente dos EUA, Donald Trump — também figuram proeminentemente na lista.
Outros signatários de destaque incluem membros da família real britânica, como o príncipe Harry e sua esposa, Meghan Markle, assim como a ex-presidente da Irlanda, Mary Robinson. Até quarta-feira, a lista ainda continuava a crescer.
Divisões no Debate sobre a Inteligência Artificial
Tem havido uma crescente divisão no espaço da tecnologia entre aqueles que veem a IA como uma força poderosa para o bem, justificando o desenvolvimento irrestrito, e aqueles que acreditam que é perigosa e necessita de mais regulamentação.
No entanto, conforme destacado no site da ‘Declaração sobre Superinteligência’, até mesmo os líderes das principais empresas de inteligência artificial do mundo, como Musk e Altman, já alertaram, no passado, sobre os perigos da superinteligência.
Antes de se tornar CEO da OpenAI, Altman escreveu, em um blog de 2015, que “o desenvolvimento da inteligência de máquina super-humana (SMI) é provavelmente a maior ameaça à continuidade da existência da humanidade.”
Durante um podcast no início deste ano, Elon Musk afirmou que havia “apenas 20% de chance de aniquilação” ao discutir os riscos de uma inteligência artificial avançada que supera a inteligência humana.
A ‘Declaração sobre Superinteligência’ citou uma pesquisa recente do Future of Life Institute, que mostrou que apenas 5% dos adultos nos EUA apoiam “o status quo do desenvolvimento rápido e não regulamentado” da superinteligência.
A pesquisa, realizada com 2.000 adultos americanos, também revelou que a maioria acredita que “a IA super-humana” não deve ser criada até que se prove sua segurança ou controlabilidade e deseja uma regulamentação robusta sobre a IA avançada.
Em uma declaração apresentada no site, o cientista da computação Bengio afirmou que sistemas de IA poderiam superar a maioria das pessoas na maioria das tarefas cognitivas dentro de poucos anos. Ele acrescentou que, embora tais avanços possam ajudar a resolver desafios globais, eles também comportam riscos significativos.
“Para avançar com segurança em direção à superinteligência, devemos determinar cientificamente como projetar sistemas de IA que sejam fundamentalmente incapazes de prejudicar pessoas, seja por meio de desalinhamento ou uso malicioso”, disse ele.
“Precisamos também garantir que o público tenha uma voz muito mais forte nas decisões que moldarão nosso futuro coletivo.”
Fonte: www.cnbc.com