Logo O POVO+
Por que acadêmicos, políticos e empresários como Elon Musk temem a inteligência artificial
Politica

Por que acadêmicos, políticos e empresários como Elon Musk temem a inteligência artificial

Grupo que inclui acadêmicos e empresários do setor tecnológico pede suspensão dos treinos de sistemas de IA mais potentes que o ChatGPT 4, alertando para "grandes riscos para humanidade"
Edição Impressa
Tipo Notícia Por
É preciso verificar as informações fornecidas pelo ChatGPT (Foto: AdobeStock)
Foto: AdobeStock É preciso verificar as informações fornecidas pelo ChatGPT

Grupo de políticos, especialistas, acadêmicos e empresários do setor tecnológico, incluindo o bilionários celebridade Elon Musk, pede a suspensão por seis meses dos experimentos com inteligência artificial (IA) mais potentes que o ChatGPT 4, modelo de OpenAI lançado no último mês. Eles alertam que a tecnologia pode representar "grandes riscos para a humanidade".

Em petição publicada na semana passada no site futureoflife.org, eles pedem prazo, uma moratória de seis meses, até que sejam estabelecidos sistemas de segurança com novas autoridades regulatórias, vigilância de sistemas de IA, técnicas que ajudem a distinguir entre o real e o artificial e instituições capazes de fazer frente às "dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar".

A carta, intitulada "Pause Giant AI Experiments: An Open Letter", não pede a interrupção de todo o desenvolvimento de IA, mas pede às empresas a interromper temporariamente o treinamento de sistemas mais poderosos que o GPT-4, a tecnologia lançada no último mês de março pela OpenAI, startup apoiada pela Microsoft Corp. Isso inclui a próxima geração da tecnologia OpenAI, GPT-5.

Existem temores de que a humanidade estaria próxima da "singularidade" (nome dado ao fenômeno que descreve o suposto despertar da consciência das máquinas), algo refutado por especialistas na área.

Desde que o ChatGPT foi lançado, no último mês de novembro, os possíveis riscos da tecnologia passaram a ser debatidos com intensidade em todo o mundo — especialistas preveem uma grande desestabilização do mercado de trabalho, incluindo ocupações de nível superior.

Há duas semanas, pesquisadores da Microsoft publicaram estudo que afirma que o GPT-4, novo "cérebro" do ChatGPT, dá sinais de apresentar "capacidade humana". As afirmações foram refutadas por diferentes nomes da área, incluindo Gary Marcus, professor da Universidade de Nova York.

Há também temores sobre a sofisticação na criação de fake news — recentemente, uma imagem do papa Francisco gerada por IA viralizou nas redes sociais e levantou dúvidas sobre a veracidade.

Sam Altman, CEO da OpenAI, startup criadora do ChatGPT, reconheceu ter "um pouco de medo" de que a criação seja usada para "desinformação em grande escala ou ataques cibernéticos".

Petição

A petição divulgada na semana passada tem mais de mil assinaturas. O bilionário Elon Musk, dono do Twitter e fundador da SpaceX e da Tesla, é o nome que mais chama atenção. A carta é coordenada pela organização sem fins lucrativos Future of Life Institute, que lista Musk como consultor externo. Também assinam a carta pessoas ligadas a gigantes da tecnologia, como o cofundador da Apple Steve Wozniak, o diretor da Stability AI, Emad Mostaque, o historiador Yuval Noah Hariri, membros do laboratório de IA DeepMind da Google, assim como especialistas e acadêmicos americanos de IA e engenheiros executivos da Microsoft, empresa aliada da OpenAI.

Apesar das boas intenções, a carta deve ter poucos efeitos práticos para frear o desenvolvimento da tecnologia. "Pegue a história do desenvolvimento das armas nucleares e veja se houve pausa. Todas as grandes nações e empresas vão desenvolver porque dá lucro e competitividade. E há o medo de que se ele não desenvolver o concorrente ou país inimigo vai", diz Reinaldo Bianchi, professor do Centro Universitário da FEI.

A carta, porém, argumenta: "A sociedade já apertou o botão de pausa em outras tecnologias com efeitos potencialmente catastróficos para ela. Podemos fazer o mesmo aqui. Vamos desfrutar um longo verão da IA, não nos precipitar despreparados num outono", diz a carta aberta publicada pela Future of Life Institute.

Argumentos de quem teme a pesquisa em IA 

A carta aberta da Future of Life Institute ao pedir interrupção de seis meses nas pesquisas com inteligência artificial (IA) afirma: "A IA avançada pode representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e gerida com cuidado e recursos". O texto justifica o receio: "Os laboratórios de IA envolveram-se em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas".

Os signatários argumentam que "ninguém – nem mesmo os seus criadores – pode compreender, prever ou controlar de forma confiável" essas mentes digitais. A carta levanta todos os receios e perigos que nos últimos meses têm ecoado em fóruns, artigos e conversas diárias, agora com um tom apocalíptico.

"Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, nos enganar, nos tornar obsoletos e nos substituir? Devemos correr o risco de perder o controle da nossa civilização?", perguntam, antes de concluir que "tais decisões não devem ser relegadas a líderes tecnológicos não eleitos".

Sistema jurídico

Eles pedem que os desenvolvedores trabalhem com legisladores para acelerar um sistema jurídico robusto em torno da IA. Além disso, reafirmam que os poderosos sistemas de IA só devem ser desenvolvidos quando houver certeza de que os seus efeitos são positivos e de que os seus riscos são controláveis.

"Pedimos a todos os laboratórios de IA para que parem imediatamente durante pelo menos seis meses a formação de sistemas de IA mais poderosos do que o GPT-4", diz a declaração, que solicita intervenção governamental para impor tal moratória se as partes envolvidas se recusarem a suspender temporariamente o desenvolvimento.

O diretor da Open AI, que projetou o ChatGPT, Sam Altman, reconheceu ter "um pouco de medo" de que sua criação seja usada para "desinformação em larga escala ou ataques cibernéticos". "A empresa precisa de tempo para se ajustar", disse ele recentemente à ABC News. (Com DW e Agência Estado)

Ala de pesquisadores considera haver "má interpretação" 

A carta pública assinada em defesa da interrupção do desenvolvimento da Inteligência Artificial (IA) provocou um debate entre acadêmicos. Alguns estudiosos protestam contra o que consideram uma má interpretação da discussão.

Timnit Gebru, pesquisadora especializada em ética da Inteligência Artificial, escreveu um artigo acadêmico que foi citado na carta e manifestou insatisfação com o uso que se fez do texto. “Eles basicamente dizem o contrário do que dissemos e citamos em nosso artigo”, critica. A outra autora do artigo, Emily Bender, descreve a carta aberta como uma "confusão".

As acadêmicas Gebru e Bender afirmam, no entanto, que o perigo da IA é "a concentração de poder nas mãos de pessoas, a reprodução de sistemas de opressão, o dano ao ecossistema da informação".

Um dos signatários da carta aberta, Emad Mostaque, fundador da empresa britânica Stability AI, afirmou se retratar da demanda de uma moratória de seis meses. "Não acho que um hiato de seis meses seja a melhor ideia", disse ele no Twitter.

O professor de psicologia Gary Marcus, signatário da carta, considera em uma contrarresposta que "os céticos devem emitir um alarme; não há contradição a esse respeito".

Onde surge a polêmica

Embora gigantes da indústria como Google, Meta e Microsoft tenham passado anos pesquisando programas baseados em inteligência artificial (IA) para acelerar tarefas como tradução, ou publicidade direcionada, foram os algoritmos de empresas como a OpenAI que causaram controvérsia.

O robô conversacional ChatGPT, capaz de realizar conversas complexas com humanos, acaba de ser atualizado com uma nova versão, GPT-4, ainda mais potente.

"Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e mentiras? Devemos automatizar todos os trabalhos, incluindo os gratificantes? (...) Devemos nos arriscar a perder o controle da nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos", dizem os signatários da carta.

"Cenário apocalíptico é possibilidade remota, mas não descartada", reconhece ChatGPT

No centro da polêmica, quais as manifestações do ChatGPT sobre o assunto? O POVO fez algumas perguntas ao modelo de linguagem da OpenAI, empresa parceira da Microsoft.

O POVO - A IA pode representar perigo?

ChatGPT - A IA pode representar riscos e desafios significativos em várias áreas, especialmente quando é usada sem controle ou ética adequados. Alguns dos riscos potenciais incluem a possibilidade de vieses e discriminação serem incorporados nos algoritmos de IA, o que pode levar a decisões injustas ou prejudiciais para determinados grupos de pessoas. Além disso, existe o risco de que a IA possa ser mal utilizada para fins nefastos, como ataques cibernéticos ou ações maliciosas de hackers. No entanto, com a implementação responsável e ética da IA, seus benefícios podem ser significativos, como a melhoria da eficiência em vários setores, a solução de problemas complexos e a promoção do progresso científico.

OP - Situações como a do filme Exterminador do Futuro pode se tratar de um futuro possível?

ChatGPT - O cenário apocalíptico apresentado em filmes como o Exterminador do Futuro é uma possibilidade remota, mas não deve ser descartado completamente. É importante lembrar que a inteligência artificial é desenvolvida e programada por humanos, e que suas ações são determinadas pelos dados que são alimentados para ela. Portanto, é crucial que os programadores e desenvolvedores de IA sejam éticos e responsáveis em suas práticas, para evitar que a tecnologia seja usada de forma prejudicial. Além disso, é importante que haja regulação e governança eficazes para garantir que a IA seja usada para o bem da sociedade e do meio ambiente.

OP - Você acha mais seguro suspender as pesquisas com IA mais avançada?

ChatGPT - Como modelo de linguagem, não possuo opiniões pessoais, mas posso informá-lo de que suspender pesquisas em IA mais avançada pode ter algumas implicações. Por um lado, isso pode limitar o progresso científico e tecnológico e impedir o desenvolvimento de soluções benéficas que possam ajudar a resolver muitos dos desafios globais que enfrentamos atualmente. Por outro lado, é importante considerar e gerenciar cuidadosamente os riscos potenciais da IA avançada e garantir que sejam adotadas medidas adequadas de segurança e ética para evitar impactos negativos. O debate sobre a regulamentação e o uso da IA avançada continua em andamento e é importante continuar discutindo essas questões para encontrar o equilíbrio certo entre o progresso e a segurança.

OP - Se você constatasse a necessidade de interromper pesquisas em, IA, você diria?

ChatGPT - Como uma inteligência artificial, não sou capaz de tomar decisões éticas ou de segurança com relação às pesquisas em inteligência artificial. Essas são questões complexas que exigem análise e avaliação cuidadosas de especialistas em ética, segurança, tecnologia e outras áreas relevantes. (...)

O que você achou desse conteúdo?