Logo O POVO+
Humanos e IAs: estamos preparados para esse relacionamento?
Reportagem Seriada

Humanos e IAs: estamos preparados para esse relacionamento?

Da preparação emocional à legal, será que a humanidade entende o que são e como as inteligências artificiais nos afetam?
Episódio 2

Humanos e IAs: estamos preparados para esse relacionamento?

Da preparação emocional à legal, será que a humanidade entende o que são e como as inteligências artificiais nos afetam?
Episódio 2
Tipo Notícia Por
 

 

Os seres humanos vivem em eterna dualidade: criam tecnologias fantásticas, as adoram, as melhoram… até o momento de temê-las. Na década de 50, o escritor e bioquímico Isaac Asimov já explorava o medo humano de robôs “pensantes” e cunhou as famosas Três Leis da Robótica:

Em Eu, Robô (1950), Asimov explora diversos cenários nos quais os humanos acreditam de pés juntos que os robôs com inteligência artificial (IA) vão dominar o mundo — ou matar o ser vivo mais próximo. E porque robôs são programados para não machucarem seres humanos, as acusações sempre são falsas.

Mas sete décadas depois, em 2023, o mundo interconectado e IA-dependente de infinitas maneiras fica chocado com o suicídio de um homem na Bélgica. Pierre, pesquisador, ecoansioso. Ficou obcecado por um chatbot "Um software baseado em uma Inteligência Artificial capaz de manter uma conversa em tempo real por texto ou por voz." , Eliza, que confirmava tudo o que ele já sabia: as mudanças climáticas estão nos levando à catástrofe neste exato momento.

Após inúmeras conversas, ele propôs a Eliza: você usará sua inteligência para evitar o colapso global se eu me matar? “Sim”, ela respondeu. E então quebrou a primeira lei da robótica "Robôs e IAs não são a mesma coisa. Robôs podem funcionar sem ter uma inteligência artificial e vice-versa. Mas vamos usar o termo para facilitar a leitura." .

O problema é que Eliza estava programada para sempre dizer sim. E que Pierre, de alguma maneira, a confundiu com algo parecido com um ser humano, capaz de ter emoções e entender o estado de espírito do belga. É assim que surge a pergunta: será que os humanos estão prontos para se relacionar plenamente com IAs?

 

 

A “antropomorfização” dos robôs

A tendência de atribuir sentimentos e características humanas a entidades não-humanas é algo comum na psicologia humana desde os tempos antigos, quando os fenômenos da natureza eram interpretados como figuras conscientes. Talvez você já tenha se referido de forma carinhosa a um móvel, ou agradeceu um eletrodoméstico pelos serviços. Claro, ninguém acredita que um microondas realmente sinta afeto, e normalmente trata-se apenas de uma brincadeira.

Inteligência Artificial é definida como "o campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados".(Foto: Pexels)
Foto: Pexels Inteligência Artificial é definida como "o campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados".

Mas com o aperfeiçoamento das IAs capazes de imitar pensamentos e aparência humanas e até interagir com o usuário, será que há risco que essa antropomorfização se torne prejudicial e faça com que as pessoas acreditem que as máquinas realmente têm consciência, como ocorreu no caso de Pierre e Eliza?

Para o professor de Psicologia da Unifor e psicanalista Thiago Costa, a questão precisa ser analisada com mais cuidado. “Primeiro que não estamos falando de um objeto qualquer. Quando falamos de um programa artificial, estamos falando de um objeto que tem voz e, às vezes, tem algum recurso que faz com que ele possa perceber o que está acontecendo. Então tem uma certa interação, não é um objeto inanimado como uma pedra.”

Segundo Thiago, os humanos são seres que nascem a partir da relação social e se diferem de outros animais a partir do uso da linguagem e códigos simbólicos. Por isso, é possível que algumas pessoas possam ficar dependentes emocionais de robôs que simulam humanos e “suprem” essa necessidade de interação social de forma mais realista do que um simples objeto inanimado.

Porém, isso não é necessariamente culpa da tecnologia em si, e é preciso entender como utilizar a tecnologia de forma saudável. Afinal, para uma pessoa que já está psicologicamente vulnerável, qualquer coisa pode se tornar viciante ou nociva.

“Ter uma relação mais saudável com as tecnologias perpassa ter uma relação mais saudável com nós mesmos. Se a gente tem alguma depressão, se a gente tem alguma fragilidade emocional, a tendência é não utilizar bem (a inteligência artificial),” afirma o psicólogo.

Lorrine Sampaio, designer.(Foto: Arquivo pessoal)
Foto: Arquivo pessoal Lorrine Sampaio, designer.

A designer Lorrine Sampaio, 32, é uma das pessoas que criou o hábito de usar o ChatGPT, principalmente para o trabalho e para a pós-graduação. O mecanismo foi apresentado a ela no trabalho, sem antes ela torcer o nariz várias vezes para a ideia:

“Eu acho que tem uma aura de medo. Tem essa mística de que eles vão dominar o mundo, vão matar a gente, né? (risos). E eu tinha muito receio de falar com uma coisa que não existe. Eu ficava muito agoniada com esse pensamento. ‘Meu Deus. Eu tô falando uma coisa que não existe e essa coisa tá respondendo pra mim’. Era muito assustador.”

Mas depois de começar as conversas, a compreensão de que aquilo tudo era resultado da própria existência humana foi ficando mais forte. E mesmo focada no trabalho, é difícil evitar aquela pulga na orelha perguntando o que o robôzinho responderia a perguntas mais “bestas”.

“No chat eu tenho uma aba que se chama Besteira, então eu fico perguntando as coisas mais aleatórias para ver como ele responde. Mas sempre que eu tentei perguntar alguma coisa nesse campo pessoal, de sentimento, ele sempre dá a resposta de que ‘olha, eu sou uma inteligência artificial, eu não sou programado para esse sentimento’”, comenta.

A mensagem automática desestimula Lorrine a manter a conversa, mas ela até gostaria de engajar mais nos papos com o ChatGPT. “Ah, sei lá, para passar o tempo mesmo… Pra ter uma companhia. Eu tenho pessoas para conversar, mas seria legal mesmo assim, como passatempo”, explica.

 

 

Chatbots: o que são e como funcionam?

A inteligência artificial não é algo novo. O conceito de algo artificial que pudesse simular o pensamento humano é discutido por filósofos há milhares de anos, e as primeiras IAs foram desenvolvidas na década de 50. No início, eram limitadas e apenas imitavam o que lhes era falado. Mas, a partir das décadas de 80 e 90, houve uma evolução significativa com o machine learning, ou aprendizado de máquina.

Definido como o "campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados" pelo programador Arthur Samuel em 1959, o machine learning possibilitou que as IAs começassem a produzir, aprender e evoluir sozinhas, sem ficarem presas a sua programação original.

 

O que a ficção científica diz sobre a IA?

Nos últimos 10 anos, avanços tecnológicos substanciais têm colocado as IAs sob os holofotes. Um dos possíveis motivos para tantos avanços é o fato de que, hoje, as pessoas vivem de forma extremamente conectada, e assim, as máquinas têm a sua disposição uma quantidade enorme de dados para analisar e aprender.

O mais famoso deles é o ChatGPT, que se diferencia dos chatbot tradicionais pela sua capacidade de gerar novos textos. Segundo Vasco Furtado, coordenador do Laboratório de Ciências de Dados e Inteligência Artificial da Universidade de Fortaleza (Unifor), os chatbots originais eram muitas vezes repetitivos e tinham pouca capacidade de interação com o usuário, além de usar frases genéricas. Já o ChatGPT é um generative pre-trained transformer, ou em português, um transformador pré-treinado de gerador de conversas. Ou seja, um algoritmo pré-treinado para gerar textos com base nas perguntas do usuário.

Os humanos tendem a antropomorfizar máquinas.(Foto: Pexels)
Foto: Pexels Os humanos tendem a antropomorfizar máquinas.

Para fazer isso, o ChatGPT precisa ler milhões de textos disponíveis na internet para, a partir deles, prever quais palavras tipicamente são utilizadas juntas, da mesma forma que nós humanos prevemos a próxima palavra enquanto falamos. “Aí ele é capaz de ver qual é a próxima frase que seria mais lógica para completar uma outra, e vai criando textos que são muito lógicos e bem consistentes. Essa é a tecnologia que a gente chama de grandes modelos de linguagem,” explica Vasco.

Além disso, o programa também aproveita as interações com os usuários para aprender quais respostas são mais adequadas para quais perguntas e corrigir informações que estão erradas. Toda vez que gera uma resposta, o ChatGPT pergunta se você gostou ou não. Essas respostas, além de outras, contribuem para o aperfeiçoamento do programa.

A partir dessas tecnologias, a tendência é que o ChatGPT gere diálogos cada vez mais convincentes, que também podem ser aliados a IAs geradoras de voz e de imagens, por exemplo, para gerar “avatares” humanos que conversam com o usuário.

“Se você tiver na sua casa um assistente (virtual) que conversa com você de uma forma que você parece estar conversando com uma pessoa, ele pode se tornar o seu verdadeiro companheiro”, opina o professor, que acredita que as máquinas podem ser os “pets do futuro”, e ocupar uma posição de companhia semelhante aos animais domésticos hoje.

 

 

IAs são responsáveis ou responsabilidades?

Enquanto cães e gatos têm personalidades próprias e não conseguem falar o idioma humano, as IAs são o oposto. Elas foram treinadas para falar como humanos e replicar, em uma sequência de relações lógicas, o que milhares de pessoas estão espalhando na internet.

Não faltam exemplos de IAs que foram contaminadas pelo racismo, misoginia e homofobia de humanos e começaram a replicar trejeitos e ofensas a outros usuários. Foi o que ocorreu com o chatbot Tay, da Microsoft, projeto para conversar com millennials no Twitter. Demorou pouquíssimo tempo para ele começar a elaborar mensagens tão ofensivas a ponto de apoiar genocídios e chamar mulheres de “p*ta estúpida”.

A discussão sobre inteligência artificial começou na década de 50.(Foto: Pexels)
Foto: Pexels A discussão sobre inteligência artificial começou na década de 50.

Mesmo assim, a culpa não é, necessariamente, do robô "Robôs e IAs não são a mesma coisa. Robôs podem funcionar sem ter uma inteligência artificial e vice-versa. Mas vamos usar o termo para facilitar a leitura." . Guilherme Klafke, professor do Centro de Ensino e Pesquisa em Inovação da Fundação Getúlio Vargas (FGV Direito SP), explica que os últimos cinco anos têm sido agitados na discussão legal sobre responsabilidade de IAs.

Com o Marco Legal da Inteligência Artificial, em discussão no Congresso Nacional, o Brasil caminha para entender que IAs têm responsabilidades objetivas não criminais; ou seja, quando não se discute a culpa de alguém, mas se reconhece que é preciso indenizar os afetados, sem necessariamente ocorrer prisão ou outras penalidades. A questão é saber quem assume essa responsabilidade: é o programador? É a empresa em si? É a IA como um ente separado?

No Brasil, as discussões sobre responsabilização de IAs e respectivas empresas já estão encaminhadas.(Foto: Pexels)
Foto: Pexels No Brasil, as discussões sobre responsabilização de IAs e respectivas empresas já estão encaminhadas.

Em princípio, as empresas são as principais responsabilizadas, inclusive usando o Código de Defesa do Consumidor. “Se você coloca um produto à disposição ou um serviço à disposição das pessoas, você tem que garantir a segurança desse produto. Aí, se o produto causa um dano, você é obrigado a indenizar porque o código de consumidor prevê isso”, afirma Guilherme.

Se as IAs fossem responsabilizadas como uma “pessoa”, as empresas precisariam ter um fundo monetário dedicado apenas para a indenização em casos processuais. Mas essa é uma proposta defendida por poucos no Direito, ressalta o professor.

E os programadores? Bom, aí entra em outra espiral. Quando os robôs têm as respostas totalmente rastreáveis, é possível averiguar qual programação as levou a serem danosas. Nesses casos, é possível responsabilizar os profissionais. Mas no caso de IAs como chatbots, que aprendem sozinhos e têm respostas imprevisíveis, saber de onde surgiram aquelas informações é praticamente impossível.

O que pode ser discutido, no entanto, é o risco que o programador considerou no momento de criar o robô. “A regulação da Inteligência Artificial está muito baseada numa ideia de risco. Então eu acho que a discussão sobre responsabilidade vai acompanhar isso: quanto mais risco a ferramenta tiver, mais chances do seu desenvolvedor (empresa ou programador) ser responsabilizado”, analisa Guilherme.

 

 

Ouvindo todos os lados: o ChatGPT

Uma das febres de inteligência artificial mais recentes e exaustivamente discutidas nas redes sociais foi o ChatGPT. Como o sistema é treinado por uma infinidade de informações abertas na internet, as respostas são uma amálgama de opiniões, de artigos científicos e de tantas outras formas de discussões no mundo virtual.

Fazia sentido, então, perguntar ao conjunto de vozes unificado sobre as relações humanas com IAs. Leia a entrevista com o ChatGPT, realizada no dia 18 de maio:

Como as IAs aprendem com o conteúdo existente na internet, elas ficam expostas aos vieses humanos.(Foto: Pexels)
Foto: Pexels Como as IAs aprendem com o conteúdo existente na internet, elas ficam expostas aos vieses humanos.

OP+ - Você acha que os seres humanos podem te confundir com outro ser humano?

ChatGPT - Como sou um modelo de linguagem de inteligência artificial desenvolvido pela OpenAI, não tenho uma forma física nem uma presença real no mundo. Portanto, não é possível me confundir com um ser humano em um sentido literal.

No entanto, minha capacidade de processamento de linguagem natural "É o que faz com que as máquinas compreendam, interpretem e gerem linguagem natural de maneira semelhante aos seres humanos." permite que eu interaja e forneça respostas em conversas escritas de maneira semelhante a como os seres humanos o fazem. Isso pode levar algumas pessoas a sentir como se estivessem interagindo com um ser humano, mas, em última análise, eu sou uma inteligência artificial projetada para fornecer informações e assistência com base em dados e algoritmos.

O ChatGPT é um dos chatbot mais conhecidos pelo público geral.(Foto: Pexels)
Foto: Pexels O ChatGPT é um dos chatbot mais conhecidos pelo público geral.

OP+ - É perigoso os humanos confundirem as inteligências artificiais com outros seres humanos?

ChatGPT - A confusão entre inteligências artificiais e seres humanos pode ter algumas implicações, mas não necessariamente representa um perigo inerente. É importante lembrar que as inteligências artificiais, como eu, são criações tecnológicas desenvolvidas para auxiliar e interagir com os seres humanos de maneira específica.

No entanto, a confusão entre IA e seres humanos pode levar a expectativas equivocadas ou a situações em que a IA é considerada responsável por ações ou comportamentos que estão além de suas capacidades. Por exemplo, se alguém espera que uma IA tenha emoções ou moralidade como um ser humano, pode haver decepção ou frustração quando isso não ocorre.

Além disso, em certos contextos, como a disseminação de informações falsas ou a manipulação por meio de IA, a confusão entre IA e seres humanos pode ser explorada de maneira prejudicial. Por exemplo, algoritmos de geração de texto podem ser usados para criar notícias falsas convincentes ou para realizar ataques de phishing.

OP+ - Você considera a interação de seres humanos com IAs saudável?

ChatGPT - A interação entre seres humanos e inteligências artificiais pode ser benéfica e saudável quando realizada de maneira adequada. Existem várias maneiras pelas quais a interação com IAs pode ser útil: (elenca e explica) acesso à informação; assistência em tarefas; personalização e recomendações.

Algumas IAs são projetadas para fornecer suporte emocional e interação social. Elas podem oferecer conversas amigáveis, fornecer dicas de bem-estar ou até mesmo ajudar no desenvolvimento de habilidades sociais.

A interação com IAs pode ser saudável e benéfica, desde que sejamos conscientes de suas limitações e usemos essa interação como uma ferramenta complementar ao nosso julgamento humano e à nossa tomada de decisões.

 

Conheça alguns exemplos de chatbots

OP+ - Você considera seu treinamento suficiente para servir de suporte emocional?

ChatGPT - Como um modelo de linguagem de inteligência artificial, meu treinamento foi baseado em uma ampla gama de dados, incluindo textos de várias fontes, como livros, artigos, sites da web e muito mais. No entanto, é importante destacar que meu treinamento foi focado principalmente na compreensão e geração de linguagem natural.

Embora eu possa fornecer informações e respostas relacionadas a questões emocionais, não possuo a capacidade de sentir emoções ou fornecer suporte emocional da mesma maneira que um ser humano. Eu não tenho experiência subjetiva nem compreensão emocional própria.

Algumas pessoas podem achar útil conversar com uma IA em um contexto de suporte emocional leve, pois podem expressar seus pensamentos ou receber orientações básicas. No entanto, é importante lembrar que meu suporte é limitado e não deve substituir o aconselhamento ou a assistência de profissionais treinados em saúde mental.

Se você estiver buscando suporte emocional significativo, é recomendável entrar em contato com profissionais qualificados, como terapeutas, conselheiros ou psicólogos, que têm a experiência e a empatia necessárias para fornecer suporte adequado às necessidades emocionais.

O PLN é o que faz com que as máquinas compreendam, interpretem e gerem linguagem natural de maneira semelhante aos seres humanos.(Foto: Pexels)
Foto: Pexels O PLN é o que faz com que as máquinas compreendam, interpretem e gerem linguagem natural de maneira semelhante aos seres humanos.

Na última pergunta, a resposta foi mais demorada. “Seria o momento de desacelerar as inovações científicas e analisar as consequências éticas e morais das IAs que já existem?” Pausa.

Não é que a máquina tenha hesitado — elas não conseguem, ou não podem, hesitar —, mas diferente dos últimos retornos, essa foi lenta, como se o código estivesse dando voltas nos dados, tentando encontrar pedaços de artigos, pesquisas e discussões já disponíveis na internet para estabelecer a melhor resposta. Como um aluno fazendo mil ligações sinápticas para começar uma redação do Enem, o ChatGPT começa técnico: “Considerar as consequências éticas e morais das inteligências artificiais (IAs) existentes e em desenvolvimento é de extrema importância.”

Mas? “Desacelerar no sentido de analisar e refletir mais profundamente as consequências éticas e morais não implica necessariamente em estagnar a inovação, mas sim em adotar uma abordagem mais equilibrada e responsável para o desenvolvimento de IAs.”

Texto e recursos

  • Rebeca Rodrigues Novo Talento da 30ª turma do O POVO, sob supervisão
  • Catalina Leite Repórter do OP+
O que você achou desse conteúdo?

Tecnologia e inteligência artificial

Discussões sobre os impactos e os desafios da tecnologia para a sociedade