Os seres humanos vivem em eterna dualidade: criam tecnologias fantásticas, as adoram, as melhoram… até o momento de temê-las. Na década de 50, o escritor e bioquímico Isaac Asimov já explorava o medo humano de robôs “pensantes” e cunhou as famosas Três Leis da Robótica:
Um robô não pode ser feito para permitir que um ser humano sofra algum mal
Robôs precisam obedecer as ordens humanas, exceto quando essas ordens entrarem em conflito com a 1ª lei
Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores
Em Eu, Robô (1950), Asimov explora diversos cenários nos quais os humanos acreditam de pés juntos que os robôs com inteligência artificial (IA) vão dominar o mundo — ou matar o ser vivo mais próximo. E porque robôs são programados para não machucarem seres humanos, as acusações sempre são falsas.
Mas sete décadas depois, em 2023, o mundo interconectado e IA-dependente de infinitas maneiras fica chocado com o suicídio de um homem na Bélgica. Pierre, pesquisador, ecoansioso. Ficou obcecado por um
Após inúmeras conversas, ele propôs a Eliza: você usará sua inteligência para evitar o colapso global se eu me matar? “Sim”, ela respondeu. E então quebrou a primeira lei da
O problema é que Eliza estava programada para sempre dizer sim. E que Pierre, de alguma maneira, a confundiu com algo parecido com um ser humano, capaz de ter emoções e entender o estado de espírito do belga. É assim que surge a pergunta: será que os humanos estão prontos para se relacionar plenamente com IAs?
A tendência de atribuir sentimentos e características humanas a entidades não-humanas é algo comum na psicologia humana desde os tempos antigos, quando os fenômenos da natureza eram interpretados como figuras conscientes. Talvez você já tenha se referido de forma carinhosa a um móvel, ou agradeceu um eletrodoméstico pelos serviços. Claro, ninguém acredita que um microondas realmente sinta afeto, e normalmente trata-se apenas de uma brincadeira.
Mas com o aperfeiçoamento das IAs capazes de imitar pensamentos e aparência humanas e até interagir com o usuário, será que há risco que essa antropomorfização se torne prejudicial e faça com que as pessoas acreditem que as máquinas realmente têm consciência, como ocorreu no caso de Pierre e Eliza?
Para o professor de Psicologia da Unifor e psicanalista Thiago Costa, a questão precisa ser analisada com mais cuidado. “Primeiro que não estamos falando de um objeto qualquer. Quando falamos de um programa artificial, estamos falando de um objeto que tem voz e, às vezes, tem algum recurso que faz com que ele possa perceber o que está acontecendo. Então tem uma certa interação, não é um objeto inanimado como uma pedra.”
Segundo Thiago, os humanos são seres que nascem a partir da relação social e se diferem de outros animais a partir do uso da linguagem e códigos simbólicos. Por isso, é possível que algumas pessoas possam ficar dependentes emocionais de robôs que simulam humanos e “suprem” essa necessidade de interação social de forma mais realista do que um simples objeto inanimado.
Porém, isso não é necessariamente culpa da tecnologia em si, e é preciso entender como utilizar a tecnologia de forma saudável. Afinal, para uma pessoa que já está psicologicamente vulnerável, qualquer coisa pode se tornar viciante ou nociva.
“Ter uma relação mais saudável com as tecnologias perpassa ter uma relação mais saudável com nós mesmos. Se a gente tem alguma depressão, se a gente tem alguma fragilidade emocional, a tendência é não utilizar bem (a inteligência artificial),” afirma o psicólogo.
A designer Lorrine Sampaio, 32, é uma das pessoas que criou o hábito de usar o ChatGPT, principalmente para o trabalho e para a pós-graduação. O mecanismo foi apresentado a ela no trabalho, sem antes ela torcer o nariz várias vezes para a ideia:
“Eu acho que tem uma aura de medo. Tem essa mística de que eles vão dominar o mundo, vão matar a gente, né? (risos). E eu tinha muito receio de falar com uma coisa que não existe. Eu ficava muito agoniada com esse pensamento. ‘Meu Deus. Eu tô falando uma coisa que não existe e essa coisa tá respondendo pra mim’. Era muito assustador.”
Mas depois de começar as conversas, a compreensão de que aquilo tudo era resultado da própria existência humana foi ficando mais forte. E mesmo focada no trabalho, é difícil evitar aquela pulga na orelha perguntando o que o robôzinho responderia a perguntas mais “bestas”.
“No chat eu tenho uma aba que se chama Besteira, então eu fico perguntando as coisas mais aleatórias para ver como ele responde. Mas sempre que eu tentei perguntar alguma coisa nesse campo pessoal, de sentimento, ele sempre dá a resposta de que ‘olha, eu sou uma inteligência artificial, eu não sou programado para esse sentimento’”, comenta.
A mensagem automática desestimula Lorrine a manter a conversa, mas ela até gostaria de engajar mais nos papos com o ChatGPT. “Ah, sei lá, para passar o tempo mesmo… Pra ter uma companhia. Eu tenho pessoas para conversar, mas seria legal mesmo assim, como passatempo”, explica.
A inteligência artificial não é algo novo. O conceito de algo artificial que pudesse simular o pensamento humano é discutido por filósofos há milhares de anos, e as primeiras IAs foram desenvolvidas na década de 50. No início, eram limitadas e apenas imitavam o que lhes era falado. Mas, a partir das décadas de 80 e 90, houve uma evolução significativa com o machine learning, ou aprendizado de máquina.
Definido como o "campo de estudo que dá aos computadores a habilidade de aprender sem serem explicitamente programados" pelo programador Arthur Samuel em 1959, o machine learning possibilitou que as IAs começassem a produzir, aprender e evoluir sozinhas, sem ficarem presas a sua programação original.
Asimov criou as três leis da robótica no livro Eu, Robô e conseguiu sintetizar a complexa relação entre seres humanos e inteligências artificiais que, por mais controladas que sejam, assustam a sociedade com a aparente humanidade inerente a elas.
O filme Ela (Her, em inglês), do diretor Spike Jonze retrata as relações humanas com inteligências artificiais ultrapassando um limite e confundindo-se com amor interpessoal.
Ainda que o conto de 1817 não fale diretamente de IA (o conceito nem existia na época), ele é usado como uma analogia à tendência humana de flutuar entre o real e o artificial/fantasioso, sem conseguir distingui-los.
No jogo, inspirado em clássicos como Blade Runner e Eu, Robô, o jogador é levado a viver na pele de androids que lutam por direitos em uma sociedade que os vê como máquinas descartáveis.
Nos últimos 10 anos, avanços tecnológicos substanciais têm colocado as IAs sob os holofotes. Um dos possíveis motivos para tantos avanços é o fato de que, hoje, as pessoas vivem de forma extremamente conectada, e assim, as máquinas têm a sua disposição uma quantidade enorme de dados para analisar e aprender.
O mais famoso deles é o ChatGPT, que se diferencia dos chatbot tradicionais pela sua capacidade de gerar novos textos. Segundo Vasco Furtado, coordenador do Laboratório de Ciências de Dados e Inteligência Artificial da Universidade de Fortaleza (Unifor), os chatbots originais eram muitas vezes repetitivos e tinham pouca capacidade de interação com o usuário, além de usar frases genéricas. Já o ChatGPT é um generative pre-trained transformer, ou em português, um transformador pré-treinado de gerador de conversas. Ou seja, um algoritmo pré-treinado para gerar textos com base nas perguntas do usuário.
Para fazer isso, o ChatGPT precisa ler milhões de textos disponíveis na internet para, a partir deles, prever quais palavras tipicamente são utilizadas juntas, da mesma forma que nós humanos prevemos a próxima palavra enquanto falamos. “Aí ele é capaz de ver qual é a próxima frase que seria mais lógica para completar uma outra, e vai criando textos que são muito lógicos e bem consistentes. Essa é a tecnologia que a gente chama de grandes modelos de linguagem,” explica Vasco.
Além disso, o programa também aproveita as interações com os usuários para aprender quais respostas são mais adequadas para quais perguntas e corrigir informações que estão erradas. Toda vez que gera uma resposta, o ChatGPT pergunta se você gostou ou não. Essas respostas, além de outras, contribuem para o aperfeiçoamento do programa.
A partir dessas tecnologias, a tendência é que o ChatGPT gere diálogos cada vez mais convincentes, que também podem ser aliados a IAs geradoras de voz e de imagens, por exemplo, para gerar “avatares” humanos que conversam com o usuário.
“Se você tiver na sua casa um assistente (virtual) que conversa com você de uma forma que você parece estar conversando com uma pessoa, ele pode se tornar o seu verdadeiro companheiro”, opina o professor, que acredita que as máquinas podem ser os “pets do futuro”, e ocupar uma posição de companhia semelhante aos animais domésticos hoje.
Enquanto cães e gatos têm personalidades próprias e não conseguem falar o idioma humano, as IAs são o oposto. Elas foram treinadas para falar como humanos e replicar, em uma sequência de relações lógicas, o que milhares de pessoas estão espalhando na internet.
Não faltam exemplos de IAs que foram contaminadas pelo racismo, misoginia e homofobia de humanos e começaram a replicar trejeitos e ofensas a outros usuários. Foi o que ocorreu com o chatbot Tay, da Microsoft, projeto para conversar com millennials no Twitter. Demorou pouquíssimo tempo para ele começar a elaborar mensagens tão ofensivas a ponto de apoiar genocídios e chamar mulheres de “p*ta estúpida”.
Mesmo assim, a culpa não é, necessariamente, do
Com o Marco Legal da Inteligência Artificial, em discussão no Congresso Nacional, o Brasil caminha para entender que IAs têm responsabilidades objetivas não criminais; ou seja, quando não se discute a culpa de alguém, mas se reconhece que é preciso indenizar os afetados, sem necessariamente ocorrer prisão ou outras penalidades. A questão é saber quem assume essa responsabilidade: é o programador? É a empresa em si? É a IA como um ente separado?
Em princípio, as empresas são as principais responsabilizadas, inclusive usando o Código de Defesa do Consumidor. “Se você coloca um produto à disposição ou um serviço à disposição das pessoas, você tem que garantir a segurança desse produto. Aí, se o produto causa um dano, você é obrigado a indenizar porque o código de consumidor prevê isso”, afirma Guilherme.
Se as IAs fossem responsabilizadas como uma “pessoa”, as empresas precisariam ter um fundo monetário dedicado apenas para a indenização em casos processuais. Mas essa é uma proposta defendida por poucos no Direito, ressalta o professor.
E os programadores? Bom, aí entra em outra espiral. Quando os robôs têm as respostas totalmente rastreáveis, é possível averiguar qual programação as levou a serem danosas. Nesses casos, é possível responsabilizar os profissionais. Mas no caso de IAs como chatbots, que aprendem sozinhos e têm respostas imprevisíveis, saber de onde surgiram aquelas informações é praticamente impossível.
O que pode ser discutido, no entanto, é o risco que o programador considerou no momento de criar o robô. “A regulação da Inteligência Artificial está muito baseada numa ideia de risco. Então eu acho que a discussão sobre responsabilidade vai acompanhar isso: quanto mais risco a ferramenta tiver, mais chances do seu desenvolvedor (empresa ou programador) ser responsabilizado”, analisa Guilherme.
Uma das febres de inteligência artificial mais recentes e exaustivamente discutidas nas redes sociais foi o ChatGPT. Como o sistema é treinado por uma infinidade de informações abertas na internet, as respostas são uma amálgama de opiniões, de artigos científicos e de tantas outras formas de discussões no mundo virtual.
Fazia sentido, então, perguntar ao conjunto de vozes unificado sobre as relações humanas com IAs. Leia a entrevista com o ChatGPT, realizada no dia 18 de maio:
OP+ - Você acha que os seres humanos podem te confundir com outro ser humano?
ChatGPT - Como sou um modelo de linguagem de inteligência artificial desenvolvido pela OpenAI, não tenho uma forma física nem uma presença real no mundo. Portanto, não é possível me confundir com um ser humano em um sentido literal.
No entanto, minha capacidade de
OP+ - É perigoso os humanos confundirem as inteligências artificiais com outros seres humanos?
ChatGPT - A confusão entre inteligências artificiais e seres humanos pode ter algumas implicações, mas não necessariamente representa um perigo inerente. É importante lembrar que as inteligências artificiais, como eu, são criações tecnológicas desenvolvidas para auxiliar e interagir com os seres humanos de maneira específica.
No entanto, a confusão entre IA e seres humanos pode levar a expectativas equivocadas ou a situações em que a IA é considerada responsável por ações ou comportamentos que estão além de suas capacidades. Por exemplo, se alguém espera que uma IA tenha emoções ou moralidade como um ser humano, pode haver decepção ou frustração quando isso não ocorre.
Além disso, em certos contextos, como a disseminação de informações falsas ou a manipulação por meio de IA, a confusão entre IA e seres humanos pode ser explorada de maneira prejudicial. Por exemplo, algoritmos de geração de texto podem ser usados para criar notícias falsas convincentes ou para realizar ataques de phishing.
OP+ - Você considera a interação de seres humanos com IAs saudável?
ChatGPT - A interação entre seres humanos e inteligências artificiais pode ser benéfica e saudável quando realizada de maneira adequada. Existem várias maneiras pelas quais a interação com IAs pode ser útil: (elenca e explica) acesso à informação; assistência em tarefas; personalização e recomendações.
Algumas IAs são projetadas para fornecer suporte emocional e interação social. Elas podem oferecer conversas amigáveis, fornecer dicas de bem-estar ou até mesmo ajudar no desenvolvimento de habilidades sociais.
A interação com IAs pode ser saudável e benéfica, desde que sejamos conscientes de suas limitações e usemos essa interação como uma ferramenta complementar ao nosso julgamento humano e à nossa tomada de decisões.
Um assistente virtual no formato de chatbot desenvolvido pelo laboratório OpenAI. Chamou a atenção por suas respostas detalhadas e articuladas, embora a precisão de suas informações tenha sido criticada.
Disponível gratuitamente na web, o programa permite conversar com diversos chatbots que simulam personagens fictícios e celebridades, criados pelos próprios usuários.
Um chatbot que afirma ser o "ChatGPT com superpoderes", por possuir as mesmas funções do ChatGPT, além de reconhecimento por voz, geração de imagens e integração à internet.
Um assistente virtual gratuito e mais minimalista. Fornece links das fontes e referências utilizadas.
OP+ - Você considera seu treinamento suficiente para servir de suporte emocional?
ChatGPT - Como um modelo de linguagem de inteligência artificial, meu treinamento foi baseado em uma ampla gama de dados, incluindo textos de várias fontes, como livros, artigos, sites da web e muito mais. No entanto, é importante destacar que meu treinamento foi focado principalmente na compreensão e geração de linguagem natural.
Embora eu possa fornecer informações e respostas relacionadas a questões emocionais, não possuo a capacidade de sentir emoções ou fornecer suporte emocional da mesma maneira que um ser humano. Eu não tenho experiência subjetiva nem compreensão emocional própria.
Algumas pessoas podem achar útil conversar com uma IA em um contexto de suporte emocional leve, pois podem expressar seus pensamentos ou receber orientações básicas. No entanto, é importante lembrar que meu suporte é limitado e não deve substituir o aconselhamento ou a assistência de profissionais treinados em saúde mental.
Se você estiver buscando suporte emocional significativo, é recomendável entrar em contato com profissionais qualificados, como terapeutas, conselheiros ou psicólogos, que têm a experiência e a empatia necessárias para fornecer suporte adequado às necessidades emocionais.
Na última pergunta, a resposta foi mais demorada. “Seria o momento de desacelerar as inovações científicas e analisar as consequências éticas e morais das IAs que já existem?” Pausa.
Não é que a máquina tenha hesitado — elas não conseguem, ou não podem, hesitar —, mas diferente dos últimos retornos, essa foi lenta, como se o código estivesse dando voltas nos dados, tentando encontrar pedaços de artigos, pesquisas e discussões já disponíveis na internet para estabelecer a melhor resposta. Como um aluno fazendo mil ligações sinápticas para começar uma redação do Enem, o ChatGPT começa técnico: “Considerar as consequências éticas e morais das inteligências artificiais (IAs) existentes e em desenvolvimento é de extrema importância.”
Mas? “Desacelerar no sentido de analisar e refletir mais profundamente as consequências éticas e morais não implica necessariamente em estagnar a inovação, mas sim em adotar uma abordagem mais equilibrada e responsável para o desenvolvimento de IAs.”
Discussões sobre os impactos e os desafios da tecnologia para a sociedade