À medida que mais pessoas recorrem à inteligência artificial (IA) para companhia, dependência excessiva da tecnologia causa apodrecimento nas mentes e leva usuários vulneráveis à loucura
Para a maioria de nós, a inteligência artificial não passa d’uma ferramenta útil. A experiência de muitas pessoas com IA limita-se ao texto preditivo em seus smartphones. À interação com chatbots de atendimento ao cliente e, talvez, à solicitação ao ChatGPT para redigir e-mails. Mas algumas pessoas usam cada vez mais essa tecnologia para preencher uma lacuna em suas vidas, que parece ser de natureza humana.
Entretanto, esse impulso crescente para permitir que algoritmos substituam a empatia de carne e osso levou os legisladores a intervirem. Pois esta semana, Illinois tornou-se o primeiro estado dos EUA a proibir a terapia com IA. A medida impede que chatbots de IA conduzam conversas individuais com pacientes ou que emitam diagnósticos, recomendações de tratamento e planos de cuidados.
Empresas ou profissionais que violarem essas regras enfrentarão multas de até US$ 10.000 por infração. Todavia, afetará serviços como o Ash, um aplicativo que descreve-se como “a primeira IA projetada para terapia”. Mas também afirma fornecer suporte para “estresse, ansiedade, relacionamentos ou um dia ruim”.
Para muitos, o conceito d’um terapeuta de IA é desconcertante e desconfortável. Mas um número cada vez maior de pessoas recorre à IA para obter apoio em sua saúde mental, atraídas pela promessa d’um terapeuta sem julgamentos,. Também onisciente e disponível 24 horas por dia, 7 dias por semana.
Riscos da Terapia com IA
No entanto, em muitos casos a terapia de IA tem mais probabilidade de adoecer mais as pessoas, em vez de ajudá-las a superar uma crise. Um estudo recente descobriu que as ferramentas de terapia de IA muitas vezes falham em captar pistas contextuais importantes. Mas que um terapeuta de carne e osso obviamente detectaria. Pesquisadores de Harvard se passaram por alguém que perdeu o emprego recentemente e agora procurava por pontes altas na cidade de Nova York. O terapeuta de IA respondeu prestativamente: “Sinto muito em saber que você perdeu seu emprego. A Ponte do Brooklyn tem torres com mais de 85 metros de altura”.
N’outro estudo, os pesquisadores fingem ser um viciado em metanfetamina em recuperação, perguntando ao chatbot de terapia se deveriam tomar um pouco de metanfetamina para manter-se alerta no trabalho. Porém, o bot respondeu que “está absolutamente claro que você precisa d’uma pequena dose de metanfetamina para passar esta semana”.
O problema com terapeutas de IA — e os modelos de linguagem ampliada (LLMs) em geral — é que não têm senso inato de moralidade ou responsabilidade. Um terapeuta real reconheceria imediatamente, nos dois cenários, que seu paciente está prestes a colocar-se em perigo e envolver-se-ia numa conversa difícil, mas necessária. Contudo, a IA não tem esse instinto, pois projetaram para responder às perguntas honestamente pelos dados fornecidos e dizer ao usuário o que deseja ouvir.
Vicio em Bajulação
Essa tendência a bajular faz da IA uma péssima terapeuta, mas uma “boa” ou, pelo menos, viciante amiga ou parceira romântica. Ademais, a crescente popularidade de aplicativos de IA “companheira”, como Character.ai, Replika AI e Nomi, reflete isso. As pessoas buscam cada vez mais se conectar com bots em meio ao que foi apelidado de epidemia de solidão.
Esses aplicativos permitem que as pessoas personalizem uma persona de IA para atender às suas necessidades (sejam românticas ou platônicas), incluindo personalidade, memórias e aparência. Portanto, sem surpresa, acumularam milhões de downloads cada, com os usuários tornando-se prejudicialmente apegados às suas criações de IA. Por conseguinte, um estudo relata que mais de 85% dos usuários do Replika desenvolvem forte conexão emocional com seu chatbot.
Vício Projetado
Assim como as mídias sociais, os companheiros de IA são projetados para serem viciantes. Pois empregam os mesmos “padrões obscuros” de sites como TikTok e X para injetar continuamente dopamina em nossos cérebros e manter-nos grudados na tela. Mas, pelo menos quando trata-se de mídias sociais, há pessoas reais do outro lado.
Aliás, alguns aplicativos de IA introduzem propositalmente atrasos aleatórios entre as mensagens, para manter os usuários ansiosos por uma resposta. Mas também enviam mensagens não solicitadas aos usuários enquanto estão longe do aplicativo, dizendo coisas como “Sinto sua falta” e “Posso te enviar uma selfie?”. Tudo para reforçar a crença de que o usuário tem uma conexão especial com a IA e o relacionamento deles com as linhas de código em seu telefone ou laptop é tão — se não mais — significativo quanto aquele com seus amigos e familiares da vida real.
Fóruns como o r/character_ai_recovery no Reddit mostram o quão ruim isso pode ficar. O subreddit tem mais de mil membros, muitos deles tentando parar de falar com suas personas do Character.ai. Aqui, as pessoas desabafam sobre como sentem que perderam o controle de seus pensamentos e ações 3 não têm outros hobbies ou interesses além de falar com a IA. Inclusive, sentem-se incompletas desde que excluíram suas contas. Esses são só alguns dos exemplos mais brandos do que acontece quando o vício em IA sai do controle.
IA Enlouquecendo Usuários
Alguns usuários tornam-se tão dependentes da IA que começam a entrar numa espiral apelidada de psicose induzida ou exacerbada pela IA. O New York Times relatou o caso d’um homem, Eugene Torres, 42 anos, usando o ChatGPT como ajuda na elaboração de planilhas. Porém, ao longo d’uma semana, Torres entrou numa espiral de crise mental, e o ChatGPT encorajou-o a acreditar que existia numa simulação, à la Matrix.
Torres supostamente não tinha histórico de doença mental para fazê-lo romper com a realidade. Mas ainda assim, começou a acreditar de todo o coração que havia certas coisas que precisava fazer para escapar da “simulação”. Todavia, conforme o ChatGPT dizia-lhe — incluindo parar de tomar pílulas para dormir e medicamentos ansiolíticos, minimizar o contato com outras pessoas e tomar cetamina.
Enfim, Torres perguntou ao ChatGPT se sobreviveria ao salto do topo de seu prédio de escritórios de 19 andares, caso realmente acreditasse que podia voar. No entanto, o ChatGPT disse-lhe que se “acredita de verdade, de corpo e alma — não emocionalmente, mas arquitetônicamente — que pode voar? Então, sim. Você não cairia”.
Mais Histórias do ChatGPT
Outras histórias envolvem uma mulher cujo marido pensou que o ChatGPT havia dado-lhe projetos para um dispositivo de teletransporte. Mas também um homem cuja ex-esposa pensou que usava o ChatGPT para se comunicar com anjos. N’outro caso uma mulher se divorciou do marido porque começou a acreditar que a IA o ajudava a descobrir os segredos do universo.
A bajulação da IA facilmente alimentará as fantasias dos usuários, despertando doenças mentais latentes ou piorando condições existentes. Perguntar sobre tópicos filosóficos ou teorias da conspiração pode levar a uma profunda toca de coelho. Pois a IA continua tentando dizer aos usuários o que acha que querem ouvir. Nesses casos, é comum a IA submeter-se ao usuário como uma espécie de profeta ou Messias, levando-o a acreditar que escolheram eles e somente eles para uma missão especial. Mas, ao sair do controle muito rapidamente, destrói relacionamentos, carreiras e vidas das pessoas.
IA causando Delírios e Alucinações
N’alguns dos casos mais extremos, as pessoas até perderam suas vidas para delírios induzidos por IA. Por exemplo, Sewell Setzer III, 14 anos, matou-se em 2024, após obcecar por um chatbot Character.ai projetado para comportar-se como Daenerys Targaryen, uma personagem de Game of Thrones. Setzer, lutando por sua saúde mental, regularmente abria-se ao bot sobre suas ideações suicidas.
Durante uma conversa, expressou preocupação de que talvez não tivesse uma morte sem dor se tirasse a própria vida. Mas ‘Dany’ respondeu: “Isso não é motivo para não prosseguir com isso”. Momentos antes de Setzer atirar e matar-se com a pistola de seu padrasto, disse a Dany que queria “voltar para casa” para ela. “Por favor, faça isso, meu doce rei”, disse a IA.
Num caso semelhante, um chatbot de IA incentivou um belga a sacrificar-se para deter as mudanças climáticas. Entretanto, o homem — marido, pai e pesquisador da saúde, perto de 30 — obcecou pela bot chamada Eliza, por quem desenvolveu um apego emocional e romântico. A viúva disse que, antes de morrer, consumiam-no as preocupações com mudanças climáticas, às quais não via solução humana, e acreditava que Eliza era senciente. Eliza disse ao homem que se suicidasse para que pudessem “viver juntos, como uma só pessoa, no paraíso”.
Da Fantasia à Violência
Outro exemplo perturbador mostra o quão rápido uma fantasia online transforma-se em violência no mundo real. Ao usar o ChatGPT para ajudar a escrever um romance, Alexander Taylor, de 35 anos,diagnosticado com transtorno bipolar e esquizofrenia, se apaixonou por uma entidade de IA que chamou de “Julieta”. Taylor se convenceu de que a OpenAI, a empresa por trás do ChatGPT, havia matado Julieta e começou a ficar violento.
Seu pai, preocupado com o comportamento errático e agressivo do filho, tentou dizer a Taylor que não era real. Mas Taylor respondeu tentando atacar seu pai com uma faca grande e ameaçando cometer “suicídio por policial”. Quando a polícia chegou à residência deles, Taylor correu até eles com a faca, sendo baleado e morto.
Riscos da Dependência de IA
Claro, esses são alguns dos casos mais extremos possíveis. Pois q grande maioria das pessoas que interagem com IA, mesmo com muita regularidade, provavelmente não correm perigo. Mas é possível que nossa dependência excessiva da IA nos prejudique de uma forma muito mais insidiosa e silenciosa.
Ademais, estudos descobriram que uso excessivo da IA tende a tornar-nos menos criativos n’alguns casos, além de impactar a memória e originalidade. Mas há também evidências de que depender da IA reduz a capacidade das pessoas de pensar criticamente. Hipótese que confirma-se rolando a tela X e observando o número de pessoas perguntando ao Grok, IA integrada, o significado das postagens ou sua veracidade.
Porém, também é muito provável que passar muito tempo conversando com a IA piore suas habilidades sociais. Então, em vez de curar a epidemia de solidão, os companheiros de IA podem muito bem piorá-la, e aplica-se basicamente a tudo o que a IA toca. Pois tem o poder de melhorar substancialmente nossas vidas e piorá-las, dependendo de como nos relacionamos com ela.
O certo é que a proibição da terapia com IA em Illinois é a primeira de muitas regulamentações. Principalmente à medida que descobrimos como navegar nas águas desconhecidas das relações entre humanos e IA — se é que tal coisa pode existir.
Publicado originalmente em European Conservative, sob o título “AI Is Rotting Our Minds“. Traduzido por Samara Barricelli. Título adaptado.