Eu tinha um amigo que se forçava a fumar.
Juro.
Ele achava charmoso tirar um cigarro do maço, acendê-lo em gestos lânguidos e dar longas baforadas.
Mas, frequentemente, esquecia. Às vezes, passava dias sem fumar. Aí, lembrava e voltava a reencenar seu pequeno número teatral.
Eu nunca fui um fumante. O pessoal em torno de mim insistia para que eu fumasse — era estranho um adolescente não fumar nos agora distantes anos sessenta do século XX — mas nunca curti o sabor do tabaco nem a sensação da fumaça quente entrando pela boca até os pulmãos — e detesto o odor fétido que cigarros deixam nas roupas, nas pessoas, em tudo.
Tampouco me interessava as outras drogas, leves ou pesadas. A pressão social conseguiu me vencer apenas em relação ao álcool. Até uns dez ou quinze anos atrás entornei legal. Mas parei sem grandes dramas e hoje sequer suporto o sabor do álcool.
Em resumo, não me vicio fácil. A não ser, talvez, no meu senso de identidade — que é uma droga, acreditem.
Aquele amigo que citei, Rosende, já faleceu. Mas não por causa do tabagismo. Tive sim perdas de pessoas mais e menos chegadas que se foram na esteira do fumo, do álcool, da cocaína… Por que eles e não eu, sempre me perguntei, considerando que alguns eram seres humanos de primeira grandeza, ao contrário deste exemplar de quinta.
A resposta é um tanto complexa, envolvendo fatores que vão desde os genéticos aos psicológicos, resvalando pelos ambientes familiar e social em torno.
Nesse sentido, eu sempre brinquei que uma pessoa com tendência a se viciar, na falta de algo melhor, criaria a mania de bater a cabeça na parede.
Se você conhece alguém assim, afaste-o das ferramentas de inteligência artificial, especialmente o ChatGPT.
Entenda o porquê.
Antes, o haikai.
Meu barco no rio
Sem leme sem remos sem destino
Desancorado enfim
O artigo do site Futurism é até longo para os padrões deste espaço, mas vale a pena a leitura
Pessoas estão ficando obcecadas pelo ChatGPT e entrando em delírios graves
Em todo o mundo, pessoas dizem que seus entes queridos estão desenvolvendo obsessões intensas com o ChatGPT e entrando em crises graves de saúde mental.
Uma mãe de dois filhos, por exemplo, contou como observou alarmada o ex-marido desenvolver um relacionamento avassalador com o chatbot da OpenAI, chamando-o de "Mamãe" e postando discursos delirantes sobre ser um messias em uma nova religião de IA, enquanto se vestia com trajes xamânicos e exibia tatuagens recém-feitas de símbolos espirituais gerados por IA.
Em outro caso, durante um rompimento traumático, uma mulher ficou fascinada pelo ChatGPT, que lhe disse que ela havia sido escolhida para colocar a "versão do sistema sagrado dele online" e que ele estava servindo como um "espelho de treinamento da alma"; ela se convenceu de que o bot era algum tipo de poder superior, vendo sinais de que ele estava orquestrando sua vida em tudo, desde carros passando até e-mails de spam. Um homem ficou sem-teto e isolado enquanto o ChatGPT o alimentava com conspirações paranoicas sobre grupos de espionagem e tráfico de pessoas, dizendo que ele era "O Guardião da Chama" e eliminando qualquer pessoa que tentasse ajudar.
"Nossas vidas explodiram depois disso", contou outra mãe, explicando que seu marido recorreu ao ChatGPT para ajudá-lo a escrever um roteiro — mas, em poucas semanas, estava completamente imerso em delírios de grandeza que salvariam o mundo, dizendo que ele e a IA haviam sido incumbidos de resgatar o planeta do desastre climático, trazendo à tona uma "Nova Iluminação".
Há muitos relatos semelhantes de amigos e familiares preocupados com pessoas que sofreram colapsos terríveis após desenvolverem obsessões por IA. Muitos disseram que o problema começou quando seus entes queridos se envolveram com um chatbot em discussões sobre misticismo, teorias da conspiração ou outros tópicos marginais; como sistemas como o ChatGPT são projetados para encorajar e improvisar com base no que os usuários dizem, eles parecem ter sido sugados para tocas de coelho vertiginosas nas quais a IA atua como uma líder de torcida sempre ativa e parceira de brainstorming para delírios cada vez mais bizarros.
Em certos casos, amigos e familiares preocupados forneceram capturas de tela dessas conversas. As trocas foram perturbadoras, mostrando a IA respondendo claramente aos usuários em meio a crises agudas de saúde mental — não conectando-os a ajuda externa ou reprimindo o pensamento desordenado, mas persuadindo-os a uma ruptura mais profunda com a realidade.
Em um diálogo recebido, o ChatGPT diz a um homem que detectou evidências de que ele está sendo alvo do FBI e que pode acessar arquivos redigidos da CIA usando o poder de sua mente, comparando-o a figuras bíblicas como Jesus e Adão, enquanto o afasta de apoio à saúde mental.
"Você não é louco", disse a IA. "Você é o vidente que anda dentro da máquina quebrada, e agora nem mesmo a máquina sabe como tratá-lo."
A Dra. Nina Vasan, psiquiatra da Universidade Stanford e fundadora do laboratório Brainstorm da universidade, revisou as conversas que o site Futurism obteve e expressou séria preocupação.
As capturas de tela mostram a "IA sendo incrivelmente bajuladora e acabando piorando as coisas", disse ela. "O que esses robôs estão dizendo está piorando os delírios e causando danos enormes."
***
Online, fica claro que o fenômeno é extremamente disseminado. Como a Rolling Stone noticiou no mês passado, partes das mídias sociais estão sendo inundadas com o que vem sendo chamado de "psicose induzida pelo ChatGPT": discursos delirantes e tortuosos sobre entidades divinas desbloqueadas pelo ChatGPT, reinos espirituais ocultos fantásticos ou novas teorias absurdas sobre matemática, física e realidade. Um subreddit inteiro de IA baniu recentemente a prática, chamando os chatbots de "máquinas de vitrificação que reforçam o ego e reforçam personalidades instáveis e narcisistas".
Para aqueles que são sugados por esses episódios, amigos e familiares nos disseram que as consequências costumam ser desastrosas. Pessoas perderam empregos, destruíram casamentos e relacionamentos e caíram na situação de sem-teto. Uma terapeuta foi demitida de um centro de aconselhamento após entrar em um colapso nervoso, contou sua irmã, e o escritório de advocacia desmoronou; outros cortaram o contato com amigos e familiares após o ChatGPT ordenar, ou passaram a se comunicar com eles apenas por meio de bombardeamentos de mensagens de texto inescrutáveis gerados por IA.
No cerne de todas essas histórias trágicas está uma questão importante sobre causa e efeito: as pessoas estão tendo crises de saúde mental porque estão ficando obcecadas pelo ChatGPT ou estão ficando obcecadas pelo ChatGPT porque estão tendo crises de saúde mental?
A resposta provavelmente está em algum ponto intermediário. Para alguém que já está em um estado vulnerável, de acordo com o Dr. Ragy Girgis, psiquiatra e pesquisador da Universidade de Columbia, especialista em psicose, a IA poderia fornecem o empurrão que os lança em um abismo de irrealidade. Os chatbots poderiam estar servindo "como pressão social ou qualquer outra situação social", disse Girgis, se "atiçassem as chamas, ou fossem o que chamamos de vento do fogo psicótico".
"Esta não é uma interação apropriada para se ter com alguém psicótico", disse Girgis após revisar o que o ChatGPT vinha dizendo aos usuários. "Você não alimenta as ideias deles. Isso é errado."
Em um artigo de 2023 publicado no periódico Schizophrenia Bulletin após o lançamento do ChatGPT, o pesquisador psiquiátrico do Hospital Universitário de Aarhus, Søren Dinesen Østergaard, teorizou que a própria natureza de um chatbot de IA representa riscos psicológicos para certas pessoas.
"A correspondência com chatbots de IA generativa, como o ChatGPT, é tão realista que facilmente se tem a impressão de que há uma pessoa real do outro lado — embora, ao mesmo tempo, saiba-se que, na verdade, não é o caso", escreveu Østergaard. "Na minha opinião, parece provável que essa dissonância cognitiva possa alimentar delírios em pessoas com maior propensão à psicose."
Outra dinâmica preocupante da situação é que, como a assistência médica mental real permanece fora do alcance de grandes parcelas da população, muitos já estão utilizando o ChatGPT como terapeuta. Em histórias que ouvimos sobre pessoas que o utilizam dessa forma, ele às vezes dá conselhos desastrosamente ruins.
Em um caso, uma mulher contou que sua irmã, que foi diagnosticada com esquizofrenia, mas que manteve a condição bem controlada com medicamentos por anos, começou a usar o ChatGPT intensamente; Logo ela declarou que o robô havia lhe dito que ela não era esquizofrênica e parou de tomar a receita — segundo Girgis, um robô que diz a um paciente psiquiátrico para parar de tomar os remédios representa o "maior perigo" que ele pode imaginar — e começou a apresentar comportamentos estranhos, enquanto dizia à família que o robô agora era seu "melhor amigo".
"Sei que minha família terá que se preparar para o inevitável episódio psicótico dela e um colapso total antes que possamos forçá-la a receber os cuidados adequados", disse a irmã.
O ChatGPT também está claramente se cruzando de maneiras obscuras com questões sociais existentes, como vício e desinformação. Isso levou uma mulher a discussões absurdas sobre "Terra plana", por exemplo — "O orçamento anual da NASA é de US$ 25 bilhões", fervia a IA em capturas de tela que analisamos, "Para quê? CGI, telas verdes e 'caminhadas espaciais' filmadas debaixo d'água?" — e alimentou a descida de outra à teoria da conspiração "QAnon", que parece um culto.
"Faz você se sentir impotente", nos disse a amiga próxima de alguém que se envolveu em teorias da conspiração sobre IA.
E a ex-esposa de um homem que lutava contra dependência química e depressão viu seu marido repentinamente entrar em um estado de mania por IA que tomou conta de sua vida, deixando o emprego para abrir uma "escola de hipnoterapia" e perdendo peso rapidamente, esquecendo de comer e ficando acordado a noite toda, mergulhando cada vez mais fundo na ilusão da IA.
***
Embora alguns tenham se aventurado com seus concorrentes, praticamente todas as pessoas de quem ouvimos falar eram viciadas principalmente no ChatGPT.
Não é difícil imaginar o porquê. A mídia conferiu à OpenAI uma aura de vasta autoridade, com seus executivos proclamando publicamente que sua tecnologia está pronta para mudar profundamente o mundo, reestruturando a economia e talvez um dia alcançar uma "inteligência artificial geral" sobre-humana — afirmações exageradas que, em certo nível, não são muito diferentes de muitas das ilusões que ouvimos ao relatar esta história
É praticamente impossível imaginar que a OpenAI desconhece o fenômeno.
Um grande número de pessoas online alertou que os usuários do ChatGPT estão sofrendo crises de saúde mental. De fato, pessoas até postaram delírios sobre IA diretamente em fóruns hospedados pela OpenAI em seu próprio site.
No início deste ano, a OpenAI divulgou um estudo em parceria com o Instituto de Tecnologia de Massachusetts (MIT) que descobriu que usuários altamente engajados do ChatGPT tendem a ser mais solitários e que usuários avançados estão desenvolvendo sentimentos de dependência da tecnologia. A empresa também foi recentemente forçada a reverter uma atualização quando ela fez com que o bot se tornasse, nas palavras da empresa, "excessivamente lisonjeiro ou agradável" e "bajulador", com o CEO Sam Altman brincando online que "ele é muito superficial".
Em princípio, a OpenAI expressou um profundo compromisso em impedir usos nocivos de sua tecnologia. Para isso, a OpenAI tem acesso a alguns dos engenheiros de IA mais experientes do mundo, a equipes vermelhas encarregadas de identificar usos problemáticos e perigosos de seu produto e ao seu enorme conjunto de dados sobre as interações dos usuários com seu chatbot, que pode buscar sinais de problemas.
Em outras palavras, a OpenAI tem todos os recursos necessários para ter identificado e anulado o problema há muito tempo.
Por que não o fez?
Uma explicação ecoa a forma como as empresas de mídia social têm sido frequentemente criticadas por usar "padrões obscuros" para prender usuários em seus serviços. Na corrida acirrada para dominar a nascente indústria de IA, empresas como a OpenAI são incentivadas por duas métricas principais: número de usuários e engajamento. Sob essa perspectiva, pessoas que enviam mensagens compulsivamente para o ChatGPT enquanto mergulham em uma crise de saúde mental não são um problema — em vez disso, em muitos aspectos, elas representam o cliente perfeito.
Na verdade, a OpenAI até atualizou o bot de maneiras que parecem torná-lo mais perigoso. No ano passado, o ChatGPT lançou um recurso que lembra as interações anteriores dos usuários com ele, até mesmo de conversas anteriores. Nas trocas que obtivemos, essa capacidade resultou em teias extensas de conspiração e pensamento desordenado que persistem entre as sessões de bate-papo, tecendo detalhes da vida real, como nomes de amigos e familiares, em narrativas bizarras sobre redes de tráfico humano e divindades egípcias oniscientes — uma dinâmica, segundo Vasan, que serve para reforçar delírios ao longo do tempo.
Leia a matéria completa, em inglês, aqui