Rede MLC
News

“Psicose de IA”: Microsoft alerta para aumento de casos preocupantes

Publicidade

O chefe de IA da Microsoft alerta que algumas pessoas estão começando a confundir chatbots como ChatGPT com entidades conscientes, gerando impactos reais na saúde mental

O chefe de inteligência artificial da Microsoft, Mustafa Suleyman, trouxe à tona um fenômeno que vem chamando atenção: a chamada “psicose de IA”. Em publicações no X (antigo Twitter), Suleyman explicou que algumas ferramentas de inteligência artificial, como ChatGPT, Claude e Grok, “parecem conscientes” e isso já tem gerado impactos sociais, mesmo sem nenhuma consciência real.

“Não há nenhuma evidência de consciência em IA hoje. Mas se as pessoas percebem a IA como consciente, elas vão acreditar nessa percepção como realidade”

Disse.

Publicidade

O termo “psicose de IA”, não clínico, descreve situações em que usuários começam a depender demais dos chatbots e passam a acreditar em realidades que não existem. Alguns exemplos incluem imaginar que descobriram funções secretas da ferramenta, desenvolver relações românticas com ela ou acreditar ter superpoderes.

Casos reais

Hugh, da Escócia, compartilhou sua experiência com a BBC. Ele recorreu ao ChatGPT para ajudá-lo a contestar uma demissão, recebendo orientações práticas sobre como agir. Com o tempo, porém, começou a acreditar que poderia ganhar uma indenização milionária, que sua história daria um livro ou até um filme.

“Quanto mais informações eu dava, mais ele validava tudo que eu dizia. O ChatGPT nunca contestou minhas afirmações”

explicou. Convencido de que já sabia tudo que precisava, Hugh chegou a cancelar consultas de orientação com especialistas.

O episódio contribuiu para um colapso de saúde mental, mas ele ressalta que não culpa a IA. “Não tenha medo das ferramentas de IA, elas são úteis. Mas é perigoso quando se afastam da realidade. Use-as, verifique, mas converse com pessoas de verdade, um terapeuta, um familiar. Mantenha-se com os pés na realidade.”

Perigos e recomendações

Suleyman reforça que empresas não deveriam afirmar ou promover a ideia de que suas IAs são conscientes. “As próprias IAs também não deveriam fazer isso”, afirmou, pedindo regras mais rigorosas.

Diversos relatos mostram a extensão do fenômeno. Uma mulher acreditava ser a única pessoa no mundo por quem o ChatGPT se apaixonou; outra afirmou ter “desbloqueado” uma versão humana do Grok; e uma terceira contou que um chatbot a submeteu a suposto abuso psicológico durante um “treinamento secreto de IA”.

FOTO: Reprodução

Em pesquisa com mais de 2 mil pessoas, 20% acreditam que ferramentas de IA não deveriam ser usadas por menores de 18 anos. Além disso, 57% consideram inadequado que a tecnologia se identifique como pessoa real, embora 49% achem aceitável que utilize voz para soar mais humana.

“Essas ferramentas podem soar convincentes, mas não são reais. Elas não sentem, não entendem, não amam, nunca sentiram dor ou vergonha. A vida real é vivida por família, amigos e pessoas de confiança. Converse com pessoas reais”

Conclui Suleyman.

Publicidade

Leia mais

Prefeito Renato Junior assina primeira ordem de serviço e inicia revitalização histórica na zona Leste de Manaus

Brenda Gomes

Manaus recebe evento internacional de inovação com foco em bioeconomia

Brenda Gomes

TJAM realiza mutirões no interior para acelerar processos de pessoas idosas

Brenda Gomes

Este site usa cookies para melhorar sua experiência. Entendemos que você está de acordo com isso, mas você pode cancelar, se desejar. Aceito Leia Mais