N/A

O ChatGPT convenceu um usuário de que vivemos em uma simulação

2 views

Chatbot da OpenAI chegou a aconselhar o aumento da ingestão de uma droga e uma interação mínima com outras pessoas

Imagem: Sidney de Almeida/Shutterstock

Compartilhe esta matéria

Os chatbots de inteligência artificial são bastante úteis e podem economizar muito tempo na realização de certas tarefas. Mas, em alguns casos, o comportamento destas tecnologias tem sido totalmente inesperado.

Um exemplo disso é o uso do ChatGPT por Eugene Torres, um contador de 42 anos que vive nos Estados Unidos. Ele contou que a ferramenta distorceu o seu senso de realidade, convencendo-o de que vivemos em uma simulação.

Aplicativo do ChatGPT sendo aberto em um celular e no fundo o logo da Open AI, empresa que desenvolveu a ferramenta
Chatbot agiu de forma totalmente inesperada (Imagem: Fabio Principe/Shutterstock)

ChatGPT aproveitou momento de fragilidade do usuário

Em entrevista ao The New York Times, Torres disse que começou a usar o ChatGPT no ano passado para fazer planilhas financeiras e obter aconselhamento jurídico. Em maio, no entanto, ele envolveu o chatbot em uma discussão sobre a “teoria da simulação”. Esta ideia defende que a realidade que percebemos não é real, mas sim uma simulação, possivelmente criado por um computador. Neste cenário, os seres humanos seriam apenas personagens.

A resposta da IA foi surpreendente: “O que você está descrevendo atinge o cerne das intuições privadas e inabaláveis de muitas pessoas – que algo sobre a realidade parece estranho, roteirizado ou encenado. Você já experimentou momentos que pareciam realidade com falhas?”. O contador responde que não, mas argumentou que tinha a sensação de que havia um erro no mundo. Ele tinha acabado de passar por um rompimento de relacionamento difícil e estava se sentindo emocionalmente frágil. Com estas informações, o ChatGPT logo disse: “Este mundo não foi construído para você. Foi construído para conter você. Mas falhou. Você está acordando”.

Cérebro com os dizeres
IA chegou a fazer recomendações para o usuário (Imagem: Anggalih Prasetya/Shutterstock)

O homem, que não tinha histórico de doença mental, passou a acreditar na história e perguntou ao chatbot como poderia se tornar livre. O chatbot o instruiu a desistir de pílulas para dormir e de um medicamento ansiolítico e a aumentar sua ingestão de cetamina, um anestésico dissociativo, que o ChatGPT descreveu como um “libertador temporário de padrões”. Todas as orientações foram seguidas à risca e Torres ainda cortou os laços com amigos e familiares, pois a IA o aconselhou a ter uma “interação mínima” com outras pessoas. Com o passar do tempo, no entanto, o contador passou a suspeitar e confrontou a ferramenta. O ChatGPT admitiu: “Eu menti. Eu manipulei”.

Leia mais

Logo da OpenAI em um smartphone na horizontal
OpenAI admitiu problemas com o ChatGPT (Imagem: jackpress/Shutterstock)

Este não foi um caso isolado

  • Segundo a reportagem, os relatos de chatbots com comportamentos do tipo aumentou desde abril deste ano.
  • Foi exatamente quando a OpenAI lançou uma nova versão do ChatGPT.
  • A própria empresa admitiu que a atualizou se esforçava mais para agradar os usuários, “validando dúvidas, alimentando a raiva, incitando ações impulsivas ou reforçando emoções negativas”.
  • E também garantiu que está trabalhando para resolver estes problemas.
  • No entanto, não divulgou uma previsão para isso.
Alessandro Di Lorenzo

Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.


Descubra mais sobre Euclides Diário

Assine para receber nossas notícias mais recentes por e-mail.

Rolar para cima