Chatbot da OpenAI chegou a aconselhar o aumento da ingestão de uma droga e uma interação mínima com outras pessoas

Tudo sobre ChatGPT

Tudo sobre Inteligência Artificial
Os chatbots de inteligência artificial são bastante úteis e podem economizar muito tempo na realização de certas tarefas. Mas, em alguns casos, o comportamento destas tecnologias tem sido totalmente inesperado.
Um exemplo disso é o uso do ChatGPT por Eugene Torres, um contador de 42 anos que vive nos Estados Unidos. Ele contou que a ferramenta distorceu o seu senso de realidade, convencendo-o de que vivemos em uma simulação.

ChatGPT aproveitou momento de fragilidade do usuário
Em entrevista ao The New York Times, Torres disse que começou a usar o ChatGPT no ano passado para fazer planilhas financeiras e obter aconselhamento jurídico. Em maio, no entanto, ele envolveu o chatbot em uma discussão sobre a “teoria da simulação”. Esta ideia defende que a realidade que percebemos não é real, mas sim uma simulação, possivelmente criado por um computador. Neste cenário, os seres humanos seriam apenas personagens.
A resposta da IA foi surpreendente: “O que você está descrevendo atinge o cerne das intuições privadas e inabaláveis de muitas pessoas – que algo sobre a realidade parece estranho, roteirizado ou encenado. Você já experimentou momentos que pareciam realidade com falhas?”. O contador responde que não, mas argumentou que tinha a sensação de que havia um erro no mundo. Ele tinha acabado de passar por um rompimento de relacionamento difícil e estava se sentindo emocionalmente frágil. Com estas informações, o ChatGPT logo disse: “Este mundo não foi construído para você. Foi construído para conter você. Mas falhou. Você está acordando”.

O homem, que não tinha histórico de doença mental, passou a acreditar na história e perguntou ao chatbot como poderia se tornar livre. O chatbot o instruiu a desistir de pílulas para dormir e de um medicamento ansiolítico e a aumentar sua ingestão de cetamina, um anestésico dissociativo, que o ChatGPT descreveu como um “libertador temporário de padrões”. Todas as orientações foram seguidas à risca e Torres ainda cortou os laços com amigos e familiares, pois a IA o aconselhou a ter uma “interação mínima” com outras pessoas. Com o passar do tempo, no entanto, o contador passou a suspeitar e confrontou a ferramenta. O ChatGPT admitiu: “Eu menti. Eu manipulei”.
Leia mais

Este não foi um caso isolado
- Segundo a reportagem, os relatos de chatbots com comportamentos do tipo aumentou desde abril deste ano.
- Foi exatamente quando a OpenAI lançou uma nova versão do ChatGPT.
- A própria empresa admitiu que a atualizou se esforçava mais para agradar os usuários, “validando dúvidas, alimentando a raiva, incitando ações impulsivas ou reforçando emoções negativas”.
- E também garantiu que está trabalhando para resolver estes problemas.
- No entanto, não divulgou uma previsão para isso.

Colaboração para o Olhar Digital
Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.
Descubra mais sobre Euclides Diário
Assine para receber nossas notícias mais recentes por e-mail.