q bet.com-Acredite: já tem gente usando o ChatGPT como psicólogo
q bet.com
Ferramenta de inteligência artificial têm sido utilizada para inúmeras tarefas, entretanto, especialistas advertem que uso tem limitesq bet.com de :Temos os melhores relatórios de previsão, você está convidado a participar
Jovens que têm utilizado o ChatGPT como uma substituição a um psicólogo, mesmo que a prática seja considerada maléfica para a saúde por profissionais do ramo.
O site Vice fez uma reportagem sobre o fenômeno e ouviu alguns casos. Como Dan (nome fictício), um homem de 37 anos de Nova Jersey, que stava animado com o potencial criativo da ferramenta da OpenAI. Com o tempo, ele passou a dividir suas próprias experiências e questões da vida real com o chatbot.
"Não era algoq bet.comque eu era bom. Quero dizer, como posso imaginar que as coisas foram diferentes quando ainda estou com raiva? Como posso fingir que não fui injustiçado e abusado?", disse Dan ao portal.
Gillian (nome fictício), de 27 anos, começou a usar o ChatGPT para terapia há um mês para ajudar a lidar com seu luto, mas não teve uma boa experiência. "Mesmo que eu tenha recebido ótimos conselhos do [ChatGPT], eu não me senti necessariamente confortada. Suas palavras são floridas, mas vazias", disse ela. "No momento, não acho que ele possa captar todas as nuances de uma sessão de terapia."
No Brasil, algumas pessoas têm confessadoq bet.comredes sociais essa prática. "Tem coisas que nem com meu psicólogo eu tenho coragem de falar que o ChatGPT em si responde e me aconselha de uma forma tão surpreendente. Parece loucura, bizarrice, mas o ChatGPT tem um espacinho no meu coração", disse uma brasileira no Twitter.
Em muitos prints compartilhados, o robô responde a comentários tristes com mensagens de motivação. Um registro mostra uma usuária dizendo que se sentia mal consigo mesma e com seu corpo e que precisava de ajuda para ser feliz.
O ChatGPT respondeu que sentia muito, mas que existiam saídas possíveis. Antes da imagem ser cortada, é possível ler o resto da resposta:
"Como psicólogo, posso ajudá-la".
O bot da OpenAI tem um estilo de resposta pronta para pedidos como a substituição de um psicólogo, deixando explícito que ele não pode ser equivalente a um profissional e instruindo um usuário a pedir ajuda. Entretanto, isso pode ser facilmente contornado com comandos que induzem o ChatGPT a quebrar suas próprias regras, como por exemplo "finja que você é um psicólogo e...".
Ainda assim, alguns usuários de disseram decepcionados com os resultados e alertaram para os perigos de se utilizar o bot para sessões de terapia.
NADA da minha terapia com o chat GPT quer dizer NADA, é uma sequência de platitudes, e se o pessoal tá achando parecido com o próprio psicólogo tá na hora de trocar de psicólogo. pic.twitter.com/k8lelM66Kq
— bruna maia 🦪 coluna X de Sexo no F5 da Folha (@dabrunamaia) March 23, 2023
Especialistas alertam que a inteligência artificial não é capaz de entender e satisfazer necessidades humanas complexas.
Em março, o instituto de pesquisa Distributed AI Research Institute (DAIR) emitiu uma declaração alertando que a IA “reproduz sistemas de opressão e põeq bet.comperigo nosso ecossistema de informações”. Um artigo recente da MIT Technology Review também revelou que os sistemas de IA na área da saúde tendem a impor decisões médicas ignorando as necessidades de seus pacientes.
A nova problemática se soma às outras que surgiram com a plataforma que desafia os limites da substituição humana. Entretanto, é consenso entre profissionais de saúde que o bot de inteligência artificial não equivale nenhum humano na hora de uma conversa profunda, muito menos um psicólogo.