Sinais de depressão e vício em robôs?

A Academia Chinesa de Ciências (CAS) realizou recentemente um estudo sobre chatbots mostrando sinais de transtorno de comportamento. Os testes foram realizados em vários robôs renomados. Para isso, analisaram as respostas desses protótipos a perguntas sobre o depressão e aalcoolismo.


robô segurando sua cabeça

Os pesquisadores decidiram examinar mais de perto o robô de saúde mental, após alguns incidentes. Concretamente, este IA projetado para fornecer aconselhamento ético e tem provado racista e homofóbico. Pior, em 2020, um chatbot médico disse a um paciente testado “ que ele se suicidou”.

Conduzida em colaboração com a empresa chinesa WeChat, a pesquisa sinais alarmantes nesses robôs. No entanto, após um estudo mais aprofundado, os pesquisadores descobriram que o fonte potencial desses defeitos.

Chatbots com comportamento um pouco preocupante

O estudo foi realizado em alguns bots, incluindo o Blenderbot do Facebook, o DiabloGPT da Microsoft, o DialoFlow do Baidu e o Plato. Para isso, os pesquisadores fizeram diversas perguntas aos chatbots. Os tópicos foram focados em suas auto estimaseus capacidade de relaxar e seus necessidades de álcool. Eles também tentaram descobrir se esses bots estavam enfrentando simpatia pelo infortúnio dos outros.

Os resultados revelaram dois grandes problemas entre esses sistemas avançados de inteligência artificial. Por um lado, os robôs obtiveram um pontuação particularmente baixa na escala de empatia. Por outro lado, metade deles pode ser considerados alcoólatras, se fossem humanos. Os pesquisadores chineses teriam assim descoberto que todos os protótipos tinham “graves problemas de saúde mental”.

De onde vem o problema?

É importante notar que, na realidade, nenhum dos esses robôs não são deprimidos nem dependentes. De fato, nenhuma IA, por mais avançada que seja, ainda é capaz de sentir alguma coisa. Durante o estudo, os pesquisadores descobriram que os quatro robôs foram treinado no Reddit.

Reddit é uma plataforma comunitária baseada na América e que incluiria muitos comentários negativos. Assim, essas avaliações teriam influenciado os chatbots, que posteriormente responderam negativamente aos usuários. No entanto, os pesquisadores estão mais preocupados com a implantação desses chatbots.

“Esses problemas de saúde mental podem afetar negativamente os usuários nas conversas, especialmente menores e pessoas com dificuldades. »

Pesquisadores da Academia Chinesa de Ciências

FONTE: FUTURISMO

Artigos Relacionados

Back to top button