Uma maneira científica de medir a confiança do público na inteligência artificial

Na sociedade atual, muitas pessoas consideram queevolução tecnológica supera o de estruturas sociais. São estruturas, como direito e ética, que implicitamente orientam e enquadram as tecnologias. EU’inteligência artificial (IA), por exemplo, está se tornando uma necessidade no cotidiano de muitas pessoas. No entanto, sua complexidade em comparação com outras tecnologias mais familiares às vezes causa medo e suspeita.
Um robô na frente de sua mesa

Para desenvolvedores e moderadores de IA, saber como e quem observar pode ser útil. Uma melhor compreensão do público permitiria que eles agissem de acordo. Além disso, alguns Pesquisadores da Universidade de Tóquio queria saber como características demográficasEU’Educação assim como vários cenários éticos afetar as atitudes do público em relação à IA.

Durante este estudo, o grupo de cientistas projetou um indicador visual octogonalsemelhante a um sistema de classificação. Pesquisadores de IA podem usá-lo para descobrir como o público pode perceber seu trabalho.

Um octógono formado por oito temas

a Professor Hiromi Yokoyama do Instituto Kavli de Física e Matemática do Universo liderou a equipe de cientistas da Universidade de Tóquio durante o estudo. Para sua pesquisa, eles decidiram determinar o visão pública da IA sobre questões éticas.

Como parte de seu trabalho, o grupo se concentrou principalmente em dois pontos durante as investigações que realizou. A primeira é como a opinião dos entrevistados mudança dependendo das circunstâncias. O último centra-se na percepção de uma pessoa dependendo de várias variáveis, como o sexo e a idade.


Um octógono que mede a confiança das pessoas na inteligência artificial.

Então, para projetar seus testesa equipe utilizou oito temas que ele agrupou sob o nome de “medidas do octógono”. Os temas em questão suscitam problemas éticos e se relacionam com várias aplicações baseadas nainteligência artificial. Eles foram inspirados por um artigo que Jessica Fjeld (pesquisadora da Universidade de Harvard) e sua equipe publicaram em 2020. Entre esses tópicos estão o vida privadaa segurançaa transparência e a promoção de valores humanos.

Pessoas mais velhas e mulheres teriam uma visão mais negativa da IA

As pessoas que participaram da pesquisa trataram quatro cenários : EU’arte gerada por IAEU’IA no atendimento ao clientea previsão de crimes e a armas autônomas. Além disso, os participantes também forneceram informações sobre elesincluindo o seu nível deinteresse em ciência e tecnologia. Dessa forma, os pesquisadores conseguiram associar atitudes com características dos indivíduos.

“Estudos anteriores mostraram que o risco é percebido de forma mais negativa por mulheres, idosos e aqueles que têm mais conhecimento sobre o assunto. Eu esperava ver algo diferente nesta pesquisa dada a comoditização da IA, mas surpreendentemente vimos tendências semelhantes aqui. »
Professor Hiromi Yokoyama

Artigos Relacionados

Back to top button