ATENÇÃO: Esta página foi traduzida automaticamente pelo Google Translate. Isto pode ter consequências inesperadas no conteúdo apresentado e, portanto, não nos responsabilizamos pelo resultado dessa tradução automática.


ATTENTION: this page has been automatically translated by Google Translate. This can have unexpected consequences and, therefore, we do not take responsibility for the result of that automatic translation.

menu
menu close
MestradoMestrado em Psicologia Social e das Organizações

AI minds morals 00111111

Autor
Raposo, Beatriz de Almeida Pereira Nunes
Data de publicação
11 Jan 2022
Acesso
Acesso livre
Palavras-chave
Agência
Agency
Inteligência artificial
AI
Moral attributions
Mind perception
Human
Atribuições morais
Perceção da mente
Humano
Resumo
PT
A extensão das fronteiras da tecnologia tem estimulado o crescimento das ciências sociais no que concerne os desafios que a IA coloca aos pressupostos sobre o Ser Humano e a sociedade. O crescente estatuto dos agentes de IA, nomeadamente daqueles dotados de ação autónoma, é de especial interesse na interseção da Psicologia e da Ética. Atribuir moralidade e mente pode parecer ficcional, contudo a compreensão aprofundada destes construtos pode explicar a emergência de literatura sobre IA e moralidade. Esta literatura é ainda escassa e não conjugou ainda os tópicos, o que acreditamos ser expectável dado a moralidade e a mente serem indissociáveis. Com este objetivo, foi desenhada uma experiência 2x2 para testar os efeitos que a atribuição de mente (agêntica-experiencial & metacognitiva) cruzada com a atribuição de moralidade a agentes (motivações para autoridade & prejuízo) têm na explicação do nível de culpa dependendo na natureza do agente (Humano vs. IA). Com uma amostra de 137 indivíduos, controlando a idade, sexo, iniquidade/injustiça, e deslocação de responsabilidade, foi testada esta interação tripla, a fim de testar diferenças significativas entre agentes Humanos e de IA. Os agentes humanos foram mais culpados quando percecionados como sendo menos motivados para a autoridade (desobediente) e possuem menor mente metacognitiva (menos reflexivos). Contrariamente, agentes IA foram mais culpados quando percecionados como sendo motivados para a autoridade e menos mente metacognitiva. Os resultados são discutidos à luz das teorias centrando as implicações para a teoria, a prática e as interações humano-IA.
EN
The growing frontiers of technology are also pushing the frontiers of social science as regards the challenges AI poses to assumptions about human being and human society. The increasing surrogate status of AI agents, namely those endowed with autonomous action, is of special interest in the intersection of psychology and ethics. Ascribing morality and mind may read as fictional, but a deeper understanding of these constructs may explain the already emerging literature on AI agency and morality. This literature is still scarce and has not treated both topics conjointly, which we believe would be expectable as morality and mind seem to go hand-in-hand. With this objective, we designed a 2x2 experiment to test the effects that ascribed mind dimensions (agentic-experiential & metacognitive) crossed with ascribed morality to agents (authority & harm motivations) have on explaining the degree of blame depending on the nature of the agent (Human vs. AI). With a sample of 137 individuals, controlling for age, gender, wrongfulness, and displacement of responsibilities, we tested this three-way interaction to find fundamental differences between Human and AI agents. Humans were more blamable when they were seen as being less authority motivated (uncompliant) while having low metacognitive mind (less reflexive). Conversely, AI agents were more blamable when they were seen as being authority motivated while having low metacognitive mind. Findings are discussed at the light of the theory highlighting implications for theory, practice and the human-AI interaction.

Relacionadas