INTELIGÊNCIA ARTIFICIAL

“É fundamental estudar a Inteligência Artificial a partir das Ciências Sociais e das Humanidades”




HELENA MACHADO

Investigadora  CIES-Iscte

Centro de Investigação e Estudos de Sociologia



As tecnologias de reconhecimento facial entraram nas nossas vidas, mas ainda sabemos muito pouco acerca dos seus impactos éticos, sociais e políticos. Os benefícios, as controvérsias e os sistemas de segurança, num projeto para ser desenvolvido até 2030




Uma primeira-pergunta em jeito de desafio: se só pudesse dizer apenas um aspeto, o que é mais relevante ter em conta no estudo das tecnologias de reconhecimento facial?

Julgo que é necessário desconstruir o imaginário que vem logo associado quando se fala em tecnologias de reconhecimento facial: do lado de quem desenvolve, segurança; do lado de quem reflete, vigilância excessiva. Como se estes dois aspetos estivessem nos antípodas um do outro.

 

Havemos de voltar a essa dicotomia. Para já, consegue dizer qual foi o ponto zero do fAIces?

Está sobretudo ligado a duas circunstâncias. Primeiro, como socióloga de formação, sempre me interessei por questões relacionadas com a tecnologia, sempre achei que devia estar atenta a publicações que não estão diretamente relacionadas com a escrita académica: leio blogues, artigos de jornais, a MIT Technology Review, a Wired… Foi evidente que a questão da Inteligência Artificial estava a destacar-se, pelas enormes repercussões que tem na sociedade. Depois, quis ir para o reconhecimento facial porque achei que, assim, fazia uma transição interessante do trabalho anterior, que já tem duas décadas, sobre genética forense. Parece-me o caminho perfeito uma vez que, para nos candidatarmos a uma bolsa do ERC, temos não só que ter uma ideia nova como, simultaneamente, precisamos de demonstrar que, pela trajetória já feita, temos capacidades para a desenvolver.

 


Precisamos de desconstruir o imaginário que vem logo associado quando se fala em tecnologias de reconhecimento facial: do lado de quem desenvolve, segurança; do lado de quem reflete, vigilância excessiva



Interessam-lhes as questões da identidade, portanto.

De identidade e de como se constroem identidades a partir de processos de identificação humana. Por exemplo: uma pessoa tem uma aparência credível ou, pelo contrário, uma aparência suspeita? E o que significa ter uma aparência normal, esperada, aceitável, segura…?

 

Um investigador deve dar resposta às questões do seu tempo?

Sim, sem dúvida. Este é um mecanismo de financiamento muito específico, é suposto desenvolver a Ciência por excelência, a Ciência fundamental. Não obstante, tenho sempre uma preocupação muito grande em perceber se se trata de um tema que interessa às pessoas em geral e, no fundo, se podemos devolver resultados concretos à sociedade.

 

O fAIces chama a atenção para as discriminações, para as desigualdades e para a forma como as tecnologias de reconhecimento facial as podem reproduzir. Depois, será necessário desenvolver políticas públicas a partir dos resultados desta investigação?

Sim, e julgo que isso também vai ser feito a partir de uma construção com os participantes no estudo, não tem que ser só a partir dos investigadores. Dou dois exemplos concretos. Este projeto está dividido em diferentes subprojectos: um deles foca-se nos cientistas e em quem desenvolve as tecnologias a partir da academia, outro diz respeito às empresas (embora vá tentar fugir das big tech, para não estar no quadro das empresas do costume…), outro está concentrado nas organizações não-governamentais, que contestam os efeitos discriminatórios e as violações de direitos humanos que estas tecnologias podem produzir… E depois temos outros dois grupos que ainda não foram estudados: os artistas e as comunidades negras e racializadas. Posso estar errada, porque isto ainda está no início, mas adivinho que será principalmente a partir destes dois subprojectos que poderemos mostrar vozes que não têm sido ouvidas no debate público. O objetivo principal é empoderar essas comunidades.



Não raras vezes, esses grupos atuam no espaço público numa lógica ativista.

Mas o nosso projeto não é um projeto de ativismo. É de descoberta de novos dados, de ir ao encontro de realidades que ainda não são tão conhecidas assim.

 

A multidisciplinariedade é outro dos aspetos que tornam este projeto particularmente aliciante?

Sim, há cruzamentos que podem ser muito interessantes. Por exemplo: há artistas que se tornam ativistas pela via da intervenção artística. Como os designers que estão a desenvolver linhas específicas de roupa para as pessoas usarem nas manifestações e não serem reconhecidas por tecnologias de Inteligência Artificial de reconhecimento facial. Eu não fazia ideia de que os padrões de zebra e de tigre dificultam bastante a máquina…

 

Essa multidisciplinariedade estava nos objetivos do projeto desde o princípio?

Devo confessar que, quando comecei a pensar nos artistas, foi muito com base na ideia de descoberta. Achei que muitos dos questionamentos que os artistas fazem são bastante semelhantes aqueles que a sociologia adota para entender os mecanismos de poder. Desde logo: o que é uma cara “normal” e uma cara “não normal”? Há artistas que se interrogam sobre isto e que, numa determinada exposição, nos convidam a selecionar, dentro de um padrão imenso de caras, aquelas que nós achamos que pertencem a pessoas condenadas por crimes. Ou pessoas bissexuais, ou homossexuais, tudo o que saia do padrão normativo convencional. O que é socialmente aceitável tende a ter mais poder do que não é socialmente aceitável, de acordo com os padrões vigentes. Mas o que são padrões vigentes? É preciso clarificar tudo isto…

 


Será principalmente a partir dos artistas e das comunidades negras que poderemos mostrar vozes que não têm sido ouvidas no debate público


 

 

As tecnologias de reconhecimento facial também podem ter implicações na forma como a cidadania é vivida?

Completamente. Temos que recolher todos esses elementos, mas já sabemos algumas coisas porque já há relatórios publicados, nos Estados Unidos da América, na Suécia e em França. Nas escolas, por exemplo, houve um grande debate acerca da utilização do reconhecimento facial com o intuito de identificar e, depois, com o intuito de fazer análise de expressões. Para tentar avaliar se o estudante está ou não atento na sala de aula. Durante a Covid, em vários países, o reconhecimento facial foi usado em algumas instituições de ensino superior. Não deve ter sido caso único, mas a Escola de Direito da Universidade do Minho fez isso. O episódio acabou por ter mais visibilidade porque os alunos aperceberam-se e organizaram um abaixo-assinado contra essa utilização. E a nossa interrogação é: continua a ser usado ou não? As crianças e os adolescentes vão adaptar o seu comportamento à sensação de estar a ser permanentemente vigiado? No limite, constroem até a sua própria identidade com base nesse pressuposto.

Isso, nada sabemos no que diz respeito às implicações. Mas adivinha-se que sejam bastante negativas, até porque estamos a interferir na liberdade individual de cada um. Além do mais, a análise de emoções, com base na análise das micro expressões, é bastante discutível. Existe até um ramo da psicologia cognitiva e das ciências computacionais que está a trabalhar nesse assunto porque a verdade é que ele tem muitas aplicações comerciais: por exemplo, é possível monitorizar as expressões do consumidor numa grande superfície. E na segurança pública também: supostamente, através das expressões, consegue-se adivinhar se uma pessoa está prestes a cometer um ato violento.

 

Também há dilemas éticos a ter em conta?

Não é nossa intenção trabalhar nesse sentido, podemos ter a nossa opinião pessoal, mas não nos vamos pronunciar sobre o que está certo e errado. Não sabemos o que, de facto, está a acontecer, mas uma coisa é certa: isto conduz-nos a dois tipos de posicionamento ético bastante interessantes. Um engenheiro pode estar a trabalhar com colegas da neurologia sobre análise de emoções, pode até estar a pensar em aplicações no domínio da saúde mental, achando que está a contribuir para algo bastante benéfico para a sociedade. E um cidadão comum pode considerar que isso invade seriamente a sua privacidade.

 

Ficaria satisfeita se, no final, conseguisse que o fAIces nos libertasse daquela dicotomia vigilância/segurança, dominante neste debate?

Sem dúvida. E o que é que está no meio? Como é que todas essas dicotomias se cruzam entre elas? As dicotomias fazem-me muita confusão, se estamos sempre a pensar em termos dicotómicos, nunca vemos o que está no meio. Ambicionamos, de facto, sair disso. E mesmo a questão da ética está esvaziada de sentido. O que é a ética para um engenheiro que está a desenvolver Inteligência Artificial? Ou para um artista? Ou para um membro de uma comunidade negra? Os engenheiros estão a falar imenso sobre os aspetos éticos, os filósofos, os juristas… E os sociólogos constatam que a ética está a ser cooptada pelas empresas e pelos engenheiros. Perceberam que, se usarem o discurso da ética e dos direitos humanos, as pessoas desconfiam menos da tecnologia. E todo esse vocabulário passou para o setor do marketing e das relações públicas.

 

Uma das ideias-chave do projeto é estudar a realidade de vários países – como chegou a esta seleção de países?

Antes de responder diretamente, deixe-me contar que, durante a candidatura, quando chegámos à fase da entrevista, a primeira pergunta que me fizeram foi: como é que é possível um projeto sobre tecnologias de reconhecimento facial não contemplar a China? Não acho que haja uma diferença substancial em termos de presença de tecnologia – não estou a falar das implicações da sua utilização – entre Pequim e Nova Iorque. Num museu ou nos transportes públicos, estamos constantemente a ser monitorizados, as nossas caras são gravadas e, muito provavelmente, está também a ser feita análise de emoções. Em todos os países selecionados conseguimos identificar controvérsias e também uma presença forte de organizações não governamentais. Vamos começar por França e pelo Brasil, que tem um mercado muito apetecível tanto para as empresas norte-americanas como para as empresas chinesas que vendem reconhecimento social. Também é o país do mundo com mais população africana fora de África. Depois, vamos ver ainda os Estados Unidos da América (estas mudanças políticas deixam-me receosa….), a Alemanha, o Reino Unido e o Canadá (partimos do pressuposto que se trata de um país com um elevado nível de tolerância relativamente à imigração, é o arquétipo…). E Espanha, que curiosamente tem organizações não governamentais bastante empenhadas nos direitos das comunidades ciganas e dos imigrantes. Queria ter um exemplo da Europa do Sul e, com um bocadinho de sorte, pensei, consigo ter um projeto só sobre Portugal…

 

Outro ainda?

Sim, mas esse é financiado pela Fundação para a Ciência e Tecnologia e não é sobre reconhecimento facial, é só sobre Inteligência Artificial, deixado assim de modo amplo de propósito. Nesse, já me atrevi a prever, na metodologia, fóruns de consenso (não gosto nada da palavra, não é estar toda a gente alinhada, podemos ser felizes com posições divergentes…). Acho que é mesmo importante estudar a Inteligência Artificial a partir das Ciências Sociais e das Humanidades e não deixá-la apenas a quem desenvolve tecnologia…

 

Aos engenheiros?

Não só. Com a Inteligência Artificial generativa, a questão também se coloca com as neurociências, a linguística e a psicologia cognitiva. Dentro do machine learning, o que agora os engenheiros estão a fazer é o deep learning, é pôr a máquina a aprender sozinha, a tentar simular as conexões do cérebro. No fundo, trata-se de pôr a máquina a pensar de acordo com o cérebro humano.

Back to top