Voltar para o Início Ir para o rodapé
'Nós com a máquina'

Nem tecnológico, nem só político: grande desafio da IA é ético

Em encontro do Grupo Tordesilhas, pesquisadores indicam caminhos para que tecnologia possa colaborar com inclusão social e com redução das desigualdades no país e nas universidades

Por Ewerton Martins Ribeiro

Professora Lucía Prieto Santamaría, da Universidade Politécnica de Madrid, fala durante 24º Encontro de Reitores do Grupo Tordesilhas
Lucía Prieto Santamaría, da Universidade Politécnica de Madrid: precisaremos ensinar ‘pensamento algorítmico crítico’
Foto: Raphaella Dias | UFMG

O grande desafio para uma boa incorporação da inteligência artificial na rotina produtiva humana não é tecnológico nem somente político, mas sobretudo ético. E, em alguma medida, também estético. “A IA funciona como uma Ferrari: se você não sabe dirigir, ela não serve para nada”, sintetiza Vinícius Pinheiro Israel, professor da Universidade Federal do Estado do Rio de Janeiro (Unirio). Ao que se poderia acrescentar: “e se quem a usa se permitir dirigi-la bêbado, sem critérios algum…” Bem, nesse caso, ela se torna um verdadeiro risco para si e para o mundo.

“Então você tem de saber fazer as perguntas e saber extrair as respostas”, pontua o doutor em sociologia e estatística. Vinícius Pinheiro falava a reitores de todo o Brasil durante o 24º Encontro de Reitores do Grupo Tordesilhas, realizado nesta segunda-feira, 10, na UFMG, no auditório da Reitoria, em mesa mediada pelo reitor de sua universidade, o professor José da Costa Filho.

Em sua comunicação, Pinheiro discutiu estratégias para integrar a IA na governança universitária de dados e problematizou os parâmetros usados pelos rankings internacionais para medir a qualidade das universidades. Um dos principais problemas, para ficar em um dos tópicos “macro” mencionados: o baixo foco dos rankings internacionais em impacto social e inclusão local, problema particularmente grave para universidades de países em desenvolvimento.

Já em relação à questão ética da inteligência artificial, não se trata naturalmente de apenas melhorar a qualidade das perguntas e das respostas. “Uma coisa que não podemos esquecer é que a configuração dos algoritmos é um processo sociotécnico, feito por seres humanos e por grandes corporações”, acrescentou Vinícius. “E esse processo é resultado direto de escolhas políticas, econômicas e financeiras.” Traduzindo: o modo de funcionamento da IA resulta de um conjunto de escolhas que, somadas, compõem uma ética – um conjunto de regras de conduta e de princípios de ordem valorativa que embasam a perspectiva coletiva da experiência de vida humana. É aí, diz o senso comum, que a porca torce o rabo.

Vinícius Pinheiro Israel, da Unirio, no 24º Encontro de Reitores do Grupo Tordesilhas
Vinícius Pinheiro Israel, da Unirio: algoritmos são fruto de processo sociotécnico, feito por seres humanos e por grandes corporações
Foto: Raphaela Dias | UFMG

“Conceitualmente, a inteligência artificial é basicamente um ramo da ciência da computação que busca fazer máquinas pensarem e agirem como seres humanos – ou seja, busca fazer com que máquinas sejam capazes de aprender, raciocinar, tomar decisões e resolver problemas”, diz o professor. O giro da porca, nesse sentido, é saber qual tipo de humanidade queremos e vamos permitir que essas máquinas espelhem: se aquela que dirige bêbada ou aquela que o faz de modo responsável.

Ferraris: ter ou não tê-las
Mais a fundo, a decisão alcançaria o embate entre aquela sociedade que ama as Ferraris e aquela que questiona o sentido de ainda haver Ferraris no mundo, tecnologias feitas para serem acessíveis a alguns poucos privilegiados. Esse mote – os dilemas éticos do direcionamento a ser dado para a inteligência artificial em nossas sociedades e universidades – acabou modulando todo o debate da segunda mesa da tarde, dando sequência à conversa iniciada na mesa anterior.

Sob a epítome Reconfigurando saberes e competências para uma universidade mais inclusiva, os participantes mesa debateram justamente os desafios que a universidade, em particular, enfrenta hoje para acompanhar o célere desenvolvimento da IA em tempo de conseguir influir eticamente naquela sua programação feita por seres humanos e por grandes corporações. “A probabilidade é muito grande de que, sempre que conseguirmos criar uma legislação para reger a área, essa legislação já vá surgir defasada, dada a velocidade com que a tecnologia se transforma”, aquiesceu o professor.

Girlene Alves da Silva, reitora da UFJF, no 24º Encontro de Reitores do Grupo Tordesilhas
Girlene Alves, reitora da UFJF: luta é por uma IA que dialogue com a cultura do nosso povo
Foto: Raphaela Dias | UFMG

Para romper barreiras
Compondo a mesa ao lado de Vinícius, estava Girlene Alves da Silva, reitora da Universidade Federal Juiz de Fora (UFJF). Para ela, que falou antes do colega, o grande desafio é mesmo impedir que o avanço do uso da inteligência artificial nas universidades colabore para o agravamento das já inúmeras assimetrias.

“Acho que esse é o grande debate que enfrentamos hoje, quando discutimos o financiamento da educação pública superior no Brasil”, disse a reitora. “O que queremos, nas universidades, é perseguir uma inteligência artificial que nos possibilite romper barreiras. A IA não pode ser um elemento para reiterar e repercutir as desigualdades de nosso país”, clamou.

“O desafio é alcançarmos uma inteligência artificial que dialogue com a cultura do nosso povo, uma IA que represente a cultura tão diversa do nosso país”, insistiu a gestora, que também defendeu o uso compartilhado da tecnologia por nossas universidades. “Precisamos encontrar formas de fazer com que o que é produzido de saber e de estratégia em IA em uma universidade possa ser usado em outra, de modo a ganharmos tempo e economizarmos recursos.”

Para Girlene Alves, esse é o caminho para gerar mais igualdade de acesso e equidade na distribuição dos recursos tecnológicos no território nacional. “Com uma medida assim, vamos evitar retrabalhos e desperdício.”

24º Encontro de Reitores do Grupo Tordesilhas, realizado na UFMG
Encontro de Reitores realizado no auditório da Reitoria, no campus Pampulha
Foto: Raphaela Dias | UFMG

IA e as redes humanas
Doutora em ciência da comunicação e mestre em biologia computacional, a biotecnologista espanhola Lucía Prieto Santamaría, professora da Universidade Politécnica de Madrid (UPM), investiga o uso da inteligência artificial no campo da biomedicina. Em sua fala, ela insistiu em um ponto: o de que a inclusão digital de grupos desprivilegiados não ocorre nem nunca ocorrerá sozinha, automaticamente, nunca surgirá do mero desenvolvimento da tecnologia.

“Não há inclusão natural no processo. Para que essa inclusão ocorra, nós precisaremos incorporá-la ao processo de desenho e de modelação da inteligência artificial, mesmo no desenho dos modelos algorítmicos. Quais dados compilamos? Como os compilamos? Quem participa desse processo? Com quais valores prévios interpretamos os seus resultados? Tudo isso importa”, indica a especialista da Politécnica de Madrid.

Se esse não for um movimento feito com rigor, continuidade e método, a IA simplesmente reproduzirá e radicalizará vieses já presentes em nossos processos atuais, em vez de mitigá-los. “A inteligência artificial aprende do mundo o que ela vê: assim, se um grupo não aparece nos dados, ele também não aparecerá nas predições”, sintetiza. “Nesse sentido, as universidades têm o poder e a responsabilidade de decidir para quem funcionará a IA”, sugeriu.

“Portanto, essa é uma questão fundamentalmente universitária: adotarmos critérios para decidir quais conhecimentos são válidos e para quem”, pontuou em dado momento a especialista. Para ela, o desafio passa pela necessidade de equilibrar tecnologia com valores humanos, eterno calcanhar de Aquiles na história do desenvolvimento da humanidade.

Desafio segue sendo a inclusão
“O que pensamos quando falamos em inclusão? Pensamos muito no acesso: em quem entra, quem se matricula. No entanto, incluir não significa apenas fazer estar presente: significa fazer aparecer ainda nos dados que vão definir a realidade prévia”, avalia a pesquisadora.

“Se um grupo não está nos dados, no mapa, a IA não o vê, não o considera e, consequentemente, o exclui dos processos e dos resultados. Incluir, portanto, significa não apenas dar acesso aos estudantes menos normativos, mas, sim, considerá-los ainda na hora de criar o mapa. A inteligência artificial aprende do mundo o que ela vê”, ela diz.

“Se um grupo não aparece nos dados, ele também não aparecerá nas predições”, insistiu Lucía Santamaría. A consequência é termos resultados com vieses – mas que, por repercutirem vieses que já existem no mundo pré-IA, podem até mesmo passar despercebidos. Portanto, “incluir significa desenhar dados e critérios que reconheçam as diferenças” e saibam contemplá-las proativamente em suas métricas.

Encontro de Reitores realizado no auditório da Reitoria, no campus Pampulha
24º Encontro de Reitores do Grupo Tordesilhas, na UFMG
Foto: Raphaela Dias | UFMG

O desafio do ‘pensamento algorítmico crítico’
Segundo Lucía Santamaría, a IA tem um potencial descomunal de colaborar para uma aprendizagem mais adaptada a cada estudante, para a detecção precoce de necessidades de apoio, para a oferta de recursos de acessibilidade e de suporte para situações de diversidade funcional – para ampliar o acesso ao conhecimento. Ao mesmo tempo, tem como desafio sua vocação inata para a reprodução das desigualdades que estão embutidas nos dados disponíveis.

Portanto, o papel das universidades nesse campo será o de “tornar visível aquilo que não se vê: localizar exclusões (pontos de interseção que ficaram ilhados no que ela entende como uma rede, sobre a qual os processos da IA se estruturam de um modo semelhante às redes dos processos biológicos) e tentar refazer suas conexões”. Cuidar das conexões, ela diz, não apenas para fomentar a diversidade, mas também “fortalecer as relações que importam”.

O trabalho é complexo, demanda uma série de etapas e investimentos, mas passará necessariamente, e talvez prioritariamente, por um processo de letramento que chama de “pensamento algorítmico crítico”. Em suas palavras, “não apenas ensinar tecnologias de IA, mas ensinar a questioná-las, a auditá-las, a contextualizá-las e a corrigi-las.” O que importa entender, em resumo, é que “a IA não é neutra: aprende do que construímos”.

A IA acelera o descobrimento, mas não acelera a sua explicação e responsabilidade, dimensões que seguem recaindo sobre o humano. “Não é ‘a máquina ou nós’”, ela diz, mas “‘nós com a máquina’”.

Categoria: Internacional

Mais lidos

Semana

Notícias por categoria

Escolha a categoria:
Internacional