Nem tecnológico, nem só político: grande desafio da IA é ético
Em encontro do Grupo Tordesilhas, pesquisadores indicam caminhos para que tecnologia possa colaborar com inclusão social e com redução das desigualdades no país e nas universidades
Por Ewerton Martins Ribeiro
O grande desafio para uma boa incorporação da inteligência artificial na rotina produtiva humana não é tecnológico nem somente político, mas sobretudo ético. E, em alguma medida, também estético. “A IA funciona como uma Ferrari: se você não sabe dirigir, ela não serve para nada”, sintetiza Vinícius Pinheiro Israel, professor da Universidade Federal do Estado do Rio de Janeiro (Unirio). Ao que se poderia acrescentar: “e se quem a usa se permitir dirigi-la bêbado, sem critérios algum…” Bem, nesse caso, ela se torna um verdadeiro risco para si e para o mundo.
“Então você tem de saber fazer as perguntas e saber extrair as respostas”, pontua o doutor em sociologia e estatística. Vinícius Pinheiro falava a reitores de todo o Brasil durante o 24º Encontro de Reitores do Grupo Tordesilhas, realizado nesta segunda-feira, 10, na UFMG, no auditório da Reitoria, em mesa mediada pelo reitor de sua universidade, o professor José da Costa Filho.
Em sua comunicação, Pinheiro discutiu estratégias para integrar a IA na governança universitária de dados e problematizou os parâmetros usados pelos rankings internacionais para medir a qualidade das universidades. Um dos principais problemas, para ficar em um dos tópicos “macro” mencionados: o baixo foco dos rankings internacionais em impacto social e inclusão local, problema particularmente grave para universidades de países em desenvolvimento.
Já em relação à questão ética da inteligência artificial, não se trata naturalmente de apenas melhorar a qualidade das perguntas e das respostas. “Uma coisa que não podemos esquecer é que a configuração dos algoritmos é um processo sociotécnico, feito por seres humanos e por grandes corporações”, acrescentou Vinícius. “E esse processo é resultado direto de escolhas políticas, econômicas e financeiras.” Traduzindo: o modo de funcionamento da IA resulta de um conjunto de escolhas que, somadas, compõem uma ética – um conjunto de regras de conduta e de princípios de ordem valorativa que embasam a perspectiva coletiva da experiência de vida humana. É aí, diz o senso comum, que a porca torce o rabo.
“Conceitualmente, a inteligência artificial é basicamente um ramo da ciência da computação que busca fazer máquinas pensarem e agirem como seres humanos – ou seja, busca fazer com que máquinas sejam capazes de aprender, raciocinar, tomar decisões e resolver problemas”, diz o professor. O giro da porca, nesse sentido, é saber qual tipo de humanidade queremos e vamos permitir que essas máquinas espelhem: se aquela que dirige bêbada ou aquela que o faz de modo responsável.
Ferraris: ter ou não tê-las
Mais a fundo, a decisão alcançaria o embate entre aquela sociedade que ama as Ferraris e aquela que questiona o sentido de ainda haver Ferraris no mundo, tecnologias feitas para serem acessíveis a alguns poucos privilegiados. Esse mote – os dilemas éticos do direcionamento a ser dado para a inteligência artificial em nossas sociedades e universidades – acabou modulando todo o debate da segunda mesa da tarde, dando sequência à conversa iniciada na mesa anterior.
Sob a epítome Reconfigurando saberes e competências para uma universidade mais inclusiva, os participantes mesa debateram justamente os desafios que a universidade, em particular, enfrenta hoje para acompanhar o célere desenvolvimento da IA em tempo de conseguir influir eticamente naquela sua programação feita por seres humanos e por grandes corporações. “A probabilidade é muito grande de que, sempre que conseguirmos criar uma legislação para reger a área, essa legislação já vá surgir defasada, dada a velocidade com que a tecnologia se transforma”, aquiesceu o professor.
Para romper barreiras
Compondo a mesa ao lado de Vinícius, estava Girlene Alves da Silva, reitora da Universidade Federal Juiz de Fora (UFJF). Para ela, que falou antes do colega, o grande desafio é mesmo impedir que o avanço do uso da inteligência artificial nas universidades colabore para o agravamento das já inúmeras assimetrias.
“Acho que esse é o grande debate que enfrentamos hoje, quando discutimos o financiamento da educação pública superior no Brasil”, disse a reitora. “O que queremos, nas universidades, é perseguir uma inteligência artificial que nos possibilite romper barreiras. A IA não pode ser um elemento para reiterar e repercutir as desigualdades de nosso país”, clamou.
“O desafio é alcançarmos uma inteligência artificial que dialogue com a cultura do nosso povo, uma IA que represente a cultura tão diversa do nosso país”, insistiu a gestora, que também defendeu o uso compartilhado da tecnologia por nossas universidades. “Precisamos encontrar formas de fazer com que o que é produzido de saber e de estratégia em IA em uma universidade possa ser usado em outra, de modo a ganharmos tempo e economizarmos recursos.”
Para Girlene Alves, esse é o caminho para gerar mais igualdade de acesso e equidade na distribuição dos recursos tecnológicos no território nacional. “Com uma medida assim, vamos evitar retrabalhos e desperdício.”
IA e as redes humanas
Doutora em ciência da comunicação e mestre em biologia computacional, a biotecnologista espanhola Lucía Prieto Santamaría, professora da Universidade Politécnica de Madrid (UPM), investiga o uso da inteligência artificial no campo da biomedicina. Em sua fala, ela insistiu em um ponto: o de que a inclusão digital de grupos desprivilegiados não ocorre nem nunca ocorrerá sozinha, automaticamente, nunca surgirá do mero desenvolvimento da tecnologia.
“Não há inclusão natural no processo. Para que essa inclusão ocorra, nós precisaremos incorporá-la ao processo de desenho e de modelação da inteligência artificial, mesmo no desenho dos modelos algorítmicos. Quais dados compilamos? Como os compilamos? Quem participa desse processo? Com quais valores prévios interpretamos os seus resultados? Tudo isso importa”, indica a especialista da Politécnica de Madrid.
Se esse não for um movimento feito com rigor, continuidade e método, a IA simplesmente reproduzirá e radicalizará vieses já presentes em nossos processos atuais, em vez de mitigá-los. “A inteligência artificial aprende do mundo o que ela vê: assim, se um grupo não aparece nos dados, ele também não aparecerá nas predições”, sintetiza. “Nesse sentido, as universidades têm o poder e a responsabilidade de decidir para quem funcionará a IA”, sugeriu.
“Portanto, essa é uma questão fundamentalmente universitária: adotarmos critérios para decidir quais conhecimentos são válidos e para quem”, pontuou em dado momento a especialista. Para ela, o desafio passa pela necessidade de equilibrar tecnologia com valores humanos, eterno calcanhar de Aquiles na história do desenvolvimento da humanidade.
Desafio segue sendo a inclusão
“O que pensamos quando falamos em inclusão? Pensamos muito no acesso: em quem entra, quem se matricula. No entanto, incluir não significa apenas fazer estar presente: significa fazer aparecer ainda nos dados que vão definir a realidade prévia”, avalia a pesquisadora.
“Se um grupo não está nos dados, no mapa, a IA não o vê, não o considera e, consequentemente, o exclui dos processos e dos resultados. Incluir, portanto, significa não apenas dar acesso aos estudantes menos normativos, mas, sim, considerá-los ainda na hora de criar o mapa. A inteligência artificial aprende do mundo o que ela vê”, ela diz.
“Se um grupo não aparece nos dados, ele também não aparecerá nas predições”, insistiu Lucía Santamaría. A consequência é termos resultados com vieses – mas que, por repercutirem vieses que já existem no mundo pré-IA, podem até mesmo passar despercebidos. Portanto, “incluir significa desenhar dados e critérios que reconheçam as diferenças” e saibam contemplá-las proativamente em suas métricas.
O desafio do ‘pensamento algorítmico crítico’
Segundo Lucía Santamaría, a IA tem um potencial descomunal de colaborar para uma aprendizagem mais adaptada a cada estudante, para a detecção precoce de necessidades de apoio, para a oferta de recursos de acessibilidade e de suporte para situações de diversidade funcional – para ampliar o acesso ao conhecimento. Ao mesmo tempo, tem como desafio sua vocação inata para a reprodução das desigualdades que estão embutidas nos dados disponíveis.
Portanto, o papel das universidades nesse campo será o de “tornar visível aquilo que não se vê: localizar exclusões (pontos de interseção que ficaram ilhados no que ela entende como uma rede, sobre a qual os processos da IA se estruturam de um modo semelhante às redes dos processos biológicos) e tentar refazer suas conexões”. Cuidar das conexões, ela diz, não apenas para fomentar a diversidade, mas também “fortalecer as relações que importam”.
O trabalho é complexo, demanda uma série de etapas e investimentos, mas passará necessariamente, e talvez prioritariamente, por um processo de letramento que chama de “pensamento algorítmico crítico”. Em suas palavras, “não apenas ensinar tecnologias de IA, mas ensinar a questioná-las, a auditá-las, a contextualizá-las e a corrigi-las.” O que importa entender, em resumo, é que “a IA não é neutra: aprende do que construímos”.
A IA acelera o descobrimento, mas não acelera a sua explicação e responsabilidade, dimensões que seguem recaindo sobre o humano. “Não é ‘a máquina ou nós’”, ela diz, mas “‘nós com a máquina’”.
Mais lidos
Semana
-
Arqueologia da repressão UFMG coordena escavações arqueológicas no antigo DOI-Codi de São Paulo
Grupos da Universidade, da Unicamp e da Unifesp buscam vestígios para recontar o passado do local onde o jornalista Vladimir Herzog foi assassinado há 50 anos
-
'Nós com a máquina' Nem tecnológico, nem só político: grande desafio da IA é ético
Em encontro do Grupo Tordesilhas, pesquisadores indicam caminhos para que tecnologia possa colaborar com inclusão social e com redução das desigualdades no país e nas universidades
-
Processo seletivo Divulgados novo Documento Norteador e Guia do Candidato do Seriado UFMG
Documentos vão auxiliar na preparação dos candidatos; DN recebeu contribuições de 107 professores, dois terços dos quais vinculados a escolas públicas
-
Estudos Culturais UFMG sedia, em 2026, primeira edição da conferência ‘Crossroads in cultural studies’ na América do Sul
Propostas de apresentação de trabalhos podem ser submetidas até 20 de dezembro
-
Escola democrática Expoente da pedagogia crítica tem agenda de atividades na UFMG com especialistas em educação básica e formação de professores
Emérito da Universidade de Wisconsin-Madison, Michael Apple é o titular da cátedra Fundep Magda Soares do Ieat
Notícias por categoria
Internacional
-
Grupo Tordesilhas Universidade do futuro: gestores defendem internacionalização inclusiva e sustentável
Representantes do MEC, do CNPq e da Capes falaram sobre políticas de fomento, redes multilíngues e desafios da pós-graduação brasileira
-
Conhecimento em transformação IA redefine a própria ideia de inteligência, diz professor da Fale em mesa do encontro do Grupo Tordesilhas
Tecnologia pode ser uma importante aliada do ensino, desde que vista numa perspectiva de cooperação, avaliam especialistas das universidades de Lisboa e Léon
-
'Nós com a máquina' Nem tecnológico, nem só político: grande desafio da IA é ético
Em encontro do Grupo Tordesilhas, pesquisadores indicam caminhos para que tecnologia possa colaborar com inclusão social e com redução das desigualdades no país e nas universidades
-
IA com regras ‘Algoritmização da sociedade precisa ser regulada’, defende Virgílio Almeida
Professor do DCC ministrou a conferência de abertura do 24° Encontro do Grupo Tordesilhas; dirigentes defendem olhar ético sobre a tecnologia para garantir inclusão e impedir desigualdades
-
Universidade do futuro Começa encontro do Grupo Tordesilhas, que discute IA, ética e inclusão
Reitores de universidades do Brasil, da Espanha e de Portugal estão reunidos na UFMG; dirigentes foram recebidos no Palácio da Liberdade