Loja
Apoio: Roche

Saiba onde descartar seus resíduos

Verifique o campo
Inserir um CEP válido
Verifique o campo

Por Beatriz Herminio, da IEA USP | “A ética é uma práxis humana. No entanto, isso começa a sofrer arranhões quando várias das nossas interações são mediadas por máquinas.” A frase de Eugênio Bucci, coordenador acadêmico da Cátedra Oscar Sala, deu o tom do evento “Existe Ética na Inteligência Artificial?”, que aconteceu no dia 16 de setembro. Na ocasião, especialistas debateram, entre outras questões, os mitos, as precauções e os riscos do uso de Inteligência Artificial (IA) em diferentes contextos. O encontro foi organizado pela Cátedra Oscar Sala e pelo Centro de Inteligência Artificial (C4AI).

A Cátedra
Parceria da USP com o Comitê Gestor da Internet no Brasil (CGI.br), a Oscar Sala é operada pelo IEA e o Núcleo de Informação e Coordenação do Ponto BR (NIC.br), e tem como foco aprofundar o conhecimento sobre as ferramentas e aplicações da internet. Em 2022, se dedica ao estudo do comportamento das interações entre humanos, algoritmos, sistemas de inteligência artificial e robôs enquanto fatores essenciais para a construção de mecanismos de governança digital.

Mitos, incertezas e desconfianças

A ética requer e supõe a existência de um sujeito responsável, livre e racional. Para Bucci, sem isso, é difícil postular uma dimensão de natureza moral ou ética para as ações. Considerando que a ética é obrigatoriamente humana, o professor questionou como ela fica quando inúmeras ações que geram consequências sociais têm as máquinas como protagonistas totais ou parciais.

“Não há nada de artificial na Inteligência Artificial.” Caio Túlio Costa, doutor em comunicação pela ECA e fundador da Torabit, plataforma de monitoramento digital, vê na artificialidade da IA sua principal mistificação. “Ela é inspirada por pessoas, é criada por pessoas e, mais importante, ela impacta pessoas”, completou, parafraseando a cientista Fei Fei Li.

Pensando nas grandes empresas de tecnologia, ele acredita que quanto mais tempo levar a discussão da questão ética, melhor é para a indústria. “A mistificação maior é achar que a questão ética está num produto, numa ferramenta, num jeito de fazer. Ela é necessária antes de tudo isso, antes do esvaziamento do humano.”

No contexto da campanha de prevenção ao suicídio do mês de setembro – o Setembro Amarelo –, Glauco Arbix, do Observatório da Inovação e Competitividade (OIC) do IEA, comentou o crescimento de aplicativos de terapia via algoritmos. “A ideia de diagnósticos digitais está se tornando cada vez mais poderosa, talvez a partir de uma ideia de que a ciência pode entender o sofrimento humano melhor do que nós mesmos”, afirmou.

Observa-se um avanço das técnicas de Machine Learning na área do mal-estar, depressão e crise, por aplicativos ou plataformas de IA. Segundo Arbix, a maioria das conversas realizadas por usuários com a Siri e a Alexa, assistentes de voz da Apple e da Amazon, respectivamente, não estão relacionadas aos serviços oferecidos por elas, e sim a problemas pessoais, como estresse e frustrações amorosas, por exemplo. A liberdade de conversar com um assistente de voz se compara à de conversar com um diário, que não compartilha do que sentimos, afirmou.

Francisco de Brito Cruz, doutor e mestre em Filosofia e Teoria Geral do Direito, reiterou que os assistentes de voz são pessoas que representam marcas, sendo, antes de tudo, garotos propaganda.

As pessoas se sentem bem transferindo seus sentimentos para a máquina, e esta identifica e tende a reproduzir padrões encontrados em bancos de dados, além de valores e ideias de grupos específicos, explicou Arbix. Ele apontou que estamos diante de um capitalismo “muito mais emocional do que a gente pensa”, e que os aplicativos fazem o possível e o impossível para mostrar que a culpa ou responsabilidade pelo problema que as pessoas enfrentam estão nelas mesmas.

Cruz questionou como os aplicativos de terapia aparecem ao mesmo tempo em que problemas de saúde mental se agudizam, em especial em populações mais jovens e a partir do uso de determinadas redes sociais – e outros tipos de IA que, no limite, “são desenhados para hackear a maior parte da atenção das pessoas”. Cada vez mais, as redes sociais estão se tornando ferramentas de entretenimento e envio de conteúdos a partir do que o algoritmo aprendeu sobre as preferências do usuário.

Pensando na ideia de atraso em relação à regulação das práticas que dizem respeito ao uso da IA, ele afirmou que, por um lado, o direito é uma ferramenta para resolver conflitos – e não uma especulação –; por outro, pode induzir determinados desenvolvimentos e implicar políticas públicas enquanto ferramenta que antecede conflitos.

Quando o último caso ocorre, a reflexão que fica é a de que o direito será o palco onde as mistificações vão aparecer enquanto narrativas. O problema de criar uma regulação antes dos conflitos ocorrerem é “cristalizar uma solução antes que a sociedade faça uma análise profunda das consequências”, acredita Cruz.

Luiz Fernando Martins Castro declarou ter preocupações e dúvidas quanto à capacidade do uso da IA na justiça. “Qual é o papel da justiça? O papel da justiça é ser rápida?”, questionou. O coordenador-adjunto da Cátedra Oscar Sala acredita que a justiça tem um papel a cumprir, e este é entregar a jurisdição. Para ele, a automação e a baixa IA são bem-vindas no direito, mas não devem ser aplicadas para dar soluções e sentenças.

A especificidade é o que deve estar no centro da pesquisa sobre IA e sua regulação, acredita Arbix. Para ele, a característica-chave da IA é o fato de ela reproduzir esquemas dominantes que contribuem para moldar a realidade, exercendo controle sobre as pessoas ao agir de acordo com valores que não são próprios dela.

As máquinas

Para explicar o que é a IA, Claudio Pinhanez, pesquisador da IBM Research, apresentou-a, de forma resumida, como redes neurais – funções matemáticas complexas construídas através de um processo de aprendizado. As funções, ininteligíveis para seres humanos devido ao seu espaço dimensional, foram definidas por ele como caixas pretas. Essas redes neurais computam funções, conseguem lidar com problemas que não são lineares e resolvem bem problemas de similaridade.

Machine Learning, portanto, é uma caixa preta com três características importantes, explicou. Ela tem uma saída probabilística, não é previsível e não dá para explicar o que acontece dentro – e vivemos com exemplos delas, como freio ABS e marca-passos, por exemplo.

O problema das caixas pretas é que vemos a IA “como se fosse inteligente”, uma crença criada pelo hype excessivo dessa ciência. Não tem a ver com inteligência, mas com decisão automatizada, explicou Pinhanez. “A gente pegou um aspecto do cérebro humano, que é a similaridade, e conseguiu resolver esse problema numa máquina. Daí para a inteligência ainda tem uns 30 ou 40 atributos do ser humano que eu vou precisar resolver pra dizer que é uma máquina inteligente.”

O pesquisador propõe que as interfaces trabalhem em torno de três princípios para os usuários leigos no tema. O primeiro é expor incertezas. A pesquisa eleitoral, por exemplo, deve falar em margem de erro. O segundo é instigar desconfiança – da mesma forma que o Google não aponta apenas uma resposta, e aprendemos a desconfiar do que lemos. E o terceiro é evitar falsidade ao colocar as interfaces como algo que não são, com capacidades e características que não possuem.

Para tratar da questão ética, Patrícia Huelsen, doutora em Tecnologias da Inteligência e Design Digital, propôs pensar nas máquinas de julgamentos morais, cujo foco é aprender sobre a moral e a virtude. “Esses agentes morais artificiais pretendem observar e replicar o comportamento humano ao longo do tempo de forma a construir o seu próprio caráter”, afirmou.

Os dilemas vividos pelos desenvolvedores de sistemas inteligentes dizem respeito a como não aprender errado como os humanos, mas também a ser sensível aos valores humanos. Patrícia apresentou propriedades fundamentais para a IA ética, sendo elas a transparência, a explicabilidade, a imparcialidade, a privacidade (protegendo consumidores e direitos de dados) e a robustez e segurança da IA.

Outras medidas a serem somadas a isso são a inclusão do estudo de ética nas escolas de tecnologia e computação; e a adoção de políticas de formação de equipes de programadores e designers cada vez mais diversas. Os dilemas que devem ser enfrentados em IA têm como agentes necessários órgãos fiscalizadores, universidades, governos, empresas, organizações internacionais, entidades de classes e organizações independentes da sociedade civil.

Como condição para que players de IA possam vender tecnologias para serviços públicos, Vitor Blotta, coordenador do Grupo de Pesquisa Jornalismo, Direito e Liberdade, sugeriu a possibilidade de que os sistemas de IA sejam transparentes em suas decisões, em um movimento de “abrir” as caixas pretas. Blotta ainda questiona quais normas da IA se transformam em decisões que afetam nosso comportamento e decisão humana, e em que medida as lógicas desses sistemas se tornam lógicas de sistemas de poder.

Para Juliano Maranhão, professor da Faculdade de Direito da USP, a proteção da personalidade no espaço digital tem menos a ver com a proteção do indivíduo, e está mais relacionada com a proteção da possibilidade de participação dos indivíduos nos meios de comunicação e, portanto, com a democracia no espaço digital.

Efeitos na democracia

Frente ao big data e a IA, a sobrevivência da democracia foi questionada por Dora Kaufman, professora do Programa de Tecnologias da Inteligência e Design Digital na PUC-SP.

A IA é um recurso para processar e analisar grandes amostras de dados, identificar textos que contêm palavras-chave potencialmente odiosas, e criar métodos para quantificar e categorizar semelhanças entre palavras, frases e sentenças – podendo ser utilizada a favor de um espaço democrático e contribuindo para enfrentar a assimetria da informação. Sua subutilização, no entanto, ameaça a democracia e gera discrepância entre os países, afirmou Dora.

Ela apontou a existência de uma convergência de interesses entre o modelo de negócios das plataformas – baseado em dados – e o discurso de ódio. Discursos de ódio, pela natureza humana, se disseminam de forma rápida. Quanto maior sua disseminação, maior é a geração de dados na plataforma. Esse contexto também é favorável à disseminação e perpetuação de preconceitos da sociedade pelas tecnologias. Como apontado pela pesquisadora da cátedra Paola Cantarini, a IA não cria discriminação, mas é vendida como uma tecnologia neutra e objetiva.

“Quando a gente pensa na circulação de informação nas mídias sociais, o fato de as próprias mídias decidirem suas regras privadamente sobre o que vale ou não vale no debate nesses ambientes – que têm papel fundamental em construir o debate público – é bastante grave”, comentou Nina Santos, pós-doutoranda no Instituto Nacional de Ciência e Tecnologia em Democracia Digital.

Ela deu como exemplo experimentos publicados recentemente que testaram as políticas de anúncio e recomendação do Facebook e do YouTube, respectivamente.

No primeiro caso, o experimento realizado pela Global Witness foi feito a partir da criação de anúncios que atacavam a integridade eleitoral e disseminavam mentiras sobre as eleições de 2022 – como datas erradas e métodos de votação inexistentes no país. Enviados de fora do Brasil, os anúncios foram ao ar após passar por uma avaliação da plataforma, mesmo violando as políticas de anúncios eleitorais e diretrizes da comunidade da Meta, empresa do Facebook.

No segundo caso, uma pesquisa do NetLab, da Universidade Federal do Rio de Janeiro (UFRJ), constatou que a plataforma do YouTube estava priorizando vídeos da Jovem Pan e conteúdos a favor do presidente Jair Bolsonaro para usuários sem histórico de navegação na plataforma, ou seja, a partir de 18 perfis criados “do zero”. Após consumir um dos vídeos, entrava-se em um “looping de recomendações” de conteúdos do mesmo veículo. Para Nina, o elemento-chave para entender esses resultados está na aproximação entre o tipo de conteúdo produzido e o modelo de negócios do YouTube, como levantado por Dora.

Ainda no campo das redes sociais, ocorre no Facebook uma classificação dos usuários conforme seus interesses, separando-os em grupos para direcionar publicidades – como propaganda política, por exemplo. Para Virgílio Almeida, titular da Cátedra Oscar Sala, os sistemas de classificação devem ser lidos como políticos, e podem ter um impacto grande na democracia, na liberdade das pessoas de fazerem suas próprias decisões, entre outras questões.

Pensando nas pessoas que desenvolvem e mantêm os softwares, o cientista da computação enxerga a necessidade de uso de ferramentas para que os algoritmos tenham cuidado com questões que envolvam decisões a serem tomadas pelos usuários, em especial quando elas estão ligadas a valores.

Ele deu como exemplo um cenário em que os algoritmos podem detectar se as pessoas têm distúrbios alimentares, e ter a informação de que vídeos que recomendam determinadas dietas podem ter efeitos negativos nessas pessoas. “A questão que surge é: seria razoável, ou mesmo mandatório, frustrar a expectativa do usuário de ver aquele material porque o algoritmo sabe que ele é possivelmente nocivo para aquela pessoa?”, questionou.

Como caminhos a serem seguidos pela academia nesse contexto, Almeida apontou a inclusão de conhecimento de ciências humanas e sociais na formação de profissionais da área da computação e a existência de equipes multidisciplinares integradas às equipes técnicas que projetam e desenvolvem os algoritmos. O catedrático reiterou a necessidade desenvolver políticas públicas, para além de manifestar desconforto com questões éticas.

Também participaram do evento Guilherme Ary Plonski, diretor do IEA, Magaly Prado e Elen Nas, ambas pós-doutorandas da cátedra.

Este texto foi originalmente publicado pelo Instituto de Estudos Avançados da Universidade de São Paulo  de acordo com a licença Creative Commons CC-BY-NC-ND. Leia o original. Este artigo não necessariamente representa a opinião do Portal eCycle.


Utilizamos cookies para oferecer uma melhor experiência de navegação. Ao navegar pelo site você concorda com o uso dos mesmos. Saiba mais