Relatoria LACIGF 12 - Sessão 12: Tomada de decisões automatizada e Inteligência Artificial: como se prepara a região?

A moderadora María Paz Canales (Derechos Digitales, Chile) ressaltou a necessidade de se trabalhar no marco regulatório que acompanha o processo de regulação da inteligência artificial (IA) e garantir a atuação dos cidadãos da região. A ideia é que cada um compartilhe experiências e perspectivas sobre essas questões.

Pollyanna Rigon Valente (Youth Observatory, Brasil) começou falando que faz parte do Youth Observatory e que gostaria de falar sobre o cenário técnico da IA: "Algoritmos são opiniões embutidas na matemática". Mesmo sem querer, os programadores vão colocar suas opiniões e seus preconceitos nos algoritmos que eles constroem, e há um certo viés. Ela citou os casos de “sucesso” dos famosos algoritmos de IA feitos pela Amazon, MIT, COMPAS e Microsoft, e que afetaram negativamente através do seu conteúdo. Ela comentou que um caso de “sucesso” de algoritmo nem sempre é bom: Amazon (seu algoritmo de avaliação de funcionários era sexista); Norman (algoritmo desenvolvido pelo MIT que se tornou um software psicopata); COMPAS (software de busca para avaliação prévia do perfil de pessoas); e Tay Tweets (bot da Microsoft que se tornou fascista). Ela argumentou que todos são softwares fechados, e é por isso que não há possibilidade de análise, o que é algo importante. Ela levantou uma questão: como a comunidade técnica pode participar da discussão a respeito de decisões automatizadas? Segundo ela, a comunidade de software livre é muito unida e, com o código aberto, a comunidade científica pode trabalhar individualmente naquilo que considera mais ético. Com o software livre, a comunidade pode adaptar o software a uma realidade mais regional e isso tem um impacto diferente.

Javier Barreiro (Agesic, Uruguai) falou sobre o desenvolvimento do governo digital realizado pela Agesic e que, especificamente desde o ano passado, tem sido realizado um trabalho de melhoria dos órgãos públicos. O processo começou com uma chamada interna para os interessados ​​dentro da agência em que eles comentaram por que estavam interessados ​​em desenvolver a estratégia para o governo digital. Eles prepararam um esboço de estratégia. O primeiro passo foi a definição dos princípios que devem ser levados em conta pela administração pública para o trabalho de IA. Os princípios foram desenvolvidos (Governança, Capacidades, Uso, Sensibilização) e colocados em consulta pública (empresas, cidadãos, academia, etc). Todos os atores participaram disso com seus comentários. Ele disse que existem muitas entidades e atores com princípios diferentes. O Facebook tem seus princípios e o Estado tem outros princípios, por exemplo, e temos que entender o valor do ser humano e entender o valor da decisão tomada. Temos que ter a participação de diferentes atores para estabelecer métodos automatizados de tomada de decisão: quem está na academia, na indústria, no governo e na sociedade civil. Os princípios são compartilhados de forma geral pela Agesic, Facebook, OCDE, entre outras instituições.

Paula Vargas (Facebook, Argentina) disse que soluções automatizadas podem favorecer todos os setores em todos os âmbitos, mas levanta preocupações que são muito relevantes: discriminação, transparência de algoritmos, segurança de algoritmos. Em relação à questão "Qual é o marco ético no qual operar essa tecnologia?", ela propõe que a inteligência seja regida por um marco ético e por uma lei social, e refletiu sobre quais são os mecanismos para mitigar os resultados. Ela disse que o Facebook usa muita inteligência artificial em muitos de seus produtos (feed de notícias, buscas, reconhecimento facial) e que também usa dados de IA para o bem-estar da comunidade (ajudando organizações de saúde, por exemplo) e que a IA ainda é usada para moderar o conteúdo em suas plataformas com 2,7 bilhões de pessoas (violência gráfica, nudez e atividade sexual, propaganda terrorista, discurso de ódio, spam e contas falsas). Sobre como o Facebook constrói tecnologia que inclui ética em seus produtos, ela comentou que, se não levar em conta que as pessoas são diferentes, se não for representativo, o algoritmo terá um erro. No final, ela comentou sobre as lições aprendidas durante esse período trabalhando com inteligência artificial:

  • Deixe que se pergunte à IA e que ela responda a perguntas difíceis;
  • Pense: para quê este produto foi feito?;
  • Documente o processo muito bem;
  • Este processo é de monitoramento contínuo;
  • Identifique os riscos em cada etapa da implementação, não apenas no desenvolvimento;
  • Questões éticas podem ser difíceis, de impacto social, por isso a comunidade deve estar envolvida.

Ela sugeriu que devemos abrir avanços científicos para a comunidade para avançar no estado da arte e que nem todas as decisões automatizadas são iguais; temos de desenvolver uma taxonomia e trabalhar juntos.

Estelle Massé (Access Now) comentou que, na Europa, foi criado um grupo multissetorial de especialistas em questões de IA que tinha dois eixos de trabalho: definir o marco da estratégia europeia; e avaliar onde os desafios da IA ​​vão focar. Sugeriu a série The Good Place para se ver o tópico da ética. Ela comentou que quando o debate sobre ética começa, é necessário avaliar que tipo de ética é necessário tomar (ela denominou quatro correntes: virtuosismo, consequencialismo, niilismo, deontologia), e que não se está pedindo uma regulamentação tecnológica específica, mas sim uma que respeite os conceitos básicos e as normas éticas. Ela disse que devemos pensar sobre que tipo de dados vamos incluir nesta tecnologia e que decisão tomaremos; isso deve ficar claro. Não há muito debate sobre se é uma boa opção primeiramente usar a ferramenta de IA para resolver problemas, mas temos exemplos de IA usadas ​​de maneira discutível. Também é relevante questionar se a inovação deve ser usada, se esse impacto é desejado, porque uma vez implementada é mais difícil pará-la. Pode-se definir, por exemplo, setores em que o risco é tão alto que será decidido não se usar IA. No final, ela disse que não se deve aceitar que a tecnologia, per se, será sempre benéfica.

Outputs e outros links relevantes:

Sessão completa em: https://www.youtube.com/watch?v=UaAiR15grsU

Apresentação de Pollyana Rigon:

https://drive.google.com/file/d/18YW423d3olvKFiEauqf_W1dgr93oc-z9/view?usp=sharing

 

Por: Federico Rodríguez Hormaechea (ObservaTIC - Universidad de la República, Uruguay), Joseph Viana Levinthal de Oliveira (Universidade Federal do Amazonas, Brasil)

Traduzido por: Guilherme Alves (Youth Observatory, Brasil)

Revisado por: Nathalia Sautchuk Patrício (NIC.br, Brasil)

Coordenação e edição: Nathalia Sautchuk Patrício (NIC.br, Brasil) e Guilherme Alves (Youth Observatory, Brasil)