GOIÁS
A caixa preta da
Carla Vieira @carlaprvieira
Ilustração: Hanne Mostard
Inteligência Artificial
Slide 2
Graduanda de Sistemas de Informação pela USP Aluna Especial pela USP
Professora de Desenvolvimento Web na Habits
Mestrado (em breve)
Professora de introdução a IA e ML
FORMAÇÃO
ENSINO
Desenvolvedora Coordenadora Perifacode
TRABALHO
Carla Vieira Developer, Speaker and Artificial Intelligence Evangelist @carlaprvieira
“Qualquer tecnologia que criamos reflete tanto
nossas aspirações quanto nossas limitações. Se formos limitados na hora de pensar em inclusão, isso vai ser refletido e incorporado na tecnologia que criamos”. Joy Buolamwini
Slide 22
Google Detecção de discurso de ódio (2019)
Slide 23
• 46% de falsos positivos para afro-americanos
• 1.5 mais chances das postagens serem rotuladas como ofensivas
https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf
Slide 24
COMPAS Software (2016)
Slide 25
Algoritmos não conseguem fazer
COMPAS Software (2016)
análises subjetivas O que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?
Slide 26
Algoritmos não conseguem fazer
COMPAS Software (2016)
análises subjetivas O que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?
Slide 27
JUSTIÇA
MATEMÁTICA
Slide 28
Como remover o viés?
Preconceito humano
Tecnologia
Slide 29
Quem está desenvolvendo Inteligência Artificial? “Only 22% of AI professionals globally are female, compared to 78% who are male.” (The Global Gender Gap Report 2018 - p.28)
Slide 30
DIVERSIDADE
Preconceito humano
Tecnologia
Slide 31
A inteligência artificial precisa aprender com o mundo real. Não basta criar um computador inteligente, é preciso ensinar a ele as coisas certas.
https://about.google/stories/gender-balance-diversity-important-tomachine-learning/?hl=pt-BR
Estes casos ilustram um problema maior: os
algoritmos de I.A. são uma caixa-preta, opaca e cheia de segredos.
Slide 34
Slide 35
Slide 36
Slide 37
INPUT
CAIXA PRETA
OUTPUT
Slide 38
INPUT
CAIXA PRETA
OUTPUT
Slide 39
Por que abrir a caixa preta? ética
viés
privacidade
dados
legislação
Slide 40
França (2019)
Slide 41
“Esse tipo de lei é uma desgraça para uma democracia. A Justiça é usada em nome do povo, tentar esconder informações de agentes da lei ou de cidadãos nunca será a coisa certa a fazer.” Louis Larret Chahine Co-fondateur de PREDICTICE
Slide 42
Estados Unidos (2019)
Slide 43
Brasil (2019)
Slide 44
“ (…) diferentemente do que foi apontado, não realiza reconhecimento facial, mas, sim, detecção facial, por meio do qual estima apenas o gênero, a faixa etária e o humor dos consumidores, de forma anônima”. Gerente de Marca Hering
Slide 45
Como abrir a caixa preta? EXPLICABILIDADE Entender a lógica por trás de cada decisão
TRANSPARÊNCIA
CONFIANÇA
Slide 46
explicabilidade Refere-se à capacidade do sistema de explicar porque
chegou a determinado resultado em linguagem compreensível para um ser humano.
Slide 47
Dados explicáveis
Predições explicáveis
Quais os dados utilizados para treinar o modelo e por quê?
Quais as características e pesos utilizados para essa predição?
Algoritmos explicáveis Quais são as camadas e processos internos desse algoritmo?
Slide 48
Slide 49
Slide 50
As soluções de Inteligência Artificial não são e não serão infalíveis. Mas, a explicabilidade pode ajudar…
Slide 51
“O sucesso na criação da IA será o maior acontecimento na história da humanidade.
Infelizmente, também poderá ser o último, a menos que aprendamos como evitar os riscos.” Stephen Hawking
Referências − Relatórios do AI NOW − Racial and Gender viés in Amazon Rekognition
− Diversity in faces (IBM) − Google video – Machine Learning and Human viés − Visão Computacional e Vieses Racializados − Estudo Machine viés on Compas − Machine Learning Explainability Kaggle − Predictive modeling: striking a balance between accuracy and interpretability
Slide 64
Referências − Racismo Algorítmico em Plataformas Digitais: microagressões e
discriminação em código − Metrics for Explainable AI: Challenges and Prospects − The Mythos of Model Interpretability − Towards Robust Interpretability with Self-Explaining Neural
Networks − The How of Explainable AI: Post-modelling Explainability