A caixa preta da Inteligência Artificial

A presentation at Campus Party Goiás in September 2019 in Goiânia, State of Goiás, Brazil by Carla Vieira

Slide 1

Slide 1

GOIÁS A caixa preta da Carla Vieira @carlaprvieira Ilustração: Hanne Mostard Inteligência Artificial

Slide 2

Slide 2

Graduanda de Sistemas de Informação pela USP Aluna Especial pela USP Professora de Desenvolvimento Web na Habits Mestrado (em breve) Professora de introdução a IA e ML FORMAÇÃO ENSINO Desenvolvedora Coordenadora Perifacode TRABALHO Carla Vieira Developer, Speaker and Artificial Intelligence Evangelist @carlaprvieira

Slide 3

Slide 3

Slide 4

Slide 4

Slide 5

Slide 5

Slide 6

Slide 6

https://www.slideshare.net/DataStax/netflix-recommendations-using-spark-cassandra

Slide 7

Slide 7

Slide 8

Slide 8

Slide 9

Slide 9

Slide 10

Slide 10

Slide 11

Slide 11

Slide 12

Slide 12

dados viés privacidade ética legislação

Slide 13

Slide 13

Slide 14

Slide 14

Precisamos falar menos sobre o hype da Inteligência Artificial… … e mais sobre como estamos usando a tecnologia.

Slide 15

Slide 15

Google Photos (2015)

Slide 16

Slide 16

Google Photos (2015)

Slide 17

Slide 17

Twitter (2017)

Slide 18

Slide 18

Como estou combatendo o viés algorítmico TED (2018) Joy Buolamwini

Slide 19

Slide 19

Estudo Gender Shades (2018)

Slide 20

Slide 20

Estudo Gender Shades (2018) http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

Slide 21

Slide 21

“Qualquer tecnologia que criamos reflete tanto nossas aspirações quanto nossas limitações. Se formos limitados na hora de pensar em inclusão, isso vai ser refletido e incorporado na tecnologia que criamos”. Joy Buolamwini

Slide 22

Slide 22

Google Detecção de discurso de ódio (2019)

Slide 23

Slide 23

• 46% de falsos positivos para afro-americanos • 1.5 mais chances das postagens serem rotuladas como ofensivas https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf

Slide 24

Slide 24

COMPAS Software (2016)

Slide 25

Slide 25

Algoritmos não conseguem fazer COMPAS Software (2016) análises subjetivas O que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?

Slide 26

Slide 26

Algoritmos não conseguem fazer COMPAS Software (2016) análises subjetivas O que determina se um algoritmo é justo quando o que está em jogo é uma sentença criminal?

Slide 27

Slide 27

JUSTIÇA MATEMÁTICA

Slide 28

Slide 28

Como remover o viés? Preconceito humano Tecnologia

Slide 29

Slide 29

Quem está desenvolvendo Inteligência Artificial? “Only 22% of AI professionals globally are female, compared to 78% who are male.” (The Global Gender Gap Report 2018 - p.28)

Slide 30

Slide 30

DIVERSIDADE Preconceito humano Tecnologia

Slide 31

Slide 31

A inteligência artificial precisa aprender com o mundo real. Não basta criar um computador inteligente, é preciso ensinar a ele as coisas certas. https://about.google/stories/gender-balance-diversity-important-tomachine-learning/?hl=pt-BR

Slide 32

Slide 32

https://www.research.ibm.com/artificial-intelligence/trusted-ai/diversity-in-faces/

Slide 33

Slide 33

Estes casos ilustram um problema maior: os algoritmos de I.A. são uma caixa-preta, opaca e cheia de segredos.

Slide 34

Slide 34

Slide 35

Slide 35

Slide 36

Slide 36

Slide 37

Slide 37

INPUT CAIXA PRETA OUTPUT

Slide 38

Slide 38

INPUT CAIXA PRETA OUTPUT

Slide 39

Slide 39

Por que abrir a caixa preta? ética viés privacidade dados legislação

Slide 40

Slide 40

França (2019)

Slide 41

Slide 41

“Esse tipo de lei é uma desgraça para uma democracia. A Justiça é usada em nome do povo, tentar esconder informações de agentes da lei ou de cidadãos nunca será a coisa certa a fazer.” Louis Larret Chahine Co-fondateur de PREDICTICE

Slide 42

Slide 42

Estados Unidos (2019)

Slide 43

Slide 43

Brasil (2019)

Slide 44

Slide 44

“ (…) diferentemente do que foi apontado, não realiza reconhecimento facial, mas, sim, detecção facial, por meio do qual estima apenas o gênero, a faixa etária e o humor dos consumidores, de forma anônima”. Gerente de Marca Hering

Slide 45

Slide 45

Como abrir a caixa preta? EXPLICABILIDADE Entender a lógica por trás de cada decisão TRANSPARÊNCIA CONFIANÇA

Slide 46

Slide 46

explicabilidade Refere-se à capacidade do sistema de explicar porque chegou a determinado resultado em linguagem compreensível para um ser humano.

Slide 47

Slide 47

Dados explicáveis Predições explicáveis Quais os dados utilizados para treinar o modelo e por quê? Quais as características e pesos utilizados para essa predição? Algoritmos explicáveis Quais são as camadas e processos internos desse algoritmo?

Slide 48

Slide 48

Slide 49

Slide 49

Slide 50

Slide 50

As soluções de Inteligência Artificial não são e não serão infalíveis. Mas, a explicabilidade pode ajudar…

Slide 51

Slide 51

“O sucesso na criação da IA será o maior acontecimento na história da humanidade. Infelizmente, também poderá ser o último, a menos que aprendamos como evitar os riscos.” Stephen Hawking

Slide 52

Slide 52

Slide 53

Slide 53

Slide 54

Slide 54

Slide 55

Slide 55

Slide 56

Slide 56

Slide 57

Slide 57

http://www.portaltransparencia.gov.br/download-de-dados

Slide 58

Slide 58

Desafios Acessibilidade de dados Explicabilidade dos algoritmos Diversidade nos talentos

Slide 59

Slide 59

https://serenata.ai/ https://brasil.io/home https://colaboradados.github.io/

Slide 60

Slide 60

Se a tecnologia quiser ajudar na construção de uma sociedade mais justa, ela tem que ser aberta e transparente.

Slide 61

Slide 61

Antes de falar sobre futuro… … precisamos falar sobre o que está acontecendo hoje, agora.

Slide 62

Slide 62

Obrigada! Carla Vieira @carlaprvieira carlaprv@hotmail.com bit.ly/goias-carla

Slide 63

Slide 63

Referências − Relatórios do AI NOW − Racial and Gender viés in Amazon Rekognition − Diversity in faces (IBM) − Google video – Machine Learning and Human viés − Visão Computacional e Vieses Racializados − Estudo Machine viés on Compas − Machine Learning Explainability Kaggle − Predictive modeling: striking a balance between accuracy and interpretability

Slide 64

Slide 64

Referências − Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código − Metrics for Explainable AI: Challenges and Prospects − The Mythos of Model Interpretability − Towards Robust Interpretability with Self-Explaining Neural Networks − The How of Explainable AI: Post-modelling Explainability