desafios legais da inteligência artificial
TRANSCRIPT
Desafios Legais da
Inteligência Artificial
Responsabilidade Civil
Proteção de Dados
Enrico RobertoPesquisador no Lawgorithm e no InternetLab. Doutorando na USP.
LL.M. na LMU de Munique.
Agenda
1. Inteligência Artificial
2. Desafios Legais
1. Responsabilidade
Civil
2. Enviesamento
Imagem: Pixabay
Parte I
Inteligência Artificial
IntroduçãoEm 2016, foram investidos entre 26 e 39 bilhões de dólares em inteligência artificial.
Esse valor triplicou desde 2013*
* Fonte: Mckinsey Fonte dos gráficos: Forbes
Introdução
Fonte dos gráficos: Forbes
ExemplosWired
:
The Guardian:
Telegraph:
Exemplos
CNET: Tech Crunch:
O que é Inteligência Artificial?
Por um lado, é uma disciplina com aportes da computação, neurociência, filosofia, dentre
outros campos
> Objetivo: construção de sistemas computacionais inteligentes
Por outro, é o objeto desta disciplina
> O que significa dizer que um sistema é inteligente?
> Em geral, envolve a capacidade de se adaptar a novas situações e a mudanças
nas circunstâncias
Fonte: ALMADA, Marco. “Interfaces entre Direito e IA”. Apresentação licenciada sob Creative Commons BY-NC-AS 4.0 Internacional.
Nosso Foco: machine learning
Autoaprendizagem
Capacidade de aprender de
forma autônoma a partir de
um conjunto de dados
Fonte da Imagem: Datatilsynet. “Artificial Intelligence and Privacy”. Disponível em: https://www.datatilsynet.no/globalassets/global/english/ai-and-privacy.pdf
Parte II
Questões Jurídicas
Níveis de AutonomiaEx.: Society of Autonomous Engineers e National Highway Safety
Administration; Carros Autônomos: 0 a 5
“Interação homem-máquina”: o homem responde no limite de sua
esfera de controle e atuação
Responsabilidade subjetiva: Na medida em que o homem for
culpável
Responsabilidade objetiva: Código de Defesa do Consumidor?
Responsabilidade por animais? Novo tipo?
Responsabilidade Civil
≠
Objetiva
Foco no objeto
Risco
Diferentes pressupostos –
ex.: defeito
Nexo causal: objeto e dano
Subjetiva
Foco no sujeito
Conduta culposa
Imprudência, Negligência,
Imperícia
Nexo causal: culpa e dano
AutoaprendizagemCapacidade de aprender de forma autônoma a partir de um conjunto de dados
Responsabilidade subjetiva: limitada pela
autoaprendizagem: polo “máquina” da interação
Responsabilidade objetiva (CDC): Autoaprendizagem e
autonomia são desejadas. Podem ser chamadas de
defeito?
Paradigmas: Carro Autônomo vs. Robô Gaak
Black Box
Impossibilidade de compreender o
funcionamento de um algoritmo de
machine learning.
Deep Learning: uma técnica para
implementar machine learning
Responsabilidade subjetiva e
objetiva: nexo causal severamente
dificultado
Imagem: XKCD
Resultado
“Risco da Autonomia”
Soluções?
Transparência (Nova Iorque)
Seguro obrigatório (Reino Unido)
Soluções éticas (Alemanha)
Padrões de conduta (Califórnia)
Nova responsabilidade objetiva?
Analogias (animais, mandatários,
escravos)Imagem: SMBC Comics
Viés Algorítmico
Enviesamento humano na alimentação
dos dados
The Guardian
Reprodução de PadrõesPadrões incutidos nos dados alimentados, na forma
como são interpretados e na escolha do modelo vão
refletir-se nos resultados.
Padrões sociais – por exemplo, jurisprudência
majoritária – são reproduzidos e potencializados.
Machine Learning potencializa padrões: “70 vira
100” – Caso do Google Tradutor
Controle, transparência e responsabilidade sobre
o tratamento desses dados.
MIT Technology Review
“Avaliação de Impacto Algorítmico”
AI Now Institute (Universidade de Nova Iorque)
1. Avaliação dos sistemas automatizados existentes e propostos - impactos
potenciais na justiça, proporcionalidade, viés ou similares.
2. Processos de revisão de pesquisadores externospara medir ou rastrear
impactos ao longo do tempo;
3. Transparência pública divulgando normas e procedimentos em curso;
4. Audiências públicas para esclarecer preocupações e responder questões;
e
5. Os governos devem fornecer mecanismos aprimorados de garantia do
devido processo legal para indivíduos ou comunidades contestarem
avaliações inadequadas ou injustas.
fonte: lawgorithm.com.br