Sistemas Periciais com Conhecimento Incerto
1
Sistemas Periciais Tradicionais Sistemas Periciais Tradicionais
Funcionam assumindo que tudo é Verdadeiro ou Falso
Qualquer regra cujas condições sejam satisfeitas
é disparável
as suas conclusões são Verdadeiras
Estas assunções são simplistas
e conduzem a Sistemas Periciais Frágeis
Sistemas Periciais com Conhecimento Incerto
2
Fontes de IncertezaFontes de Incerteza
• Informação incompleta
• Informação imprecisa
Raciocínio com Incerteza exige:
• Quantificação de Incerteza
• Método de combinação dos valores de Incerteza
Sistemas Periciais com Conhecimento Incerto
3
Principais AbordagensPrincipais Abordagens
Métodos
Quantitativos Qualitativos
Valores Conjuntos
Unário BinárioConjuntos Vagos
Lógica Não Monotónica
Probabilidades Fact. Certeza
Dempster-Schafer
Sistemas Periciais com Conhecimento Incerto
4
Comparação das Teorias Quantitativas
FácilFácilDifícilModeradaFacilidade de Aplicação
BaixaBaixaModeradaModeradaComplexidade da Teoria
BaixaBaixaModeradaModeradaDificuldade Execução do Modelo
ModeradaBaixaModeradaModeradaDificuldade Construção Modelo
ModeradaBaixaModeradaBaixaComplexidade Computacional
ModeradaFracaForteForteFundamentos Teóricos
Conj. VagosFact. CertezaDemp.-Schafer
BayesMétodo
Sistemas Periciais com Conhecimento Incerto
5
Como escolher ?
Conj. VagosFact. CertezaDemp.-Schafer
BayesMétodo
ModeradoPoucoGrandePoucoTreino na Aplicação
PoucoPoucoModeradoModeradoTreino na Teoria
Pequeno a Grande
PequenoPequeno a Grande
PequenoVolume de Computação
Bem/Mal Definido
Bem/Mal Definido
Bem DefinidoBem DefinidoDefinição do Problema
Sistemas Periciais com Conhecimento Incerto
6
Fontes de IncertezaFontes de IncertezaDada a regra
Regra R1: Se A & B então C
Existem três potenciais áreas de Incerteza:
– Incerteza nos dados (quão verdadeiros são A e B)
– Incerteza na regra (com que frequência A & B implicam C)
– Imprecisão em geral
• As duas primeiras podem ser tratadas usando Probabilidades
• A terceira usando Lógica Fuzzy
Sistemas Periciais com Conhecimento Incerto
7
Teoria da ProbabilidadeTeoria da Probabilidade• É uma aproximação matemática para processar informação incerta
• As suas raízes remontam ao séc. XVII, foi criada por um grupo de jogadores franceses, com o intuito de tornar o jogo menos aleatório
• Mais tarde Pascal e Fermat desenvolveram a Teoria da Probabilidade Clássica – usada ainda hoje para extrair inferências numéricas de dados
• Propõe a existência de um valor P(E) – Probabilidade - que consiste na possibilidade de ocorrência de um evento E a partir de uma experiência de eventos aleatórios
• Ou seja, se realizarmos uma determinada experiência um número considerável de vezes, então podemos ter quase a certeza que a frequência relativa do evento E é aproximadamente igual a P(E)
• O conjunto de todos os possíveis resultados de uma experiência é denominado espaço da amostra S.
Sistemas Periciais com Conhecimento Incerto
8
Probabilidade DiscretaProbabilidade DiscretaExperiências com resultados discretos
P(E) = W(E)/N
em que W(E) – nº de vezes que um particular evento
Ocorreu N – nº de experiências realizadas
Exemplo
Considere-se o seguinte espaço resultante da experiência de rodar uma moedaS = {1, 2, 3, 4, 5, 6}
Cada evento neste espaço da amostra representa um possível resultado da experiência. N será o número de vezes que a moeda é rodada e W(E) o número de resultados de um particular evento. A probabilidade de cada evento neste espaço
P(E) =W(E)/N = 1/6
Sistemas Periciais com Conhecimento Incerto
9
Probabilidade ContínuaProbabilidade ContínuaEspaços contínuos
Em vez de calcular a probabilidade de um evento a partir de um conjunto discreto eventos, existe necessidade de calcular valores intermédios a partir de um conjunto de valores contínuos.
Daí que seja necessário uma função de calculo da probabilidade da distribuição do evento.
Sistemas Periciais com Conhecimento Incerto
10
Probabilidade ContínuaProbabilidade Contínua
Probabilidade experimental
Define a probabilidade de um evento P(E) como o limite de uma função de frequência de distribuição f(E)
P(E) = lim f(E)/N N
sendo f(E) – frequência de observação de um evento
Este tipo de probabilidade é também conhecido por probabilidade à posteriori – o que significa – “após o evento”.
0 < = P(E) <= 1
P(Ei) = 1 i
P(E) + P(~E) = 1 sendo ~E o complemento de E
Sistemas Periciais com Conhecimento Incerto
11
Probabilidades CompostasProbabilidades CompostasEm muitos problemas é necessário considerar combinações de diferentes eventos, por exemplo, calcular a probabilidade de ocorrência de dois eventos diferentes, ou a probabilidade de nenhum deles ocorrer.
IntersecçãoPara problemas relativos a múltiplos eventos, é necessário determinar a intersecção dos espaços das amostras de todos os eventos. A partir disto é possível determinar a probabilidade conjunta
P(A B) = n(A B) / n(S) = P(A) * P(B) fórmula válida para eventos independentes
sendo P(A) = n(A)/n(S)Exemplo Considere-se a probabilidade de retirar do conjunto S = {1, 2, 3, 4, 5, 6} um número ímpar e um número divisível por 3 – dois eventos independentes. A= {1,3,5} B={3,6} A B ={ 3} P(A) = 3/6 P(B) = 2/6 P(A B) = 1/6
Donde, a probabilidade de retirar do conjunto um número ímpar e divisível por 3 é de 1/6.
Sistemas Periciais com Conhecimento Incerto
12
Probabilidades Compostas Probabilidades Compostas União Por vezes pode ser necessário determinar a probabilidade de nenhum ou vários eventos ocorrerem
P(A B) = P(A) + P( B) - P(A B)
Exemplo Considere-se a probabilidade de retirar do conjunto S = {1, 2, 3, 4, 5, 6} um número ímpar ou um número divisível por 3 – dois eventos independentes.
A= {1,3,5} B={3,6} A B ={ 3 } P(A) = 3/6 P(B) = 2/6 P(A B) = 1/6
ou P(A B) = 3/6 + 2/6 – 1/6 = 2/3
Donde, a probabilidade de retirar do conjunto um número ímpar ou divisível por 3 é de 2/3.
Sistemas Periciais com Conhecimento Incerto
13
Probabilidade CondicionalProbabilidade Condicional
São usadas quando os eventos não são mutuamente exclusivos, ou seja, quando os eventos se podem influenciar.
A probabilidade de ocorrência de um evento A sabendo que um evento B ocorreu é chamada Probabilidade Condicional e é dada por:
P(A | B) = P(A B) / P(B)
A probabilidade condicional permite obter a probabilidade de um evento A sabendo que o evento B ocorreu
Exemplo
Qual a probabilidade de se retirar do conjunto S o número 3 (evento A) sabendo que um número divisível por 3 ocorreu (evento B)
P (A | B) = n (A B) / n (S) / n(B)/n(S) = n (A B) / n ( B )
= 1/6 / 2/6 = 1/2
Sistemas Periciais com Conhecimento Incerto
14
Fórmulas Básicas de ProbabilidadeFórmulas Básicas de Probabilidade
Regra do Produto: Probabilidade de conjunção de dois eventos A e B
Regra da Soma: Probabilidade de disjunção de dois eventos A e B
Teorema da Multiplicação de Probabilidades: permite calcular a probabilidade de ocorrência simultânea de vários eventos a partir das probabilidades condicionais
P(A1 ... An ) = P(An /A1 ... An-1) ... P(A2 /A1) P(A1)
)()/()()/()( APABPBPBAPBAP
)()()()( BAPBPAPBAP
Sistemas Periciais com Conhecimento Incerto
15
Teorema da Probabilidade TotalTeorema da Probabilidade Total
B1
B2
B3 B6
B5B4
A
k
kk BPBAPAP )()/()(
1
1)(i
iBP
Se os eventos B1,..,Bn são mutuamente exclusivos e formam uma partição certa do evento A
Sistemas Periciais com Conhecimento Incerto
16
Probabilidade à PosterioriProbabilidade à Posteriori
A probabilidade condicional permite obter a probabilidade de um evento A sabendo que o evento B (anterior a A) ocorreu
Muitas vezes estamos interessados na situação inversa:
Qual é a probabilidade de um anterior evento ter ocorrido sabendo que um evento posterior ocorreu ?
Probabilidade à Posteriori
O problema em determinar a probabilidade à posteriori foi resolvido por Thomas Bayes sendo conhecido por Teorema de Bayes
Sistemas Periciais com Conhecimento Incerto
17
Teorema de BayesTeorema de Bayes
P(h | D): probabilidade à posteriori de h dado D (reflecte a confiança da hipótese h depois de se observar – D)
P(D | h): probabilidade de D dado h
• P(h): probabilidade a priori da hipótese h (representa o conhecimento de domínio, se este conhecimento prévio não existir pode ser atribuída a mesma probabilidade a cada hipótese candidata)
P(D): probabilidade a priori de D (sem conhecimento prévio)
)(
)()|()|(
DP
hPhDPDhP
Sistemas Periciais com Conhecimento Incerto
18
Teorema de BayesTeorema de BayesA aplicação do teorema de Bayes como classificador requer que se conheçam:
• duas probabilidades a priori - p (decisãoi)
• uma probabilidade condicional - p (x | decisãoi)
Em recursos ricos estatisticamente, é possível determinar a probabilidade das hipóteses serem verdadeiras, através de algumas evidências acerca do problema
Sistemas Periciais com Conhecimento Incerto
19
Teorema de Bayes Teorema de Bayes O Teorema de Bayes é usado no desenvolvimento de Sistemas Periciais
Dada a estrutura de uma regra típica
If E then H (LS, LN)
A fórmula de Bayes pode ser usada para calculo da probabilidade da hipótese H partindo da probabilidade apriori do facto E
Exemplo:
Diagnóstico de avaria de uma máquina. Podemos observar os sintomas apresentados pela máquina mas o diagnóstico está relacionado com os eventos anteriores que causaram os sintomas que a máquina apresenta
Sistemas Periciais com Conhecimento Incerto
20
LS versus LN LS versus LN As regras são da forma
IF E THEN H (LS, LN)
E – denota alguma EvidênciaH – representa alguma Hipótese
LS – Likelihood of Sufficiency representa a medida de Suporte da Hipótese H dada a Evidência E
LS = P(E | H) / P(E |~H)
LN– Likelihood of Necessity representa a medida de descredito da Hipótese H se a Evidência E
estiver em faltaLN = P(~E | H) / P(~E | ~H)
Sistemas Periciais com Conhecimento Incerto
21
LS versus LN LS versus LN IF E THEN H (LS, LN)
Ambos os factores LS e LN são fornecidos pelo perito e são usados para calcular a Probabilidade à Posterior da Hipótese O ( H | E )
Ambos os factores variam :
0 < LS < 0 < LN <
LS Efeito na Hipótese
0 H é Falso quando E é Verd ou ~E é necessário para concluir HPequeno E não é favorável para concluir H1 E não tem efeito para concluir HGrande E é favorável para concluir H
E é logicamente suficiente para concluir H
Sistemas Periciais com Conhecimento Incerto
22
LS versus LN LS versus LN
LN Efeito na Hipótese
0 H é Falso quando E ausente ou E é necessário para concluir HPequeno Ausência de E não é favorável para concluir H1 Ausência de E não tem efeito para concluir HGrande Ausência de E é favorável para concluir H
Ausência de E é logicamente suficiente para concluir H
Sistemas Periciais com Conhecimento Incerto
23
Aplicação do Teorema de Bayes: Aplicação do Teorema de Bayes: Diagnóstico MédicoDiagnóstico Médico
Seja
M = doença meningite
S = dor no pescoço
Um Doutor sabe:
P(S|M) = 0.5
P(M) = 1/50000
P(S) = 1/20
P(M|S) = P(S|M)P(M)
P(S)
= 0,5*(1/50000) = 0,0002
1/20
A probabilidade de uma pessoa ter meningite dado que ela está
com dor no pescoço é 0,02% ou ainda 1 em 5000.
1 Probabilidade condicional
2 Probabilidades
a priori
Sistemas Periciais com Conhecimento Incerto
24
ExercícioExercícioPacientes com problemas cardíacos são sujeitos a um electrocardiograma (ECG)
Os resultados são classificados:• positivos (+ECG) sugerindo doença cardíaca (+DC) • negativos (-ECG) no caso de não haver doença cardíaca (-DC)
Assumindo que um dado paciente realizou um electrocardiograma positivo pretende-se saber qual a probabilidade deste ter doença cardíaca ?
P(+DC | + ECD)
Sabendo que – 10 pessoas em 100 têm um ataque cardíaco – 90 pessoas em 100 que tiveram doença cardíaca produziram um
electrocardiograma positivo – 95 pessoas em 100 que não tiveram doença cardíaca produziram um
electrocardiograma negativo
Sistemas Periciais com Conhecimento Incerto
25
ExercícioExercício• 10 pessoas em 100 têm um ataque cardíaco
P(+DC) = 0.1 P(-DC) = 1- P(+DC) = 1 - 0.1 = 0.9
• 90 pessoas em 100 que tiveram doença cardíaca produziram um electrocardiograma positivo (+ECD)
P(+ECD | +DC) = 0.9
• 95 pessoas em 100 que não tiveram doença cardíaca produziram um electrocardiograma negativo (-ECD)
P ( -ECD | -DC) = 0.95 P (+ECD | -DC) = 1 - P(-ECD | -DC) = 1 - 0.95 = 0.05
P(+ECD) = P(+ECD | +DC) * P(+DC) + P(+ECD | -DC) * P(-DC) = 0.9 * 0.1 + 0.05 * 0.9 = 0,135
P(+DC | + ECD) = P(+ECD | +DC) * P(+DC) / P(+ECD )P(+DC | + ECD) = 0.1 * 0.9 / 0,135 = 0.67 67%
)(
)()|()|(
DP
hPhDPDhP
Sistemas Periciais com Conhecimento Incerto
26
Teorema de BayesTeorema de BayesA aplicação do teorema de Bayes requer que se conheçam:
• duas probabilidades a priori - p (decisãoi)
• uma probabilidade condicional - p (x | decisãoi)
Na prática estas probabilidades são desconhecidas
• Estimativas fiáveis destas probabilidades requer um número infinito de exemplos
Como ultrapassar o problema ?
– Assumindo simplificações no calculo de p (x | decisão)
O termo P(D) também pode ser escrito sob a forma:
P(D) = P(D | h) * P(h) + P(D | ~h) * P(~h)
)(
)()|()|(
DP
hPhDPDhP
Sistemas Periciais com Conhecimento Incerto
27
Teorema de Bayes GeneralizadoTeorema de Bayes Generalizado• Conjunto de evidências Ei
• Conjunto de Hipóteses plausíveis Hj
Assumindo que as hipóteses são
– mutuamente exclusivas e
– colectivamente exaustivas
Suposição Bayesiana Naive P (a1, a2, ..., an / vj) = P (ai / vj) i
P (Hj | E1.... Em) = P (Hi | E1 ,..., Em) * P(Hj ) P (Hi | E1 ,..., Em) * P(Hj )
Sistemas Periciais com Conhecimento Incerto
28
PROSPECTORPROSPECTORPROSPECTOR - Sistema Pericial no domínio da Geologia
• desenvolvido para auxiliar os geólogos na procura de depósitos minerais [Duda-79]
• Um dos Sistemas Periciais mais populares de Aplicação da Teoria Bayesiana para Apoio à Decisão
• Dado o sucesso deste Sistema Pericial surgiu a Linguagem KAS que permite o desenvolvimento de Sistemas Periciais usando a Teoria Bayesiana de Probabilidades
Sistemas Periciais com Conhecimento Incerto
29
PROSPECTOR - PROSPECTOR - Medida de CertezaMedida de Certeza
Em vez de se usar P( E | E’) introduziram o conceito Medida de Certeza C ( E | E’) variável - 5 < C ( E | E’) < 5
Se C ( E | E’) = -5 então P ( E | E’) = 0 C ( E | E’) = 0 então P ( E | E’) = P(E) C ( E | E’) = 5 então P ( E | E’) = 1
Para P(E | E’total) > P(E)
C(H|E’) = 5 * P(E | E’total) – P(E) / 1-P(E) Para P(E | E’total) <= P(E)
C(H|E’) = 5 * P(E | E’total) – P(E) / P(E)
A razão principal para introduzir este conceito prendeu-se meramente com questões psicológicas.É mais fácil para um perito dizer: “Penso que estou a apanhar uma constipação”Do que dizer: “A probabilidade de estar a apanhar uma constipação é de 90%”
Sistemas Periciais com Conhecimento Incerto
30
Exemplo usando a Exemplo usando a Linguagem KAS Linguagem KAS Problema: Decidir se compra ou não um carro
Com base na seguinte rede de inferência:
H1 Não compra
E1 Mau Estado
E2 Preço Elevado
E3Kilometragem >
100 000 km
E4Carro
de cidade
E5Carroçaria degradada
E7Amolgada
E6Com ferrugem
OR
AND
Sistemas Periciais com Conhecimento Incerto
31
Exemplo Exemplo Regras que formam a rede de inferência
Regra R1 Se Carro em Mau EstadoOu Preço do carro Elev Então Não compra carro
Regra R2 Se Kilometragem do carro > 100 000 KmE Carro de cidadeE carroçaria degradada Então carro em mau estado
Regra R3 Se carro tem amolgadelasEntão carroçaria degradada [LS = 1000, LN = 0.001]
Regra R4 Se carro tem ferrugemEntão carroçaria degradada [LS = 100, LN = 1]
Sistemas Periciais com Conhecimento Incerto
32
Exemplo Exemplo Regra R3 Se carro tem amolgadelas
Então carroçaria degradada [LS = 1000, LN = 0.001]
Regra R4 Se carro tem ferrugem
Então carroçaria degradada [LS = 100, LN = 1]
A presença de amolgadelas no carro é muito favorável à conclusão Carroçaria degradada, enquanto que a não observação de amolgadelas é bastante desfavorável no suporte da conclusão
No caso da regra R4 a ferrugem é de algum modo favorável ao suporte da conclusão, enquanto que a ausência de ferrugem não tem qualquer efeito na conclusão
Sistemas Periciais com Conhecimento Incerto
33
Exemplo Exemplo Assumindo que todas as Probabilidades à priori das Evidências P( E i ) = 0,1
Sistema KAS com que Grau de Confiança se pode assumir que:
1. a Kilometragem do carro é superior 100 000 Km ? Utilizador: 5
2. o carro é de cidade ? Utilizador: 5
3. o carro tem amolgadelas ? Utilizador: 4
4. o carro tem ferrugem ? Utilizador: -1
5. o preço do carro é elevado ? Utilizador: 1
Conclusão: A minha certeza em não comprar o Carro é de 3.97
O valor da Confiança C(H1) = 3.97 com base no intervalo [-5, 5]
Sendo o valor mais próximo de 5 conclui-se
“Recomenda-se vivamente a não comprar o carro”
Sistemas Periciais com Conhecimento Incerto
34
Operações Internas Operações Internas C(E3 | E3’) = C(E4 | E4’) = 5 o utilizador observando E3’ e E4’ está
totalmente certo de E3 e E4C(E5 | E6, E7) ?
É calculado através do Teorema Bayes por manipulação das diversas fórmulas de Probabilidades
C(E5 | E6, E7) = 3,97
A confiança em E1 é dada pela conjunção das condições E3, E4, E5, pelo que
C(E1) = min {5, 5, 3,97} = 3,97
A confiança em H1 é dada pela disjunção das condições E1 e E2
C(H1) = max {3,97, 1} = 3,97
Sistemas Periciais com Conhecimento Incerto
35
Inconvenientes da Abordagem BayesianaInconvenientes da Abordagem Bayesiana• Só é matematicamente correcta se os eventos respeitarem a
independência estatística
• Requer a existência de valores difíceis de obter – Probabilidades à Priori
• Não admite incerteza associada às evidências
• Alguns problemas em que os dados ou a informação está continuamente a ser alterada é necessário recalcular as probabilidades
• Em bases de conhecimento de dimensão apreciável, torna-se difícil efectuar alterações dado que se tem de verificar
P(H1) + P(H2) +... + P(Hn) = 1