redes neurais artificiais - pelli sistemas - home rna xiv cobreap.pdf1 objetivo principal demonstrar...
TRANSCRIPT
0
IBAPE 2007
Salvador, novembro de 2007
Eng. Antônio Pelli NetoMestre em Inteligência Computacional – UFMG
Redes Neurais Artificiais
XIV COBREAPA TÉCNICA A SERVIÇO DO MERCADO
1
Objetivo principal
Demonstrar o uso das Redes Neurais Artificiais e da Análise de Envoltória
de Dados sob dupla ótica nas avaliações:
•Comparativas do mercado imobiliário
•De empreendimento de base imobiliária (Shopping Center, Hotéis,
Hospitais, Universidades, etc...)
•De base Industrial (Industrias de transformação)
Para as avaliações de empreendimentos estas metodologias serão
utilizadas para estimar indicadores operacionais com base em séries
históricas e dados de mercado.
Estudo de caso: Avaliação de Complexo Hoteleiro
2
Conteúdo Programático
•Motivação – RNA
•Introdução RNA – Porque RNA ?
•Histórico – RNA
•Neurônio Biológico
•Neurônio Artificial – MCP
•Rede MCP – Linearmente Separáveis
•Rede Adaline
•Redes MLP
•Treinamento / Validação
•Mínimos Quadrados – Visão Geral
•Exercícios – Mínimos Quadrados x RNA
3
Introdução – O Que são as Redes Neurais Artificiais?
As Redes Neurais Artificiais (RNAs) são modelos matemáticos
que se assemelham às estruturas neurais biológicas e que têm
capacidade computacional adquirida por meio de aprendizado e
generalização (Braga, Carvalho & Ludemir – 2000, Haykin 1994)
4
Método Comparativo de Dados de Mercado
•Bens com características intrínsecas e extrínsecas semelhantes.
•Tratamento dos dados com metodologias científicas ( NBR 14.653-2) :
– Regressão Linear (mais utilizada no Brasil)
– Redes Neurais Artificiais
– Análise Envoltória de Dados
– Regressão Espacial
5
Avaliação de Imóveis – Etapas do processo
•Vistoria do bem avaliando
•Levantamento de dados de mercado
•Construções de variáveis
•Modelagem de dados
•Validação dos resultados
•Determinação do valor de mercado
•Elaboração do Laudo de Avaliação
6
Principais Dificuldades
•As amostras apresentam elevado nível de erros na
mensuração das variáveis.
•A maioria dos modelos apresentam relações não lineares,
cujo tratamento não atingiu ainda parâmetros satisfatórios de
análise.
Distância polo comercial2.5002.0001.5001.000500
Val
or/m
2
240
220
200
180
160
140
120
100
80
60
7
Principais Dificuldades
•As Amostras disponíveis apresentam, via de regra, tamanho
reduzido e/ou são pouco representativas.
•O alto grau de colinearidade entre variáveis independentes,
impossibilita a identificação da verdadeira influência de cada
atributo no valor.
8
Principais Dificuldades
•A violação de certos pressupostos básicos nos modelos de
regressão linear, nas análises das amostras do mercado
imobiliário, principalmente no que se refere à Normalidade e
homocedasticidade.
9
Motivação
NBR 14.653 (Parte 2 – Avaliação de Imóveis Urbanos)
8.2.1.4.3 - Tratamento científico
– Quaisquer que sejam os modelos utilizados para inferir o comportamento do mercado e
formação de valores, devem ter seus pressupostos devidamente explicitados e testados.
Quando necessário, devem ser intentadas medidas corretivas, com repercussão na
classificação dos graus de fundamentação e precisão.
– Outras ferramentas analíticas para a indução do comportamento do mercado,
consideradas de interesse pelo engenheiro de avaliações, tais como redes neurais
artificiais, regressão espacial e análise envoltória de dados, podem ser aplicadas, desde
que devidamente justificadas do ponto de vista teórico e prático, com a inclusão de
validação, quando pertinente.
10
Motivação
Trabalhos desenvolvidos por profissionais área
– 1999
– ESTUDO DA INFLUÊNCIA DE LOTES NA ACESSIBILIDADE NO VALOR URBANOS
ATRAVÉS DE REDES NEURAIS - BRONDINO , Nair Cristina Margarido – Tese de
Doutorado na Universidade de São Carlos - SP
– 2000
– PLANTA DE VALORES UTILIZANDO INTELIGÊNCIA ARTIFICIA L - GONZÁLES Marco
Aurélio Stumpf - COBRAC 2000, Congresso Brasileiro de Cadastro Técnico Multifinalitário,
UFSC Florianópolis .
– APLICAÇÃO DE REDES NEURAIS NA AVALIAÇÃO DE BENS - Uma Comparação com
a Análise de Regressão – GUEDES, Jackson Carvalho AVALIAR - II Simpósio Brasileiro
de Engenharia de Avaliações – GUEDES, Jackson Carvalho – Setembro de 2000 – São
Paulo - Pgs. Anais 3 a 10;
– O EMPREGO DE INTELIGÊNCIA ARTIFICIAL NA AVALIAÇÃO D E BENS - GUEDES,
Jackson Carvalho.
11
Motivação
2001
ANÁLISE DA UTILIZAÇÃO DE INTELIGÊNCIA ARTIFICIAL NA DETERMINAÇÃO DE PLANTAS DE VALORES -
GONZÁLEZ, Marco Aurélio Stumpf (1); FORMOSO, Carlos Torres (2)
DUAS FERRAMENTAS PODEROSAS À DISPOSIÇÃO DO ENGENHEIR O DE AVALIAÇÕES - MODELOS
LINEARES GENERALIZADOS E REDES NEURAIS - GUEDES, Jackson Carvalho - IBAPE – XI COBREAP –
Congresso Brasileiro de engenharia de Avaliações e Perícias - Vitória-ES
2002
MÍNIMOS QUADRADOS EFICAZES, REDES NEURAIS EFICIENTE S - MELO, Brício de– AVALIAR - III Simpósio
Brasileiro de Engenharia de Avaliações – Curitiba-PR
APLICAÇÃO DE TÉCNICAS DE DESCOBRIMENTO DE CONHECIME NTO EM BASES DE DADOS E DE
INTELIGÊNCIA ARTIFICIAL EM AVALIAÇÃO DE IMÓVEIS . GONZÁLEZ, Marco Aurélio Stumpf - Tese (Doutorado
em Engenharia Civil) – Programa de Pós-Graduação em Engenharia Civil, UFRGS, Porto Alegre / RS.
12
Motivação
2003
AVALIAÇÃO DE IMÓVEIS URBANOS COM UTILIZAÇÃO DE REDE S NEURAIS ARTIFICIAIS – PELLI, Antonio
Neto ; ZARATE, Luiz - IBAPE-MG – XII COBREAP – Congresso Brasileiro de Engenharia de Avaliações e Perícias
– Belo Horizonte – MG
2003
AVALIAÇÃO DE NAVIOS COM USO DE REGRESSÃO LINEAR E C OMPARAÇÃO DOS RESULTADOS COM
REDE NEURAL – MORATO, Paulo César Vidal; GUEDES Jackson Carvalho - IBAPE-MG – XII COBREAP –
Congresso Brasileiro de Engenharia de Avaliações e Perícias – Belo Horizonte – MG
ESTUDO COMPARATIVO ENTRE REDES NEURAIS ARTIFICIAIS E ANÁLISE DE REGRESSÃO MÚLTIPLA NA
AVALIAÇÃO DE BENS, PARA PEQUENAS AMOSTRAGENS – SCHIAVO, Eliane Hasselmann Camardella ;
AZEVEDO , Márcio Pacheco - IBAPE-MG – XII COBREAP – Congresso Brasileiro de Engenharia de Avaliações e
Perícias – Belo Horizonte –MG
13
O que são Redes Neurais Artificiais
Modelos inspirados no cérebro humano
– Compostas por várias unidades de processamento (“neurônios”)
– Interligadas por um grande número de conexões (“sinapses”)
Eficientes onde métodos tradicionais têm se
mostrado inadequados
O neurônio humano foi identificado anatomicamente e descrito com detalhes, no século 19, pelo neurologista espanhol Ramon
& Cajal
14
O que são Redes Neurais Artificiais
Sinapses
15
Introdução – O Que são as Redes Neurais Artificiais?
O aprendizado em RNAs está associado à capacidade de as mesmas
adaptarem os seus parâmetros como conseqüência da sua interação com o
meio externo.
O processo de aprendizado é interativo e por meio dele a RNA deve
melhorar o seu desempenho gradativamente à medida que interage com o
meio externo.
16
O que são Redes Neurais Artificiais
Redes Neurais Artificiais (RNA) são modelos de computação com
propriedades particulares, tais como:
– Capacidade de se adaptar ou aprender para:
• Generalizar
• Agrupar ou organizar dados
17
O que são Redes Neurais Artificiais
RNA: estruturas distribuídas formadas por grande número de
unidades de processamento conectadas entre si.
Multi-disciplinaridade : Ciência da Computação, Matemática,
Física, Engenharias, Psicologia, Biologia, Lingüística, Filosofia,
etc
18
Redes Neurais Artificiais
Por que Redes Neurais Artificiais?
Problema 1:
Qual o resultado da função abaixo, para os valores indicados?
X=300, Média = 420 e DP = 42 ?
∞<<∞−= −− xparaexf x 22 2/)(
2
1)( σµ
πσPlanilha Excel Resultado Instantâneo
19
Redes Neurais Artificiais
Problema 2:
Qual a diferença entre os objetos abaixo ?
Como programar uma planilha para solução deste problema com rapidez e precisão?
Capacidade Cognitiva do Cérebro Humano
20
Redes Neurais Artificiais
Utilizar máquinas efetivamente para resolver problemas simples (humanos)
– Distinguir padrões visuais
• utilizando exemplos e feedback
• Maior experiência permite melhorar a performance
– Aproximação de Funções
21
Redes Neurais Artificiais
camada de saída
camada de entrada
camadas intermediárias
conexões
Área
Local
ValorUnitário
22
O que são Redes Neurais Artificiais
Modelos inspirados no cérebro humano
– Compostas por várias unidades de processamento
(“neurônios”)
– Interligadas por um grande número de conexões
(“sinapses”)
Eficientes onde métodos tradicionais têm se mostrado inadequados
23
Características das RNAs
•Aprendem através de exemplos
– Inferência estatística não paramétrica
•Adaptabilidade
•Capacidade de generalização
•Tolerância a falhas
•Implementação rápida
24
Von Neumann X Sistema neural biológico
Computador Von Neumann Sistema neural biológico
Processador complexo alta velocidade um ou poucos
simples baixa velocidade grande número
Memória Separada do processador localizada não-endereçavel pelo conteúdo
integrada com processador distribuída endereçável pelo conteúdo
Computação centralizada seqüencial programas armazenados
distribuída paralela aprendizado
Confiabilidade muito vulnerável robusto
Adequação manipulações num. e simbólica Problemas de percepção
Ambiente operacional bem definido muito restrito
pouco definido não restrito
25
Potenciais áreas de aplicação das RNAs
•Classificação de padrões
•Clustering/categorização
•Aproximação de funções
•Previsão
•Otimização
•Memória endereçável pelo conteúdo
•Controle
•etc...
26
História das RNA
Inter-relação entre
– Investigação do comportamento e estrutura do sistema nervoso através
de experimentação e modelagem biológica
– Desenvolvimento de modelos matemáticos e suas aplicações para a
solução de vários problemas práticos
Simulação e implementação destes modelos
27
Década de 40 : O começo
(1943) McCulloch & Pitts (“A Logical Calculus of the Ideas Immanent in Nervous Activity)
– Provam, teoricamente, que qualquer função lógica
pode ser implementada utilizando unidades de
soma ponderada e threshold(1949) Hebb desenvolve algoritmo para treinar RNA (aprendizado Hebbiano)
– Se dois neurônios estão simultaneamente ativos, a
conexão entre eles deve ser reforçada
28
1950-1960: Anos de euforia
(1958) Von Neumann mostra interesse em modelagem do cérebro (RNA)
– The Computer and the Brain, Yale University Press
(1959) Rosenblatt implementa primeira RNA, a rede Perceptron
– Ajuste iterativo de pesos
– Prova teorema da convergência
29
Década de 70: Pouca atividade
(1969) Minsky & Papert analisam Perceptron e mostram suas limitações
– Não poderiam aprender a resolver problemas simples
como o OU-exclusivo
– Causou grande repercussão
30
Década de 70: Pouca atividade
(1971) Aleksander propõe redes Booleanas
(1972) Kohonen e Anderson trabalham com RNA associativas
(1975) Grossberg desenvolve a Teoria da Ressonância Adaptiva (redes ART)
31
Década de 80: A segunda onda
(1982) Hopfield mostra que Redes Neurais podem ser tratadas como sistemas
dinâmicos
(1986) Hinton, Rumelhart e Williams, propõem algoritmo de aprendizagem para redes
multi-camadas
– Parallel Distributed Processing
32
Redes Neurais Artificiais
camada de saída
camada de entrada
camadas intermediárias
conexões
Área
Local
ValorUnitário
33
Conexões
Definem como neurônios estão interligados
– Nós são conectados entre si através de conexões
específicas
Codificam conhecimento da rede
– Uma conexão geralmente tem um valor de
ponderamento ou peso associada a ela
34
Topologia
Número de camadas
– Uma camada (Ex Perceptron, Adaline)
– Multi-camadas (Ex MLP)
– Mapas de Memória - Hopfield
35
Completamente conectada
Camada i Camada i +1
36
Parcialmente conectada
Camada i Camada i +1
37
Parcialmente conectada
Camada i Camada i +1
38
Redes feedforward
Sinais seguem em uma única direção
Sinal
OU RN
39
Redes recorrentes
Possuem conexões ligando saída da rede a sua entrada
� Podem lembrar entradas passadas e, conseqüentemente, processar seqüência de informações (no tempo ou espaço)
RN
40
Conjunto de dados
Tamanho depende da complexidade dos dados
– Quanto maior a complexidade, maior a quantidade
necessária
– Pré-processamento dos dados
• Dados numéricos
• Presença de valores em todos os campos
• Balanceamento entre classes
41
TREINAMENTOAlgoritmo - Backpropagation� Supervisionado
� Erro� Passo do aprendizado
� Não supervisionado
OPERAÇÃOAlgoritmo - Feedforward
CARACTERÍSTICAS
2 MODOS DE FUNCIONAMENTO
Redes Neurais Artificiais Desenvolvimento
42
SEM TREINAMENTO� conjunto de treinamento� pesos sinápticos aleatórios
A
B
C
?REDENEURAL
Redes Neurais Artificiais Desenvolvimento
43
Aprendizado
•Capacidade de aprender a partir de seu ambiente e melhorar sua performance com o
tempo
•Parâmetros livres de uma RNA são adaptados através de estímulos fornecidos pelo
ambiente
– Processo iterativo de ajustes aplicado a sinapses e thresholds
– Idealmente, a RNA sabe mais sobre seu ambiente após cada iteração
44
� serão utilizadas 3 camadas� propagação entrada/saída� conjunto de operação� rede treinada
A
B
C
REDENEURAL
A
B
C
Feedforward
Redes Neurais Artificiais - Treinamento
45
TREINAMENTO SUPERVISIONADO� conjunto de treinamento
AB
REDENEURAL
Redes Neurais Artificiais Desenvolvimento
ProfessorA,Berro, erro
DRXX B
AAP
1a ITERAÇÃO 2a ITERAÇÃO 3a ITERAÇÃO
X
PADRÕES
A,Bok, erroA,B
ok, ok
46
Características das RNAs
•Aprendem através de exemplos
– Inferência estatística não paramétrica•Adaptabilidade
•Capacidade de generalização
•Tolerância a falhas
•Implementação rápida
47
Analogia Redes Biológicas x Redes Neurais
48
Conceitos básicos – Modelo MCP
Estrutura geral das RNA
– Unidades de processamento ni (nós)
• Estado de ativação ai
• Função de ativação Fi
• Função de saída ƒi
– Conexões wijf (∑xw)
x1
x2
xN
y
w1
w2
wN
f (∑xiwi)
49
Neurônio Artificial - MCP
Função: receber entradas de conjunto de dados, computar função sobre entradas e enviar resultados para conjunto de saída
∑=
=P
KKK XWU
0
.
( )UFY =X 2
X 1
X n
W 2
W 1
W n
Saída
Entradas
pesossinapses
Y...
U
bias
W b
UF
50
Neurônio Artificial - MCP
A operação de um neurônio artificial se resume em :
– sinais são apresentados à entrada;
– cada sinal é multiplicado por um peso que indica sua influência na saída da
unidade;
– é feita a soma ponderada dos sinais , a qual produz um nível de atividade;
– se este nível excede um limiar (threshold) a unidade produz uma saída.
�Podemos escrever o modelo matemático da seguinte fo rma:
θ≥∑=
n
KKK XW
0
.
A saída do neurônio será igual a 1 ou a 0
51
Neurônio Artificial - MCP
Sobre o modelo proposto – MCP – podemos verificar que :
– redes com MCP de apenas uma camada somente podem
implementar funções que sejam linearmente separáveis;
– pesos negativos são mais adequados para disparos inibidores;
– o modelo proposto utiliza pesos fixos, que não são ajustáveis.
52
Conjuntos Linearmente Separáveis
Linearmente Separável Não Linearmente Separável
0 1 2 3 4 5 6 7 8 9 100
1
2
3
4
5
6
7
8
9
10
X1
X2
Classes
53
Modelo MCP - Treinamento
Portas de Limiar
( )( )
<×→
≥×→=
∑∑
θ
θ
xiwi
xiwiy
0
1
X 2
X 1
X n
W 2
W 1
W n
Saída
Entradas
pesossinapses
Y...
U∑ ( )UFθ
Bias1
54
Modelo MCP – treinamento
Neurônio:
– 2 entradas: x1 e x2
– Limiar θ
– Saída y
Condição de disparo:
– x1w1 + x2w2 = θ
12
1
22 xx
w
w
w×
−
= θ
55
Modelo MCP – treinamento
Função de limiar
12
1
22 xx
w
w
w×
−
= θ
Treinamento: ∆w
w(t+1)= w (t)+ ∆w w(t+1) = w(t) + ηex(t)
56
Modelo MCP – treinamento
Funções Binárias de duas variáveis
111
010
001
000
Yx2x1(0,1) (1,1)
12
1
22 xx
w
w
w×
−
= θ
57
Redes MCP
Portas Limiares Quadráticas
x21w1
1+x22w22+x1x2w12+x2x1w21+x1w1+x2w2 = θ
58
Redes MCP
Funções Quadráticas
X2
Classe 1y = 1
Classe 0y = 0
X1
59
Modelos Adaline
Regra Delta:
X 2
X 1
X n
W 2
W 1
W n
Saída
Entradas
pesossinapses
Y...
U∑ ( )UF
Bias1 W0
60
Modelos Adaline
Treinamento
2
1
)()( ii d
n
i
c yywE ∑=
−=
61
Modelos Adaline
Gradiente Descendente
62
Gradiente Descendente
63
- 6 - 5 - 4 - 3 - 2 -1 0 1 2 3 4 5 60
1
2
3
4
5
6
7
8
VALOR DAS SINAPSES
ER
RO
MÉTODO DO GRADIENTE DESCENDENTE� minimização do erro � mesma direção e sentido oposto ao gradiente
5
2wy =w
nynw
∂∂−=∆ )(
)( η 1, =η
5
2)()(
w
w
nynw −=
∂∂=∆
)()()1( nwnwnw ∆+=+n w(n) ∆w(n)
0 5 -2
1 3 -1,2
2 1,8 -0,72
3 1,08 -0,43
4 0,65 -0,26
1a ITERAÇÃO
2a ITERAÇÃO3a ITERAÇÃO
4a ITERAÇÃO
VALOR INICIAL
Gradiente Descendente
64
Construção Modelo - MLP
• Disposição em camadas (simplicidade)
� Comunicação entre neurônios entre camadas adjacentes
65
BACKPROPAGATION� propagação saída/entrada � erro associado Backpropagation
Redes Neurais Artificiais Desenvolvimento
66
Aprendizado
Mecanismos de aprendizado
– Modificação de pesos (Dwij(t)) associados às conexões
– Armazenamento de novos valores em conteúdos de memória
– Acréscimo e/ou eliminação de conexões/neurônios
• Completamente conectada
• Parcialmente conectada
• Localmente conectada
67
ERRO
Como atingir o erro mínimo?
( )2'2 YYErro −=
→Y→'Y
Valor desejadoValor obtido na saída da rede
Y’
ITERAÇÃO
ER
RO
²
Neurônio artificial
Redes Neurais Artificiais Desenvolvimento
68
Neurônio Artificial - MCP
Funções de ativação mais comuns
– a(t + 1) = u(t) (linear)
– a(t + 1) =
– a(t + 1) = 1/(1 + exp(- u(t)) (sigmoid logística)
– a(t + 1) = (1 – exp(u(t)) (tangente hiperbólica)
(1 +exp(u(t))
1 , se u(t) ≥ θ0, se u(t) < θ (threshold ou limiar)
69
11.2) BACKPROPAGATION - simplificado� retropropagação do erro� um neurônio
ii w
Errow
∂∂−=∆ η
)()()1( nwnwnw ∆+=+
Regra Delta
X 2
X 1
X n
W 2
W 1
W n
Saída
Entradas
pesossinapses
Y...
U
bias
W b
UF
Redes Neurais Artificiais Desenvolvimento
70
11.3) BACKPROPAGATION � valores desejados: Ya=0,2 ; Yb=1� retropropagação do erro
0,13
0,03
0,152
0,103
0,386
103,0097,02,0'1 =−=−= aa YYE
386,0614,01'2 =−=−= bb YYE
Redes Neurais Artificiais Desenvolvimento
71
1 PADRÃO DE ENTRADA
0
2
4
6
1 3 5 7 9 11 13 15 17
No. de Iterações
Err
o as
soci
ado
Redes Neurais Artificiais Desenvolvimento
72
Aprendizado por Correção de Erro
Superfície de Erro
73
Aprendizado por Correção Erro
Superfície do Erro – função Sigmóide
74
Aprendizado por correção de erro
Taxa de aprendizado (η)
– 0 < η < 1
– Taxas pequenas
– Taxas grandes
– Taxas variáveis
Média das entradas anteriores
Estimativas estáves de peso
Aprendizado lento
Aprendizado rápido
Captação de mudanças no processo
Instabilidade
75
Aprendizado por Correção de Erro
76
Momentum
Gradiente descendente para em um mínimo local
?
Momentum permite caminhar na direção anterior
)()1( twxtw kjjkkj ∆+=+∆ αηδ
77
Pré – processamento Dados
Sinais de entrada e saída de uma RNA geralmente são números reais
– Números devem estar dentro de um intervalo
• Tipicamente entre -1 e +1 ou 0.2 e 0.8
• Codificação realizada pelo projetista da rede
78
Pré - processamento dos dados
Normalização de valores numéricos
– Normalizar cada campo individualmente
– Assegurar que todos os valores de um dado campo estejam dentro
de um intervalo (Ex. [0.0,...,1.0])
)minL - max(L / )L - (L L)(L mínonof a ==
mínnnonf b L * )L - (1 maxL * L L)(L +==
onde :Ln é o valor normalizado; Lo o valor a normalizar; Lmíne Lmáxsão valores mínimos e máximos dentre os valores das variáveis.
Lmín = (4 x LimiteInf. - LimiteSup) / 3Lmáx = (LimiteInf. - 0,8 x Lmín) / 0,2
79
Criação de conjuntos de dados
Dividir o conjunto de dados em:
– Subconjunto de treinamento (50% dos dados)
• Necessidade de manter uniformidade pode reduzir proporção
– Subconjunto de validação (50% dos dados)
80
Aprendizado
Algoritmos de aprendizado
– Conjunto de regras bem definidas para a solução de um problema de aprendizado
– Grande variedade
• Cada um com suas vantagens
• Diferem na maneira como ajuste ∆wik(t) é realizado
Paradigmas de aprendizado
– Diferem na maneira como RNA se relaciona com seu ambiente
81
Redes Neurais Artificiais
582.800
220400
851.500
140800
170600
256250
1002.500
Preço Unitário (R$/m²)Distância ao polo
Exemplo prático – Terreno a avaliar:
Terreno a 1.200 m do pólo atrativo
Preço Unitário x Distância ao polo
0
50
100
150
200
250
300
0 500 1.000 1.500 2.000 2.500 3.000
82
Primeiro Ensaio – Regressão Linear
Distância polo comercial2.5002.0001.5001.000500
Val
or/m
2
240
220
200
180
160
140
120
100
80
60
Valor estimado: 150,98 R$/m²
Valor/m2 = +225,3636109 -0,06198251709 * Distância ao centro comercial
83
Segundo Ensaio – Transformando as Variáveis (x,1/x, Ln x)
Estimativa p/Distância polo comercial
2.5002.0001.5001.000500
260
240
220
200
180
160
140
120
100
80
Valor/m2 = e^( +8,654750369 -0,5550500821 * ln (Dist ância polo comercial))
Valor estimado: 108,74 R$/m²
84
Terceiro Ensaio: Redes Neurais Artificiais
Valor estimado: 103,60 R$/m²
Estimativa p/Distância polo comercial
2.5002.0001.5001.000500
260
240
220
200
180
160
140
120
100
80
85
Redes Neurais Artificiais – Benefícios
•Aprendem através de exemplos
•Inferência estatística não paramétrica
•Adaptabilidade
•Capacidade de generalização
•Tolerância a falhas
•Implementação rápida
•Melhor aderência aos pontos coletados
86
Análise da Envoltória de Dados – EDO / DEA
•A utilização dessa ferramenta para a engenharia de avaliações pode ser sintetizada da seguinte forma:
•os imóveis que fazem parte da amostra de mercado são interpretados como as “unidades de produção”;
•para o vendedor do imóvel, os “insumos” (inputs) da sua “unidade de produção” são os atributos (características
intrínsecas e extrínsecas) do imóvel relevantes para a sua valorização, como localização, área, etc.; o “produto” (output)
da sua “unidade” é o preço, que pode ser expresso pelo Valor Total do Bem;
•para o comprador, inversamente, o input é o preço e os outputs são os atributos (localização, área, etc.);
•Desta forma, ficam constituídas, assim, duas óticas para a DEA: a do vendedor e a do comprador. Para o vendedor, o
objetivo é oferecer certos atributos relevantes de um imóvel (área, localização, etc.) e obter por eles o maior preço
possível; na visão do comprador, o objetivo é pagar um determinado preço e obter em troca o máximo de atributos
relevantes de um imóvel (área, localização, etc.).
87
DEA (VRS) nas AvaliaDEA (VRS) nas Avaliaçções Imões Imóóveis Urbanosveis UrbanosÓÓtica do vendedor (orientada ao output) tica do vendedor (orientada ao output)
input = áreax
output = valor (R$)y
P1
P7P2
P5
P3
P4
P6
88
DEA (VRS) DEA (VRS) nasnas AvaliaAvaliaççõesões ImImóóveisveis UrbanosUrbanosÓÓtica do comprador (orientada tica do comprador (orientada aoao inputinput))
output = áreax
input = valor (R$)y
P1
P7
P2
P5
P3
P4
P6
89
DEA (VRS) DEA (VRS) nasnas AvaliaAvaliaççõesões ImImóóveisveis UrbanosUrbanosSobSob a dupla a dupla óóticatica
valor (R$)y
área x
P1
P7P2
P5
P3
P4
V1c
V1v
A1
P6
90
SituaSituaççãoão HipotHipotéética tica comcom a a DefiniDefiniççãoão das das FronteirasFronteirasEficientes (Eficientes (EnvelopeEnvelope))
X
Y
Ótica do Comprador-
Ótica do Vendedor - h' YO
h YO
YO
91
ModelagemModelagem RNA das RNA das FronteirasFronteiras Eficientes (Eficientes (EnvelopeEnvelope))
X
Y
Ótica do Comprador-
Ótica do Vendedor
Modelagem RNA
92
Dados Dados AmostradosAmostrados
Novaes, L.F.L., Paiva, S.A.
93
Resultados do EDOResultados do EDO--DEA fornecidos pelo DEA fornecidos pelo SisDEASisDEA
94
Resultados da Resultados da ValidaValidaççãoão RNA RNA semsem PruningPruning
95
Resultados da Resultados da ValidaValidaççãoão RNA RNA comcom PruningPruning
96
EDOEDO--DEA DEA vsvs EDOEDO--DEADEA RNA RNA (Exemplo pr(Exemplo práático para comparatico para comparaçção)ão)
• Utilizados na modelagem os mesmos 12 dados de mercado
(tabela 1).
• 2 variáveis
• Tratamento com o EDO-DEA.
• Tratamento com o EDO-DEA RNA.
97
Imóveis à avaliar
Imóvel 1: 80 m² e 30 anos de idade. (Idt=6599)
Imóvel 2: 80 m² e 20 anos de idade. (Idt=7004)
Imóvel 3: 90 m² e 10 anos de idade. (Idt=7697)
98
Comparação resultados
A aplicação das redes neurais artificiais no espaço delimitado pelo EDO-DEA
permitiu chegar aos seguintes resultados finais de estimação de valores para
os avaliandos:
99
Conclusões e Vantagens do EDO-DEA RNA
Neste tópico foi discutida a possibilidade de utilização de redes
neurais para a estimação de valores de mercado de imóveis
urbanos tendo como base o espaço delimitado entre as
fronteiras de compra e venda do EDO-DEA.
100
Conclusões e vantagens do EDO-DEA RNA
Os valores estimados pela redes neurais com pruning obtiveram um ajuste
superior aos valores estimados pela redes neurais sem pruning.
No caso da utilização das redes neurais artificiais modelando o espaço
delimitado pelo EDO-DEA, os resultados obtidos foram bastante
satisfatórios, permitindo uma estimativa de valores mais consistente e com
maior confiabilidade.