mecanica dos fluidos
TRANSCRIPT
Fundamentos de Mecânica dos
Fluidos Computacional
Juan Bautista Villa Wanderley
Rio de Janeiro Abril de 2007
ÍNDICE
1.0 Introdução 1 2.0 Equações Governantes 1
2.1 Equações de Navier – Stokes 1 2.2 Equações de Reynolds 3 2.3 Equações de Euler 5 2.4 Equação de Laplace 5 2.5 Escoamentos Levemente Compressíveis 6 2.6 Coordenadas Generalizadas 8
3.0 Introdução à Mecânica dos Fluidos Computacional 10 3.1 Equações Modelo 10 3.2 Classificação Matemática 11 3.3 Tipos de Condições de Contorno 12 3.4 Diferenças Espaciais em Forma de Série de Taylor 13 3.5 Operadores Pontuais e Matriciais 16 3.6 Esquemas Centrados e Upwind 18 3.7 Conceito de Equação Modificada 22 3.8 Esquemas Hermicianos e Aproximações de Padé 23
4.0 Precisão e Estabilidade de Métodos Numéricos 25 4.1 Solução Exata de Sistemas Lineares com Coeficientes Constantes 25 4.2 Equações de Diferenças Finitas Lineares 29 4.3 Teorema do Isolamento e a Equação Representativa 33 4.4 Relação entre λ e σ 36 4.5 Inicialização de Métodos com Raízes Espúrias 37 4.6 Exemplo de um Método de uma Raiz 39 4.7 Tipo de Métodos de Marcha no Tempo 40 4.8 Exemplos de Métodos de Marcha no Tempo 42 4.9 Método de Lax-Wendroff 44 4.10 Precisão de Métodos de Marcha no Tempo 47 4.11 Estabilidade de Métodos de Marcha no Tempo 52 4.12 Estabilidade de Métodos Explícitos 60 4.13 Conceito de “Stifness” 96 4.14 Estabilidade de Métodos Implícitos 72 4.15 Teste de Estabilidade de von Neumann ou Fourier 75
5.0 Métodos de Relaxação 76 5.1 Teoria de Relaxação 76 5.2 Relaxação Clássica em 1-D 77 5.3 Esquemas de Relaxação Aplicados à Equação de Laplace 86 5.4 Métodos ADI e Fatoração Aproximada 87
6.0 Implementação de Métodos Implícitos 90 6.1 Solução de Tridiagonal Escalar 92 6.2 Solução de Tridiagonal de Bloco 92 6.3 Implementação de Métodos Implícitos para Sistemas não Lineares 93
7.0 Esquemas Upwind e Dissipação Artificial 95 8.0 Coordenadas Generalizadas 99
8.1 Equação do Tipo Poisson em Coordenadas Generalizadas 101
8.2 Equação de Burger em Coordenadas Generalizadas 104 9.0 Método de Fatoração Aproximada Aplicado à Equação de Laplace 106 10.0 Método de Beam and Warming Aplicada à Equação de Burger 108
10.1 Esquema de Fatoração Aproximada de Beam and Warming 108 10.2 Matrizes Jacobianas de Fluxo 110 10.3 Discretização dos Termos Viscosos 110
11.0 Solução das Equações de Navier Stokes Incompressíveis 111 11.1 Método da Projeção 111 11.2 Método do Escoamento Levemente Compressível 111 11.3 Método de Beam and Warming 113 11.4 Método de MacCormack 114
12.0 Volumes Finitos 116 12.1 Formulação Matemática 116 12.2 Formulação Numérica 117 12.3 Termos de Dissipação Artificial 121 12.4 Formulação Matemática para Malhas Deformáveis 122
13.0 Método dos Volumes Finitos com Malhas não Estruturadas 123 13.1 Cálculo do Volume de Cada triângulo 124 13.2 Cálculo do Vetor Área 125 13.3 Interpolação Linear dos Termos Invíscidos 125 13.4 Interpolação dos Termos Viscosos 126 13.5 Dissipação Artificial não Linear 127 13.6 Método de MacCormack 128 13.7 Interpolação Upwind de Primeira Ordem 129 13.8 Malha Deformável 129
14.0 Equação Governante com Modelo de Turbulência 132 14.1 Equação de Navier-Stokes com Modelo de Turbulência 133 14.2 Modelo k-ε 135 14.3 Modelo de Baldwin – Lomax 136
15.0 Implementação de Condições de Contorno com Equações Características 138 15.1 Equações de Euler não-Concervativas e Relações Características 138 15.2 Equações de Euler Bidimensionais não-concervativas e
Relações Características 141 15.3 Relações Características em Coordenadas Curvilíneas Gerais 145 15.4 Exemplo de Implementação de Condições de Contorno 146 16.0 Separação de Vetor de Fluxo 148 17.0 Métodos de Alta Resolução para Equações Escalares 152 17.1 Esquemas Monotônicos 153 17.2 Compatibilidade de Dados 154 17.3 Variação Total 154 17.4 TVD e Esquemas de Preservação de Monotonicidade 156 17.5 Método dos Limitadores de Fluxo 158 17.5.1 Versão TVD do Método do Fluxo Médio Ponderado 159 17.5.2 Limitador de Fluxo Geral 164 17.5.3 Esquemas TVD Upwind com Limitadores de Fluxo 166 17.5.4 Esquemas TVD Centrados com Limitadores de Fluxo 171 18.0 Métodos de Alta Resolução para Sistemas de Equações de Conservação 178
18.1 Esquema de Roe-Swebt 178
1
1.0 - INTRODUÇÃO
A mecânica dos Fluidos Computacional vem se mostrando uma ferramenta poderosa para o estudo de escoamentos sutis que numa investigação experimental exigiria a aquisição de instrumentos sofisticados e caros que acabam onerando muito este tipo de investigação. Com o avanço da tecnologia, computadores de grande desempenho estão cada vez mais fáceis de serem adquiridos tornando convidativa e accessível a investigação numérica de escoamentos complexos.
Entretanto, o atual estado da arte dos métodos numéricos ainda não permite que confiemos totalmente nos resultados numéricos a ponto de abandonarmos por inteiro as investigações experimentais. Existe ainda um longo caminho a ser percorrido em termos de métodos numéricos e geração de malha, antes que possamos confiar plenamente nos resultados numéricos. No atual estado da arte, as investigações numérica e experimental caminham lado a lado de modo a reduzir o número de ensaios experimentais e verificar a validade dos resultados numéricos. Dados numéricos podem ser utilizados para checar a calibração de instrumentos, verificar a qualidade dos resultados experimentais e reduzir o número de ensaios em laboratório, reduzindo assim o custo deste tipo de investigação. Por outro lado, dados experimentais podem ser utilizados para verificar a validade e precisão dos resultados obtidos numericamente, contribuído para o desenvolvimento de métodos numéricos mais precisos e confiáveis. 2.0 - EQUAÇÕES GOVERNANTES
Neste livro não vamos deduzir as equações governantes, pois estas deduções podem ser encontradas em qualquer livro de Mecânica dos Fluidos. Além do mais, nosso objetivo principal é de apresentar os métodos numéricos utilizados para resolver as seguintes equações:
• Equações de Navier-Stokes incompressíveis (N-S); • Equações de Reynolds (RANS); • Equações de Euler; • Equação de Laplace. 2.1 – Equações de Navier-Stokes.
Começaremos apresentando as equações de Navier-Stokes incompressíveis em coordenadas Cartesianas e na forma não conservativa. Este sistema de equações é constituído de uma equação de conservação de massa (continuidade) e três equações da quantidade de movimento, e são restritas a meios contínuos e fluidos Newtonianos, veja as Eq. (2.1).
2
zyxzp
zww
ywv
xwu
tw
zyxyp
zvw
yvv
xvu
tv
zyxxp
zuw
yuv
xuu
tu
zw
yv
xu
zzzyzx
yzyyyx
xzxyxx
∂∂
+∂
∂+
∂∂
+∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
+∂∂
∂∂
+∂∂
+∂∂
+∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
+∂∂
∂∂
+∂
∂+
∂∂
+∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
+∂∂
=∂∂
+∂∂
+∂∂
τττρ
τττρ
τττρ
0
(2.1) onde
⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
=
⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
=
∂∂
=
xw
zu
xv
yuxu
xz
xy
xx
μτ
μτ
μτ 2
(2.2)
Substituindo a Eq. (2.2) na Eq. (2.1) e levando em consideração a hipótese de escoamentos incompressíveis, resulta a Eq. (2.3).
⎟⎟⎠
⎞⎜⎜⎝
⎛+++−=+++
⎟⎟⎠
⎞⎜⎜⎝
⎛+++−=+++
⎟⎟⎠
⎞⎜⎜⎝
⎛+++−=+++
=++
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
2
1
1
1
0
zw
yw
xw
zp
zww
ywv
xwu
tw
zv
yv
xv
yp
zvw
yvv
xvu
tv
zu
yu
xu
xp
zuw
yuv
xuu
tu
zw
yv
xu
∂∂
∂∂
∂∂ν
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂ν
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂ν
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
(2.3)
A forma conservativa, matematicamente falando, é equivalente à forma não
conservativa. Entretanto, numericamente, elas são significativamente diferentes. A forma conservativa garante não somente a conservação de massa e quantidade de movimento local, mas também a conservação global em todo o domínio físico. Isto significa que globalmente não há geração numérica de massa e quantidade de movimento. A forma conservativa das equações de Navier-Stokes incompressíveis é mostrada na Eq. (2.4).
3
( ) ( )
( ) ( )
( ) ( ) 0
0
0
0
2
2
2
=⎟⎟⎠
⎞⎜⎜⎝
⎛−++−+−+
=−+⎟⎟⎠
⎞⎜⎜⎝
⎛−++−+
=−+−+⎟⎟⎠
⎞⎜⎜⎝
⎛−++
=++
zyx
zyx
zyx
wpwz
wvwy
wuwxt
w
vvwz
vpvy
vuvxt
v
uuwz
uuvy
upuxt
uzw
yv
xu
νρ∂
∂ν∂∂ν
∂∂
∂∂
ν∂∂ν
ρ∂∂ν
∂∂
∂∂
ν∂∂ν
∂∂ν
ρ∂∂
∂∂
∂∂
∂∂
∂∂
(2.4)
2.2 – Equações de Reynolds As equações de Navier-Stokes não podem ser resolvidas apropriadamente para
capturar os efeitos de turbulência de alta freqüência, pois os recursos computacionais atuais não permitem a geração de malhas suficientemente refinadas para resolver apropriadamente os vórtices de pequena escala de comprimento. Por esta razão, atualmente os esforços na Mecânica dos Fluidos Computacional estão direcionados à solução das equações de Reynolds. Estas equações são obtidas utilizando-se a definição de média temporal, veja a Eq. (2.5).
∫Δ+
Δ=
tt
t
fdtt
f0
0
1(2.5)
onde Δt tem que ser suficientemente grande quando comparado com o período das flutuações aleatórias, mas pequeno em relação a qualquer variação do escoamento não estacionário. Utilizando a Eq. (2.5), podemos separar as propriedades do escoamento em termos de suas médias e flutuações temporais, conforme as Eq. (2.6).
wwwvvvuuuppp′+=′+=
′+=′
,,= +
(2.6) onde
∫Δ+
=′Δ
=′tt
t
dtft
f0
0
01(2.7)
Utilizando as definições de média e flutuação temporal, podemos demostrar as propriedades mostradas nas Eq. (2.8), que serão utilizadas posteriormente na dedução das equações de Reynolds.
4
tf
tf
xf
xf
gfgf
gfgf
gf
∂∂
=∂∂
=
+=+
=
=′
∂∂
∂∂
0
(2.8)
As equações de Reynolds são obtidas ao substituirmos as Eq. (2.6) nas Eq. (2.1), fazendo-se a média temporal das equações resultantes e usando as propriedades mostradas nas Eqs. (2.8). O resultado final em duas dimensões é mostrado nas Eqs. (2.9).
⎥⎦
⎤⎢⎣
⎡ ′′−∂∂
∂∂
+⎥⎦
⎤⎢⎣
⎡′′−⎟⎟
⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
∂∂
+∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
⎥⎦
⎤⎢⎣
⎡′′−⎟⎟
⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
∂∂
+⎥⎦⎤
⎢⎣⎡ ′′−
∂∂
∂∂
+∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
=+
vvyv
yvu
xv
yu
xyp
yvv
xvu
tv
vuxv
yu
yuu
xu
xxp
yuv
xuu
tu
yv
xu
ρμρμρ
ρμρμρ
∂∂
∂∂
2
2
0
(2.9)
Observe que as Eqs. (2.9) são parecidas às Eq. (2.1), exceto pelos termos vu ′′− ρ , uu ′′− ρ , vv ′′− ρ , etc. conhecidos como tensões de Reynolds. As equações de
Reynolds possuem mais incógnitas do que equações. Temos agora três tensões de Reynolds distintas, a pressão média e as duas componentes médias de velocidade, somando um total de seis incógnitas para somente três equações. Esta disparidade entre o número de incógnitas e o número de equações é conhecida como o problema do fechamento. Esta dificuldade pode ser contornada lançando-se mão da hipótese de Boussinesq da viscosidade efetiva, onde a viscosidade efetiva é a soma da viscosidade laminar (molecular) e a viscosidade turbulenta. A Eq. (2.10) mostra a hipótese de Boussinesq escrita compactamente na forma indicial.
⎟⎟⎠
⎞⎜⎜⎝
⎛
∂
∂+
∂∂
=+′′−i
j
j
itjiji x
uxukuu μδρρ ,3
2(2.10)
A viscosidade turbulenta é calculada usando-se um modelo de turbulência, que
será discutido em detalhes no Capítulo 10. Incorporando a hipótese de Boussinesq às Eqs. (2.9), obtemos as Eqs. (2.11).
5
⎥⎦
⎤⎢⎣
⎡∂∂
Γ∂∂
+⎥⎦
⎤⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
Γ∂∂
+⎟⎠⎞
⎜⎝⎛ +
∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
⎥⎦
⎤⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
Γ∂∂
+⎟⎠⎞
⎜⎝⎛
∂∂
Γ∂∂
+⎟⎠⎞
⎜⎝⎛ +
∂∂
−=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+∂∂
=+
yv
yxv
yu
xkp
yyvv
xvu
tv
xv
yu
yxu
xkp
xyuv
xuu
tu
yv
xu
232
232
0
ρρ
ρρ
∂∂
∂∂
(2.11)
onde tl μμ +=Γ
(2.12)
2.3 – Equações de Euler
Em muitos escoamentos de interesse prático, os efeitos viscosos são muito pequenos e podem ser desprezados. Neste caso, podemos obter um sistema de equações mais simples ao desprezarmos os termos viscosos das equações da quantidade de movimento. Estas equações simplificadas são conhecidas como as equações de Euler, e são mostradas nas Eqs. (2.13).
zp
zww
ywv
xwu
tw
yp
zvw
yvv
xvu
tv
xp
zuw
yuv
xuu
tu
zw
yv
xu
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
ρ∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
1
1
1
0
−=+++
−=+++
−=+++
=++
(2.13)
2.4 – Equação de Laplace
Uma simplificação maior das Eqs. (2.1) pode ser obtida se, além de desprezarmos os termos viscosos, assumirmos que o escoamento é irrotacional. Fisicamente, dizemos que um escoamento é irrotacional quando os elementos de fluido não possuem movimento de rotação. A irrotacionalidade do escoamento é expressa matematicamente conforme a Eq. (2.14).
0=×∇ vr (2.14)
Uma conseqüência interessante da irrotacionalidade do escoamento é que o campo de velocidade pode ser representado pelo gradiente de uma função escalar, veja a Eq. (2.15).
6
φ∇=rrv (2.15)
Combinado a Eq. (2.15) com as Eqs. (2.13), da equação da conservação de
massa, obtemos a equação de Laplace, e das equações da quantidade de movimento, obtemos a equação de Bernoulli, conforme as Eqs. (2.16), respectivamente.
( ) )(21
0
2
2
2
2
2
2
2
tHpt
zyx
=+∇+
=++
ρφ
∂∂φ
∂φ∂
∂φ∂
∂φ∂
r
(2.16)
2.5 – Escoamentos Levemente Compressíveis
Na presente seção, apresentamos uma equação para o campo de pressão apropriada para escoamentos de baixa compressibilidade, que considera a compressibilidade dos fluidos apesar de muito pequena. Esta equação junto com as equações da quantidade de movimento incompressíveis forma um sistema de equações que, além de representar corretamente os escoamentos de baixa compressibilidade, pode ser facilmente resolvido numericamente, pois a equação do campo de pressão possui um termo de derivada temporal da pressão que facilita substancialmente a implementação de qualquer método de marcha no tempo.
A equação do campo de pressão é obtida combinando-se a equação da
continuidade compressível e a definição de compressibilidade isotérmica. A equação da continuidade em coordenadas Cartesianas e a definição de compressibilidade isotérmica são mostradas nas Eqs. (2.17) e (2.18), respectivamente.
(2.17)
0=+++zw
yv
xu
t ∂∂ρ
∂∂ρ
∂∂ρ
∂∂ρ
Tp ⎟⎟⎠
⎞=
∂∂ρ
ρτ 1
(2.18)
onde ( )
( )⎩⎨⎧
=×=
=−
−
atmpáguaNmatmparNm
1,/1051,/10
210
25
τ (2.19) Podemos reescrever a Eq. (2.18) de forma mais conveniente, conforme mostra a Eq. (2.20). Integrando a Eq. (2.20) assumindo que as variações da pressão do escoamento são pequenas de modo que o coeficiente de compressibilidade isotérmica possa ser considerado constante e considerando somente escoamentos isotérmicos, onde a densidade é função somente da pressão, resulta a Eq. (2.21).
( )[ ]
Tp ⎟⎟⎠
⎞∂∂
= ρτ ln (2.20)
7
)( ∞−
∞= ppeτρρ (2.21)
Fazendo uma expansão em série de Taylor da Eq. (2.21), obtemos a Eq. (2.22).
( ) ( ) ⎥⎦⎤
⎢⎣⎡ +−+−+= ∞∞∞ L
22
211 pppp ττρρ (2.22)
Substituindo os dois primeiros termos (linearização) da Eq. (2.22) na Eq. (2.17),
obtemos a Eq. (2.23).
( ) vpzpw
ypv
xpu
tp r
⋅∇−−=+++ ∞τ∂
∂τ∂∂τ
∂∂τ
∂∂τ 1 (2.23)
A forma adimensional da Eq. (2.23) é mostrada na Eq. (2.24), onde o símbolo
asterisco significa que a variável é adimensional.
( ) ***
**
*
**
*
**
*
*
1 vpzwp
yvp
xup
tp r
⋅∇−−=+++ ∞∂∂∂
∂∂
∂∂ ∂
(2.24)
onde
∞∞∞
===aww
avv
auu *** ,,
(2.25)
Lzz
Lyy
Lxx === *** ,, (2.26)
τρρτ
∞∞
∞∞∞
====1,
/, *
2* a
aLtt
appp (2.27)
Com a intenção de simplificar a escrita das equações, vamos eliminar o símbolo de asterisco utilizado para representar as variáveis adimensionais. Desde que o nosso objetivo é obter os coeficientes de sustentação, arrasto, momento e pressão, o valor adotado para a pressão do escoamento livre pode ser arbitrado. Um valor conveniente para a pressão do escoamento livre é p∞=1, pois simplifica a Eq. (2.24). Portanto, a forma final da Eq. (2.24) é mostrada na Eq. (2.28).
0=+++z
pwy
pvx
putp
∂∂
∂∂
∂∂
∂∂
(2.28)
A Eq. (2.28) junto com as equações da quantidade de movimento incompressíveis formam um sistema de equações para escoamentos de baixa compressibilidade e conveniente para soluções numéricas, veja a Eq. (2.29) escrita na forma conservativa e vetorial.
( ) ( ) ( ) 0=−+−+−+ zveyvexvet GGFFEEQ (2.29)
onde
⎪⎪
⎪⎪⎬
⎫
⎪⎪
⎪⎪⎨
⎧
=vup
Q
(2.30)
⎭⎩w
8
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧+
=
pwwvwupw
G
vwpv
vupv
F
uwuv
pupu
E eee
2
2
2
,,
(2.31)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
= ∞∞∞
z
z
z
Lv
y
y
y
Lv
x
x
x
Lv
wvu
RMG
wvu
RMF
wvu
RME
0
,
0
,
0
(2.32)
∞
∞
∞
∞∞ ==
νLuR
auM L, (2.33)
2.6 – Coordenadas Generalizadas
As equações governantes em coordenadas Cartesianas são de pouca utilidade para o cálculo de escoamentos ao redor de geometrias complexas, tais como: carros, barcos, aviões, etc. Para o estudo de escoamentos ao redor de corpos tridimensionais ou bidimensionais complexos, temos que trabalhar em coordenadas generalizadas. Para tanto, assumimos uma transformação do tipo mostrada na Eq. (2.34) que transforma as coordenadas (x,y) do plano físico para as coordenadas (ξ,η) do plano computacional.
( )( )yx
yx,,
ηηξ =ξ
(2.34) =
Utilizando a regra da cadeia e as Eqs. (2.34), podemos obter uma relação entre
as derivadas parciais em x e y no plano físico em termos das derivadas parciais em ξ e η no plano computacional, veja as Eq. (2.35). Substituindo as Eq. (2.35) nas equações governantes, transformamos as equações do plano físico para o plano computacional e passamos a trabalhar no plano computacional, que é retangular e facilita substancialmente a solução do escoamento ao redor de corpos de geometria complexa.
∂η∂η
∂ξ∂ξ
∂∂
∂η∂η
∂ξ (2.35)
A seguir, mostraremos a Eq. (2.29) escrita em coordenadas generalizadas. Fica como exercício para o leitor esta dedução, pois é importante que o leitor se familiarize com o procedimento de transformação das equações. Portanto, gaste todo o tempo que
∂ξ∂∂
yy
xx
y
x
+=
+=
9
for necessário. A Eq. (2.29) escrita em coordenadas generalizadas é mostrada na Eq. (2.36).
( ) ( ) ( ) 0=−+−+−+ ζηξ vevevet GGFFEEQ (2.36)
onde Q é o vetor de variáveis conservadas definido na Eq. (2.37).
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
wvup
JQ 1
(2.37)
Os termos Ee , Fe , Ge , Ev , Fv e Gv são os vetores de fluxo inviscidos e viscosos mostrados nas Eqs. (2.38), (2.39) e (2.40), respectivamente.
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+++
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+++
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+++
=
z
y
xe
z
y
xe
z
y
xe
pwWpvWpuW
pW
JG
pwVpvVpuV
pV
JF
pwUpvUpuU
pU
JE
ζζζ
ηηη
ξξξ 1,1,1
(2.38)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
++++++
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
++++++
= ∞∞
ζηξ
ζηξ
ζηξ
ζηξ
ζηξ
ζηξ
wAwAwAvAvAvAuAuAuA
JRMF
wAwAwAvAvAvAuAuAuA
JRME
Lv
Lv
542
542
542
321
321
321
0
,
0
(2.39)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
++++++
= ∞
ζηξ
ζηξ
ζηξ
wAwAwAvAvAvAuAuAuA
JRMG
Lv
653
653
653
0
(2.40)
Os termos U, V e W são as velocidades contravariantes definidas nas Eqs. (2.41) e A1, A2,etc. são os termos de métricas definidos nas Eq. (2.42).
zyx
zyx
zyx
wvuWwvuVwvuU
ζζζ
ηηη
ξξξ
++=
++=
++=(2.41)
10
2226
5
2224
3
2
2221
zyx
zzyyxx
zyx
zzyyxx
zzyyxx
zyx
A
AA
AAA
ζζζ
ζηζηζη
ηηη
ζξζξζξ
ηξηξηξ
ξξξ
++=
++=
++=
++=
++=
++=
(2.42)
onde ξx, ξy, ξz, ηx, ηy, ηz, ζx, ζy e ζz são as métricas e J é o Jacobiano da transformação definido na Eq. (2.43).
zyx
zyx
zyx
Jζζζηηηξξξ
=
(2.43)
Neste capítulo, vimos as equações que estaremos interessados em resolver
utilizando os métodos de diferenças finitas e volumes finitos. No próximo capítulo, vamos apresentar as ferramentas que serão utilizadas para resolver as equações. Apresentaremos o conceito de diferenças finitas, a construção de aproximações espaciais e temporais de diferenças finitas. 3.0 – INTRODUÇAO À MECÂNICA DOS FLUIDOS COMPUTACIONAL Neste capítulo, vamos começar apresentar o ferramental necessário para estudar as equações governantes discutidas no Capítulo 2 e os diversos métodos numéricos aplicáveis a elas. Para simplificar o nosso estudo, vamos desenvolver o nosso ferramental inicialmente sobre equações modelo simples e representativas dos fenômenos físicos característicos dos escoamentos. Desta forma, será fácil estudar quais os métodos numéricos mais indicados para cada equação associada a um determinado fenômeno físico. A tabela abaixo mostra as equações modelo e o fenômeno físico que elas representam. Tabela 3.1 – Equações modelo.
Equação Modelo Física Classificação ∂∂
α∂∂
ut
ux
+ = 0 Convecção Hiperbólica
∂∂
ν∂∂
ut
ux
=2
2 Difusão Parabólica
∂ φ∂
∂ φ∂
2
2
2
2 0x y
+ = Potencial
Elíptica
11
3.2 – Classificação Matemática
A classificação matemática das equações diferenciais parciais (PDE) é feita segundo a equação diferencial parcial de segunda ordem mostrada na Eq. (3.1). Os coeficientes a, b, c, d, e e f podem ser funções de x, y, φ, φx, φy. Isto significa que esta classificação pode ser aplicada à equações quasi-lineares, ou seja, equações que são lineares em termos das derivadas de segunda ordem.
(3.1) ),( yxgfedcba yxyyxyxx =+++++ φφφφφφ
Dizemos que uma equação diferencial parcial é elíptica, parabólica ou hiperbólica quando o discriminante Δ, Eq. (3.2), é menor, igual ou maior que zero, respectivamente.
(3.2) acb 42 −=Δ
Vamos classificar a equação de convecção mostrada na Tabela (3.1) conforme o discriminante definido na Eq. (3.2). Podemos demonstrar que a equação de convecção é equivalente a equação da onda. Derivando a equação de convecção com relação ao tempo, obtemos a Eq. (3.3).
0
2
2
2
=+xtu
tu
∂∂α
∂∂ ∂
(3.3) Invertendo a ordem da derivada temporal com a derivada espacial do segundo termo da Eq. (3.3) e substituindo a equação de convecção, obtemos a Eq.(3.4).
02
2
=⎟⎠⎞
⎜⎝⎛−+
xu
xtu
∂∂α
∂∂α
∂∂
ou
02
22
2
2
=−x
utu
∂∂α
∂∂ (3.4)
Comparando a Eq. (3.4) com a Eq. (3.1), concluímos que a=1, b=0, c=-α2, d=e=f=g=0. Portanto, o valor do discriminante definido na Eq. (3.2) é Δ=4α2>0. O que significa que, de acordo com a classificação matemática discutida acima, a equação da convecção é do tipo hiperbólica. Façamos o mesmo agora com a equação da difusão. Comparando a equação da difusão mostrada na Tabela (3.1) com a Eq. (3.1), concluímos que a=0, b=0, c=-ν, d=1, e=f=g=0. Portanto, o valor do discriminante é Δ=0, o que significa que a equação da difusão é do tipo parabólica. Finalmente, comparando a equação do potencial com a Eq. (3.1), concluímos que a=1, b=0, c=1, d=e=f=g=0. Portanto, o valor do discriminante é Δ=-4, o que significa que a equação de Laplace é do tipo elíptica.
12
A Tabela (3.1) mostra as equações modelo e suas classificações matemáticas. O leitor deve manter em mente as classificações matemáticas das equações modelo e a física que elas representam. Posteriormente, quando estudarmos as equações governantes dos escoamentos, poderemos ter o sentimento da física predominante das equações através de suas classificações matemáticas.
3.3 – Tipos de Condições de Contorno Para resolvermos as equações modelo, precisamos saber as condições na fronteira do domínio físico, ou seja, precisamos especificar as condições de contorno. Chamamos condição de Dirichlet a condição de contorno onde o valor da função que desejamos determinar é conhecido na fronteira do domínio físico. Vamos considerar, por exemplo, o problema da difusão de calor dado pela Eq. (3.5), pelas condições de contorno de Dirichlet e pela condição inicial, conforme as Eqs. (3.6) e (3.7), respectivamente.
2
2
xT
tT
∂∂ν
∂∂
= (3.5)
( ) ( )( ) ( )tgtT
tgtT
1
0
,1,0==
(3.6)
( ) ( )xfxT =0, (3.7)
Dizemos que a condição de contorno é do tipo Neumann quando a derivada da função é conhecida no contorno do domínio físico. Portanto, o nosso problema de difusão de calor fica da forma mostrada nas Eqs. (3.8).
2
2
xT
tT
∂∂
∂∂
=ν
(3.8)
( )
( )tgxT
tgxT
x
x
11
00
=⎟⎠⎞
=⎟⎠⎞
=
=
∂∂∂∂
( ) ( )xfxT =0,
Dizemos que a condição de contorno é periódica quando o valor da função se
repete periodicamente. Portanto, o nosso problema de difusão de calor fica da forma mostrada nas Eqs. (3.9).
13
2
2
xT
tT
∂∂
∂∂
=ν
( ) ( )tTtT ,0,1 = (3.9)
( ) ( )xfxT 0, = 3.4 – Diferenças Espaciais em Forma de Série de Taylor
Nesta seção, vamos mostrar como aproximar derivadas espaciais em termos de diferenças finitas de primeira e segunda ordem de precisão utilizando expansões em série de Taylor. Posteriormente, mostraremos uma forma sistemática de obtermos aproximações de ordens de precisão maiores. Para começar, façamos uma discretização do espaço unidimensional com N pontos, conforme mostra a Fig. 3.1.
Figura 3.1 – Domínio Unidimensional Discretizado
O espaço unidimensional [0,1] está dividido em N-1 elementos iguais de
dimensão Δx e desejamos calcular as derivadas de primeira e segunda ordem da função u(x) no ponto xi. Expandindo em série de Taylor a função u(x) na vizinhança do ponto xi, obtemos o seguinte:
L+Δ⎟⎟
⎠
⎞+Δ⎟⎟
⎠
⎞+Δ⎟
⎠⎞+=+
33
32
2
2
1 61
21 x
xux
xux
xuuu
iiiii ∂
∂∂∂
∂∂
(3.10)
L+Δ⎟⎟
⎠
⎞−Δ⎟⎟
⎠
⎞+Δ⎟
⎠⎞−=−
33
32
2
2
1 61
21 x
xux
xux
xuuu
iiiii ∂
∂∂∂
∂∂ (3.11)
onde
( )( )( )11
11
−−
++
===
ii
ii
ii
xuuxuu
xuu
(3.12)
Subtraindo a Eq. (3.11) da Eq. (3.10) e dividindo por 2Δx, obtemos a Eq. (3.13).
14
L+Δ⎟⎟
⎠
⎞+⎟
⎠⎞=
Δ− −+ 2
3
311
61
2x
xu
xu
xuu
ii
ii
∂∂
∂∂
ou
( )211
2xO
xuu
xu ii
i
Δ+Δ−
=⎟⎠⎞ −+
∂∂
(3.13)
A Eq. (3.13) é uma aproximação de segunda ordem da primeira derivada da função u(x) no ponto xi. Agora, se somarmos as Eq. (3.10) e (3.11), subtrairmos 2ui dos dois lados e dividirmos por Δx2, obtemos a Eq. (3.14).
ou
L+Δ⎟⎟
⎠
⎞+⎟⎟
⎞
⎠=
Δ+− −+ 2
4
4
2
2
211
1212 x
xu
xu
xuuu
ii
iii
∂∂
∂∂
( )2
211
2
2
xOx
uuux
u iii
i
Δ+Δ
+−=⎟⎟
⎠
⎞ −+
∂∂ (3.14)
A Eq. (3.14) é uma aproximação de segunda ordem da segunda derivada da função u(x) no ponto xi. Podemos também obter aproximações de primeira ordem para a primeira derivada da função u(x). Se subtrairmos ui de ambos os lados da Eq. (3.10) e dividirmos tudo por Δx, obtemos a Eq. (3.15).
ou
L+Δ⎟⎟
⎠
⎞+⎟
⎠⎞=
Δ−+ x
xu
xu
xuu
ii
ii2
21
21∂∂
∂∂
( )xO
xuu
xu ii
i
Δ+Δ−
=⎟⎠⎞ +1
∂∂ (3.15)
Por outro lado, se subtrairmos ui de ambos os lados da Eq. (3.11) e dividirmos tudo por -Δx, obtemos a Eq. (3.16).
ou
L+Δ⎟⎟
⎠
⎞−⎟
⎠⎞=
Δ− − x
xu
xu
xuu
ii
ii2
21
21∂∂
∂∂
( )xO
xuu
xu ii
i
Δ+Δ−
=⎟⎠⎞ −1
∂∂
(3.16)
A dedução das aproximações das derivadas por diferenças finitas, até o momento, foi relativamente fácil, pois as expressões eram simples. Entretanto, quando desejamos trabalhar com maior ordem de precisão, as expressões das aproximações podem ficar muito extensas e tornar a dedução um pouco trabalhosa e tediosa. Vamos apresentar a seguir uma forma sistemática de obter as aproximações em diferenças finitas que facilita muito o trabalho de dedução. Suponha que desejamos obter uma aproximação da primeira derivada utilizando três pontos da malha computacional, conforme a Eq. (3.17).
15
( )n
iiii
xOuauauaxu
Δ=+++⎟⎠⎞
+−− 11011∂∂
(3.17)
A idéia é obter os coeficientes ai para se obter a máxima ordem de precisão. Isto é conseguido anulando-se o máximo número de colunas da Tabela (3.2). Podemos garantir que pelo menos três colunas podem ser anuladas. Na primeira coluna da Tabela (3.2), colocamos os quatro termos da Eq. (3.17), e na primeira linha, colocamos as derivadas da expansão em série de Taylor da função u(x). O restante das linhas da Tabela (3.2) são preenchidas com os coeficientes das expansões em série de Taylor dos termos da Eq. (3.17).
Tabela 3.2 – Forma Sistemática para Obter as Aproximações em Diferenças Finitas
ui ∂∂ux i
⎞⎠⎟ ∂
∂
2
2
ux
i
⎞
⎠⎟
∂∂
3
3
ux
i
⎞
⎠⎟
∂∂
4
4
ux
i
⎞
⎠⎟
∂∂ux i
⎞⎠⎟
0 1 0 0 0
a ui− −1 1 a−1 − −Δxa 1 Δx a21 2− / −Δx a3
1 6/ Δx a41 24− /
a ui0 a0 0 0 0 0 a ui1 1+ a1 Δxa1 Δx a2
1 2/ Δx a31 6/ Δx a4
1 24/
Vamos tentar anular as três primeiras colunas da Tabela (3.2), pois temos três incógnitas e precisamos de três equações para determina-las. Desta forma, obtemos as Eq. (3.18).
⎪⎩
⎪⎨
⎧
=+=Δ−Δ=++
−
−
−
010
11
11
101
aaxaxaaaa
(3.18)
A solução do sistema de equações acima é:
xa
xa
a
Δ−=
Δ=
=
−
21
21
0
1
1
0
(3.19)
O erro de truncamento da nossa aproximação é o termo mais baixo acima das colunas zeradas da Tabela (3.2). O erro de truncamento e a aproximação da primeira derivada da função u(x) em diferenças finitas são mostrados nas Eqs. (3.20) e (3.21), respectivamente.
( )23
32
61 xO
xuxe
irt Δ=⎟⎟
⎠
⎞Δ−=
∂∂
(3.20)
16
( )211
2xO
xuu
xu ii
i
Δ+Δ−
=⎟⎠⎞ −+
∂∂ (3.21)
Obtivemos a mesma aproximação de segunda ordem obtida anteriormente para a
primeira derivada da função u(x), Eq. (3.13). Isto significa que, com três pontos da malha computacional, conseguimos no máximo uma aproximação de segunda ordem para a primeira derivada. Para conseguirmos aproximações com ordem de precisão superior, temos que usar um número maior de pontos. No caso geral, podemos obter uma aproximação de ordem (p+q) da primeira derivada da função u(x) utilizando a Eq. (3.22).
( )qpq
pkkik
i
xOuaxu +
−=+ Δ=+⎟
⎠⎞ ∑∂
∂(3.22)
3.5 – Operadores Pontuais e Matriciais Nesta seção, vamos aplicar o método das diferenças finitas a uma equação diferencial parcial, mas antes disso, vamos definir alguns operadores pontuais de diferenças finitas. De acordo com as aproximações em diferenças finitas obtidas na seção anterior, podemos definir os seguintes operadores pontuais:
xuuu ii
ix Δ−
= −+
211δ (3.23)
2112 2
xuuuu iii
ix Δ+−
= −+δ (3.24)
x
uuu iiix Δ
−=Δ +1
(3.25)
xuuu ii
ix Δ−
=∇ −1
(3.26)
Suponha agora que queremos resolver o problema da difusão de calor no domínio unidimensional [0,1] com condições de contorno de Dirichlet.
(3.26)
2
2
xu
tu
∂∂ν
∂∂
=
( )( ) b
a
utuutu
==
,1,0
(3.27)
( ) )(0, xgxu = (3.28)
Discretizando o espaço unidimensional [0,1], conforme a Fig. (3.1). Depois, aproximando a Eq. (3.26) utilizando o operador pontual definido na Eq. (3.24), obtemos a Eq. (3.29).
ixi
udtdu 2νδ≅⎟
⎠⎞
17
ou
( )112 2 −+ +−Δ
≅⎟⎠⎞
iiii
uuuxdt
du ν (3.29)
Não estamos mais usando a notação de derivada parcial temporal na Eq. (3.29), pois a derivada espacial foi eliminada da equação ao aproxima-la pelo operador pontual δ x
2 . Avaliando a Eq. (3.29) em todos os pontos internos da malha computacional mostrada na Fig. 3.1, obtemos o seguinte sistema de equações diferenciais ordinárias:
(3.30)
( )
( )
( )
( )2121
34524
23423
2322
2
2
2
2
−−−
+−Δ
=⎟⎠⎞
+−Δ
=⎟⎠⎞
+−Δ
=⎟⎠⎞
+−Δ
=⎟⎠⎞
NNbN
a
uuuxdt
du
uuuxdt
du
uuuxdt
du
uuuxdt
du
ν
ν
ν
ν
M
Podemos escrever o sistema de equações diferenciais ordinárias mostrado na Eq. (3.30) na forma matricial. Desta forma, obtemos a Eq. (3.31).
[ ] buAdtud rrr
+= (3.31) onde
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=
−1
4
3
2
Nu
uuu
(3.32)
uM
r
[ ]
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
−
−−
−
Δ=
21000
021001210012
2
MLMMM
L
L
L
xA ν
(3.33)
18
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
Δ=
b
a
u
u
xb
M
r00
2
ν
(3.34)
Podemos representar a matriz [A] em uma forma compacta e conveniente, conforme a Eq. (3.35).
[ ] ( )1,2,12 −Δ
=νA B (3.35) x
Usando a notação mostrada na Eq. (3.35), o nosso sistema de equações
diferencias ordinárias pode ser escrito da seguinte forma:
( ) buBxdt
ud rrr
+−Δ
= 1,2,12
ν(3.36)
Dizemos que B(1,-2,1) é um operador matricial. 3.6 – Esquemas Centrados e Upwind Para começar a nossa discussão sobre que tipo de esquema devemos utilizar para resolver um determinado problema, vamos considerar a equação de Euler compressível unidimensional, onde apresentaremos o conceito de velocidades características, veja a Eq. (3.37). Desacoplando as equações de Euler em três equações da onda, mostraremos que as velocidades características são na verdade as velocidades de propagação das informações dentro do escoamento.
0=+xE
tQ
∂∂ ∂
(3.37) ∂onde
( ) ⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
upepu
uE
euQ 2, ρ
ρρρ
(3.38)
Escrevendo a Eq. (3.37) na forma não conservativa, obtemos a Eq. (3.39).
0=+xQA
tQ
∂∂ ∂
(3.39) ∂onde
( )
( ) ⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢
⎣
⎡
−+−+−
−−−
==
uueueu
uuQEA
γγργγ
ργ
γγγ∂∂
23
2
2131
132
3010
(3.40)
19
O sistema (3.39) é hiperbólico no ponto (x,t,Q) se existir uma transformação similar dada pela matriz T que diagonaliza a matriz jacobiana de fluxo A, conforme a Eq. (3.41).
⎡
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
(3.41)
onde u
==Λ −
3
2
11
000000
λλ
λATT
−=+= (3.42)
são os autovalores da matriz jacobiana de fluxo. Desacoplando as Equações de Euler pré-multiplicando a Eq. (3.39) por T-1 e pós-multiplicando por T, o resultado final é mostrado na Eq. (3.43).
(3.43)
onde (3.44)
Observe que a Eq. (3.43) é composta de três equações da onda desacopladas. Se escrevermos essas equações separadamente, obtemos as Eqs. (3.45).
(3.45)
Observe que temos três equações da onda, onde λ1, λ2 e λ3 são as velocidades de propagação das ondas. Lembre-se que λ1, λ2 e λ3 são também os autovalores da matriz jacobiana de fluxo das equações de Euler compressíveis. Portanto, fica fácil entender que os autovalores são na verdade as velocidades com que as informações se propagam dentro do escoamento. Por este motivo, os autovalores são chamados também de velocidades características.
De acordo com as Eq. (3.42), vemos que no caso subsônico, duas velocidades características são positivas e uma é negativa. Isto significa que, no caso subsônico, teremos informações do escoamento propagando-se no mesmo sentido do escoamento e também no sentido contrário. Por outro lado, se o escoamento for supersônico, todas as velocidades características serão positivas. Isto significa que as informações do escoamento se propagam somente no sentido do escoamento, veja a Fig. 3.2.
auau
=
3
2
1
λλλ
0=Λ+x
Wt
W∂
∂ ∂∂
QTTW 1−=
0
0
0
33
3
22
2
11
1
=+
=+
=+
xw
tw
xw
tw
xw
tw
∂∂λ
∂∂
∂∂λ
∂∂
∂λ
∂∂ ∂
20
u Escoamento u+a As informações caminham subsônico u-a nos dois sentidos
i Sentido do escoamento
Escoamento u
Supersônico u+a As informações caminham u-a num único sentido i Sentido do escoamento
Figura 3.2 – Sentido de Propagação das Informações
Um esquema upwind é um esquema que respeita o sentido de propagação das informações do escoamento, ou seja, é um esquema em que as derivadas são aproximadas usando-se diferenças one-sided, segundo as velocidades características do escoamento. Por outro lado, um esquema centrado é um esquema em que as derivadas são aproximadas usando-se diferenças centradas sem levar em consideração as velocidades características. Como ilustração, vamos analisar a equação de convecção (equação da onda de primeira ordem) mostrada na Tabela 3.1 no espaço unidimensional [0,1], conforme a Eq. (3.46).
0,0 >=+ α
∂∂α
∂∂
xu
tu
(3.46)
(3.47) autu =),0(
)()0,( xgxu = (3.48)
Observe que não podemos especificar uma condição de contorno em x=1, pois a velocidade característica é positiva (α>0), o que significa que as condições naquele ponto são determinadas pelas condições no interior do domínio físico. Se optarmos por um esquema upwind, teremos que utilizar obrigatoriamente uma diferença “backward” de modo a respeitar o sentido da velocidade característica. Deste modo, o nosso esquema ficaria do seguinte modo:
0=∇+⎟
⎠⎞
ixi
udtdu αou
(3.49)
01 =Δ−
+⎟⎠⎞ −
xuu
dtdu ii
i
α
21
A Eq. (3.49) deve ser avaliada em todos os pontos interiores à malha computacional, inclusive o contorno em x=1, veja a Fig. 3.1. Se manipularmos algebricamente a Eq. (3.49), podemos chegar a Eq. (3.50).
2
1111 222 x
uuuxxuu
tu iiiii
i Δ+−Δ
=Δ−
+⎟⎠⎞ −+−+α
∂∂ α (3.50)
De acordo com a Eq. (3.50), a aproximação da derivada espacial da Eq. (3.46)
por uma diferença “backward” é equivalente a aproximarmos a derivada por uma diferença centrada com a adição implícita de um termo de dissipação artificial. Este termo de dissipação artificial tende a estabilizar o esquema. Se tivéssemos utilizado uma diferença “forward” em vez de uma “backward” para aproximar a derivada espacial, obteríamos a Eq. (3.50), porém com um sinal negativo na frente do termo de dissipação artificial, veja a Eq. (3.51).
2
1111 222 x
uuuxxuu
tu iiiii
i Δ+−Δ
−=Δ−
+⎟⎠⎞ −+−+ αα
∂∂
(3.51)
O esquema será instável, pois uma dissipação negativa, além de não ter significado físico, causa instabilidade ao esquema. Este esquema será estável somente quando α<0. Isto significa que a velocidade característica tem sentido contrário à anterior e, portanto, uma diferença “forward” é a aproximação correta para a derivada espacial da Eq. (3.46).
Por outro lado, podemos aproximar a derivada espacial da Eq. (3.46) utilizando um esquema centrado, ou seja, utilizando uma diferença centrada. Deste modo, obtemos a Eq. (3.52).
0
211 =
Δ−
+⎟⎠⎞ −+
xuu
tu ii
i
α∂∂
(3.52)
A Eq. (3.52) deverá ser avaliada em todos os pontos interiores à malha computacional e a condição de contorno em x=1 deverá ser obtida através de uma extrapolação dos valores dos pontos interiores. Deste modo, obteremos um sistema de equações diferenciais ordinárias com N-2 equações. Este tipo de esquema centrado será provavelmente instável, pois não existe um termo de dissipação artificial implícito como no esquema “upwind”. Para garantir a estabilidade do esquema, será necessário adicionar explicitamente um termo de dissipação artificial ao lado direito da Eq. (3.52).
O leitor deve ter em mente que esquemas “upwind” possuem implicitamente um termo de dissipação artificial, e os esquemas centrados necessitam da adição de dissipação artificial para garantir a estabilidade do esquema. Esta conclusão, obtida para a equação modelo de convecção, se aplica também às equações governantes dos escoamentos, como será discutido posteriormente neste livro.
22
3.7 – Conceito de Equação Modificada O conceito de equação modificada está diretamente relacionado com o que foi discutido na seção 3.6, onde aproximamos a derivada parcial espacial da equação de convecção por uma diferença “one-sided” e após alguma manipulação algébrica obtivemos um esquema centrado com um termo de dissipação artificial. Nesta seção, vamos fazer exatamente a mesma coisa somente que vamos aproximar a derivada espacial da equação de convecção utilizando uma representação geral de diferenças finitas, conforme a equação (3.53).
(3.53)
( ) ( )[ ]11 1212
1+− −+++−
Δ= iiiix uuu
xu βββδ
Observe que obtemos uma diferença centrada, “backward” ou “forward” para os valores de β=0, 1 e –1, respectivamente. Aproximando a derivada espacial da equação de convecção utilizando a Eq. (3.53), obtemos a Eq. (3.54).
(3.54)
( ) ( )[ ] 01212 11 =−+++−Δ
+⎟⎠⎞
+− iiii
uuuxt
u βββα∂∂
Vamos agora eliminar os termos ui-1 e ui+1 dentro do colchete da Eq. (3.54) através da expansão em série de Taylor da função u(x), veja a Eq. (3.55).
(3.55)
( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) L
L
+⎟⎟⎠
⎞Δ−+⎟⎟
⎠
⎞Δ−+⎟
⎠⎞Δ−+−=−
−⎟⎟⎠
⎞Δ++⎟⎟
⎠
⎞Δ+−⎟
⎠⎞Δ+++−=+−
+
−
iiiii
iiiii
xux
xux
xuxuu
xux
xux
xuxuu
3
33
2
22
1
3
33
2
22
1
61
21111
61
21111
∂∂β
∂∂β
∂∂βββ
∂∂β
∂∂β
∂∂βββ
Substituindo as Eq. (3.55) na Eq. (3.54), após alguma manipulação algébrica, obtemos a Eq. (3.56).
L+
Δ+
Δ−
Δ=+ 4
43
3
32
2
2
2462 xux
xux
xux
xu
tu
∂∂βα
∂∂α
∂∂βα
∂∂α
∂∂
(3.56)
A Eq. (3.56) é a equação que estamos realmente resolvendo quando aproximamos a derivada espacial da equação de convecção utilizando a equação (3.53). Por esta razão, a equação (3.56) é chamada de equação modificada. Observe que quando β=0 (esquema centrado) as derivadas pares desaparecem da Eq. (3.56), ou seja, os termos de dissipação artificial implícita desaparecem. Por outro lado, quando β=-1 (forward) ou β=1 (backward), as derivadas pares permanecem na Eq. (3.56). Observe que as derivadas pares da Eq. (3.56) funcionam como termos de dissipação somente quando αβ>0. Isto significa que quando a velocidade característica α é positiva, devemos utilizar obrigatoriamente diferença “backward” e quando α é negativo, devemos utilizar obrigatoriamente diferença “forward”. Observe também que a diferença centrada pode ser utilizada em ambos os casos, pois os termos de dissipação desaparecem.
23
3.8 – Esquemas Hermicianos e Aproximações de Padé Nesta seção, vamos apresentar uma outra forma de se obter uma aproximação da primeira derivada espacial. Com apenas três pontos da malha computacional, podemos obter uma aproximação de quarta ordem de precisão às custa de uma inversão de matriz tridiagonal. Suponha que desejamos obter uma aproximação da primeira derivada espacial utilizando três pontos da malha computacional, conforme a Eq. (3.57).
( )?11011
11
11 xOuauaua
xub
xu
xub iii
iii
Δ=+++⎟⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛
+−−+−
− ∂∂
∂∂
∂∂
(3.57)
Novamente, usamos a tabela de Taylor para determinar os coeficientes da Eq. (3.57), conforme discutido na Sec. 3.4.
ui ∂∂ux i
⎞⎠⎟ ∂
∂
2
2
ux
i
⎞
⎠⎟
∂∂
3
3
ux
i
⎞
⎠⎟
∂∂
4
4
ux
i
⎞
⎠⎟
∂∂
5
5
ux
i
⎞
⎠⎟
∂∂
6
6
ux
i
⎞
⎠⎟
bux i
−−
⎛⎝⎜
⎞⎠⎟1
1
∂∂
0 b−1 − −b x1Δ b x−1
2
2Δ
− −b x13
6Δ b x−1
4
24Δ
− −b x15
120Δ
∂∂ux i
⎛⎝⎜
⎞⎠⎟
0 1 0 0 0 0 0
bux i
11
∂∂⎛⎝⎜
⎞⎠⎟+
0 b1 b x1Δ b x1
2
2Δ
b x1
3
6Δ
b x1
4
24Δ
b x1
5
120Δ
a ui− −1 1 a−1 − −a x1Δ a x−12
2Δ
− −a x13
6Δ a x−1
4
24Δ
− −a x15
120Δ
a x−1
6
720Δ
a ui0 a0 0 0 0 0 0 0 a ui1 1+ a1 a x1Δ a x1
2
2Δ
a x1
3
6Δ
a x1
4
24Δ
a x1
5
120Δ
a x1
6
720Δ
Agora, vamos anular a soma dos elementos das cinco primeiras colunas, pois temos cinco coeficientes a determinar na Eq. (3.57). Desta forma, obtemos o sistema de equações algébricas mostrado na Eq. (3.58).
0
(3.58)
A solução do sistema de equações acima é:
(3.59)
044033022
1
1111
1111
1111
1111
101
=+−Δ+Δ+=++Δ+Δ−=+−Δ+Δ+−=++Δ+Δ−
+ + =+
−−
−−
−−
−−
−
bbxaxabbxaxabbxaxa
bxaxaaaa
b
41,
41
43,0,
43
11
101
==
Δ−==
Δ=
−
−
bb
xaa
xa
24
Portanto, substituindo as Eqs. (3.59) na Eq. (3.57), resulta a Eq. (3.60).
( ) ( )411
11 43
41
41 xOuu
xxu
xu
xu
iiiii
Δ=−Δ
+⎟⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛
+−+− ∂
∂∂∂
∂∂
(3.60)
onde
irt x
uxe ⎟⎟⎠
⎞⎜⎜⎝
⎛Δ= 5
54
1201
∂∂
(3.61)
Se avaliarmos a Eq. (3.60) nos pontos internos da malha computacional mostrada na Fig. 3.1, podemos obter o sistema de equações (3.62) escrito na forma de matriz de banda.
( ) ( ) buBxx
uBrr
r
+−Δ
≅ 1013141∂∂
(3.62) onde
⎪⎪⎪⎪
⎭
⎪⎪⎪⎪
⎬
⎫
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧
⎟⎠⎞
⎜⎝⎛−
Δ
⎟⎠⎞
⎜⎝⎛−
Δ−
=
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=
−
bb
aa
Nxuu
x
xuu
x
b
u
uuu
u
∂∂
∂∂
3
00
3
,
1
4
3
2
M
r
M
r
(3.63)
Se dividirmos a Eq. (3.62) por seis, obtemos a Eq. (3.64).
( ) ( ) buBxx
uBrr
r
61101
21141
61
+−Δ
≅∂∂
(3.64)
Observe que no lado direito da Eq. (3.64), temos uma aproximação de segunda ordem para a primeira derivada da função u(x). A matriz de banda do lado esquerdo da Eq. (3.64) faz com que a Eq. (3.64) seja uma aproximação de quarta ordem para a primeira derivada espacial. A matriz de banda do lado esquerdo da Eq. (3.64) é conhecida como correção de Padé. Multiplicando a Eq. (3.62) por B(1,4,1)-1, obtemos a Eq. (3.65).
( ) ( ) ( ) bBuBB
xxu rrr
11 1411011413 −− +−Δ
≅∂∂
(3.65)
Com apenas três pontos da malha computacional mostrada na Fig. 3.1, conseguimos obter uma precisão de quarta ordem para a primeira derivada espacial às custas da inversão de uma matriz tridiagonal. Repetindo o mesmo procedimento seguido para obter a Eq.(3.65), podemos obter também uma aproximação de quarta ordem para a segunda derivada espacial, veja a Eq. (3.66).
25
(3.66) ( ) ( ) ( ) ( )411
22
2
1101121110112 xObBuBBxx
uΔ++−
Δ= −−
rrr
∂∂
onde
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
Δ=
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=
− b
a
N u
u
xb
u
uuu
uM
r
M
r 00
12, 2
1
4
3
2
(3.67)
4.0 – PRECISÃO E ESTABILIDADE DE MÉTODOS NUMÉRICOS Neste capítulo, vamos estudar a precisão e estabilidade de métodos numéricos de marcha no tempo através da análise de Fourier. Ressaltamos que até o momento somente apresentamos e discutimos aproximações de derivadas espaciais. Pela primeira vez neste livro, vamos apresentar os métodos de marcha no tempo e estudar a estabilidade de cada um deles. Entretanto, antes de começarmos propriamente dito o nosso estudo, vamos apresentar algumas ferramentas que serão necessárias no decorrer deste capítulo. 4.1 – Solução Exata de Sistemas Lineares com Coeficientes Constantes Nesta seção, vamos obter as soluções analíticas de equações diferenciais ordinárias (ODE) lineares de primeira e segunda ordem e também de sistemas lineares de equações diferenciais ordinárias de primeira ordem. a) Solução analítica da equação diferencial ordinária (ODE) linear de primeira ordem
com coeficientes constantes, mostrada na Eq. (4.1).
taeudtdu μλ += (4.1)
Multiplicando toda a Eq. (4.1) por e-λt e passando o primeiro termo do lado direito da Eq. (4.1) para o lado esquerdo, obtemos a Eq. (4.2).
( )ttt aeue
dtdue λμλλ λ −−− =− (4.2)
Usando agora a regra da derivada do produto na Eq. (4.2), obtemos a Eq. (4.3).
( ) ( )tt aeue
dtd λμλ −− = (4.3)
Integrando a Eq. (4.3) e multiplicando o resultado por eλt, obtemos a Eq. (4.4).
26
tt eaCetu μλ
λμ −+=)( (4.4)
onde C é a constante de integração a ser determinada ao especificarmos uma condição inicial.
b) Solução analítica da equação diferencial ordinária de segunda ordem linear e
homogênea com coeficientes constantes mostrada na Eq. (4.5).
0012
2
=++ uadtdua
dtud
(4.5)
Admitindo uma solução do tipo u=Ceλt e substituindo na Eq. (4.5), obtemos a Eq. (4.6).
(4.6) 001
2 =++ ttt CeaeCaeC λλλ λλ
Cancelando o termo Ceλt da Eq. (4.6), obtemos a Eq. (4.7).
(4.7) 0012
=++ aa λλ
A solução da Eq. (4.7) é mostrada na Eq. (4.8).
24
24
0211
2
0211
1
aaa
aaa
−−−=
−+−=
λ
λ (4.8)
Como a Eq. (4.5) é linear, a sua solução é a superposição das duas soluções possíveis, conforme mostra a Eq. (4.9).
(4.9) tt eCeCtu 21
21)( λλ +=
c) Solução analítica do sistema linear de equações diferenciais ordinárias de primeira ordem, mostrado na Eq. (4.10).
2221212
2121111
uauadt
du
uauadt
du
+=
+= (4.10)
Escrevendo a sistema (4.10) na forma matricial, obtemos a Eq. (4.11).
uAdtud rr
= (4.11) onde
⎥⎦
⎤⎢⎣
⎡=
⎭⎬⎫
⎩⎨⎧
=2221
1211
2
1 ,aaaa
Auu
ur (4.12)
27
Admitindo uma solução do tipo mostrada na Eq. (4.13) e substituindo na Eq. (4.11), obtemos a Eq. (4.14).
( ) texCtu λrr
= (4.13)
tt exCAexC λλλ rr= (4.14)
Eliminando o termo Ceλt da Eq. (4.14), passando tudo para o lado esquerdo e multiplicando por –1, obtemos a Eq. (4.15).
( ) 0=− xIA rλ (4.15)
Veja que caímos num problema de autovalor e autovetor. Resolvendo a Eq. (4.15), obtemos os pares ( ) e (λ1 1,
rx )λ2 2,rx . Desde que o sistema (4.11) é linear, a sua
solução é a superposição das duas soluções possíveis, veja a Eq. (4.16).
( ) tt exCexCtu 212211
λλ rrr+= (4.16)
No caso geral, onde temos m equações diferenciais ordinárias lineares de primeira ordem, a solução do sistema é dada pela Eq. (4.17).
( ) ∑
=
=m
i
tii
iexCtu1
λrr(4.17)
onde ( ) mixIA ii ,,3,2,1,0 K
r==− λ (4.18)
d) Transformação da equação diferencial ordinária de segunda ordem mostrada na Eq.
(4.19) em um sistema linear de equações diferenciais ordinárias de primeira ordem segundo a transformação definida na Eq. (4.20).
0012
2
=++ uadtdua
dtud
(4.19)
(4.20)
Substituindo as Eqs. (4.20) na Eq. (4.19), obtemos a Eq. (4.21).
(4.21)
onde
(4.22)
Como foi visto no item (c) da presente seção, a solução da Eq. (4.21) é mostrada na Eq. (4.23).
(4.23)
dtduu
u
=
u=
2
1
uAdtud rr
=
⎥⎦
⎤⎢⎣
⎡−−
=⎭⎬⎫
⎩⎨⎧
=102
1 10,
aaA
uu
ur
tt exCexCtu 212211)( λλ rr
+=
28
onde ( ) 2,1,0 ==− ixIA ii
rλ (4.24)
d) Solução geral do sistema acoplado de equações diferenciais ordinárias (ODE’s) lineares com coeficientes constantes (A e f são constantes) mostrado na Eq. (4.25).
fuA
dtud rrr
−= (4.25)
Seja X a matriz cujas colunas são os autovetores associados à matriz A da Eq. (4.25). Seja Λ a matriz diagonal cujos elementos são os autovalores associados à matriz A da Eq. (4.25). Veja as Eq. (4.26) e (4.27).
[ ]mxxxxX rL
rrr321= (4.26)
⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢
⎣
⎡
=Λ
mλ
λλ
λ
L
MOMMM
L
L
L
000
000000000
3
2
1
(4.27)
Se a matriz X é não singular, ou seja, se o determinante da matriz X é diferente de zero, podemos diagonalizar a matriz A, conforme mostra a Eq. (4.28).
(4.28) AXX 1−=Λ
Vejamos agora como é obtida a solução geral dos sistemas de equações diferenciais ordinárias. Multiplicando ambos os lados da Eq. (4.25) pela matriz X-1, obtemos a Eq. (4.29).
fXuAXdtudX
rrr
111 −−− −= (4.29)
Lembrando que I=XX-1, podemos obter a Eq. (4.30).
ou
fXuAXXXdtudX
rrr
1111 −−−− −=
gwdtwd rrr
−Λ= (4.30) onde
gXf
w(4.31)
Veja que começamos com um sistema de equações diferenciais acopladas, Eq. (4.25), e chegamos a um sistema desacoplado, conforme mostra a Eq. (4.30). Vamos agora obter a solução de cada equação do sistema (4.30) e depois transformar o resultado
Xurr
r r=
=
29
para as variáveis iniciais. Vamos resolver a Eq. (4.32) conforme o que foi visto no item (a) da presente seção.
iii
i gwdt
dw−= λ (4.32)
De acordo com o que foi visto no item (a), obtemos a Eq. (4.33) que é a solução da Eq. (4.32).
i
itii
geCtw i
λλ +=)( (4.33)
Escrevendo a Eq. (4.33) na forma matricial, obtemos a Eq. (4.34).
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
+
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
mmt
m
t
t
t
m g
ggg
eC
eCeCeC
w
www
λ
λλλ
λ
λ
λ
λ
MMM33
22
11
3
2
1
3
2
1
1
3
2
1
(4.34)
Agora, vamos obter a solução do sistema original multiplicando a Eq. (4.34) pela matriz X. Desta forma, obtemos a Eq. (4.35).
fXXexCtu
m
i
tii
ri
rr 11
1
)( −−
=
Λ+= ∑ λ
(4.35)
4.2 – Equações de Diferenças Finitas Lineares
Na seção anterior, nós obtivemos a solução analítica de sistemas de equações diferenciais ordinárias lineares com coeficientes constantes. Na presente seção, nós vamos obter a solução exata das equações algébricas de diferenças finitas correspondentes às equações diferenciais ordinárias estudadas anteriormente, pois posteriormente neste capítulo, vamos comparar as duas soluções com o objetivo de estudarmos o erro introduzido pela aproximação em diferenças finitas das equações diferenciais.
Para começar, vamos definir o operador deslocamento (shift operator) que será utilizado para obter as soluções das equações em diferenças finitas. O operador deslocamento é definido na Eq. (4.36).
L++++== 3322
61
211 DhDhDeE hD h (4.36)
onde
thdtdD
Δ=
= (4.37)
30
Quando aplicarmos o operador deslocamento a uma função, obtemos a sua expansão em série de Taylor, veja a Eq. (4.38).
ou
( ) L++++= nnnnn uDhuDhhDuuuE 3322
61
21
( ) L+⎟⎟⎠
⎞Δ+⎟⎟
⎠
⎞Δ+⎟
⎠⎞Δ+=
nnnnn dt
udtdt
udtdtdutuuE 3
33
2
22
61
21
(4.38)
Portanto, fica claro que:
nnn
kkn
nn
bEbuEu
Euu
αα
=
+
+
+1
(4.39) =
=
Agora, vamos utilizar o operador deslocamento para resolver equações de diferenças finitas lineares.
a) Solução da equação de diferenças finitas de primeira ordem e não homogênea
mostrada na Eq. (4.40).
(4.40) nnn abuu +=+ σ1
Vamos obter primeiro a solução da forma homogênea da Eq. (4.40), mostrada na Eq. (4.41).
(4.41) nn uu σ=+1
Por inspeção, podemos dizer que a solução da Eq. (4.41) é da forma mostrada na Eq. (4.42a).
(4.42a) nn Cu σ1=
Agora, vamos obter a solução particular da Eq. (4.40). Vamos admitir que a solução particular é da forma mostrada na Eq. (4.42b).
u C bnn= 2
(4.42b)
Substituindo a Eq. (4.42) na Eq. (4.40), podemos obter o valor da constante C2, conforme a Eq. (4.43).
nnn abbCbC +=+ σ21
2
ou
σ−=
baC2 (4.43)
Substituindo a Eq. (4.43) na Eq. (4.42b), obtemos a solução particular da Eq. (4.40), conforme mostra a Eq. (4.44).
31
σ−
=babu
n
n (4.44)
Finalmente, a solução total da Eq. (4.40) é a superposição das soluções homogênea e particular mostradas nas Eqs. (4.42a) e (4.44), respectivamente, veja a Eq. (4.45).
nnn b
baCuσ
σ−
= 1 + (4.45)
onde a constante C1 é determinada ao satisfazermos a condição inicial.
b) Solução da equação de diferenças finitas de segunda ordem linear e homogênea mostrada na Eq. (4.46).
(4.46) 00112 =++++ nuanuanu
Aplicando o operador deslocamento à Eq. (4.46), obtemos a Eq. (4.47).
0012 =++ nnn uaEuauE
ou ( ) 001
2 =++ nuaEaEou
(4.47) 0)( =nuEP Agora, vamos assumir que a solução da Eq. (4.46) é do tipo mostrada na Eq. (4.48).
nCnu σ= (4.48)
Substituindo a Eq. (4.48) na Eq. (4.46), obtemos a Eq. (4.49).
001
12 =++++ nCanCanC σσ σ
ou (4.49) 001
2 =++ aa σσ
Comparando a Eq. (4.49) com a Eq. (4.47), vemos que P(σ)=0 é o polinômio característico da Eq. (4.46). Posteriormente, vamos utilizar o operador deslocamento para obter o polinômio característico das equações de diferenças finitas, pois é uma forma prática que facilita bastante a solução de equações mais complexas que a Eq. (4.46). Resolvendo a Eq. (4.49), obtemos os autovalores associados à Eq. (4.46) e a sua solução, conforme mostra a Eq. (4.50).
(4.50) nn
n ccu 2211 σσ +=
onde as constantes c1 e c2 são determinadas ao satisfazermos as condições iniciais.
c) Solução do sistema de equações de diferenças finitas de primeira ordem mostrado na Eq. (4.51).
32
(4.51) Podemos escrever o sistema (4.51) na forma matricial, conforme mostra a Eq. (4.52).
(4.52)
onde
(4.53)
Agora, vamos obter a solução do sistema (4.52) utilizando o operador deslocamento, conforme mostra a Eq. (4.54).
ou
ou
(4.54) Resolvendo o problema de autovalor e autovetor mostrado na Eq. (4.54), obtemos a solução do sistema (4.52), conforme mostra a Eq. (4.55).
(4.55) onde
ou
(4.56)
é o polinômio característico do sistema (4.52). Quando a equação for não homogênea do tipo mostrada na Eq. (4.57), a sua solução será a soma da solução homogênea e particular, conforme mostra a Eq. (4.58).
(4.57)
(4.58)
onde up é a solução particular da Eq. (4.57).
( ) ( ) ( )
( ) ( ) ( )nnn
nnn
ucucuucucu
2221211
2
2121111
1
+=
+=+
+
nuCnu rr=+1
( )
( ) ⎥⎦
⎤⎢⎣
⎡=
⎭⎬⎫
⎩⎨⎧
=2221
1211
2
1 ,cccc
Cuu
u n
n
nr
nn uCuE rr=
d) Solução numérica exata da equação diferencial ordinária de primeira ordem com coeficientes constantes mostrada na Eq. (3.59).
( ) 0=− nuEIC r
( ) 0=− xIC rσ
222111 xCxCu nnn
rrr σσ +=
( ) ( ) 0det =−= ICP σσ
( ) ( ) 01221221122112 =−++− cccccc σσ
nnn fuCurrr
+=+1
∑=
+=2
1mpm
nmmn uxcu rrr σ
33
nabu
dtdu
+= λ (4.59)
Aplicando algum método numérico de marcha no tempo à Eq. (4.59), obtemos uma equação de diferenças finitas do tipo mostrada na Eq. (4.60).
(4.60) ( ) ( ) nn abEQuEP =
onde P(E) é o polinômio característico, Q(E) é o polinômio particular. Vamos obter agora a solução particular da Eq. (4.60). Para tanto, vamos admitir uma solução do tipo mostrada na Eq. (4.61).
(4.61) ( ) nnp bu α=
Substituindo a Eq. (4.61) na Eq. (4.60), obtemos a Eq. (4.62).
( ) ( ) nn abEQbEP =αou
( ) ( )bQabbPb nn =αou ainda
( )( )bPbQa=α (4.62)
Substituindo a Eq. (4.62) na Eq. (4.61), obtemos a solução particular mostrada na Eq. (4.63).
( ) ( )( )bPbQabu nn
p = (4.63)
Em geral, o termo forçante não é função do tempo. Para obtermos esta condição, basta substituir b=1 na Eq. (4.63). Assim, obtemos a Eq. (4.64).
( ) ( )( )11
PQau n
p = (4.64)
Finalmente, a solução total da Eq. (4.60) é a soma das soluções homogênea e particular, conforme mostra a Eq. (4.65).
( )
( )bPbQabCu n
n += σ1 (4.65)
onde C1 é determinado ao satisfazermos a condição inicial. Portanto, a Eq. (4.65) é a solução numérica exata da Eq. (4.59).
4.3 – Teorema do Isolamento e a Equação Representativa Nesta seção, vamos obter a equação representativa que será utilizada no nosso estudo de estabilidade dos métodos numéricos de marcha no tempo. No Capítulo 3,
34
aproximamos as derivadas parciais espaciais das equações modelo utilizando diferenças finitas e chegamos a um sistema de equações diferenciais ordinárias do tipo mostrado na Eq. (4.66).
fuAdtud rrr
−= (4.66)
Na presente seção, vamos desacoplar o sistema (4.66) de modo a obtermos um sistema de equações diferenciais ordinárias desacopladas do tipo mostrado na Eq. (4.67).
migwdt
dwiii
i ,,2,1, K=+= λ (4.67)
O nosso estudo dos métodos de marcha no tempo será feito sobre uma equação do tipo mostrada na Eq. (4.67), onde o parâmetro λ contém toda informação sobre a física da equação modelo original e sobre a forma como ela foi espacialmente aproximada. Assim, saberemos quais os métodos de marcha no tempo apropriados para cada equação modelo representativa de um determinado fenômeno físico. Para começar, vamos transformar a Eq. (4.66) numa equação de diferenças finitas utilizando o método de marcha no tempo chamado “leap Frog”, veja a Eq. (4.68).
n
nn dtudhuu ⎟⎠⎞
r
= −+ +rr 211 (4.68)
Eliminando a derivada temporal da Eq. (4.68) utilizando a Eq. (4.67), resulta a
Eq. (4.69).
( )nnnn fuAhuurrrr
−+= −+ 211(4.69)
Aplicando o operador deslocamento à Eq. (4.69), resulta a Eq. (4.70).
nnnn fhuhAuEuErrrr 221 −+= −
ou ( )
nn fuIhEEA
rr=
⎭⎬⎫
⎩⎨⎧ −
−−
2
1
(4.70)
Relembrando o que foi visto no item (d) da seção 4.1, onde a matriz X foi definida, pré-multiplicando a Eq. (4.70) por X-1 e lembrando também que I=XX-1, obtemos a Eq. (4.71).
ou
nn fXuX
hEEAXXX
rr 111
11
2−−
−−− =
⎭⎬⎫
⎩⎨⎧
⎟⎟⎠
⎞⎜⎜⎝
⎛ −−
nn gwI
hEE rr
=⎭⎬⎫
⎩⎨⎧
⎟⎟⎠
⎞⎜⎜⎝
⎛ −−Λ
−
2
1(4.71)
35
onde
nn
nn
fXg
uXwrr
rr
1
1
−
−
=
=(4.72)
Observe que a matriz entre chaves na Eq. (4.71) é uma matriz diagonal, portanto, o sistema (4.71) é um sistema de equações algébricas desacopladas. Portanto, podemos escrever a Eq. (4.71) na forma indicial, conforme mostra a Eq. (4.73).
ou
( ) ( ) ( )ni
nii gw
hEE
=⎥⎦
⎤⎢⎣
⎡ −−
−
2
1
λ
( ) ( ) ( ) ( )( )ni
nii
ni
ni gwhww −+= −+ λ211 (4.73)
Agora, vamos escrever a Eq. (4.73) na forma de equação diferencial ordinária. Desta forma, obtemos a Eq. (4.74).
iii
i gwdt
dw−= λ (4.74)
Veja que o sistema (4.74) é a versão desacoplada do sistema de equações
diferenciais ordinárias mostrado na Eq. (4.66). Portanto, fica evidente que aplicar um método de marcha no tempo à Eq. (4.66) é equivalente à aplicar o mesmo método individualmente à todas as equações desacopladas do mesmo sistema. Daqui em diante, a nossa análise de métodos de marcha no tempo será realizada sobre uma equação do tipo mostrada na Eq. (4.74) chamada de equação representativa. Vamos considerar somente termos forçantes da forma mostrada na Eq. (4.75).
∑∞
=
=−1
)(k
iktkm eatg (4.75)
A solução da Eq. (4.74) com o termo forçante mostrado na Eq. (4.75) é mostarda
na Eq. (4.76).
∑∞
= −+=
11
k m
ikt
kt
m ikeaeCw m
λλ
(4.76)
Como a Eq. (4.74) é linear e o termo forçante é o somatório de modos normais de oscilação, a solução da Eq. (4.74) é a soma das soluções homogênea e particular, composta do somatório das contribuições dos modos normais do termo forçante. Portanto, podemos restringir a nossa análise somente a uma parcela do termo forçante, pois o resultado final pode ser obtido através de um somatório. Finalmente, a equação representativa que vamos estudar é mostrada na Eq. (4.77).
taewdtdw μλ += (4.77)
36
4.4 – Relação entre λ e σ. Nesta seção, vamos obter a solução numérica exata da equação representativa (4.77) e comparar com a sua solução analítica para verificar o erro introduzido na equação ao resolve-la numericamente utilizando novamente o método de marcha no tempo conhecido como “Leap Frog”. Vamos primeiro obter a solução analítica da Eq. (4.77) sem o termo forçante, conforme mostra a Eq. (4.78).
udtdu λ= (4.78)
A solução da Eq. (4.78) é mostrada na Eq. (4.79).
(4.79) teCtu λ1)( =
Façamos agora uma expansão em série de Taylor da Eq. (4.79), conforme mostra
a Eq. (4.80).
nhn hhhCeCtu ⎟
⎠⎞
⎜⎝⎛ ++++== L3322
11 61
211)( λλλλ
(4.80)
Observe que a Eq. (4.80) é a solução analítica da Eq. (4.78). Vamos obter a solução numérica exata da Eq. (4.78) usando o método de marcha no tempo “Leap Frog” e compara-la com a Eq. (4.80). O método de marcha no tempo “Leap Frog” é mostrado na Eq. (4.81).
nnn dt
duhuu ⎟⎠⎞+= −+ 211 (4.81)
Substituindo a Eq. (4.78) na Eq. (4.81), eliminamos a derivada temporal da Eq.
(4.81) e obtemos a Eq. (4.82).
(4.82) nnn uhuu λ211 += −+
Vamos obter a solução exata da equação de diferenças finitas (4.82) utilizando o
operador deslocamento, conforme mostra a Eq. (4.83).
nnn uhuEEu λ21 += −
( ) 0122 =−− nuEhE λou
(4.83) 0)( =nuEP
Portanto, o polinômio característico da Eq. (4.82) é P(σ)=0, conforme mostra a Eq. (4.84).
(4.84) 0122 =−− σλσ h
A solução da equação de segundo grau, Eq. (4.84), é mostrada na Eq. (4.85).
37
222
221
1
1
hh
hh
λλσ
λλσ
+−=
++=(4.85)
Portanto, a solução da Eq. (4.82) é mostrada na Eq. (4.86).
n nn CCu 2211 σσ +=
ou ( ) ( )nn
n hhChhCu 222
221 11 λλλλ +−+++= (4.86)
Façamos uma expansão binomial da Eq. (4.86), conforme mostra a Eq. (4.87).
nn
n hhhChhhCu ⎟⎠⎞
⎜⎝⎛ ++−+−+⎟
⎠⎞
⎜⎝⎛ +−++= LL 4422
24422
1 81
211
81
211 λλλλλλ (4.87)
Comparando a Eq. (4.87) com a Eq. (4.80), vemos que σ1 é a raiz que mais
aproxima a solução numérica exata (4.87) à solução analítica (4.80). Por este motivo, σ1 é chamada de raiz principal e σ2 é chamada de raiz espúria, pois ela não tem nenhum significado físico e sua origem está relacionada ao erro introduzido ao aproximarmos a Eq. (4.78) pela Eq. (4.82) utilizando o método numérico de marcha no tempo chamado “Leap Frog”. Este método é dito de segunda ordem, pois a raiz principal tenta aproximar a solução analítica até o termo de segunda ordem, conforme mostra a Eq. (4.87). De um modo geral, o método será de ordem l quando a raiz principal reproduzir a solução analítica até o termo de ordem l, conforme mostra a Eq. (4.88).
KK +++++= llh
lhh λλλσ
!1
211 22
1 (4.88)
4.5 – Inicializando Métodos com Raízes Espúrias. Comparando as Eqs. (4.80) e (4.87), vemos que a solução numérica exata da equação representativa possui uma constante de integração a mais do que a sua solução analítica. Esta constante adicional está relacionada à raiz espúria associada ao método de marcha no tempo escolhido para resolver a equação representativa. Nesta seção, vamos apresentar uma forma de inicializar métodos com raízes espúrias utilizando o método de Euler explícito para inicializar a marcha no tempo, e assim, determinarmos o valor da constante adicional. Veja o método de Euler explícito na Eq. (4.89).
n
nn dtduhuu ⎟
⎠⎞=+1 + (4.89)
Substituindo a Eq. (4.78) na Eq. (4.89) para eliminar a derivada temporal, obtemos a Eq. (4.90).
38
nnn huuu λ+=+1
ou ( ) nn uhu λ+=+ 11 (4.90)
Avaliando a Eq. (4.90) para n=0, obtemos a Eq. (4.91).
( ) 01 1 uhu λ+= (4.91)
Se u0 é conhecido, podemos determinar u1 e assim, obtermos uma condição inicial a mais para determinar a constante de integração adicional da solução numérica exata, conforme mostra a Eq. (4.92).
( ) 0
0
1)()0(
uhhuuu
λ+==
(4.92)
Avaliando a Eq. (4.86) para os valores mostrados na Eq. (4.92), obtemos as Eqs. (4.93).
( ) 02211
021
1 uhCCuCC
λσσ +=+=+
(4.93)
Resolvendo as Eqs. (4.93), obtemos os valores das constantes de integração C1 e C2, conforme mostra a Eq. (4.94).
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
+
++−=
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
+
++=
22
22
02
22
22
01
1211
1211
hhuC
hhuC
λλ
λλ
(4.94) Fazendo uma expansão binomial das Eqs. (4.94), obtemos as Eqs. (4.95).
⎟⎠⎞
⎜⎝⎛ +=
⎟⎠⎞
⎜⎝⎛ +−=
L
L
2202
2201
41
411
huC
huC
λ
λ (4.95)
Substituindo as Eqs. (4.95) na Eq. (4.86), obtemos a solução numérica exata da equação representativa, conforme mostra a Eq. (4.96).
nnn huhuu 2
2201
220 4
1411 σλσλ ⎟
⎠⎞
⎜⎝⎛ ++⎟
⎠⎞
⎜⎝⎛ +−= KK (4.96)
Salientamos que, ao utilizarmos o método de Euler explícito para inicializar a
marcha no tempo da equação de diferenças finitas, reduzimos a precisão do método de segunda para primeira ordem, pois, apesar do método “Leap Frog” ser de segunda ordem, o método de Euler explicito é um método de primeira ordem. Um outro aspecto que queremos ressaltar é que a primeira parcela da Eq. (4.96) é a única que possui
39
significado físico, pois tenta reproduzir a solução analítica da equação representativa. Entretanto, a primeira parcela não consegue reproduzir a condição inicial, pois a contribuição da raiz espúria para a solução não permite. Portanto, a contribuição da raiz espúria para a solução numérica exata somente atrapalha e é completamete indesejável. Na próxima seção, vamos apresentar um método numérico de marcha no tempo que não possui raízes espúrias e, portanto é melhor que o “Leap Frog”.
4.6 – Exemplo de Método de uma Raiz Na seção anterior, vimos que o método de marcha no tempo “Leap Frog” possui uma raiz espúria que torna o método ineficiente para reproduzir a física associada à equação representativa. Na presente seção, vamos apresentar um método de marcha no tempo que não possui raízes espúrias e, portanto é melhor que o método “Leap Frog”. O método que vamos apresentar é conhecido como método de Runge-Kutta de segunda ordem, e é uma combinação dos dois métodos apresentados na seção anterior, Euler Explícito e “Leap Frog”, conforme mostra a Eq. (4.97), respectivamente.
2/11
2/1
~21~
++
+
⎟⎠⎞+=
⎟⎠⎞+=
nnn
nnn
dtudhuu
dtduhuu
(4.97)
Substituindo a equação representativa (4.78) nas Eqs. (4.97) para eliminar a derivada temporal, obtemos as Eqs. (4.98).
2/11
2/1
~21~
++
+
+=
+=
nnn
nnn
uhuu
huuu
λ
λ (4.98)
Aplicando o operador deslocamento às Eqs. (4.98), obtemos as Eqs. (4.99).
ou
nnn
nnn
uhEuEu
huuuE
~21~
2/1
2/1
λ
λ
+=
+=
( )0
~
1211
2/1
2/1
=⎭⎬⎫
⎩⎨⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−−
⎟⎠⎞
⎜⎝⎛ +−
n
n
uu
EhE
hE
λ
λ(4.99)
Portanto, o polinômio característico do sistema de equações de diferenças finitas (4.98) é dado por:
40
)1(
)211()(
2/1
2/1
−−
+−=σσλ
λσσh
hP ou
)211()( 222/1 hhP λλσσσ −−−= (4.100)
Resolvendo a equação P(σ)=0, obtemos uma única raiz do polinômio
característico, conforme mostra a Eq. (4.101).
22
211 hh λλσ ++= (4.101)
Portanto, a solução numérica exata da equação representativa é dada por:
n
n Cu σ1=ou
n
n hhCu ⎟⎠⎞
⎜⎝⎛ ++= 22
1 211 λλ (4.102)
Comparando as Eqs. (4.102) e (4.80), vemos que a solução numérica exata
(4.102) tenta reproduzir a solução analítica da equação representativa até o termo de segunda ordem, portanto, o método de Runge-Kutta de segunda ordem é, como o seu nome diz, de segunda ordem. O método de Runge-Kutta não possui raízes espúrias, o que o torna um excelente método de marcha no tempo. 4.7 – Tipos de Métodos de Marcha no Tempo Os métodos de marcha no tempo podem ser divididos nas três seguintes categorias: métodos “multistep” lineares, métodos “predictor-corrector” e métodos de Runge-Kutta. Nesta seção, vamos apresentar as características dos métodos pertencentes a cada categoria. a) Métodos “multistep” lineares.
Os Métodos “multistep” lineares possuem a forma geral mostrada na Eq. (4.103).
k
(4.103) kn
Substituindo a equação representativa (4.77) na Eq. (4.103), para eliminar a derivada temporal, obtemos a Eq. (4.104).
kk
k
kknk dt
duhu+==
+ ∑∑ ⎟⎠⎞=
maxmax
00βα
α ( )∑∑=
++
=+ +=
maxmax
0
)(
0
k
k
hknknk
k
kknk aeuhu μλβ
ou
∑ ∑ ∑= = =
+++ +=
max max max
0 0 0
)(k
k
k
k
k
k
hnkkknkknk ehauhu μββλα (4.104)
41
Aplicando o operador deslocamento à Eq. (4.104), obtemos a Eq. (4.105).
E∑ ∑ ∑= = =
+=max max max
0 0 0
k
k
k
k
k
k
nhkkn
kkn
kk eEhau
ou u (4.105)
huE μββλα
=0EhE μβλβα( )∑ ∑
=
=−max max
0
k
k
k
k
nhkkn
kk
kk eEha
Comparando a Eq. (4.105) com a Eq. (4.60), vemos que:
( )
∑
∑
=
=
=
−=
max
max
0
0
)(
)(
k
k
kk
k
k
kkk
EhaEQ
EhEP
β
λβα (4.106)
De acordo com o que foi visto no item (d) da seção 4.2, a solução da Eq. (4.104) é dada por:
∑=
+=max
1 )()(k
kh
hnhn
kkn ePeQaeCu μ
μμσ (4.107)
onde (4.108) max,,2,1,0)( kkP k K==σ
Retornando a forma compacta dos métodos “multistep” lineares mostrada na Eq.
(4.103), vemos que se βkmax é diferente de zero, o método é implícito, enquanto que se βkmax for igual à zero, o método é explícito. b) Métodos “predictor-corrector”. Os métodos “predictor-corrector” são uma seqüência de métodos “multistep” lineares. Sua forma geral é mostrada na Eq. (4.109).
∑
∑−
= ++
++
−
= +++
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞+−+⎟
⎠⎞=
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞+−=
1
0
1
0
~~
~~~
km
k knkknk
kmnkmkmn
km
k knkknkkmn
dtudhu
dtudhu
dtduhuu
βαβ
βα (4.109)
A primeira das Eqs. (4.109) é chamada de intermediária e a segunda de principal. Substituindo a equação representativa na Eq. (4.109), para eliminar a derivada temporal, obtemos as Eqs. (4.110).
(4.110) [ ]
[ ]∑
∑−
=++++
−
=+++
+−+=
+−=
1
0
1
0
~~
~~~
km
kknkknkkmnkmkmn
km
kknkknkkmn
uhuuhu
uhuu
λβαλβ
λβα
Aplicando o operador deslocamento às Eqs. (4.110), obtemos a Eq. (4.111).
42
[ ]
[ ] [∑∑
∑−
=
−
=
−
=
+−+=
+−=
1
0
1
0
1
0
~~
~~~
km
kn
kkn
km
k
kkn
kmkmn
km
n
km
k
kk
kkn
km
uEhuEuEhuE
uEhEuE
βλαλβ
λβα
] ou
( )⎭⎬⎫
⎩⎨⎧
=⎭⎬⎫
⎩⎨⎧
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
⎟⎠
⎞⎜⎝
⎛+−⎟
⎠
⎞⎜⎝
⎛+
−
∑∑
∑−
=
−
=
−
=
00~
~~
1
0
1
0
1
0
n
nkm
k
kk
kmkm
k
kk
kmkm
km
k
kkk
km
uu
EEEEh
EhE
αββλ
βλα (4.111)
Portanto, o polinômio característico do sistema de equações de diferenças finitas (4.110) é dado por:
( )
⎟⎠
⎞⎜⎝
⎛+−⎟
⎠
⎞⎜⎝
⎛+
−=
∑∑
∑−
=
−
=
−
=1
0
1
0
1
0
~~
)( km
k
kk
kmkm
k
kk
kmkm
km
k
kkk
km
h
hP
σασσβσβλ
σβλασσ
(4.112)
Resolvendo a equação P(σ)=0, obtemos as raízes do polinômio característico. Portanto, a solução numérica exata da equação representativa é mostrada na Eq. (4.113).
∑=
=km
j
njjn Cu
2
1
σ (4.113)
d) Métodos de Runge-Kutta.
Os métodos de Runge-Kutta são métodos de uma única raiz que reproduz a solução analítica até a ordem do método. Por exemplo, a raiz do método de Runge-Kutta de quarta ordem é mostrada na Eq. (4.114).
443322
241
61
211 hhhh λλλλσ +++= + (4.114)
4.8 – Exemplos de Métodos de Marcha no Tempo Nesta seção, vamos apresentar os métodos de marcha no tempo mais utilizados na solução de equações diferenciais. As possibilidades são infinitas, pois existe um número infinito de métodos de marcha no tempo. Porém, na hora de escolher o método indicado para resolver o nosso problema, devemos considerar o balanço entre custo e benefício. Quanto mais preciso o método, maior será o tempo necessário para se obter a solução do problema e maior será a quantidade de memória necessária para armazenar as informações. Os métodos de marcha no tempo que vamos apresentar são um compromisso entre custo e benefício considerando-se os recursos computacionais atuais.
43
a) Método “Multistep” linear consistente de dois passos.
( ) ( )[ ] ( )[ ]1111 1211 −+−+ ′−′+−+′+−+=+ nnnnnn uuuhuuu φφθθξξξ (4.115)
O método é de segunda ordem quando:
(4.116) 21+−= θξφ
O método é de terceira ordem quando:
652
21−=+−=
θξφ ξ θ
(4.117)
O método é de quarta ordem quando:
(4.118) 613 =−=−= ξφθ
b) Métodos explícitos simples. Euler explícito:
(4.119) nnn uhuu ′+=+1
Leap Frog:
(4.120) nnn uhuu ′+= −+ 211
Adams – Bashforth (AB2):
( )11 321
−+ ′−′+= nnnn uuuu h (4.121)
c) Métodos implícitos simples. Euler implícito:
(4.122) 11 +′+=+ nuhnunu
Trapezoidal (Crank – Nicholson): ( )nnnn uuhuu ′+′+= ++ 11 2
1(4.123)
Backward differentiation: ( )111 24
31
+−+ ′+−= nnnn uhuuu (4.124)
d) Seqüências predictor – corrector: MacCormack:
44
( )111
1
~~21
~
+++
+
′++=
′+=
nnnn
nnn
uhuuu
uhuu(4.125)
Adams – Moulton:
(4.126)
e) Métodos de Runge – Kutta.
( )
( )111
11
8~5121
321~
−++
−+
′−′+′+=
′−′+=
nnnnn
nnnn
uuuhuu
uuhuu
RK2:
211
21
~21~
++
+
′+=
′+=
nnn
nnn
uhuu
uhuu (4.127) RK4:
(4.128)
( )[ ]nnnnnn
nnn
nnn
nnn
uuuuhuu
uhuu
uhuu
uhuu
′+′+′+′+=
′+=
′+=
′+=
++++
++
++
+
212111
211
2121
21
~2ˆ61
ˆ
~2121~
4.9 – Método de Lax-Wendroff. O método de Lax-Wendroff não pertence a nenhuma das categorias discutidas na seção 4.7, onde somente aparecem derivadas temporais de primeira ordem em suas expressões. No presente método, trabalhamos com derivadas temporais de ordem superior, pois o método é baseado na expansão em série de Taylor da função u(t) que queremos determinar. Podemos trabalhar com qualquer ordem de precisão que desejarmos desde que consigamos determinar as derivadas temporais de ordem superior que aparecem na expansão em série de Taylor, veja a Eq. (4.129).
)(
!1
21
2
22
1l
nl
ll
nnnn hhO
tuh
ltuh
tuhuu +⎟⎟
⎠
⎞++⎟⎟
⎠
⎞+⎟
⎠⎞+=+ ∂
∂∂∂
∂∂
K (4.129)
Como exemplo, vamos resolver o problema da convecção definido pela equação modelo de convecção, Eq. (4.130), utilizando o método de Lax-Wendroff de segunda ordem.
0=+xuc
tu∂ ∂∂ ∂
ou
xuc
tu
∂∂
∂∂
−= (4.130)
45
Derivando a Eq. (4.130) em relação ao tempo e invertendo a ordem da derivada espacial com a derivada temporal, obtemos a seguinte equação:
xtuc
tu
∂∂∂
∂∂ 2
2
2
−=ou
⎟⎠⎞
⎜⎝⎛−=
tu
xc
tu
∂∂
∂∂
∂∂
2
2
(4.131)
Substituindo a Eq. (4.130) na Eq. (4.131), para eliminar a derivada temporal dentro dos parênteses do lado direito da Eq. (4.131), obtemos uma expressão para a segunda derivada temporal em termos da segunda derivada espacial, conforme mostra a Eq. (4.132).
⎟⎠⎞
⎜⎝⎛−−=
xuc
xc
tu
∂∂
∂∂
∂∂
2
2
ou
2
22
2
2
xuc
tu
∂∂
∂∂
= (4.132)
Substituindo as Eqs. (4.130) e (4.132) na expressão do método de Lax-Wendroff de segunda ordem mostrada na Eq. (4.133), obtemos a Eq. (4.134).
)(
21 2
2
22
1 hhOtuh
tuhuu
nnnn +⎟⎟
⎠
⎞+⎟
⎠⎞+=+ ∂
∂∂∂
(4.133)
)(
21 2
2
222
1 hhOxuch
xuhcuu
nnnn +⎟⎟
⎠
⎞+⎟
⎠⎞−=+ ∂
∂∂∂
(4.134)
Dando continuidade ao desenvolvimento do método de Lax-Wendroff, podemos aproximar as derivadas espaciais da Eq. (4.134) utilizando diferenças finitas centradas de segunda ordem, conforme mostra a Eq. (4.135).
)(2
)(2
22
112
2
211
xOx
uuuuxu
xOxuuu
xu
iiixx
iix
Δ+Δ
+−=≅
Δ+Δ−
=≅
−+
−+
δ∂∂
δ∂∂
(4.135)
Substituindo as aproximações de diferenças centradas mostradas na Eq. (4.135) na Eq. (4.134), obtemos a expressão final do método de Lax-Wendroff aplicado à equação modelo de convecção, veja a Eq. (4.136).
(4.136) ( ) ( ) )2()2(121
2
2
1112
11 xOhhOniun
iuniu
x
hcniun
iux
hcniun
iu Δ++−+−+Δ+−−+Δ
−=+ ⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛
A Eq. (4.136) é a expressão de um método de segunda ordem no tempo e no
espaço. O coeficiente entre parênteses da Eq. (4.136) é conhecido como número de Courant-Friedrichs-Lewy ou simplesmente como número de CFL. O CFL está inteiramente relacionado com a estabilidade do método e será discutido com mais detalhe na seção 4.11, onde falaremos sobre a estabilidade de métodos numéricos de
46
marcha no tempo. Vamos mostrar que o método de Lax-Wendroff é equivalente ao método “predictor-corrector” de MacCormack. Para tanto, devemos nos lembrar que
2ixix
ix
ixxixx
uuu
uu∇+Δ
=
Δ∇=
δ
δ(4.137)
onde
xuuu
xuuu
xuuuu
xuuu
iiix
iiix
iiiixx
iiix
Δ−
=∇
Δ−
=Δ
Δ+−
=
Δ−
=
−
+
−+
−+
1
1
211
11
22
δ
δ
(4.138)
A expressão para o método de Lax-Wendroff de segunda ordem, Eq. (4.136), escrita utilizando-se os operadores δx e δxx toma a seguinte forma:
( ) nixx
nix
ni
ni uchuhcuu δδ 221
212
21
+−=+
ou
( ) nixxx
ni uchhcu ⎥⎦
⎤⎢⎣⎡ +−=+ δδ 221
212
211
ou ainda
( )[ ]{ } nixxx
ni uchhcu δδ 221 211
21
+−+=+(4.139)
Substituindo as Eqs. (4.137) na Eq. (4.139), resulta a Eq. (4.140).
ou
( )[ ] nixxxx
ni uchhchcu Δ∇+∇−Δ−+=+ 221 11
21
(4.140) ( )([ ] nixx
ni uhchcu Δ−∇−+=+ 111
211 )
Agora, podemos fazer o seguinte:
( )
( )[ ]11
1
~1211~
++
+
∇−+=
Δ−=
nix
ni
ni
nix
ni
uhcuu
uhcu(4.141)
Se substituirmos a primeira equação na segunda das Eqs. (4.141), obtemos novamente a Eq. (4.140). Substituindo as duas últimas das Eqs. (4.138) nas Eqs. (4.141), obtemos o seguinte:
47
( )
( )⎥⎦⎤
⎢⎣⎡ −
Δ−+=
−Δ
−=
+−
+++
++
11
111
11
~~~21
~
ni
ni
ni
ni
ni
ni
ni
ni
ni
uux
hcuuu
uux
hcuu (4.142)
Partimos do método de Lax-Wendroff de segunda ordem, Eq. (4.136), e chegamos ao método predictor-corrector de MacCormack, conforme mostra a Eq. (4.142), mostrando assim a equivalência entre os dois métodos. 4.10– Precisão de Métodos de Marcha no Tempo Nesta seção, vamos apresentar a definição de erro dos métodos de marcha no tempo. Vamos utilizar a definição de erro para determinar a precisão dos métodos. Como exemplo, vamos estudar a precisão dos métodos “multistep” lineares e o método “predictor-corrector” de MacCormack aplicados à equação representativa, Eq. (4.77).
(4.77) taeuu μλ +=′
a) Erro da solução transiente.
(4.143) 1σλ
λ −= heer
b) Erro para o caso de movimento harmônico.
⎟⎟⎠
⎞⎜⎜⎝
⎛−=
−=
−
r
ifase
amp
tgher
er
σσω
σ
1
11(4.144)
onde
(4.145) ir i
iσσσ
ωλ+=
=
1
c) Erro da solução particular.
( ) ⎥⎦
⎤⎢⎣
⎡−−= 1
exata
num
SPSPher λμμ (4.146)
onde
)()(
h
hnh
num
t
exata
ePeQaeSP
aeSP
μ
μμ
μ
λμ
=
−=
(4.147)
O método é dito ser de ordem k quando
{ }21,kkmenork = (4.148)
48
onde
(4.149)
)(
)(2
1
k
k
hOerhOer
=
=
μ
λ
Como exemplo, vamos verificar a ordem de precisão do método “multistep” linear consistente mostrado na Eq. (4.150).
( )[ ] ( )[ ]1111 121)1( −+−+ ′−′+−+′+−+=+ nnnnnn uuuhuuu φφθθξξξ (4.150)
Vamos nos restringir ao caso explícito de terceira ordem. Para tanto, de acordo
com as Eqs. (4.117), temos que:
3165
0
−=
−=
=
φ
ξ
θ
(4.151)
Substituindo as Eqs. (4.151) na Eq. (4.150), obtemos a expressão do método
“multistep” linear explícito de terceira ordem, conforme mostra a Eq. (4.152).
(4.152)
( )111 2254 −−+ ′+′++−= nnnnn uuhuuu
Queremos verificar se realmente o método acima é de terceira ordem. Para tanto, vamos utilizar o método de marcha no tempo mostrado na Eq. (4.152) para resolver a nossa equação representativa, Eq. (4.77), mostrada abaixo.
(4.77) taeuu μλ +=′
Substituindo a Eq. (4.77) na Eq. (4.152), resulta a equação abaixo.
( )[ ]1111 22254 −
−−+ +++++−=nh
nnh
nnnn eauaeuhuuu μμ λλ (4.153)
onde (4.154) nht =
O próximo passo é obter a raiz principal da Eq. (4.153). Para tanto, vamos
aplicar o operador deslocamento à Eq. (4.153). Veja a Eq. (4.155).
(4.155) ( )nhn
nhnnnn ehaEuhEhaehuuEuEu μμ λλ 111 224454 −−− +++++−=
ou
(4.156) nhn aeEQuEP μ)()( =
onde
49
( ) (
)(361 344 hhOher == Lμμ +
(4.157)
)( )122)(
2514)( 2
+=+−−=
EhEQhEhEEP λλ −
Resolvendo o polinômio característico da equação de diferenças finitas (4.153), P(σ)=0, obtemos as seguintes raízes:
(4.158) ( ) ( )hhh λλλσ 239213122,1 −−±+=
Fazendo uma expansão binomial da raiz σ1, obtemos a seguinte expressão para a raiz principal.
L+++++= 4433221 72
161
211 hhhh λλλλσ (4.159)
Portanto, de acordo com a definição apresentada na Eq. (4.143), o erro da solução transiente é dado por:
(4.160)
)(361 344 hhOher =+= Lλλ
Agora, vamos obter o erro da solução particular da equação de diferenças finitas (4.153). De acordo com a Eq. (2.147) e as Eqs. (2.157), a solução particular numérica da Eq. (4.153) é dada por:
( (4.161)
)( ) ( )
Substituindo a Eq. (4.161) na definição do erro da solução particular, Eq. (4.146), obtemos a Eq. (4.162).
heheehaeSP hh
hnh
num λλ μμ
μμ
2514122
2 +−−−+
=
( ) (4.162)
Fazendo uma expansão binomial da Eq. (4.162), obtemos a expressão para o erro da solução particular, conforme mostra a Eq. (4.163). Observe que, no caso em que μ=0 (estado estacionário), o erro obtido para a solução particular é nulo.
(4.163)
Finalmente, comparando o erro da solução transiente e o erro da solução particular da equação de diferenças finitas, Eq. (4.153), mostrados nas Eqs. (4.160) e (4.163), respectivamente, podemos concluir que o método “multistep” linear dado pela Eq. (4.152) é realmente de terceira ordem de precisão. Agora, vamos obter o erro do método de MacCormack para determinar a sua ordem de precisão. Como vimos na seção 4.8, o método de MacCormack pertence à classe de métodos “predictor-corrector” e é dado pela Eq. (4.164).
( )( )( ) ( ) ⎥
⎦
⎤⎢⎣
⎡−
+−−−+
−= 12514
122 hehe
eher hh
h
λλλλμ μμ
μ
μ−μ2h
50
[ ]111
1
~~21
~
+++
+
′++=
′+=
nnnn
nnn
uhuuu
uhuu(4.164)
Substituindo a equação representativa, Eq. (4.77), nas Eqs. (4.164), obtemos as Eqs. (4.165).
(4.77) taeuu μλ +=′
(4.165)
[ ])1(111
1
~~21
~
++++
+
+++=
++=
nhnnnn
nhnnn
haeuhuuu
haehuuu
μ
μ
λ
λ
Agora, queremos obter as raízes do polinômio característico do sistema de
equações de diferenças finitas, Eq. (4.165). Para isto, vamos aplicar o operador deslocamento às Eqs. (4.165). O resultado pode ser visto nas Eqs. (4.166).
(4.166)
[ ]nhnnnn
nhnnn
haEeuhEuEuEu
haehuuuE
μ
μ
λ
λ
+++=
++=
~~21
~
Reescrevendo as Eqs. (4.166) na forma matricial, obtemos o seguinte:
nh
n
n aehEh
uu
EEh
hEμ
λ
λ
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
=⎭⎬⎫
⎩⎨⎧⎥⎥⎦
⎤
⎢⎢⎣
⎡
−+−
+−
21
~
)21()1(
21
)1((4.167)
onde
⎥⎥⎦
⎤
⎢⎢⎣
⎡
−+−
+−= )
21()1(
21
)1(det)( EEh
hEEP λ
λ ou
⎟⎠⎞
⎜⎝⎛ −−−= 22
211)( hhEEEP λλ (4.168)
Resolvendo a equação P(σ)=0, obtemos as raízes do polinômio característico.
As raízes são mostradas abaixo, Eq. (4.169).
0211
2
221
=
++=
σ
λλσ hh (4.169)
Portanto, de acordo com a Eq. (4.143), o erro da solução transiente é dado por
λλ −= heer 1σou
)(61 233 hhOher =+= Lλλ (4.170)
51
Agora, vamos obter o erro da solução particular. Para obter o operador Q(E),
substituímos a segunda coluna da matriz da Eq. (4.167) pelo vetor coluna do lado direito da mesma equação. Finalmente, calculamos o determinante da matriz resultante, conforme mostra a Eq. (4.171).
ou
⎥⎥⎦
⎤
⎢⎢⎣
⎡+−= hEEh
hEEQ
21)1(
21det)( λ
)1(21)( hEhEEQ λ++= (4.171)
Portanto, conforme a Eq. (4.147) e as Eqs. (4.168) e (4.171), a solução particular
da Eq. (4.167) é mostrada na Eq. (4.172).
)()(
h
hnh
num ePeQaeSP μ
μμ=
ou
)211(2
)1(22hhe
heaheSPh
hnh
num
λλ
λμ
μμ
−−−
++= (4.172)
Finalmente, de acordo com a Eq. (4.146), o erro da solução particular da Eq. (4.167) é dado por
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−−−−
−++−= 1
)211(
))(1()(22hhe
heahherh
h
λλ
λμλλμμ
μ
μ
(4.173)
Fazendo uma expansão binomial da Eq. (4.173), obtemos a seguinte expressão para o erro da solução particular:
)()(121 233 hhOher =+−= Lμλμμ (4.174)
Finalmente, comparando o erro da solução transiente e o erro da solução
particular da equação de diferenças finitas, Eq. (4.167), mostrados nas Eqs. (4.170) e (4.174), respectivamente, podemos concluir que o método de MacCormack é de segunda ordem de precisão.
52
4.11 – Estabilidade de Métodos de Marcha no Tempo
Na presente seção, vamos apresentar o conceito de estabilidade inerente e numérica. Vamos estudar a estabilidade numérica de vários métodos de marcha no tempo aplicados às equações modelo de convecção (hiperbólica) e difusão (parabólica). Com isto, vamos adquirir um sentimento de quais os métodos são aplicáveis a um determinado fenômeno físico ou outro, convecção ou difusão. O sentimento adquirido na presente seção poderá ser aplicado diretamente quando resolvermos as equações mais complexas da mecânica dos fluidos, equações de Euler (hiperbólica) e Navier-Stokes (parabólica). Estabilidade inerente – Dizemos que um sistema de equações diferenciais ordinárias é inerentemente estável quando a sua solução homogênea é limitada quando o tempo tende a infinito. A condição necessária para que um sistema de equações diferenciais ordinárias seja estável é que a parte real de todos os seus autovalores seja não positiva, ou seja:
( ) Mme m ,,3,2,1,0 K=≤ℜ λ (4.175)
Equação modelo de convecção – Quando aproximamos a derivada espacial da equação modelo de convecção, Eq. (4.176), por uma diferença centrada e avaliamos a equação resultante em todos os pontos interiores da malha computacional, obtemos o sistema de equações diferenciais ordinárias mostrado na Eq. (4.177). Para obter a Eq. (4.177), utilizou-se condição de contorno de Dirichlet.
0=+xuc
tu
∂∂ ∂
(4.176) ∂
cbuA
dtud rrr
+= (4.177) onde
( )1,0,12
−Δ
−= Bx
cA (4.178)
Os autovalores da matriz A são mostrados na Eq. (4.179).
1,,2,1,0,2sen −=⎟
⎞⎠
⎜⎝⎛
Δ−= Mm
Mm
xcim K
πλ (4.179)
Observe na Eq. (4.179) que a parte real dos autovalores da matriz A é nula. Isto significa, obviamente, que o sistema mostrado na Eq. (4.177) satisfaz a condição necessária de estabilidade inerente dada pela Eq. (4.175). A Fig. 4.1 mostra o lugar geométrico dos autovalores da matriz A definida na Eq. (4.178).
53
-1.00 -0.50 0.00 0.50 1.00Real( )
-1.00
-0.50
0.00
0.50
1.00 Imag( )
Figura 4.1 – Lugar Geométrico dos Autovalores.
Equação modelo de difusão - Quando aproximamos a derivada espacial da equação modelo de difusão, Eq. (4.180), por uma diferença centrada e avaliamos a equação resultante em todos os pontos interiores da malha computacional, obtemos o sistema de equações diferenciais ordinárias mostrado na Eq. (4.181). A Eq. (4.181) foi obtida utilizando-se condição de contorno de Dirichlet.
2
2
xu
tu
∂∂υ
∂∂
= (4.180)
cbuA
dtud rrr
+= (4.181) onde
( )1,2,12 −Δ
= Bx
A υ(4.182)
Os autovalores da matriz A são dados pela seguinte expressão:
Mm
Mm
xm ,,2,1,)1(2
sen4 22 L=⎥
⎦
⎤⎢⎣
⎡+Δ
−=πυλ (4.183)
Observe na Eq. (4.183) que a parte real dos autovalores da matriz A é negativa.
Isto significa, obviamente, que o sistema mostrado na Eq. (4.181) satisfaz a condição necessária de estabilidade inerente dada pela Eq. (4.175). A Fig. 4.2 mostra o lugar geométrico dos autovalores da matriz A definida na Eq. (4.182).
54
-4.00 -2.00 0.00 2.00 4.00Real( )
-1.00
-0.50
0.00
0.50
1.00 Imag( )
Figura 4.2 – Lugar Geométrico dos Autovalores.
Vamos discutir agora a estabilidade numérica de métodos de marcha no tempo. A condição necessária para que um método de marcha no tempo seja estável é que o valor absoluto de todas as raízes do polinômio característico associado à equação de diferenças finitas seja menor ou igual à unidade, ou seja:
kk ∀≤ ,1σ
(4.183)
A Fig. 4.3 mostra a região no plano complexo σ onde a condição de estabilidade dada pela Eq. (4.183) é satisfeita.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Figura 4.3 – Região de Estabilidade no Plano Complexo.
Agora, vamos estudar o comportamento da raiz principal do polinômio característico associado à equação de diferenças finitas obtida quando utilizamos um método de marcha no tempo para resolver a equação representativa. Sabemos que a raiz
55
principal tenta reproduzir a solução analítica da equação representativa, conforme mostra a Eq. (4.184).
(4.184) heλσ ≈1
Vamos supor que a raiz principal consiga reproduzir exatamente a solução
analítica da equação representativa. Qual seria o lugar geométrico da raiz principal no plano complexo à medida que variamos o passo de tempo h? Portanto, para verificar graficamente o lugar geométrico da raiz principal, vamos assumir temporariamente que:
(4.185) heλσ =1
Para λ real e não positivo, a Fig. 4.4 mostra o lugar geométrico da raiz principal
no plano complexo σ.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
Figura 4.4 – Lugar Geométrico da Raiz Principal para λ Real.
Para λ complexo com a parte real não positiva, a Fig. 4.5 mostra o lugar
geométrico da raiz principal no plano complexo σ.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
Figura 4.5 – Lugar Geométrico da Raiz Principal para λ Complexo.
56
Para λ imaginário puro, a Fig. 4.6 mostra o lugar geométrico da raiz principal no
plano complexo σ.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
Figure 4.6 – Lugar Geométrico da Raiz Principal para λ Imaginário Puro.
Entretanto, a raiz principal não tem um comportamento tão regular como mostrado nas Figs. 4.4, 4.5 e 4.6, pois ela não reproduz exatamente a solução analítica da equação representativa. Infelizmente, o lugar geométrico da raiz principal em geral sai da região de estabilidade fazendo com que o método de marcha no tempo utilizado se torne instável. Como exemplo, vamos estudar o lugar geométrico da raiz principal de alguns métodos de marcha no tempo.
Para λ real e não positivo, a Fig. 4.7 mostra o lugar geométrico da raiz principal do método explícito de Euler no plano complexo σ , Eq. (4.186).
(4.186) hλσ += 11
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
h
Figura 4.7 – Lugar Geométrico da Raiz Principal para λ Real.
57
Para λ complexo com parte real não positiva, a Fig. 4.8 mostra o lugar
geométrico da raiz principal do método de Runge-Kutta de segunda ordem no plano complexo σ, Eq. (4.187).
221 2
11 hh λλσ ++= (4.187)
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
Figura 4.8 – Lugar Geométrico da Raiz Principal para λ Complexo.
Para λ imaginário puro, a Fig. 4.9 mostra o lugar geométrico no plano complexo σ da raiz principal, Eq. (4.188), do método de marcha no tempo de Runge-Kutta de quarta ordem.
4433221 24
161
211 hhhh λλλλσ +++= + (4.188)
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Figura 4.9 – Lugar Geométrico da Raiz Principal para λ Imaginário Puro.
58
Ressaltamos que os lugares geométricos no plano complexo σ vistos nas Figs. 4.7. 4.8 e 4.9 são válidos somente para a raiz principal dos métodos de marcha no tempo. As raízes espúrias possuem um comportamento totalmente imprevisível. Observando o lugar geométrico da raiz principal, fica claro que a condição necessária para estabilidade, Eq. (4.183), é satisfeita apenas para alguns valores de λh. Por exemplo, para o método explícito de Euler, os valores de λh para a estabilidade estão localizados dentro da circunferência de centro (-1,0) e raio unitário, conforme pode ser deduzido ao substituirmos a Eq. (4.186) na condição de estabilidade dada na Eq. (4.183). O resultado pode ser visto na Eq. (4.189) e visualizado no plano complexo λh mostrado na Fig. 4.10.
(4.189) 11 ≤+ hλ
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.10 – Região de Estabilidade do Método de Euler Explícito.
Portanto, o método explícito de Euler é estável somente para os valores de λh dentro da circunferência achurada da Fig. 4.10. Dentro deste contexto, é oportuno introduzirmos agora o conceito de estabilidade incondicional. Dizemos que um método de marcha no tempo é incondicionalmente estável quando as seguintes condições são satisfeitas:
( ) ( )⎩
⎨⎧
≤ℜ∀=
≤0,
,3,2,1,1
λλλσ
hk
hk
K(4.190)
Qualquer método explícito é condicionalmente estável, conforme pudemos
verificar nas Fig. 4.7, 4.8 e 4.9. Os métodos explícitos nunca satisfazem as condições acima. Por outro lado, os métodos implícitos são incondicionalmente estáveis, como podemos verificar na Fig. 4.11, onde mostramos a região de estabilidade do método implícito de Euler, cuja raiz principal é mostrada na Eq. (4.191).
hλ
σ−
=1
11 (4.191)
59
Substituindo a Eq. (4.191) na condição de estabilidade, Eq. (4.183), obtemos a
Eq. (4.192) que define a região de estabilidade do método implícito de Euler, mostrada na Fig. 4.11.
(4.192) 11 ≥− hλ
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.11 – Região de Estabilidade do método de Euler Implícito.
Observando a Fig. 4.11, podemos concluir que o método implícito de Euler satisfaz a condição de estabilidade incondicional dada pela Eq. (4.190). Veja que para ℜ(λ)≤0 (estabilidade inerente), o método implícito de Euler é sempre estável.
Por outro lado, existem métodos de marcha no tempo que nunca satisfazem a condição de estabilidade incondicional dada pela Eq. (4.190). Um exemplo deste tipo de método é o método “multistep” linear de dois passos consistente explícito de terceira ordem mostrado na Eq. (4.193). Quando utilizamos este método para resolver a equação representativa, resultam as raízes principal e espúria mostradas nas Eqs. (4.194).
( )111 2254 −−+ ′+′++−= nnnnn uuhuuu (4.193)
K
K
+−+−=
+++++=
222
4433221
2135
721
61
211
hh
hhhh
λλσ
λλλλσ (4.194)
Os lugares geométricos das raízes principal e espúria, Eqs. (4.194), no plano complexo σ são mostrados na Fig. 4.12.
60
-8.00 -4.00 0.00 4.00 8.00Real( )
-8.00
-4.00
0.00
4.00
8.00 Imag( )
Lugar Geométricoda Raiz Principal
Lugar Geométricoda Raiz Espúria
Figura 4.12 – Lugar Geométrico das Raízes Principal e Espúria
do Método “Multistep” Linear de Terceira Ordem.
Este é um exemplo de estabilidade catastrófica. Não adianta termos uma ordem de precisão elevada, pois a raiz espúria estraga o método. O lugar geométrico da raiz principal está dentro da região de estabilidade, mas a raiz espúria é altamente instável e prejudica a estabilidade do método. 4.12 – Estabilidade de Métodos Explícitos
Vamos agora estudar a estabilidade dos métodos explícitos mais utilizados aplicados às equações modelo de difusão e convecção. Assim, poderemos desenvolver um sentimento físico do comportamento dos métodos estudados aplicados a um determinado fenômeno. A seguir, vamos listar os métodos explícitos que serão estudados juntamente com suas raízes e posteriormente aplicaremos cada método à equação modelo de difusão e convecção. Euler Explícito:
(4.195) hλσ += 11
Leap-frog:
K
K
++−+−=
+−++=
44222
44221
81
211
81
211
hhh
hhh
λλλσ
λλλσ (4.196)
61
Adams-Bashforth:
K
K
+=
+−++=
h
hhh
λσ
λλλσ
21
41
211
2
33221 (4.197)
Runge-Kutta de Segunda Ordem:
221 2
11 hh λλσ ++= (4.198)
Runge-Kutta de Quarta Ordem:
4433221 24
161
211 hhhh λλλλσ +++= + (4.199)
Vamos estudar agora o comportamento destes métodos de marcha no tempo
sobre a equação modelo de difusão. Os autovalores associados à equação modelo de difusão são mostrados nas Eqs. (4.200).
( ) MmMmsin
xm ,,3,2,1,12
4 22 K=⎥
⎦
⎤⎢⎣
⎡+Δ
−=υλ π
(4.200)
Euler Explícito - Substituindo a Eq. (4.200) na Eq. (4.195), obtemos o lugar geométrico no plano complexo σ da raiz principal do método explícito de Euler, conforme mostra a Fig. 4.13. Observe na Fig. 4.13 que o método em questão é estável para difusão somente para –2≤λh≤0, ou seja, dentro da região de estabilidade.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região de
Estabilidade
Lugar Geométricoda Raiz Principal
h
Figura 4.13 – Lugar Geométrico da Raiz Principal do Método Explícito de Euler Aplicado à Equação Modelo de Difusão.
Leap-Frog - Substituindo a Eq. (4.200) nas Eqs. (4.196), obtemos o lugar geométrico no plano complexo σ das raízes principal e espúria do método Leap-Frog, conforme mostra a Fig. 4.14. Observe na Fig. 4.14 que o método em questão é sempre instável para difusão, pois apesar da raiz principal ser estável, a raiz espúria é sempre instável.
62
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Lugar Geométricoda Raiz Espúria
Região deEstabilidade
Figura 4.14 - Lugar Geométrico da Raiz Principal e Espúria do Método Leap-Frog Aplicado à Equação Modelo de Difusão.
Adams-Bashforth - Substituindo a Eq. (4.200) nas Eqs. (4.197), obtemos o lugar geométrico no plano complexo σ das raízes principal e espúria do método de Adams - Bashforth, conforme mostra a Fig. 4.15. Observe na Fig. 4.15 que o método em questão é estável para difusão somente para -1≤λh≤0, pois apesar da raiz principal ser sempre estável, a raiz espúria é estável somente neste intervalo de valores de λh.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Lugar Geométricoda Raiz Espúria
Figura 4.15 - Lugar Geométrico da Raiz Principal e Espúria do Método
de Adams-Bashforth Aplicado à Equação Modelo de Difusão.
Runge-Kutta de Segunda Ordem - Substituindo a Eq. (4.200) na Eq. (4.198), obtemos o lugar geométrico no plano complexo σ da raiz principal do método de Runge-Kutta de segunda ordem, conforme mostra a Fig. 4.16. Observe na Fig. 4.16 que o método em questão é estável para difusão somente para –2≤λh≤0.
63
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade λh=-2
Figura 4.16 - Lugar Geométrico da Raiz Principal do Método
de Runge-Kutta de Segunda Ordem Aplicado à Equação Modelo de Difusão.
Runge-Kutta de Quarta Ordem - Substituindo a Eq. (4.200) na Eq. (4.199), obtemos o lugar geométrico no plano complexo σ da raiz principal do método de Runge-Kutta de quarta ordem, conforme mostra a Fig. 4.17. Observe na Fig. 4.17 que o método em questão é estável para difusão somente para –2.8≤λh≤0.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade λh=-2.8
Figura 4.17 - Lugar Geométrico da Raiz Principal do Método de Runge-Kutta de Quarta Ordem Aplicado à Equação Modelo de Difusão.
Vamos estudar agora o efeito destes métodos de marcha no tempo sobre a equação modelo de convecção. Os autovalores associados à equação modelo de convecção são mostrados nas Eq. (4.201).
1,,2,1,0,2
−=⎟⎠⎞
⎜⎝⎛
Δ−= Mm
Mmsin
xic
m Kπλ (4.201)
64
Euler Explícito - Substituindo a Eq. (4.201) na Eq. (4.195), obtemos o lugar geométrico no plano complexo σ da raiz principal do método explícito de Euler, conforme mostra a Fig. 4.18. Observe na Fig. 4.18 que o método em questão é sempre instável para convecção.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Figura 4.18 – Lugar Geométrico da Raiz Principal do Método Explícito de Euler Aplicado à Equação Modelo de Convecção.
Leap-Frog - Substituindo a Eq. (4.201) nas Eqs. (4.196), obtemos o lugar geométrico no plano complexo σ das raízes principal e espúria do método Leap-Frog, conforme mostra a Fig. 4.19. Observe na Fig. 4.19 que o método em questão é estável para convecção somente para alguns valores de λh, pois apesar da raiz espúria ser sempre estável, a raiz principal se torna instável para um valor limite de λh.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Lugar Geométricada Raiz Espúria
Figura 4.19 – Lugar Geométrico das Raizes Principal e Espúria do Método Leap-Frog Aplicado à Equação Modelo de Convecção.
65
Adams-Bashforth - Substituindo a Eq. (4.201) nas Eqs. (4.197), obtemos o lugar geométrico no plano complexo σ das raízes principal e espúria do método de Adams - Bashforth, conforme mostra a Fig. 4.20. Observe na Fig. 4.20 que o método em questão é sempre instável para todos os valores de λh, pois apesar da raiz espúria ser sempre estável, a raiz principal é sempre instável para todos os valores de λh.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Lugar Geométricada Raiz Espúria
Figura 4.20 – Lugar Geométrico das Raízes Principal e Espúria do Método de Adams-Bashforth Aplicado à Equação Modelo de Convecção.
Runge-Kutta de Segunda Ordem - Substituindo a Eq. (4.201) na Eq. (4.198), obtemos o lugar geométrico no plano complexo σ da raiz principal do método de Runge-Kutta de segunda ordem, conforme mostra a Fig. 4.21. Observe na Fig. 4.21 que o método em questão é sempre instável para a convecção, pois a raiz principal é sempre instável.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Figura 4.21 – Lugar Geométrico da Raiz Principal do Método de Runge-Kutta de Segunda Ordem Aplicado à Equação Modelo de Convecção.
66
Runge-Kutta de Quarta Ordem - Substituindo a Eq. (4.201) na Eq. (4.199), obtemos o lugar geométrico no plano complexo σ da raiz principal do método de Runge-Kutta de quarta ordem, conforme mostra a Fig. 4.22. Observe na Fig. 4.22 que o método em questão é estável para convecção somente para um intervalo limitado de λh.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Lugar Geométricoda Raiz Principal
Região deEstabilidade
Figura 4.22 – Lugar Geométrico da Raiz Principal do Método de Runge-Kutta de Quarta
Ordem Aplicada à Equação Modelo de Convecção
Podemos observar nas figuras anteriores que dos métodos explícitos estudados até agora, o único método que é estável para a convecção e difusão simultaneamente é o método de Runge-Kutta de quarta ordem. No caso da mecânica dos fluidos, onde temos convecção e difusão nas equações governantes, o único método explícito que parece ser indicado é, portanto, o método de Runge-Kutta de quarta ordem.
Vimos até o momento que os métodos explícitos de marcha no tempo podem ou não serem estáveis, dependendo do valor de λh. Portanto, para melhor entender este fato, vamos a seguir estudar graficamente as regiões de estabilidade no plano complexo λh dos métodos explícitos estudados até agora. Com isto, ficará claro porque um método de marcha no tempo pode ser bom para um problema de convecção e ruim para um problema de difusão ou vice versa. Método Explícito de Euler – A região de estabilidade do método em questão é obtida ao substituirmos a Eq. (4.195) na Eq. (4.183). A expressão resultante é mostrada na Eq. (4.202) e a região de estabilidade pode ser observada na Fig. 4.23. Observando a figura em questão, fica claro porque o método explícito de Euler é bom para resolver o problema de difusão (λ real e não positivo) e não é bom para o problema da convecção (λ imaginário puro).
(4.202) 11 ≤+ hλ
67
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.23 – Região de Estabilidade do método Explícito de Euler.
Método Leap - Frog – A região de estabilidade do método em questão é obtida ao substituirmos as Eqs. (4.196) na Eq. (4.183). As expressões resultantes são mostradas nas Eqs. (4.203) e a região de estabilidade pode ser observada na Fig. 4.24. Observando a figura em questão, fica claro porque o método Leap - Frog não é bom para resolver o problema de difusão (λ real e não positivo) e é bom para o problema da convecção (λ imaginário puro).
11
11
22
22
≤+−
≤++
hh
hh
λλ
λλ(4.203)
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.24 – Região de Estabilidade do método Leap - Frog.
Método de Adams - Bashforth – A região de estabilidade do método em questão é obtida ao substituirmos as Eqs. (4.197) na Eq. (4.183). As expressões resultantes são mostradas nas Eqs. (4.204) e a região de estabilidade pode ser observada na Fig. 4.25. Observando a figura em questão, fica claro porque o método de Adams – Bashforth é bom para resolver o problema de difusão (λ real e não positivo) e não é bom para o problema da convecção (λ imaginário puro).
68
1491
21
43
21
1491
21
43
21
22
22
≤++−+
≤++++
hhh
hhh
λλλ
λλλ
(4.204)
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.25 – Região de Estabilidade do método de Adams - Bashforth.
Método de Runge – Kutta de Segunda Ordem – A região de estabilidade do método em questão é obtida ao substituirmos as Eqs. (4.198) na Eq. (4.183). A expressão resultante é mostrada na Eq. (4.205) e a região de estabilidade pode ser observada na Fig. 4.26. Observando a figura em questão, fica claro porque o método de Runge – Kutta de segunda ordem é bom para resolver o problema de difusão (λ real e não positivo) e não é bom para o problema da convecção (λ imaginário puro).
1211 22 ≤++ hh λλ (4.205)
-3.00 -2.00 -1.00 0.00 1.00 2.00 3.00Real( )
-3.00
-2.00
-1.00
0.00
1.00
2.00
3.00 Imag( )
Região deEstabilidade
Figura 4.26 – Região de Estabilidade do método de Runge – Kutta de Segunda Ordem.
69
Método de Runge – Kutta de Quarta Ordem – A região de estabilidade do método em questão é obtida ao substituirmos as Eqs. (4.199) na Eq. (4.183). A expressão resultante é mostrada na Eq. (4.206) e a região de estabilidade pode ser observada na Fig. 4.27. Observando a figura em questão, fica claro porque o método de Runge – Kutta de quarta ordem é bom para resolver o problema de difusão (λ real e não positivo) e convecção (λ imaginário puro).
1
241
61
211 243322 ≤++++ hhhh λλλλ (4.206)
-4.00 -2.00 0.00 2.00 4.00Real( )
-4.00
-2.00
0.00
2.00
4.00 Imag( )
Região deEstabilidade
Figura 4.27 – Região de Estabilidade do método de Runge – Kutta de Quarta Ordem.
4.13 – Conceito de “Stifness”
O conceito de “stifness” está relacionado à evolução no tempo da solução transiente. Quando estudamos a estabilidade dos métodos explícitos, vimos que a estabilidade está restrita a um valor máximo de λh. Se os autovalores forem muito diferentes entre si, o autovalor maior ditará a estabilidade do método e a física associada ao autovalor menor evoluirá muito lentamente no tempo. Esta diferença entre os autovalores está relacionada ao gradiente das propriedades físicas do campo.
Para entendermos melhor o significado do conceito de stiffness, vamos analisar o seguinte exemplo: suponhamos que o limite de estabilidade de um determinado método seja λh=-2 e suponhamos também que o primeiro autovalor seja –1 e o último autovalor seja -1x105. Isto significa que para garantir a estabilidade do método, o passo de tempo tem que satisfazer as seguintes desigualdades:
5102
2−≤
≤
xhh
(4.207)
Portanto, o método será estável quando h≤2x10-5. O que significa que o último autovalor dita o limite de estabilidade do método. Por outro lado, a física associada ao
70
primeiro autovalor evoluirá muito lentamente no tempo. Apesar dos últimos autovalores não influírem muito na solução, precisamos considera-los, pois na prática o sistema está acoplado quando programamos.
∑=
=M
mm
tm xeCu m
1
rλ
ou
Mp
M
pmm
tm
p
mm
tm xeCxeCu mm λλλλ <<+= ∑∑
=
−
=
,1
1
rr(4.208)
O primeiro somatório da Eq. (4.208) determina a solução transiente, seus
autovalores são chamados de “driving eigenvalues”. O segundo somatório não influencia significativamente a solução transiente, seus autovalores são chamados de autovalores parasitas. Quando a condição apresentada na Eq. (4.208) acorre, dizemos que o sistema é “stiff”. O quanto um sistema é “stiff” é determinado pelo grau de “stiffness” do sistema, conforme mostra a Eq. (4.209).
p
MrC
λλ
= (4.209)
onde
0<Cr<102 → moderadamente stiff 103<Cr<105 → fortemente stiff 106<Cr<108 → extremamente stiff 109<Cr → patologicamente stiff
No caso da difusão, os autovalores são dados pela seguinte equação:
( ) MmMmsin
xm ,,2,1,12
4 22 K=⎥
⎦
⎤⎢⎣
⎡+Δ
−=πυλ (4.210)
Portanto, o primeiro autovalor é dado por:
( )⎥⎦
⎤⎢⎣
⎡+Δ
−=12
4 221 M
sinx
πυλ ou
1
,2
4 221 +
=Δ⎟⎠⎞
⎜⎝⎛ Δ
Δ−=
Mxxsin
xπυλ (4.211)
Levando em consideração que Δx é em geral muito pequeno, obtemos a seguinte equação:
νυλ −=⎟
⎠⎞
⎜⎝⎛ Δ
Δ−≈
2
21 24 xx (4.212)
71
Por outro lado, o último autovalor é dado por:
( )⎥⎦
⎤⎢⎣
⎡+Δ
−=12
4 22 M
MsinxM
πυλ (4.213)
Levando em consideração que M é um número muito grande, obtemos a seguinte equação para o último autovalor:
2
4xM Δ
−≈υλ (4.214)
Substituindo as Eqs. (4.212) e (4.214) na Eq. (4.209), obtemos uma estimativa
do grau de stiffness da equação modelo de difusão, conforme mostra a Eq. (4.215). Veja na Eq. (4.215) que o refinamento de malha piora o “stiffness”.
2
4x
Cr Δ= (4.215)
No caso da convecção, os autovalores são mostrados na Eq. (4.216). O segundo
autovalor é mostrado na Eq. (4.217).
1,,2,1,0,2−=⎟
⎠⎞
⎜⎝⎛
Δ−
= MmMmsin
xic
m Kπλ (4.216)
⎟⎠⎞
⎜⎝⎛
Δ−=
Msin
xic πλ 2
1ou
( )
Mxxsin
xic πλ 2,1 =ΔΔΔ
−= (4.217)
Levando em consideração que Δx é em geral muito pequeno, obtemos a Eq.
(4.218) para o segundo autovalor associado à equação de convecção.
λ1 ≈ −icx
xΔ
Δ
ou λ1 ≈ ic
(4.218)
O autovalor m=M/4 é dado por:
24/πλ sin
xic
M −=Δ
ou
xic
M Δ−=4/λ (4.219)
72
Portanto, substituindo as Eqs. (4.218) e (4.219) na Eq. (4.209), obtemos o grau de “stiffness” para o problema da convecção, conforme mostra a Eq. (4.220).
x
Cr Δ=
1(4.220)
Observe na Eq. (4.220) que o grau de “stiffness” piora quando refinamos a
malha. Comparando as Eqs. (4.215) e (4.220) vemos que nos dois casos analisados, o refinamento da malha piora o grau de “stiffness” e que o problema da difusão é mais crítico do que o problema de convecção.
Do que foi visto nesta seção, os métodos explícitos são altamente sensíveis ao grau de “stiffness” associado a um determinado problema físico. Das análises feitas na presente seção, quanto maior o refinamento da malha, maior será o grau de “stiffness” e maior será a restrição sobre passo de marcha no tempo dos métodos explícitos. A solução para o problema de “stiffness” são os métodos implícitos que serão discutidos na próxima seção. 4.14 – Estabilidade de métodos Implícitos
Nesta seção, vamos estudar a estabilidade de métodos implícitos, em particular, os métodos de Euler e Crank-Nicholson. Veremos que os métodos implícitos são incondicionalmente estáveis e, portanto, insensíveis ao grau de “stiffness” associado a um determinado problema físico. Isto torna os métodos implícitos bastante convidativos para o estudo de escoamentos viscosos, onde a malha computacional precisa ser bem refinada próxima a superfície do corpo de modo a capturar os efeitos viscosos dentro da camada limite.
a) Euler implícito.
11
++ ⎟
⎠⎞+=
nnn dt
duhuu (4.221)
Substituindo a equação representativa, Eq. (4.77), sem o termo forçante, na Eq. (4.221), obtemos a Eq. (4.222). Vamos agora utilizar o operador deslocamento para obter o polinômio característico associado à equação de diferenças finitas (4.222). O resultado é mostrado na Eq. (4.223).
(4.222) 11 ++ += nnn uhuu λ
nnn EuhuEu λ= +
ou (4.223) 0)( =nuEP
onde ( ) 11)( −−= EhEP λ (4.224)
O polinômio característico associado à Eq. (4.222) é dado por P(σ)=0, cuja raiz
é mostrada abaixo na Eq. (4.225).
73
λ
σh−
=1
1(4.225)
Substituindo a Eq. (4.225) no critério de estabilidade dado na Eq. (4.183),
obtemos a seguinte expressão que define a região de estabilidade no plano complexo hλ do método implícito de Euler.
1≤σ
ou
(4.226) 11 ≥− λh
A Fig. 4.28 mostra a região de estabilidade do método implícito de Euler. O
método de Euler possui a sua região de estabilidade quase em todo plano complexo com exceção de um círculo de centro (1,0) e raio unitário. A região de estabilidade do método estende-se numa região de instabilidade dos sistemas. Isto faz com que o método de Euler tenda a estabilizar sistemas instáveis. Vemos também que o método de Euler é sempre estável para os problemas com estabilidade inerente, ou seja, para os problemas em que ℜ(λ)≤0. Portanto, o método de Euler é incondicionalmente estável.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figure 4.28 - Região de Estabilidade do método de Euler Implícito.
b) Método de Crank-Nicholson.
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞+⎟
⎠⎞+=
++
11 2
1
nnnn dt
dudtduhuu (4.227)
Substituindo a equação representativa (4.77), sem o termo forçante, na Eq.
(4.227), obtemos a Eq. (4.228). Vamos agora utilizar o operador deslocamento para obter o polinômio característico associado à equação de diferenças finitas (4.228). O resultado é mostrado na Eq. (4.229).
( )11 21
++ ++= nnnn uuhuu λ (4.228)
74
( )nnnn EuuhuEu ++= λ21
ou
(4.229) 0)( =nuEP
onde
⎟⎠⎞
⎜⎝⎛ +−⎟
⎠⎞
⎜⎝⎛ −= λλ hEhEP
211
211)( (4.230)
O polinômio característico associado à Eq. (4.228) é dado por P(σ)=0, cuja raiz
é mostrada abaixo na Eq. (4.231).
λ
λσ
h
h
211211
−
+= (4.231)
Substituindo a Eq. (4.231) no critério de estabilidade dado na Eq. (4.183), obtemos a seguinte expressão que define a região de estabilidade no plano complexo hλ do método de Crank-Nicholson.
1≤σ
ou
λλ hh211
211 −≤+ (4.232)
A Fig. 4.29 mostra a região de estabilidade do método de Crank-Nicholson. O
método em questão possui a sua região de estabilidade na metade do plano complexo coincidente com a região de estabilidade inerente dos sistemas,ℜ(λ)≤0. Portanto, o método de Crank-Nicholson também é incondicionalmente estável.
-2.00 -1.00 0.00 1.00 2.00Real( )
-2.00
-1.00
0.00
1.00
2.00 Imag( )
Região deEstabilidade
Figura 4.29 – Região de Estabilidade do Método de Crank-Nicholson.
75
4.15 – Teste de Estabilidade de von Neumann ou Fourier O teste de estabilidade de von Neumann é semelhante à analise por σ−λ feita anteriormente, somente que neste caso, assumimos condição de contorno periódica (pela série de Fourier). Dado um método já discretizado no tempo e no espaço, assumimos uma solução do tipo:
ibyiaxtnkj eeeλφ =,
(4.233) onde
ykyxjxtnt
Δ=Δ=Δ=
(4.234)
Substituímos a Eq. (4.233) no método, encontramos o fator de amplificação G, definido na Eq. (4.235).
( )
t
tt
eeG
λ
λ Δ+
=
(4.235) O método em estudo será estável quando o valor absoluto do fator de amplificação G for menor ou igual a um. Este teste somente é valido para sistemas lineares ou localmente lineares.
76
5.0 – MÉTODOS DE RELAXAÇÃO No presente capítulo, vamos estudar os métodos iterativos utilizados para resolver equações algébricas lineares. Estes métodos também são conhecidos como métodos de relaxação. Os métodos de relaxação podem ser ainda divididos em métodos iterativos de ponto (ou explícitos) ou métodos iterativos de bloco (ou implícitos). Nos métodos iterativos de ponto, o mesmo algoritmo simples é aplicado a todos os pontos individualmente em sucessivas iterações de varredura. Nos métodos iterativos de bloco, um grupo de incógnitas é obtido de uma vez só por esquemas de eliminação num procedimento iterativo global. 5.1 – Teoria de Relaxação
Vamos aplicar a teoria de relaxação ao sistema de equações diferenciais ordinárias (5.1) lembrando que aqui estamos interessados somente na solução do estado estacionário.
[ ] fuAdtud rrr
−= (5.1)
A solução do estado estacionário da Eq. (5.1) é mostrada abaixo na Eq. (5.2). A condição de existência do estado estacionário do sistema é que todos os seus autovalores sejam negativos, conforme mostra a Eq. (5.3).
[ ] fAurr 1−= (5.2)
( ) Nii ,,3,2,1,0 K=<ℜ λ (5.3)
A condição (5.3) pode ser verificada observando-se a solução geral do sistema
(5.1) dada pela Eq. (5.4). Se a condição (5.3) é satisfeita, a solução geral se aproxima da solução estacionária a medida que o tempo cresce, ou seja, a solução transiente se aproxima de zero, uma vez que os autovalores são negativos. Além disso, a matriz diagonal dos autovalores (ou a matriz [A]), que aparece na solução estacionária, é não singular e pode ser invertida, uma vez que os autovalores não são nulos.
[ ][ ] [ ] fXXxeCum
mt
mm
rrr 11 −−Λ+= ∑ λ
(5.4)
Uma vez que estamos interessados somente na solução estacionária, podemos precondicionar o lado direito do sistema (5.1) com a matriz [Mc], conforme mostra a Eq. (5.5).
[ ] [ ]( )fuAMdtud
c
rrr
−= (5.5)
77
O objetivo deste precondicionamento é de acelerar o processo de convergência. Note que o precondicionamento não altera a solução do estado estacionário. Neste ponto, restam as seguintes perguntas: Qual será a matriz [Mc]? Qual o método numérico indicado? Estas perguntas serão respondidas na seguinte seção. Para encerrar a presente seção, vamos definir os vetores erro e resíduo. Vetor erro:
[ ] fAue nn
rrr 1−−= (5.6)
Vetor resíduo: [ ] fuAR nn
rrr−= (5.7)
5.2 – Relaxação Clássica em 1-D Nesta seção, vamos aplicar a teoria de relaxação clássica à equação diferencial parcial unidimensional, mostrada na Eq. (5.8). Aproximando a segunda derivada espacial da Eq. (5.8) por uma diferença centrada de segunda ordem, e avaliando a equação resultante em todos os pontos interiores da malha computacional, obtemos o sistema de equações diferenciais ordinárias mostrado na Eq. (5.9).
)(2
2
2
xfux
utu
−−= ω∂∂
∂∂
(5.8)
( ) fb
xuB
xdtud
c
rrrr
−Δ
+−Δ
= 22
11,/2,11 α (5.9)
onde
2222
ωα
xΔ+= (5.10)
(5.11) [ ]bac uub 0000 L
r=
A solução do estado estacionário da Eq. (5.9) é dada por
( )gBSS r1/211 α−= − (5.12)
onde cbfxgrrr
−Δ= 2 (5.13)
78
Tendo em mente que estamos interessados somente na solução do estado estacionária da Eq. (5.9), podemos transformar este sistema de equações diferenciais num outro sistema de equações diferenciais diferente que possui a mesma solução do estado estacionário da Eq. (5.9), veja a Eq. (5.14).
[ ] ( ) ⎥⎦⎤
⎢⎣⎡
Δ−−
Δ= g
xB
xM
dtd
crr
r
22
11/2,11 ϕαϕ(5.14)
Inicialmente, vamos assumir que:
[ ] [ ]IxM c2Δ= γ
(5.15)
Calculando os autovalores da matriz resultante do sistema (5.14) utilizando a Eq. (5.16), resultam os autovalores para o problema em estudo, conforme mostra a Eq. (5.17).
( ) MmMmacbcbaB m ,,2,1,
1cos2,, K=⎟
⎠⎞
⎜⎝⎛
++=→
πλ (5.16)
Mm
Mm
m ,,2,1,1
cos12 K=⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
+−−=
πα
γλ (5.17)
Vamos analisar o comportamento do erro ao aplicarmos o método explicito de Euler para obter a solução do estado estacionário da Eq. (5.14). Vimos no Capitulo 4 que a raiz do método explícito de Euler é dada pela Eq. (5.18).
(5.18) hmm λσ += 1
Substituindo a Eq. (5.17) na Eq. (5.18), obtemos a Eq. (5.19). Observando a
definição de erro dada pela Eq. (5.6), podemos concluir que o erro na verdade é dado pela solução transiente, Eq. (5.20).
Mm
Mmhh
m ,,2,1,1
cos221 K=⎟⎠⎞
⎜⎝⎛
++−=
πγαγσ (5.19)
∑=
=M
mm
nmmn xCe
1
rr σ (5.20)
Podemos observar na Eq. (5.20) que o erro é proporcional às raízes σm dadas pela Eq. (5.19). Portanto, podemos estudar o comportamento do erro através do comportamento das raízes σm, conforme mostra a Fig. 5.1.
79
0.00 20.00 40.00 60.00 80.00 100.00m
0.00E+0
4.00E-1
8.00E-1
1.20E+0
|σ|
γ<α/2
γ=α/2
γ>α/2
Figura 5.1 – Comportamento das Raízes
Observando a Fig. 5.1, podemos concluir que o valor ótimo de γ é α/2, pois a
curva correspondente a esta igualdade está sempre entre as outras duas curvas. Observe que para m<(M+1)/2, os valores ótimos são obtidos para valores de γ maiores que α/2. Por outro lado, para m>(M+1)/2, os valores ótimos são obtidos para valores de γ menores que α/2. Como todos os valores de σ participam da solução, fica claro que o valor ótimo de γ é α/2.
2αγ = (5.21) ótimo
Substituindo a Eq. (5.21) na Eq. (5.19) e assumindo que h=1, podemos obter o
valor máximo de σm, conforme mostra a Eq. (5.22).
p
MMm =⎟⎠⎞
⎜⎝⎛
+===
1cos1max
πασσσ (5.22)
Assumindo uma malha igualmente espaçada onde
1+
=ΔM
x π(5.23)
Substituindo a Eq. (5.23) na Eq. (5.22), obtemos uma equação importante que
relaciona o erro ao refinamento da malha computacional, conforme mostra a Eq. (5.24).
(5.24) )cos( xp Δ= α
Façamos um exemplo para ilustrar o problema. Vamos supor que
80
50040
1
===
NMα
(5.25)
Substituindo os valores dados em (5.25) na Eq. (5.22), obtemos a seguinte estimativa para o erro após 500 iterações:
23.0
41cos500500 ≅⎟
⎠⎞
⎜⎝⎛=πp (5.26)
Observando a Eq. (5.26), vemos que o erro obtido após 500 iterações é
proporcional a 0.23. O ideal seria que o erro fosse nulo. Portanto, a matriz (5.15) não é a matriz de precondicionamento ideal. A seguir, vamos tentar obter uma matriz de precondicionamento mais eficiente que a matriz (5.15).
Retornando ao método explícito de Euler aplicado ao problema dado pela Eq. (5.14), obtemos a seguinte equação:
ghnhBnnrrrr
γϕγϕϕ −+=+1 (5.27)
Passando da forma matricial para a forma ponto a ponto e utilizando o valor ótimo de γ dado pela Eq. (5.21), obtemos a Eq. (5.28). O método iterativo abaixo é conhecido como “Point-Jacobi”. A figura abaixo mostra a molécula computacional do método, onde podemos visualizar melhor o esquema de iteração.
j
nj
nj
nj
nj
nj g
22
2 111 αϕϕ
αϕαϕϕ −⎥⎦
⎤⎢⎣⎡ +−=− +−
+
ou
[ ]jnj
nj
nj g− (5.28)
Figure 5.2 – Molécula Computacional do Método Point – Jacobi
n
n+1
j j+1 j+2j-1j-2
>Sentido de cálculo espacial
^Sentido
decálculo
temporal
ψ n+1j
nj-1
n
j+1
+= +− 112ϕϕαϕ
81
Neste método utilizamos dois pontos da malha no instante n para calcular o valor
no instante n+1. Podemos tentar melhorar o método utilizando um ponto da malha no instante n+1 e um no instante n para o cálculo do próximo ponto da malha no instante n+1. Veja a Fig. 5.3.
n
n+1
j j+1 j+2j-1j-2
>Sentido de cálculo espacial
^Sentido
decálculo
temporal
ψ n+1j
n+1j-1
nj+1
Figura 5.3 – Molécula Computacional do Método Gauss – Seidel
Resulta assim a expressão para o método conhecido como Gauss – Seidel, Eq. (5.29). Escrevendo o método de Gauss – Seidel na forma matricial, resulta a equação vetorial mostrada na Eq. (5.30).
[ ]jnj
nj
nj g−+= +
+−
+1
11
1
2ϕϕαϕ (5.29)
gEEB nrr
22,,
2αϕαα
=⎟⎠⎞
⎜⎝⎛ − (5.30)
Repetindo o mesmo procedimento feito anteriormente para determinar a
estimativa do erro associado ao método Point - Jacobi, chega-se à seguinte expressão para a estimativa do erro do método Gauss - Seidel:
2
1cos ⎥
⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
+=
Mm
mπασou
22
max 1cos p
Mm =⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
+=
πασ (5.31)
A pergunta que fazemos neste ponto é: quantas iterações são necessárias para obtermos o mesmo erro obtido anteriormente para o método Point – Jacobi para o
82
mesmo exemplo dado na Eq. (5.25)? A resposta para esta pergunta é: são necessárias 250 iterações, conforme mostra a Eq. (5.32).
( ) 23.02502p =(5.32)
O método Gauss – Seidel converge para 23% com N=250. Obviamente, isto não
é suficiente. Vamos tentar melhorar o método partindo da expressão do método Point – Jacobi, conforme mostra a Eq. (5.33).
[ ]jnj
nj
nj g−+= +−+
111
2ϕϕαϕ
ou [ ] j
nj
nj
nj
nj
nj g−+−=− +−+
111 22 ϕϕ
αϕϕϕ
α (5.33)
gnBnB rrr
−⎟⎠⎞
⎜⎝⎛ −=Δ⎟
⎠⎞
⎜⎝⎛ −− ϕ
αϕ
α1212
(5.34)
Vamos desta vez pré-condicionar o lado esquerdo da Eq. (5.34). Observe que a matriz B(-2/α) tenta reproduzir a matriz B(1,-2/α,1). Portanto, vamos desta vez utilizar a matriz B(1,-2/α,1) para pré-condicionar o problema, conforme é mostrado na Eq. (5.35).
gnBnB rrr
−⎟⎠⎞
⎜⎝⎛ −
=Δ⎟⎠⎞
⎜⎝⎛ −
− ϕα
ϕα
121121 ou
gBnrr
⎟⎠⎞
⎜⎝⎛ −−=+ 1211
1 αϕ (5.35)
O leitor deve observar que ao usarmos a matriz B(1,-2/α,1) para pré-condicionar
o problema, chega-se ao estado estacionário com um único passo de iteração. A dificuldade deste método é que precisamos inverter uma matriz tri-diagonal, que muitas vezes é de ordem bem elevada, dependendo do refinamento da malha computacional. Para resolvermos o problema ponto a ponto também fica muito difícil, pois é necessário conhecermos a propriedade ϕ no tempo n+1 em dois pontos da malha para obtermos o terceiro valor desejado. Portanto, a forma mais geral da matriz [Mc]-1 é a matriz B(a,b,0), pois não conhecemos ϕn+1 no ponto j+1. Portanto, vamos agora tentar precondicionar o problema com a matriz B(1,-2/α,0), conforme mostra a Eq. (5.36).
gnBnB rrr
−⎟⎠⎞
⎜⎝⎛ −
=Δ⎟⎠⎞
⎜⎝⎛ −
− ϕα
ϕα
121021 (5.36) Reescrevendo na forma pontual.
( ) jgnj
nj
nj
nj
nj
nj
nj −++−−−=−++⎟
⎠⎞⎜
⎝⎛
−−+−− 11
21
121
11 ϕϕ
αϕϕϕ
αϕϕ
83
ou
⎥⎦⎤
⎢⎣⎡ −+++
−=+jgn
jnj
nj
r1
112
1 ϕϕαϕ (5.37)
O leitor deve observar que chegamos novamente ao método de Gauss-Seidel. Vamos tentar agora obter algo melhor que o método de Gauss-Seidel através da relaxação sucessiva – S.O.R. pelo pré-condicionamento do lado esquerdo da Eq. (5.36) com a matriz B(1, -2/αω, 0), conforme mostra a Eq. (5.38).
gnBnB rrr
−⎟⎠⎞
⎜⎝⎛ −
=Δ⎟⎠⎞
⎜⎝⎛− ϕ
αϕ
αω121021ou
gnBnBnB rrrr
−=⎟⎠⎞
⎜⎝⎛ −
−⎟⎠⎞
⎜⎝⎛ −
++⎟⎠⎞
⎜⎝⎛ −
− ϕα
ϕαω
ϕαω
1210211021 (5.38)
Aplicando o operador deslocamento à Eq. (5.38), obtemos a Eq. (5.39). Calculando o determinante da matriz do sistema dado pela Eq. (5.39), obtermos o polinômio característico do sistema e posteriormente suas raízes, Eq. (5.40).
( ) gnEEB rr=⎥⎦
⎤⎢⎣⎡ +−
− ϕωαω
112(5.39)
0
21
2det =⎥
⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛ −−
ωαωωα EEB (5.40)
( )
214
12cos22
1cos
41
⎥⎥⎦
⎤
⎢⎢⎣
⎡−+⎟
⎠⎞
⎜⎝⎛
+±⎟
⎠⎞
⎜⎝⎛
+= ωπαωπωασ
Mm
Mm
m
Fazendo uma análise rápida, vemos que |σm| será mínimo quando a expressão dentro do radical da segunda das Eqs. (5.40) for menor ou igual a zero, conforme a Eq. (5.41). Quando isto ocorre, o módulo de σm é dado pela Eq. (5.42).
( ) 0141
2cos22 ≤−+⎟⎠⎞
⎜⎝⎛
+ωπαω
Mm
(5.41) 1−= ótimom ωσ
(5.42) onde
⎟⎠⎞
⎜⎝⎛
+=
⎟⎠⎞
⎜⎝⎛ −−=
1cos
21122
Mp
ppótimo
πα
ω (5.43)
84
Observe que p definido na Eq. (5.43) é o valor de |σm|max obtido quando pré-condicionamos o problema com a matriz [Mc]=γΔx2[I], Eq. (5.15). Vamos repetir o mesmo exemplo feito anteriormente, conforme os dados apresentados na Eq. (5.25) e repetidos abaixo na Eq. (5.44).
K997.0
41cos
401
=⎟⎠⎞
⎜⎝⎛=⇒
== πα
pM (5.44)
Portanto,
K
K
K
212.010
max
857.0max
856.1
=
=
=
m
m
ótimo
σ
σ
ω
(5.45)
A Tab. 5.1 apresenta um resumo com as razões de convergência dos métodos discutidos até o momento. Podemos observar que o S.O.R é 50 vezes mais rápido que o Point-Jacobi para mesma precisão.
Tabela 5.1 – Razão de convergência dos métodos discutidos.
Método N° de Iterações Precisão (%) Point-Jacobi 500 23 Gauss-Seidel 250 23
S.O.R. 10 21
Voltando agora para a versão pontual da Eq. (5.37) para termos uma idéia do que está sendo feito no método S.O.R., conforme a Eq. (5.46). Desenvolvendo-se mais um pouco a Eq. (5.46), chega-se à expressão do S.O.R., conforme mostra a Eq. (5.47).
jgn
jnj
nj
nj
nj −++−−=⎟
⎠⎞
⎜⎝⎛ Δ−−Δ− 1
21
21 ϕϕ
αϕ
αωϕ ϕ (5.46)
⎥⎦⎤
⎢⎣⎡ −+=+
⎥⎦⎤
⎢⎣⎡ −+++
−=
njj
nj
nj
jgnj
njj
ϕϕωϕϕ
ϕϕαϕ
~1
1112
~(5.47)
onde
deestabilidaPararelaxaçãoSub
relaxaçãoSobre
,20,1,1
≤<<>
ωωω
(5.48)
85
Existe uma forma compacta de escrever a Eq. (5.47) que nos permite separar a parte física do problema que está sendo resolvido e o tipo de método utilizado para obter a solução. Para isto, definimos na Eq. (5.49) o operador deslocamento espacial Ex. Aplicando este operador `a Eq. (5.46), obtemos a Eq. (5.50).
E(5.49)
(5.50)
onde Resíduo:
(5.51)
Correção: (5.52)
Operador (S.O.R.):
(5.53)
Observe o leitor que na Eq. (5.50), fizemos α=1 e gj=0, pois estaremos interessados, posteriormente na Seção 5.3, em aplicar estes métodos para resolver a equação de Laplace, onde estes parâmetros assumem estes valores. De forma análoga, o operador N para os métodos Point-Jacobi e Gauss-Seidel são mostrados nas Eqs. (5.54) e (5.55), respectivamente.
(5.54)
(5.55)
No pré-condicionamento feito anteriormente, que resultou no método S.O.R., usamos a matriz de banda -B(1, -2/αω, 0) para pré-condicionar o lado esquerdo da Eq. (5.36). Entretanto, salientamos que pode-se chegar a resultados melhores se usarmos uma matriz de pré-condicionamento mais geral -B(β, -2/αω, 0). Uma outra tentativa de melhorar o método é levar em consideração que quando há convergência. Isto permite a geração de quantos métodos quisermos alterando o lado esquerdo da Eq. (5.36), como o exemplo mostrado na Eq. (5.56).
nln ϕϕrr
≅±
(5.56)
jxEj
jxj
ϕϕ
ϕ ϕ
11
1−=−
=+
0=+ njLn
jCN ϕ
=nL ϕ ⎟⎠⎞⎜
⎝⎛
++−−Δ
nj
nj
njxj 1212
1 ϕϕϕ
nj
njC ϕΔ=
2/21
xxE−
NΔ
−=
ω
22
xN
Δ−=
221
xxE
NΔ
−−=
jgnj
nj
nj
nj
nj
njbn
jnja −++−−=⎟
⎠⎞⎜
⎝⎛ −+−++⎟
⎠⎞⎜
⎝⎛ −−+
12
112111 ϕϕ
αϕϕϕϕϕϕ
86
Observe que o lado esquerdo da Eq. (5.56) se anula quando o método converge. Na realidade, o que estamos resolvendo é a Eq. (5.57). Como estamos interessados somente no estado estacionário, não faz diferença nenhuma a forma que escolhemos para o lado esquerdo da Eq. (5.57).
gB
dt
dbdtda rr
rr
−⎟⎠⎞
⎜⎝⎛ −=+ ϕ
αϕϕ 12,12
2(5.57)
5.3 – Esquemas de Relaxação Aplicados à Equação de Laplace.
Como foi visto no primeiro capítulo deste livro, a equação de Laplace governa os escoamentos incompressíveis, não viscosos e irrotacionais. Esta equação não possui nenhuma derivada parcial em relação ao tempo que permita a sua integração direta. Por outro lado, não podemos integrar espacialmente a equação de Laplace por se tratar de uma equação elíptica. Para superar estas dificuldades, vamos recorrer ao que foi visto na Seção 5.2, onde podemos acrescentar qualquer termo do lado esquerdo da equação de Laplace desde que este termo se aproxime de zero à medida que o algoritmo converge, conforme a Eq. (5.58).
01 =++ nijLn
ijCN φ(5.58)
onde n
ijyynijxx
nijL φδφδφ +=
(5.59)
(5.60)
2
,1,2,1
x
nji
nji
njin
ijxx Δ
−+−+=φφφ
φδ
21,,21,
y
nji
nji
njin
ijyy Δ
−+−+=φφφ
φδ (5.61)
nji
nji
nijC ,
1, φφ −+=
(5.62)
Observe que para N=-1, a Eq. (5.58) equivale à equação de difusão bidimensional mostrada na Eq. (5.63). Como a nossa intenção é resolver a equação de Laplace, somente estamos interessados na solução do estado estacionário da Eq. (5.63). Neste caso, a solução transiente não tem nenhum significado físico. Dizemos que a variável t é um “pseudo-tempo”.
yyxxt
φφφ+=
∂∂
(5.63)
Fazendo uma extensão do caso unidimensional estudado na Seção 5.2, os métodos Point-Jacobi, Gauss-Seidel e S.O.R. para resolver a equação de laplace tomam a forma apresentada nas Eqs. (5.64), (5.65) e (5.66), respectivamente.
87
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
Δ+
Δ−= 2
22
2
yxN (5.64)
2
21
221
y
yE
xxE
NΔ
−−
+Δ
−−= (5.65)
⎟⎠⎞
⎜⎝⎛ −−
Δ+⎟
⎠⎞
⎜⎝⎛ −−
Δ=
ωω21
2121
21
yEyxE
xN (5.66)
Métodos de Linha. Os métodos de linha são obtidos no caso bidimensional quando pré-condicionamos uma das direções (x ou y) com a matriz ideal. Desta forma resultam os métodos Line-Jacobi, Line-Gauss-Seidel e Successive Line over Relaxation – S.L.O.R., conforme apresentados nas Eqs. (5.67), (5.68) e (5.69), respectivamente.
⎟⎟⎠
⎞⎜⎜⎝
⎛+
Δ−= yyx
N δ22
(5.67)
⎥⎦
⎤⎢⎣
⎡+⎟
⎠⎞⎜
⎝⎛ −−
Δ= yyxE
xN δ21
21
(5.68)
⎥⎦
⎤⎢⎣
⎡+⎟
⎠⎞
⎜⎝⎛ −−
Δ= yyxE
xN δ
ω21
21
(5.69)
5.4 – Métodos ADI e Fatoração Aproximada.
Vimos na Seção 5.2 que no pré-condicionamento do lado esquerdo da Eq. (5.35), se o operador N for igual ao operador L, a convergência do método é rápida. Entretanto, o processo de solução de um pré-condicionamento deste tipo é muito caro. Para melhorar a eficiência numérica deste tipo de pré-condicionamento, fazemos uma fatoração aproximada do operador N. Neste processo, obtemos o operador L e mais uma parcela de erro Δ, conforme a Eq. (5.70).
(5.70) Δ+=≅ LNNN 21
Alternating Direction Implicit AF1. No método ADI AF1, o operador N tem a forma mostrada na Eq. (5.71). Veja que ao efetuarmos o produto dos fatores da Eq. (5.70), obtemos o operador L e mais um termo adicional de erro, conforme a Eq. (5.72). No momento, não vamos nos preocupar com este termo adicional, pois este não afeta a solução do estado estacionário.
( ) ⎟
⎠⎞⎜
⎝⎛ −−−= yyxxAFN δαδα
α1
1 (5.71)
88
LyyxxAFN +−−= δδα
α 1(5.72) 1
onde α é um parâmetro de aceleração de convergência.
Substituindo o operador da Eq. (5.71) na Eq. (5.58), resulta a Eq. (5.73). A forma programável da Eq. (5.73) é mostrada nas Eqs. (5.74) e (5.75). Observe que se substituirmos a Eq. (5.75) na Eq. (5.74) eliminando a variável f, obtemos a Eq. (5.73). No primeiro passo, resolvemos a Eq. (5.74) em todos os pontos interiores da malha computacional e determinamos os valores de f. No segundo passo, resolvemos a Eq. (5.75) em todos os pontos interiores da malha computacional e obtemos os valores de C. Finalmente, atualizamos o potencial φ com a Eq. (5.76).
( ) nijLn
ijCyyxx φαωδαδα =⎟⎠⎞⎜
⎝⎛ −− (5.73)
Passo1: ( ) n
ijLnijfxx φαωδα =−
(5.74) Passo2:
⎜⎛ nijfn
ijCyy =⎟⎠⎞
⎝− δα (5.75)
n
ijCnij
nij +=+φ 1 φ
(5.76)
Expandindo as Eqs. (5.74) e (5.75), obtemos as Eqs. (5.77) e (5.78). A Eq. (5.77), para um valor fixo do índice j e o índice i variando de 2 até Imax-1, representa um sistema tri-diagonal, que pode ser facilmente resolvido utilizando-se o algoritmo de Thomas. Da mesma forma, a Eq. (5.78), para um valor fixo do índice i e o índice j variando de 2 até Jmax-1 , representa também um sistema tri-diagonal.
njiLn
jifxn
jifxn
jifx ,,121
,22
,121 φαωα =+Δ
−⎟⎟⎠
⎞⎜⎜⎝
⎛+
Δ+−Δ
− (5.77)
njif
njiC
yn
jiCy
njiC
y ,1,21
,22
1,21
=+Δ−
⎟⎟
⎠
⎞
⎜⎜
⎝
⎛+
Δ+−Δ
− α (5.78)
Alternating Direction Implicit AF2. No método ADI AF2, o operador N tem a forma mostrada na Eq. (5.79). Veja que ao efetuarmos o produto dos fatores da Eq. (5.79), obtemos o operador L e mais um termo adicional de erro, conforme a Eq. (5.80).
( ) ⎟
⎠⎞⎜
⎝⎛ −∇Δ−−= yyxxAFN δαα
α1
2 (5.79)
LyyxxAFN +Δ−∇−= δα
α 12 (5.80)
onde α é um parâmetro de aceleração de convergência.
89
Substituindo o operador da Eq. (5.79) na Eq. (5.58), resulta a Eq. (5.81). A
forma programável da Eq. (5.81) é mostrada nas Eqs. (5.82) e (5.83). Observe que se substituirmos a Eq. (5.83) na Eq. (5.82) eliminando a variável f, obtemos a Eq. (5.81). No primeiro passo, resolvemos a Eq. (5.82) em todos os pontos interiores da malha computacional e determinamos os valores de f. No segundo passo, resolvemos a Eq. (5.83) em todos os pontos interiores da malha computacional e obtemos os valores de C. Finalmente, atualizamos o potencial φ com a Eq. (5.84).
( ) nijLn
ijCyyxx φωδααα
=⎟⎠⎞⎜
⎝⎛ −∇Δ−
−1(5.81)
Passo1: ( ) n
ijLnijfx φαωα =Δ−
(5.82)
Passo2: ⎜⎛ n
ijfnijCyyx =⎟
⎠⎞
⎝−∇ δα (5.83)
(5.84) n
ijCnij
nij +=+ φφ 1
Veja que expandindo as Eqs. (5.82) e (5.83), obtemos as Eqs. (5.85) e (5.86). A Eq. (5.85), para um valor fixo do índice j e o índice i variando de Imax-1 até 2, permite o cálculo de f sem a necessidade de inversão de matriz. Por outro lado, a Eq. (5.86), para um valor fixo do índice i e o índice j variando de 2 até Jmax-1, representa um sistema tri-diagonal, que pode ser resolvido utilizando-se o algoritmo de Thomas.
njiLn
jifxn
jifx ,,11
,1 φαωα =+Δ
−⎟⎠⎞
⎜⎝⎛ +Δ (5.85)
n
jiCx
njif
njiC
yn
jiCxy
njiC
y ,1,1,21
,22
1,21
−Δ+=+Δ
−⎟⎟
⎠
⎞
⎜⎜
⎝
⎛
Δ+
Δ+−Δ
−αα (5.86)
90
6.0 – IMPLEMENTAÇÃO DE MÉTODOS IMPLÍCITOS
Vamos iniciar o estudo de implementação de métodos implícitos com o sistema linear do tipo mostrado na Eq. (6.1). Aplicando o método implícito de Euler, Eq. (6.3), ao sistema linear definido na Eq. (6.1), resulta a equação de diferenças finitas mostrada na Eq. (6.4).
[ ] fuAdtud rrr
−=(6.1)
onde
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
nu
uu
uM
r 2
1
(6.2)
(6.3) 11 ++ ′+= nnn uhuu
[ ]( ) 11 ++ −=− nnn fhuuAhI
rrr (6.4)
Passando para a forma delta,
[ ] [ ]( ) [ ] 1+−=Δ− nnn fhuAhuAhIrrr (6.5)
Façamos agora a mesma coisa com o método trapezoidal definido na Eq. (6.6).
Substituindo a Eq. (6.1) na Eq. (6.6), obtemos a equação de diferenças finitas mostrada na Eq. (6.7).
( )11 21
++ ′+′+= nnnn uuuu h(6.6)
[ ] [ ] [ ] [ ] ( )11 22 (6.7)
Passando para a forma delta,
(6.8)
Em geral, a função f não depende do tempo e, portanto chamamos de f a media
das funções, conforme a Eq. (6.9).
(6.9)
Façamos uma aplicação do que foi discutido acima ao sistema linear obtido
quando discretizamos o domínio unidimensional da Fig. 3.1 e aproximamos a segunda derivada da equação modelo de difusão utilizando diferenças finitas. A equação modelo
121
++ +−⎟⎠⎞
⎜⎝⎛ +=⎟
⎠⎞
⎜⎝⎛ − nnnn ffhuAhIuAhI
r rrr
[ ] [ ] [ ]( )fuAhuAhI nn
rrr−=Δ⎟
⎠⎞
⎜⎝⎛ −
21
21++
= nn fffr r
r
91
de difusão esta mostrada na Eq. (6.10) e o sistema linear de equações diferenciais ordinárias resultante está mostrado na Eq. (6.11).
( ) 2
2
xux
tu
∂∂
=∂∂ ν (6.10)
[ ] fuA
dtud rrr
+= (6.11) onde
[ ]⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
−−
−−
=
44
333
222
11
20020
02002
aaaaa
aaaaa
A(6.12)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
b
a
u
u
f00r
(6.13)
2x
a ii Δ=ν
(6.14)
Aplicando o método implícito de Euler, resulta o sistema linear de equações algébricas mostrado na Eq. (6.15).
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−
−
−
−
−
=
Δ
Δ
Δ
Δ
+−
−+−
−+−
−+
bu
au
h
n
uuuu
aaaaa
aaaaa
h
n
uuuu
hahahahaha
hahahahaha
00
5432
424003323002222
00112
5432
421400332130
022212
001121
(6.15)
Vamos aplicar o método implícito de Euler à equação de Euler unidimensional mostrada na Eq. (6.16). Utilizando esquema centrado com dois pontos, obtemos o sistema matricial de bloco mostrado na Eq. (6.17).
( )QAxt
Q∂ (6.16)
(6.17a)
onde
(6.17b)
∂−=
∂∂
( )
( ) ⎪⎪
⎭
⎪⎪
⎬
⎫
⎪⎪
⎩
⎪⎪
⎨
⎧
−
+
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
−−
−−=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
ΔΔΔΔ
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
−−
−
+
+
1
6
1
1
5
4
3
2
4
53
42
3
5
4
3
2
4
53
42
3
ˆ
ˆ
0ˆ00
ˆ0ˆ00ˆ0ˆ00ˆ0
ˆ00
ˆˆ00ˆˆ00ˆ
n
nn
QA
QA
QQQQ
AAA
AAA
QQQQ
IAAIA
AIAAI
Ax
hA =2
ˆΔ
92
6.1 – Solução de Sistema Tridiagonal Escalar
Nesta seção, vamos apresentar o algoritmo de Thomas utilizado para resolver sistemas de matrizes tridiagonais do tipo mostrado na Eq. (6.18). O que queremos é transformar a matriz tridiagonal numa matriz da forma mostrada na Eq. (6.19).
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
4
3
2
1
4
3
2
1
43
432
321
21
000
000
ffff
uuuu
bacba
cbacb
(6.18)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
4
3
2
1
4
3
2
1
3
2
1
1000100
010001
yyyy
uuuu
xx
x
(6.19)
O processo de obtenção da matriz acima, Eq. (6.19), é chamado de “forward sweep”. A expressão geral é mostrada na Eq. (6.20).
1
21 b
cx =
(6.20)
O segundo passo é chamado de “backward sweep”, conforme a Eq. (6.21).
(6.21)
6.2 – Solução de Sistema Tridiagonal de Bloco
A solução de sistemas tridiagonais de bloco é muito parecida ao caso escalar. Entretanto, devemos substituir a divisão por escalares por multiplicação de matrizes inversas. O processo “forward sweep” é apresentado nas Eqs. (6.22).
(6.22)
{ } [ ] [ ][ ]( ) { } [ ]{ }( )111
11 −−−
−− −−= iiiiiii YAFXABY
( )11
1
−−
+
−=
iii
ii xab
cx
11
11
−−
−−
−−
=iii
iiii xab
yafy
1+−==
iiii
nn
uxyuyu
[ ] [ ] [ ]21
11 CBX −=
] {[ ] [ }11
11 FBY −=
[ ] [ ] [ ][ ]( ) [ ]11
11 +−
−−−= iiiii CXABX
93
O processo “backward sweep” é mostrado na Eq. (6.23).
{ } { }nn YQ =(6.23)
[ ]{ } { } { }1+= − iiii QXYQ
6.3 – Implementação de Métodos Implícitos para Sistemas não Lineares
Nesta seção, vamos mostrar como é feita a implementação de métodos implícitos para sistemas não lineares do tipo mostrado na Eq. (6.24). Expandindo as funções F(u,t) e u(t) da Eq. (6.24) em série de Taylor, obtemos as Eqs. (6.25). O termo u-un na Eq. (6.25b) é de ordem h. Portanto, podemos escrever a Eq. (6.25a) da forma mostrada na Eq. (6.26).
( )tuF
dtdu ,=
(6.24) ( ) ( ) ( ) ( ) ( )
( )( ) ( ) L+−∂
∂+−−
∂∂
∂
+−∂
∂+−
∂
∂+−
∂
∂+=
⎟⎟⎠
⎞⎟⎟⎠
⎞
⎟⎟⎠
⎞⎟⎠⎞
⎟⎠⎞
22
2
2
12
22
2
2
1,,
ntt
nt
Fnttnuu
ntu
F
nuu
nu
Fntt
nt
Fnuu
nu
FntnuFtuF
(6.25a)
(6.25b)
( ) ( ) L+−⎟⎟⎠
⎞∂∂
+−⎟⎠⎞
∂∂
+= 22
2
21
nn
nn
n tttutt
tuuu
( ) ( ) ( ) ( )2, hOtttFuu
uFFtuF n
nn
nn +−⎟
⎠⎞
∂∂
+−⎟⎠⎞
∂∂
+= (6.26)
Utilizando o método trapezoidal para integrar a Eq. (6.24), obtemos a Eq. (6.27). Substituindo Fn+1 na Eq. (6.27) por sua expansão em série de Taylor, Eq. (6.26), obtemos a Eq. (6.28). Passando a Eq. (6.28) para a forma delta, obtemos a Eq. (6.29).
( ) ( )
(6.27) ( ) ( )211
211
2121
hOFFhuu
hOuuhuu
nnnn
nnnn
+++=
+′+′+=
++
++
( ) ( )211 2
1 hOFhtFuu
uFFhuu n
nnn
nnnn +⎥
⎦
⎤⎢⎣
⎡+⎟
⎠⎞
∂∂
+−⎟⎠⎞
∂∂
++= ++ (6.28)
nnn
n tFhhFu
uFh ⎟
⎠⎞
∂∂
+=Δ⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
∂∂
− 2
21
211 (6.29)
94
Quando a função é uma função implícita do tempo, a última derivada parcial em relação ao tempo se anula, resultando a Eq. (6.30).
nn
n
hFuuFh =Δ⎥
⎦
⎤⎢⎣
⎡⎟⎠⎞
∂∂
−211 (6.30)
Vamos agora transformar a equação diferencial de terceira ordem, Eq. (6.31),
num sistema de equações diferenciais de primeira ordem. Utilizando as Eqs. (6.32), podemos transformar a Eq. (6.31) no sistema de equações diferenciais de primeira ordem apresentado na Eq. (6.33).
01
2
2
2
3
3
=⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎠⎞
⎜⎝⎛−++
dtdf
dtfdf
dtfd β (6.31)
2
2
1 dtfdu =
(6.32) dt
dfu =2
f=u3
( )
323
212
122131 1
FuuFuu
Fuuuu
==′==′
=−−−=′ β(6.33)
Veja que o sistema (6.33) pode ser escrito na forma vetorial, conforme mostra a Eq. (6.34).
Fdtud rr
=(6.34)
onde ( )
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧ −−−=
2
1
2213 1
uu
uuuF
βr
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
3
2
1
uuu
ur
(6.35)
Aplicando o método de diferenças finitas usado no caso de sistemas lineares, chega-se ao mesmo resultado mostrado na Eq. (6.30), repetida abaixo como Eq. (6.36).
[ ] nn hFuAh =Δ⎥⎦⎤
⎢⎣⎡ −
211 (6.36)
onde
[ ]
⎥⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢⎢
⎣
⎡
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
=∂∂
=
3
3
2
3
1
3
3
2
2
2
1
2
3
1
2
1
1
1
uF
uF
uF
uF
uF
uF
uF
uF
uF
uFA r
r (6.37)
95
A matriz acima é conhecida como matriz Jacobiana. Para a Eq. (6.34) a matriz (6.37) é mostrada na Eq. (6.38).
2[ ]
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡ −−=
010001
123 uuuA
β(6.38)
Substituindo a matriz (6.38) na Eq. (6.36), resulta o sistema de equações algébricas mostrado na Eq. (6.39).
( ) nn
n
huhu
uhuhu
uuu
h
h
uhhuuh
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧ −−−=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
ΔΔΔ
⎥⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢⎢
⎣
⎡
−
−
−+
2
1
2231
3
2
1123 1
12
0
012
221
ββ
(6.39)
7.0 – Esquemas Upwind e Dissipação Artificial Neste capitulo, vamos discutir os aspectos relacionados com as diferenças entre esquemas centrados e upwind e a necessidade de se adicionar explicitamente dissipação artificial nos esquemas centrados. Já os esquemas upwind, não necessitam da adição de termos de dissipação, pois estes possuem implicitamente estes termos. Para tanto, vamos retornar ao assunto da equação modificada abordado no Capitulo 3.0. Ao aproximarmos a primeira derivada da equação modelo de convecção (7.1) utilizando uma expressão geral para o operador de diferenças finitas (7.2), obtemos a Eq. (7.3).
xuc
tu
∂∂
−=∂∂
(7.1)
(7.2)
( ) ( ) ( )[ ]11 1212
1+− −+++−
Δ=≅⎟
⎠⎞
∂∂
iiiixi
uuux
uxu βββδ
(7.3) ( ) ( )[ ]11 1212 +− −+++−Δ
−=⎟⎠⎞
∂∂
iiii
uuux
ctu βββ
onde
β=0, esquema centrado. β≠0, esquema “one-sided”.
Expandindo em serie de Taylor os termos do lado direito da Eq. (7.3), obtemos as Eqs. (7.4).
( ) ( ) ( ) ( ) ( ) ( ) L+⎟⎟⎠
⎞∂∂Δ
+−⎟⎟⎠
⎞∂∂Δ
++⎟⎟⎠
⎞∂∂Δ
+−⎟⎠⎞
∂∂
Δ+++−=+− −
iiiiii x
uxxux
xux
xuxuu 4
44
3
33
2
22
1 241
61
21111 ββββββ
(7.4) ii uu ββ 22 =
( ) ( ) ( ) ( ) ( ) ( ) L+⎟⎟⎠
⎞∂∂Δ
−+⎟⎟⎠
⎞∂∂Δ
−+⎟⎟⎠
⎞∂∂Δ
−+⎟⎠⎞
∂∂
Δ−+−=− −
iiiiii x
uxxux
xux
xuxuu 4
44
3
33
2
22
1 241
61
21111 ββββββ
96
Somando as Eqs. (7.4), obtemos a Eq. (7.5).
( )[ ]tcxiteetxu222 )(),( γωωτωνω −−+−=
(7.5)
Substituindo a Eq. (7.5) na Eq. (7.3), resulta a Eq. (7.6) mostrada abaixo.
(7.6)
Ao aproximarmos a derivada espacial da equação de convecção pelo operador de diferenças finitas, a equação que estamos resolvendo não é mais a equação de convecção, mas sim a Eq. (7.6). Vamos repetir a Eq. (7.6), mas desta vez com coeficientes simplificados para facilitar a nossa análise.
(7.7)
Admitindo que a Eq. (7.8) seja solução da Eq. (7.7), após a substituição, obtemos a Eq. (7.9) que nos permite determinar os coeficientes a e b em termos dos coeficientes da Eq.(7.7).
(7.8)
(7.9)
Substituindo os valores de a e b obtidos na Eq. (7.9) na Eq. (7.8), chega-se ao resultado mostrado na Eq. (7.10). O primeiro termo do lado direito da Eq. (7.10) é a amplitude de oscilação que é controlada pelas derivadas pares (dissipação). O segundo termo é a fase de oscilação que é controlada pelas derivadas impares (dispersão).
(7.10) Se ν e τ >0, a amplitude decai; Se ν=τ=0, a amplitude é constante; Se ν ou τ<0, a amplitude cresce. Vamos verificar o comportamento do termo de fase. Para isto, vamos admitir que ν=τ=0. Assumindo inicialmente que γ=0, obtemos a Fig. (7.1) para o deslocamento de uma onda sem dispersão de fase.
⎥⎥⎦
⎤
⎢⎢⎣
⎡+⎟⎟⎠
⎞∂∂Δ
−⎟⎟⎠
⎞∂∂Δ
+⎟⎟⎠∂
∂Δ−⎟
⎠⎞
∂∂
ΔΔ
= L4
44
3
33
2
22
1232
21
xux
xux
xux
xux
xu
iiiix ββδ
⎞
L+∂∂Δ
+∂∂Δ
−∂∂Δ
+∂∂
−=∂∂
4
43
3
33
2
2
2462 xuxc
xuxc
xuxc
xuc
tu ββ
4
4
3
3
2
2
xu
xu
xu
xuc
tu
∂∂
−∂∂
−∂∂
+∂∂
−=∂∂ τγν
tbiaxi eetxu )(),( += ω
τωγωνωω 432 +−−−=+ icibia
97
Figura 7.1 – Deslocamento de Onda sem Dispersão de Fase
Façamos agora para γ>0, obtemos a Fig. (7.2) para o deslocamento de uma onda com dispersão de fase.
Figura 7.2 – Deslocamento de Onda com Dispersão de Onda
O método numérico resolve a equação modificada. O esquema centrado (β=0) só causa erro de fase, não mudando a natureza do fenômeno. Um esquema não centrado (upwind), modifica a natureza do fenômeno adicionando implicitamente dissipação artificial. Nos problemas não lineares ocorre o cascateamento de freqüência onde freqüências maiores são geradas a partir de freqüências menores. Pode ocorrer que a malha computacional não seja suficientemente refinada e não consiga resolver as freqüências altas provocando instabilidade, veja a ilustração mostrada na Fig. (7.3).
Figura 7.3 – Onda de Alta Freqüência não Resolvida pela Malha Computacional
Este problema pode ser eliminado introduzindo-se viscosidades numéricas. A dissipação numérica pode ser benéfica para resolução de problemas com comportamento não linear, ou seja, com cascateamento de freqüência. A Fig. (7.4) mostra o Espectro de energia. O quanto adicionar de dissipação artificial depende do fenômeno. Como regra geral, colocar o mínimo suficiente para resolver o problema.
98
Figura 7.4 – Espectro de energia
99
8.0 – COORDENADAS CURVILÍNEAS GERAIS
Até agora, somente trabalhamos com equações em coordenadas Cartesianas. Para estudar escoamentos ao redor de geometrias mais complexas, o uso de coordenadas generalizadas permite a utilização de malhas computacionais não uniformes adaptadas ao contorno do corpo que facilitam bastante a implementação de condições de contorno. Para tanto, precisamos transformar as equações governantes do plano físico para o plano computacional, conforme mostra a Fig. 8.1.
Figura 8.1 – Plano físico e computacional
Para transformarmos uma equação em coordenadas Cartesianas para coordenadas
generalizadas, assumimos a existência da transformação direta do tipo mostrada na Eq. (8.1) e da transformação inversa mostrada na Eq. (8.2).
( )( )
tttyxtyx
=
==
ˆ,,,,
ηηξξ
(8.1)
( )( )
tttyytxx
ˆ,,
ˆ,,ξ
=
==
ηξη
(8.2)
Diferenciando as Eqs. (8.1) e (8.2) obtemos os seguintes sistemas matriciais que relacionam as coordenadas do plano físico com as coordenadas do plano computacional, conforme as Eqs. (8.3) e (8.4).
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
dtdydx
tddd
tyx
tyx
100ˆηηηξξξ
ηξ
(8.3)
100
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
tddd
yyyxxx
dtdydx
t
t
ˆ100ˆ
ˆ
ηξ
ηξ
ηξ(8.4)
Substituindo a Eq. (8.4) na Eq. (8.3), podemos eliminar o vetor (dx,dy,dt) das duas equações e obtermos o sistema matricial mostrado na Eq. (8.5).
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
tddd
yyyxxx
tddd
t
t
tyx
tyx
ˆ100100ˆˆ
ˆ
ηξ
ηηηξξξ
ηξ
ηξ
ηξ
ou
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡++++++++
=⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
tddd
yxyxyxyxyxyx
tddd
ttytxyxyx
ttytxyxyx
ˆ100ˆˆˆ
ˆˆ
ηξ
ηηηηηηηξξξξξξξ
ηξ
ηηξξ
ηηξξ(8.5)
Note que a matriz do sistema acima é na verdade a matriz identidade, pois multiplicando esta matriz por um vetor e obtendo o mesmo vetor como resultado significa que a matriz em questão somente pode ser a matriz identidade. Desta forma, resulta o seguinte sistema de equações envolvendo os termos de métricas.
0
1
0
0
0
1
ˆˆ
ˆˆ
=++
=+
=+
=++
=+
=+
ttytx
yx
yx
ttytx
yx
yx
yxyxyxyxyxyx
ηηη
ηη
ηη
ξξξ
ξξ
ξξ
ηη
ξξ
ηη
ξξ
(8.6)
Resolvendo o sistema de equações (8.6), obtemos relações convenientes entre os termos de métricas que serão utilizadas posteriormente ao transformarmos as equações em coordenadas Cartesianas para coordenadas generalizadas. As Eqs. (8.7) mostram estas relações.
101
ηξηξ
ηη
ξξ
ξ
η
xyyxJ
Jxyyx
Jyxxy
ttt
ttt
−=
=−
=−
1
ˆˆˆ
ˆˆ
Jy
Jx
Jx
Jy
x
y
y
x
η
η
ξ
ξ
ξ
ξ
η
η
−=
=
−=
=
(8.7)
Na prática, não calculamos diretamente os termos de métricas ξx, ηx, ξy e ηy. O que podemos calcular, são os termos xξ, xη, yξ e yη,, conforme mostra a Eq. (8.8). Depois, utilizamos as Eqs. (8.7) para obter as métricas ξx, ηx, ξy e ηy e o Jacobiano J.
(8.8)
8.1 – Equação do Tipo Poisson em Coordenadas Curvilíneas Gerais
A equação de Poisson que estamos interessados em trabalhar está relacionada com o método da projeção que será visto em detalhes na seção 11.0. A Eq. (8.9) mostra a equação que estamos interessados em transformar de coordenadas Cartesianas para coordenadas generalizadas. Usando a regra da cadeia, podemos obter a Eq. (8.10). Derivando mais uma vez a Eq. (8.10) em relação a x, obtemos a Eq. (8.11).
(8.9)
(8.10)
(8.11)
Da mesma forma,
(8.12)
2
21,1,
,1,1
−+
−+
−=
−=
jiji
iji
xxx
xxx
η
ξj
tV
yp
xp
Δ⋅∇
=∂∂
+∂∂
r
2
2
2
2
xxx ppp ηξ ηξ +=
( ) ( ) xxxxxxxx ppppp ηηξξηξηηξξηξ +++=
( ) ( ) yyyyyyyy ppppp ηηξξηξηηξξηξ +++=
102
Somando as Eqs. (8.11) e (8.12) e dividindo ambos os lados por J, obtemos a Eq. (8.13). Lembrando das Eqs. (8.7), podemos reescrever a Eq. (8.13) da forma mostrada na Eq. (8.14).
( ) ( ) ( ) ( )J
pppp
J
pppp
Jpp yyyyyyxxxxxxyyxx
ηηξξηξηηξξηξηηξξηξηηξξηξ +++
++++
=+
(8.13)
(8.14) ( ) ( ) ( ) ( ) ξηηξηξηξξηηξηξηξ ηξηξηξηξ xppxppyppyppJ
ppyyyyxxxx
yyxx +++−+−+=+
Observe que:
( )[ ] ( ) ( ) ξηηξηξηξξηηξ ηξηξηξ yppyppypp xxxxxx + = + + +
(8.15)
( )[ ] ( ) ( ) ξηηξξηηξηξηξ ηξηξηξ yppyppypp xxxxxx +−+−=+−( )[ ] ( ) ( ) ξηηξηξηξξηηξ ηξηξηξ xppxppxpp yyyyyy +−+−=+−
( )[ ] ( ) ( ) ξηηξξξηξηξηξ ηξηξηξ xppxppxpp yyyyyy + = + + +
Somando as Eqs. (8.15) e comparando o resultado com a Eq. (8.14), podemos escrever a Eq. (8.16).
(8.16)
( ) ( )[ ] ( ) ( )[ ]
ηξηξξηξξηηξηηξ ηξηξηξηξ yppxppxppyppJ
ppxxyyyyxx
yyxx +−+++−+=+
Lembrando novamente das Eqs. (8.7), a Eq. (8.16) pode ser reescrita da seguinte forma:
( ) ( ) ( ) ( )η
ηξηξ
ξ
ηξηξ ηηξηηξξηξξηξ⎥⎦
⎤⎢⎣
⎡ ++++⎥
⎦
⎤⎢⎣
⎡ +++=
+
Jpppp
Jpppp
Jpp xxxyyyyyyxxxyyxx (8.17)
Finalmente, após uma pequena manipulação algébrica,
η
ηξ
ξ
ηξ⎟⎟⎠
⎞⎜⎜⎝
⎛ ++⎟⎟
⎠
⎞⎜⎜⎝
⎛ +=
+
JpApA
JpApA
Jpp yyxx 3221
(8.18) onde
223
2
221
yx
yyxx
yx
A
AA
ηη
ηξηξ
ξξ
+=
+=
+=
(8.19)
103
Portanto, transformamos o lado esquerdo da Eq. (8.8) para coordenadas
generalizadas. Vamos agora transformar o lado direito, ou seja:
yv
xuV
∂∂
+∂∂
=⋅∇r
(8.20)
Utilizando a regra da cadeia,
yy
xx
vvyv
uuxu
ηξ
η(8.21)
Substituindo as Eqs. (8.21) na Eq. (8.20) e dividindo ambos os lados por J, resulta a Eq. (8.22).
(8.22)
Lembrando novamente das Eqs. (8.7),
(8.23)
Somando as Eqs. (8.23) e substituindo o resultado na Eq. (8.22), obtemos o lado direito da Eq. (8.8).
(8.24)
Finalmente, substituindo as Eqs. (8.18) e (8.24) na Eq. (8.8), obtemos a equação de Poisson desejada em coordenadas generalizadas.
(8.25)
ξ
ηξ
ηξ
+=∂∂
+=∂∂
Jvvuu
Jvu yyxxyx ηξηξ ηξη ++ +
=+ ξ
ξηη
η
η
η
ξηξ
ξ
ξ
ξ
ξηη
η
η
η
ξηξ
ξ
ξ
ξ
ηηηη
ξξξξ
ηηηη
ξξ ξξ
vxJ
vJ
vJ
vJ
v
vxJ
vJ
vJ
vJ
v
uyJ
uJ
uJ
uJ
u
uyJ
uJ
uJ
uJ
u
yyyy
yyyy
xxxx
xxxx
+=⎟⎟⎠
⎞⎜⎜⎝
⎛+=⎟⎟
⎠
⎞⎜⎜⎝
⎛
−=⎟⎟⎠
⎞⎜⎜⎝
⎛+=⎟⎟
⎠
⎞⎜⎜⎝
⎛
−=⎟⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
+=⎟⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
ηξ
ηηξξ⎟⎟⎠
⎞⎜⎜⎝
⎛ ++⎟⎟
⎞
⎠⎜⎜⎝
⎛ +=
⋅∇J
vuJ
vuJV yxyx
r
⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛ ++⎟⎟
⎠
⎞⎜⎜⎝
⎛ +
Δ=⎟⎟
⎠
⎞⎜⎜⎝
⎛ ++⎟⎟
⎠
⎞⎜⎜⎝
⎛ +
ηξη
ηξ
ξ
ηξ ηηξξJ
vuJ
vutJ
pApAJ
pApA yxyx13221
104
Podemos dar as seguintes interpretações físicas aos coeficientes da Eq. (8.25). J ∝ 1/volume (sempre positivo) A2 ∝ (não ortogonalidade da malha) A1 e A3 ∝ (alongamento das células)
8.2 – Equação de Burger em Coordenadas Generalizadas
Nesta seção, vamos transformar a equação de Burger de coordenadas Cartesianas para coordenadas generalizadas. Para iniciar, apresentamos a equação de Burger em coordenadas Cartesianas, mas escrita na forma conservativa e vetorial, conforme mostra a Eq. (8.26).
(8.26) 0=++ yxt FEQ
onde
(8.27) ⎭
⎬⎫
⎩⎨⎧
−−
=⎭⎬⎫
⎩⎨⎧
−−
=⎭⎬⎫
⎩⎨⎧
=y
y
x
x
vvuuv
Fvuvuu
Evu
Qνν
νν
2
2
,,
Usando a regra da cadeia,
ttttt
yyy
xxx
QQtQQ
FFFEEE
ηξ
ηξ
ηξ
ηξ
ηξ
ηξ
++=
+=
+=
ˆˆ
(8.28)
Substituindo as Eqs. (8.28) na Eq. (8.26) e dividindo tudo por J, resulta a Eq. (8.29).
0ˆ =
++++++
JFFEEQQQ yyxxttt ηξηξηξ ηξηξηξ
(8.29)
Lembrando novamente das Eqs. (8.7), podemos obter as seguintes equações:
( )tttt
ttt
t
yxxyxyxyQJ
QJJ
QJ
QJQ
ˆˆˆˆˆ
2ˆˆ
ˆξηηξξηξη −−++=−=⎟
⎠⎞
⎜⎝⎛
(8.30a)
( )tttttttt xyxyyxyxQ
JQ
JQ
JQ
JQ
ξηηξξηξηξξ
ξξ
ξξξξ−−++=⎟
⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
( )tttttttt yxyxxyxyQ
JQ
JQ
JQ
JQ
ˆˆˆˆ ηξξηηξξηηη
ηη
ηηηη−−++=⎟
⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
105
ηξξ
ξξ
ξ
ξξξξ EyJ
EJ
EJ
EJ
E xxxx +=⎟⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
ξηηη
ηη
ηηηη EyJ
EJ
EJ
EJ
E xxxx −=⎟⎠⎞
⎜⎝⎛+=⎟
⎠⎞
⎜⎝⎛
(8.30b)
ηξξξ
ξξ
ξξξξFx
JF
JF
JF
JF yyyy −=⎟⎟
⎠
⎞⎜⎜⎝
⎛+=⎟⎟
⎠
⎞⎜⎜⎝
⎛
ξηηη
ηη
ηηηηFx
JF
JF
JF
JF yyyy +=⎟⎟
⎠
⎞⎜⎜⎝
⎛+=⎟⎟
⎠
⎞⎜⎜⎝
⎛
Somando as Eqs. (8.30) e substituindo o resultado na Eq. (8.29), resulta a transformação desejada, conforme mostra a Eq. (8.31).
0=⎟⎟
⎠
⎞⎜⎜⎝
⎛ +++⎟⎟
⎠
⎞⎜⎜⎝
⎛ +++⎟
⎠⎞
⎜⎝⎛
ηξ
ηηηξξξJ
FEQJ
FEQJQ yxtyxt
t(8.31)
Substituindo o vetor de variáveis conservadas Q, os vetores de fluxo E e F na Eq. (8.31), obtemos a versão final da equação de Burger em coordenadas generalizadas, conforme mostra a Eq. (8.32).
( ) ( ) 0=−+−+ ηξ vevet FFEEQ (8.32)
onde
(8.33) ⎭
⎬⎫
(8.34)
(8.35)
(8.36)
⎩⎨=
vu
JQ 1 ⎧
⎭⎬⎫
⎩⎨⎧
++
=⎭⎬⎫
⎩⎨⎧
=ηξ
ηξνvAvAuAuA
JE
vUuU
JE ve
21
21,1
⎭⎬⎫
⎩⎨⎧
++
=⎭⎬⎫
⎩⎨⎧
=ηξ
ηξνvAvAuAuA
JF
vVuV
JF ve
32
32,1
223
2
221
yx
yyxx
yx
yxt
yxt
A
AA
vuVvuU
ηη
ηξηξ
ξξ
ηηη
ξξξ
+=
+=
+=
++=
++=
106
9.0 – MÉTODO DE FATORAÇÃO APROXIMADA APLICADO À EQUAÇÃO DE LAPLACE
Neste capítulo, vamos apresentar os dois métodos mais populares para a solução da
equação de Laplace em coordenadas generalizadas, o AF1 e o AF2. A forma geral do esquema de iteração é mostrada na Eq. (9.1). O operador N para o esquema AF1 é apresentado na Eq. (9.2).
(9.1) 0,, =+ nji
nji LpNC ω
( )( ) njiji
nji CAANC ,,
ˆˆ1ηηξξ αα
α∇Δ−∇Δ−−= (9.2)
onde
2/1,
3
,2/1
1
ˆ
ˆ
−
−
⎟⎠⎞
⎜⎝⎛=
⎟⎠⎞
⎜⎝⎛=
jij
jii
JAA
JAA
(9.3)
Este operador envolve a inversão de duas tridiagonais, uma em ξ e outra em η. A sua implementação é dividida em dois passos. Primeiramente, resolvemos a Eq. (9.4) para todos os pontos interiores da malha computacional marchando na direção η para obter os valores de fi,j. Posteriormente, resolvemos a Eq. (9.5) para todos os pontos interiores da malha, marchando na direção ξ com os valores obtidos para fi,j no primeiro passo para obter os valores de Ci,j.
( ) nji
njii LpfA ,,
ˆ αωα ξξ =∇Δ−(9.4)
( ) nji
njij fCA ,,
ˆ =∇Δ− ηα η (9.5) onde
⎟⎟⎠
⎞⎜⎜⎝
⎛ Δ+∇+⎟
⎟⎠
⎞⎜⎜⎝
⎛ +Δ∇=
JpApA
JpApA
Lpnji
ηξη
ηξξ
δδ 3221,
ˆˆ(9.6)
( )jijijiji ppppp ,1,11,11,14
1ˆ−++−++ −+−=ξδ
(9.7) ( )1,1,1,11,141ˆ
−+−+++ −+−= jijijiji pppppηδ
107
O operador N para o esquema AF2 é apresentado na Eq. (9.8).
)( ( ) njiji
nji CAANC ,,
ˆˆ1ηηξξ αα (9.8) α
∇Δ−∇Δ−−=
O operador acima também é dividido em dois passos como no caso do operador
AF1. Primeiramente, avaliamos a Eq. (9.9) para todos os pontos interiores da malha computacional para obter os valores de fi,j, marchando na direção η sem a necessidade de inversão de matriz tridiagonal. Posteriormente, avaliamos a Eq. (9.10) para todos os pontos interiores da malha, marchando na direção ξ, mas desta vez, precisamos inverter matrizes tridiagonais.
( ) nji
njii LpfA ,,
ˆ αωα ξ =Δ− (9.9)
( ) nji
njij fCA ,,
ˆ =∇Δ−∇ ηηξα (9.10)
Com a análise de estabilidade de Fourier, chegamos às seguintes condições de estabilidade:
0
20≥
≤≤α
ω(9.11)
A análise de estabilidade de Fourier assume uma condição de contorno periódica.
Se levarmos em consideração a condição de contorno real do problema, obtemos às seguintes condições de estabilidade:
20
3
≤≤≥
ωωα A
(9.12)
Um procedimento muito usado para acelerar a convergência do método é utilizar uma seqüência de α`s, conforme mostra a Eq. (9.13).
Mk
Mk
H
LHk ,,3,2,1,
(9.13)
11
L=⎟⎟⎠
⎞⎜⎜⎝
⎛=
−−
αααα
O valor de M não precisa ser igual ao número de iterações. Para o caso do esquema AF2,
(9.14)
xH
L
Δ≅
≅1
1α
α
108
10.0–MÉTODO DE BEAM AND WARMING APLICADO À EQUAÇÃO DE
BURGER 10.1 – Esquema de Fatoração Aproximada de Beam and Warming
Neste capitulo, vamos apresentar todos os detalhes da dedução do esquema de fatoração aproximada de Beam and Warming. O primeiro passo da dedução é a escolha do método de integração ou marcha no tempo que será usado. O método de Euler implícito mostrado na Eq. (10.1) é uma escolha muito conveniente não apenas pela sua simplicidade, mas também por não possuir as restrições dos métodos explícitos quanto ao passo de integração. Eliminando a derivada temporal da Eq. (10.1) utilizando a Eq. (8.31), resulta a Eq. (10.2).
( )tOtQtQQ
nnn Δ+⎟
⎠⎞
⎜⎝⎛
∂∂
Δ+=+
+1
1 (10.1)
( )111 +++ +Δ−= nnnn FEtQQ ηξ (10.2)
Na Eq. (10.2), os vetores de Fluxo E e F são avaliados no nível de tempo n+1, onde ainda não conhecemos as propriedades do escoamento. Para contornar esta dificuldade, executamos a linearização de Newton na Eq. (10.2) para obter os vetores de fluxo no nível de tempo n, conforme as Eqs. (10.3).
L
L
+Δ⎟⎟⎠
⎞
∂∂
+Δ⎟⎟⎠
⎞∂∂
+=
+Δ⎟⎟⎠
⎞
∂∂
+Δ⎟⎟⎠
⎞∂∂
+=
+
+
ηη
ξξ
QQFQ
QFFF
QQEQ
QEEE
nnnn
nnnn
1
1
(10.3)
onde (10.4) JQQ =
Substituindo a Eq. (10.3) na Eq. (10.2), obtemos a seguinte equação:
[ ] [ ] [ ]ηηηξξξηξ QMQBtQMQAtFEtQQ nnnnnnnn Δ−ΔΔ−Δ−ΔΔ−+Δ−=+ ˆˆ1 (10.5)
Vamos aproximar as derivadas espaciais por diferenças finitas. Os termos
convectivos serão aproximados por diferenças centradas e os termos viscosos por diferenças “one-sided”. Após passarmos os termos em ΔQ para o lado esquerdo, resulta a Eq. (10.6).
[ ] ( )n
jinnnn RHSQJMtBtJMtAtI =ΔΔ∇Δ−Δ+Δ∇Δ−Δ+ ,
ˆˆηηηηξξξξ δδ (10.6)
109
onde
( ) [ ]nv
ne
nv
ne
n FFEEtRHS ηηξξ δδ ∇−+∇−Δ−=
(10.7)
n
vnn
en
QEM
QEJA ⎟
⎟⎠
⎞
∂∂
=⎟⎟⎠
⎞∂∂
=ξ
ξ,ˆ
n
vnn
en
QFM
QFJB ⎟
⎟⎠
⎞
∂∂
=⎟⎟⎠
⎞∂∂
=η
η,ˆ
A matriz da Eq. (10.6) é uma matriz pentadiagonal de bloco e esparsa. Portanto, este sistema é muito caro para ser resolvido, ou seja, não existem procedimentos eficientes de solução. Para contornar esta dificuldade fazemos uma fatoração aproximada, conforme mostra a Eq. (10.8).
[ ][ ] ( )nnnnn RHSQJMtBtIJMtAtI =ΔΔ∇Δ−Δ+Δ∇Δ−Δ+ ηηηηξξξξ δδ ˆˆ (10.8)
Observe que no primeiro fator do lado esquerdo da Eq. (10.8), somente existem derivadas em ξ e no segundo fator somente derivadas em η. Portanto, podemos dividir o problema em dois passos, conforme mostram as Eqs. (10.9) e (10.10).
[ ] ( )nji
nn RHSfJMtAtI =Δ∇Δ−Δ+ ,ˆ
ξξξξδ (10.9)
[ ] jijinn fQJMtBtI ,,
ˆ =ΔΔ∇Δ−Δ+ ηηηηδ (10.10)
O problema agora ficou reduzido à solução de dois sistemas tridiagonais de bloco, que podem ser resolvidos eficientemente utilizando-se o algoritmo de Thomas, discutido no Cap. 6. No primeiro passo, resolvemos a Eq. (10.9) para obter o valor de f em todos os pontos interiores da malha computacional, marchando na direção η, ou seja, j=2,3,...,Jmax-1. Para cada valor de j, temos que resolver um sistema tridiagonal de bloco. No segundo passo, resolvemos a Eq. (10.10) para obter o valor de ΔQ em todos os pontos internos da malha computacional, marchando na direção ξ, ou seja, i=1,2,3,..., Imax-1. Com o valor de ΔQ obtido no segundo passo, podemos atualizar o vetor de variáveis conservadas Q.
A análise de estabilidade linear de von Neumann do esquema centrado de fatoração aproximada de Beam and Warming mostra que dissipação artificial deve ser adicionada explicitamente para garantir a estabilidade do esquema. A dissipação artificial elimina freqüências altas e controla ou elimina o desacoplamento impar-par inerente aos esquemas de diferenças centradas. Podemos adicionar explicitamente um termo de dissipação de quarta ordem no lado direito da Eq. (10.9) e um termo de dissipação de segunda ordem no lado esquerdo das Eqs. (10.9) e (10.10). O resultado é mostrado na Eq. (10.11).
(10.11)
( )[ ] ( ) ( )
( )[ ] jijinn
nji
nn
fQDJMtBtI
DRHSfDJMtAtI
,,2
4,
2
ˆ
ˆ
=Δ+Δ∇Δ−Δ+
+=+Δ∇Δ−Δ+
ηηηηη
ξξξξξ
δ
δ
onde
110
Jξ
( )
( )
( ) ( ) ( )[ ] ne
i
i
JQtJD
JtJD
tJD
2214
12
12
ηηξξ
ηηη
ξξ
ε
ε
ε
Δ∇+Δ∇Δ−=
Δ∇Δ−=
Δ∇Δ−=
−
−
−
(10.12)
10.2 – Matrizes Jacobianas de Fluxo
Para a implementação do esquema de fatoração aproximada de Beam and Warming é necessário conhecermos as matrizes Jacobianas de fluxo. Nesta seção, apresentamos essas matrizes para a equação de Burger, que no Cap. 11 será utilizada no método das projeções.
⎥⎦
⎤⎢⎣
⎡+
+=⎥
⎦
⎤⎢⎣
⎡+
+=
yx
yx
yy
yx
vVvuuV
BvUv
uuUA
ηηηη
ξξξξ ˆ,ˆ (10.13)
⎥⎦
⎤⎢⎣
⎡=⎥
⎦
⎤⎢⎣
⎡=
3
3
1
1
00
,0
0A
AJ
MA
AJ
M ννηξ (10.14)
10.3 – Discretização dos Termos Viscosos
Na discretização dos termos viscosos do lado direito da Eq. (10.6) utilizamos uma diferença “backward” para aproximar as derivadas espaciais dos vetores de fluxo viscosos. Portanto, dentro dos vetores de fluxo viscosos, as derivadas espaciais deverão ser aproximadas utilizado-se diferenças “forward”, conforme mostram as Eqs. (10.15) e (10.16).
(10.15)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
⎟⎠⎞
⎜⎝⎛+Δ⎟
⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛+Δ⎟
⎠⎞
⎜⎝⎛
=
++
++
vJAv
JA
uJAu
JA
E
jiji
jijiv
ηξ
ηξ
δ
δν
ˆ
ˆ
,2/1
2
,2/1
1
,2/1
2
,2/1
1
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
Δ⎟⎠
⎞⎜⎝
⎛+⎟
⎠
⎞⎜⎝
⎛
Δ⎟⎠
⎞⎜⎝
⎛+⎟
⎠
⎞⎜⎝
⎛
=
++
++
vJA
vJA
uJA
uJA
F
jiji
jijiv
ηξ
ηξ
δ
δν
2/1,
3
2/1,
2
2/1,
3
2/1,
2
ˆ
ˆ
(10.16)
onde ( )jijijiji uuuuu ,1,11,11,14
1ˆ−++−++ −+−=ξδ (10.17)
( )1,1,1,11,1
1ˆ−+−+++ −+−= jijijiji uuuuuηδ
4
111
(10.18) 11.0 – SOLUÇÃO DAS EQUAÇÕES DE NAVIER – STOKES INCOMPRESSÍVEIS 11.1 - Método da Projeção
Nos capítulos anteriores, vimos como resolver numericamente as equações elípticas e as equações de Burger utilizado o método de fatoração aproximada, Cap. 9.0 e 10.0, respectivamente. No presente capítulo, vamos utilizar o que foi aprendido nos dois capítulos anteriores para a solução das equações de Navier – Stokes incompressíveis utilizando o método da projeção.
Na formulação original do método da projeção proposto por Chorin, os termos do gradiente de pressão são omitidos das equações de conservação da quantidade de movimento no primeiro passo. As equações de Burger não estacionárias, cuja solução em coordenadas generalizadas foi discutida no Cap. 10.0, são integradas no tempo para obter –se um campo de velocidade provisório V*. Num segundo passo, este campo de velocidade provisório é corrigido levando-se em consideração o gradiente de pressão e a equação da continuidade. Isto é feito considerando-se a Eq. (11.1) sujeita à equação da continuidade (11.2).
01
*1
= (11.1)
(11.2)
Calculando o divergente da Eq. (11.1) sujeito à equação da continuidade (11.2), obtemos a equação de Poisson (11.3), cuja solução em coordenadas generalizadas foi discutida no Cap. 9.0.
(11.3)
O procedimento de solução consiste em primeiramente calcular o campo de
velocidade V* utilizando as equações de conservação da quantidade de movimento sem os termos do gradiente de pressão, ou seja, as equações de Burger. Posteriormente, a equação de Poisson para a pressão (11.3) é então resolvida para o campo de pressão. Finalmente, o campo de velocidade é corrigido utilizando-se a Eq. (11.1). 11.2 – Método do Escoamento Levemente Compressível
O método do escoamento levemente compressível leva em consideração a compressibilidade do fluido somente na equação da continuidade. A equação da continuidade compressível e a definição de compressibilidade isotérmica são mostradas nas Eqs. (11.4) e (11.5), respectivamente.
(11.4)
∇+Δ
− ++
nn
pt
VVr r
01 =⋅∇ +nVr
tVpn
Δ⋅∇
=∇ +*
12
r
( ) 0=⋅∇+∂∂ V
tr
ρρ
112
Tp ⎟⎟⎠
⎞∂∂
=ρ
ρτ 1
(11.5)
Restringindo o nosso estudo para escoamentos isotérmicos com coeficiente de compressibilidade constante, podemos integrar a Eq. (11.5) para obter a Eq. (11.6).
(11.6) ( )∞−∞= ppeτρρ
Fazendo uma expansão em série de Taylor da Eq. (11.6), obtemos a Eq. (11.7).
( ) ( ) K+−+−+= ∞∞∞∞∞22
21 pppp τρτρρρ
(11.7)
Considerando que a compressibilidade isotérmica é muito pequena, vamos considerar somente os dois primeiros termos da Eq. (11.7). Substituindo a Eq. (11.7) (com apenas os dois primeiros termos) na equação da continuidade compressível, resulta a Eq. (11.8).
( ) ( ) 01 =⋅∇−+⎥⎦⎤
⎢⎣⎡ ⋅∇+
∂∂
∞∞∞ VpVptp rr
τρτρ (11.8)
Na formulação incompressível, onde assume-se que a compressibilidade isotérmica é nula, a Eq. (11.8) se reduz à Eq. (11.9), que é a equação da continuidade no caso de fluidos incompressíveis.
0=⋅∇ Vr (11.9)
Felizmente, uma equação mais conveniente pode ser obtida se considerarmos a
compressibilidade isotérmica diferente de zero. Observe que a equação da continuidade (11.8) pode ser satisfeita se
τ1
=∞p(11.10)
( ) 0=⋅∇+∂∂ Vp
tp r
(11.11)
Nas equações da conservação da quantidade de movimento, não levamos em consideração a compressibilidade isotérmica do fluido. A forma adimensional da Eq. (11.11) juntamente com as equações de conservação da quantidade de movimento são apresentadas a seguir em coordenadas generalizadas, na forma conservativa e vetorial.
( ) ( ) 0=−+−+ ηξ vevet FFEEQ (11.12)
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
vup
JQ 1 (11.13)
113
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++= ∞
ηξ
ηξ
ξξ
vAvAuAuA
JRME
pvUpuU
pU
JE
ev
y
xe
21
21
0,1
(11.14)
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++= ∞
ηξ
ηξ
ηη
vAvAuAuA
JRMF
pvVpuV
pV
JF
ev
y
xe
32
32
0,1
(11.15)
onde
yxt
yxt
vuVvuUηηη
ξξξ
++=
++=(11.16)
223
2
221
yx
yyxx
yx
A
AA
ηη
ηξηξ
ξξ
+=
+=
+=
(11.17)
A forma adimensional é importante numericamente falando, pois garante que as variáveis terão valores entre zero e a unidade. A Eq. (11.12) foi adimensionalizada de acordo com as seguintes definições, onde o símbolo de * significa que a variável é dimensional:
∞∞
==avv
auu
**
, (11.18)
LUtt
Lyy
Lxx ∞===
***
,, (11.19)
τρρ ∞
∞∞∞∞
===1,1,2
*
apa
pp (11.20)
∞
∞∞
∞
∞∞ ==
μρ LUR
aUM e, (11.21)
11.3 – Método de Beam and Warming
O método de fatoração aproximada de Beam and Warming apresentado no Cap. 10 para resolver a equação de Burger pode ser utilizado eficientemente para resolver a Eq. (11.12), conforme mostra a Eq. (11.22).
114
( )[ ] ( ) ( )
( )[ ] jijinn
nji
nn
fQDJMtBtI
DRHSfDJMtAtI
,,2
4,
2
=Δ+Δ∇Δ−Δ+
+=+Δ∇Δ−Δ+
ηηηηη
ξξξξξ
δ
δ(11.22)
onde
( ) [ ]nv
ne
nv
ne
n FFEEtRHS ηηξξ δδ ∇−+∇−Δ−= (11.23)
( )
( )
( ) ( ) ( )[ ] ne
i
i
JQtJD
JtJD
JξtJD
2214
12
12
ηηξξ
ηηη
ξξ
ε
ε
ε
Δ∇+Δ∇Δ−=
Δ∇Δ−=
Δ∇Δ−=
−
−
−
(11.24)
As matrizes Jacobianas de fluxo são apresentadas a seguir:
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
++=
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
++=
yxy
yxx
yxn
yxy
yxx
yxn
vVvuuVppV
BvUv
uuUppU
Aηηη
ηηηηη
ξξξξξξξξ
, (11.25)
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡= ∞∞
3
3
1
1
0000000
,00
00000
AA
JRMM
AA
JRMM
e
n
e
nηξ (11.26)
12.4 – Método de MacCormack O método de MacCormack pertence à classe de métodos predictor – corrector. No primeiro passo (predictor), as derivadas dos termos convectivos são aproximadas utilizando-se diferenças “backward”. No segundo passo (corrector), as derivadas dos termos convectivos são aproximadas utilizando-se diferenças “forward”. Os termos viscosos são aproximados com diferenças centradas tanto no predictor como no corrector. O resultado final é um método de precisão de segunda ordem tanto espacial como temporal. As Eq. (11.27) e (11.28) apresentam o passo predictor e corrector, respectivamente.
[ ]nv
nv
ne
ne
nji
nji FEFEtQQ ηξηξ ∇−∇−∇+∇Δ−=+
,1
,(11.27)
(11.28)
[ ]{ }nv
nv
ne
ne
nji
nji
nji FEFEtQQQ ηξηξ ∇−∇−Δ+ΔΔ−+= ++
,1
,1
, 21
onde
115
⎪⎪⎪⎪
⎭
⎪⎪⎪⎪
⎬
⎫
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧
⎟⎠⎞
⎜⎝⎛+Δ⎟
⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛+Δ⎟
⎠⎞
⎜⎝⎛=
++
++
∞
vJAv
JA
uJAu
JA
RME
jiji
jijiev
ηξ
ηξ
δ
δ
ˆ
ˆ0
,2/1
2
,2/1
1
,2/1
2
,2/1
1(11.29)
⎪⎪⎪⎪
⎭
⎪⎪⎪⎪
⎬
⎫
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧
Δ⎟⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛
Δ⎟⎠⎞
⎜⎝⎛+⎟
⎠⎞
⎜⎝⎛=
++
++
∞
vJA
vJA
uJA
uJA
RMF
jiji
jijiev
ηξ
ηξ
δ
δ
2/1,
3
2/1,
2
2/1,
3
2/1,
2
ˆ
ˆ0
(11.30)
( )jijijiji uuuuu ,1,11,11,141ˆ
−++−++ −+−=ξδ (11.31)
( )1,1,1,11,141ˆ
−+−+++ −+−= jijijiji uuuuuηδ
116
12.0 – VOLUMES FINITOS
Neste capítulo, algumas idéias fundamentais sobre o método dos volumes finitos
são estudadas. A forma apropriada das equações governantes é obtida na Seção 12.1 e o método dos volumes finitos é aplicado às equações na Seção 12.2. 12.1 –Formulação Matemática
A Eq. (12.1) mostra as equações de Burger em coordenadas Cartesianas escritas na forma vetorial e conservativa.
∂∂
∂∂
∂∂
Qt
Ex
Fy
+ + = 0 (12.1)
onde
⎭⎬⎫
⎩⎨⎧
=vu
Q ⎭⎬⎫
⎩⎨⎧
−−
=x
x
vuvuu
Eνν2
⎭⎬⎫
⎩⎨⎧
−−
=y
y
vvuuv
Fνν
2
Para aplicarmos o método dos volumes finitos, a Eq. (12.1) é transformada para a
forma integral. Utilizando a definição do vetor P dada na Eq. (12.2), podemos escrever a Eq. (12.1) na forma apresentada na Eq. (12.3).
jFiEPrrr
+= (12.2)
PtQ rr
⋅∇−=∂∂
(12.3)
Integrando a Eq. (12.3) num volume de controle V, conforme a Eq. (12.4), e aplicando o teorema de Gauss ao lado direito da Eq. (12.4), resulta a Eq. (12.5). vdP∫ ⋅−= (dv
tQ
vv∫ ∇ )
rr
∂∂
(12.4) ∫ ∫ ⋅=⋅∇
v s
dsnPdvP )()( rrrr
(12.5)
Substituindo a Eq. (12.5) na Eq. (12.4), a forma integral da equação de Burger é obtida, conforme mostra a Eq. (12.6).
∫ ∫ ⋅−=∂∂
v s
dsnPdvtQ )( rr
(12.6a)
117
Para o caso de volumes finitos rígidos e não deformáveis, podemos passar o símbolo de derivada temporal para fora do sinal de integração. O resultado é mostrado na Eq. (12.6b).
∫ ∫ ⋅−=∂∂
v s
dsnPQdvt
)( rr(12.6b)
12.2- Formulação Numérica
Nesta Seção, vamos avaliar a Eq. (12.6) em cada volume finito obtido ao discretizarmos o espaço bidimensional em retângulos, conforme mostrado abaixo na Fig. 12.1.
i,j+1
i,j
i,j-1
i+1,ji-1,j
Figura 12.1 – Discretização do espaço bidimensional em retângulos.
O valor médio do vetor Q é definido dentro do volume Vi,j, conforme a Eq. (12.7). Substituindo a Eq. (12.7) na Eq. (12.6), obtemos finalmente a Eq. (12.8), que será avaliada em cada volume finito obtido da discretização do espaço bidimensional. ∫=jQ 1
jiVjii QdV
V,,
,(12.7)
∫∫ ⋅−=⎥⎥⎦
⎤
⎢⎢⎣
⎡ 1∂
jiji SjiVji
dSnPV
QdVVt
,,
)(1
,,
rr
∂ ou ∫ ⋅−=j n(1 r∂
jiSji
i dSPVt
Q
,
),
, r
∂ (12.8)
Esta é a forma conveniente da equação de Burger para o método dos volumes finitos. Esta equação deve ser avaliada em todos os volumes finitos obtidos da
118
discretização do espaço físico. Dada uma condição inicial e condições de contorno, a Eq. (12.8) pode ser resolvida por algum método de integração como; Euler explícito, Crank-Nicolson, Euler implícito, Runge-Kutta, etc. Vamos aplicar, por exemplo, o método de Euler Explícito, Eq. (12.9), à Eq. (12.8), conforme mostra a Eq. (12.10).
⎟⎟⎠
⎞⎜⎜⎝
⎛Δ+=+
tQ
tQQn
jinji
nji ∂
∂ ,,
1, (12.9)
(12.10) ∫ ⋅Δ
−= nn QQ (+
jiSjijiji dSnP
Vt
,
),
,1
,rr
i,j
(x,y) i+1,j+1
S j+1/2
S i+1/2
S j-1/2
S i-1/2
(x,y) i,j
(x,y) i,j+1
(x,y) i+1,j
Figura 12.2 – Volume finito obtido pela discretização do espaço físico bidimensional
Aplicando a Eq. (12.10) ao volume finito mostrado na Fig. 12.2, obtemos a Eq. (12.11).
(12.11) [ ]2/12/12/12/1,
,1
, )()()()( −−+++ ⋅+⋅+⋅+⋅
onde
r r rS S i Sx y= + j
Δ−= nn QQ jiji
jijiji SPSPSPSP
Vt r r r rr r r r
1,1,1,,1,1,11,1,1,
,1,1,1,1,1,1,1,1,,
)()()(21
)()()(21
+++++++−+
++++++++
−+−+−+
−+−+−=
jijijijijijijijiji
jijijijijijijijijiji
yxxyxxyxx
yxxyxxyxxV
119
SURFACE SX SY
S I+1/2
S I-1/2
S J+1/2
S J-1/2
(Y I+1,J+1 -Y I+1,J)
-(Y I,J+1 -Y I,J)
-(Y I+1,J+1 -Y I,J+1)
(Y I+1,J -Y I,J)
-(X I+1,J+1 -X I+1,J)
(X I,J+1 -X I,J)
(X I+1,J+1 -X I,J+1)
-(X I+1,J -X I,J)
Note que:
syx
yx
yx
qvSuSSq
jviuq
FSESSP
jSiSjFiE
Separando os vetores de fluxo E e F nas partes viscosas e não viscosas, a Eq. (12.12) é obtida para a parte não viscosa e a Eq. (12.13) para a parte viscosa.
,
(12.12)
,
(12.13)
Finalmente, combinando as Eqs. (12.12) e (12.13), obtemos a Eq. (12.14) para r rP S⋅
total.
(12.14)
SP =⋅
=+=⋅
+=
+=⋅
+⋅+
rr
rrr
rr
rrr r r r)()(
⎭⎬⎫
⎩⎨⎧
=⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
++
=⋅s
s
yy
yxe vq
uqSvuvS
uvSSuSP 2
2rr
⎭⎬⎫
⎩⎨⎧
++
=⋅yyxx
yyxx
Lv SvSv
SuSuR
SP 1rr
( )
( )⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+−
+−=⋅
yyxxL
s
yyxxL
s
SvSvR
vq
SuSuR
uqSP 1
1rr
⎭⎬⎨=E =F⎫ ⎧
⎩
⎧
uvu
e
2
2vuv
e⎭⎬⎫
⎩⎨
⎭⎬
⎩⎨⎧
=x
x
Lv v
uR
E 1 ⎫
⎭⎬⎫
⎩⎨⎧
=y
y
Lv v
uR
F 1
120
O vetor é somente conhecido no meio do volume finito. Este vetor é obtido sobre
uma dada superfície pelos valores de
rP r
P dentro dos volumes finitos separados pela aquela superfície. Por exemplo, para a malha computacional mostrada na Fig. 12.1, o valor
rP na
fronteira poderia ser obtido pela média aritmética dos valores de rP nos volumes finitos
adjacentes, conforme a Eq. (12.15).
)(21
,1,2/1 jijii PPP ++ +=rrr
(12.15) Vamos agora obter
r rP S⋅ sobre a superfície i+1/2 da figura 12.1.
)(2
)(21
)(21)(
,1,,1,
2/1,12/1,2/12/12/1
jijijiji
ijiijiiii
EEyyEyE
SPSPSPSP
++
++++++
+Δ
=Δ+Δ=
+=⋅=⋅rrrrrrrr
(12.16)
Da mesma forma,
)(2
)( ,,12/1 jijii EEySP +Δ
−=⋅ −−
rr
(12.17) Então,
[ ]
jixjiji
jijijijiiiji
ExEE
EEyEEyyx
SPSPV
,,1,1
,,1,1,2/12/1,
2
)(2
)(2
1)()(1
δ=Δ
−=
⎥⎦⎤
⎢⎣⎡ +
Δ−+
ΔΔΔ
=⋅+⋅
−+
−+−+
rrrr
(12.18)
Da mesma forma, [ ] jiyjj
ji
FSPSPV ,2/12/1
,
)()(1 δ=⋅+⋅ −+
rrrr
(12.19)
De acordo com as Eqs. (12.18) e (12.19), o cálculo do vetor de fluxorP sobre uma
interface entre dois volumes finitos adjacentes pela média é equivalente a uma derivada centrada em diferenças finitas. Por outro lado, usando o método de MacCormack não é necessário fazer a média do vetor de fluxo
rP.
121
Predictor:
[ ]
nji
nji
nji
jnjijjii
njii
nji
ji
nji
QQQ
SPSPSPSPV
tQ
,,1
,
2/1,2/11,2/1,2/1,1,
,
Δ+=
⋅+⋅+⋅+⋅Δ
−=Δ
+
−++−++
rrrrrrrr Corrector:
[ ]
[ ]1,
1,,
1,
2/111,2/1
1,2/1
1,12/1
1,
,
1,
21 +++
−+−+
+−
+−+
++
Δ++=
⋅+⋅+⋅+⋅Δ
−=Δ
nji
nji
nji
nji
jnjij
njii
njii
nji
ji
nji
QQQQ
SPSPSPSPV
tQrrrrrrrr
12.3 – Termos de Dissipação Artificial
Para suprimir a tendência de ocorrência de desacoplamento de pontos pares e impares e para prevenir o aparecimento de oscilações em regiões contendo gradientes de pressão severos na vizinhança de pontos de estagnação, prova-se necessária a adição de termos de dissipação artificial ao esquema de volumes finitos, conforme mostra a Eq. (12.20).
(12.20)
[ ]
{ })33()(
)()(
)()()(
)()()()()(
,1,,1,2)4(
,2/1,,1)2(
,2/1,2/1
,2/1
2/1,2/1,,
,2/1,2/1,
,,,
,2/12/12/12/1,
,
jijijijijijijijiji
ji
jijijiy
jijijix
jiyjixji
jijijiji
ji
QQQQQQt
Vd
ddQDddQD
QDQDQD
QDSPSPSPSPt
QV
−++++++
+
−+
−+
−−++
−+−−−Δ
=
−=
−=
+=
+⋅+⋅+⋅+⋅−=
εε
∂∂ rrrrrrrr
onde
)](,0max[
),max(
2
2
)2(,2/1
)4()4(,2/1
,,1)2()2(
,2/1
,1,,1
,1,,1,
jiji
jijiji
jijiji
jijijiji
k
k
ppp
ppp
++
++
−+
−+
−=
=
++
+−=
εε
ννε
ν
(12.21)
Os valores típicos das constantes são mostrados na Eq. (12.22). ,
(12.22)
21) =k k ( )2( 4 1
256=
122
12.4 – Formulação Matemática para Malhas Deformáveis Na Seção 12.2, deduzimos a formulação matemática utilizada no método dos volumes finitos para malhas estacionárias. Se a malha se deforma, precisamos utilizar uma formulação que considere a deformação dos volumes finitos. Vamos iniciar a dedução da equação governante aplicada a volumes finitos deformáveis a partir da Eq. (12.6a), deduzida na Seção 12.2 e apresentada abaixo.
∫ ∫ ⋅−=∂∂
v s
dsnPdvtQ )( rr
(12.23)
A Eq. (12.23) não é muito adequada para integração numérica, pois o símbolo de derivada temporal está dentro do símbolo de integral. O teorema de Leibnitz permite modificarmos a Eq. (12.23) para uma forma mais conveniente para integração numérica. O teorema de Leibnitz é mostrado na Eq. (12.24) aplicado ao vetor de variáveis conservadas Q.
∫ ∫∫ ⋅+
∂∂
=v sv
sdwQdvtQQdv
dtd rr
(12.24)
Substituindo a Eq. (12.23) na Eq. (12.24), obtemos a versão adequada para a simulação numérica de volumes finitos deformáveis, conforme a Eq. (12.25), onde w é a velocidade local na superfície do volume de controle.
( ) ( )dsnwQdsnPQdvdtd
ssv∫∫∫ ⋅+⋅−=
rrrr
ou
( .(12.25)
Em volumes finitos, costuma-se trabalhar com o valor médio das variáveis conservadas atribuído ao centróide do volume. Na Eq. (12.26), apresentamos a definição do vetor médio de variáveis conservadas em cada volume finito.
(12.26)
Substituindo a Eq. (12.26) na Eq. (12.25), obtemos a formulação integral em termos do vetor médio de variáveis conservadas, conforme mostra a Eq. (12.27).
(12.27)
onde
(12.28)
) dsnwQPQdvdtd
sv
rrr⋅−−= ∫∫
∫=v
QdvV
Q 1
( ) dsnwQPdtQd
s
rrr⋅−−= ∫
~
QVQ =~
123
13.0 – MÉTODO DOS VOLUMES FINITOS COM MALHAS NÃO ESTRUTURADAS Nesta seção, vamos apresentar a implementação do método dos volumes finitos para malhas não estruturadas. Vamos iniciar o nosso desenvolvimento supondo que a malha já tenha sido gerada pelo método de triangularização de Delaunay e que temos todas as informações de conectividade de cada volume finito. Vamos restringir o nosso estudo ao caso bidimensional com elementos triangulares de profundidade unitária. Ou seja, o volume do nosso elemento é dado pela área do triângulo multiplicada pela profundidade unitária.
Figura 13.1 – Esquema de Conectividade de uma Malha não Estruturada Para que uma malha não estruturada possa ser utilizada para a solução de um escoamento, é necessário o armazenamento de informações de conectividade dos pontos que formam cada elemento da malha computacional e os elementos vizinhos a cada volume finito. No processo de geração da malha, segundo o método de triangularização de Delaunay, os pontos que vão compor a malha são gerados aleatoriamente e quando esses pontos são aceitos, eles recebem um número de identificação, conforme mostra a Fig. 12.2. Da mesma forma, à medida que os elementos vão sendo gerados, eles também recebem um número de identificação, que é mostrado na figura acima entre colchetes. Cada elemento, também recebe uma numeração local dos pontos que o formam no sentido anti-horário de 1 à 3. As coordenadas x e y de cada ponto da malha são armazenadas em duas variáveis indexadas x(j) e y(j), onde j é o índice identificador dos pontos da malha computacional. Os pontos que formam um determinado elemento são armazenados em três variáveis indexadas fp1(i), fp2(i) e fp3(i), onde i é o índice identificador de cada volume finito. As células vizinhas a um determinado elemento são armazenadas em três variáveis indexadas nei1(i), nei2(i) e nei3(i). Por exemplo, para o elemento i=3 da Fig. 12.2, são armazenadas as seguintes informações:
(13.1)
1)3(3,5)3(32)3(2,2)3(2
6)3(1,4)3(1
====
==
fpneifpneifpnei
124
Para aplicarmos as equações governantes aos elementos da malha, armazenamos o vetor de variáveis conservadas numa variável indexada Q(i,k), onde k é o índice das propriedades do escoamento. O vetor Q é o vetor médio de variáveis conservadas em cada volume, que é atribuído ao centróide do elemento. O centróide de cada volume finito é armazenado em duas variáveis indexadas xc(i) e yc(i). Com todas estas informações devidamente conhecidas e armazenadas, podemos implementar o algoritmo de solução das equações governantes. A Eq. (13.2) mostra a forma discretizada da Eq. (12.27), onde o método de Euler explícito é utilizado para a integração no tempo.
(13.2)
( )[ ] ( )[ ] ( )[ ]{ }3,2,1,
1 ~~iii
ni
ni SwQPSwQPSwQPtQQ
rrrrrrrrr⋅−+⋅−+⋅−Δ−=+
13.1 – Cálculo do Volume de Cada Triângulo Para calcular o volume de cada elemento, vamos definir os vetores V1 e V2, conforme mostra a Fig. (13.2). O volume do elemento triangular é dado pela Eq. (13.3).
Figura 13.2 – Definição dos Vetores V1 e V2 para o Cálculo de Volume
2,1,21
iii VVV ×= (13.3)
onde
( ) ( )( ) ( jyyixxV
jyyixxV
iiiii
iiiii
ˆˆ
ˆˆ
3,2,3,2,2,
3,1,3,1,1,
−+−=
−+−=r
r
(13.4) )
Substituindo as Eq. (13.4) na Eq. (13.3), resulta a Eq. (13.5) que deve ser utilizada para o cálculo do volume de cada elemento i.
( ) ( ) ( ) 3,2,1,1,3,2,2,1,3,21
iiiiiiiiii yxxyxxyxxV −+−+−= (13.5)
125
13.2 – Cálculo do Vetor Área Para aplicarmos a Eq. (13.2) aos elementos da malha computacional, é necessário conhecermos o vetor área das faces dos elementos. A Eq. (13.6) mostra o vetor área e suas componentes nas direções x e y. A Tabela 13.1 mostra as componentes do vetor área de cada face do elemento triangular.
jSiSS yxˆˆ +=
r(13.6)
Tabela 13.1 – Componentes do Vetor Área Superfície xS yS
1,iSr
3,2, ii yy − ( )3,2, ii xx −−
2,iSr
1,3, ii yy − ( )1,3, ii xx −−
3,iSr
2,1, ii yy − ( )2,1, ii xx −−
13.3 – Interpolação Linear dos Termos Invíscidos Os termos invíscidos na face dos elementos são obtidos a partir dos valores das propriedades médias definidas no centróide dos elementos. Uma forma bastante simples e muito utilizada para obter esses valores é fazer uma interpolação linear das propriedades de dois elementos adjacentes. Este procedimento de interpolação equivale em diferenças finitas a uma diferença centrada de segunda ordem de precisão. Conhecendo-se as propriedades nas interfaces, podemos determinar os termos da Eq. (13.2) para resolver numericamente a equação de Borgers, conforme a Eq. (13.7).
( )[ ]⎭⎬⎫
⎩⎨⎧
=⋅−s
se vq
uqSwQP rr
(13.7) onde
( ) ( ) ysxss SvvSuuq −+−= (13.8)
jviuw ssˆˆ +=
r
Para obter as propriedades na face 1 do elemento 3 mostrado na Fig. (13.1), interpolamos linearmente as propriedades médias definidas nos centróides dos elementos 4 e 3, conforme as Eq. (13.9).
(13.9)
( ) ( ) ( )( ) ( )( ) ( ) ( )( )
( )( ) ( )( )21,3
21,3221,3 33
3232
323 ycyxcxycycxcxc
uuuu −+−−+−
−+=
(13.10) ( ) ( ) ( )
( ) ( )( ) ( ) ( )( )( )( ) ( )( )2
1,32
1,3221,3 333232
323 ycyxcxycycxcxc
vvvv −+−−+−
−+=
126
13.4 – Interpolação dos Termos Viscosos Os termos viscosos nas faces dos elementos são obtidos calculando-se a média aritmética dos vetores de fluxo viscosos dos elementos adjacentes àquela face, conforme a Eq. (13.11).
( ) ( ) ( ) yvvxvvv SFFSEESP 43431,3 21
21
+++=⋅rr
(13.11)
Conhecendo-se as velocidades médias nos centros das faces dos elementos, podemos calcular as derivadas das componentes de velocidade u e v em relação à x e y. Vamos tomar como exemplo o elemento 3 da Fig. (13.2). Pelo teorema de Gauss, a derivada de u em relação à x é mostrada na Eq. (13.12).
Figura 13.2 – Malha computacional não estruturada
( )3
13 3
1i x
i i
u u Sx V =
∂ ⎞ =⎟∂ ⎠∑ (13.12)
De forma análoga, podemos obter também a derivada de u em relação à y, conforme mostra a Eq. (13.13).
( )3
133
1i y i
i
u u Sy V =
⎞∂=⎟∂ ⎠
∑ (13.13)
127
De forma completamente análoga, podemos calcular as derivadas da componente de velocidade u em relação à x e y no centróide do volume 4, conforme mostra a Eq. (13.14).
( )
( )
3
14 4
3
144
1
1
i x ii
i y ii
u u Sx V
u u Sy V
=
=
∂ ⎞ =⎟∂ ⎠
⎞∂=⎟∂ ⎠
∑
∑
(13.14)
Finalmente, as derivadas na face entre os triângulos 4 e 3 são dadas pela média aritmética dos valores obtidos para os volumes 4 e 3, conforme mostra a Eq. (13.15).
⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞∂∂
+⎟⎟⎠
⎞∂∂
=⎟⎟⎠
⎞∂∂
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
∂∂
+⎟⎠⎞
∂∂
=⎟⎠⎞
∂∂
434,3
434,3
21
21
yu
yu
yu
xu
xu
xu
(13.15)
Fica como exercício demonstrar que esta é uma aproximação de segunda ordem para as derivadas na face entre os triângulos 3 e 4.
13.5 – Dissipação Artificial não Linear O processo de interpolação feito acima equivale em diferenças finitas a um esquema centrado. Nós vimos nos capítulos anteriores que esquemas centrados não possuem termos de dissipação artificial implícitos. Portanto, precisamos adicionar explicitamente termos de dissipação artificial ao nosso esquema para filtrar ondas de instabilidade numéricas de alta freqüência para garantir a estabilidade do método. A Eq. (13.16) mostra a formulação numérica discretizada espacialmente para elementos triangulares e utilizando o método de Euler explicito para a integração no tempo com a adição explicita de um termo de dissipação artificial não linear típico. Vamos tomar como exemplo o elemento 3 da Fig. (13.1).
(13.16) ( )[ ] ( )[ ] ( )[ ] ( ){ }33,32,31,33
13
~~ QDSwQPSwQPSwQPtQQ nn +⋅−+⋅−+⋅−Δ−=+rrrrrrrrr
onde
(13.17)
( ) [ ]{ })2(3
)2(2
)2(4
)2(5
)4(3
)2(3
)2(3
33 3DDDDD
tVQD −++−Δ
= εε
46133)2(
4
3245)2(
3
3
3
QQQQDQQQQD
−++=
−++=(13.18)
128
( )[ ])2(3
)4()4(3
3)2()2(
3
,0max εε
νε
−=
=
KK
(13.19)
3245
32453 3
3pppp
pppp+++
−+=
+ν (13.20)
2561
21
)4(
)2(
=
=
K
K (13.21)
13.6 – Método de MacCormack O método de MacCormack é um esquema amplamente utilizado para resolver as equações dos escoamentos. Ele pertence à classe de métodos predictor – corrector. No primeiro passo (predictor), o vetor de fluxo invíscido é obtido na interface dos elementos de forma semelhante ao que seria em diferenças finitas uma aproximação forward, seguindo a orientação do vetor área, conforme mostra a Eq.(13.22). No segundo passo (corrector), o vetor de fluxo invíscido é obtido de forma semelhante a uma aproximação backward, seguindo a orientação do vetor área, de acordo com a Eq. (13.24). Os termos viscosos são calculados da mesma forma discutida na seção (13.4). O resultado final é um método de segunda ordem de precisão espacial e temporal Predictor:
( ) ( ) ( ) ( ){( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )
( ) ( )[ ]( ) ( ) ( )[ ]( )
( ) ( )[ ]( ) ( ) ( )[ ]( )
( ) ( )[ ]( ) ( ) ( )[ ]( )⎭⎬⎫+++
++++
++++
++
++
++
++
++
++Δ
−=Δ
3,33,3
2,22,2
1,11,1
3,33,
3,33,
2,22,
2,22,
1,11,
1,11,
21
21
21
21
21
21
,0max,0min
,0max,0min
,0max,0min
,0max,0min
,0max,0min
,0max,0min
iyvivixviv
iyvivixviv
iyvivixviv
iyeiyie
ixeixie
iyeiyie
ixeixie
iyeiyie
ixeixiei
ni
SFFSEE
SFFSEE
SFFSEE
SFSF
SFSE
SFSF
SFSE
SFSF
SESEV
tQ
(13.22)
(13.23) n
ini
ni QQQ Δ+=+1
129
Corrector:
( ) ( ) ( ) ( ){( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )
( ) ( )[ ]( ) ( ) ( )[ ]( )
( ) ( )[ ]( ) ( ) ( )[ ]( )
( ) ( )[ ]( ) ( ) ( )[ ]( )⎭⎬⎫+++
++++
++++
++
++
++
++
++
++Δ
−=Δ +
3,33,3
2,22,2
1,11,1
3,33,
3,33,
2,22,
2,22,
1,11,
1,11,1
21
21
21
21
21
21
,0min,0max
,0min,0max
,0min,0max
,0min,0max
,0min,0max
,0min,0max
iyvivixviv
iyvivixviv
iyvivixviv
iyeiyie
ixeixie
iyeiyie
ixeixie
iyeiyie
ixeixiei
ni
SFFSEE
SFFSEE
SFFSEE
SFSF
SFSE
SFSF
SFSE
SFSF
SESEV
tQ
(13.24)
[ ]111
21 +++ Δ++= n
in
ini
ni QQQQ (13.25)
13.7 – Interpolação Upwind de Primeira Ordem Na interpolação upwind de primeira ordem, o vetor de fluxo invíscido é calculado na interface entre dois volumes adjacentes tomando-se o valor do vetor de fluxo de um dos volumes de acordo com a direção do vetor velocidade do escoamento. Por exemplo, se quisermos obter o vetor de fluxo invíscido na face 1 do volume 3, mostrado na Fig. 13.1, atribuiremos a este o vetor de fluxo do volume 3 ou 4 dependendo da direção do vetor velocidade, conforme a Eq. (13.26).
( ) ( )
( )⎩⎨⎧
<⋅>⋅
=0,0,
4
31,3 nVE
nVEE
e
ee rr
rr
(13.26) onde n é o vetor normal à face 1 do volume 3. 13.7 – Malha Deformável Para o estudo de corpos em movimento, é necessário deslocar os pontos da malha. No caso, de malhas não estruturadas podemos imaginar que os pontos da malha encontram-se conectados por molas. Quando os pontos que definem o corpo se movimentam, os pontos da malha se deformam segundo a constante elástica das molas que unem os pontos, com os pontos da fronteira externa fixos. A Fig. (13.3) mostra dois triângulos adjacentes com molas unindo os pontos que definem os triângulos. A Eq. (13.27) mostra uma
130
definição das constantes das molas comumente utilizada. Na Eq. (13.28), L é a distância inicial entre os pontos da malha e θ é o ângulo oposto.
Figura 13.3 – Pontos de uma Malha Triangular Unidos por Molas
(13.27) ASji KKK +=,
onde
LKA
jiS
sinsinK
LK
θθ 22
,
11
1
+=
=
(13.28)
Quando os pontos que definem o corpo se movem, a nova posição dos pontos da malha é determinada por equilíbrio de forças, conforme a Eq. (13.29). A posição final do ponto i é determinada por equilíbrio de forças devidas as molas que conectam o ponto aos seus pontos vizinhos. Na Fig. (13.4), o ponto i é conectado por molas a quatro pontos vizinhos, j=1, 2, 3, 4.
(13.29) ∑
=
=4
1, 0
jjiF
ronde
jijiji rkF ,,,rr
Δ= (13.30)
oji
fjiji rrr ,,, −=Δ
r (13.31)
( ) ( ) jyyixxr ijijjiˆˆ
, −+−=r (13.32)
131
Figura 13.4 – Equilíbrio de Forças Agindo num Ponto da Malha
A posição final dos pontos da malha é determinada iterativamente seguindo-se os seguintes passos: • Calculam-se todos os o
jir ,r , conforme a Eq. (13.33);
• Calculam-se todos os , conforme a Eq. (13.34); Sjik ,
• Calculam-se todos os , conforme a Eq. (13.35); Ajik ,
• Calcula-se iterativamente a posição de cada ponto, conforme a Eq. (13.36), que foi obtida a partir da Eq. (13.29).
(13.33)
(13.34)
(13.35)
( ) ( ) jyyixxr oi
oj
oi
oj
oji
ˆˆ, −+−=r
oji
Sji r
k,
,1r=
( ) ( )Lji
Kji
Aji sinsin
k,
2,
2,11θθ
+=
( )
( )
∑
∑
∑
∑
=
=
=
=
Δ−=
Δ−=
N
jji
N
j
oji
fjji
fi
N
jji
N
j
oji
fjji
fi
k
yyky
k
xxkx
1,
1,,
1,
1,,
(13.36)
132
onde
( )( )
Aji
Sjiji
oi
oj
oji
oi
oj
oji
kkk
yyy
xxx
,,,
,
,
+=
−=Δ
=Δ −
(13.37)
14.0 – EQUAÇÃO GOVERNANTE COM MODELO DE TURBULÊNCIA
No primeiro capítulo deste livro, apresentamos as equações de Reynolds e observamos que as Eqs. (1.5) eram parecidas às equações de Navier-Stokes (1.2) exceto pelos termos conhecidos como tensões de Reynolds. Salientamos que as equações de Reynolds possuem mais incógnitas do que equações. Temos seis tensões de Reynolds distintas, a pressão média e as três componentes médias de velocidade, somando um total de dez incógnitas e somente quatro equações no caso tridimensional. Dissemos também que esta disparidade entre o número de incógnitas e o número de equações é conhecida como o problema do fechamento. Esta dificuldade pode ser contornada usando-se a hipótese de Boussinesq da viscosidade efetiva, onde a viscosidade efetiva é a soma da viscosidade laminar (molecular) e a viscosidade turbulenta. A viscosidade turbulenta é obtida usando-se modelos de turbulência, que serão discutidos no presente capítulo.
A Fig. (14.1) ilustra um perfil de velocidade típico de uma camada limite turbulenta.
Podemos identificar que a camada limite turbulenta é dividida em duas camadas, a camada interna e a camada externa. Na camada externa, os eventos dinâmicos que produzem as tensões de Reynolds são não-viscosos e as tensões viscosas são desprezíveis. Na camada interna, as tensões de Reynolds e as tensões viscosas são igualmente importantes. A camada interna é subdividida em subcamada viscosa, região de amortecimento e região logarítmica. A região externa é subdividida em região de esteira e região logarítmica. Na região logarítmica a camada interna e a camada externa se superpõem e existe uma solução analítica para o perfil de velocidade. Millican (1938) e Isakson (1937) foram os primeiros a obter a lei logarítmica usando o argumento de superposição entre a camada interna e a camada externa. Na subcamada viscosa, o escoamento é totalmente laminar e existe uma solução analítica para o perfil de velocidade. Na região logarítmica o escoamento é totalmente dominado pela turbulência e a viscosidade laminar desempenha um papel secundário. Na região de amortecimento entre a subcamada viscosa e a região logarítmica, a viscosidade laminar e as tensões de Reynolds são igualmente importantes.
133
Figura 14.1 – Perfil de Velocidade Típico de uma Camada Limite Turbulenta
14.1 – Equação de Navier-Stokes com Modelo de turbulência
Vamos tomar como exemplo a equação de Navier-Stokes para escoamentos levemente compressíveis. Fazendo o procedimento de obtenção da equação média discutido no Cap. 2 e usando a hipótese de Boussinesq, resulta a seguinte equação com modelo de turbulência implementado na forma adimensional.
( ) ( ) HFFeEEQ yvxvet =−+−+ (14.1)
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪
(14.2)
⎪⎨
⎩
⎪⎪⎪⎧
=
srvup
Q
134
(14.3)
( )
( )
⎪⎪⎪⎪⎪⎪
⎭
⎪⎪⎪⎪⎪⎪
⎬
⎫
⎪⎪⎪⎪⎪⎪
⎩
⎪⎪⎪⎪⎪⎪
⎨
⎧
⎟⎟⎠
⎞⎜⎜⎝
⎛+
⎟⎟⎠
⎞⎜⎜⎝
⎛+
+⎟⎟⎠
⎞⎜⎜⎝
⎛+
⎟⎟⎠
⎞⎜⎜⎝
⎛+
=
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
++=
xs
t
L
xr
t
L
yxtL
xtL
ve
sR
rR
uvR
uR
E
usuruv
kpu
pu
E
Pr1
Pr1
1
210
,322
μ
μ
μ
μ
( )
( )
⎪⎪⎪⎪⎪⎪
⎭
⎪⎪⎪⎪⎪⎪
⎬
⎫
⎪⎪⎪⎪⎪⎪
⎩
⎪⎪⎪⎪⎪⎪
⎨
⎧
⎟⎟⎠
⎞⎜⎜⎝
⎛+
⎟⎟⎠
⎞⎜⎜⎝
⎛+
⎟⎟⎠
⎞⎜⎜⎝
⎛+
+⎟⎟⎠
⎞⎜⎜⎝
⎛+
=
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
++=
ys
t
L
yr
t
L
ytL
xytL
ve
sR
rR
vR
vuR
F
vsvr
kpvuvpv
F
Pr1
Pr1
21
10
,322
μ
μ
μ
μ
(14.4)
⎪⎪⎪
⎭
⎪⎪⎪
⎬
⎫
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
=
s
r
HH
H 000
(14.5)
No caso de um modelo algébrico,
0
0==
==
sr HHsr
(14.6)
No caso de um modelo de uma equação,
00
0
=≠
==
s
r
HKsr k
(14.7)
135
No caso de um modelo de duas equações,
00
≠≠
==
ε
ε
HHs
kr
k
(14.8)
14.2 – Modelo k -ε
Para o modelo k - ε adimensionalizado, os termos do vetor H são apresentados nas Eqs. (14.9).
2
2
2
121
2
fk
fCPk
CH
kR
PH
k
ekk
−−=
−−=
εε
ηε
εεε
(14.9)
onde
(14.10)
2 2 22 2 22 23 3k t
u v u v u v uP k
vx y y x x y x
μ⎡ ⎤⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞∂ ∂ ∂ ∂ ∂ ∂ ∂⎛ ⎞= + + + − + −⎢ ⎥⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟⎜ ⎟∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂⎝ ⎠⎢ ⎥⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠⎣ ⎦ y
∂+
2/
222 +−= η
ηε e
Rf
e(14.11)
(14.12) ( )26/
1 22.1 etRef −−=
(14.13)
ε
2kRR eet =
Conhecendo-se a energia cinética turbulenta (k) e a dissipação de energia (ε), a viscosidade turbulenta é obtida pela Eq. (14.14).
ε
μ μμ
2kfCt = (14.14) onde
(14.15) +−−= ημ
115.01 ef
w
w
w ρτ
υηη =+ (14.16)
136
1 20.09, 1.44, 1.92, 1.0, 1.3, 0.9rk r rtC C C P P Pμ ε ε ε= = = = = = (14.17)
onde η é a distância normal à superfície do corpo. 14.3 – Modelo de Baldwin – Lomax
O modelo de Baldwin – Lomas é um modelo de turbulência algébrico de duas camadas, que leva em consideração a camada interna e a camada externa da camada limite turbulenta, conforme ilustra a Fig. (14.1). A Eq. (14.18) mostra que no modelo de Baldwin – Lomax são utilizadas duas expressões para o cálculo da viscosidade turbulenta. Temos uma expressão para a região interna e outra para a região externa. O limite entre a região interna e a externa é definido pelo ponto de interseção entre as duas curvas, conforme mostra a Fig. (14.2).
( )( )⎩
⎨⎧
>≤
=crossoveroutt
crossoverintt ηημ
ηημμ
,,
(14.18)
Figura 14.2 – Modelo Algébrico de Duas Camadas
A formulação interna é uma combinação do modelo de Prandtl e a função de amortecimento de van Driest, conforme mostra a Eq. (14.19).
(14.19) ( ) ωρμ 2Linnert =
onde
(14.20) 222
⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
+⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
−∂∂
+⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
−∂∂
=xw
zu
zv
yw
yu
xvω
⎥⎤
⎢⎡
⎟⎟⎠
⎞⎜⎜⎝
⎛−−= +
+
AkL ηη exp1
⎦⎣
137
(14.21)
ww
w
τρμηη =+
(14.22)
264,0
=
=+A
k(14.23)
A formulação externa é apresentada na Eq. (13.24).
( ) klebwakecpoutert FFkC ρμ = (14.24)
onde
⎪⎩
⎪⎨⎧
=
max
2max
maxmax
minF
UCF
F dfwkwake ηη
(14.25)
( ) ⎥
⎦
⎤⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛−−= +
+
AF ηωηη exp1 (14.26)
A função F é mostrada na Fig. (13.3), onde η é a distância entre um ponto do escoamento e a superfície do corpo.
Figura 14.3– Distância Normal à Superfície do Corpo onde a Função F é Máxima.
( ) ( )min222
max2222 wvuwvuUdf ++−++= (14.27)
( )16
max
5,51
−
⎥⎥⎦
⎤
⎢⎢⎣
⎡⎟⎟⎠
⎞⎜⎜⎝
⎛+==
ηηη kleb
klebklebCFF (14.28)
25.0
0168,0=
=
klebCwkC
k(14.29)
3,0=
138
15. IMPLEMENTAÇÃO DE CONDIÇÃO DE CONTORNO COM EQUAÇÕES CARACTERÍSTICAS Nesta seção, vamos discutir a implementação de condições de contorno utilizando-se equações características. As equações características permitem a implementação de condições de contorno nas seções de entrada e saída, considerando-se o sentido das velocidades características. Desta forma, saberemos quais as propriedades que serão extrapoladas do interior do escoamento para as seções de entrada e saída e quais as propriedades que serão especificadas. 15.1 – Equações de Euler não-conservativas e relações características As equações de Euler unidimensionais em coordenadas cartesianas são mostradas abaixo na Eq. (15.1).
(15.1) 0=
∂∂
+∂∂
xE
tQ e
onde
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
euQ ρ
ρ
(15.2)
( ) ⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++=
upepu
uEe
2ρρ
(15.3)
( ) iep ργ 1−= (15.4)
2
21 uee i ρ+= (15.5)
(15.6) ργ pa =2
Escrevendo a Eq. (15.1) na forma não conservativa, resulta a Eq. (15.7).
0=
∂∂
+∂∂
xVA
tV
(15.6) onde
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
puVρ
(15.7a)
139
(15.7b)
γ
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
upu
uA ρ
ρ
0/100
Resolvendo o problema de autovalor e autovetor mostrado na Eq. (15.8), obtemos os autovalores e autovetores associados a matriz A, mostrados na Eq. (15.9) e Eq. (15.10), respectivamente.
( ) 0det =− IA λ (15.8)
auau
u
−=+=
=
3
2
1
λλλ
(15.9)
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
−=⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
=⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
2/12/1
2/1,
2/12/12/1
,001 2
3
2
21 aa
Xaa
XX ρρrrr
(15.10)
Podemos definir a matriz X cujas colunas são os autovetores associados à matriz A, conforme mostra a Eq. (15.11). A Eq. (15.12) apresenta a matriz inversa da matriz X.
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−=2/12/102/12/10
2/12/11 22
aaaa
X ρρ (15.11)
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−
−=−
1010/101 2
1
aa
aX
ρρ (15.12)
Pré-multiplicando a Eq. (15.6) por X-1, obtemos o sistema desacoplado mostrado na Eq. (15.13).
0111 =∂∂
+∂∂ −−−
xVAXXX
tVX (15.13a)
0=
∂∂
Λ+∂
∂x
Wt
W(15.13b)
140
onde
(15.14)
VXW 1−=
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−+=Λ
auau
u
000000
(15.15)
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
3
2
1
www
W (15.16)
Definindo uma derivada do tipo mostrada na Eq. (15.17).
xt i
i ∂∂
+∂∂
=∂∂ λζ (15.17)
As Eq. (15.13) podem ser escritas da seguinte forma mostrada na Eq. (15.18).
0
0
0
3
2
1
=∂∂
=∂∂
∂
(15.18) Substituindo a Eq. (15.14) na Eq. (15.18), resultam as Eq. (15.19).
(15.19)
=∂
−
+
ζ
ζ
ζ
w
w
wo
0
0
012
=∂∂
−∂∂
=∂∂
+∂∂
=∂∂
−∂∂
−−
++
ζρ
ζ
ζρ
ζ
ζζρ
uap
uap
pa oo
141
onde
( )
( )x
aut
xau
t
xu
to
∂∂
−+∂∂
=∂
∂∂∂
++∂∂
=∂
∂∂∂
+∂∂
=∂
∂
−
+
ζ
ζ
ζ
(15.20)
A Fig. (15.1) mostra as direções das velocidades características no caso subsônico e supersônico no espaço unidimensional.
Figura 15.1 – Direção das Velocidades Características
Substituindo a Eq. (15.20) na Eq. (15.19), resultam as relações características unidimensionais associadas às equações de Euler apresentadas na Eq. (15.1).
( )
( ) 0
0
01122
=⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−+∂∂
−∂∂
=⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
++∂∂
+∂∂
=⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
+∂∂
−∂∂
xua
xpau
tua
tp
xua
xpau
tua
tp
xp
axu
tp
at
ρρ
ρρ
ρ ρ
(15.21)
142
15.2 – Equações de Euler bidimensionais não-conservativas e relações características As equações de Euler bidimensionais em coordenadas cartesianas são mostradas abaixo na Eq. (15.22).
0=
∂∂∂
+∂∂
+ (15.22) ∂ yF
xE
tQ ee
onde
(15.23)
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
evu
Qρρρ
( ) ⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+
+=
upeuv
puu
Ee ρρ
ρ2
(15.24)
( ) ⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
++
=
vpepv
uvv
Fe 2ρρρ
(15.25)
Passando para a forma não conservativa, obtemos a Eq. (15.26).
0~~
=∂∂
(15.26)
onde
(15.27)
(15.28)
+∂∂
+∂ y
VBxVA
tV∂
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
=
pvu
V
ρ
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=
upu
uu
A
00000/10000
~
γ
ρρ
143
(15.29)
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
=
vpv
vv
B
γρ
ρ
00/10000000
~
Se calcularmos os autovalores e os autovetores das matrizes A e B podemos montar as matrizes diagonais dos autovalores e as matrizes dos autovetores mostradas nas Eq. (15.30), (15.31), (15.32) e (15.33).
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
−+
=Λ
auau
uu
A
000000000000
(15.30)
⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢
⎣
⎡
−+
=Λ
avav
vv
B
000000000000
(15.31)
2
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
−=
2/12/10000102/12/100
2/1/101 22
aaaa
X Aρρ (15.32)
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
−
−
=−
1001000100/1001 2
1
aa
a
X B
ρρ
(15.33)
Quando utilizamos as relações características para satisfazer condições de contorno em escoamentos bidimensionais, utilizamos as relações características unidimensionais. Estas equações são obtidas quando desprezamos uma das derivadas espaciais na Eq. (15.26).
144
0~
≅∂ (15.34)
Pré-multiplicando a Eq. (15.34) pela matriz X-1, obtemos o sistema desacoplado mostrado na Eq. (15.35).
0111 =∂∂
+∂∂ −−−
xVAXXX
tVX
ou
(15.35)
Escrevendo o sistema desacoplado na forma escalar, obtemos as relações características unidimensionais para escoamentos bidimensionais, mostradas nas Eqs.(15.36).
(15.36)
A Fig. 15.2 ilustra as direções de propagação das informações no caso subsônico e supersônico de acordo com as relações características.
∂+
∂∂
xVA
tV
011 =∂∂
Λ+∂∂ −−
xV
tVX A X
( )
( ) ⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−−=∂∂
−∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
+−=∂∂
+∂∂
∂∂
−=∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−=∂∂
−∂∂
xua
xpau
tua
tp
xua
xpau
tua
tp
xvu
tv
xp
axu
tp
at
ρρ
ρρ
ρρ22
11
145
Figura 15.2 – Direção de Propagação de Informação
Relações características unidimensionais para escoamentos bidimensionais também podem ser obtidas de forma análoga para a direção y, conforme mostra a Eq. (15.37).
(15.37)
( )
( ) ⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
−∂∂
−−=∂∂
−∂∂
⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
+−=∂∂
+∂∂
∂∂
−=∂∂
⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
−∂∂
−=∂∂
−∂∂
yva
ypav
tva
tp
yva
ypav
tva
tp
yuv
tu
yp
ayv
tp
at
ρρ
ρρ
ρρ22
11
15.3 – Relações Características em Coordenadas Curvilíneas Gerais
Pode-se estender o que foi visto neste capítulo para coordenadas curvilíneas gerais em três dimensões. A equação de Euler em coordenadas curvilíneas gerais e em três dimensões é mostrada na Eq. (15.38).
0=
∂∂
+∂∂
+∂∂
+∂∂
ζηξτeee GFEQ
(15.38)
Os autovalores associados às matrizes Jacobianas de fluxo A, B e C podem ser escritos como mostra a Eq. (15.39).
(15.39) WkVkUkk zyxt +++=== 321 λλλ
onde U, V e W são as velocidades contravariantes e k pode ser ξ, η ou ζ dependendo se os autovalores estão associados às matrizes Jacobianas de fluxo A, B ou C, respectivamente.
22215
22214
zyx
zyx
kkka
kkka
++−=
+++=
λλ
λλ(15.40)
146
As relações características unidimensionais para escoamentos tridimensionais em coordenadas curvilíneas gerais são mostradas na Eq.(15.41).
( )
( ) ⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
−∂∂
−−=⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
−∂∂
⎥⎦
⎤⎢⎣
⎡⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
+∂∂
+−=⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
+∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−=∂∂
−∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−=∂∂
−∂∂
kvk
kuka
kpkaUvkukap
kvk
kuka
kpkaUvkukap
kvk
kukUvkuk
kp
akUp
a
yxkyx
yxkyx
xykxy
k
~~~~
~~~~
~~~~
1122
ρττ
ρτ
ρττ
ρτ
ττ
ρττ
ρ
(15.41)
onde
22
~
~
yx
yy
xx
kkk
kk
k
kkk
+=
=
=
(15.42) 15.4 – Exemplo de Implementação de Condições de Contorno Para exemplificar, vamos utilizar as relações características para implementar as condições de contorno na fronteira de saída de uma malha computacional Cartesiana para a simulação de um escoamento subsônico. As relações características unidimensionais em coordenadas Cartesianas na direção x são mostradas na Eq. (15.43).
(15.43)
( )
( ) ⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−−=∂∂
−∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
+∂∂
+−=∂∂
+∂∂
∂∂
−=∂∂
⎟⎠⎞
⎜⎝⎛
∂∂
−∂∂
−=∂∂
−∂∂
xua
xpau
tua
tp
xua
xpau
tua
tp
xvu
tv
xp
axu
tp
at
ρρ
ρρ
ρρ22
11
147
Observando as Eqs. (15.43), podemos concluir que existem três velocidades características positivas e uma negativa para o caso de escoamentos subsônicos. Isto indica que somente podemos fixar uma propriedade do escoamento na fronteira de saída e as outras três propriedades deverão ser obtidas por extrapolação das propriedades no interior da malha computacional. Em geral, fixamos a pressão e extrapolamos as outras propriedades utilizando as relações características. Então, precisamos de três relações características para extrapolar as duas componentes de velocidade e a densidade, as relações características na forma discretizada são mostradas nas Eqs. (15.44).
(15.44)
( )
( )
( )[ ] 31,1,
1,1
1,1
1,1,
3
3,
1,1
1,1,
21,1,
1
1,
11,1,
2
1,1
1,1,
1
1,
2
1,1
,1
1
1
11
1
Ruuappuap
Rvvv
Rppa
pa
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njIn
jI
njI
njI
njIn
jI
njI
=−+−+
−=+
=−+
−=
=⎥⎥
⎦
⎤
⎢⎢
⎣
⎡−⎟
⎟⎠
⎞⎜⎜⎝
⎛−−
+−=⎟
⎟⎠
⎞⎜⎜⎝
⎛−
+−
+−
+−
+−
+−
+−
+−
+−+
−
+−+
−−
ρλ
λδρδ
λλδ
ρρλ
λδδρ
onde
( )jIjI
njI
njI
jIjI
njI
xxtau
xxtu
,1,
1,1
1,1
3
,1,
1,1
1
−
+−
+−
−
+−
−
Δ+=
−
Δ=
λ
λ (15.45)
Resolvendo o sistema mostrado na Eq. (15.44), podemos atualizar as propriedades do escoamento na fronteira de saída, conforme mostra a Eq. (15.46).
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
njI
vvv
uuu
ppp
,,1
,
,,1
,
,,1
,
,,1
,
δ
δ
δρρρ
δ
+=
+=
+=
+=
+
+
+
+
(15.46)
onde
2,
1,1
1,1
3,
1,
, 0
Rv
aRu
R
p
njI
njI
njI
njI
njI
njI
=
=
=
=
+−
+−
δ
ρδ
δρ
δ
(15.47)
148
16. SEPARAÇÃO DE VETOR DE FLUXO Neste capítulo, vamos apresentar a implementação de esquemas upwind com separação de vetor de fluxo às equações de Navier-Stokes compressíveis. Estas equações possuem uma propriedade que os vetores de fluxo são funções homogêneas de grau um do vetor de variáveis conservadas. Isto permite a implementação de esquemas upwind com separação de vetor de fluxo na forma conservativa das equações. Na nossa análise, vamos utilizar o método implícito de Euler para a integração das equações governantes, conforme mostra a Eq. (16.1).
( )tOtQtQQ
nnn Δ+⎟
⎠⎞
∂∂
Δ+=+
+1
1 (16.1)
Substituindo a equação governante na Eq. (16.1) para eliminar a derivada temporal do vetor de variáveis conservadas, resulta a Eq. (16.2).
( )111 +++ +Δ−= nnnn FEtQQ ηξ (16.2) onde
111
111 ,+++
+++
−=
−=n
vn
en
nv
ne
n
FFFEEE (16.3)
Os vetores de fluxo na Eq. (16.2) são avaliados no tempo n+1, onde não conhecemos as propriedades do escoamento. Para contornar esta dificuldade, fazemos uma linearização de Newton, conforme mostra a Eq. (16.4).
L
L
+Δ⎟⎟⎠
⎞
∂∂
+Δ⎟⎟⎠
⎞∂∂
+=
+Δ⎟⎟⎠
⎞
∂∂
+Δ⎟⎟⎠
⎞∂∂
+=
+
+
ηη
ξξ
QQFQ
QFFF
QQEQ
QEEE
n
vn
enn
n
vn
enn
1
1
(16.4)
Substituindo a Eq. (16.4) na Eq. (16.2), resulta a Eq. (16.5), onde passamos para o lado esquerdo todos os termos em ΔQ.
( )nnnnnnn
FEtQMBt
MAtI ηξηξ
ηηξξ+Δ−=Δ
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
⎟⎟⎠
⎞⎜⎜⎝
⎛
∂∂
−∂∂
Δ+⎟⎟⎠
⎞⎜⎜⎝
⎛
∂∂
−∂∂
Δ+ (16.5)
149
onde
n
vn
n
vn
nen
nen
QFM
QEM
QFB
QEA
⎟⎟⎠
⎞
∂∂
=⎟⎟⎠
⎞
∂∂
=
⎟⎟⎠
⎞∂∂
=⎟⎟⎠
⎞∂∂
=
ηη
ξξ ,
,
(16.6)
Utilizando o fato de que o vetor de fluxo não-viscoso é uma função homogênea de grau um do vetor de variáveis conservadas Q, Steger e Warming (1981), podemos separar o vetor de fluxo não-viscoso num conjunto de vetores de fluxo associados com velocidades características específicas. A Eq. (16.7) mostra a separação do vetor de fluxo E em dois subvetores E+ e E- de modo que o primeiro é associado com velocidades características positivas e o último com velocidades características negativas.
−+ += eee EEE (16.7)
Como conseqüência dos vetores de fluxo serem funções homogêneas do vetor de
variáveis conservadas, podemos expressar o vetor de fluxo como o produto da matriz jacobiana de fluxo e o vetor de variáveis conservadas, conforme a Eq. (16.8).
(16.8) QTTAQEe
1−Λ==
A matriz T é formada pelos autovetores da matriz A e Λ é a matriz diagonal cujos elementos são os autovalores da matriz A. Os autovalores da Matriz A das equações de Navier-Stokes compressíveis são mostrados na Eq. (16.9).
yx
yx
au
au
uu
ξξλ
ξξλ
λλ
+−=
++=
==
4
3
2
1
(16.9)
Podemos escrever os autovalores mostrados na Eq. (16.9) de uma forma conveniente para o nosso estudo de esquemas upwind com separação de vetor de fluxo, conforme mostra a Eq. (16.10).
(16.10) −+ += iii λλλonde
150
2,
2ii
iii
i
λλλ
λλλ
−=
+= −+ (16.11)
De acordo com a Eq. (16.10), podemos separar a matriz diagonal Λ da forma mostrada na Eq. (16.12), onde Λ+ e Λ- são matrizes diagonais com elementos λ+
i e λ-i,
respectivamente. A Eq. (16.8) pode ser reescrita como mostra a Eq. (16.13).
(16.12) −+ Λ+Λ=Λ
( ) ( ) −+−+−−+ +=+=Λ+Λ= eee EEQAAQTTE 1 (16.13) onde , 11
,, QAEQAE −−++ ==
TTATTA
ee
−−−−++ Λ=Λ= (16.14)
−+
−+
+=
+=
eee EEEAAA ,
(16.15)
Podemos substituir a Eq. (16.15) na Eq. (16.5) e aproximarmos as derivadas
espaciais utilizando diferenças “backward” ou “forward” respeitando o sentido das velocidades características, conforme mostra a Eq. (16.16).
( ) ( ){ }( )n
vvef
eb
ef
eb
nnn
FEFFEEt
QMBBtMAAtI
ηξηηξξ
ηηηξξξξ
δδδδδδ
δδ
−−+++Δ−
=Δ−Δ+∇Δ+−Δ+∇Δ+−+−+
−+−+ (16.16)
Os símbolos Δ e ∇ são aproximações forward e backward de primeira ordem e os símbolos δb e δf são aproximações backward e forward de segunda ordem, conforme mostra a Eq. (16.17).
( ) ( ) ( )( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( )( ) ( ) ( ) ( ) jijiji
jijijif
jijijib
jiji
jiji
,1,,1
,2,1,
,2,1,
,,1
,1,
2
5.025.1
5.025.1
−+
++
−−
+
−
+−=
−+−=
+−=
−=Δ
−=∇
ξ
ξ
ξ
ξ
ξ
δ
δ
δ
(16.17)
151
A Eq. (16.16) representa um sistema pentadiagonal de bloco. Os métodos numéricos existentes para resolver este tipo de sistema não são muito eficientes em termos de tempo de processamento. Para melhorar a eficiência do esquema iterativo, fazemos uma fatoração aproximada na Eq. (16.16), conforme mostra a Eq. (16.18). Maiores detalhes sobre fatoração aproximada podem ser encontrados em Beam e Warming (1978). ( ){ } ( )
( ){ } nnnn
nnn
fQMBBtI
RHSfMAAtI
=Δ−Δ+∇Δ+
=−Δ+∇Δ+−+
−+
ηηη
ξξξξ
δ
δ (16.18) onde
( ) ( )nvve
fe
be
fe
bn FEFFEEtRHS ηξηηξξ δδδδδδ −−+++Δ−= −+−+ (16.19)
A primeira equação mostrada na Eq. (16.18) é resolvida para cada linha η=const., marchando na direção η. Após obter o valor de fn em todos os pontos interiores da malha computacional, resolvemos a segunda equação da Eq. (16.18) para cada linha ξ=const., marchando na direção ξ. Em cada passo do esquema de iteração, as matrizes tridiagonais de bloco resultantes são resolvidas utilizando-se o algoritmo de Thomas (Anderson, Tannehill and Pletcher, 1984).
152
17.0 Métodos de Alta Resolução para Equações Escalares. Neste capítulo, vamos discutir duas questões contraditórias em métodos numéricos, alta ordem de precisão e falta de oscilações espúrias na vizinhança de gradientes altos. Sabe-se que esquemas lineares de precisão alta produzem oscilações espúrias na vizinhança de gradientes altos. Por outro lado, os métodos monotônicos não produzem oscilações espúrias. Entretanto, métodos monotônicos são no máximo de primeira ordem de precisão e são, portanto, de uso limitado. Uma forma de resolver a contradição entre esquemas lineares de alta ordem de precisão e a ausência de oscilações espúrias é construir métodos não-lineares. Métodos de redução de variação total (TVD) formam uma classe proeminente de métodos não-lineares. Neste Capítulo, estaremos interessados em resolver a lei de conservação escalar mostrada na Eq. (17.1).
(17.1) 0)( =+ xt ufu
onde u=u(x,t) e f(u) é uma função escalar de fluxo. A Eq. (17.2) mostra um método conservativo explicito para resolver a lei de conservação escalar mostrada na Eq. (17.1). Neste método, a propriedade u é considerada constante no interior do elemento i, conforme mostra a Fig. 17.1.
(17.2) [ ]2/12/11
+−+ −
ΔΔ
+= iini
ni ff
xtuu
Figura 17.1 – Discretização do Espaço Unidimensional
153
17.1 – Esquemas Monotônicos Uma classe de métodos bem sucedidos para resolver uma lei de conservação escalar do tipo mostrado na Eq. (17.1) são os esquemas monotônicos. A seguir, apresentamos a definição de esquemas monotônicos. Definição 17.1 – Esquemas Monotônicos. Um esquema do tipo mostrado na Eq. (17.3) é dito monotônico se a função H satisfizer a condição dada na Eq. (17.4). Isto é, H é uma função não decrescente de cada um de seus argumentos.
⎟⎟⎠
⎞⎜⎜⎝
⎛= +−
+ nli
nli
ni RL
uuHu ,,1 L (17.3)
kuH
nk
∀≥∂∂ ,0 (17.4)
Teorema 17.2. Dado o conjunto de dados {un
i}, se o conjunto solução {un+1i} é obtido com
um método monotônico, então:
{ } { }{ } { }n
ii
nii
nii
nii
uu
uu
minmin
max1
1
≥
≤
+
+ max(17.5)
Teorema 17.3 – Monotonicidade e Fluxo. Um esquema de três pontos do tipo mostrado na Eq. (17.2) para a lei de conservação não-linear, Eq. (17.1), é monotônico se as duas condições apresentadas na Eq. (17.6) forem satisfeitas.
0),(
0),(
1
12/1
12/1
≤∂
∂
≥∂
∂
+
++
++
ni
ni
nii
ni
ni
nii
uuuf
uuf u
(17.6)
Teorema 17.4 – Positividade de Coeficientes. Um esquema do tipo mostrado na Eq. (17.7) para a equação da convecção linear é monotônico se e somente se todos os coeficientes bk forem não negativos, isto é bk≥0 ∀ k.
∑−=
++ =
kr
klk
nkik
ni ubu 1 (17.7)
Teorema 17.5 – Teorema de Godunov. Não existem esquemas monotônicos lineares de segunda ordem ou superior para a equação de convecção linear.
154
17.2 – Compatibilidade de dados Uma das primeiras tentativas de fornecer uma abordagem racional para contornar o teorema de Godunov foi feita por Roe. A idéia central é de construir algoritmos adaptativos que se ajustem à natureza local da solução. Isto resultou em esquemas de coeficientes variáveis (não-lineares), até mesmo quando aplicados à equações lineares. Definição 17.2 – Compatibilidade de dados. Um esquema é compatível com um dado conjunto de dados {un
i} se a solução dada pelo algoritmo un+1i em cada ponto i satisfizer a
condição dada na Eq. (17.8).
{ } { }n
in
sini
ni
nsi uuuuu ,max,min 1
−+
− ≤≤ (17.8)
onde
(17.9) )()( asigncsigns ==
Proposição 17.1 – Compatibilidade de Dados. A condição de compatibilidade de dados dada na Eq. (17.8) é equivalente à condição dada na Eq. (17.10).
(17.10)
10
1
≤−−
≤−
+
ni
nsi
ni
ni
uuuu
17.3 – Variação Total Dada uma função u=u(x), a variação total de u é definida como
( ) ( ) ( )dxxuxuSupuTV ∫
∞−→
−+= δδδ
1lim0
∞
(17.10)
Se a função u(x) for suave, a Eq. (17.10) é idêntica a
( ) ( )dxxuuTV ∫
∞
∞−
′= (17.11)
Além disso, se un ={uni} é uma função discretizada, então a variação total de un é definida
como
( ) ∑∞
−∞=+ −=
i
ni
ni
n uuuTV 1 (17.12)
Vamos considerar o resultado da Fig. 17.2, onde são mostrados resultados numéricos em t=1. Fica claro que nos resultados obtidos pelo método de Lax-Wendroff (a), a variação total da solução numérica é maior do que aquela da solução exata, soluções
155
altamente oscilatórias possuem alta variação total. Dos resultados numéricos mostrados, o obtido utilizando o método de Lax-Friedrichs (f) possui a menor variação total.
Figura 17.2 – Resultados Numéricos para Seis Esquemas Numéricos; Símbolos Denotam Solução Numérica e Linhas Denotam Solução Exata: (a) Lax-Wendroff; (b) Método não
Monotônico de Primeira Ordem; (c) Godunov Centrado de Primeira Ordem não Monotônico; (d) Godunov de Primeira Ordem upwind; (e) Centrado de Primeira Ordem
(FORCE); (f) Lax-Friedrichs
156
Uma propriedade fundamental da solução exata de um problema do valor inicial para a lei de conservação escalar e não-linear, Eq. (17.1), quando os dados iniciais possuem variação total limitada, é
i) Novos extremos em x não são criados; ii) O valor de um mínimo local aumenta e o valor de um máximo local diminui.
Disto, segue que a variação total TV(u(t)) é uma função decrescente do tempo, ou seja,
( )( ) ( )( ) 1212 tttuTVtuTV ≥∀≤ (17.13)
Esta propriedade da solução exata é a propriedade que queremos imitar quando projetamos métodos numéricos. 17.4 – TVD e Esquemas de Preservação de Monotonicidade Considere o esquema numérico da forma
( ),,,11 n
sin
rini uuHu ++−+ = K (17.14)
onde r e s são dois inteiros não negativos, para resolver a lei de conservação escalar (17.1). Motivados pela propriedade (17.13), introduzimos a seguinte definição Definição 17.3 – Esquemas TVD. O esquema (17.14) é dito ser de Diminuição de Variação Total (TVD) se
( ) ( ) nuTVuTV nn ∀≤+ ,1 (17.15)
Definição 17.4. Esquema da forma (17.14) para a lei de conservação escalar e não-linear (17.1) são ditos ser de preservação de monotonicidade se quando o conjunto {ui
n} for monotônico, a solução {ui
n+1} é monotônica no mesmo sentido. Um resultado importante que relaciona esquemas monotônicos, TVD e de preservação de monotonicidade para a lei de conservação escalar e não-linear (17.1) é dado pelo seguinte teorema. Teorema 17.6. Em geral, o conjunto Smon de esquemas monotônicos está contido no conjunto Stvd de esquemas TVD e este por sua vez está contido no conjunto Smpr de esquemas de preservação de monotonicidade, isto é
(17.16) mprtvdmon SSS ⊆⊆
157
Para esquemas lineares para resolver a equação de convecção linear, podemos provar que esquemas monotônicos são equivalentes a esquemas a esquemas de preservação de monotonicidade, como o seguinte teorema atesta. Teorema 17.7. Um esquema linear (17.7) quando aplicado à equação de convecção linear (17.1) é de preservação de monotonicidade se e somente se os coeficientes bk forem não-negativos, ou seja, bk≥0 ∀k. Lembrando que um esquema linear monotônico (17.7) para resolver a equação de convecção linear (17.1) é monotônico se e somente se bk≥0. Portanto, neste caso, esquemas monotônicos são equivalentes a esquemas de preservação de monotonicidade e por (17.16), eles são equivalentes também a esquemas TVD. A classe de métodos TVD é de grande utilidade, pois possui propriedades matemáticas precisas permitindo a demonstração da convergência. A condição TVD também permite a construção prática de métodos numéricos tendo a propriedade TVD. Considere a classe de esquemas não-lineares do tipo apresentado na Eq. (17.17).
(17.17) 2/12/12/12/11
++−−+ Δ+Δ−= iiii
ni
ni uDuCuu
onde
(17.18) ni
nii uuu −=Δ ++ 12/1
e os coeficientes Ci-1/2 e Di+1/2 são em geral funções dos dados. Pode-se demonstrar o seguinte teorema: Teorema 17.8. Para qualquer esquema da forma (17.17) resolver (17.1), a condição suficiente para o esquema ser TVD é que os coeficientes satisfaçam as condições mostradas na Eq. (17.19).
100;0
2/12/1
2/12/1
≤+≤≥≥
++
++
ii
ii
DCDC
(17.19)
Demonstração: Aplicar o esquema (17.17) para duas células consecutivas i e i+1. Obtemos o seguinte:
( ) ( )ni
nii
ni
nii
ni
ni uuDuuCuu −+−−= ++−−+
12/112/11 (17.20)
( ) ( )n
inii
ni
nii
ni
ni uuDuuCuu 122/312/11
11 ++++++++ −+−−= (17.21)
Subtraindo (17.20) de (17.21), resulta o seguinte:
( )( ) ( ) ( )ni
nii
ni
niiii
ni
ni
ni
ni uuDuuCDCuuuu 122/312/12/12/11
111 1 +++−−+++
+++ −+−+−−−=− (17.22)
158
Tomando o valor absoluto em ambos os lados da Eq. (17.22), obtemos:
ni
nii
ni
niiii
ni
ni
ni
ni
uuD
uuCDCuuuu
122/3
12/12/12/1111
1 1
+++
−−+++++
+
−+
+−+−−−≤−(17.23)
Aplicando as condições apresentadas na Eq. (17.19), resulta a Eq. (17.24).
(17.24)
ni
nii
ni
nii
ni
nii
ni
nii
ni
ni
ni
ni
uuDuuC
uuDuuCuuuu
122/312/1
12/112/1111
1
+++−−
+++++++
+
−+−+
+−−−−−≤−
Fazendo o somatório em i, obtemos a Eq. (17.25).
(17.25) ∑∑
∑∑
∑∑
+++−−
+++++++
+
−+−+
+−−−−−≤−
i
ni
nii
i
ni
nii
i
ni
nii
i
ni
nii
i
ni
ni
i
ni
ni
uuDuuC
uuDuuCuuuu
122/312/1
12/112/1111
1
Obviamente, o segundo e o terceiro somatório se cancelam. Da mesma forma, o quarto e o quinto somatório também se cancelam. O resultado final é mostrado na Eq. (17.26).
( ) ( )nn uTVuTV ≤+1 (17.26)
Os coeficientes C e D no Teorema 17.8 podem ser em geral dependentes dos dados. Portanto, o teorema aplica-se a esquemas não-lineares. Este fato pode ser usado para driblar o teorema de Godunov, que é somente aplicado a esquemas lineares. O Teorema 17.8 oferece uma ferramenta muito útil para a construção de esquemas de alta resolução. 17.5 – Métodos dos Limitadores de Fluxo Nesta seção, construímos métodos de diminuição da variação total (TVD) seguindo a abordagem de limitadores de fluxo. Na Seção 17.5.1, consideramos um método particular, a versão TVD do método do fluxo médio ponderado. Em seguida apresentamos a abordagem do limitador de fluxo geral aplicado a famílias de métodos numéricos. Na Seção 17.5.2, apresentamos métodos de limitadores de fluxo baseados em esquemas upwind. Na Seção 17.5.3, apresentamos métodos de limitadores defluxo para esquemas centrados.
159
17.5.1 – Versão TVD do Método do Fluxo Médio Ponderado (WAF) Considere o exemplo no qual o esquema conservativo (17.2) tem o fluxo numérico dado pela Eq. (17.27), que depende de um parâmetro livre α. Vários valores fixos de α reproduzem famílias de esquemas. Pode-se utilizar α considerando-o função de u e restrito a alguma condição TVD para construir esquemas de segunda ordem não-lineares e livres de oscilações espúrias.
( )( ) ( )( )ni
nii aucaucf 12/1 21
2121
21
++ −++= ααα
(17.27) onde
xtaCFLc
ΔΔ
== (17.28)
De fato, esta é a abordagem que seguiremos aqui para construir a versão TVD do esquema básico WAF utilizado para resolver a equação de convecção linear. Por conveniência, introduzimos um novo parâmetro φ e reescrevemos o fluxo WAF (17.27) da seguinte forma:
( )( ) ( )( )n
inii auauf 12/1 1
211
21
++ −++= φφ (17.29)
onde três escolhas particulares de φ podem ser:
(17.30)
( )( ) instávelnalmenteincondicioMétodo
upwindGodunovWendroffLax
asinal
asinalc −
⎪⎩
⎪⎨
⎧
−=φ
O objetivo é encontrar o campo de variação apropriado de φ em função de uma variável dependente dos dados ui
n que produza uma versão TVD do esquema básico WAF. Baseado nos casos extremos acima mencionados, podemos restringir φ de modo a satisfazer a seguinte condição:
(17.31) 11 ≤≤− φ
Outras escolhas para os limites de φ também são possíveis. Introduzindo uma notação apropriada para φ nas interfaces, o fluxo nas interfaces esquerda e direita de uma célula pode ser representado conforme a Eq. (17.32).
( )( ) ( )( )nii
niii auauf 12/12/12/1 1
211
21
++++ −++= φφ (17.32)
( )( ) ( )( )nii
niii auauf 2/112/12/1 1
211
21
−−−− −++= φφ (17.33)
160
Portanto, para cada interface i+1/2, procuramos um valor φi+1/2 que produz o fluxo WAF modificado conduzindo a um esquema TVD.
Aplicação da Compatibilidade de Dados. Em vez de utilizar o Teorema 17.8, vamos impor uma condição um pouco mais rigorosa incorporada na condição de compatibilidade de dados (17.10). Primeiramente, vamos assumir que a>0 na equação de convecção linear. Substituindo os fluxos (17.32) e (17.33) na formula conservativa, após uma pequena manipulação algébrica para obter a razão (17.10), obtemos o seguinte:
( ) ⎥
⎦
⎤⎢⎣
⎡++−=
−−
−++−
+
1112 2/12/1
2/11
1
iii
ni
ni
ni
ni
rc
uuuu φφ (17.34)
onde
ni
ni
ni
ni
i uuuur−−
=+
−+
1
12/1 (17.35)
A aplicação direta da condição (17.10) ao lado direito da Eq. (17.34) conduz à Eq. (17.36).
( )c
cr ii
i
−≤+−≤− −+
+
2111 2/12/12/1
φφ (17.36)
Para velocidade do som negativa, chega-se ao mesmo resultado (17.36), com o CFL substituído pelo seu valor absoluto e ri+1/2 definido como mostra a Eq. (17.37).
ni
ni
ni
ni
i uuuur
−−
=+
+++
1
122/1 (17.37)
Portanto, para velocidade do som positiva ou negativa na equação de convecção linear, a Eq. (17.36) toma a seguinte forma:
( )
cc
r iii
−≤+−≤− −+
+
2111 2/12/1
2/1
φφ (17.38)
com
⎪⎪⎩
⎪⎪⎨
⎧
<−−
>−−
=
+
++
+
−
+
0,
0,
1
12
1
1
2/1
auuuu
auu
uu
r
ni
ni
ni
ni
ni
ni
ni
ni
i (17.39)
Portanto, ri+1/2, Eq. (17.40), é sempre a razão da variação upwind, conforme mostra a Eq. (17.41), pela variação local, Eq. (17.42).
161
loc
upwrΔΔ
=+ 2/11 (17.40)
onde
⎩⎨⎧
<−>−
=Δ++
−
0,0,
12
1
auuauu
ni
ni
ni
ni
upw (17.41)
(17.42)
ni
niloc uu −=Δ +1
A razão ri+1/2 é agora considerada como um parâmetro do escoamento que fará com que o parâmetro φ se ajuste às condições locais dos dados. Até o momento, identificamos duas grandezas que podem ser consideradas como variáveis independentes da função φ, a saber |c| e o parâmetro do escoamento ri+1/2. Portanto, definimos
( )criii ,2/12/12/1 +++ = φφ (17.43)
Construção da Região TVD. O objetivo aqui é encontrar o intervalo de variação adequado de φi+1/2 em função de ri+1/2 e |c|. Para este fim, selecionamos duas desigualdades, uma para φi+1/2 e outra para φi-1/2 de modo que ambas sejam automaticamente satisfeitas em (17.38).
( ) ( )
cc
rL i
i
−≤−≤−− +
+
12111 2/1
2/1
φ (17.44)
(17.45) 12/1 ≤≤ −iL φ
O limite inferior L pertence ao intervalo [-1,|c|]. Isto permitirá alguma liberdade na seleção de quanto downwinding será permitido. Para L=-1, downwinding completo é permitido; para L=0, downwinding não é permitido. Note que adicionando (17.44) e (17.45), reproduzimos a Eq. (17.38). Vamos estudar a Eq. (17.44) em detalhe. Subscritos serão omitidos por conveniência. A desigualdade esquerda da Eq. (17.44) contém dois casos, que são considerados na Eq. (17.46) e na Eq. (17.47).
( ) ( )crrLr L ,110 φφ ≡++≤⇒> (17.46)
( ) ( )crrLr L ,110 φφ ≡++≥⇒< (17.47)
162
A desigualdade direita da Eq. (17.44) tem dois casos, que são considerados na Eq. (17.48) e Eq. (17.49).
( ) ( )crrc
cr R ,
1210 φφ ≡
−−≥⇒> (17.48)
( ) ( )crrc
cr R ,
1210 φφ ≡
−−≤⇒< (17.49)
Figura 17.3 – Região TVD para o Método WAF para um Valor Fixo de CFL A Fig. 17.3 mostra a região TVD obtida (zona escura) no plano r-φ que satisfaz que satisfaz as condições (17.44) e (17.45). Existe uma região TVD para r<0 e uma região TVD para r>0. A escolha do limite inferior L determina a região TVD esquerda; para L=-1 esta região converge para a linha φL(r,|c|)=1 (Godunov upwind de primeira ordem). Qualquer valor fixo da função limitadora φ(r,|c|) resulta num esquema com viscosidade numérica αφ.. Para |c|≤φ(r,|c|)≤1 esta viscosidade numérica é positiva e resulta no espalhamento da descontinuidade e no aparecimento de extremos. Para L≤φ(r,|c|)≤|c|, a viscosidade numérica é negativa e resulta na acentuação das descontinuidades. Obviamente, o caso φ(r,|c|)=|c| não adiciona nenhuma viscosidade numérica extra e corresponde ao método de Lax-Wendroff. A função limitadora φ=φ(r,|c|) pode ser construída dentro da região TVD e qualquer escolha produzirá um esquema livre de oscilações com fluxo (17.29); a única restrição é
163
( ) cc =,1φ (17.50)
Isto garante precisão de segunda ordem para valores de r próximos de 1, isto é, quando a variação upwind for comparável à variação local (na parte suave da solução). Construção de Função Limitadora WAF. Existe lugar para a imaginação ao construirmos funções φ(r,|c|). Aqui, apresentamos cinco funções limitadoras.
( ) ( )
⎪⎪⎪⎪
⎩
⎪⎪⎪⎪
⎨
⎧
−≥−
−≤≤
−−
≤
=
cc
rse
cc
rsec
rcrse
crua
11
10
121
01
,φ
(17.50)
( )( )
( )⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
≥−≤≤−−≤≤
≤≤−−≤
=
2122111
12/12/10121
01
,
rsecrserc
rsecrserc
rse
crsaφ (17.51)
( ) ( )⎪⎩
⎪⎨⎧
≥+
−−
≤= 0
112
1
01, rse
rrc
rsecrvlφ
(17.52)
(17.53)
( ) ( ) ( )⎪⎩
⎪⎨⎧
≥+
+−−
≤= 0
1112
1
01,
2 rser
rrcrse
crvaφ
( ) ( )
⎪⎩
⎪⎨
⎧
≥≤≤−−
≤=
11011
01,
rsecrserc
rsecrmaφ (17.54)
Cada um destas funções limitadoras do WAF acima corresponde aos bem conhecidos limitadores de fluxo ULTRABEE, SUPERBEE, VANLEER, VANALBADA e MINBEE, que serão estudados na Seção 17.5.2. Portanto, demos aos limitadores do WAF nomes análogos. A função φua(r,|c|) (ULTRAA) corresponde ao limitador de fluxo ULTRABEE; φsa(r,|c|) (SUPERA) corresponde ao limitador de fluxo SUPERBEE;
164
φvl(r,|c|) (VANLEER) corresponde ao limitador de fluxo VANLEER; φva(r,|c|) (VANALBADA) corresponde ao limitador de fluxo VANALBADA; φma(r,|c|) (MINA) corresponde ao limitador de fluxo MINBEE. A Fig. 17.4 ilustra a função limitadora SUPERA. Note que φua(r,|c|) não satisfaz a condição de segunda ordem dada na Eq. (17.50).
Figura 17.4 – Função Limitadora SUPERA do WAF
17.5.2 – Limitador de Fluxo Geral Uma abordagem bem estabelecida para construir esquemas TVD de alta precisão é o limitador de fluxo. Isto requer um fluxo de alta ordem de precisão associado a um esquema de precisão maior ou igual a segunda ordem e um fluxo de baixa ordem associado a um esquema de primeira ordem monotônico. Vamos apresentar a abordagem em termos da lei de conservação modelo (17.55), resolvida por (17.56).
( ) ( ) auufufu xt ==+ ;0 (17.55)
(17.56)
Então, definimos o fluxo TVD de alta ordem como mostra a Eq. (17.57).
(17.57)
onde φi+1/2 é uma função limitadora de fluxo ainda por ser determinada. Para preservar alguma generalidade, assumiremos que os fluxos de alta e baixa precisão são dados da seguinte forma:
(17.58)
[ ]2/12/11
+−+ −
ΔΔ
+= iini
ni ff
xtuu
[ ]LOi
HIii
LOi
TVDi ffff 2/12/12/12/12/1 +++++ −+= φ
⎭⎬⎫
+=+=
++
++ni
ni
HIi
ni
nio
LOi
auaufauauf
1102/1
112/1
ββαα
165
A escolha
( ) ( )ss −=+= 121;1
21
10 αα (17.59)
com s=sinal(a), reduz o fluxo de baixa ordem ao fluxo de Godunov upwind de primeira ordem. Para a escolha
( ) ( )212
0 141;1
41 c
cc
c−−=+= αα (17.60)
o fluxo de baixa ordem torna-se o fluxo do método FORCE. Para a escolha
( ) ( )cc
cc
−−=+= 121;1
21
10 αα (17.61)
produz o fluxo de Lax-Friedrichs. O extenso de dois pontos do fluxo de alta ordem significa que este fluxo está associado ao método de Lax-Wendroff, para o qual
( ) ( )cc −=+= 121;1
21
10 ββ (17.62)
Portanto, os coeficientes β0 e β1 para o fluxo de alta ordem são fixos, mas os coeficientes α0 e α1 para o fluxo de baixa ordem são gerais. Substituindo (17.58) em (17.57) resulta a Eq. (17.63).
( )[ ]( ) ( )[ ]( )nii
nii
TVDi auauf 12/11112/10002/1 ++++ −++−+= φαβαφαβα (17.63)
Substituindo (17.63) em (17.57) produz
(17.64) 2/12/1
1+−
+ Δ+Δ−= iini
ni uDuCuu
onde ( )[ ]
( )[ ]2/1111
2/1000
+
−
−+−=−+=
i
i
cDcC
φαβαφαβα (17.65)
ni
nii
ni
nii
uuu
uuu
−=Δ
−=Δ
++
−−
12/1
12/1(17.66)
Na próxima seção, especializamos a abordagem do limitador de fluxo para escolhas particulares dos esquemas de baixa e alta ordem de precisão.
166
17.5.3 – Esquema TVD upwind com Limitador de Fluxo Aqui, assumimos que o fluxo de baixa ordem corresponde ao esquema upwind de primeira ordem de Godunov e o fluxo de alta ordem correspondente ao esquema de Lax-Wendroff. A derivação do esquema TVD consiste em identificar a direção upwind. Os limitadores de fluxo são agora denotados por ψi+1/2(r). Primeiramente, assumimos que a>0 na equação da lei de conservação modelo (17.55). Então,
( )[ ]
( ) ( )cc
cDcC
c
i
i
−=+=
−=−+=
>==
+
−
121;1
21
110;0;1
10
2/11
2/10
10
ββ
ψβψβ
αα
(17.67)
Agora, reescrevemos (17.64) da seguinte forma:
(17.68) 2/1
1 ˆ−
+ Δ−= ini
ni uCuu
onde
(17.69) r
DCC −=ˆ
2/1
2/1
+
−
ΔΔ
=i
i
uur (17.70)
Aplicando a condição TVD (17.19) do teorema de Harten, obtemos a seguinte desigualdade:
( ) 11110 2/112/10 ≤⎥⎦⎤
⎢⎣⎡ +−+≤ +− r
c ii ψβψβ (17.71)
Agora, imporemos a restrição global, independente de r, sobre a função limitadora desejada, a saber:
(17.72) riTiB ∀∀≤≤ − ,,2/1 ψψψ
Esta restrição pode ser reescrita como segue:
( )[ ] ( )[ ] ( )[ ]BiT ccc ψβψβψβ 111111 02/100 −+≤−+≤−+ − (17.73)
Agora, consideramos a seguinte desigualdade:
(17.74) ( )[ ] ( )[ ]BiT c
rcc ψβψβψβ 111111 02/110 −+−≤≤−+− +
167
Note que (17.73) e (17.74), quando somados, reproduzem a condição TVD (17.71) identicamente. Como (17.73) é equivalente a (17.72), trabalharemos somente com a desigualdade (17.74) para encontrar a função limitadora ψi+1/2 na interface i+1/2. Analisando o lado esquerdo da desigualdade (17.74) conduz ao seguinte resultado:
( ( ) )( )⎩
⎨⎧
<≤>≥
+ 00
2/1 rserrser
rL
Li ψ
ψψ (17.75)
onde
( ) rr TL ⎟⎟
⎠
⎞⎜⎜⎝
⎛−=
1
1β
ψψ (17.76)
A análise da desigualdade direita da Eq. (17.74) produz a restrição (17.77).
( ( ) )( )⎩
⎨⎧
<≥>≤
+ 00
2/1 rserrser
rR
Ri ψ
ψψ (17.77)
onde
( ) ( ) r
ccr BR ⎥⎦
⎤⎢⎣
⎡ −+=
1
1β
ψψ (17.78)
Usando as restrições (17.72) junto com (17.75)-(17.78), podemos obter a região TVD para o limitador de fluxo ψi+1/2(r) para o caso a>0.
Antes disso, consideramos o caso a<0. Agora, a direção upwind está no lado direito da célula relevante. O esquema pode ser escrito da seguinte forma:
(17.79)
2/11 ˆ
++ Δ+= i
ni
ni uDuu
onde
2/1
2/1
ˆ
−
+
ΔΔ
=
−=
i
i
uur
rCDD
(17.80)
Agora, consideramos a posição i-1/2 como a posição local tal que r permanece a razão das variações upwind e local. A condição TVD (17.19) de Harten conduz ao resultado mostrado na Eq. (17.81).
( ) 11110 2/102/11 ≤⎥⎦⎤
⎢⎣⎡ +−+−≤ −+ r
c ii ψβψβ (17.81)
Agora impomos a restrição global, conforme mostra a Eq. (17.82).
168
(17.82) TiB ψψψ ≤≤ + 2/1
Seguindo os mesmos passos como no caso a>0, chega-se à condição mostrada na Eq. (17.83).
(17.83) ( )[ ] ( )[ ]BiT c
rcc ψβψβψβ 111111 12/101 −++≤−≤−+ −
para a função limitadora de fluxo ψi-1/2 na interface i-1/2. Note que ao substituirmos c pelo seu valor absoluto |c|, a condição (17.83) é equivalente à condição (17.74), com a devida interpretação da posição da interface local. Portanto, as condições (17.72) junto com (17.75)-(17.78) aplicam-se para ambos os casos a>0 e a<0, desde que, substituamos c por |c| e interpretemos corretamente a razão r. Portanto, a função limitadora na posição da interface genérica i+1/2, satisfaz as seguintes equações:
( ) TB r ψψψ ≤≤ (17.84)
( )( )⎩
⎨⎧
<≤>≥
00
rserrser
L
LB ψ
ψψ (17.85)
( ) ( )( )⎩
⎨⎧
<≥>≤
00
rserrser
rR
R
ψψ
ψ (17.86)
( ) r
cr TL ⎟
⎟⎠
⎞⎜⎜⎝
⎛
−−=
12ψψ (17.87)
( ) rc
r BR ⎟⎟⎠
⎞⎜⎜⎝
⎛+=
2ψψ (17.88)
⎪⎪⎩
⎪⎪⎨
⎧
<−−
>−−
=ΔΔ
=
+
++
+
−
0
0
1
12
1
1
aseuuuu
aseuu
uu
r
ni
ni
ni
ni
ni
ni
ni
ni
loc
upw (17.89)
A escolha dos limites inferior e superior ψB e ψT em (17.84) determina as funções ψL e ψR em (17.87) e (17.88) e conseqüentemente a região TVD. A Fig. 17.5 mostra a região TVD resultante para os limites definidos na Eq. (17.90).
169
cc TB −
≤−≥1
2;2 ψψ (17.90)
Figura 17.5 – Região TVD Geral (escura) para Esquemas de Limitadores de Fluxo Baseados no Método upwind de Primeira Ordem de Godunov e o Esquema de Lax-
Wendroff
Como na derivação da região TVD do método WAF, a escolha dos limites inferior e superior depende de qual esquema queremos reproduzir como esquemas limites. A escolha mostrada na Eq. (17.91) permite esquemas entre o upwind de primeira ordem de Godunov e o esquema downwind. Neste caso, a região TVD para r<0 converge para ψ(r)=0 (esquema upwind de primeira ordem de Godunov, r<0). A região TVD de Sweby é obtida se tomarmos os limites mostrados na Eq. (17.91) e substituirmos 2/|c| por 2 em ψR. Veja a Fig. 17.6.
0;,
122 =∀−
≤= BT cc
ψψ (17.91)
Figura 17.6 – Região TVD de Sweby
170
Cinco funções limitadoras de fluxo são apresentadas a seguir:
ULTRABEE (17.92) ( )
⎪⎪⎪⎪
⎩
⎪⎨ ≤≤
crserub 02⎪
⎪⎪⎧
−≥
−
−
≤
=
cc
rsec
cc
rse
r
112
1
00
ψ
SUPERBEE (17.93)
( ) ⎪⎨ ≤≤ 1211 rsesb
VANLEER (17.94)
VANALBADA (17.95)
MINBEE (17.96)
A Fig. 17.7 ilustra quatro destes limitadores de fluxo construídos utilizando a região TVD de Sweby: ULTRABEE, SUPERBEE, VANLEER e MINBEE.
⎪⎪⎪
⎩
⎪⎪⎧
≥≤≤
≤≤≤
=
2221
/2/102
00
rserser
rserrse
rψ
⎪⎩
⎪( ) ⎨ ≥ 02 rsevl
⎧
+
≤=
1
00
rr
rserψ
( ) ( )⎪⎩
⎪⎨⎧ ≤ 0r
≥++= 0
110
2 rserrr
servaψ
( ) ⎪⎨ ≤≤ 10 rsemb⎪⎩
⎧
≥
≤=
11
00
rser
rserψ
171
Figura 17.7 – Quatro Funções Limitadoras de Fluxo Construídas da Região TVD da Fig. 17.6: ULTRABEE, SUPERBEE, VANLEER e MINBEE
Estas são relacionadas às funções limitadoras do método WAF dadas em (17.50)-(17.54). Há de fato uma correspondência direta entre os limitadores de fluxo WAF e os limitadores de fluxo desta seção. Tal correspondência é dada na Eq. (17.97). Para qualquer função limitadora de fluxo convencional, existe uma função limitadora WAF correspondente e vice-versa.
( ) ( ) ( )rcr ψφ −−= 11 (17.97)
17.7.4 – Esquemas TVD Centrados com Limitadores de Fluxo Vamos seguir a abordagem do limitador de fluxo geral discutido na Seção 17.5.2. O fluxo de baixa ordem de precisão é assumido ser um fluxo centrado, com coeficientes gerais α0 e α1 em (17.58). O fluxo de alta ordem de precisão é ainda aquele associado ao método de Lax-Wendroff. Critério TVD para esquemas centrados. Condições TVD convenientes para construir esquemas TVD centrados são primeiro apresentados. Tais condições são uma generalização da clássica condição de compatibilidade de dados e a condição necessária do Teorema de Harten. Considerando o esquema (17.56) expresso como em (17.64), onde os coeficientes C e D são, em geral, dependentes dos dados. Definindo (17.99), o esquema (17.98) produz (17.100), onde s=sinal(a).
(17.98) 2/12/1
1+−
+ Δ+Δ−= iini
ni uDuCuu
172
⎪⎪⎩
⎪⎪⎨
⎧
<ΔΔ
>ΔΔ
=Δ
Δ=
−
+
+
−
0,
0,
2/1
2/1
2/1
2/1
auu
auu
uu
r
i
i
i
i
dow
upwi
(17.99)
⎩⎨⎧
<−>−
=−−
=−
+
0/0/1
)(
aserCDaserDC
uuuuR
i
ini
nsi
ni
nis
i(17.100)
A seguir, estabelecemos as condições suficientes para que o esquema (17.98) seja TVD. Teorema 17.9. O esquema (17.98) para a equação de convecção linear (17.55) é TVD se:
(17.101)
010
0
00
)(
)(
<−−≤≤
>≤≤−
ii
si
iLs
ii
R
rser
R
rseRr
εε
ε ε
(17.102)
onde εL, ε0, εR são reais satisfazendo
(17.103) 1,,0 0 ≤≤ RL εεε
Observação. A condição TVD (17.101) relaciona-se a pontos afastados de extremos e é mais relaxada do que a condição de compatibilidade de dados (17.104), a qual, como discutido previamente, é perfeitamente adequada para derivar funções limitadoras para o caso em que o esquema de primeira ordem é o método upwind de primeira ordem de Godunov. Entretanto, para o caso em que o esquema de primeira ordem é centrado, a aplicação direta de (17.104) conduz a uma região TVD altamente restritiva que pode realmente excluir o esquema monotônico de primeira ordem. A condição TVD (17.102) é mais restritiva do que (17.104), mas desde que esta condição se relaciona a extremos, onde o esquema é localmente de primeira ordem de precisão, as condições TVD (17.101)-(17.102) são de um modo geral mais relaxadas do que (17.104).
(17.104) 10 )( ≤≤ siR
Região TVD. Primeiramente, provaremos um resultado que trata da construção da região TVD para esquemas de limitadores de fluxo centrados. Teorema 17.10. Para garantir que um esquema é TVD, os limitadores φ(r) devem pertencer a uma região (a região TVD) satisfazendo as seguintes restrições:
( ) TB r φφφ ≤≤ (17.105)
(17.106) ( ) ( ) ( ) 0, >≤≤ ++ rrrr RL φφφ
173
(17.107) ( ) ( ) 0, ≤≤≤ −− rrr LR φφφ
( ) ( )rSr TLL φφ +=+ (17.108)
( ) ( )rSr BRgR φφφ ++= ++ (17.109)
(17.110) ( ) ( )rSr TLgL φφφ ++=−
( ) ( )rSr BRR φφ += −− (17.111)
Aqui, φB, φT são limites inferior e superior globais e as definições para os parâmetros SL, φg, SR
+, SR- são dados na Tabela 17.1.
Tabela 17.1. Parâmetros importantes para o esquema FORCE, esquema de Lax-Friedrichs,
e o método upwind de primeira ordem de Godunov.
0>a 0<a FORCE Lax-Friedrichs Godunov LS
11
0
βαα−
00
1
βαα−
cc
−
+
11
c−11
c−12
gφ 11
1
βαα−
00
0
βαα−
cc
+
−
11
c+11
0
+RS
11
0 /1βα
α−
− c
00
1 /1βα
α−
− c
cc
+
+
13
c+11
c2
−RS
11
10 /1βα
αα−
−− c
00
01 /1βααα
−
−− c 2 0 c2
A região TVD é determinada pelas desigualdades envolvendo seis linhas retas, a saber os limites horizontais φB, φT e as funções definidas em (17.108)-(17.111). A Fig. 17.8 mostra a região TVD geral definida pelo teorema. Escolhemos φB=0 e φT constante com uma inclinação não-positiva para φL
-(r) e φL+(r). De fato, é suficiente tomar estas funções
como constantes e podemos, portanto estabelecer o seguinte:
0;
11
0 >−
−= aT βααφ
(17.112)
0;00
1 <−
−= aT βααφ
e
174
( ) 0=+ rLφ (17.113)
( )
⎪⎪⎩
⎪⎪⎨
⎧
<−
>−=≡−
0,
0,
00
0
11
1
a
ar gL
βααβα
α
φφ (17.114)
A Tabela lista expressões para várias quantidades envolvidas, para três esquemas de primeira ordem, incluindo o método upwind de primeira ordem de Godunov. Observação: Durante a demonstração do teorema anterior, encontramos que os valores convenientes para os parâmetros εL, ε0 e εR nas equações (17.101) e (17.102) são os seguintes:
(17.115) 10,1 αεεε cRL −===
Figura 17.8 – Região TVD para Limitadores de Fluxo de Esquemas Centrados
Se tivéssemos imposto a condição usual de compatibilidade de dados, teríamos obtido ε0=εR=0 e portanto a região TVD na Fig. 17.8 teria excluído funções limitadoras de fluxo φ(r) com φ(r)≤φg>0, exceto para o caso especial |c|=1, para o qual φg=0. Até mesmo o caso básico φ(r)=0 que reproduz o esquema monotônico de baixa ordem em (17.57) seria excluído. Para métodos upwind, esta dificuldade não ocorre, desde que o coeficiente downwind (α1 para a>0 e α0 para a<0) é zero e, portanto φg=0 ∀c.
Construção de limitadores. A meta adiante é construir limitadores de fluxo φ(r) para serem usados no esquema de limitadores de fluxo (17.57). Neste contexto, o seguinte resultado se aplica.
175
Teorema 17.11. O fluxo TVD centrado (17.116), onde fi+1/2lo é o fluxo de algum esquema
monotônico centrado de primeira ordem e fi+1/2lw é o fluxo do método de Lax-Wendroff,
reduz-se ao fluxo upwind de primeira ordem de Godunov (17.117) quando φ(r)=φg e os limitadores de fluxo upwind ψ(r) são relacionados aos limitadores de fluxo centrados φ(r) pela equação (17.120).
( ) ( )( )LOi
LWii
LOi
ci ffrff 2/12/12/12/12/1 +++++ −+= φ (17.116)
( ) ( )( ) ( )( )n
ini
gi auSauSf 12/1 1
211
21
++ −++= (17.117) onde
(17.118)
( )asinalS =
( ) gr φφ = (17.119)
( ) ( ) ( )rr gg ψφφφ −+= 1 (17.120)
Observação. Baseado no resultado acima, chamamos φg o ponto Godunov, veja a Tabela 17.1. Note que as condições TVD convencionais (17.104), enquanto cabíveis para esquemas TVD upwind, não admitem limitadores de fluxo abaixo de φg. Isto é, esquemas que possuem viscosidade numérica alta tal como o método FORCE e o Lax-Friedrichs, não são incluídos na região TVD. Baseado no primeiro resultado do Teorema (17.11), podemos generalizar o método upwind de primeira ordem de Godunov para leis de conservação não lineares simplesmente por definir um fluxo em (17.116) com φi+1/2(r)=φg. Tal extensão depende do fluxo de baixa ordem centrado particular fLO
i+1/2 usado e do número de Courant c; este pode ser obtido da velocidade característica (local) ou do coeficiente CFL (global). Uma escolha local seria dada pela Eq. (17.121), onde ai+1/2 é uma velocidade característica na interface i+1/2. Notamos que tal extensão não requer a solução de um problema de Riemann local, como requer o método upwind de primeira ordem de Godunov.
2/12/1
2/12/1 , ++
++ =
ΔΔ
= iii
i aSx
tSc (17.121)
Antes de construirmos limitadores de fluxo φ(r), notamos que os parâmetros SL, φg, S+
R, S-R em (17.108)-(17.111) definem a região TVD e eles dependem do número de
Courant |c|; veja a Tabela 17.1. Pela identificação de possíveis mínimos e máximos valores de |c|, isto é
cc
cc
max
min
max
min
=
=(17.122)
176
Construímos uma região TVD baseada nas condições mais restritivas. Os valores correspondentes para os parâmetros relevantes são:
( )
(17.123)
lembrando que especificamos φ+L(r)=0; φ-
L(r)=φg e SL em (17.108), (17110) é definido uma vez que φT é escolhido. Para a equação modelo (17.55), interpretamos (17.122) como significando cmin=0 e cmax=1, conduzindo a uma região TVD independente do número de Courant mostrada na Fig. 17.9. Segue que as únicas possibilidades para limitadores de fluxo são do tipo MINBEE, o exemplo mais popular sendo o mostrado na Eq. (17.124).
Figura 17.9 – Região TVD para Limitadores de Fluxo Centrados, que é Independente do Número de Courant
(17.124)
Note que φmb(r) é o limitador de fluxo convencional MINBEE (17.96). Isto é perfeitamente adequado para a maioria das aplicações realísticas, mas tem a desvantagem de ser altamente difusivo. Em geral, valores altos de φ(r) adicionam menos viscosidade numérica do que valores baixos. Portanto, é desejável preservar pelo menos parte da região TVD acima de φ=1. Usando a relação (17.120) entre limitadores de fluxo upwind convencionais ψ(r) e os limitadores de fluxo centrados procurados φ(r), construímos estes da seguinte forma:
( )( )max
max
min
cSS
cc
Rg
gg
TT
++ =
=φ = φ
φφ
⎪⎩
⎪⎨
⎧
≥≤≤
≤=
1,110,
0,0)(
rrr
rrmbφ
177
( ) ( ) ( )rr gg ψφφφ −+= 1ˆ (17.125)
onde
( )⎩
⎨⎧
≥=≤
=1,1,0ˆ
max rcr
ggg φφ
φ (17.126)
pela escolha dos limitadores de fluxo upwind ULTRABEE, SUPERBEE, VANLEER e VANALBADA, obtemos limitadores de fluxo centrados correspondentes.
( ) { }⎩⎨⎧
>+≤
= + 0,,min0,0
rrSr
rRgT
ub φφφ (17.126)
( )
( ){ }⎪⎪⎩
⎪⎪⎨
⎧
>−+≤≤
≤≤≤
=
1,1,2min12/1,12/10,2
0,0
rrr
rrr
r
gg
sb
φφ
φ (17.127)
( )( )
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
≥+
−+
≤≤+
≤
=
1,112
10,12
0,0
rr
r
rr
rr
r
gg
vl
φφ
φ (17.128)
( ) ( )
( ) ( )⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
≥+
+−+
≤≤++
≤
=
1,1
11
10,11
0,0
2
2
rr
rr
rrrr
r
r
gg
va
φφ
φ (17.129)
Estressamos que os limitadores centrados (17.126)-(17.129) são somente análogos aos limitadores upwind, eles não são equivalentes.
178
18.0 Métodos de Alta Resolução para Sistemas de Equações de Conservação. No capítulo anterior, discutimos a aplicação de métodos TVD para a equação de conservação escalar. A extensão para sistemas de equações é imediata e será apresentada neste capítulo. 18.1 Esquema de Roe-Sweby. O esquema de Roe-Sweby aplicado a sistemas de equações de conservação é na realidade o esquema TVD upwind que utiliza o método upwind de primeira ordem de Godunov e o método de Lax-wendroff de segunda ordem, o qual foi discutido no capítulo anterior quando foi aplicado à lei de conservação escalar unidimensional. Para melhor entendermos a aplicação deste esquema a sistemas de equações de conservação, devemos transformas o sistema de equações para o espaço de ondas, onde o sistema é formado por equações de conservação desacopladas e os autovalores da matriz Jacobiana de fluxo do sistema original são as velocidades de propagação das ondas. O esquema de Roe-Sweby aplicado à equação de conservação escalar unidimensional é mostrado abaixo, onde o fluxo de baixa ordem é obtido com o método de Godunov e o fluxo de alta ordem é obtido com o método de Lax-Wendroff de segunda ordem. Nas equações abaixo, a é a velocidade de propagação da onda.
(18.1)
( ) ( )
( ) ( )
( )
LOi
HIii
LOi
TVDi
iiiiHI
i
iiiiLO
i
ffff
uuaxtfff
uuafff
2/12/12/12/12/1
12
12/1
112/1
21
21
21
21
+++++
+++
+++
−+=
−ΔΔ
−+=
−−+=
ψ
No caso de sistemas de equações de conservação, devemos transformar as equações e aplicar o esquema de Roe-Sweby no espaço de ondas, onde os autovalores da matriz Jacobiana de fluxo do sistema original são as velocidades com as quais as ondas se propagam. Consideremos as equações de Euler compressíveis unidimensionais mostradas abaixo.
0=
∂∂
+∂∂
xE
tQ e
(18.2) onde
(18.3) ( ) ⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
++=
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
upepu
uE
euQ e
2, ρρ
ρρ
( ) i
i
ep
uee
ργ
ρ
121 2
−=
+=
(18.4)
179
A matriz Jacobiana de fluxo, os autovalores e autovetores associados são mostrados abaixo.
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡=
∂∂
=up
uu
QEA e
γρ
ρ
0/100
(18.5)
auau
u
−=+=
=
3
2
1
λλλ
(18.6)
(18.7)
⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
−=⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧
=⎪⎭
⎪⎬
⎫
⎪⎩
⎪⎨
⎧=
2/12/1
2/1,
2/12/12/1
,001 2
2
2
21 aa
xaa
xx ρρ
Podemos definir a matriz T cujas colunas são os autovetores associados à matriz
Jacobiana de fluxo A, conforme mostra a equação abaixo.
(18.8)
rrr
=2/12/102/12/10
2/12/11 22
aaaa
T ρρ
⎥⎥⎥
⎦
⎤
⎢⎢⎢
⎣
⎡
−
Pré-multiplicando o sistema de equações diferenciais por T-1, obtemos o sistema desacoplado no espaço de ondas mostrado abaixo.
0111 =∂∂
+∂∂ −− −
(18.9) xQATTT
tQT
ou seja,
0=∂∂
Λ+∂∂
xW
tW
(18.10) onde
(18.11)
QTW 1−=
180
ou ainda
(18.12)
0
0
0
33
3
22
2
11
1
=∂
Podemos observar que agora temos três equações escalares de conservação desacopladas iguais àquela que foi estudada no Capítulo 17, onde discutimos a aplicação de esquemas TVD. Vamos aplicar o esquema conservativo discutido no Capítulo 17 a cada equação individualmente.
(18.13)
onde
(18.14)
O fluxo TVD será obtido usando o método upwind de primeira ordem de Godunov e o método de Lax-Wendroff de segunda ordem, conforme as equações abaixo.
(18.15)
onde
(18.16) ou seja
(18.17)
Reescrevendo agora as equações acima na forma matricial, resulta a seguinte equação matricial:
(18.18)
∂+
∂
=∂
+∂∂
=+∂∂ ∂
∂∂
x∂w
tw
xw
tw
xw
tw
λ
λ
λ
( )ni
ni
ni
ni ff
xtww 2/12/1
1−+
+ −Δ
−=Δ
wf λ=
( )LOi
HIii
LOi
TVDi ffff 2/12/12/12/12/1 +++++ −+= ψ
( ) ( )
( ) ( )iiiiHI
i
iiiiLO
i
wwxtfff
wwfff
−ΔΔ
−+=
−−+=
+++
+++
12
12/1
112/1
21
21
21
21
λ
λ
( )iiiLO
iTVD
i wwxtff −⎟
⎠⎞
⎜⎝⎛ −ΔΔ
−= ++++ 12
2/12/12/1 21 λλψ
( ) ( ) ( )iiLOTVD WWWW −Λ−Λ=Λ +1
ˆ21
181
onde a matriz é diagonal com os seguintes termos: Λ̂
(18.19)
⎟⎠⎞
⎜⎝⎛ −ΔΔ
= jjjj xt λλψλ
2ˆ
Pré-multiplicando a equação matricial acima pela matriz T, resulta o seguinte:
( )( ) ( (18.20) ) ( )iiLOTVD WWTTTTWTTTWTT −Λ−Λ=Λ +
−−−1
111 ˆ21
ou seja
(18.21)
( ) ( ) ( )iiLOTVD QQAAQAQ −−= +1
ˆ21
O vetor de fluxo das equações de Euler é uma função homogênea de grau um do vetor de variáveis conservadas, portanto, podemos escrever o seguinte:
(18.22)
( )iiLOTVD QQAFF −−= +1
ˆ21
De forma completamente análoga, podemos também escrever o seguinte:
( ) ( )iiiiLO QQAFFF −−+= ++ 11
~21
21
(18.23) onde
(18.24)
1
1
~~ˆˆ
−
−
Λ=
Λ=
TTA
TTA
As matrizes diagonais acima são compostas dos seguintes termos:
(18.25)
jj
jjjj xt
λλ
λλψλ
=
⎟⎠⎞
⎜⎝⎛ −ΔΔ
=
~
ˆ 2
O valor do limitador de fluxo ψ deve ser obtido individualmente para cada equação no espaço de ondas em função de r, conforme é mostrado abaixo.
( ) ( )( ) ( )
(18.26)
( ) ( )( ) ( )⎪
⎪
⎩
⎪⎪
⎨
⎧
<−
−
>−
−
=Δ
Δ=
+
++
+
−
0
0
1
12
1
1
jnij
nij
nij
nij
jnij
nij
nij
nij
loc
upwj
seww
ww
seww
ww
rλ
λ
182
Os mesmos limitadores de fluxo obtidos para a equação escalar no Capítulo 17 podem ser aplicados diretamente para as equações desacopladas no espaço de ondas.
ULTRABEE (18.27) ( )
⎪⎪⎪⎪
⎩
⎪⎨ ≤≤
crserub 02⎪
⎪⎪⎧
−≥
−
−
≤
=
cc
rsec
cc
rse
r
112
1
00
ψ
SUPERBEE (18.28)
( ) ⎪⎨ ≤≤ 1211 rsesb
VANLEER (18.29)
VANALBADA (18.30)
MINBEE (18.31)
⎪⎪⎪
⎩
⎪⎪⎧
≥≤≤
≤≤≤
=
2221
/2/102
00
rserser
rserrse
rψ
⎪⎩
⎪( ) ⎨ ≥ 02 rsevl
⎧
+
≤=
1
00
rr
rserψ
( ) ( )⎪⎩
⎪⎨⎧ ≤ 0r
≥++= 0
110
2 rserrr
servaψ
( ) ⎪⎨ ≤≤ 10 rsemb⎪⎩
⎧
≥
≤=
11
00
rser
rserψ
183
Referências:
1. Anderson, W., Thomas, J. L., and Van Leer, B., “A Comparison of Finite Volume Flux Vector Splitting for the Euler Equations,” AIAA Paper 85-0122, 1985.
2. Baldwin, B. S., and Lomax, H., “Thin Layer Approximation and algebraic Model for separated Turbulent Flows,” AIAA Paper 78-257, Huntsville, Alabama, Jan. 1978.
3. Beam, R. M., and Warming, R. F., “ An Implicit Finite-Difference Algorithm for Hyperbolic Systems in Conservation-Law Form, Journal of Computational Physics, Vol. 22, Sept. 1976, pp. 87-110.
4. Beam, R. M., and Warming, R. F., “An Implicit Factored Scheme for the Compressible Navier-Stokes Equations,” AIAA Journal, Vol. 16, No. 4, April 1978, pp. 393-402.
5. Buning, P. G., and Steger, J. L., “Solution of the Two-Dimensional Euler Equations with Generalized Coordinate Transformation Using Flux Vector Splitting,” AIAA Paper 82-0971, 1982.
6. Buning, P. G., “Computation of Inviscid Transonic Flow Using Flux Vector Splitting in Generalized Coordinates,” Ph.D. Thesis, Dept. of Aeronautics and Astronautics, Stanford University, Stanford, CA, 1983.
7. Chaussee, D. S., and Pulliam, T. H., “Two-Dimensional Inlet Simulation Using a Diagonal Implicit Algorithm,” AIAA Journal, Vol. 19, No. 2, Feb. 1981, pp. 153-159.
8. Coakley, T. J., “Implicit Upwind Methods for the Compressible Navier-Stokes Equations,” AIAA Journal, Vol. 23, No. 3, July 1983, pp. 374-380.
9. Deiwert, G. S., “Supersonic Axisymmetric Flow over Boattails Containing a Centered Propulsive Jet,” AIAA Journal, Vol. 22, Oct. 1984, pp. 1358-1365.
10. Deiwert, G. S., Andrews, A. E., and Nakahashi, K., “Theoretical Analysis of Aircraft Afterbody Flow,” Journal of Spacecraft and Rockets, Vol. 24, Nov. – Dec. 1987, pp. 496-503.
11. Fletcher, C. A. J., Computational Techniques for Fluid Dynamics – Fundamental and General Techniques, Springer – Verlag, New York, 1988.
12. Fletcher, C. A. J., Computational Techniques for Fluid Dynamics – Specific Techniques for Different Flow Categories, Springer-Verlag, New York, 1988.
13. Giles, M. B., “Nonreflecting Boundary Conditions for Euler Equations Calculations, AIAA Journal, Vol. 28, No. 12, pp. 2050-2058, 1990.
14. Godunov, S. K., “A Finite Difference Method for the Numerical Computation of Discontinuous Solutions of the Equations of Fluid Dynamics,” Mat. Sb., Vol. 47, 1954, pp. 357-393.
15. Harten, A., “On the Symmetric Form of Systems of Conservation Laws with Entropy,” J. Comput. Phys., Vol. 49, 1983, pp.151-164.
16. Harten, A., “High Resolution Schemes for Hyperbolic Conservation Laws,” J. Comput. Phys., Vol. 49, 1983, pp. 357-393.
17. Jameson, A., Schmidt, W., and Turkel, E., “Numerical Solution of the Euler Equations by Finite Volume Methods Using Runge-Kutta Time-Stepping Schemes,” AIAA Paper 81-1259, AIAA 14th Fluid and Plasma Dynamics Conference, June, Palo Alto, CA, 1981.
18. Jameson, A., and Mavriplis, D., “Finite Volume Solution of the Two-Dimensional Euler Equations on Regular Triangular Mesh, AIAA Journal, Vol. 24, No. 4, pp. 611-618, 1986.
184
19. Jespersen, D. C., and Pulliam, T. H., “Flux Vector Splitting and Approximate Newton Methods,” AIAA Paper 83-1899, 1983.
20. Johnson, D. A., and King, L. S., “A Mathematically Simple Turbulence Closure Model for Attached and Separated Turbulent Boundary Layers,” AIAA Journal, Vol. 23, Nov. 1985, pp. 1684-1692.
21. Lax, P. D., “Weak Solutions of Nonlinear Hyperbolic Equations and Their Numerical Computations,” Commum Pure Appl. Math., Vol. 7, 1954, pp. 159-193.
22. Lax, P. D., and Wendroff, B., “Difference Schemes for Hyperbolic Equations with High Order of Accuracy,” Commum. Pure Appl. Math., Vol. 17, 1964, pp. 381-398.
23. MacCormack, R. W., “The Effect of Viscosity in Hypervelocity Impact Cratering,” AIAA Paper 69-354, Cincinnati, Ohio, 1969.
24. MacCormack, R. W., “A Numerical Method for Solving the Equations of Compressible Viscous Flow,” AIAA Journal, Vol. 20, No. 9, Sept. 1982, pp. 1275-1281.
25. MacCormack, R. W., “Current Status of Numerical Solutions of the Navier-Stokes Equations,” AIAA Paper 85-0032, AIAA 23rd Aerospace Sciences Meeting, Reno, Nevada, January 14-17, 1985.
26. MacCormack, R. W., “On the Development of Efficient Algorithms for Three Dimensional Fluid Flow,” Invited paper presented at the II National Meeting of the Thermal Sciences (ENCIT’88), Águas de Lindóia, SP, Brasil, December 6-8, 1988.
27. Martin, J. G., “Turbulence Modeling for Computational Aerodynamics,” AIAA Journal, Vol. 21, July 1983, pp. 941-955.
28. Martinelli, L., and Jameson, A., “Validation of a Multigrid Method for the Reynolds Averaged Equationn,” AIAA 26th Aerospace Sciences Meeting, January 11-14, 1988, Reno, Nevada.
29. Martinelli, L., 1987, “Calculations of Viscous Flows with a Multigrid Method,” Ph.D. Thesis, Princeton University, Princeton, USA, 1987.
30. Osher, S., and Chakravarthy, S., “Upwind Schemes and Boundary Conditions with Applications to Euler Equations in General Geometries,” J. Comput. Phys., Vol. 50, 1983, pp. 447-481.
31. Pulliam, T. H., and Steger, J. L., “Implicit Finite-Difference Simulations of Three-Dimensional Compressible Flow,” AIAA Journal, Vol. 18, No. 2, Feb. 1980, pp. 159-167.
32. Pulliam, T. H., and Chaussee, D. S., “A Diagonal Form of an Implicit Approximate-Factorization Algorithm,” Journal of Computational Physics, Vol. 39, 1981, pp. 347-363.
33. Pulliam, T. H., Jerpersen, D. C., and Childs, R. E., “An Enhanced Version of an Implicit Code for the Euler Equations,” AIAA Paper 83-1905, June 1983.
34. Pulliam, T. H., “Euler and Thin Layer Navier-Stokes Codes:ARC2D, ARC3D,” Notes for Computational Fluid Dynamics User’s Workshop, The University of Tennessee Space Institute, Tullahoma, Tenn., March 12-16, 1984.
35. Pulliam, T. H., and Steger, J. L., “Recent Improvements in Efficiency, Accuracy and Convergence for Implicit Approximate Factorization Algorithms,” AIAA Paper 85-360, AIAA 23rd Aerospace Sciences Meeting, Reno, Nevada, Jan. 1985.
36. Pulliam, T. H., “Artificial Dissipation Models for the Euler Equations,” AIAA Journal, Vol. 24, No. 12, Dec. 1986, pp. 1931-1940.
185
37. Rai, M. M., and Chakravarthy, S. R., “An Implicit Form for the Osher Upwind Scheme,” AIAA Journal, Vol. 24, No. 5, May 1986, pp. 735-743.
38. Roe, P. L., “Characteristic-Based Schemes for the Euler Equations,” Ann. Rev. Fluid Mech., Vol. 18, 1986, pp. 337-365.
39. Rumsey, C. L., Thomas, J. L., Warren, G. P., and Liu, G. C., “Upwind Navier-Stokes Solutions for Separated Periodic Flows,” AIAA Journal, Vol. 25, No. 4, April 1987, pp. 535-541.
40. Rubesin, M. W., “Turbulence Modeling,” AIAA Paper 89-0606, AIAA 27th Aerospace Sciences Meeting, Reno, Nevada, Jan. 1989.
41. Steger, J. L., “Implicit Finite Difference Simulation of Flow About Arbitrary Geometry with Application to Airfoils,” AIAA Journal, Vol. 16, July 1978.
42. Steger, J. L., and Warming, R. F., “Flux Vector Splitting of the Inviscid Gasdynamic Equations with Application to Finite-Difference Methods,” Journal of Computational Physics, Vol. 40, No. 2, April 1981, pp. 263-293.
43. Steger, J. L., and Buning, P. G., “Developments in the Simulation of Compressible Inviscid and Viscous Flow on Supercomputers,” NASA TM 86674, 1985.
44. Tannehill, J. C., Anderson, D. A., and Pletcher, R. H., Computational Fluid Mechanics and Heat Transfer, Second Edition, McGraw-Hill, New York, 1997.
45. Thomas, J. L., and Walters, R. W., “Upwind Relaxation Algorithms for the Navier-Stokes Equations,” AIAA Journal, Vol. 25, No. 4, April 1987, pp. 527-534.
46. Thompson, J. F., “Grid Generation Techniques in Computational Fluid Dynamics,” AIAA Journal, Vol. 22, No. 11, Nov. 1984, pp. 1505-1523.
47. Toro, E. F., Riemann Solvers and Numerical Methods for Fluid Dynamics: A Practical Introduction, Second edition, Springer – Verlag, New York, 1999.
48. Turkel, E., and Vatsa, V. N., “Effect of Artificial Viscosity on Three-Dimensional Flow Solutions,” AIAA Journal, Vol. 32, No. 1, pp. 39-45, 1994.
49. Van Leer, B., “Towards the Ultimate Conservative Difference Scheme. II. Monotonicity and Conservation Combined in a Second – Order Scheme,” Journal of Computational Physics, Vol. 14, No. 4, March 1974, pp. 361-370.
50. Van Leer, B., “Towards the Ultimate Conservative Difference Scheme. III. Upstream-Centered Finite-Difference Schemes for Ideal Compressible Flow,” Journal of Computational Physics, Vol. 23, No. 3, March 1977, pp. 263-275.
51. Van Leer, B., “Towards the Ultimate Conservative Difference Scheme. IV. A New Approach to Numerical Convection,” Journal of Computational Physics, Vol. 23, No. 3, March 1977, pp. 276-299.
52. Van Leer, B., “Towards the Ultimate Conservative Difference Scheme. V. A Second-Order Sequel to Godunov’s Method,” Journal of Computational Physics, Vol. 32, No. 1, July 1979, pp. 101-136.
53. Van Leer, B., “Flux-Vector Splitting for the Euler Equations,” Lecture Notes in Physics, Vol. 170, Springer-Verlag, 1982, pp. 507-512.
54. Yee, H. C., Warming, R. F., and Harten, A., “Implicit Total Variation Diminishing (TVD) Schemes for Steady-State Calculations,” J. Comput. Phys., Vol. 57, 1985, pp. 327-360.
55. Ying, S. X., “Three-Dimensional Implicit Approximately Factored Schemes for the Equations of Gasdynamics,” SUDAAR 557, Dept. of Aeronautics and Astronautics, Stanford University, Stanford, CA, June 1986.
56. Ying, S. X., Steger, J. L., Schiff, L. B., and Baganoff, D., “Numerical Simulation of Unsteady, Viscous, High-Angle-of-Attack Flows Using a Partially
186
Flux-Split Algorithm,” AIAA Paper 86-2179, AIAA 13th Atmospheric Flight Mechanics Conference, Williamsburg, Virginia, August 18-20, 1986.
57. Warming, R. F., Beam, R. M., and Hyett, B. J., “Diagonalization and Simultaneous Symmetrization of the Gas-Dynamic Matrices,” Math. Comp., Vol. 29, No. 132, Oct. 1975, pp. 1037-1045.