MAP0151- Cálculo Numérico e Aplicações
Resumo da vigésima aula
Exemplos de aproximação de funções periódicas por uma série trigonométrica. O exemplo básico foi dada a função períodica de período $2\pi$ que no intervalo $[-\pi,\pi]$ vale: \[ f(x) = \left\{\begin{array}{cc} 1 & x\in [-\pi,0) \\ -1 & x\in [0,\pi] \end{array}\right.\] O desenvolvimento até o harmônico de terceira ordem é \[ f(x) = -4/\pi \sin(x) - 2/3\pi \sin(3x) \] Na figura abaixo temos a função e o desenvolvimento em série trigonométrica até o primeiro e segundo harmônicos.
grafico
O $k$-ésimo harmônico pode-se escrever como \[ a_k\cos(kx) + b_k\sin(kx) = A_k\sin(kx + \varphi_k)\] e neste caso $A_k$ é a amplitude e $\varphi_k$ a fase deste harmônico.
15 de May de 2008
Resumo da décima-oitava e décima-nona aulas
Se $I=[a,b]$ e $f,g:I\to \mathbf{R}$ são funções, definimos o produto interno \[ (f,g)=\int_a^b f(x)g(x) dx \] Uma família de funções $\{f_0,\dots,f_k\}$ é ortogonal quando $(f_i,f_j)=0$ para $i\neq j$ e $(f_i,f_i)\neq 0$.
Da mesma forma uma família de polinômios $p_i(x)$ sendo $i$ o grau do polinômio é ortogonal quando $(p_i,p_j)=0$.
Aproximando uma função $f: I \to \mathbf{R}$ por uma combinação linear de uma família ortogonal \[ f(x) = \sum_{m=0}^k a_m f_m(x) \] pelo método dos mínimos quadrados obtemos: \[ a_m= \frac{(f,f_m)}{(f_m,f_m)}\] esta fórmula vale tanto para polinômios ortogonais como para a família de funções trigonométricas $\{ 1, \cos(x), \sin(x), \dots \cos(kx) \sin(kx)\}$ com o produto interno definido como $\int_{-\pi}^{\pi}f(x)g(x)dx$.
Também vimos uma fórmula de recorrência para polinômios mônicos ortogonais: \[ p_{k+1}(x) - xp_k(x) = \alpha_k p_k(x) + \beta_k p_{k-1}(x) \] onde \[ \alpha_k = \frac{(xp_k,p_k)}{(p_k,p_k)} \] \[ \beta_k = \frac{(xp_k,p_{k-1})}{(p_{k-1},p_{k-1})}\]
10 de May de 2008
Resumo da décima-quinta e décima sétima aula
Nestas duas aulas tratamos de polinômios ortogonais. Primeiro vimos como o fato de termos uma família de funções aproximantes ortogonais facilita a resolução do problema de MMQ. Depois um exemplo
Se $\mathcal{P} \subset I$ é uma partição do intervalo $I$ e $f,g:I\to \mathbf{R}$ são funções então definimos: \[ (f,g) =\sum_{m=0}^k f(x_m)g(x_m) \] $(f,g)$ é ``quase'' um produto interno de funções. Uma família de funções $\{f_0,\dots,f_l\}$ é ortogonal se $(f_i,f_j)=0$ para $i\neq j$ e $(f_i,f_i)>0$ para todo $i$. Quando $\mathcal{P}=\{x_0 , \dots , x_k\}$, podemos achar a família de polinômios mônicos ortogonais $p_0(x), \dots, p_k(x)$
30 de April de 2008
Resumo da décima-quarta aula
Métodos dos mínimos quadrados, Caso geral, discreto O problema é o seguinte: é dada uma tabela de pontos $\{(x_0,y_0), \cdots, (x_k,y_k)\}$ e uma família $\mathbf{F}$ de funções; encontrar o elemento desta família que melhor se ajuste à tabela dada. O critério para medir o grau de ajuste à tabela é: \[ M(f) = \sum_{j=0}^k (f(x_j)-y_j)^2 \] A solução do problema é a função $f:I=[x_0,x_k]\to \mathbf{R}$ de $\mathbf{F}$ que minimiza $M(f)$. Quando $\mathbf{F}$ é o espaço vetorial \[ \mathbf{F}=\{\lambda_0g_0(x)+ \cdots + \lambda_lg_l(x)\} \] O problema acima é equivalente a encontrar os coeficientes $\lambda_0,\dots,\lambda_k$ que resolvem o sistema normal de equações lineares: \[\left[ \begin{array}{cccc} (g_0,g_0)&(g_0,g_1)&\cdots&(g_0,g_l)\\ (g_1,g_0 & (g_1,g_1)&\cdots&(g_1,g_l) \\ \vdots& & \ddots & \vdots \\ (g_l,g_0)& & \cdots&(g_l,g_l) \end{array} \right] \left[\begin{array}{c} \lambda_0 \\ \vdots \\ \lambda_l \end{array} \right]= \left[\begin{array}{c} (y,g_0) \\ \vdots \\ (y,g_l) \end{array} \right] \] onde
  • $g_i:I\to \mathbf{R}$ são funções contínuas e $\{g_0,\dots,g_l\}$ são linearmente independentes.
  • $(g_m,g_n)= \sum_{j=0}^k g_m(x_j)g_n(x_j)$
  • $(y,g_m)= \sum_{j=0}^k y_jg_m(x_j)$
veja um exemplo rodando o script para o scilab .
18 de April de 2008
Resumo da décima-terceira aula
Primeira aula sobre mínimos quadrados: Ajuste de uma reta por uma tabela de pontos. Dada a tabela de pontos \[ \begin{array}{c||c|c|c} x: & x_0 & \dots & x_k \\ y: & y_0 & \dots & y_k \end{array} \] encontrar a função $f(x)=ax+b$ que melhor se ajuste à tabela pelo critério dos mínimos quadrados, isto é, minimizando a função dos parâmetros: \[ M(a,b) = \sum_{j=0}^k (y_j-ax_j-b)^2 \] que chamamos de resíduo quadrático. Para achar a solução resolvemos o sistema normal: \[ \left[ \begin{array}{cc} (x_j,x_j) & (x_j, {1}) \\ (x_j, {1}) & ({1}, {1}) \end{array}\right] \left[ \begin{array}{c} a \\ b \end{array}\right]=\left[ \begin{array}{c} (x_j,y_j) \\ (y_j,{1}) \end{array}\right] \] onde $(x_j,y_j)=\sum x_jy_j$.
16 de April de 2008
Resumo das décima-primeira e décima-segunda aulas
Estudamos métodos iterativos para resolução de sistemas lineares. Se $A$ é uma matriz quadrada não singular, para resolver a equação $Ax=b$ por um método iterativo fazemos uma decomposição: \[ A = N - P \] e construimos uma sequência de vetores $({x}_k)$ escolhendo $x_0$ e resolvendo: \[ Nx_{k+1}=b+Px_k\]
No método de Jacobi temos $N={diag}(a_{11},\dots,a_{nn})$ e o $P$ fica determinado apartir de $N$
No método de Gauss-Seidel temos \[ P=\left[ \begin{array}{cccc} 0 & -a_{12} & \cdots & -a_{1n} \\ 0 & 0 & \cdots & -a_{2n} \\ \vdots& &\ddots & \vdots \\ 0 & \cdots & 0 & -a_{n-1 n}\\ 0 & 0 & 0 & 0 \end{array}\right]\] e $N$ fica determinado por $P$. O critério geral de suficiência para convergência do método é $||N^{-1}P|| < 1$. Para o método de Jacobi e usando a norma $|| A || = \max_i \sum_j |a_{ij}$ temos o critério das linhas \[ \sum_{k\neq i} |a_{ik}| < |a_{ii}| \]. Este critério também é suficiente para o método de Gaus-Seidel
11 de April de 2008