Ferramentas Matemáticas para Computação Científica

De IFSC
Revisão de 12h38min de 14 de março de 2019 por imported>Fargoud (→‎Algoritmo FFT)
Ir para navegação Ir para pesquisar
Palestra apresentada durante a 
Semana Científica do Curso de Engenharia Elétrica
Campus Itajaí - março de 2019

Profa. Fernanda Argoud da Silva, M.Sc., Dr. Eng.


Introdução

O computador é uma ferramenta indispensável para o avanço da Ciência.

Apesar de ter que ser programado, é capaz de executar cálculos complexos e/ou repetitivos, em uma velocidade muito maior que qualquer ser humano e sem desgaste ou cansaço.

Porém, tem uma limitação muito severa:

⇒ MEMÓRIA
FMCmemoria.png

Um cálculo como o da integral, por exemplo, seria impossível, porque nenhum computador teria memória suficiente para armazenar infinitos valores.

FMCintegr.png


A solução, então, é discreta e numérica.

FMCintegralnumerica.png

Obviamente, a solução sempre será aproximada, jamais exata.

É importante, então, estabelecer um erro máximo admitido.

Cálculo "humano" x Cálculo numérico

Os algoritmos para cálculos científicos e matemáticos normalmente são específicos.

NÃO são procedimentos de resolução analítica, ou "humana", adaptados à uma linguagem de programação.

São procedimentos numéricos (iterativos) específicos, desenvolvidos com o objetivo de facilitar a resolução pelo computador e no menor tempo possível.

Cálculo de derivada de função

Derivada de uma função é o cálculo da inclinação desta função, em cada ponto da curva.

FMCderiv1.gif

Em cada ponto, a derivada de f(x)= 1 + x.sin x², que é igual a f ' (x)= sin x² + 2.x².cos x² é a tangente do ângulo que a reta tangente à curva faz em relação ao eixo das abscissas.

A reta é sempre tangente à curva azul; a tangente do ângulo que ela faz com o eixo das abscissas é a derivada.

Note-se que a derivada é positiva quando verde, negativa quando vermelha, e zero quando preta.

Solução analítica

A determinação analítica de uma derivada de função pode ser bastante complexa.

Tomemos como exemplo a resolução da derivada da função f(x) = x², no ponto x = 1.

Por definição, a derivada é o diferencial entre um ponto da função, e outro, localizado a uma distância h infinitesimal (tendendo a zero). Portanto, será:

FMCderiv2.png


Para uma função muito simples, como f(x) = x², são necessários vários cálculos literais, indefinidos e de limite.

Em computador, é muitíssimo complicado ensinar a máquina a compreender "limites" tendendo a zero, ou a infinito. Provavelmente, teria que ser criado um banco de dados de casos mais frequentes.

Ainda, depois de se obter a correspondente função derivada, ainda é necessário calcular-se o valor desta, no ponto específico x = 1.

Solução numérica

Uma solução numérica, ainda que inexata, pode ser tremendamente mais simples.

Pode-se reduzir a substituir o valor de x = 1 na equação de cálculo da derivada, adotando como h um valor suficientemente pequeno (conceito do δ da derivada), tal como h = 0,01.

O cálculo matemático total seria:

FMCderiv3.png

E teríamos a resposta com um erro relativo percentual de:

Erro % = (aprox - correto)/correto x 100

Erro % = (2,01 - 2)/2 x 100

Erro % = 0,5%

Cálculo de raízes de equação

Raízes de uma equação y = f(x) → Quais são os valores de x que levam à equação y ao valor ZERO??

Em outras palavras: em que pontos de x a função atravessa o eixo y = 0?


Métodos "humanos" ou analíticos

  • Para equações de 2o. grau: Bhaskara ⇒ Baseado no uso dos coeficientes da equação:
FMCbhask.png


  • Para equações de terceiro grau:

Seja a equação da forma a.x³ + b.x² + c.x + d = a.(x - r1).(x - r2).(x - r3)

FMCraiz3.png

Mais informações: Relações de Girardi...

...

Método numérico - Bissecção

O método da bissecção é um método de busca de raízes que divide repetidamente um intervalo da função e então seleciona um subintervalo contendo a raiz para processamento adicional. Escolhe-se dois pontos extremos, a e b, de preferência para os quais haja um inversão de polaridade da curva.

FMCbissec.png


FMCbissecanim.gif

é usado frequentemente para obter uma primeira aproximação de uma solução, a qual é então utilizada como ponto inicial para métodos que convergem mais rapidamente.

Trata-se de um método simples e robusto, relativamente lento quando comparado a métodos como o método de Newton ou o método das secantes.

PSEUDOCÓDIGO:

ENTRADA: Função f, 
         extremos do intervalo a, b, 
         tolerância TOL, 
         número máximo de iterações NMAX
CONDIÇÕES: a < b, ou f(a) < 0 e f(b) > 0 ou f(a) > 0 e f(b) < 0
SAÍDA: valor que difere de uma raiz de f(x)=0 por menos do que TOL
N ← 1
Enquanto N ≤ NMAX # limita o número de iterações para prevenir um loop infinito
  c ← (a + b)/2 # novo ponto médio
  Se f(c) = 0 or (b – a)/2 < TOL então # solução encontrada
    Retorne(c)
    Pare
  Fim
  N ← N + 1 # incrementa o contador de iterações
  Se sinal(f(c)) = sinal(f(a)) então a ← c senão b ← c # novo intervalo
Fim
Retorne("O algoritmo falhou.") # núm. máximo de iterações excedido

Exemplo:

Para exemplificar, vamos aplicar o método da Bissecção à determinação da raiz da função f(x) = x² + ln x, no aplicativo Scilab, utilizando Scilab (~Matlab) script:


function f=f(x)
f= x*x + log(x); //log() é log natural no Scilab
end

clear all
clc
// ---------Parametros
epsilon = 0.001; //tolerancia
a=0.05; //limite superior do intervalo inicial
b=1; //limite inferior do intervalo inicial
k=0; //contador de iteracoes
kf = 2000 //no maximo de iterações

x=(a+b)/2; //x0 - intervalo inicial, onde (f(a)*f(x))<0 

//-----------Iteracoes
for i=1:kf //kf tb e criterio de parada
  
   if abs(f(x))>=epsilon | abs(b-a)>=epsilon //criterio de parada
       if (f(a)*f(x))<0 //teste de inversão polaridade
           b=x; //novo intervalo se o teste se verifica
       else
           a=x;  //novo intervalo se o teste nao se verifica
       end
   else
       break //o algoritmo pára se tivermos os criterios < epsilon
   end
   x=(a+b)/2; //novo x: xk
   k=k+1; //conta as iteracoes
end

//---------- Resultados
 
sprintf('x = %f',x) //mostre x
sprintf('f(x) = %f',f(x)) //mostre y
sprintf('|b-a| = %f',abs(b-a)) //mostre o intervalo
sprintf('Número de iteracoes ate atingir o resultado: %d',k) //mostre iteracoes


FMCtestabissec.png

Gráfico: Plotador Matemático MAFA f(x) = x*x + lg(x)

FMCtestabissec2.png


FMCtestabissec3.png


Algoritmo Newton-Raphson

O Algoritmo ou método desenvolvido por Isaac Newton e Joseph Raphson, também tem o objetivo de estimar as raízes de uma função, com a diferença que converge muito mais rapidamente que o método da Bissecção.

Após a escolha do valor inicial de aproximação do zero, calcula-se a equação da reta tangente (por meio da derivada) da função nesse ponto e a interseção dela com o eixo das abcissas, isto é, o zero desta reta (vide figura abaixo).

Pode ser provado que este segundo ponto estará muito mais próximo do zero da curva, do que o simples cálculo de ponto médio.

FMCnera1.png

Repetindo-se o processo, cria-se um método iterativo para encontrarmos a raiz da função.

FMCnera2.gif


Em notação matemática, o método de Newton é dado pela seguinte sequência recursiva:

FMCnera3.png

Exemplo:

Algoritmo de Newton-Raphson aplicado ao cálculo das raízes da função f(x) = x² + log(x):


function f=f(x)
  f= x*x + log(x); //log() é log natural no Scilab
end

//Funcao derivada
function fd=fd(x)
  fd= 2*x + 1/x; //derivada
end

 clear all
 clc
 funcao de iteracao = e^(-x^2)
 
 // ---Parametros
 epsilon1 = 0.001; //tolerancia
 epsilon2 = epsilon1;
 
 //intervalo inicial
 x0=0.5; //x0
 xb=x0; //raiz aproximada
 
 k=0; //contador de iteracoes
 kf=1000;//n° max de iteracoes
 
 for i=1:kf //kf tb e criterio de parada
   if (abs(f(x0))<epsilon1)
       xb=x0;
       break
   else
       x1=x0-(f(x0)/fd(x0));
       if (abs(f(x1))<epsilon1 & abs(x1-x0)<epsilon2)
           xb=x1
           break
       else
           x0=x1;
           k=k+1;
       end
   end
 end    
 
 sprintf('x = %f',xb) //mostre x
 sprintf('f(x) = %f',f(xb)) //mostre y
 sprintf('|x1-x0| = %f',abs(x1-x0)) //mostre o intervalo
 sprintf('Número de iteracoes ate atingir o resultado: %d',k) //mostre iteracoes


FMCnrscilab.png

Inversão de Matrizes

Para solução de sistemas de Equações Lineares

Em inúmeras aplicações de Engenharia, a solução se resume a encontrar as raízes de um conjunto de n equações de primeiro grau, com n variáveis/incógnitas cada uma.

Os sistemas devem ter, no mínimo, uma equação para cada incógnita/variável, do tipo:

a.x + b.y + c.z = d
e.x + f.y + g.z = h
p.x + q.y + r.z = s

ou

[a  b  c ]   [x]    [d]
[e  f  g ] . [y]  = [h]
[p  q  r ]   [z]    [s]

Se chamarmos de A, a matriz de coeficientes, K, à matriz de variáveis e B, à matriz de respostas:

   A. K = B

A solução será dada por:

   K = B/A = B. A-¹ 

Portanto, bastará multiplicar a matriz B pela inversa da matriz A.

Inverter matrizes, porém, em computador, não pode ser feito como um humano faz. Aprendemos na escola a inverter matrizes com métodos como o do Escalonamento, ou o de Cramer, que é extremamente ineficiente computacionalmente.

Existem métodos diretos e métodos iterativos de resolução de sistemas de equação.

Dos métodos diretos, destaca-se a Eliminação Gaussiana. Com relação aos métodos iterativos, destaca-se o de Gauss-Seidel.

Exemplo 1:

Resolução de sistema pela Regra de Cramer:

FMCcramer.png

Exemplo 2:

Resolução do mesmo sistema por inversão da matriz no Scilab:

Algoritmo FFT

O Algoritmo da Transformada Rápida de Fourier (Fast Fourier Transform) permite o cálculo discreto e eficiente, computacionalmente, de transformada de fourier de sinais.

Algoritmo FWT