Logotipo
Unionpédia
Comunicação
Disponível no Google Play
Novo! Faça o download do Unionpédia em seu dispositivo Android™!
Livre
Acesso mais rápido do que o navegador!
 

Método do gradiente

Índice Método do gradiente

O método do gradiente (ou método do máximo declive) é um método numérico usado em otimização.

14 relações: David Luenberger, Derivada, Equação diferencial ordinária, Gradiente, Hessiano, Matriz jacobiana, Método de Euler, Método de Newton–Raphson, Método dos mínimos quadrados, Mínimo, Otimização, Pesquisa linear, Ponto crítico (funções), Pontos extremos de uma função.

David Luenberger

David Gilbert Luenberger (Los Angeles) é um cientista matemático conhecido por suas pesquisas e seus livros-texto, que focam sobre otimização.

Novo!!: Método do gradiente e David Luenberger · Veja mais »

Derivada

No cálculo, a derivada em um ponto de uma função y.

Novo!!: Método do gradiente e Derivada · Veja mais »

Equação diferencial ordinária

Em matemática e em particular na análise, uma equação diferencial ordinária (ou EDO) é uma equação que envolve as derivadas de uma função desconhecida de uma variável.

Novo!!: Método do gradiente e Equação diferencial ordinária · Veja mais »

Gradiente

No cálculo vetorial o gradiente (ou vetor gradiente) é um vetor que indica o sentido e a direção na qual, por deslocamento a partir do ponto especificado, obtém-se o maior incremento possível no valor de uma grandeza a partir da qual se define um campo escalar para o espaço em consideração.

Novo!!: Método do gradiente e Gradiente · Veja mais »

Hessiano

Em matemática, a matriz Hessiana de uma função "f" de n variáveis é a matriz quadrada com "n" colunas e "n" linhas (n X n) das derivadas parciais de segunda ordem da função.

Novo!!: Método do gradiente e Hessiano · Veja mais »

Matriz jacobiana

A Matriz Jacobiana (denominado do matemático alemão Carl Gustav Jakob Jacobi) é a matriz formada pelas derivadas parciais de primeira ordem de uma função vetorial.

Novo!!: Método do gradiente e Matriz jacobiana · Veja mais »

Método de Euler

obra.

Novo!!: Método do gradiente e Método de Euler · Veja mais »

Método de Newton–Raphson

Em análise numérica, o método de Newton (ou Método de Newton–Raphson), desenvolvido por Isaac Newton e Joseph Raphson, tem o objetivo de estimar as raízes de uma função.

Novo!!: Método do gradiente e Método de Newton–Raphson · Veja mais »

Método dos mínimos quadrados

O Método dos Mínimos Quadrados (MMQ), ou Mínimos Quadrados Ordinários (MQO) ou OLS (do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças são chamadas resíduos).

Novo!!: Método do gradiente e Método dos mínimos quadrados · Veja mais »

Mínimo

Em teoria dos conjuntos, o mínimo de um conjunto ordenado é o menor dos seus elementos relativamente a essa ordem.

Novo!!: Método do gradiente e Mínimo · Veja mais »

Otimização

máximo global em (''x, y, z'').

Novo!!: Método do gradiente e Otimização · Veja mais »

Pesquisa linear

A pesquisa linear é um método numérico usado em otimização, também entendido como método de descida em problemas de minimização.

Novo!!: Método do gradiente e Pesquisa linear · Veja mais »

Ponto crítico (funções)

Em matemática, um ponto crítico é um ponto no domínio de uma função onde a primeira derivada não existe ou é nula (no último caso também se pode designar por ponto estacionário).

Novo!!: Método do gradiente e Ponto crítico (funções) · Veja mais »

Pontos extremos de uma função

Esta função tem um mínimo global em ''x.

Novo!!: Método do gradiente e Pontos extremos de uma função · Veja mais »

CessanteEntrada
Ei! Agora estamos em Facebook! »