14 relações: David Luenberger, Derivada, Equação diferencial ordinária, Gradiente, Hessiano, Matriz jacobiana, Método de Euler, Método de Newton–Raphson, Método dos mínimos quadrados, Mínimo, Otimização, Pesquisa linear, Ponto crítico (funções), Pontos extremos de uma função.
David Luenberger
David Gilbert Luenberger (Los Angeles) é um cientista matemático conhecido por suas pesquisas e seus livros-texto, que focam sobre otimização.
Novo!!: Método do gradiente e David Luenberger · Veja mais »
Derivada
No cálculo, a derivada em um ponto de uma função y.
Novo!!: Método do gradiente e Derivada · Veja mais »
Equação diferencial ordinária
Em matemática e em particular na análise, uma equação diferencial ordinária (ou EDO) é uma equação que envolve as derivadas de uma função desconhecida de uma variável.
Novo!!: Método do gradiente e Equação diferencial ordinária · Veja mais »
Gradiente
No cálculo vetorial o gradiente (ou vetor gradiente) é um vetor que indica o sentido e a direção na qual, por deslocamento a partir do ponto especificado, obtém-se o maior incremento possível no valor de uma grandeza a partir da qual se define um campo escalar para o espaço em consideração.
Novo!!: Método do gradiente e Gradiente · Veja mais »
Hessiano
Em matemática, a matriz Hessiana de uma função "f" de n variáveis é a matriz quadrada com "n" colunas e "n" linhas (n X n) das derivadas parciais de segunda ordem da função.
Novo!!: Método do gradiente e Hessiano · Veja mais »
Matriz jacobiana
A Matriz Jacobiana (denominado do matemático alemão Carl Gustav Jakob Jacobi) é a matriz formada pelas derivadas parciais de primeira ordem de uma função vetorial.
Novo!!: Método do gradiente e Matriz jacobiana · Veja mais »
Método de Euler
obra.
Novo!!: Método do gradiente e Método de Euler · Veja mais »
Método de Newton–Raphson
Em análise numérica, o método de Newton (ou Método de Newton–Raphson), desenvolvido por Isaac Newton e Joseph Raphson, tem o objetivo de estimar as raízes de uma função.
Novo!!: Método do gradiente e Método de Newton–Raphson · Veja mais »
Método dos mínimos quadrados
O Método dos Mínimos Quadrados (MMQ), ou Mínimos Quadrados Ordinários (MQO) ou OLS (do inglês Ordinary Least Squares) é uma técnica de otimização matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando minimizar a soma dos quadrados das diferenças entre o valor estimado e os dados observados (tais diferenças são chamadas resíduos).
Novo!!: Método do gradiente e Método dos mínimos quadrados · Veja mais »
Mínimo
Em teoria dos conjuntos, o mínimo de um conjunto ordenado é o menor dos seus elementos relativamente a essa ordem.
Novo!!: Método do gradiente e Mínimo · Veja mais »
Otimização
máximo global em (''x, y, z'').
Novo!!: Método do gradiente e Otimização · Veja mais »
Pesquisa linear
A pesquisa linear é um método numérico usado em otimização, também entendido como método de descida em problemas de minimização.
Novo!!: Método do gradiente e Pesquisa linear · Veja mais »
Ponto crítico (funções)
Em matemática, um ponto crítico é um ponto no domínio de uma função onde a primeira derivada não existe ou é nula (no último caso também se pode designar por ponto estacionário).
Novo!!: Método do gradiente e Ponto crítico (funções) · Veja mais »
Pontos extremos de uma função
Esta função tem um mínimo global em ''x.
Novo!!: Método do gradiente e Pontos extremos de uma função · Veja mais »