From b151776733cbbac5a80798034288dd9d314f1b51 Mon Sep 17 00:00:00 2001 From: Gergaud <66357958+gergaud@users.noreply.github.com> Date: Thu, 5 Nov 2020 19:20:53 +0100 Subject: [PATCH] Update Sujet.md --- docs/src/Sujet.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/src/Sujet.md b/docs/src/Sujet.md index c25a599..c30e365 100644 --- a/docs/src/Sujet.md +++ b/docs/src/Sujet.md @@ -15,7 +15,7 @@ Dans cette partie, on s’intéresse à la résolution du problème ``\min _{x \in \mathbb{R}^{n}} f(x)`` où la fonction ``f`` est de classe ``C^{2}`` sur ``R^{n}`` . On cherche donc à exploiter l’information fournie -par ses dérivées première et seconde, que l’on représente en tout point ``x`` par le vecteur +par ses dérivées première et seconde, que l’on représente en tout point x par le vecteur gradient ``\nabla f (x) \in R^{n}`` et la matrice Hessienne ``\nabla^{2} f (x) \in R^{n\times n}``. [1) Algorithme de Newton local](Algorithme_de_newton.md)