From a3696c795a389a55cf6f2f9602eef4065a371199 Mon Sep 17 00:00:00 2001 From: Gergaud <66357958+gergaud@users.noreply.github.com> Date: Thu, 5 Nov 2020 15:34:43 +0100 Subject: [PATCH] Update Sujet.md --- docs/src/Sujet.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/src/Sujet.md b/docs/src/Sujet.md index 38ab673..b911612 100644 --- a/docs/src/Sujet.md +++ b/docs/src/Sujet.md @@ -15,8 +15,8 @@ Dans cette partie, on s’intéresse à la résolution du problème ``\min _{x \in \mathbb{R}^{n}} f(x)`` où la fonction ``f`` est de classe ``C^{2}`` sur ``R^{n}`` . On cherche donc à exploiter l’information fournie -par ses dérivées première et seconde, que l’on représente en tout point x par le vecteur -gradient ``\nabla f (x) \in R^{n}`` et la matrice Hessienne ``\nabla^{2} f (x) \in R^{nxn}``. +par ses dérivées première et seconde, que l’on représente en tout point ``x`` par le vecteur +gradient ``\nabla f (x) \in R^{n}`` et la matrice Hessienne ``\nabla^{2} f (x) \in R^{n\times n}``. [1) Algorithme de Newton local](Algorithme_de_newton.md)