Glossaire



| 2 | 3 | A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z |

Gradient (Descente)

La descente de Gradient est la technique d'optimisation pour les fonctions non-linéaires (par exemple, la fonction d'erreur d'un réseau de neurones quand les pondérations varient) qui tente de déplacer par incrément sur des points successivement inférieurs dans l'espace de recherche, pour rechercher un minimum.