{"id":10707,"date":"2016-06-14T17:19:33","date_gmt":"2016-06-14T15:19:33","guid":{"rendered":"https:\/\/www.etalab.gouv.fr\/?p=10707"},"modified":"2019-06-18T10:34:22","modified_gmt":"2019-06-18T08:34:22","slug":"un-reseau-de-neurones-pour-opensolarmap-23","status":"publish","type":"post","link":"https:\/\/preprod.etalab.gouv.fr\/un-reseau-de-neurones-pour-opensolarmap-23","title":{"rendered":"Un r\u00e9seau de neurones pour OpenSolarMap (2\/3)"},"content":{"rendered":"\n
Apr\u00e8s avoir essay\u00e9 un algorithme tr\u00e8s simple, puis un ou plusieurs\nalgorithmes classiques, il est parfois (mais pas toujours) n\u00e9cessaire\nde mettre en place un algorithme sp\u00e9cialis\u00e9 dans le probl\u00e8me \u00e0\nr\u00e9soudre. Les r\u00e9seaux de neurones sont une cat\u00e9gorie\u00e9d\u2019algorithmes qui\nont fait leurs preuves de mani\u00e8re spectaculaire dans le domaine du\ntraitement d\u2019images.<\/strong><\/p>\n\n\n\n Au del\u00e0 de l\u2019effet de mode dont ils b\u00e9n\u00e9ficient, les r\u00e9seaux de\nneurones constituent bel et bien une avanc\u00e9e majeure en traitement\nd\u2019images et dans bien d\u2019autres domaines. Ce champ de recherche\nrepr\u00e9sente une proportion importante des articles parues dans les\nrevues de r\u00e9f\u00e9rence en machine learning : NIPS<\/a> et ICML<\/a>. Le domaine\njouit \u00e9galement d\u2019une pleine reconnaissance acad\u00e9mique comme\nl\u2019illustre la chaire annuelle de l\u2019INRIA au Coll\u00e8ge de France en \u00ab Informatique\net sciences num\u00e9riques \u00bb<\/a> consacr\u00e9e par Yann LeCun aux r\u00e9seaux\nneuronaux. Cette chaire, cours et s\u00e9minaires inclus, constitue\nd\u2019ailleurs une excellente introduction aux techniques des r\u00e9seaux\nneuronaux, parmi les multiples ressources disponibles librement sur\nInternet.<\/p>\n\n\n\n Les r\u00e9seaux de neurones sont \u00e9tudi\u00e9s depuis les ann\u00e9es 50 avec\nl\u2019invention du perceptron<\/a>. Mais\nceux qui bouleversent la communaut\u00e9 du machine learning depuis 2011 se\nd\u00e9nomment plus pr\u00e9cis\u00e9ment \u00ab r\u00e9seaux de neurones profonds \u00e0\nconvolution \u00bb (\u00ab deep convolutional neural networks \u00bb, abr\u00e9g\u00e9 parfois\nen CNN pour Convolutional Neural Networks ou encore ConvNets) :neurone<\/strong> : M\u00eame s’il y a une lointaine analogie\nentre les neurones biologiques et les neurones informatiques, ils\nconstituent deux domaines d’\u00e9tude \u00e0 ne pas confondre. Un neurone\ninformatique prend en entr\u00e9e plusieurs valeurs num\u00e9riques et\napplique une fonction \u00e0 ces entr\u00e9es. Le r\u00e9sultat num\u00e9rique de cette\nfonction constitue l’unique sortie du neurone. Le neurone Rectified\nLinear Unit<\/a>\u00e9(ReLU)\u00e9est majoritairement employ\u00e9 : chaque entr\u00e9e\nest\u00e9multipli\u00e9e par un coefficient (ou poids) puis cette somme est\nrenvoy\u00e9e si elle est positive, z\u00e9ro est renvoy\u00e9 sinon. \n<\/p>\n\n\n\nIntroduction<\/h1>\n\n\n\n