Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique

Séminaire du 8 avril 2021

De Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique
Révision datée du 24 mars 2021 à 09:35 par L.mazo (discussion | contributions) (Page créée avec « === Apprentissage par diffusion network : prediction reconstruction. Application à la stimulation profonde pour des patients parkinsoniens === ''Vincent Vigneron, MCF… »)
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche

Apprentissage par diffusion network : prediction reconstruction. Application à la stimulation profonde pour des patients parkinsoniens

Vincent Vigneron, MCF Univ. Evry, université Paris-Saclay, IBISC EA 4526, Computer Sciences Department


Au fur et à mesure que les deep learning neural networks (DNN) ont été étendus et améliorés, ils sont devenus beaucoup plus complexes, profonds, multitâches, multimodaux, multiobjectifs, etc. Un nouveau défi est donc apparu: comment configurer de tels systèmes ? Les ingénieurs peuvent optimiser une poignée de paramètres de configuration grâce à l’expérimentation, mais les DNN ont des topologies complexes et des centaines de milliers d’hyperparamètres. De plus, ces choix de conception sont importants ; souvent, le succès dépend du choix de la bonne architecture pour le problème. Une grande partie des travaux récents en apprentissage profond s’est en effet concentrée sur la proposition de différentes architectures conçues pour de nouveaux problèmes. Nous proposons d'expliquer pour 2 architectures de modèles génératifs, -- machine de Boltzmann et diffusion network" comment optimiser le choix de ce paramètrage.