Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique

Différences entre les versions de « Séminaire du 8 avril 2021 »

De Équipe IMAGeS : Images, Modélisation, Apprentissage, Géométrie et Statistique
Aller à la navigation Aller à la recherche
(Page créée avec « === Apprentissage par diffusion network : prediction reconstruction. Application à la stimulation profonde pour des patients parkinsoniens === ''Vincent Vigneron, MCF… »)
 
(Aucune différence)

Version actuelle datée du 24 mars 2021 à 09:35

Apprentissage par diffusion network : prediction reconstruction. Application à la stimulation profonde pour des patients parkinsoniens

Vincent Vigneron, MCF Univ. Evry, université Paris-Saclay, IBISC EA 4526, Computer Sciences Department


Au fur et à mesure que les deep learning neural networks (DNN) ont été étendus et améliorés, ils sont devenus beaucoup plus complexes, profonds, multitâches, multimodaux, multiobjectifs, etc. Un nouveau défi est donc apparu: comment configurer de tels systèmes ? Les ingénieurs peuvent optimiser une poignée de paramètres de configuration grâce à l’expérimentation, mais les DNN ont des topologies complexes et des centaines de milliers d’hyperparamètres. De plus, ces choix de conception sont importants ; souvent, le succès dépend du choix de la bonne architecture pour le problème. Une grande partie des travaux récents en apprentissage profond s’est en effet concentrée sur la proposition de différentes architectures conçues pour de nouveaux problèmes. Nous proposons d'expliquer pour 2 architectures de modèles génératifs, -- machine de Boltzmann et diffusion network" comment optimiser le choix de ce paramètrage.