000250760 001__ 250760
000250760 005__ 20230121173656.0
000250760 0247_ $$aG:(GEPRIS)504263168$$d504263168
000250760 035__ $$aG:(GEPRIS)504263168
000250760 040__ $$aGEPRIS$$chttp://gepris.its.kfa-juelich.de
000250760 150__ $$aGradientenabstiegsmethoden für das Lernen tiefer neuronaler Netze (A01)$$y2022 -
000250760 371__ $$aProfessor Dr. Holger Rauhut
000250760 371__ $$aProfessor Dr. Michael Westdickenberg
000250760 450__ $$aSFB 1481 A01$$wd$$y2022 -
000250760 5101_ $$0I:(DE-588b)2007744-0$$aDeutsche Forschungsgemeinschaft$$bDFG
000250760 550__ $$0G:(GEPRIS)442047500$$aSFB 1481: Sparsity und singuläre Strukturen$$wt
000250760 680__ $$aDieses Projekt zielt auf Fortschritte beim Verständnis der Konvergenzeigenschaften von (stochastischen) Gradientenabstiegsmethoden für das Training tiefer neuronaler Netze ab. Wir wollen mehrere Erweiterungen von vorläufigen Ergebnissen der PIs für (vollständig verbundene) lineare Netze erreichen. Zum Beispiel werden wir für das Training strukturierter linearer sowie nichtlinearer neuronaler Netze die Konvergenz zu globalen Minimierern untersuchen. Ein wichtiger Aspekt des Projekts wird die Untersuchung der Riemannschen Geometrie sein,die den entsprechenden Gradientenflüssen zugrunde liegt.
000250760 909CO $$ooai:juser.fz-juelich.de:916797$$pauthority$$pauthority:GRANT
000250760 909CO $$ooai:juser.fz-juelich.de:916797
000250760 980__ $$aG
000250760 980__ $$aAUTHORITY