001     250760
005     20230121173656.0
024 7 _ |a G:(GEPRIS)504263168
|d 504263168
035 _ _ |a G:(GEPRIS)504263168
040 _ _ |a GEPRIS
|c http://gepris.its.kfa-juelich.de
150 _ _ |a Gradientenabstiegsmethoden für das Lernen tiefer neuronaler Netze (A01)
|y 2022 -
371 _ _ |a Professor Dr. Holger Rauhut
371 _ _ |a Professor Dr. Michael Westdickenberg
450 _ _ |a SFB 1481 A01
|w d
|y 2022 -
510 1 _ |a Deutsche Forschungsgemeinschaft
|0 I:(DE-588b)2007744-0
|b DFG
550 _ _ |0 G:(GEPRIS)442047500
|a SFB 1481: Sparsity und singuläre Strukturen
|w t
680 _ _ |a Dieses Projekt zielt auf Fortschritte beim Verständnis der Konvergenzeigenschaften von (stochastischen) Gradientenabstiegsmethoden für das Training tiefer neuronaler Netze ab. Wir wollen mehrere Erweiterungen von vorläufigen Ergebnissen der PIs für (vollständig verbundene) lineare Netze erreichen. Zum Beispiel werden wir für das Training strukturierter linearer sowie nichtlinearer neuronaler Netze die Konvergenz zu globalen Minimierern untersuchen. Ein wichtiger Aspekt des Projekts wird die Untersuchung der Riemannschen Geometrie sein,die den entsprechenden Gradientenflüssen zugrunde liegt.
909 C O |o oai:juser.fz-juelich.de:916797
|p authority:GRANT
|p authority
909 C O |o oai:juser.fz-juelich.de:916797
980 _ _ |a G
980 _ _ |a AUTHORITY


LibraryCollectionCLSMajorCLSMinorLanguageAuthor
Marc 21