<?xml version="1.0" encoding="UTF-8"?>
<collection xmlns="http://www.loc.gov/MARC21/slim">
<record>
  <controlfield tag="001">250760</controlfield>
  <controlfield tag="005">20230121173656.0</controlfield>
  <datafield tag="035" ind1=" " ind2=" ">
    <subfield code="a">G:(GEPRIS)504263168</subfield>
  </datafield>
  <datafield tag="024" ind1="7" ind2=" ">
    <subfield code="a">G:(GEPRIS)504263168</subfield>
    <subfield code="d">504263168</subfield>
  </datafield>
  <datafield tag="040" ind1=" " ind2=" ">
    <subfield code="a">GEPRIS</subfield>
    <subfield code="c">http://gepris.its.kfa-juelich.de</subfield>
  </datafield>
  <datafield tag="150" ind1=" " ind2=" ">
    <subfield code="a">Gradientenabstiegsmethoden für das Lernen tiefer neuronaler Netze (A01)</subfield>
    <subfield code="y">2022 -</subfield>
  </datafield>
  <datafield tag="371" ind1=" " ind2=" ">
    <subfield code="a">Professor Dr. Holger Rauhut</subfield>
  </datafield>
  <datafield tag="371" ind1=" " ind2=" ">
    <subfield code="a">Professor Dr. Michael Westdickenberg</subfield>
  </datafield>
  <datafield tag="450" ind1=" " ind2=" ">
    <subfield code="a">SFB 1481 A01</subfield>
    <subfield code="w">d</subfield>
    <subfield code="y">2022 -</subfield>
  </datafield>
  <datafield tag="510" ind1="1" ind2=" ">
    <subfield code="a">Deutsche Forschungsgemeinschaft</subfield>
    <subfield code="0">I:(DE-588b)2007744-0</subfield>
    <subfield code="b">DFG</subfield>
  </datafield>
  <datafield tag="550" ind1=" " ind2=" ">
    <subfield code="0">G:(GEPRIS)442047500</subfield>
    <subfield code="a">SFB 1481: Sparsity und singuläre Strukturen</subfield>
    <subfield code="w">t</subfield>
  </datafield>
  <datafield tag="680" ind1=" " ind2=" ">
    <subfield code="a">Dieses Projekt zielt auf Fortschritte beim Verständnis der Konvergenzeigenschaften von (stochastischen) Gradientenabstiegsmethoden für das Training tiefer neuronaler Netze ab. Wir wollen mehrere Erweiterungen von vorläufigen Ergebnissen der PIs für (vollständig verbundene) lineare Netze erreichen. Zum Beispiel werden wir für das Training strukturierter linearer sowie nichtlinearer neuronaler Netze die Konvergenz zu globalen Minimierern untersuchen. Ein wichtiger Aspekt des Projekts wird die Untersuchung der Riemannschen Geometrie sein,die den entsprechenden Gradientenflüssen zugrunde liegt.</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:juser.fz-juelich.de:916797</subfield>
    <subfield code="p">authority:GRANT</subfield>
    <subfield code="p">authority</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">G</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">AUTHORITY</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:juser.fz-juelich.de:916797</subfield>
  </datafield>
</record>
</collection>