Datenbestand vom 10. Dezember 2024
Verlag Dr. Hut GmbH Sternstr. 18 80538 München Tel: 0175 / 9263392 Mo - Fr, 9 - 12 Uhr
aktualisiert am 10. Dezember 2024
978-3-8439-4481-6, Reihe Mathematik
Sophie Langer Ein Beitrag zur statistischen Theorie des Deep Learnings
156 Seiten, Dissertation Technische Universität Darmstadt (2020), Hardcover, A5
Deep Learning verschafft dem Computer die Fähigkeit selbstständig zu lernen und revolutioniert derzeit die Weiterentwicklung der künstlichen Intelligenz. Hinter dem Begriff Deep Learning stehen tiefe neuronale Netze. Darauf basierende Anwendungen erfuhren in den letzten Jahren einen rapiden Fortschritt und erzielen heute in Bereichen wie Sprach- und Bilderkennung sowie dem autonomen Fahren beeindruckende Erfolge. Diese lassen sich bislang nur bedingt theoretisch nachweisen, sodass eine Forschungslücke zwischen Theorie und Praxis besteht.
Ziel der vorliegenden Arbeit ist es, einen Beitrag zu der aktuellen statistischen Theorie des Deep Learnings zu leisten. Einige Arbeiten beschäftigten sich bereits mit dem Einsatz von neuronalen Netzen als nichtparametrische Regressionsschätzer. Unter bestimmten kompositionellen Annahmen an die Regressionsfunktion konnten für diese Schätzer dimensionsfreie Konvergenzraten hergeleitet und so der Fluch der hohen Dimension umgangen werden. Die hierbei angenommene Topologie der verwendeten Netze wies stets eine unvollständige Verbundenheit der Neuronen in aufeinanderfolgenden Schichten auf. Eine Annahme, die bislang als essenziell für den Erfolg der Netze angesehen wurde. Die Ergebnisse der vorliegenden Arbeit stellen die Notwendigkeit dieser Annahme allerdings in Frage. Aufbauend auf einem neuen Approximationsresultat für vollverbundene neuronale Netze, werden für einen darauf basierenden Schätzer vergleichbare dimensionsfreie Konvergenzraten hergeleitet.
Des Weiteren werden neuronale Netze zur Schätzung von Regressionsfunktionen mit kleiner lokaler Dimension eingesetzt. Gezeigt wird, dass ein auf neuronalen Netzen basierender Schätzer für diese Funktionsklasse ebenfalls dimensionsfreie Konvergenzergebnisse erzielt. Grundlegend für den Beweis ist hierbei ein Resultat, das die Verbindung zwischen neuronalen Netzen und einem anderen statistischen Verfahren, den multivariaten adaptiven Regressionssplines, untersucht.