- Abschlussarbeit:
- Bachelor in Mathematik 50%
- Autorin:
- Melissa Weber
- Titel:
- Lineare Einfachregression insbesondere in höherdimensionalen Modellen
- Betreuer:
- Sergio Brenner Miguel
- Jan JOHANNES
- Abstrakt:
- In der folgenden Ausarbeitung wird die lineare Einfachregression eingeführt und mit Eingangsdaten höherer Dimension erweitert. Der Schwerpunkt soll dabei auf der Unterscheidung zwischen deterministischen und stochastischen Eingangsdaten liegen. Die ersten beiden Kapitel werden für feste und zufällige Daten getrennt betrachtet, sodass die jeweiligen Vorteile und auch Grenzen klar zum Ausdruck kommen. Ein großes Kapitel befasst sich mit der Möglichkeit, die Schätzer in einer (multiplen) linearen Regression mit Hilfe der Methode der kleinsten Quadrate zu bestimmen und schließt mit theoretischen Resultaten wie dem Gauß-Markow-Theorem, welches zeigt, dass der Kleinste-Quadrate-Schätzer der beste lineare unverfälschte Schätzer ist. Dieses Kapitel kann auf alle Dimensionen an Eingangsdaten angewandt werden und unterscheidet kaum zwischen festen und zufälligen Designs. Abschließend wird die Ridge Regression eingeführt mit Schwerpunkt auf der graphischen Visualisierung sowie Durchführung in der Statistiksoftware R. Diese Regression ist interessant, da sie besonders in hohen Dimensionen einige Vorteile gegenüber dem Kleinste-Quadrate-Schätzer aufzeigt. Ein Ausblick am Ende der Ausarbeitung soll das weitere Interesse am Thema anregen und eine Idee für die mögliche Fortsetzung geben.
Literatur:- S. Richter. Statistisches und maschinelles Lernen, Springer Spektrum, Berlin, 2019.