Univ. Heidelberg
Statistik-Gruppe   Institut für Mathematik   Fakultät für Mathematik und Informatik   Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg Institut für Mathematik Arbeitsgruppe Statistik inverser Probleme
german english french



Publikationen
Kooperationen
Forschungsprojekte
Veranstaltungen
Lehre
Abschlussarbeiten
Personen
Kontakt


Zuletzt geändert am
18 Apr 2024 von JJ
.
Abschlussarbeit:
Bachelor in Mathematik 50%

Autorin:
Melissa Weber

Titel:
Lineare Einfachregression insbesondere in höherdimensionalen Modellen

Betreuer:
Sergio Brenner Miguel
Jan JOHANNES

Abstrakt:
In der folgenden Ausarbeitung wird die lineare Einfachregression eingeführt und mit Eingangsdaten höherer Dimension erweitert. Der Schwerpunkt soll dabei auf der Unterscheidung zwischen deterministischen und stochastischen Eingangsdaten liegen. Die ersten beiden Kapitel werden für feste und zufällige Daten getrennt betrachtet, sodass die jeweiligen Vorteile und auch Grenzen klar zum Ausdruck kommen. Ein großes Kapitel befasst sich mit der Möglichkeit, die Schätzer in einer (multiplen) linearen Regression mit Hilfe der Methode der kleinsten Quadrate zu bestimmen und schließt mit theoretischen Resultaten wie dem Gauß-Markow-Theorem, welches zeigt, dass der Kleinste-Quadrate-Schätzer der beste lineare unverfälschte Schätzer ist. Dieses Kapitel kann auf alle Dimensionen an Eingangsdaten angewandt werden und unterscheidet kaum zwischen festen und zufälligen Designs. Abschließend wird die Ridge Regression eingeführt mit Schwerpunkt auf der graphischen Visualisierung sowie Durchführung in der Statistiksoftware R. Diese Regression ist interessant, da sie besonders in hohen Dimensionen einige Vorteile gegenüber dem Kleinste-Quadrate-Schätzer aufzeigt. Ein Ausblick am Ende der Ausarbeitung soll das weitere Interesse am Thema anregen und eine Idee für die mögliche Fortsetzung geben.

Literatur:
S. Richter. Statistisches und maschinelles Lernen, Springer Spektrum, Berlin, 2019.