Univ. Heidelberg
Statistik-Gruppe   Institut für Mathematik   Fakultät für Mathematik und Informatik   Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg Institut für Mathematik Arbeitsgruppe Statistik inverser Probleme
german english french



Publikationen
Kooperationen
Forschungsprojekte
Veranstaltungen
Lehre
Abschlussarbeiten
Personen
Kontakt


Zuletzt geändert am
18 Apr 2024 von JJ
.
Abschlussarbeit:
Bachelor in Mathematik

Autor:
Jakob Schulz

Titel:
Optimal convergence of classifiers in statistical learning

Betreuer:
Jan JOHANNES

Abstrakt:
Im Bereich des statistischen Lernens sind ,Empirical Risk Minimization’-Klassifizierungen ein Ansatz, um möglichst schnelle Konvergenzraten zu erreichen. Diese Raten hängen weitgehend von zwei Parametern ab: Der Komplexität der Klasse, aus der wir unsere Klassifizierung wählen, und dem Randparameter. Diese Arbeit bietet einen Einblick in die Theorie empirischer Prozesse und leitet auf dieser Grundlage eine obere Schranke für die Konvergenzraten her, zum einen in Abhängigkeit von den Parametern, zum anderen für den Fall, dass die Parameter nicht bekannt sind. Anschließend wird gezeigt, dass die so erreichten Raten nicht im Minimax-Sinn verbessert werden können.

Literatur:
A. B. Tsybakov. Optimal aggregation of classifiers in statistical learning. The Annals of Statistics, 32(1):135–166, 2003.