- Abschlussarbeit:
- Bachelor in Mathematik
- Autor:
- Jakob Schulz
- Titel:
- Optimal convergence of classifiers in statistical learning
- Betreuer:
- Jan JOHANNES
- Abstrakt:
- Im Bereich des statistischen Lernens sind ,Empirical Risk Minimization’-Klassifizierungen ein Ansatz, um möglichst schnelle Konvergenzraten zu erreichen. Diese Raten hängen weitgehend von zwei Parametern ab: Der Komplexität der Klasse, aus der wir unsere Klassifizierung wählen, und dem Randparameter. Diese Arbeit bietet einen Einblick in die Theorie empirischer Prozesse und leitet auf dieser Grundlage eine obere Schranke für die Konvergenzraten her, zum einen in Abhängigkeit von den Parametern, zum anderen für den Fall, dass die Parameter nicht bekannt sind. Anschließend wird gezeigt, dass die so erreichten Raten nicht im Minimax-Sinn verbessert werden können.
Literatur:- A. B. Tsybakov. Optimal aggregation of classifiers in statistical learning. The Annals of Statistics, 32(1):135–166, 2003.