Profile exzellenter Wissenschaftlerinnen und Wissenschaftler bei AcademiaNet.
Suchen Sie unter den Mitgliedern der Leopoldina nach Expertinnen und Experten zu Fachgebieten oder Forschungsthemen.
Wahljahr: | 2012 |
Sektion: | Mathematik |
Stadt: | Zürich |
Land: | Schweiz |
Forschungsschwerpunkte: Empirische Prozesse, Entropie, hochdimensionale Modelle, l1-Regulierung, Wahrscheinlichkeitsungleichungen bei Stochastischen Prozessen, statistisches Lernen
Sara van de Geer lehrt und forscht auf dem Gebiet der mathematischen Statistik. Damit bewegt sie sich an der Schnittstelle zu konkreten Anwendungsfeldern aus verschiedenen Disziplinen, von der Medizin bis zur Wirtschaft. Ihre Arbeiten zur nicht-parametrischen und hoch-dimensionalen Statistik gelten als bahnbrechend. Sie war eine der frühen Pioniere, die die empirische Prozesstheorie – indiziert von Funktionen – auf statistische Methoden zur Schätzung abstrakter Parameter angewandt hat. Mit ihren Arbeiten hat sie großen Einfluss auf die moderne Statistik und die statistische Lerntheorie.
Sie legte den Grundstein für die theoretischen Eigenschaften von Schätzverfahren, die auf Probleme mit unbekannter „Sparsity“ angewendet werden können. In der Statistik beschreibt Sparsity die Anzahl der irrelevanten Parameter innerhalb einer Stichprobe. Mit ihren Arbeiten hat Sara van de Geer großen Einfluss auf die moderne Statistik und die statistische Lerntheorie.
Angesichts der heute in vielen Bereichen generierten Datenmengen ist die mathematische Statistik ein Schlüssel für deren Analyse und Interpretation. Eine zentrale Herausforderung ist dabei die Entwicklung von Analyseverfahren für massive Datensätze, komplexe Datenstrukturen und hochdimensionale Einflussgrößen. So gibt es eine Vielzahl von Algorithmen für maschinelles Lernen, die dabei helfen, mit Internet-Suchmaschinen wie Google bestimmte Informationen zu finden, Gene aufzuspüren, die für bestimmte Krankheiten verantwortlich sind, oder auch herauszufinden, welche Abnehmer sich für bestimmte Produkte interessieren könnten. Statistiker wie Sara van de Geer entwickeln nicht nur die entsprechenden Algorithmen, sie interessieren sich vor allem auch dafür, wie gut diese Algorithmen sind: wie genau die gefundenen Ergebnisse passen und wie signifikant sie sind. Weil es hierfür viele Einflussfaktoren gibt, werden diese Fragen mit Methoden der statistischen Analyse hochdimensionaler Daten erforscht. Solche Methoden zu entwickeln gehört auch zu van de Geers Forschungsgebiet.
Sie widmet sich der Theorie über die Beziehung zwischen der Komplexität eines Modells und der Schwierigkeit der Schätzung. Dafür nutzt sie einheitliche Wahrscheinlichkeitsungleichungen für Zufallsvariablen, die durch einen Parameter indiziert sind, und verschiedene Definitionen von Komplexität (Entropie). In dem hochdimensionalen Setup will sie zeigen, dass bestimmte statistische Verfahren in der Lage sind, ein „oracle“ zu imitieren, das das optimale Modell kennt. Ein Paradebeispiel ist das Lasso, das ein lineares Modell mit einer großen Anzahl von Variablen fast so gut abschätzen kann, als wäre bekannt, welche Variablen redundant sind. Die Anpassung an eine unbekannte „Sparsity“ ist ein anspruchsvolles Thema, das in weiten Bereichen der Statistik Anwendung findet.
Emil-Abderhalden-Str. 35
06108 Halle (Saale)
Tel. | 0345 - 47 239 - 120 |
Fax | 0345 - 47 239 - 149 |
archiv (at)leopoldina.org |