Profiles of Leading Women Scientists on AcademiaNet.
Search among the members of the Leopoldina for experts in specific fields or research topics.
Foto: Markus Scholz | Leopoldina
Year of election: | 2022 |
Section: | Mathematik |
City: | Zürich |
Country: | Schweiz |
Forschungsschwerpunkte: Statistische Kausalität, Statistik für hoch-dimensionale Modelle, maschinelles Lernen, statistische Analyse sowie Modellierung in Biologie und Medizin
Peter Bühlmann ist ein Schweizer Mathematiker und Datenwissenschaftler. Er betreibt Grundlagenforschung zu statistischen Verfahren für hoch-dimensionale Modelle und kausale Inferenz. Die Kombination dieser beiden Gebiete ist von zentraler Bedeutung für die Interpretation komplexer und großer Datenmengen. Er entwickelt neue statistische Methoden, die in der Systembiologie und der Medizin eingesetzt werden.
Die Arbeitsschwerpunkte von Peter Bühlmann liegen in den Bereichen des statistischen maschinellen Lernens, der Analyse und Methodologie von hoch-dimensionalen Modellen und der kausalen Inferenz. Die von ihm entwickelten mathematischen Methoden machen bisher verborgene Zusammenhänge und Kausalitäten in großen Datenmengen sichtbar. Sie werden in konkreten Anwendungen in der Molekularbiologie und Medizin eingesetzt und sollen zum Beispiel bei Patientinnen und Patienten das Risiko einer Sepsis frühzeitig erkennen. Die Methoden können aber auch dazu beitragen, komplexe Systeme robuster zu machen.
Er konnte erste theoretische Resultate für die Algorithmen „Bagging“ und „Boosting“ im maschinellen Lernen erzielen, insbesondere für hoch-dimensionale Probleme. Neue Erkenntnisse lieferte er in der mathematischen Theorie und statistischen Methodologie für dünn besetzte, hoch-dimensionalen Modelle. Er erfand die „Neighborhood Selection" für hoch-dimensionale ungerichtete graphische Modelle und die „Stability Selection" für die generische Stabilisierung und Kontrolle der falsch-positiven Fehlerrate. Beide haben sich als populäre Standard-Werkzeuge etabliert.
Außerdem erzielte Peter Bühlmann theoretische Ergebnisse über den PC-Algorithmus für hoch-dimensional gerichtete Modelle, welche direkte Konsequenzen für kausale Inferenz haben. Für die kausale Inferenz generell hat er das Prinzip der Invarianz bezüglich exogener Perturbationen propagiert. Es bildet die Grundlage, unter welchen Bedingungen kausale Relationen aus Daten entdeckt werden können, und liefert zugleich neue Einsichten, um Algorithmen im maschinellen Lernen robuster zu machen.