Größer, schneller, nachhaltiger? Wie KI-Designs auf verschiedener Hardware effizienter werden können

Printer-friendly versionSend by emailPDF version

Marius Lindauer, Leibniz Universität Hannover

 

Über den Vortrag:

Die rasante Entwicklung immer größerer KI-Modelle bringt Hardware-Ressourcen und Energieverbrauch an ihre Grenzen. Gleichzeitig verlangt modernes KI-Design eine stärkere Integration von Hardware-Constraints, um nachhaltig und effizient zu bleiben. AutoML bietet spannende Ansätze, um KI-Modelle automatisiert zu optimieren, doch insbesondere Hardware-aware Neural Architecture Search (NAS) – ein vielversprechendes Teilfeld von AutoML – steckt noch in den Kinderschuhen. Dieser Vortrag beleuchtet die Potenziale und Synergien zwischen AutoML und Hardware-Design, diskutiert Herausforderungen und skizziert Wege, wie diese Technologien gemeinsam die Zukunft der KI-Entwicklung prägen könnten.

Curriculum Vitae

Marius LindauerProf. Dr. Marius Lindauer ist seit 2019 Professor für Maschinelles Lernen an der Leibniz Universität Hannover und leitet das Institut für KI (LUHAI) seit 2022. Seine Promotion erhielt er 2015 an der Universität Potsdam unter der Betreuung von Prof. Dr. Thorsten Schaub und Prof. Dr. Holger Hoos. Von 2014 bis 2019 war er Postdoc an der Universität Freiburg unter Prof. Dr. Frank Hutter. Neben seiner Mitgliedschaft bei ELLIS, CLAIRE und der Plattform Lernende Systeme (PLS) ist er einer der Mitbegründer von automl.org sowie Mitinitiator des Forschungsnetzwerks COSEAL, der AutoML-Konferenz und des Instituts für Künstliche Intelligenz an der Leibniz Universität Hannover. Er hat über die Jahre mehrere internationale KI-Wettbewerbe gewonnen. Zudem hat er zahlreiche eingeladene Vorträge gehalten, unter anderem auf der Open Data Science Conference in London und bei TEDx, sowie Tutorials auf renommierten KI-Konferenzen und Sommerakademien wie AAAI, IJCAI und ESSAI. Im Jahr 2022 wurde ihm ein ERC Starting Grant verliehen, eine der angesehensten Forschungsförderungen für europäische Wissenschaftler*innen. Seine Forschungsinteressen umfassen Automatisiertes Maschinelles Lernen, Bayessche Optimierung, Neural Architecture Search, Interpretierbarkeit und Reinforcement Learning.