?ber den Lehrstuhl
- Telefon: +49 (821) 598 5703
- E-Mail: rainer.lienhart@uni-auni-a.de ()
- Raum 1013 (Geb?ude N)
Herzlich willkommen am Lehrstuhl für Maschinelles Lernen und Maschinelles Sehen.?
?
FORSCHUNG
Am Lehrstuhl für “Maschinelles Lernen und Maschinelles Sehen” (engl. Machine Learning and Computer Vision) werden Verfahren zum maschinellen Lernen und Sehen sowie Wahrnehmen im Allgemeinen erforscht. Neben der Erforschung und Entwicklung von Verfahren, die speziell auf Bild, Video, Sensor- und Multimediadaten (= Daten von unterschiedlichen Quellen und unterschiedlicher Art) ausgerichtet sind, werden auch Verfahren des Data Mining und Analytics auf Produktionsdaten erforscht, weil deren Sensordaten ebenso eine Form von Wahrnehmung darstellen. Ein bedeutender Schwerpunkt ist die Erkennung von Menschen, deren Pose und Aktionen in 2D und 3D, deren Bewegungsvoraussage in die Zukunft sowie die Auswertung der Güte von Bewegungen (z.B. im Weit-/Dreisprung, Schwimmen und Skispringen für unserer Olympioniken). Auch für medizinische Daten (MRT, Kolos?kopievideos) entwickelt der Lehrstuhl automatische Verfahren zur Erkennung von medizinischen Befunden sowie für die automatische Erstellung von textuellen Befunden (engl. Report Generation). Ein dritter Schwerpunkt am Lehrstuhl bildet die Erforschung von Verfahren zur Erzeugung von neuen Trainingsbeispielen durch Synthese mittels Generative Adversarial Networks (GANs), welche es erlauben, die für tiefe neuronale Netze ben?tigt gro?e Zahl an Trainingsbeispielen aus einer kleinen domainspezifischen Trainingsmenge oder zus?tzlich aus einer gro?en domainfremden Trainingsmenge zu synthetisieren, und welche damit weit über die M?glichkeiten des einfachen Data Augmentation hinausgehen.
?
- Angewandtes Maschinelles Lernen (Applied?Machine Learning, e.g., deep neural networks, bayesian networks, random forests)
- Maschinelles Sehen (Computer Vision) wie multimodale Detektion, Lokalisation und Erkennung von Menschen, Objekten und Ereignissen sowie industrielle visuelle und multimodale Materialprüfung
- Data Mining von multimodalen Daten (z. B. Produktionsdaten)
- Indizierung und 拉斯维加斯赌城 in Bild, Video und multimodalen Dokumenten
- Erzeugung von neuen Trainingsbeispielen durch Synthese mittels Generative Adversarial Networks (GANs)?aus einer kleinen domainspezifischen Trainingsmenge oder zus?tzlich aus einer gro?en domainfremden Trainingsmenge?
LEHRE
Bachelor: Multimedia Grundlagen 1 (B), Grundlagen Signalverarbeitung und Maschinelles Lernen (B), Multimedia Projekt (B)
Master:?Maschinelles Lernen und maschinelles Sehen (Machine Learning? & Computer Vision) (M), Fortgeschrittenes maschinelles Lernen und maschinelles Sehen (Advanced Machine Learning? & Computer Vision) (M), Foundation Models in Deep Learning (M), Advanced Deep Learning (M)
JOBANGEBOTE
- einen überdurchschnittlichen Hochschulabschluss (Master oder vergleichbar) in Informatik, Elektrotechnik, Mathematik, Physik, Data Science oder verwandten Gebieten,?
- Begeisterung für einen der Forschungsschwerpunkte des Lehrstuhls (z.B. Computer Vision, 3D Vision, Maschine Learning, Physics-informed Networks, 3D Human Pose and Mesh Estimation, Spatio-Temporal Prediction) sowie Freude und Ausdauer, auf diesen forschen zu wollen,
- idealerweise Erfahrungen aus dem Studium in den Bereichen der maschinellen Wahrnehmung (engl. Computer Vision) und des maschinellen Lernens (engl. Machine Learning),
- gute Programmierkenntnisse in einer g?ngigen Hochsprache (z.B. Python)
- idealerweise praktische Erfahrungen in Werkzeugen des maschinellen Lernens wie z.B. PyTorch, JAX, TensorFlow oder Sci-Kit Learn
- ein hohes Ma? an Selbstorganisation und Eigeninitiative
- gute Deutsch- und Englischkenntnisse
- eine aktive Unterstützung unseres Lehrangebots
- gute Kommunikations- und Teamf?higkeiten.
Studenten(HiWi):
Wir suchen au?erdem studentische Hilfskr?fte (HiWis) zur Unterstützung unserer aktuellen Forschungsprojekte. Die Hauptaufgabe besteht in der Programmierung (Skripterstellung) für verschiedene Zwecke (kleine und einfache Projekte) und im Datenmanagement. Für weitere Informationen wenden Sie sich bitte an Daniel Kienzle, Mrunmai Phatak, Marco Riedenauer oder Julian Lorenz.
?
?
?
?
?