In Kooperation mit Coherent in Lübeck
Warum das spannend ist
- Du bringst einem Modell bei, Mikro‑Defekte in optischen/laserbezogenen Komponenten zu erkennen – teils über drei Größenordnungen (≈10³) hinweg.
- Du arbeitest nah an der Praxis (echte Daten, echtes Setup) .
- Du baust End‑to‑End: von Daten über Modell bis Deployment inkl. Explainability und Drift‑Alarm.
Kontext & Ziel
Heute wird Qualitätsprüfung bei Coherent in Lübeck noch manuell erledigt. Kommerzielle Tools gibt’s, aber ein erklärbarer In‑house‑Prototyp ermöglicht schnelleres Lernen, Kostenkontrolle und höhere Akzeptanz bei den Nutzer*innen. Ziel der Arbeit ist ein produktnaher Prototyp, der robust, nachvollziehbar und betreibbar ist.
Leitfragen
- Welche ML‑Ansätze eignen sich für mikroskopische Defekte mit stark variierenden Skalen?
- Wie nützlich sind Grad‑CAM / Integrated Gradients für Vertrauen und Triage im Alltag?
- Wie erkennen wir Daten‑/Label‑Drift (Beleuchtung, Mikroskop‑Settings) und triggern Retraining sinnvoll?
- On‑Prem vs. Managed (Azure): Kosten, Latenz, Monitoring – was passt für Produktion?
Datensatz
- Mikroskopie‑/Inspektionsbilder, binäre oder mehrklassige Defektlabels (ggf. Masken).
- Zielumfang: ≈ 5–20k Bilder (je nach Verfügbarkeit), ergänzt um synthetische Augmentationen.
- Vertraulich, intern. Proof‑of‑Concept ist bereits positiv.
Mögliche Aufgaben
- Baselines bauen
- Modelle trainieren & vergleichen
- Training & Evaluation
- Explainability
- Drift‑Monitoring
- MLOps & Serving
- Deployment‑Pfad evaluieren
Ergebnisse
- End‑to‑End ML in echt: Daten → Modell → UI → Betrieb.
- Explainable AI und Drift‑Detection praxisnah.
- MLOps‑Grundlagen: Reproduzierbarkeit, Versionierung, Registries, CI/CD‑Denke.
- Entscheidungskompetenz On‑Prem vs. Cloud.
