#79: Data Science on the Edge: Modelle in verteilten Umgebungen cover art

#79: Data Science on the Edge: Modelle in verteilten Umgebungen

#79: Data Science on the Edge: Modelle in verteilten Umgebungen

Listen for free

View show details

About this listen

Modelle auf Edge-Devices zu bringen ist kein Standard-Deployment – das zeigt sich im gesamten Life-Cycle: von der Datenpipeline über das Feature-Engineering bis zur Modellüberwachung. In dieser Folge diskutieren wir, wie sich gängige MLOps-Ansätze verändern, wenn Netzwerk, Datenschutz oder Ressourcen limitiert sind. Wir sprechen über typische Architektur-Entscheidungen, sinnvolle Deployment-Strategien und warum Murphys Law auf Edge-Setups besonders gut zutrifft. Am Ende bleibt die Erkenntnis: ohne triftigen Grund bleibt man besser in der Cloud.

**Zusammenfassung**

  • Edge Computing verändert die Art und Weise, wie Modelle in der Data Science implementiert werden
  • Offline-Serving ist der einfachste Fall, während Online-Serving komplexere Anforderungen hat
  • Latenz ist ein kritischer Faktor bei der Nutzung von Edge-Devices
  • Datenbeschaffung kann über Push- oder Pull-Ansätze erfolgen
  • Feature Engineering muss an die Einschränkungen von Edge-Devices angepasst werden
  • Modelltraining kann sowohl zentral als auch lokal auf Edge-Devices erfolgen
  • CI/CD-Prozesse müssen an die spezifischen Anforderungen von Edge-Devices angepasst werden
  • Monitoring ist entscheidend, um die Leistung von Modellen auf Edge-Devices zu bewerten
  • Die Qualität der Daten und der Sensoren hat einen direkten Einfluss auf die Modellleistung
  • Ein erfolgreicher Einsatz von Edge Computing erfordert enge Zusammenarbeit zwischen Data Science und Engineering-Teams

**Links**

  • #54: Modell-Deployment: Wie bringe ich mein Modell in die Produktion? https://www.podbean.com/ew/pb-hhhwu-16b91f3

📬 Fragen, Feedback oder Themenwünsche? Schreibt uns gern an: podcast@inwt-statistics.de

No reviews yet