#79: Data Science on the Edge: Modelle in verteilten Umgebungen
56 Minuten
Podcast
Podcaster
Beschreibung
vor 3 Monaten
Modelle auf Edge-Devices zu bringen ist kein Standard-Deployment
– das zeigt sich im gesamten Life-Cycle: von der Datenpipeline
über das Feature-Engineering bis zur Modellüberwachung. In dieser
Folge diskutieren wir, wie sich gängige MLOps-Ansätze verändern,
wenn Netzwerk, Datenschutz oder Ressourcen limitiert sind. Wir
sprechen über typische Architektur-Entscheidungen, sinnvolle
Deployment-Strategien und warum Murphys Law auf Edge-Setups
besonders gut zutrifft. Am Ende bleibt die Erkenntnis: ohne
triftigen Grund bleibt man besser in der Cloud.
**Zusammenfassung**
Edge Computing verändert die Art und Weise, wie Modelle in
der Data Science implementiert werden
Offline-Serving ist der einfachste Fall, während
Online-Serving komplexere Anforderungen hat
Latenz ist ein kritischer Faktor bei der Nutzung von
Edge-Devices
Datenbeschaffung kann über Push- oder Pull-Ansätze erfolgen
Feature Engineering muss an die Einschränkungen von
Edge-Devices angepasst werden
Modelltraining kann sowohl zentral als auch lokal auf
Edge-Devices erfolgen
CI/CD-Prozesse müssen an die spezifischen Anforderungen von
Edge-Devices angepasst werden
Monitoring ist entscheidend, um die Leistung von Modellen auf
Edge-Devices zu bewerten
Die Qualität der Daten und der Sensoren hat einen direkten
Einfluss auf die Modellleistung
Ein erfolgreicher Einsatz von Edge Computing erfordert enge
Zusammenarbeit zwischen Data Science und Engineering-Teams
**Links**
#54: Modell-Deployment: Wie bringe ich mein Modell in die
Produktion? https://www.podbean.com/ew/pb-hhhwu-16b91f3
Fragen, Feedback oder Themenwünsche? Schreibt uns gern an:
podcast@inwt-statistics.de
Weitere Episoden
31 Minuten
vor 3 Wochen
34 Minuten
vor 1 Monat
44 Minuten
vor 1 Monat
26 Minuten
vor 2 Monaten
36 Minuten
vor 3 Monaten
In Podcasts werben
Kommentare (0)