#79: Data Science on the Edge: Modelle in verteilten Umgebungen

#79: Data Science on the Edge: Modelle in verteilten Umgebungen

56 Minuten

Beschreibung

vor 3 Monaten

Modelle auf Edge-Devices zu bringen ist kein Standard-Deployment
– das zeigt sich im gesamten Life-Cycle: von der Datenpipeline
über das Feature-Engineering bis zur Modellüberwachung. In dieser
Folge diskutieren wir, wie sich gängige MLOps-Ansätze verändern,
wenn Netzwerk, Datenschutz oder Ressourcen limitiert sind. Wir
sprechen über typische Architektur-Entscheidungen, sinnvolle
Deployment-Strategien und warum Murphys Law auf Edge-Setups
besonders gut zutrifft. Am Ende bleibt die Erkenntnis: ohne
triftigen Grund bleibt man besser in der Cloud.


 


**Zusammenfassung**


Edge Computing verändert die Art und Weise, wie Modelle in
der Data Science implementiert werden

Offline-Serving ist der einfachste Fall, während
Online-Serving komplexere Anforderungen hat

Latenz ist ein kritischer Faktor bei der Nutzung von
Edge-Devices

Datenbeschaffung kann über Push- oder Pull-Ansätze erfolgen

Feature Engineering muss an die Einschränkungen von
Edge-Devices angepasst werden

Modelltraining kann sowohl zentral als auch lokal auf
Edge-Devices erfolgen

CI/CD-Prozesse müssen an die spezifischen Anforderungen von
Edge-Devices angepasst werden

Monitoring ist entscheidend, um die Leistung von Modellen auf
Edge-Devices zu bewerten

Die Qualität der Daten und der Sensoren hat einen direkten
Einfluss auf die Modellleistung

Ein erfolgreicher Einsatz von Edge Computing erfordert enge
Zusammenarbeit zwischen Data Science und Engineering-Teams



**Links**


#54: Modell-Deployment: Wie bringe ich mein Modell in die
Produktion? https://www.podbean.com/ew/pb-hhhwu-16b91f3



Fragen, Feedback oder Themenwünsche? Schreibt uns gern an:
podcast@inwt-statistics.de

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15