#64: Predictive LLMs: Übertreffen Open-Source-Modelle jetzt OpenAI und XGBoost bei Preisprognosen?
41 Minuten
Podcast
Podcaster
Beschreibung
vor 10 Monaten
Teil 2 unseres Preisprognose-Experiments für Gebrauchtfahrzeuge:
Können Open-Source-LLMs wie Llama 3.1, Mistral und Leo-HessianAI
mit GPT-3.5 mithalten? Wir haben fleißig gefinetuned, bis die
Motoren qualmten – und es zeigt sich, dass die Unterschiede gar
nicht mehr so groß sind. Mit ausreichend vielen
Trainingsbeobachtungen nähern sich die Open-Source-Modelle den
Ergebnissen von GPT-3.5 an und können es in einzelnen Metriken
sogar übertreffen. Für das Finetuning größerer Modelle sind
jedoch auch leistungsfähige GPUs notwendig, was die
Ressourcenanforderungen deutlich erhöht. In der Folge beleuchten
wir, welchen Mehrwert diese Open-Source-LLMs für praxisnahe Use
Cases liefern und welche Herausforderungen dabei auftreten.
Zusammenfassung:
Vergleich von OpenAI GPT-3.5 und drei Open-Source-LLMs (Llama
3.1, Mistral 7B, Leo-HessianAI)
Finetuning der Modelle auf lokalen Daten
Ergebnisse: Open-Source-LLMs sind bei größerem
Trainingsdatensatz fast so gut wie GPT-3.5
XGBoost hinkt etwas hinterher, da Freitexte hier nicht
einbezogen wurden
Wichtige Faktoren: Batchgröße, Trainingsschritte,
Speicherbedarf und Nutzung von Lora-Finetuning
Beim Einsatz von Open Source ist mehr Handarbeit nötig, dafür
bleibt alles on-premise
OpenAI punktet durch Einfachheit und hohe Qualität ohne
großen Datenbedarf
Frameworks wie Huggingface, Mistral Codebase und Torchtune
unterstützen das Finetuning
Ausblick: größere LLMs mit Multi-GPU, multimodale Daten und
Unsicherheitsquantifizierung
***Links***
[Blog] Predictive LLMs: Übertreffen Open-Source-Modelle
OpenAI bei Preisprognosen?
https://www.inwt-statistics.de/blog/predictive-llms-uebertreffen-os-modelle-openai-bei-preisprognosen
[Podcast] #50: Predictive Analytics mit LLMs: ist GPT3.5
besser als XGBoost? https://www.podbean.com/ew/pb-n6wem-165cb2c
[Blog] Predictive LLMs: Kann GPT-3.5 die Prognosen von
XGBoost verbessern?
https://www.inwt-statistics.de/blog/predictive-llms-kann-gpt-xgboost-prognosen-verbessern
[Podcast] #43: Damit es im Live-Betrieb nicht kracht:
Vermeidung von Overfitting & Data Leakage
https://www.podbean.com/ew/pb-vw736-15baac0
[Link] Llama-3.1-8B-Instruct auf Huggingface
https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct - [Link]
Mistral-7B-Instruct-v0.3 auf Huggingface
https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.3
[Link] Mistral 7B Release Notes
https://mistral.ai/news/announcing-mistral-7b/
[Link] leo-hessianai-7b auf Huggingface
https://huggingface.co/LeoLM/leo-hessianai-7b
[Link] The Hessian Center for Artificial Intelligence
https://hessian.ai/de/
[Docs] LangChain: How to return structured data from a model
https://python.langchain.com/docs/how_to/structured_output/#the-with_structured_output-method
[Link] Wie hoch sind die Treibhausgasemissionen pro Person in
Deutschland durchschnittlich?
https://www.umweltbundesamt.de/service/uba-fragen/wie-hoch-sind-die-treibhausgasemissionen-pro-person#:~:text=Der%20deutsche%20Aussto%C3%9F%20an%20Treibhausgasen,sehr%20gro%C3%9Fe%20Unterschiede%20im%20Konsumniveau.
Weitere Episoden
31 Minuten
vor 3 Wochen
34 Minuten
vor 1 Monat
44 Minuten
vor 1 Monat
26 Minuten
vor 2 Monaten
36 Minuten
vor 3 Monaten
In Podcasts werben
Kommentare (0)