#27: Kann ein Large Language Model (LLM) bei der Klassifikation tabellarischer Daten XGBoost schlagen?
vor 2 Jahren
Wir diskutieren den Einsatz von Large Language Models (LLMs) zur
Klassifikation tabellarischer Daten, ein bis dato eher
unerforschtes Anwendungsfeld. Wir vergleichen die Leistung eines
LLMs mit der von XGBoost in einem Projekt zur Vorhersage von
Chur...
Podcast
Podcaster
Beschreibung
vor 2 Jahren
Wir diskutieren den Einsatz von Large Language Models (LLMs) zur
Klassifikation tabellarischer Daten, ein bis dato eher
unerforschtes Anwendungsfeld. Wir vergleichen die Leistung eines
LLMs mit der von XGBoost in einem Projekt zur Vorhersage von
Churn. Obwohl XGBoost noch die Nase vorn hat, zeigt das LLM
bemerkenswerte Ergebnisse. Wir beleuchten die technische
Umsetzung, Herausforderungen sowie Potenziale, und geben einen
Ausblick auf die Entwicklung dieses spannenden Anwendungsfeldes.
Links:
OpenAI Fine-Tune for Classification Example:
https://github.com/openai/openai-cookbook/blob/main/examples/Fine-tuned_classification.ipynb
TabLLM Paper: https://arxiv.org/abs/2210.10723
Dataset:
https://www.kaggle.com/datasets/datazng/telecom-company-churn-rate-call-center-data
Large Language Models in Production Conference:
https://home.mlops.community/public/events/llm-in-prod-part-ii-2023-06-20
Weitere Episoden
47 Minuten
vor 6 Tagen
47 Minuten
vor 2 Wochen
46 Minuten
vor 1 Monat
37 Minuten
vor 1 Monat
50 Minuten
vor 2 Monaten
Kommentare (0)
Melde Dich an, um einen Kommentar zu schreiben.