62 - Generative AI unter der Haube 2: Pre-Training und Finetuning mit Mariano Kamp

62 - Generative AI unter der Haube 2: Pre-Training und Finetuning mit Mariano Kamp

vor 2 Jahren
41 Minuten
Podcast
Podcaster

Beschreibung

vor 2 Jahren

In dieser zweiten Episode des AWS Podcasts "Cloud Horizonte"
tauchen Oskar Neumann und Pawel Warmuth erneut mit Mariano Kamp
in die technischen Details der Generativen KI (Gen AI) ein. Wir
werfen einen Blick auf Pre-Training mit dem BERT-Modell, das die
Basis für Large Language Models (LLMs) bildet. Mariano erklärt
den Übergang vom supervisierten Lernen zu ungelabelten Daten,
erläutert das Konzept des "Lückentexts" zur Wissensgewinnung und
beschreibt den Prozess des Finetunings, um ein Pre-Trained-Modell
auf spezifische Aufgaben zuzuschneiden. Erfahren Sie, wie diese
Techniken das Verständnis von Sprache und Bedeutung in Gen AI
ermöglichen.


Hörerfragen für nehmen wir gerne als Email an:
aws-cloud-horizonte@amazon.com


Links:


https://awsnlpconference2023.splashthat.com/

15
15
Close