Wie es Computern gelingt, eigenständig mit Sprache umzugehen

Wie es Computern gelingt, eigenständig mit Sprache umzugehen

Mit Chris Biemann von der Universität Hamburg
50 Minuten

Beschreibung

vor 11 Monaten
Seit mächtige Sprachmodelle der breiten Weltöffentlichkeit zur
Verfügung stehen, ist der Erfolg der Computerlinguistik
offenkundig: Man hat dort Rechnerarchitekturen entwickelt, die in
der Lage sind, intuitive menschliche Sprache zu prozessieren. Das
Verhalten, das diese Systeme zeigen, ist im Detail kaum noch
nachvollziehbar, umso beeindruckender sind die Ergebnisse, die sie
liefern: Assistenzsysteme, die mit diesen Sprachmodellen
ausgerüstet sind, lassen sich steuern und generieren Output, als
würden sie Sprache tatsächlich selbst beherrschen – und ihre
Anwendungsmöglichkeiten gehen weit über die aufsehenerregenden
Chat-Bots hinaus, die die öffentlichen Debatten bestimmen. GPT und
verwandte Systeme sind allerdings keineswegs plötzlich entstanden.
Sie sind das Ergebnis eines beharrlichen Lernprozesses: Erste
Versuche, Sprache in Algorithmen abzubilden, scheiterten in der
Mitte des zwanzigsten Jahrhunderts nicht nur an fehlenden
Ressourcen oder weil entscheidende maschinelle Lernverfahren noch
nicht entwickelt waren, sondern auch deshalb, weil die Theorien
darüber, wie sich die Bedeutungsebene menschlicher Sprache abstrakt
fassen und systematisieren lässt, unzureichend waren. Was also
machen Entwickler:innen moderner Systeme anders als die
Pionier:innen der Computerlinguistik? Chris Biemann ist Professor
für Sprachtechnologie an der Universität Hamburg, wo er den
Fachbereich Language Technology und das House of Computing and Data
Science leitet. Im Digitalgespräch gibt der Experte tiefe Einblicke
in die Entstehung und Funktionsweise moderner Sprachmodelle und
erklärt sprachwissenschaftliche Theorien, die dabei zum Tragen
kommen. Er macht verständlich, warum die Systeme so beeindruckende
Ergebnisse liefern und beschreibt, wozu sie in der Wissenschaft
eingesetzt werden können. Mit den Gastgeberinnen Marlene Görger und
Petra Gehring diskutiert Biemann, welche Ressourcen in die
Entwicklung solcher Systeme fließen, was passiert, wenn man
Sprachmodelle auf dem ganzen Internet trainiert – und welche
Aufgaben die Computerlinguistik jetzt, wo sie ihr großes Ziel
erreicht zu haben scheint, noch vor sich hat.

Kommentare (0)

Lade Inhalte...

Abonnenten

15
15
:
: