Inhalt
Große Sprachmodelle (Large Language Models, LLMs) sind im Trend, auch wenn es um die Frage geht, ob sie künftig auf Knopfdruck terminologisch abgestimmte und auf Zielmärkte zugeschnittene Übersetzungen Technischer Dokumentation liefern können. Auch unser Team von Informationsentwickler:innen in der Softwarebranche hat sich diese Frage gestellt. In unserer Arbeitsweise ist die Nutzung eines Translation-Management-Systems zur Humanübersetzung von Artikeln unseres Help-Centers fest verankert. Seit einigen Monaten testen wir, ob ein auf diese Übersetzungen und unsere Terminologiedatenbank trainiertes LLM Übersetzungen in zwei Zielsprachen generieren kann, die qualitativ ausreichend gut sind, um in Zukunft nur noch auf diese Technologie zu setzen.
Diese Präsentation ist ein Erfahrungsbericht darüber, welche Hypothesen wir mit dem Training eines generischen LLM getestet haben, wie wir dabei vorgegangen sind, welche Metriken wir zur Überprüfung der Übersetzungsqualität angewendet haben und welchen Einschränkungen wir begegnet sind.
Das lernen Sie
Die Teilnehmenden erhalten Einblicke dazu, wie sie mit wenigen Mitteln ein LLM mit ihren multi-lingualen Hilfetexten in einem Docs-as-Code-Kontext trainieren können, um Übersetzungen zu generieren.