Contents
Die Qualität maschinell erzeugter Übersetzungen unterscheidet sich nicht nur von Engine zu Engine bzw. Anbieter zu Anbieter, sondern bereits von Tag zu Tag. Denn maschinelle Übersetzungssysteme entwickeln sich dank fortlaufendem Training und rasanter technischer Fortschritte im Bereich neuronalen maschinellen Lernens ständig weiter. Wie können Unternehmen die Qualität ihrer maschinellen Übersetzungen unter diesen Umständen dauerhaft sinnvoll und effizient verfolgen? Wie können sie schnelle, aber fundierte Entscheidungen über die Auswahl der Engine für ihre Übersetzungsbedürfnisse treffen? Automatisierte Evaluationen setzen genau hier an und bieten Unternehmen die Möglichkeit, mit geringen Kosten- und Zeitaufwänden die Output-Qualität von MT-Systemen zu prüfen und zu vergleichen und so Aufwände für Nachbearbeitungen zu senken. Ob sich jedoch auch Risiken hinter automatisierten Evaluationen verbergen und wie sie dennoch erfolgreich eingesetzt werden, wird in diesem Vortrag beleuchtet.
Takeaways
Der Vortrag zeigt den Einsatz automatisierter Evaluationen in der Praxis. Nach einem Einblick in etablierte Metriken beleuchtet er Vor- und Nachteile sowie Best Practices zur erfolgreichen Umsetzung.
Prior knowledge
von Vorteil sind Erfahrungen im Einsatz maschineller Übersetzung