Jetzt reinschauen – neue Umgebung live

BLEU – Grundlagen und Anwendung einer Metrik für die maschinelle Übersetzungsbewertung

BLEU – Grundlagen und Anwendung einer Metrik für die maschinelle Übersetzungsbewertung
Kategorien:
No items found.
Freigegeben:
August 6, 2024

BLEU (Bilingual Evaluation Understudy) ist eine Metrik, die in der Verarbeitung natürlicher Sprache (NLP) und der maschinellen Übersetzung verwendet wird, um die Qualität eines generierten Textes im Vergleich zu einer oder mehreren hochwertigen Referenzübersetzungen zu bewerten. Sie misst, wie ähnlich ein maschinell erstellter Text einem oder mehreren von Menschen erstellten Referenztexten ist.

Der BLEU-Score ist ein numerischer Wert zwischen 0 und 1, wobei 1 eine perfekte Übereinstimmung zwischen der maschinellen Übersetzung und den Referenzübersetzungen bedeutet. In der Praxis wird der Wert oft als Prozentsatz ausgedrückt. Ein höherer BLEU-Score deutet auf eine höhere Qualität der Übersetzung hin, wobei die Qualität als Grad der Übereinstimmung mit den Referenztexten definiert ist. Die Metrik wurde erstmals in einem Papier von Kishore Papineni und anderen im Jahr 2002 vorgestellt.

Grundprinzipien des BLEU-Scores

BLEU bewertet maschinelle Übersetzungen, indem es die Übereinstimmung der n-Gramme (Sequenzen von n aufeinanderfolgenden Wörtern) des übersetzten Textes mit denen in den Referenzübersetzungen vergleicht. Die Bewertung erfolgt auf Basis verschiedener n-Gram-Längen, typischerweise von 1 bis 4 Grammen. Die Ergebnisse für jedes n-Gram werden dann gemittelt, um den endgültigen BLEU-Score zu ergeben.

N-Gram Übereinstimmung

Ein wesentliches Merkmal von BLEU ist die Verwendung von sogenannten „Clipping“-Grenzen, um zu verhindern, dass mehrfache Vorkommen eines n-Grams in der Übersetzung überbewertet werden. Das heißt, auch wenn ein Wort oder eine Wortfolge mehrfach in der Übersetzung vorkommt, wird es nur bis zur maximalen Anzahl gezählt, die in irgendeiner der Referenzübersetzungen auftritt.

Brevity Penalty

Ein weiterer wichtiger Aspekt des BLEU-Scores ist die Kürzungsstrafe (Brevity Penalty), die zu kurze Übersetzungen bestraft. Diese Strafe ist besonders wichtig, da ohne sie eine sehr kurze Übersetzung, die nur einige wenige korrekte Schlüsselwörter enthält, fälschlicherweise eine hohe Bewertung erhalten könnte. Die Kürzungsstrafe basiert auf dem Verhältnis der Länge der maschinellen Übersetzung zur Länge der Referenzübersetzung.

Mathematische Definition

Der BLEU-Score wird mathematisch wie folgt definiert:

\[ \text{BLEU} = \text{BP} \cdot \exp\left(\sum_{n=1}^N w_n \log p_n\right) \]

wo:
- \( \text{BP} \) die Brevity Penalty ist,
- \( w_n \) das Gewicht für jedes n-Gram ist,
- \( p_n \) die Präzision für n-Grams ist,
- \( N \) die Anzahl der berücksichtigten n-Gram-Größen ist, typischerweise 4.

Bewertung in der Praxis

In der Praxis werden die n-Gram-Präzisionen \( p_n \) berechnet, indem die Anzahl der übereinstimmenden n-Grams in der Übersetzung durch die Gesamtzahl der n-Grams in der Übersetzung geteilt wird. Die Gewichte \( w_n \) sind oft gleichmäßig verteilt, obwohl Anpassungen vorgenommen werden können, um bestimmte Aspekte der Sprache hervorzuheben.

Anwendung und Grenzen

Der BLEU-Score wird häufig in der Forschung und Entwicklung von maschinellen Übersetzungssystemen verwendet, um die Qualität von Übersetzungsmodellen zu bewerten. Allerdings hat der BLEU-Score auch Grenzen. Er kann beispielsweise nicht die semantische Korrektheit oder die stilistische Angemessenheit einer Übersetzung vollständig erfassen. Zudem ist BLEU stark abhängig von der Qualität und der Auswahl der Referenzübersetzungen.

Zusammenfassend ist der BLEU-Score ein nützliches Werkzeug zur Bewertung maschineller Übersetzungen, das jedoch am besten in Verbindung mit anderen Methoden und menschlicher Bewertung verwendet wird, um ein vollständiges Bild von der Qualität einer Übersetzung zu erhalten.

Was bedeutet das?

Wie können wir Ihnen heute helfen?

Das Expertenteam von Mindverse freut sich darauf, Ihnen zu helfen.
No items found.