Inhalt
Max. Teilnehmerzahl: 24
Information an Teilnehmer:innen: Bitte bringen Sie Ihr Laptop mit.
Mit Prompting und RAG (Retrieval Augmented Generation) lassen sich LLMs so steuern, dass Stil, Zielgruppe und Terminologie weitgehend eingehalten werden. Dies eignet sich für Übersetzung und Quality Estimation (QE) – auch on-premise und potenziell kostengünstiger als große MT-Dienste.
Durch solche LLM-Übersetzungen und die Bewertung, welche Segmente mit welchem Risiko fehlerhaft sind, sinkt der Post-Editing-Aufwand deutlich. Selbst bei Raw-MT lässt sich die Qualität mit überschaubarem Aufwand erhöhen und das Risiko einschätzen. Sie entscheiden, welcher Zweck welche Qualität erfordert und wo menschliche Kontrolle nötig ist oder QE reicht.
Der Workshop vermittelt die nötigen Grundlagen, künftige Übersetzungsprozesse besser steuern, beurteilen und managen zu können – und per Prompting gezielt zu verbessern. Sie lernen, wie dies in einem AI-integrierten Übersetzungssystem funktioniert, denn rein im GPT-Prompt ist Übersetzung weder effizient noch steuer- oder kontrollierbar.
Das lernen Sie
Im Workshop lernen Sie das optimale Zusammenspiel von Prompting, RAG und Terminologie für Übersetzung und Quality Estimation. Und können selbst Hand anlegen – zunächst geführt, dann frei.