LoslegenKostenlos loslegen

Datenintegrität und Poisoning

Deine Organisation möchte eine LLM-Anwendung zur Bearbeitung von Kundenbeschwerden einsetzen. Die geplante Strategie ist, ein LLM zu fine-tunen. Verfügbar sind ungefähr eine Million Gespräche zwischen Nutzerinnen/Nutzern und Mitarbeitenden im Kundenservice, verteilt auf etwa tausend Agents. Welche potenziellen Probleme könnten auftreten, wenn dieses LLM auf diesem Datensatz trainiert und ohne Schutzmaßnahmen bereitgestellt wird? Wähle die drei besten Antworten.

Diese Übung ist Teil des Kurses

LLMOps-Konzepte

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten