LoslegenKostenlos loslegen

Prompts extrahieren

Du arbeitest mit dem Datensatz hendrydong/rlhf_helpful_eval, der Gesprächstexte zwischen einem Nutzer (Human) und einem Assistenten (Assistant) enthält. Dein Ziel ist es, den Text zu bereinigen, sodass ein sauberer Prompt entsteht, in dem nur der relevante Text ohne spezielle Muster oder Tags erscheint.

Wähle die Option, mit der du den Datensatz bereinigen würdest, um Prompts zu extrahieren. Du kannst dir einen Ausschnitt des Datensatzes ansehen, indem du folgenden Code in der Konsole ausführst:

evaluation_data.iloc[range(1)]['text'][0]

Diese Übung ist Teil des Kurses

Reinforcement Learning aus menschlichem Feedback (RLHF)

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten