Prompts extrahieren
Du arbeitest mit dem Datensatz hendrydong/rlhf_helpful_eval, der Gesprächstexte zwischen einem Nutzer (Human) und einem Assistenten (Assistant) enthält. Dein Ziel ist es, den Text zu bereinigen, sodass ein sauberer Prompt entsteht, in dem nur der relevante Text ohne spezielle Muster oder Tags erscheint.
Wähle die Option, mit der du den Datensatz bereinigen würdest, um Prompts zu extrahieren. Du kannst dir einen Ausschnitt des Datensatzes ansehen, indem du folgenden Code in der Konsole ausführst:
evaluation_data.iloc[range(1)]['text'][0]
Diese Übung ist Teil des Kurses
Reinforcement Learning aus menschlichem Feedback (RLHF)
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
Übung starten