1. 学ぶ
  2. /
  3. コース
  4. /
  5. 人間のフィードバックによる強化学習(RLHF)

Connected

演習

低信頼度

この演習では、報酬モデルを使って入力テキストをどれだけ自信をもって分類しているかを評価し、信頼性に欠ける予測を除外します。目的は、モデルの予測生成能力を評価し、信頼度のしきい値を適用して高信頼の予測だけを有効とすることです。

各フィードバックテキストに対する確率分布(prob_dists)とフィードバックテキスト(texts)の変数、および least_confidence() 関数は読み込まれています。

指示

100 XP
  • 与えられたしきい値未満の信頼度となる確率分布のインデックスを抽出する関数を定義してください。
  • しきい値(0.5)は変更せず、確率分布を関数に渡してフィードバックコメントのインデックスを取得します。