Penyaringan lanjutan dengan banyak metrik
Sebelumnya, kita menggunakan data dari toko suvenir unik daring untuk menemukan anteseden yang dapat digunakan guna mempromosikan konsekuen yang ditargetkan. Karena himpunan aturan yang mungkin sangat besar, kita perlu mengandalkan algoritme Apriori dan penyaringan multi-metrik untuk mempersempitnya. Pada latihan ini, kita akan meninjau seluruh himpunan aturan dan menemukan satu aturan yang berguna, bukan menargetkan anteseden tertentu.
Perhatikan bahwa data telah dimuat, dipraproses, dan di-encode one-hot, serta tersedia sebagai onehot. Selain itu, apriori() dan association_rules() telah diimpor dari mlxtend. Dalam latihan ini, Anda akan menerapkan algoritme Apriori untuk mengidentifikasi frequent itemsets. Selanjutnya, Anda akan menurunkan himpunan association rules dari itemsets tersebut dan menerapkan penyaringan multi-metrik.
Latihan ini adalah bagian dari kursus
Analisis Market Basket dengan Python
Petunjuk latihan
- Terapkan algoritme Apriori pada itemset yang di-encode one-hot dengan ambang dukungan minimum 0,001.
- Ekstrak association rules menggunakan ambang dukungan minimum 0,001.
- Atur
antecedent_supportpada 0,002 danconsequent_supportke 0,01. - Atur
confidencelebih tinggi dari 0,60 danliftlebih tinggi dari 2,50.
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Apply the Apriori algorithm with a minimum support threshold of 0.001
frequent_itemsets = ____(onehot, min_support = ____, use_colnames = True)
# Recover association rules using a minium support threshold of 0.001
rules = ____(frequent_itemsets, metric = '____', min_threshold = 0.001)
# Apply a 0.002 antecedent support threshold, 0.60 confidence threshold, and 2.50 lift threshold
filtered_rules = rules[(rules['antecedent support'] > ____) &
(____['consequent support'] > 0.01) &
(rules['____'] > ____) &
(____ > 2.50)]
# Print remaining rule
print(filtered_rules[['antecedents','consequents']])