Prunen met confidence
Opnieuw loop je vast: je hebt meerdere bruikbare regels gevonden, maar je kunt het niet tot één regel beperken. Nog erger: de twee regels die je vond gebruiken dezelfde itemset, alleen zijn antecedenten en consequenten omgewisseld. Je besluit te kijken of prunen met een andere metriek je kan helpen om het terug te brengen tot één associatieregel.
Wat is de juiste metriek? Zowel lift als support zijn identiek voor alle regels die uit een itemset kunnen worden gegenereerd, dus je besluit in plaats daarvan confidence te gebruiken, die wel verschilt voor regels die uit dezelfde itemset komen. Let op: pandas is beschikbaar als pd en de one-hot-gecodeerde transactiegegevens als onehot. Daarnaast is apriori geïmporteerd uit mlxtend.
Deze oefening maakt deel uit van de cursus
Market Basket Analysis in Python
Oefeninstructies
- Importeer
association_rulesuitmlxtend. - Maak het statement voor het
apriori-algoritme af met een supportwaarde van 0,0015 en een maximale itemset-lengte van 2. - Maak het statement voor associatieregels af met confidence als metriek en een drempelwaarde van 0,5.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Import the association rules function
____
# Compute frequent itemsets using the Apriori algorithm
frequent_itemsets = ____(onehot, ____,
____, use_colnames = True)
# Compute all association rules using confidence
rules = ____(frequent_itemsets,
metric = "____",
min_threshold = ____)
# Print association rules
print(rules)