Pruning mit Confidence
Schon wieder hast du zu viele Treffer: Du hast mehrere nützliche Regeln gefunden, kannst sie aber nicht auf eine einzige eingrenzen. Noch schlimmer: Die beiden gefundenen Regeln verwenden dasselbe Itemset, haben aber Antezedenz und Konsequent einfach vertauscht. Du willst prüfen, ob das Pruning nach einer anderen Kennzahl dir hilft, auf genau eine Assoziationsregel einzugrenzen.
Welche Kennzahl ist hier die richtige? Sowohl Lift als auch Support sind für alle Regeln identisch, die aus einem Itemset erzeugt werden können. Deshalb entscheidest du dich für Confidence, die sich bei Regeln aus demselben Itemset unterscheidet. Beachte: pandas ist als pd verfügbar und die One-Hot-kodierten Transaktionsdaten als onehot. Außerdem wurde apriori aus mlxtend importiert.
Diese Übung ist Teil des Kurses
Market Basket Analysis in Python
Anleitung zur Übung
- Importiere
association_rulesausmlxtend. - Vervollständige den Aufruf des
apriori-Algorithmus mit einem Support-Wert von 0,0015 und einer maximalen Itemset-Länge von 2. - Vervollständige den Aufruf für die Assoziationsregeln, mit Confidence als Metrik und einem Schwellwert von 0,5.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import the association rules function
____
# Compute frequent itemsets using the Apriori algorithm
frequent_itemsets = ____(onehot, ____,
____, use_colnames = True)
# Compute all association rules using confidence
rules = ____(frequent_itemsets,
metric = "____",
min_threshold = ____)
# Print association rules
print(rules)