LoslegenKostenlos loslegen

Pruning mit Confidence

Schon wieder hast du zu viele Treffer: Du hast mehrere nützliche Regeln gefunden, kannst sie aber nicht auf eine einzige eingrenzen. Noch schlimmer: Die beiden gefundenen Regeln verwenden dasselbe Itemset, haben aber Antezedenz und Konsequent einfach vertauscht. Du willst prüfen, ob das Pruning nach einer anderen Kennzahl dir hilft, auf genau eine Assoziationsregel einzugrenzen.

Welche Kennzahl ist hier die richtige? Sowohl Lift als auch Support sind für alle Regeln identisch, die aus einem Itemset erzeugt werden können. Deshalb entscheidest du dich für Confidence, die sich bei Regeln aus demselben Itemset unterscheidet. Beachte: pandas ist als pd verfügbar und die One-Hot-kodierten Transaktionsdaten als onehot. Außerdem wurde apriori aus mlxtend importiert.

Diese Übung ist Teil des Kurses

Market Basket Analysis in Python

Kurs anzeigen

Anleitung zur Übung

  • Importiere association_rules aus mlxtend.
  • Vervollständige den Aufruf des apriori-Algorithmus mit einem Support-Wert von 0,0015 und einer maximalen Itemset-Länge von 2.
  • Vervollständige den Aufruf für die Assoziationsregeln, mit Confidence als Metrik und einem Schwellwert von 0,5.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import the association rules function
____

# Compute frequent itemsets using the Apriori algorithm
frequent_itemsets = ____(onehot, ____, 
                            ____, use_colnames = True)

# Compute all association rules using confidence
rules = ____(frequent_itemsets, 
                            metric = "____", 
                         	min_threshold = ____)

# Print association rules
print(rules)
Code bearbeiten und ausführen