LoslegenKostenlos loslegen

Optimalität der Support-Confidence-Grenze

Du legst der Gründerin das Streudiagramm aus der vorherigen Übung vor und fragst, ob du mithilfe von Pruning die Support-Confidence-Grenze rekonstruieren sollst. Du erwähnst das Bayardo-Agrawal-Ergebnis, aber sie ist skeptisch und bittet dich, das an einem Beispiel zu zeigen.

Da Streudiagramme die Punktgröße nach einer dritten Kennzahl skalieren können, entscheidest du dich, damit die Optimalität der Support-Confidence-Grenze zu veranschaulichen. Du zeigst dies, indem du die Punktgröße mit der Kennzahl lift skalierst, einer der Kennzahlen, auf die sich Bayardo-Agrawal bezieht. Die One-Hot-kodierten Daten wurden bereits importiert und stehen als onehot bereit. Außerdem wurden apriori() und association_rules() importiert und pandas ist als pd verfügbar.

Diese Übung ist Teil des Kurses

Market Basket Analysis in Python

Kurs anzeigen

Anleitung zur Übung

  • Wende den Apriori-Algorithmus auf den DataFrame onehot an.
  • Berechne die Assoziationsregeln mit der Kennzahl support und einem minimalen Schwellenwert von 0,0.
  • Vervollständige den Ausdruck für das Streudiagramm, sodass die Punktgröße mit lift skaliert wird.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import seaborn under its standard alias
import seaborn as sns

# Apply the Apriori algorithm with a support value of 0.0075
frequent_itemsets = ____(____, min_support = 0.0075, 
                         use_colnames = True, max_len = 2)

# Generate association rules without performing additional pruning
rules = ____(frequent_itemsets, metric = "support", 
                          min_threshold = ____)

# Generate scatterplot using support and confidence
sns.scatterplot(x = "support", y = "confidence", 
                size = "____", data = rules)
plt.show()
Code bearbeiten und ausführen