Optimalität der Support-Confidence-Grenze
Du legst der Gründerin das Streudiagramm aus der vorherigen Übung vor und fragst, ob du mithilfe von Pruning die Support-Confidence-Grenze rekonstruieren sollst. Du erwähnst das Bayardo-Agrawal-Ergebnis, aber sie ist skeptisch und bittet dich, das an einem Beispiel zu zeigen.
Da Streudiagramme die Punktgröße nach einer dritten Kennzahl skalieren können, entscheidest du dich, damit die Optimalität der Support-Confidence-Grenze zu veranschaulichen. Du zeigst dies, indem du die Punktgröße mit der Kennzahl lift skalierst, einer der Kennzahlen, auf die sich Bayardo-Agrawal bezieht. Die One-Hot-kodierten Daten wurden bereits importiert und stehen als onehot bereit. Außerdem wurden apriori() und association_rules() importiert und pandas ist als pd verfügbar.
Diese Übung ist Teil des Kurses
Market Basket Analysis in Python
Anleitung zur Übung
- Wende den Apriori-Algorithmus auf den DataFrame
onehotan. - Berechne die Assoziationsregeln mit der Kennzahl
supportund einem minimalen Schwellenwert von 0,0. - Vervollständige den Ausdruck für das Streudiagramm, sodass die Punktgröße mit
liftskaliert wird.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import seaborn under its standard alias
import seaborn as sns
# Apply the Apriori algorithm with a support value of 0.0075
frequent_itemsets = ____(____, min_support = 0.0075,
use_colnames = True, max_len = 2)
# Generate association rules without performing additional pruning
rules = ____(frequent_itemsets, metric = "support",
min_threshold = ____)
# Generate scatterplot using support and confidence
sns.scatterplot(x = "support", y = "confidence",
size = "____", data = rules)
plt.show()