IniziaInizia gratis

Ottimalità del confine supporto-confidenza

Torni dalla fondatrice con lo scatter plot prodotto nell'esercizio precedente e le chiedi se vuole che tu usi il pruning per recuperare il confine supporto-confidenza. Le parli del risultato di Bayardo-Agrawal, ma lei è scettica e ti chiede se puoi dimostrarlo con un esempio.

Ricordando che gli scatter plot possono scalare la dimensione dei punti in base a una terza metrica, decidi di usarlo per dimostrare l'ottimalità del confine supporto-confidenza. Lo mostrerai scalando la dimensione dei punti usando la metrica lift, una di quelle a cui si applica Bayardo-Agrawal. I dati one-hot encoded sono già stati importati e sono disponibili come onehot. Inoltre, apriori() e association_rules() sono stati importati e pandas è disponibile come pd.

Questo esercizio fa parte del corso

Analisi del carrello in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Applica l'algoritmo Apriori al DataFrame onehot.
  • Calcola le regole di associazione usando la metrica support e una soglia minima di 0.0.
  • Completa l'espressione per lo scatter plot in modo che la dimensione dei punti sia scalata da lift.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Import seaborn under its standard alias
import seaborn as sns

# Apply the Apriori algorithm with a support value of 0.0075
frequent_itemsets = ____(____, min_support = 0.0075, 
                         use_colnames = True, max_len = 2)

# Generate association rules without performing additional pruning
rules = ____(frequent_itemsets, metric = "support", 
                          min_threshold = ____)

# Generate scatterplot using support and confidence
sns.scatterplot(x = "support", y = "confidence", 
                size = "____", data = rules)
plt.show()
Modifica ed esegui il codice