Cage match, deel 2! Negatieve reviews
In beide organisaties noemden mensen "culture" en "smart people", dus er zijn enkele vergelijkbare positieve punten tussen de twee bedrijven. Met de piramideplot kun je echter de mate van positieve kenmerken van de werkomgevingen gaan afleiden.
Je richt je nu op negatieve reviews en maakt dezelfde visual. Dit keer heb je de data frame common_words al in je werkruimte. De veelvoorkomende bigrams in deze oefening komen echter uit negatieve werknemersreviews.
Deze oefening maakt deel uit van de cursus
Text mining met bag-of-words in R
Oefeninstructies
- Gebruik
slice_max()opcommon_wordsom de beste5bigrams op te halen op basis van de kolomdiff. De resultaten van het nieuwe object worden naar je console geprint. - Maak een
pyramid.plot(). Geeftop5_df$AmazonNeg,top5_df$GoogleNegenlabels = top5_df$termsdoor. Stel voor betere labelsgapin op12.top.labelsopc("Amzn", "Neg Words", "Goog")
De argumenten main en unit zijn al voor je ingesteld.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Extract top 5 common bigrams
(top5_df <- ___ %>% ___(___, n = ___))
# Create a pyramid plot
___(
# Amazon on the left
top5_df$___,
# Google on the right
top5_df$___,
# Use terms for labels
labels = top5_df$___,
# Set the gap to 12
___ = ___,
# Set top.labels to "Amzn", "Neg Words" & "Goog"
___ = ___,
main = "Words in Common",
unit = NULL
)