MulaiMulai sekarang secara gratis

Iterasi yang aman

Seperti pada bab sebelumnya, bayangkan Anda adalah analis data di sebuah agensi web. Kali ini, Anda diminta melakukan web scraping.

(Catatan: jangan khawatir jika Anda belum tahu cara melakukan web scraping, kita akan mulai dari yang sederhana, dan semua fungsi akan dijelaskan).

Anda menerima sebuah daftar URL, tetapi Anda menduga sebagian bukan alamat yang valid. Hal pertama yang akan Anda lakukan adalah menguji apakah Anda bisa terhubung ke URL tersebut. Untuk itu, kita akan menggunakan fungsi sederhana dari paket readr: read_lines(), yang akan kita bungkus dengan safely(). Saat diberi sebuah URL, read_lines() membaca HTML, atau mengembalikan galat jika URL tidak dapat dijangkau.

Vektor urls tersedia di ruang kerja Anda. Cetak di konsol jika Anda ingin melihat isinya.

Latihan ini adalah bagian dari kursus

Pemrograman Fungsional Tingkat Menengah dengan purrr

Lihat Kursus

Petunjuk latihan

  • Buat versi aman dari fungsi read_lines().

  • Terapkan fungsi yang baru dibuat ini pada vektor bernama urls yang disediakan.

  • Atur nama hasilnya dengan fungsi set_names().

  • Ekstrak elemen "error" dari setiap subdaftar.

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Create a safe version of read_lines()
safe_read <- ___(___)

# Map it on the urls vector
res <- ___(urls, ___)

# Set the name of the results to `urls`
named_res <- ___(res, ___)

# Extract only the "error" part of each sublist
___(named_res, ___)
Edit dan Jalankan Kode