Rumah pembangunan bahagian belakang Tutorial Python Cara Mengikis Data Daripada Goodreads Menggunakan Python dan BeautifulSoup

Cara Mengikis Data Daripada Goodreads Menggunakan Python dan BeautifulSoup

Dec 10, 2024 am 10:40 AM

Pengikisan web ialah alat yang berkuasa untuk mengumpul data daripada tapak web. Sama ada anda mengumpul ulasan produk, menjejak harga atau, dalam kes kami, mengikis buku Goodreads, mengikis web menyediakan peluang yang tidak berkesudahan untuk aplikasi terdorong data.

Dalam catatan blog ini, kami akan meneroka asas pengikisan web, kuasa perpustakaan Python BeautifulSoup dan memecahkan skrip Python yang direka untuk mengikis data Goodreads Choice Awards. Akhir sekali, kami akan membincangkan cara menyimpan data ini dalam fail CSV untuk analisis atau aplikasi lanjut.


Apakah itu Goodreads?

Goodreads ialah platform terbesar di dunia untuk pembaca dan cadangan buku. Ia memberikan pengguna akses kepada ulasan buku, butiran pengarang dan kedudukan popular. Setiap tahun, Goodreads menganjurkan Anugerah Pilihan Goodreads, tempat pembaca mengundi buku kegemaran mereka merentas pelbagai genre seperti fiksyen, fantasi, percintaan dan banyak lagi. Ini menjadikan Goodreads sasaran ideal untuk mengikis web untuk mengumpul cerapan tentang buku dan pengarang yang menjadi sohor kini.


Apakah Web Scraping?

Pengikisan web melibatkan pengekstrakan data daripada tapak web secara automatik. Ia membolehkan anda mengumpul dan menyusun maklumat untuk tugasan seperti:

  • Menganalisis trend dan corak.
  • Mengagregatkan kandungan seperti ulasan atau artikel.
  • Menyuap model pembelajaran mesin atau pangkalan data.

Sediakan Persekitaran Anda

Sebelum menyelami skrip, anda perlu memasang perpustakaan yang diperlukan.

  1. Pasang Python

    Pastikan anda telah memasang Python pada sistem anda.

  2. Pasang Perpustakaan Diperlukan

    Pasang perpustakaan yang diperlukan menggunakan pip:

    pip install beautifulsoup4
    pip install requests
    
    Salin selepas log masuk
    Salin selepas log masuk
    Salin selepas log masuk

    permintaan: Membolehkan kami menghantar permintaan HTTP ke URL dan mendapatkan semula kandungan halaman web.

    BeautifulSoup: Memudahkan penghuraian HTML dan pengekstrakan data.

Setelah pemasangan ini selesai, anda sudah bersedia untuk mengikis!


Pengenalan kepada BeautifulSoup

BeautifulSoup ialah perpustakaan Python untuk menghuraikan dokumen HTML dan XML. Ia membolehkan pembangun menavigasi struktur halaman, mengekstrak kandungan dan mengubah HTML mentah kepada format berstruktur.

Kaedah Utama dalam BeautifulSoup

Berikut ialah beberapa kaedah penting yang akan kami gunakan dalam skrip kami:

  • BeautifulSoup(html, 'html.parser'): Memulakan penghurai dan membolehkan anda bekerja dengan kandungan HTML.
  • soup.select(selector): Cari elemen menggunakan pemilih CSS, seperti kelas atau teg.
  • soup.find(class_='class_name'): Mengesan kejadian pertama elemen dengan kelas tertentu.
  • soup.find_parent(class_='class_name'): Mencari teg induk bagi elemen semasa.
  • soup.get('attribute'): Mengambil nilai atribut daripada elemen, seperti href atau src.

Untuk mendapatkan senarai lengkap kaedah, lihat dokumentasi BeautifulSoup.


Menyediakan Skrip

Mari mulakan dengan mengimport perpustakaan yang diperlukan dan menentukan pengepala tersuai untuk meniru penyemak imbas. Ini membantu mengelakkan daripada disekat oleh tapak web.

pip install beautifulsoup4
pip install requests
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk

Mengikis Kategori dan Buku

Kami bermula dengan mentakrifkan URL untuk halaman Anugerah Pilihan Goodreads dan aplikasi utama. Kami akan menghantar permintaan untuk start_url dan mendapatkan kandungan halaman web.

from bs4 import BeautifulSoup as bs
import requests
import re
import csv

HEADERS = {
    "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...",
    "Accept-Language": "en-US, en;q=0.5",
}
Salin selepas log masuk
Salin selepas log masuk

Setiap kategori mengandungi genre dan pautan ke halaman masing-masing. Menggunakan soup.select, kami mengekstrak semua kategori yang disenaraikan di bawah kelas .category.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Seterusnya, ulangi setiap kategori untuk mendapatkan nama genre dan URL halamannya.

app_url = "https://www.goodreads.com"
start_url = "https://www.goodreads.com/choiceawards/best-books-2024"

res = requests.get(start_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

categories = soup.select('.category')
Salin selepas log masuk
Salin selepas log masuk

Di sini, kami mengekstrak nama kategori (genre) dan URL halaman kategori untuk pemprosesan selanjutnya.

Kami akan menghantar permintaan lain kepada setiap category_url dan mencari semua buku di bawah kategori itu.

for index, category in enumerate(categories):
    genre = category.select('h4.category__copy')[0].text.strip()
    url = category.select('a')[0].get('href')
    category_url = f"{app_url}{url}"
Salin selepas log masuk
Salin selepas log masuk

buku_kategori akan mengandungi senarai semua buku di bawah kategori masing-masing.

Mengekstrak Data Buku

Sebaik sahaja kami mempunyai senarai buku, kami akan mengulangi setiap buku dan mengekstrak data.

Ekstrak Undi

res = requests.get(category_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

category_books = soup.select('.resultShown a.pollAnswer__bookLink')
Salin selepas log masuk
Salin selepas log masuk

Jika kita lihat dalam DOM, kiraan undian terdapat dalam elemen induk bagi elemen kategori. Jadi kita perlu menggunakan kaedah find_parent untuk mencari elemen dan mengekstrak kiraan undian.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Ekstrak Tajuk Buku, Pengarang dan URL Imej

for book_index, book in enumerate(category_books):
    parent_tag = book.find_parent(class_='resultShown')
    votes = parent_tag.find(class_='result').text.strip()
    book_votes = clean_string(votes).split(" ")[0].replace(",", "")
Salin selepas log masuk

URL setiap buku, URL imej muka depan, tajuk dan pengarang diekstrak.

Fungsi clean_string memastikan tajuk diformat dengan kemas. Anda boleh menentukannya di bahagian atas skrip

book_url = book.get('href')
book_url_formatted = f"{app_url}{book_url}"
book_img = book.find('img')
book_img_url = book_img.get('src')
book_img_alt = book_img.get('alt')
book_title = clean_string(book_img_alt)
print(book_title)
book_name = book_title.split('by')[0].strip()
book_author = book_title.split('by')[1].strip()
Salin selepas log masuk

Ekstrak Lagi Butiran Buku

Untuk mendapatkan butiran lanjut tentang buku seperti rating, ulasan, dll., kami akan menghantar permintaan lain ke book_url_formatted.

def clean_string(string):
    cleaned = re.sub(r'\s+', ' ', string).strip()
    return cleaned
Salin selepas log masuk

Di sini get_ratings_reviews mengembalikan teks penilaian dan ulasan yang diformat dengan baik.

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Anda boleh menentukan fungsi ini di bahagian atas skrip.

pip install beautifulsoup4
pip install requests
Salin selepas log masuk
Salin selepas log masuk
Salin selepas log masuk

Dengan menavigasi ke halaman butiran setiap buku, maklumat tambahan seperti penilaian, ulasan dan penerangan terperinci diekstrak. Di sini, kami juga menyemak sama ada elemen perihalan buku wujud sebaliknya meletakkan perihalan lalai supaya skrip tidak gagal.

from bs4 import BeautifulSoup as bs
import requests
import re
import csv

HEADERS = {
    "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...",
    "Accept-Language": "en-US, en;q=0.5",
}
Salin selepas log masuk
Salin selepas log masuk

Di sini, kami juga telah mengumpulkan butiran pengarang, maklumat penerbitan dan metadata lain.

Buat Kamus Buku

Mari simpan semua data yang telah kami ekstrak untuk sebuah buku dalam kamus.

app_url = "https://www.goodreads.com"
start_url = "https://www.goodreads.com/choiceawards/best-books-2024"

res = requests.get(start_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

categories = soup.select('.category')
Salin selepas log masuk
Salin selepas log masuk

Kami akan menggunakan kamus ini untuk menambah data dalam fail csv.


Menyimpan Data dalam Fail CSV

Kami akan menggunakan modul csv yang merupakan sebahagian daripada perpustakaan standard Python. Jadi anda tidak perlu memasangnya secara berasingan.

Mula-mula kita perlu menyemak sama ada ini adalah entri pertama. Semakan ini diperlukan untuk menambah pengepala dalam fail csv dalam baris pertama.

for index, category in enumerate(categories):
    genre = category.select('h4.category__copy')[0].text.strip()
    url = category.select('a')[0].get('href')
    category_url = f"{app_url}{url}"
Salin selepas log masuk
Salin selepas log masuk

Kami menggunakan mod="w" yang akan mencipta fail csv baharu dengan entri pengepala.

Sekarang untuk semua entri seterusnya, kami akan menambahkan data pada fail CSV:

res = requests.get(category_url, headers=HEADERS)
soup = bs(res.text, 'html.parser')

category_books = soup.select('.resultShown a.pollAnswer__bookLink')
Salin selepas log masuk
Salin selepas log masuk

mode="a" akan menambahkan data pada fail CSV.

Sekarang, duduk, berehat dan nikmati secawan kopi ☕️ sementara skrip berjalan.

Setelah selesai, data akhir akan kelihatan seperti ini:

How to Scrape Data From Goodreads Using Python and BeautifulSoup

Anda boleh mencari kod sumber lengkap dalam repositori github ini.


Ringkasan

Kami telah mempelajari cara mengikis data Goodreads menggunakan Python dan BeautifulSoup. Bermula daripada persediaan asas kepada menyimpan data dalam fail CSV, kami meneroka setiap aspek proses mengikis. Data yang dikikis boleh digunakan untuk:

  • Visualisasi data (cth., genre atau pengarang yang paling popular).
  • Model pembelajaran mesin untuk meramalkan populariti buku.
  • Membina sistem pengesyoran buku peribadi.

Pengikisan web membuka kemungkinan untuk analisis dan aplikasi data kreatif. Dengan perpustakaan seperti BeautifulSoup, tugas mengikis yang rumit pun menjadi terurus. Ingatlah untuk mengikuti amalan beretika dan hormati syarat perkhidmatan tapak web sambil mengikis!

Atas ialah kandungan terperinci Cara Mengikis Data Daripada Goodreads Menggunakan Python dan BeautifulSoup. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

<🎜>: Bubble Gum Simulator Infinity - Cara Mendapatkan dan Menggunakan Kekunci Diraja
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Sistem Fusion, dijelaskan
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Cara Membuka Kunci Cangkuk Bergelut
3 minggu yang lalu By 尊渡假赌尊渡假赌尊渡假赌

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial Java
1665
14
Tutorial PHP
1269
29
Tutorial C#
1249
24
Python vs C: Aplikasi dan kes penggunaan dibandingkan Python vs C: Aplikasi dan kes penggunaan dibandingkan Apr 12, 2025 am 12:01 AM

Python sesuai untuk sains data, pembangunan web dan tugas automasi, manakala C sesuai untuk pengaturcaraan sistem, pembangunan permainan dan sistem tertanam. Python terkenal dengan kesederhanaan dan ekosistem yang kuat, manakala C dikenali dengan keupayaan kawalan dan keupayaan kawalan yang mendasari.

Python: Permainan, GUI, dan banyak lagi Python: Permainan, GUI, dan banyak lagi Apr 13, 2025 am 12:14 AM

Python cemerlang dalam permainan dan pembangunan GUI. 1) Pembangunan permainan menggunakan pygame, menyediakan lukisan, audio dan fungsi lain, yang sesuai untuk membuat permainan 2D. 2) Pembangunan GUI boleh memilih tkinter atau pyqt. TKInter adalah mudah dan mudah digunakan, PYQT mempunyai fungsi yang kaya dan sesuai untuk pembangunan profesional.

Python vs C: Lengkung pembelajaran dan kemudahan penggunaan Python vs C: Lengkung pembelajaran dan kemudahan penggunaan Apr 19, 2025 am 12:20 AM

Python lebih mudah dipelajari dan digunakan, manakala C lebih kuat tetapi kompleks. 1. Sintaks Python adalah ringkas dan sesuai untuk pemula. Penaipan dinamik dan pengurusan memori automatik menjadikannya mudah digunakan, tetapi boleh menyebabkan kesilapan runtime. 2.C menyediakan kawalan peringkat rendah dan ciri-ciri canggih, sesuai untuk aplikasi berprestasi tinggi, tetapi mempunyai ambang pembelajaran yang tinggi dan memerlukan memori manual dan pengurusan keselamatan jenis.

Python dan Masa: Memanfaatkan masa belajar anda Python dan Masa: Memanfaatkan masa belajar anda Apr 14, 2025 am 12:02 AM

Untuk memaksimumkan kecekapan pembelajaran Python dalam masa yang terhad, anda boleh menggunakan modul, masa, dan modul Python. 1. Modul DateTime digunakan untuk merakam dan merancang masa pembelajaran. 2. Modul Masa membantu menetapkan kajian dan masa rehat. 3. Modul Jadual secara automatik mengatur tugas pembelajaran mingguan.

Python vs C: Meneroka Prestasi dan Kecekapan Python vs C: Meneroka Prestasi dan Kecekapan Apr 18, 2025 am 12:20 AM

Python lebih baik daripada C dalam kecekapan pembangunan, tetapi C lebih tinggi dalam prestasi pelaksanaan. 1. Sintaks ringkas Python dan perpustakaan yang kaya meningkatkan kecekapan pembangunan. 2. Ciri-ciri jenis kompilasi dan kawalan perkakasan meningkatkan prestasi pelaksanaan. Apabila membuat pilihan, anda perlu menimbang kelajuan pembangunan dan kecekapan pelaksanaan berdasarkan keperluan projek.

Python: Automasi, skrip, dan pengurusan tugas Python: Automasi, skrip, dan pengurusan tugas Apr 16, 2025 am 12:14 AM

Python cemerlang dalam automasi, skrip, dan pengurusan tugas. 1) Automasi: Sandaran fail direalisasikan melalui perpustakaan standard seperti OS dan Shutil. 2) Penulisan Skrip: Gunakan Perpustakaan Psutil untuk memantau sumber sistem. 3) Pengurusan Tugas: Gunakan perpustakaan jadual untuk menjadualkan tugas. Kemudahan penggunaan Python dan sokongan perpustakaan yang kaya menjadikannya alat pilihan di kawasan ini.

Yang merupakan sebahagian daripada Perpustakaan Standard Python: Senarai atau Array? Yang merupakan sebahagian daripada Perpustakaan Standard Python: Senarai atau Array? Apr 27, 2025 am 12:03 AM

Pythonlistsarepartofthestandardlibrary, sementara

Pembelajaran Python: Adakah 2 jam kajian harian mencukupi? Pembelajaran Python: Adakah 2 jam kajian harian mencukupi? Apr 18, 2025 am 12:22 AM

Adakah cukup untuk belajar Python selama dua jam sehari? Ia bergantung pada matlamat dan kaedah pembelajaran anda. 1) Membangunkan pelan pembelajaran yang jelas, 2) Pilih sumber dan kaedah pembelajaran yang sesuai, 3) mengamalkan dan mengkaji semula dan menyatukan amalan tangan dan mengkaji semula dan menyatukan, dan anda secara beransur-ansur boleh menguasai pengetahuan asas dan fungsi lanjutan Python dalam tempoh ini.

See all articles