


Webscraping dengan Python: menggunakan CSV sebagai pangkalan data
Saya mempunyai permintaan yang sangat menarik hari ini. Seseorang sedang memindahkan data dari satu tempat ke tempat lain menggunakan CSV. Data tersebut adalah pendaftaran buku untuk projek membaca. Pada satu ketika, dia berkata kepada saya: "Nah, kini kerja selebihnya adalah untuk robot. Saya perlu mendapatkan ISBN bagi setiap tajuk." Seperti yang dia katakan, itu adalah tugas robot, jadi mengapa tidak membiarkan robot melakukannya?
Sigla para International Standard Book Number.Salin selepas log masuk
Sesuatu karya boleh mempunyai beberapa ISBN, ini berlaku kerana edisi tersebut mempunyai ISBN mereka sendiri. Dalam kes ini, mana-mana ISBN akan berfungsi, jika media itu serasi. Yang berikut telah didaftarkan dalam CSV:
-> ebook
-> fizikal
-> audio
Mari kita ke logiknya:
-> Muat naik dan buka fail CSV.
-> Ekstrak lajur dengan tajuk.
-> Ekstrak lajur media.
-> Untuk setiap tajuk, cari di Google mengikut ISBN.
-> Ekstrak tajuk daripada halaman.
-> Ekstrak senarai ISBN.
-> Ekstrak senarai media.
-> Semak media pendaftaran dan cari ISBN terdekat Jika kriteria kami tidak dijumpai, kembalikan item pertama dalam senarai.
-> Maklumkan dari media mana kami mengambil ISBN untuk pengesahan kemudian.
Jom lihat lib yang diperlukan:
import requests # para fazer as requisições from bs4 import BeautifulSoup # para manipular o html recebido import pandas as pd # para manipular os arquivos CSV import time import random # as duas são para gerarmos intervalos aleatórios de acesso
Senarai buku ini mempunyai lebih daripada 600 item dan kerana saya tidak mahu disekat oleh Google, kami akan membuat akses rawak dan dengan lebih banyak ruang manusia. Kami juga akan menggunakan pengepala untuk menyatakan bahawa kami mahukan versi penyemak imbas halaman. Untuk melakukan ini, pergi ke “rangkaian” dalam penyemak imbas anda dan cari "Ejen Pengguna".
Untuk mencari di Google, kami menggunakan corak URL berikut:
url_base = "https://www.google.com/search?q=isbn" # o que vem depois '=' é a pesquisa
Ingat bahawa URL tidak mempunyai ruang, jadi kami akan menggantikan ruang dalam tajuk dengan “ ”. Dalam panda, "hamparan" dipanggil DataFrame dan sangat biasa untuk menggunakan df sebagai singkatan. Akhir sekali, mungkin anda menggunakan Windows seperti saya, yang mana bar alamat sistem dilaburkan berbanding Unix. Mari tulis fungsi yang mengambil URL yang kita tampal dan membalikkannya kepada format lain.
path = r"C:\caminho\livros.csv" def invert_url_pattern(url): return url.replace("\","/") path = invert_url_pattern(path) def search_book(path): url_base = "https://www.google.com/search?q=isbn" headers = { "User-Agent":"seu pc" } df = pd.read_csv(path, encoding='utf-8') books = df["Name"].tolist() media = df["media"].tolist() # vamos colocar as pesquisas aqui e depois inserir todas no DataFrame title_books = [] isbn_books = [] media_books = [] for index, book in enumerate(books): time.sleep(random.uniform(60, 90)) url = url_base + "+" + book.replace(" ", "+") req = requests.get(url, headers=headers) site = BeautifulSoup(req.text, "html.parser") #usamos as class para buscar o conteúdo title = site.find("span", class_="Wkr6U") isbns = site.find_all("div", class_="bVj5Zb") medias = site.find_all("div", class_="TCYkdd") #se algo falhar, retornamos uma string vazia if(title.text == None): title_books.append("") isbn_books.append("") media_books.append("") continue # No loop, o último item acessado será o mais recente, # pois percorremos a lista de cima para baixo. # Por isso, invertendo a lista de ISBNs, garantimos que # o mais novo de cada categoria seja processado por último. isbns = isbns[::-1] unified_data = {} for i in range(len(medias)): unified_data[medias[i].text] = isbns[i].text match media[index]: case "ebook": isbn_books.append(unified_data["Livro digital"]) media_books.append("Livro digital") case "fisical": isbn_books.append(unified_data["Livro capa dura"]) media_books.append("Livro capa dura") case "audio": isbn_books.append(unified_data["Audiolivro"]) media_books.append("Audiolivro") case _: isbn_books.append(unified_data[0]) media_books.append("") title_books.append(title.text) df["Titulo do Livro"] = title_books df["ISBN"] = isbn_books df["Tipo de Livro"] = media_books return df
Baiklah, semuanya sedia untuk kami uji! Saya akan meninggalkan baris contoh tentang apa yang saya terima supaya anda boleh mengujinya.
Name | language | media |
---|---|---|
this other eden | ?? english | audio |
df = search_book(path) df.to_csv(invert_url_pattern("C:seu\caminho\para\salvar\nome_do_arquivo.csv"), encoding='utf-8', index=False)
Saya harap ia berguna untuk anda dan anda boleh mengautomasikan sesuatu dalam kehidupan seharian anda!
Atas ialah kandungan terperinci Webscraping dengan Python: menggunakan CSV sebagai pangkalan data. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas











Python sesuai untuk sains data, pembangunan web dan tugas automasi, manakala C sesuai untuk pengaturcaraan sistem, pembangunan permainan dan sistem tertanam. Python terkenal dengan kesederhanaan dan ekosistem yang kuat, manakala C dikenali dengan keupayaan kawalan dan keupayaan kawalan yang mendasari.

Anda boleh mempelajari asas -asas Python dalam masa dua jam. 1. Belajar pembolehubah dan jenis data, 2. Struktur kawalan induk seperti jika pernyataan dan gelung, 3 memahami definisi dan penggunaan fungsi. Ini akan membantu anda mula menulis program python mudah.

Python cemerlang dalam permainan dan pembangunan GUI. 1) Pembangunan permainan menggunakan pygame, menyediakan lukisan, audio dan fungsi lain, yang sesuai untuk membuat permainan 2D. 2) Pembangunan GUI boleh memilih tkinter atau pyqt. TKInter adalah mudah dan mudah digunakan, PYQT mempunyai fungsi yang kaya dan sesuai untuk pembangunan profesional.

Anda boleh mempelajari konsep pengaturcaraan asas dan kemahiran Python dalam masa 2 jam. 1. Belajar Pembolehubah dan Jenis Data, 2.

Python lebih mudah dipelajari dan digunakan, manakala C lebih kuat tetapi kompleks. 1. Sintaks Python adalah ringkas dan sesuai untuk pemula. Penaipan dinamik dan pengurusan memori automatik menjadikannya mudah digunakan, tetapi boleh menyebabkan kesilapan runtime. 2.C menyediakan kawalan peringkat rendah dan ciri-ciri canggih, sesuai untuk aplikasi berprestasi tinggi, tetapi mempunyai ambang pembelajaran yang tinggi dan memerlukan memori manual dan pengurusan keselamatan jenis.

Python digunakan secara meluas dalam bidang pembangunan web, sains data, pembelajaran mesin, automasi dan skrip. 1) Dalam pembangunan web, kerangka Django dan Flask memudahkan proses pembangunan. 2) Dalam bidang sains data dan pembelajaran mesin, numpy, panda, scikit-learn dan perpustakaan tensorflow memberikan sokongan yang kuat. 3) Dari segi automasi dan skrip, Python sesuai untuk tugas -tugas seperti ujian automatik dan pengurusan sistem.

Untuk memaksimumkan kecekapan pembelajaran Python dalam masa yang terhad, anda boleh menggunakan modul, masa, dan modul Python. 1. Modul DateTime digunakan untuk merakam dan merancang masa pembelajaran. 2. Modul Masa membantu menetapkan kajian dan masa rehat. 3. Modul Jadual secara automatik mengatur tugas pembelajaran mingguan.

Python cemerlang dalam automasi, skrip, dan pengurusan tugas. 1) Automasi: Sandaran fail direalisasikan melalui perpustakaan standard seperti OS dan Shutil. 2) Penulisan Skrip: Gunakan Perpustakaan Psutil untuk memantau sumber sistem. 3) Pengurusan Tugas: Gunakan perpustakaan jadual untuk menjadualkan tugas. Kemudahan penggunaan Python dan sokongan perpustakaan yang kaya menjadikannya alat pilihan di kawasan ini.
