首頁 後端開發 Python教學 使用 Beautiful Soup 和 Scrapy 進行網頁抓取:有效率、負責任地擷取數據

使用 Beautiful Soup 和 Scrapy 進行網頁抓取:有效率、負責任地擷取數據

Jan 05, 2025 am 07:18 AM

Web Scraping with Beautiful Soup and Scrapy: Extracting Data Efficiently and Responsibly

在數位時代,資料是寶貴的資產,網頁抓取已成為從網站提取資訊的重要工具。本文探討了兩個流行的 Web 抓取 Python 函式庫:Beautiful Soup 和 Scrapy。我們將深入研究它們的功能,提供即時工作程式碼範例,並討論負責任的網路抓取的最佳實踐。

網頁抓取簡介

網頁抓取是從網站擷取資料的自動化過程。它廣泛應用於各個領域,包括數據分析、機器學習和競爭分析。然而,網頁抓取必須負責任地進行,以尊重網站服務條款和法律界限。

Beautiful Soup:適合初學者的圖書館

Beautiful Soup 是一個 Python 函式庫,專為快速輕鬆的網頁抓取任務而設計。它對於解析 HTML 和 XML 文件並從中提取資料特別有用。 Beautiful Soup 提供了迭代、搜尋和修改解析樹的 Pythonic 慣用法。

主要特點

  • 易於使用:Beautiful Soup 適合初學者且易於學習。
  • 靈活的解析:它可以解析 HTML 和 XML 文檔,甚至是那些帶有格式錯誤的標記的文檔。
  • 整合:與其他 Python 函式庫配合良好,例如取得網頁的請求。

安裝中

要開始使用 Beautiful Soup,您需要將其與請求庫一起安裝:

pip install beautifulsoup4 requests
登入後複製
登入後複製

基本範例

讓我們從範例部落格頁面中提取文章標題:

import requests
from bs4 import BeautifulSoup

# Fetch the web page
url = 'https://example-blog.com'
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    # Parse the HTML content
    soup = BeautifulSoup(response.text, 'html.parser')
    # Extract article titles
    titles = soup.find_all('h1', class_='entry-title')
    # Check if titles were found
    if titles:
        for title in titles:
            # Extract and print the text of each title
            print(title.get_text(strip=True))
    else:
        print("No titles found. Please check the HTML structure and update the selector.")
else:
    print(f"Failed to retrieve the page. Status code: {response.status_code}")
登入後複製
登入後複製

優點

  • 簡單:非常適合中小型專案。
  • 穩健性:優雅地處理格式不良的 HTML。

Scrapy:一個強大的網頁抓取框架

Scrapy是一個全面的網頁抓取框架,提供大規模資料擷取的工具。它專為性能和靈活性而設計,使其適合複雜的專案。

主要特點

  • 速度和效率:內建對非同步請求的支援。
  • 可擴充性:透過中間件和管道進行高度可自訂。
  • 內建資料匯出:支援匯出JSON、CSV、XML等多種格式的資料。

安裝中

使用 pip 安裝 Scrapy:

pip install scrapy
登入後複製
登入後複製

基本範例

為了示範 Scrapy,我們將建立一個蜘蛛來從網站上抓取報價:

  • 建立一個 Scrapy 專案
pip install beautifulsoup4 requests
登入後複製
登入後複製
  • 定義蜘蛛: 在spiders目錄下建立一個檔案quotes_spider.py:
import requests
from bs4 import BeautifulSoup

# Fetch the web page
url = 'https://example-blog.com'
response = requests.get(url)
# Check if the request was successful
if response.status_code == 200:
    # Parse the HTML content
    soup = BeautifulSoup(response.text, 'html.parser')
    # Extract article titles
    titles = soup.find_all('h1', class_='entry-title')
    # Check if titles were found
    if titles:
        for title in titles:
            # Extract and print the text of each title
            print(title.get_text(strip=True))
    else:
        print("No titles found. Please check the HTML structure and update the selector.")
else:
    print(f"Failed to retrieve the page. Status code: {response.status_code}")
登入後複製
登入後複製
  • 運行蜘蛛: 執行spider來抓取資料:
pip install scrapy
登入後複製
登入後複製

優點

  • 可擴充性:高效處理大規模抓取專案。
  • 內建功能:提供強大的功能,例如請求調度和資料管道。

負責任的網頁抓取的最佳實踐

雖然網頁抓取是一個強大的工具,但負責任地使用它至關重要:

  • 尊重Robots.txt:始終檢查網站的robots.txt檔案以了解哪些頁面可以被抓取。
  • 速率限制:在請求之間實施延遲,以避免伺服器不堪負荷。
  • 使用者代理程式輪換:使用不同的使用者代理字串來模仿真實的使用者行為。
  • 法律合規性:確保遵守法律要求和網站服務條款。

結論

Beautiful Soup 和 Scrapy 是強大的網頁抓取工具,各有其優勢。 Beautiful Soup 非常適合初學者和小型項目,而 Scrapy 則適合大規模、複雜的抓取任務。透過遵循最佳實踐,您可以有效率、負責任地提取數據,釋放有價值的見解

註:AI輔助內容

以上是使用 Beautiful Soup 和 Scrapy 進行網頁抓取:有效率、負責任地擷取數據的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

<🎜>:泡泡膠模擬器無窮大 - 如何獲取和使用皇家鑰匙
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
北端:融合系統,解釋
4 週前 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora:巫婆樹的耳語 - 如何解鎖抓鉤
3 週前 By 尊渡假赌尊渡假赌尊渡假赌

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1673
14
CakePHP 教程
1429
52
Laravel 教程
1333
25
PHP教程
1278
29
C# 教程
1257
24
Python與C:學習曲線和易用性 Python與C:學習曲線和易用性 Apr 19, 2025 am 12:20 AM

Python更易學且易用,C 則更強大但複雜。 1.Python語法簡潔,適合初學者,動態類型和自動內存管理使其易用,但可能導致運行時錯誤。 2.C 提供低級控制和高級特性,適合高性能應用,但學習門檻高,需手動管理內存和類型安全。

學習Python:2小時的每日學習是否足夠? 學習Python:2小時的每日學習是否足夠? Apr 18, 2025 am 12:22 AM

每天學習Python兩個小時是否足夠?這取決於你的目標和學習方法。 1)制定清晰的學習計劃,2)選擇合適的學習資源和方法,3)動手實踐和復習鞏固,可以在這段時間內逐步掌握Python的基本知識和高級功能。

Python vs.C:探索性能和效率 Python vs.C:探索性能和效率 Apr 18, 2025 am 12:20 AM

Python在開發效率上優於C ,但C 在執行性能上更高。 1.Python的簡潔語法和豐富庫提高開發效率。 2.C 的編譯型特性和硬件控制提升執行性能。選擇時需根據項目需求權衡開發速度與執行效率。

Python vs. C:了解關鍵差異 Python vs. C:了解關鍵差異 Apr 21, 2025 am 12:18 AM

Python和C 各有優勢,選擇應基於項目需求。 1)Python適合快速開發和數據處理,因其簡潔語法和動態類型。 2)C 適用於高性能和系統編程,因其靜態類型和手動內存管理。

Python標準庫的哪一部分是:列表或數組? Python標準庫的哪一部分是:列表或數組? Apr 27, 2025 am 12:03 AM

pythonlistsarepartofthestAndArdLibrary,herilearRaysarenot.listsarebuilt-In,多功能,和Rused ForStoringCollections,而EasaraySaraySaraySaraysaraySaraySaraysaraySaraysarrayModuleandleandleandlesscommonlyusedDduetolimitedFunctionalityFunctionalityFunctionality。

Python:自動化,腳本和任務管理 Python:自動化,腳本和任務管理 Apr 16, 2025 am 12:14 AM

Python在自動化、腳本編寫和任務管理中表現出色。 1)自動化:通過標準庫如os、shutil實現文件備份。 2)腳本編寫:使用psutil庫監控系統資源。 3)任務管理:利用schedule庫調度任務。 Python的易用性和豐富庫支持使其在這些領域中成為首選工具。

科學計算的Python:詳細的外觀 科學計算的Python:詳細的外觀 Apr 19, 2025 am 12:15 AM

Python在科學計算中的應用包括數據分析、機器學習、數值模擬和可視化。 1.Numpy提供高效的多維數組和數學函數。 2.SciPy擴展Numpy功能,提供優化和線性代數工具。 3.Pandas用於數據處理和分析。 4.Matplotlib用於生成各種圖表和可視化結果。

Web開發的Python:關鍵應用程序 Web開發的Python:關鍵應用程序 Apr 18, 2025 am 12:20 AM

Python在Web開發中的關鍵應用包括使用Django和Flask框架、API開發、數據分析與可視化、機器學習與AI、以及性能優化。 1.Django和Flask框架:Django適合快速開發複雜應用,Flask適用於小型或高度自定義項目。 2.API開發:使用Flask或DjangoRESTFramework構建RESTfulAPI。 3.數據分析與可視化:利用Python處理數據並通過Web界面展示。 4.機器學習與AI:Python用於構建智能Web應用。 5.性能優化:通過異步編程、緩存和代碼優

See all articles