Python爬蟲技術入門實例程式碼解析
爬蟲技術基礎概念
爬蟲:自動取得網路資料的程式。
Web頁面架構:HTML、CSS、JavaScript等。
HTTP請求:客戶端向伺服器請求資料的方式。
HTTP回應:伺服器傳回給客戶端的資料。
請求與回應
使用Python的requests函式庫發送HTTP請求。
import requests url = "https://www.example.com" response = requests.get(url)
取得回應內容
html_content = response.text
HTML解析與資料擷取
#使用BeautifulSoup函式庫解析HTML內容。
from bs4 import BeautifulSoup soup = BeautifulSoup(html_content, "html.parser")
使用CSS選擇器或其他方法擷取資料。
title = soup.title.string
實戰:爬取簡書網站首頁文章資訊
發送請求,取得簡書網站首頁HTML內容。
import requests from bs4 import BeautifulSoup url = "https://www.jianshu.com" response = requests.get(url) html_content = response.text
儲存資料
將資料儲存為JSON格式。
import json with open("jianshu_articles.json", "w", encoding="utf-8") as f: json.dump(article_info_list, f, ensure_ascii=False, indent=4)
測試與最佳化
1.遇到反爬蟲策略時,可以使用User-Agent偽裝成瀏覽器。
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} response = requests.get(url, headers=headers)
2.使用time.sleep()函數控制請求頻率。
import time time.sleep(10)
3.錯誤處理與異常捕獲。
try: response = requests.get(url, headers=headers, timeout=5) response.raise_for_status() except requests.exceptions.RequestException as e: print(f"Error: {e}")
網站爬蟲完整程式碼:
import requests from bs4 import BeautifulSoup import json import time def fetch_jianshu_articles(): url = "https://www.jianshu.com" headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} try: response = requests.get(url, headers=headers, timeout=5) response.raise_for_status() except requests.exceptions.RequestException as e: print(f"Error: {e}") return html_content = response.text soup = BeautifulSoup(html_content, "html.parser") articles = soup.find_all("div", class_="content") article_info_list = [] for article in articles: title = article.h3.text.strip() author = article.find("span", class_="name").text.strip() link = url + article.h3.a["href"] article_info = {"title": title, "author": author, "link": link} article_info_list.append(article_info) return article_info_list def save_to_json(article_info_list, filename): with open(filename, "w", encoding="utf-8") as f: json.dump(article_info_list, f, ensure_ascii=False, indent=4) if __name__ == "__main__": article_info_list = fetch_jianshu_articles() if article_info_list: save_to_json(article_info_list, "jianshu_articles.json") print("Jianshu articles saved to 'jianshu_articles.json'.") else: print("Failed to fetch Jianshu articles.")
補充
為了更好地理解這個實戰項目,我們需要了解一些基礎概念和原理,這將有助於掌握Python的網路程式設計和爬蟲技術。以下是一些基本的網路爬蟲概念:
HTTP協定:超文本傳輸協定(HTTP)是用於傳輸超媒體文件(如 HTML)的應用層協定。 HTTP協定被用於從Web伺服器傳輸或發佈到網頁瀏覽器或其他客戶端的資料。
HTML、CSS 和 JavaScript:HTML 是用來描述網頁的語言。 CSS 是用來表現 HTML 結構的樣式。 JavaScript 是網頁程式設計的一種腳本語言,主要用於實現網頁上的動態效果和與使用者的互動。
DOM:文件物件模型(DOM)是一種跨平台的程式設計接口,用於處理 HTML 和 XML 文件。 DOM將文件視為樹狀結構,其中每個節點代表一個部分(如元素、屬性或文字)。
URL:統一資源定位符(URL)是用來指定網路資源位置的一種字串。
請求頭(Request Headers):在HTTP請求中,請求頭包含了關於客戶端的環境、瀏覽器等資訊。常見的請求頭字段有:User-Agent、Accept、Referer 等。
回應頭(Response Headers):在HTTP回應中,回應頭包含了關於伺服器的資訊、回應狀態碼等資訊。常見的回應標頭欄位有:Content-Type、Content-Length、Server 等。
網路爬蟲策略:有些網站會採取一些策略來阻止爬蟲抓取數據,如:封鎖IP、限制存取速度、使用 JavaScript 動態載入資料等。在實際應用中,我們需要根據這些策略採取相應的應對措施,如:使用代理IP、限制爬蟲抓取速度、使用瀏覽器模擬庫(如 Selenium)等。
以上是Python爬蟲技術入門實例程式碼解析的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

PHP主要是過程式編程,但也支持面向對象編程(OOP);Python支持多種範式,包括OOP、函數式和過程式編程。 PHP適合web開發,Python適用於多種應用,如數據分析和機器學習。

PHP適合網頁開發和快速原型開發,Python適用於數據科學和機器學習。 1.PHP用於動態網頁開發,語法簡單,適合快速開發。 2.Python語法簡潔,適用於多領域,庫生態系統強大。

PHP起源於1994年,由RasmusLerdorf開發,最初用於跟踪網站訪問者,逐漸演變為服務器端腳本語言,廣泛應用於網頁開發。 Python由GuidovanRossum於1980年代末開發,1991年首次發布,強調代碼可讀性和簡潔性,適用於科學計算、數據分析等領域。

Python更適合初學者,學習曲線平緩,語法簡潔;JavaScript適合前端開發,學習曲線較陡,語法靈活。 1.Python語法直觀,適用於數據科學和後端開發。 2.JavaScript靈活,廣泛用於前端和服務器端編程。

在 Sublime Text 中運行 Python 代碼,需先安裝 Python 插件,再創建 .py 文件並編寫代碼,最後按 Ctrl B 運行代碼,輸出會在控制台中顯示。

在 Visual Studio Code(VSCode)中編寫代碼簡單易行,只需安裝 VSCode、創建項目、選擇語言、創建文件、編寫代碼、保存並運行即可。 VSCode 的優點包括跨平台、免費開源、強大功能、擴展豐富,以及輕量快速。

VS Code 可用於編寫 Python,並提供許多功能,使其成為開發 Python 應用程序的理想工具。它允許用戶:安裝 Python 擴展,以獲得代碼補全、語法高亮和調試等功能。使用調試器逐步跟踪代碼,查找和修復錯誤。集成 Git,進行版本控制。使用代碼格式化工具,保持代碼一致性。使用 Linting 工具,提前發現潛在問題。

在 Notepad 中運行 Python 代碼需要安裝 Python 可執行文件和 NppExec 插件。安裝 Python 並為其添加 PATH 後,在 NppExec 插件中配置命令為“python”、參數為“{CURRENT_DIRECTORY}{FILE_NAME}”,即可在 Notepad 中通過快捷鍵“F6”運行 Python 代碼。
