目录
在 Google Colab 上访问完整代码
为什么选择 Crawl4AI 和 Pydantic?
为什么瞄准 Tokopedia?
是什么让这种方法与众不同?
设置您的开发环境
使用 Pydantic 定义数据模型
抓取过程
1.抓取产品列表
2.正在获取产品详细信息
结合各个阶段
运行爬虫
专业提示
后续步骤
结论
重要链接:
爬行4AI
皮丹蒂克
注意:完整的代码可以在Colab笔记本中找到。 请随意尝试并根据您的具体需求进行调整。
首页 后端开发 Python教程 使用 Pydantic、Crawl 和 Gemini 构建异步电子商务网络爬虫

使用 Pydantic、Crawl 和 Gemini 构建异步电子商务网络爬虫

Jan 12, 2025 am 06:25 AM

Building an Async E-Commerce Web Scraper with Pydantic, Crawl & Gemini

简而言之: 本指南演示了如何使用crawl4ai 的人工智能提取和 Pydantic 数据模型构建电子商务抓取工具。 抓取工具异步检索产品列表(名称、价格)和详细的产品信息(规格、评论)。

在 Google Colab 上访问完整代码


厌倦了电子商务数据分析的传统网络抓取的复杂性?本教程使用现代 Python 工具简化了该过程。我们将利用 crawl4ai 进行智能数据提取,并利用 Pydantic 进行稳健的数据建模和验证。

为什么选择 Crawl4AI 和 Pydantic?

  • crawl4ai:使用人工智能驱动的提取方法简化网络爬行和抓取。
  • Pydantic:提供数据验证和模式管理,确保抓取的数据结构化且准确。

为什么瞄准 Tokopedia?

印尼主要电商平台Tokopedia就是我们的例子。 (注:作者是印度尼西亚人,也是该平台的用户,但不隶属于该平台。)这些原则适用于其他电子商务网站。 这种抓取方法对于对电子商务分析、市场研究或自动数据收集感兴趣的开发人员来说是有益的。

是什么让这种方法与众不同?

我们不依赖复杂的CSS选择器或XPath,而是利用crawl4ai基于LLM的提取。这提供:

  • 增强了对网站结构变化的适应能力。
  • 更清晰、更结构化的数据输出。
  • 减少维护开销。

设置您的开发环境

首先安装必要的软件包:

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
登录后复制
登录后复制

对于笔记本中的异步代码执行,我们还将使用 nest_asyncio:

import crawl4ai
import asyncio
import nest_asyncio
nest_asyncio.apply()
登录后复制

使用 Pydantic 定义数据模型

我们使用 Pydantic 来定义预期的数据结构。 以下是型号:

from pydantic import BaseModel, Field
from typing import List, Optional

class TokopediaListingItem(BaseModel):
    product_name: str = Field(..., description="Product name from listing.")
    product_url: str = Field(..., description="URL to product detail page.")
    price: str = Field(None, description="Price displayed in listing.")
    store_name: str = Field(None, description="Store name from listing.")
    rating: str = Field(None, description="Rating (1-5 scale) from listing.")
    image_url: str = Field(None, description="Primary image URL from listing.")

class TokopediaProductDetail(BaseModel):
    product_name: str = Field(..., description="Product name from detail page.")
    all_images: List[str] = Field(default_factory=list, description="List of all product image URLs.")
    specs: str = Field(None, description="Technical specifications or short info.")
    description: str = Field(None, description="Long product description.")
    variants: List[str] = Field(default_factory=list, description="List of variants or color options.")
    satisfaction_percentage: Optional[str] = Field(None, description="Customer satisfaction percentage.")
    total_ratings: Optional[str] = Field(None, description="Total number of ratings.")
    total_reviews: Optional[str] = Field(None, description="Total number of reviews.")
    stock: Optional[str] = Field(None, description="Stock availability.")
登录后复制

这些模型充当模板,确保数据验证并提供清晰的文档。

抓取过程

刮刀分两个阶段运行:

1.抓取产品列表

首先,我们检索搜索结果页面:

async def crawl_tokopedia_listings(query: str = "mouse-wireless", max_pages: int = 1):
    # ... (Code remains the same) ...
登录后复制

2.正在获取产品详细信息

接下来,对于每个产品 URL,我们获取详细信息:

async def crawl_tokopedia_detail(product_url: str):
    # ... (Code remains the same) ...
登录后复制

结合各个阶段

最后,我们整合两个阶段:

async def run_full_scrape(query="mouse-wireless", max_pages=2, limit=15):
    # ... (Code remains the same) ...
登录后复制

运行爬虫

执行抓取工具的方法如下:

%pip install -U crawl4ai
%pip install nest_asyncio
%pip install pydantic
登录后复制
登录后复制

专业提示

  1. 速率限制:尊重 Tokopedia 的服务器;在大规模抓取请求之间引入延迟。
  2. 缓存:在开发过程中启用crawl4ai的缓存(cache_mode=CacheMode.ENABLED)。
  3. 错误处理:为生产使用实现全面的错误处理和重试机制。
  4. API 密钥: 将 Gemini API 密钥安全地存储在环境变量中,而不是直接存储在代码中。

后续步骤

这个刮刀可以扩展到:

  • 将数据存储在数据库中。
  • 监控价格随时间的变化。
  • 分析产品趋势和模式。
  • 比较多家商店的价格。

结论

crawl4ai 基于 LLM 的提取与传统方法相比显着提高了网页抓取的可维护性。 与 Pydantic 的集成确保了数据的准确性和结构。

在抓取之前始终遵守网站的robots.txt和服务条款。


重要链接:

爬行4AI

皮丹蒂克


注意:完整的代码可以在Colab笔记本中找到。 请随意尝试并根据您的具体需求进行调整。

以上是使用 Pydantic、Crawl 和 Gemini 构建异步电子商务网络爬虫的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

热门话题

Java教程
1659
14
CakePHP 教程
1415
52
Laravel 教程
1309
25
PHP教程
1257
29
C# 教程
1232
24
Python vs.C:申请和用例 Python vs.C:申请和用例 Apr 12, 2025 am 12:01 AM

Python适合数据科学、Web开发和自动化任务,而C 适用于系统编程、游戏开发和嵌入式系统。 Python以简洁和强大的生态系统着称,C 则以高性能和底层控制能力闻名。

2小时的Python计划:一种现实的方法 2小时的Python计划:一种现实的方法 Apr 11, 2025 am 12:04 AM

2小时内可以学会Python的基本编程概念和技能。1.学习变量和数据类型,2.掌握控制流(条件语句和循环),3.理解函数的定义和使用,4.通过简单示例和代码片段快速上手Python编程。

Python:游戏,Guis等 Python:游戏,Guis等 Apr 13, 2025 am 12:14 AM

Python在游戏和GUI开发中表现出色。1)游戏开发使用Pygame,提供绘图、音频等功能,适合创建2D游戏。2)GUI开发可选择Tkinter或PyQt,Tkinter简单易用,PyQt功能丰富,适合专业开发。

您可以在2小时内学到多少python? 您可以在2小时内学到多少python? Apr 09, 2025 pm 04:33 PM

两小时内可以学到Python的基础知识。1.学习变量和数据类型,2.掌握控制结构如if语句和循环,3.了解函数的定义和使用。这些将帮助你开始编写简单的Python程序。

Python与C:学习曲线和易用性 Python与C:学习曲线和易用性 Apr 19, 2025 am 12:20 AM

Python更易学且易用,C 则更强大但复杂。1.Python语法简洁,适合初学者,动态类型和自动内存管理使其易用,但可能导致运行时错误。2.C 提供低级控制和高级特性,适合高性能应用,但学习门槛高,需手动管理内存和类型安全。

Python和时间:充分利用您的学习时间 Python和时间:充分利用您的学习时间 Apr 14, 2025 am 12:02 AM

要在有限的时间内最大化学习Python的效率,可以使用Python的datetime、time和schedule模块。1.datetime模块用于记录和规划学习时间。2.time模块帮助设置学习和休息时间。3.schedule模块自动化安排每周学习任务。

Python:探索其主要应用程序 Python:探索其主要应用程序 Apr 10, 2025 am 09:41 AM

Python在web开发、数据科学、机器学习、自动化和脚本编写等领域有广泛应用。1)在web开发中,Django和Flask框架简化了开发过程。2)数据科学和机器学习领域,NumPy、Pandas、Scikit-learn和TensorFlow库提供了强大支持。3)自动化和脚本编写方面,Python适用于自动化测试和系统管理等任务。

Python:自动化,脚本和任务管理 Python:自动化,脚本和任务管理 Apr 16, 2025 am 12:14 AM

Python在自动化、脚本编写和任务管理中表现出色。1)自动化:通过标准库如os、shutil实现文件备份。2)脚本编写:使用psutil库监控系统资源。3)任务管理:利用schedule库调度任务。Python的易用性和丰富库支持使其在这些领域中成为首选工具。

See all articles