Python과 BeautifulSoup을 사용하여 Goodreads에서 데이터를 긁어내는 방법
웹 스크래핑은 웹사이트에서 데이터를 수집하는 강력한 도구입니다. 제품 리뷰를 수집하든, 가격을 추적하든, 아니면 우리의 경우 Goodreads 도서를 스크랩하든 웹 스크래핑은 데이터 기반 애플리케이션에 대한 무한한 기회를 제공합니다.
이 블로그 게시물에서는 웹 스크래핑의 기본 사항과 Python BeautifulSoup 라이브러리의 강력한 기능을 살펴보고 Goodreads Choice Awards 데이터를 스크래핑하도록 설계된 Python 스크립트를 분석해 보겠습니다. 마지막으로 추가 분석이나 적용을 위해 이 데이터를 CSV 파일에 저장하는 방법에 대해 논의하겠습니다.
Goodreads란 무엇인가요?
Goodreads는 독자와 도서 추천을 제공하는 세계 최대 규모의 플랫폼입니다. 이는 사용자에게 서평, 저자 세부정보 및 인기 순위에 대한 액세스를 제공합니다. 매년 Goodreads는 독자들이 소설, 판타지, 로맨스 등 다양한 장르에 걸쳐 자신이 좋아하는 책에 투표하는 Goodreads Choice Awards를 개최합니다. 따라서 Goodreads는 인기 도서 및 작가에 대한 통찰력을 수집하기 위한 웹 스크래핑의 이상적인 대상이 됩니다.
웹 스크래핑이란 무엇입니까?
웹 스크래핑에는 자동화된 방식으로 웹사이트에서 데이터를 추출하는 작업이 포함됩니다. 이를 통해 다음과 같은 작업에 대한 정보를 수집하고 구조화할 수 있습니다.
- 트렌드와 패턴을 분석합니다.
- 리뷰나 기사 등의 콘텐츠를 집계합니다.
- 기계 학습 모델 또는 데이터베이스를 제공합니다.
환경 설정
스크립트를 시작하기 전에 필요한 라이브러리를 설치해야 합니다.
-
파이썬 설치
시스템에 Python이 설치되어 있는지 확인하세요.
-
필수 라이브러리 설치
pip를 사용하여 필수 라이브러리를 설치합니다.
pip install beautifulsoup4 pip install requests
로그인 후 복사로그인 후 복사로그인 후 복사요청: HTTP 요청을 URL로 보내고 웹페이지 콘텐츠를 검색할 수 있습니다.
BeautifulSoup: HTML 구문 분석 및 데이터 추출을 단순화합니다.
설치가 완료되면 스크래핑할 준비가 된 것입니다!
BeautifulSoup 소개
BeautifulSoup은 HTML 및 XML 문서를 구문 분석하기 위한 Python 라이브러리입니다. 이를 통해 개발자는 페이지 구조를 탐색하고, 콘텐츠를 추출하고, 원시 HTML을 구조화된 형식으로 변환할 수 있습니다.
BeautifulSoup의 주요 메소드
다음은 스크립트에서 사용할 몇 가지 필수 방법입니다.
- BeautifulSoup(html, 'html.parser'): 파서를 초기화하고 HTML 콘텐츠로 작업할 수 있게 해줍니다.
- Soup.select(selector): CSS 선택자를 사용하여 클래스나 태그 등의 요소를 찾습니다.
- 수프.find(class_='class_name'): 지정된 클래스가 있는 요소가 처음 나타나는 위치를 찾습니다.
- Soup.find_parent(class_='class_name'): 현재 요소의 상위 태그를 찾습니다.
- Soup.get('attribute'): href 또는 src와 같은 요소에서 속성 값을 검색합니다.
전체 메소드 목록을 보려면 BeautifulSoup 문서를 확인하세요.
스크립트 설정
우선 브라우저를 모방하기 위해 필요한 라이브러리를 가져오고 사용자 정의 헤더를 정의해 보겠습니다. 이렇게 하면 웹사이트가 차단되는 것을 방지할 수 있습니다.
pip install beautifulsoup4 pip install requests
카테고리 및 도서 스크랩
Goodreads’ Choice Award 페이지와 기본 애플리케이션의 URL을 정의하는 것부터 시작합니다. start_url에 요청을 보내고 웹페이지 콘텐츠를 가져옵니다.
from bs4 import BeautifulSoup as bs import requests import re import csv HEADERS = { "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...", "Accept-Language": "en-US, en;q=0.5", }
각 카테고리에는 장르와 해당 페이지에 대한 링크가 포함되어 있습니다. Soup.select를 사용하여 .category 클래스에 나열된 모든 카테고리를 추출합니다.
다음으로 각 카테고리를 반복하여 장르 이름과 페이지 URL을 가져옵니다.
app_url = "https://www.goodreads.com" start_url = "https://www.goodreads.com/choiceawards/best-books-2024" res = requests.get(start_url, headers=HEADERS) soup = bs(res.text, 'html.parser') categories = soup.select('.category')
여기서 추가 처리를 위해 카테고리 이름(장르)과 카테고리 페이지 URL을 추출합니다.
각 Category_url에 또 다른 요청을 보내고 해당 카테고리에 속한 모든 도서를 찾습니다.
for index, category in enumerate(categories): genre = category.select('h4.category__copy')[0].text.strip() url = category.select('a')[0].get('href') category_url = f"{app_url}{url}"
category_books에는 해당 카테고리에 속한 모든 도서 목록이 포함됩니다.
도서 데이터 추출
책 목록이 확보되면 각 책을 반복하여 데이터를 추출합니다.
투표 추출
res = requests.get(category_url, headers=HEADERS) soup = bs(res.text, 'html.parser') category_books = soup.select('.resultShown a.pollAnswer__bookLink')
DOM을 보면 카테고리 요소의 상위 요소에 투표 횟수가 표시되어 있습니다. 따라서 find_parent 메소드를 사용하여 요소를 찾고 투표수를 추출해야 합니다.
도서 제목, 저자 및 이미지 URL 추출
for book_index, book in enumerate(category_books): parent_tag = book.find_parent(class_='resultShown') votes = parent_tag.find(class_='result').text.strip() book_votes = clean_string(votes).split(" ")[0].replace(",", "")
각 도서의 URL, 표지 이미지 URL, 제목, 저자가 추출됩니다.
clean_string 함수는 제목의 형식을 깔끔하게 유지합니다. 스크립트 상단에서 정의할 수 있습니다
book_url = book.get('href') book_url_formatted = f"{app_url}{book_url}" book_img = book.find('img') book_img_url = book_img.get('src') book_img_alt = book_img.get('alt') book_title = clean_string(book_img_alt) print(book_title) book_name = book_title.split('by')[0].strip() book_author = book_title.split('by')[1].strip()
도서 세부정보 더 추출
평점, 리뷰 등 책에 대한 자세한 내용을 확인하기 위해 book_url_formatted에 또 다른 요청을 보내드리겠습니다.
def clean_string(string): cleaned = re.sub(r'\s+', ' ', string).strip() return cleaned
여기서 get_atings_reviews는 올바른 형식의 평점 및 리뷰 텍스트를 반환합니다.
이 기능은 스크립트 상단에서 정의할 수 있습니다.
pip install beautifulsoup4 pip install requests
각 도서의 세부정보 페이지로 이동하면 평점, 리뷰, 자세한 설명과 같은 추가 정보가 추출됩니다. 여기서는 책 설명 요소가 존재하는지 확인하고 그렇지 않으면 스크립트가 실패하지 않도록 기본 설명을 입력합니다.
from bs4 import BeautifulSoup as bs import requests import re import csv HEADERS = { "User-Agent": "Mozilla/5.0 (X11; Linux x86_64)...", "Accept-Language": "en-US, en;q=0.5", }
여기서 저자 세부정보, 출판 정보, 기타 메타데이터도 수집했습니다.
책 사전 만들기
책에 대해 추출한 모든 데이터를 사전에 저장해 보겠습니다.
app_url = "https://www.goodreads.com" start_url = "https://www.goodreads.com/choiceawards/best-books-2024" res = requests.get(start_url, headers=HEADERS) soup = bs(res.text, 'html.parser') categories = soup.select('.category')
이 사전을 사용하여 csv 파일에 데이터를 추가합니다.
CSV 파일에 데이터 저장
파이썬 표준 라이브러리의 일부인 csv 모듈을 사용하겠습니다. 그래서 따로 설치할 필요가 없습니다.
먼저 이것이 첫 번째 항목인지 확인해야 합니다. csv 파일의 첫 번째 행에 헤더를 추가하려면 이 확인이 필요합니다.
for index, category in enumerate(categories): genre = category.select('h4.category__copy')[0].text.strip() url = category.select('a')[0].get('href') category_url = f"{app_url}{url}"
header 항목이 포함된 새 csv 파일을 생성하는 mode="w"를 사용하고 있습니다.
이제 모든 후속 항목에 대해 데이터를 CSV 파일에 추가합니다.
res = requests.get(category_url, headers=HEADERS) soup = bs(res.text, 'html.parser') category_books = soup.select('.resultShown a.pollAnswer__bookLink')
mode="a"는 데이터를 CSV 파일에 추가합니다.
이제 대본이 실행되는 동안 편히 앉아 커피 한 잔의 여유를 즐겨보세요 😄
완료되면 최종 데이터는 다음과 같습니다.
이 Github 저장소에서 전체 소스 코드를 찾을 수 있습니다.
요약
Python과 BeautifulSoup을 사용하여 Goodreads 데이터를 스크랩하는 방법을 배웠습니다. 기본 설정부터 CSV 파일에 데이터를 저장하는 것까지 스크래핑 프로세스의 모든 측면을 탐색했습니다. 스크랩된 데이터는 다음 용도로 사용될 수 있습니다.
- 데이터 시각화(예: 가장 인기 있는 장르 또는 작가)
- 도서 인기도를 예측하는 머신러닝 모델.
- 개인 도서 추천 시스템 구축
웹 스크래핑은 창의적인 데이터 분석 및 응용 가능성을 열어줍니다. BeautifulSoup과 같은 라이브러리를 사용하면 복잡한 스크래핑 작업도 관리할 수 있습니다. 스크랩하는 동안 윤리적 관행을 따르고 웹사이트의 서비스 약관을 존중하는 것을 잊지 마세요!
위 내용은 Python과 BeautifulSoup을 사용하여 Goodreads에서 데이터를 긁어내는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Python은 데이터 과학, 웹 개발 및 자동화 작업에 적합한 반면 C는 시스템 프로그래밍, 게임 개발 및 임베디드 시스템에 적합합니다. Python은 단순성과 강력한 생태계로 유명하며 C는 고성능 및 기본 제어 기능으로 유명합니다.

2 시간 이내에 Python의 기본 프로그래밍 개념과 기술을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우기, 2. 마스터 제어 흐름 (조건부 명세서 및 루프), 3. 기능의 정의 및 사용을 이해하십시오. 4. 간단한 예제 및 코드 스 니펫을 통해 Python 프로그래밍을 신속하게 시작하십시오.

Python은 게임 및 GUI 개발에서 탁월합니다. 1) 게임 개발은 Pygame을 사용하여 드로잉, 오디오 및 기타 기능을 제공하며 2D 게임을 만드는 데 적합합니다. 2) GUI 개발은 Tkinter 또는 PYQT를 선택할 수 있습니다. Tkinter는 간단하고 사용하기 쉽고 PYQT는 풍부한 기능을 가지고 있으며 전문 개발에 적합합니다.

2 시간 이내에 파이썬의 기본 사항을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우십시오. 이를 통해 간단한 파이썬 프로그램 작성을 시작하는 데 도움이됩니다.

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python은 웹 개발, 데이터 과학, 기계 학습, 자동화 및 스크립팅 분야에서 널리 사용됩니다. 1) 웹 개발에서 Django 및 Flask 프레임 워크는 개발 프로세스를 단순화합니다. 2) 데이터 과학 및 기계 학습 분야에서 Numpy, Pandas, Scikit-Learn 및 Tensorflow 라이브러리는 강력한 지원을 제공합니다. 3) 자동화 및 스크립팅 측면에서 Python은 자동화 된 테스트 및 시스템 관리와 같은 작업에 적합합니다.

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.
