목차
데이터 엔지니어링이란 무엇인가요?
개발 환경 설정
1. 데이터 스토리지: 데이터베이스 및 파일 시스템
PostgreSQL 설정
2. 데이터 처리: PySpark 및 분산 컴퓨팅
PySpark를 사용한 데이터 처리
3. 워크플로우 자동화: Airflow
Airflow를 통한 ETL 자동화
4. 시스템 모니터링
결론
백엔드 개발 파이썬 튜토리얼 데이터 엔지니어링 기초: 실습 가이드

데이터 엔지니어링 기초: 실습 가이드

Jan 13, 2025 pm 10:33 PM

데이터 엔지니어링 ETL 파이프라인 구축을 위한 실무 가이드입니다. 이 가이드는 저장, 처리, 자동화, 모니터링을 다루는 데이터 엔지니어링 기본 사항을 이해하고 구현하는 실무적인 접근 방식을 제공합니다.

데이터 엔지니어링이란 무엇인가요?

데이터 엔지니어링은 원시 데이터를 분석 및 의사 결정을 위한 귀중한 통찰력으로 변환하기 위해 데이터 워크플로를 구성, 처리 및 자동화하는 데 중점을 둡니다. 이 가이드에서는 다음 내용을 다룹니다.

  1. 데이터 저장: 데이터가 저장되는 위치와 방법을 정의합니다.
  2. 데이터 처리: 원시 데이터를 정리하고 변환하는 기술
  3. 워크플로 자동화: 원활하고 효율적인 워크플로 실행을 구현합니다.
  4. 시스템 모니터링: 전체 데이터 파이프라인의 신뢰성과 원활한 작동을 보장합니다.

각 스테이지를 살펴볼까요!


개발 환경 설정

시작하기 전에 다음 사항을 확인하세요.

  1. 환경 설정:
    • Unix 기반 시스템(macOS) 또는 Linux용 Windows 하위 시스템(WSL)
    • Python 3.11(또는 그 이상)이 설치되어 있습니다.
    • PostgreSQL 데이터베이스가 로컬에 설치되어 실행 중입니다.
  2. 전제 조건:
    • 기본적인 명령줄 숙련도.
    • Python 프로그래밍의 기초 지식
    • 소프트웨어 설치 및 구성을 위한 관리 권한
  3. 건축 개요: Data Engineering Foundations: A Hands-On Guide

다이어그램은 파이프라인 구성 요소 간의 상호 작용을 보여줍니다. 이 모듈식 설계는 워크플로 조정을 위한 Airflow, 분산 데이터 처리를 위한 Spark, 구조화된 데이터 저장을 위한 PostgreSQL 등 각 도구의 장점을 활용합니다.

  1. 필요한 도구 설치:
    • PostgreSQL:
      brew update
      brew install postgresql
      로그인 후 복사
      로그인 후 복사
      로그인 후 복사
    • PySpark:
      brew install apache-spark
      로그인 후 복사
      로그인 후 복사
      로그인 후 복사
    • 공기 흐름:
      python -m venv airflow_env
      source airflow_env/bin/activate  # macOS/Linux
      pip install "apache-airflow[postgres]==" --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-2.10.4/constraints-3.11.txt"
      airflow db migrate
      로그인 후 복사
      로그인 후 복사
      로그인 후 복사

Data Engineering Foundations: A Hands-On Guide

환경이 준비되었으니 각 구성 요소를 살펴보겠습니다.


1. 데이터 스토리지: 데이터베이스 및 파일 시스템

데이터 스토리지는 모든 데이터 엔지니어링 파이프라인의 기초입니다. 두 가지 기본 카테고리를 고려해 보겠습니다.

  • 데이터베이스: 검색, 복제, 인덱싱과 같은 기능을 통해 효율적으로 구성된 데이터 스토리지입니다. 예는 다음과 같습니다.
    • SQL 데이터베이스: 구조화된 데이터용(예: PostgreSQL, MySQL)
    • NoSQL 데이터베이스: 스키마 없는 데이터(예: MongoDB, Redis)용.
  • 파일 시스템: 구조화되지 않은 데이터에 적합하며 데이터베이스보다 적은 기능을 제공합니다.

PostgreSQL 설정

  1. PostgreSQL 서비스 시작:
brew update
brew install postgresql
로그인 후 복사
로그인 후 복사
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide

  1. 데이터베이스 생성, 연결 및 테이블 생성:
brew install apache-spark
로그인 후 복사
로그인 후 복사
로그인 후 복사
  1. 샘플 데이터 삽입:
python -m venv airflow_env
source airflow_env/bin/activate  # macOS/Linux
pip install "apache-airflow[postgres]==" --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-2.10.4/constraints-3.11.txt"
airflow db migrate
로그인 후 복사
로그인 후 복사
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide

이제 데이터가 PostgreSQL에 안전하게 저장되었습니다.


2. 데이터 처리: PySpark 및 분산 컴퓨팅

데이터 처리 프레임워크는 원시 데이터를 실행 가능한 통찰력으로 변환합니다. 분산 컴퓨팅 기능을 갖춘 Apache Spark가 인기 있는 선택입니다.

  • 처리 모드:
    • 일괄 처리: 고정된 크기의 일괄 처리로 데이터를 처리합니다.
    • 스트림 처리: 실시간으로 데이터를 처리합니다.
  • 공용 도구: Apache Spark, Flink, Kafka, Hive

PySpark를 사용한 데이터 처리

  1. Java 및 PySpark 설치:
brew services start postgresql
로그인 후 복사
  1. CSV 파일에서 데이터 로드:

다음 데이터를 사용하여 sales.csv 파일을 만듭니다.

CREATE DATABASE sales_data;
\c sales_data
CREATE TABLE sales (
    id SERIAL PRIMARY KEY,
    item_name TEXT,
    amount NUMERIC,
    sale_date DATE
);
로그인 후 복사

다음 Python 스크립트를 사용하여 데이터를 로드하고 처리합니다.

INSERT INTO sales (item_name, amount, sale_date)
VALUES ('Laptop', 1200, '2024-01-10'),
       ('Phone', 800, '2024-01-12');
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide Data Engineering Foundations: A Hands-On Guide

  1. 고가치 매출 필터링:
brew install openjdk@11 && brew install apache-spark
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide Spark UI - High-Value Sales

  1. Postgres DB 드라이버 설정: 필요한 경우 PostgreSQL JDBC 드라이버를 다운로드하고 아래 스크립트에서 경로를 업데이트하세요.

  2. 처리된 데이터를 PostgreSQL에 저장:

brew update
brew install postgresql
로그인 후 복사
로그인 후 복사
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide Data Engineering Foundations: A Hands-On Guide Data Engineering Foundations: A Hands-On Guide

Spark를 이용한 데이터 처리가 완료되었습니다.


3. 워크플로우 자동화: Airflow

자동화는 예약 및 종속성 정의를 사용하여 워크플로 관리를 간소화합니다. Airflow, Oozie 및 Luigi와 같은 도구가 이를 용이하게 합니다.

Airflow를 통한 ETL 자동화

  1. 공기 흐름 초기화:
brew install apache-spark
로그인 후 복사
로그인 후 복사
로그인 후 복사

Data Engineering Foundations: A Hands-On Guide Create Airflow User

  1. 워크플로(DAG) 만들기:
python -m venv airflow_env
source airflow_env/bin/activate  # macOS/Linux
pip install "apache-airflow[postgres]==" --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-2.10.4/constraints-3.11.txt"
airflow db migrate
로그인 후 복사
로그인 후 복사
로그인 후 복사

이 DAG는 매일 실행되고 PySpark 스크립트를 실행하며 확인 단계를 포함합니다. 실패 시 이메일 알림이 전송됩니다.

  1. 워크플로 모니터링: Airflow의 dags/ 디렉터리에 DAG 파일을 배치하고 Airflow 서비스를 다시 시작한 다음 http://localhost:8080에서 Airflow UI를 통해 모니터링합니다.

Data Engineering Foundations: A Hands-On Guide


4. 시스템 모니터링

모니터링을 통해 파이프라인 안정성이 보장됩니다. Airflow의 경고 또는 Grafana 및 Prometheus와 같은 도구와의 통합은 효과적인 모니터링 전략입니다. Airflow UI를 사용하여 작업 상태 및 로그를 확인하세요.

Data Engineering Foundations: A Hands-On Guide


결론

데이터 저장소를 설정하고, PySpark를 사용하여 데이터를 처리하고, Airflow를 사용하여 워크플로를 자동화하고, 시스템을 모니터링하는 방법을 배웠습니다. 데이터 엔지니어링은 중요한 분야이며, 이 가이드는 추가 탐색을 위한 강력한 기반을 제공합니다. 더 자세한 정보를 보려면 제공된 참고 자료를 참조하세요.

위 내용은 데이터 엔지니어링 기초: 실습 가이드의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Python vs. C : 학습 곡선 및 사용 편의성 Python vs. C : 학습 곡선 및 사용 편의성 Apr 19, 2025 am 12:20 AM

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

파이썬과 시간 : 공부 시간을 최대한 활용 파이썬과 시간 : 공부 시간을 최대한 활용 Apr 14, 2025 am 12:02 AM

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python vs. C : 성능과 효율성 탐색 Python vs. C : 성능과 효율성 탐색 Apr 18, 2025 am 12:20 AM

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

Python 학습 : 2 시간의 일일 연구가 충분합니까? Python 학습 : 2 시간의 일일 연구가 충분합니까? Apr 18, 2025 am 12:22 AM

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python vs. C : 주요 차이점 이해 Python vs. C : 주요 차이점 이해 Apr 21, 2025 am 12:18 AM

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Apr 27, 2025 am 12:03 AM

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬 : 자동화, 스크립팅 및 작업 관리 파이썬 : 자동화, 스크립팅 및 작업 관리 Apr 16, 2025 am 12:14 AM

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

웹 개발을위한 파이썬 : 주요 응용 프로그램 웹 개발을위한 파이썬 : 주요 응용 프로그램 Apr 18, 2025 am 12:20 AM

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화

See all articles