스파크가 왜 느린가요??
스파크가 왜 느린가요??
'스파크는 왜 느린가요??'라는 눈길을 끄는 제목으로 시작하여, 스파크를 '느리다'라고 부르는 것은 다양한 의미를 가질 수 있다는 점에 유의하는 것이 중요합니다. 집계 속도가 느린가요? 데이터 로딩? 다양한 경우가 존재합니다. 또한 "Spark"는 광범위한 용어이며 성능은 프로그래밍 언어 및 사용 컨텍스트와 같은 요소에 따라 달라집니다. 그럼 본격적으로 시작하기 전에 제목을 좀 더 정확하게 다듬어 보겠습니다.
저는 Databricks에서 Python과 함께 Spark를 주로 사용하므로 범위를 더 좁혀보겠습니다.
세련된 제목은 다음과 같습니다.
"스파크의 첫인상: '빠르다고 들었는데 왜 느리게 느껴지는 걸까?' 초보자의 시선"
글쓰기 동기(캐주얼 생각)
Pandas, NumPy 및 기계 학습 라이브러리를 광범위하게 사용하는 사람으로서 저는 병렬 및 분산 처리를 통해 빅데이터를 처리하는 Spark의 능력에 감탄했습니다. 마침내 Spark를 업무에 사용하게 되었을 때, 그것이 Pandas보다 느려 보이는 시나리오에 당황했습니다. 무엇이 잘못되었는지 확신할 수 없었지만 몇 가지 통찰력을 발견하여 공유하고 싶습니다.
언제 스파크가 느려지나요?
본론으로 들어가기 전에
Spark의 기본 아키텍처를 간략하게 살펴보겠습니다.
(클러스터 모드 개요)
Spark 클러스터는 실제 처리를 수행하는 워커 노드와 실행을 조정하고 계획하는 드라이버 노드로 구성됩니다. 이 아키텍처는 아래에서 설명하는 모든 것에 영향을 미치므로 염두에 두십시오.
이제 주요 사항을 살펴보겠습니다.
1. 데이터 세트가 충분히 크지 않습니다.
Spark는 대규모 데이터 처리에 최적화되어 있지만 소규모 데이터세트도 처리할 수 있습니다. 하지만 이 벤치마크를 살펴보세요.
(단일 노드 시스템에서 Apache Spark 벤치마킹)
결과에 따르면 15GB 미만의 데이터 세트의 경우 Pandas가 집계 작업에서 Spark보다 성능이 뛰어난 것으로 나타났습니다. 왜? 간단히 말해서 Spark 최적화로 인한 오버헤드가 소규모 데이터세트의 이점보다 더 큽니다.
링크는 Spark가 느리지 않지만 로컬 클러스터 모드에 있는 경우를 보여줍니다. 독립 실행형 설정의 경우 노드 간 네트워크 통신 오버헤드로 인해 더 작은 데이터 세트가 단점이 될 수 있습니다.
- pandas: 네트워크나 스토리지 I/O 없이 단일 시스템에서 메모리 내 모든 것을 처리합니다.
- Spark: RDD(Resilient Distributed Datasets)를 사용하고 작업자 간 네트워크 통신(분산된 경우)을 포함하며 병렬 처리를 위해 데이터를 구성하는 데 오버헤드가 발생합니다.
2. 지연 평가 이해
Spark는 지연 평가를 사용합니다. 즉, 변환이 즉시 실행되지 않고 작업(예: 수집, 계산, 표시)이 계산을 트리거할 때까지 연기됩니다.
예(판다):
df = spark.read.table("tpch.lineitem").limit(1000).toPandas() df["l_tax_percentage"] = df["l_tax"] * 100 for l_orderkey, group_df in df.groupby("l_orderkey"): print(l_orderkey, group_df["l_tax_percentage"].mean())
실행 시간: 3.04초
Spark와 동일:
from pyspark.sql import functions as F sdf = spark.read.table("tpch.lineitem").limit(1000) sdf = sdf.withColumn("l_tax_percentage", F.col("l_tax") * 100) for row in sdf.select("l_orderkey").distinct().collect(): grouped_sdf = sdf.filter(F.col("l_orderkey") == row.l_orderkey).groupBy("l_orderkey").agg( F.mean("l_tax_percentage").alias("avg_l_tax_percentage") ) print(grouped_sdf.show())
실행 시간: 3분 후에도 계속 실행됩니다.
왜?
- 지연 평가: 모든 변환은 대기열에 추가되며 쇼와 같은 작업 중에만 실행됩니다.
- 운전자 간 통신: 수집 및 표시와 같은 작업에는 작업자에서 운전자로의 데이터 전송이 포함되어 지연이 발생합니다.
Spark 코드는 Pandas에서 이 작업을 효과적으로 수행합니다.
for l_orderkey, group_df in df.groupby("l_orderkey"): df["l_tax_percentage"] = df["l_tax"] * 100 print(l_orderkey, group_df["l_tax_percentage"].mean())
Spark의 캐시를 사용하거나 반복 계산을 최소화하도록 로직을 재구성하여 이러한 패턴을 피하세요.
3. 셔플을 조심하세요
https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-Operations
셔플은 일반적으로 groupByKey, 조인 또는 재분할과 같은 작업 중에 데이터가 작업자 간에 재배포될 때 발생합니다. 다음과 같은 이유로 셔플이 느려질 수 있습니다.
- 노드 간 네트워크 통신.
- 파티션 전체의 데이터 전역 정렬 및 집계.
예를 들어, 작업자가 더 많다고 해서 셔플 중에 항상 성능이 향상되는 것은 아닙니다.
- 32GB x 8 작업자는 64GB x 4 작업자보다 느릴 수 있습니다. 작업자 수가 적으면 노드 간 통신이 줄어들기 때문입니다.
결론
이 정보가 도움이 되었나요? Spark는 효과적으로 사용하면 훌륭한 도구입니다. 대규모 데이터 처리 속도를 높이는 것 외에도 Spark는 특히 클라우드에서 확장 가능한 리소스 관리로 빛을 발합니다.
Spark를 사용해 데이터 운영 및 관리를 최적화해 보세요!
위 내용은 스파크가 왜 느린가요??의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Python은 데이터 과학, 웹 개발 및 자동화 작업에 적합한 반면 C는 시스템 프로그래밍, 게임 개발 및 임베디드 시스템에 적합합니다. Python은 단순성과 강력한 생태계로 유명하며 C는 고성능 및 기본 제어 기능으로 유명합니다.

Python은 게임 및 GUI 개발에서 탁월합니다. 1) 게임 개발은 Pygame을 사용하여 드로잉, 오디오 및 기타 기능을 제공하며 2D 게임을 만드는 데 적합합니다. 2) GUI 개발은 Tkinter 또는 PYQT를 선택할 수 있습니다. Tkinter는 간단하고 사용하기 쉽고 PYQT는 풍부한 기능을 가지고 있으며 전문 개발에 적합합니다.

2 시간 이내에 파이썬의 기본 사항을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우십시오. 이를 통해 간단한 파이썬 프로그램 작성을 시작하는 데 도움이됩니다.

2 시간 이내에 Python의 기본 프로그래밍 개념과 기술을 배울 수 있습니다. 1. 변수 및 데이터 유형을 배우기, 2. 마스터 제어 흐름 (조건부 명세서 및 루프), 3. 기능의 정의 및 사용을 이해하십시오. 4. 간단한 예제 및 코드 스 니펫을 통해 Python 프로그래밍을 신속하게 시작하십시오.

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

제한된 시간에 Python 학습 효율을 극대화하려면 Python의 DateTime, Time 및 Schedule 모듈을 사용할 수 있습니다. 1. DateTime 모듈은 학습 시간을 기록하고 계획하는 데 사용됩니다. 2. 시간 모듈은 학습과 휴식 시간을 설정하는 데 도움이됩니다. 3. 일정 모듈은 주간 학습 작업을 자동으로 배열합니다.

Python은 웹 개발, 데이터 과학, 기계 학습, 자동화 및 스크립팅 분야에서 널리 사용됩니다. 1) 웹 개발에서 Django 및 Flask 프레임 워크는 개발 프로세스를 단순화합니다. 2) 데이터 과학 및 기계 학습 분야에서 Numpy, Pandas, Scikit-Learn 및 Tensorflow 라이브러리는 강력한 지원을 제공합니다. 3) 자동화 및 스크립팅 측면에서 Python은 자동화 된 테스트 및 시스템 관리와 같은 작업에 적합합니다.

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.
