ホームページ バックエンド開発 Python チュートリアル Webスクレイピングと外国語データの分析

Webスクレイピングと外国語データの分析

Dec 24, 2024 am 11:40 AM

最近、簡単な Web スクレイピングとデータ分析プロジェクトを実行したいと決心しました。私の脳は、時間がかかりそうな大きなアイデアを思いつくのが好きなので、数時間で実行できそうな簡単なものを思いつくことに挑戦することにしました。

私が思いついたのは次のとおりです:

私の学位はもともと外国語 (フランス語とスペイン語) だったので、言語関連のデータを Web スクレイピングするのは楽しいだろうと思いました。 BeautifulSoup ライブラリを使用したかったのですが、このライブラリは静的 HTML を解析できますが、データセット全体を表示するために onclick イベントを必要とする(つまり、ページ分割されている場合はデータの次のページをクリックするなど)動的 Web ページを処理できません。

私は、最も一般的に話されている言語をまとめたこの Wikipedia ページを使用することにしました。

Web scraping and analysing foreign languages data

次のことをしたかったのです:

  • ページの HTML を取得し、.txt ファイルに出力します
  • 美しいスープを使用して HTML ファイルを解析し、テーブル データを抽出します
  • テーブルを .csv ファイルに書き込みます
  • データ分析を使用して、このデータセットについて答えたい 10 の質問を考えてください
  • パンダと Jupyter Notebook を使用してこれらの質問に答えます

関心を分離するためにプロジェクトをこれらのステップに分割することにしましたが、スクリプトを再実行して Wikipedia から HTML を取得するために複数の不必要なリクエストを行うことも避けたかったのです。 HTML ファイルを保存して、別のスクリプトでそれを操作すると、データはすでにあるため、データを再リクエストする必要がなくなります。

プロジェクトリンク

このプロジェクトの github リポジトリへのリンクは次のとおりです: https://github.com/gabrielrowan/Foreign-Languages-Analysis

HTMLの取得

まず、htmlを取得して出力しました。 C# と C を使った後は、Python コードがいかに短くて簡潔であるかにいつも驚かされます。

url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers'

response = requests.get(url)
html = response.text

with open("languages_html.txt", "w", encoding="utf-8") as file:
    file.write(html)

ログイン後にコピー
ログイン後にコピー

HTMLを解析する

美しいスープで HTML を解析し、興味のあるテーブルを選択するには、次のようにしました。

with open("languages_html.txt", "r", encoding="utf-8") as file:
    soup = BeautifulSoup(file, 'html.parser')

# get table
top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')


ログイン後にコピー
ログイン後にコピー

次に、パンダ データフレームの列名を取得するためのテーブル ヘッダー テキストを取得しました。

# get column names
columns = top_languages_table.find_all("th")
column_titles = [column.text.strip() for column in columns]

ログイン後にコピー
ログイン後にコピー

その後、データフレームを作成し、列名を設定し、テーブルの各行を取得して、各行をデータフレームに書き込みました。

# get table rows
table_data = top_languages_table.find_all("tr")

# define dataframe
df = pd.DataFrame(columns=column_titles)

# get table data
for row in table_data[1:]:
    row_data = row.find_all('td')
    row_data_txt = [row.text.strip() for row in row_data]
    print(row_data_txt)
    df.loc[len(df)] = row_data_txt 


ログイン後にコピー
ログイン後にコピー

注 -strip() を使用しないと、テキスト内に不要な n 文字が含まれていました。

最後に、データフレームを .csv に書き込みました。

データの分析

事前に、データから答えたい次の質問を考え出します。

  1. データセット内のすべての言語のネイティブ スピーカーの総数は何人ですか?
  2. 言語家族には何種類ありますか?
  3. 言語族ごとのネイティブ スピーカーの総数は何人ですか?
  4. 最も一般的な言語ファミリーのトップ 3 は何ですか?
  5. 最も一般的な言語ファミリーの上位 3 つを示す円グラフを作成します
  6. 最も一般的に発生する言語ファミリー - ブランチ ペアは何ですか?
  7. この表にはどの言語が中国・チベット語として含まれていますか?
  8. すべてのロマンス語とゲルマン語の母語話者の棒グラフを表示します
  9. 上位 5 つの言語はネイティブ スピーカー全体の何パーセントを占めていますか?
  10. ネイティブ スピーカーが最も多い支店と最も少ない支店はどれですか?

結果

これらの質問すべてに答えるためにコードを詳しく説明するつもりはありませんが、チャートに関係する 2 つの質問について説明します。

すべてのロマンス語とゲルマン語のネイティブ スピーカーの棒グラフを表示します

まず、ブランチ名が「Romance」または「Germanic」である行のみを含むデータフレームを作成しました

url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers'

response = requests.get(url)
html = response.text

with open("languages_html.txt", "w", encoding="utf-8") as file:
    file.write(html)

ログイン後にコピー
ログイン後にコピー

次に、グラフに必要な x 軸、y 軸、バーの色を指定しました。

with open("languages_html.txt", "r", encoding="utf-8") as file:
    soup = BeautifulSoup(file, 'html.parser')

# get table
top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')


ログイン後にコピー
ログイン後にコピー

これにより作成されました:

Web scraping and analysing foreign languages data

最も一般的な上位 3 つの言語ファミリーを示す円グラフを作成する

円グラフを作成するために、最も一般的な上位 3 つの言語ファミリーを取得し、これらをデータフレームに入れました。

このコード グループは、言語族ごとのネイティブ スピーカーの合計を取得し、降順に並べ替えて、上位 3 つのエントリを抽出します。

# get column names
columns = top_languages_table.find_all("th")
column_titles = [column.text.strip() for column in columns]

ログイン後にコピー
ログイン後にコピー

次に、「ネイティブ スピーカー」の Y 軸と凡例を指定して、データを円グラフに配置します。これにより、グラフに表示される言語ファミリーごとに色分けされたラベルが作成されます。

# get table rows
table_data = top_languages_table.find_all("tr")

# define dataframe
df = pd.DataFrame(columns=column_titles)

# get table data
for row in table_data[1:]:
    row_data = row.find_all('td')
    row_data_txt = [row.text.strip() for row in row_data]
    print(row_data_txt)
    df.loc[len(df)] = row_data_txt 


ログイン後にコピー
ログイン後にコピー

Web scraping and analysing foreign languages data

残りの質問のコードと回答はここにあります。ノートにマークダウンを使用して質問とその回答を書きました。

次回:

次回の Web スクレイピングとデータ分析プロジェクトでは、以下を使用して物事をより複雑にしたいと思います。

  • クリック/スクロールすると詳細なデータが表示される 動的 ページを Web スクレイピング
  • はるかに大きなデータセットを分析します。分析前にデータ クリーニング作業が必要になる可能性があります

Web scraping and analysing foreign languages data

最終的な考え

あっという間のプロジェクトでしたが、このプロジェクトは楽しかったです。短くて管理しやすいプロジェクトが、実践担当者を獲得するのにどれほど役立つかを思い出しました。さらに、たとえ小さなデータセットであっても、インターネットからデータを抽出してそこからグラフを作成するのは楽しいものですか?

以上がWebスクレイピングと外国語データの分析の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Python vs. C:比較されたアプリケーションとユースケース Python vs. C:比較されたアプリケーションとユースケース Apr 12, 2025 am 12:01 AM

Pythonは、データサイエンス、Web開発、自動化タスクに適していますが、Cはシステムプログラミング、ゲーム開発、組み込みシステムに適しています。 Pythonは、そのシンプルさと強力なエコシステムで知られていますが、Cは高性能および基礎となる制御機能で知られています。

Python:ゲーム、GUIなど Python:ゲーム、GUIなど Apr 13, 2025 am 12:14 AM

PythonはゲームとGUI開発に優れています。 1)ゲーム開発は、2Dゲームの作成に適した図面、オーディオ、その他の機能を提供し、Pygameを使用します。 2)GUI開発は、TKINTERまたはPYQTを選択できます。 TKINTERはシンプルで使いやすく、PYQTは豊富な機能を備えており、専門能力開発に適しています。

Python vs. C:曲線と使いやすさの学習 Python vs. C:曲線と使いやすさの学習 Apr 19, 2025 am 12:20 AM

Pythonは学習と使用が簡単ですが、Cはより強力ですが複雑です。 1。Python構文は簡潔で初心者に適しています。動的なタイピングと自動メモリ管理により、使いやすくなりますが、ランタイムエラーを引き起こす可能性があります。 2.Cは、高性能アプリケーションに適した低レベルの制御と高度な機能を提供しますが、学習しきい値が高く、手動メモリとタイプの安全管理が必要です。

Pythonと時間:勉強時間を最大限に活用する Pythonと時間:勉強時間を最大限に活用する Apr 14, 2025 am 12:02 AM

限られた時間でPythonの学習効率を最大化するには、PythonのDateTime、時間、およびスケジュールモジュールを使用できます。 1. DateTimeモジュールは、学習時間を記録および計画するために使用されます。 2。時間モジュールは、勉強と休息の時間を設定するのに役立ちます。 3.スケジュールモジュールは、毎週の学習タスクを自動的に配置します。

Python vs. C:パフォーマンスと効率の探索 Python vs. C:パフォーマンスと効率の探索 Apr 18, 2025 am 12:20 AM

Pythonは開発効率でCよりも優れていますが、Cは実行パフォーマンスが高くなっています。 1。Pythonの簡潔な構文とリッチライブラリは、開発効率を向上させます。 2.Cのコンピレーションタイプの特性とハードウェア制御により、実行パフォーマンスが向上します。選択を行うときは、プロジェクトのニーズに基づいて開発速度と実行効率を比較検討する必要があります。

Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Apr 27, 2025 am 12:03 AM

PythonListSarePartOfThestAndardarenot.liestareBuilting-in、versatile、forStoringCollectionsのpythonlistarepart。

Pythonの学習:2時間の毎日の研究で十分ですか? Pythonの学習:2時間の毎日の研究で十分ですか? Apr 18, 2025 am 12:22 AM

Pythonを1日2時間学ぶだけで十分ですか?それはあなたの目標と学習方法に依存します。 1)明確な学習計画を策定し、2)適切な学習リソースと方法を選択します。3)実践的な実践とレビューとレビューと統合を練習および統合し、統合すると、この期間中にPythonの基本的な知識と高度な機能を徐々に習得できます。

Python:自動化、スクリプト、およびタスク管理 Python:自動化、スクリプト、およびタスク管理 Apr 16, 2025 am 12:14 AM

Pythonは、自動化、スクリプト、およびタスク管理に優れています。 1)自動化:OSやShutilなどの標準ライブラリを介してファイルバックアップが実現されます。 2)スクリプトの書き込み:Psutilライブラリを使用してシステムリソースを監視します。 3)タスク管理:スケジュールライブラリを使用してタスクをスケジュールします。 Pythonの使いやすさと豊富なライブラリサポートにより、これらの分野で優先ツールになります。

See all articles