Python データ分析

Pythonで楽天トラベルをスクレイピングして東京23区のホテルデータを収集してみた

2022年10月15日

Pythonで楽天トラベルをスクレイピングして東京23区のホテルデータを収集してみた

こんにちは。TATです。

今日のテーマは「Pythonで楽天トラベルをスクレイピングして東京23区のホテルデータを収集してみた」です。

 

今回からしばらくは、楽天トラベル関連の記事で発信していきます。

スクレイピングでデータを収集したり、収集データの前処理をしたり、分析したり、いろいろとやってみようと思っています。

 

本記事が楽天トラベル関連の記事の第一弾で、Pythonを使って東京23区内にあるホテル情報を収集してみます。

必要なPythonコードを解説しつつ、スクレイピングする際のポイントとかをお伝えできればと思います。

 

収集データの中身の確認

まずは収集データの中身の確認です。

 

対象は東京23区

本記事では、東京23区のあるホテルを対象にします。

検索結果に出てきたホテル全ての情報を収集します。

こちらから東京23区内のホテル一覧が確認できます。

 

プログラムを走らせた2022年9月22日夜の時点では、全部で2,242個のホテルがありました

 

これらホテルの情報を収集します。

 

各ホテルの取得データ

次に各ホテルの取得データです。

今回は、各ホテルに対して次のデータを収集します。

 

ポイント

  • ホテル名
  • ホテルページのURL
  • アクセス情報(住所とか最寄駅とか)
  • レビュー情報(総合評価、評価内訳、項目別の評価)
  • プラン名
  • 部屋情報(広さとか食事とか)
  • 基本価格(予約可能期間内の料金範囲のみ)

 

価格情報については、さらに細かく収集するなら日付ごとの料金を収集する必要がありますが、それは別の記事で紹介します。

本記事では上記の基本情報のみを収集していきます。

 

サイト構造の確認

次にサイト構造を確認します。

スクレイピングを行うなら必ず必要な作業です。

 

サイトの構造を理解して、どのようにプログラムを作っていくかを決めていきます。

 

ホテル一覧ページの確認

まずはホテル一覧ページを確認します。

こちらです

 

おすすめ順で収集します

表示順序はおすすめ順、料金の安い順、料金の高い順、評価の高い順から選択することができます。

今回はデフォルトで表示されるおすすめ順でいきます。

 

次のページがなくなるまで無限ループします

さらにサイトの構造を見ていきます。

 

ホテルの一覧ページを見ると、各ページには30件のホテルが掲載されています。

「次の30件」をクリックすると、次のページに進みます。

 

2ページ目のURLはこちらです。

https://search.travel.rakuten.co.jp/ds/yado/tokyo/tokyo-p2

 

URLを見ると、最後のp2の部分がページを示していることが想像できます。

1からスタートして、次ページがなくなるまで1ずつ足していけばいいことがわかります。

 

「次の30件」で検索すると最後のページでミスる

そして最後に注意点です。

次のページを確認する際に、「次の30件」で値を検索すると、最後のページでミスります。

30で割り切れる数なら問題ないですが、今回の2,242は30では割り切れないので、最後はこんな感じで「次の22件」となります。

 

classで指定するとうまくいきます

最後のページまできちんとスクレイピングするためには、テキストで検索するのではなくて、classで指定してやるとうまくいきます。

次のページのリンクを見ると、1つ上の階層にliがあります。

そしてこのliのclassを見てみるとclass="pagingBack"とあります。

なんか「NextとBackで使いどころが逆なんじゃね?」と思いましたが気にせずいきます(密かに楽天側のミスだと思ってます)w

 

このclass="pagingBack"のliを指定してあげると、テキストの中身に関わらず、次のページのリンクがあるのかどうかをチェックできます。

これが見つからなければ最終ページで、プログラムを終了すればOKです。

 

ホテルページの確認

次にホテルページの確認です。

 

例として「ホテル雅叙園東京」のページを見てみます。

 

個人的に思い入れのあるホテルなので、ここで例としてピックアップしましたw

過去記事: 【おすすめです!】ホテル雅叙園東京の「渡風亭」で『お食い初め』をしてきました!

 

各ホテルにIDらしきものが付与されている

まず、URLについて確認します。

https://travel.rakuten.co.jp/HOTEL/1661/1661.html

 

この1661というのはIDっぽいですね。

各ホテルに固有の番号がついています。

このIDさえわかれば、URLを特定することができます。

 

「地図・アクセス」ページ

ホテルのページにはいくつかのタグがありますが、「地図・アクセス」へいくと住所などの情報を収集できます。

 

URLはこちらになります。

https://travel.rakuten.co.jp/HOTEL/1661/rtmap.html

 

こちらもIDがわかればURLを特定できます。

 

「お客さまの声」ページ

次に「お客さまの声」のタブを確認します。

ここで、レビューデータを収集することができます。

 

総合評価やさらに細かいレビュー点数まで確認することができます。

ここから収集すればOKですね。

 

URLも次のとおりで、IDさえわかればURLが特定できる構造になっています。

https://travel.rakuten.co.jp/HOTEL/1661/review.html

 

Pythonでスクレピングする

サイトの構造が確認できたので、ここから実際にPythonでスクレイピングをしてデータを収集していきます。

 

ホテル一覧の取得

まずはホテル一覧を取得します。

東京23区内にあるホテルすべて2,242個を取得します。

 

まずは全Pythonコードをどうぞ

とりあえずPythonコードを公開して、後から解説していきます。

それではコードをどうぞ。

 

 

上記のコードで、ホテル一覧を取得できました。

各ホテルの名前、ID、エリア、URLを取得しています。

このIDがあれば、各ホテルのページにアクセスすることができるので、さらに細かい情報を収集することができます。

 

コードの中身を解説

ここからコードの中身について簡単に説明します。

 

まず、normalize_textとget_htmlという2つの関数を定義しています。

 

normalize_textで文字の揺らぎを回避

normalize_textは文字列を正規化するためのものです。

スクレイピングでデータを収集していると、文字の揺らぎが結構あります。

数字が一部全角になっていたり、変な文字コードが入っていたりします。

 

normalize_textでこれらを回避することができます。

 

get_htmlでHTMLを取得

get_htmlではHTMLを取得します。

requestsとBeautifulSoupを使いました。

 

次のページがなくなるまで無限ループ

全体的な流れとしては、hotel_list_urlのHTMLを取得して、各ホテルの情報を収集します。

soup.find("li", {"class": "pagingBack"})で次のページがあるかどうかを確認し、YesならPageに1を追加して継続、Noならプログラムを終了します。

 

# extract hotelsの部分では、各ホテルの情報を取得します。

各ホテルにはh1タグがついていたので、これらを全て取得して、1つずつ中身を取り出しています。

 

各ホテルの情報を取得

次に各ホテルの情報を収集していきます。

 

各ホテルのURLについては、IDさえあれば特定することができます。

先ほど収集した一覧データからIDを順番に取り出して各ホテルの情報を収集していけばOKです。

 

特定ホテルのアクセス情報を取得する

まずはアクセス情報を取得するためのプログラムについてみていきます。

前述の通り、アクセス情報にはホテルのIDさえわかればアクセスできます。

https://travel.rakuten.co.jp/HOTEL/1661/rtmap.html

 

今回は、指定したIDのアクセス情報を取得する関数(get_access)を作りました。

 

こちらのコードを使うと、こんな感じでアクセス情報を取得することができます。

 

特定ホテルのレビューデータを取得する

同様に、特定ホテルのレビューデータを取得する関数(get_review)も作りました。

 

 

こちらも先ほど同様にIDを指定してあげると、レビューデータを取得してくれます。

バッチリですね。

 

特定ホテルのプランと部屋の情報を取得する

次に特定ホテルのプランと部屋の情報を取得するためのプログラムを作ります。

これも関数(get_plan_and_room)を作りました。

 

 

 

こんな感じでIDを指定してあげるとプランと部屋のデータが取得できます。

こちらは、返り値がDataFrame形式となっています。

 

プラン名や面積、設備など、取れる情報はなるべく根こそぎ取得しています。

 

そしてこちらのプログラムでは、下記のコードで取得するプランを最初の5つだけに制限しています。

for plan in soup.findAll("li", {"class": "planThumb"})[:5]:

 

楽天トラベルでプランを探すと、場合によっては100個以上のプランがあったりします。

全部取得してると無駄にデータが多くなるので、各ホテルで5つまでに絞りました。

 

プラン数が多くなりすぎると、ページがわかりにくくなったり、データ量が増えてページの読み込みが遅くなったりと、結構弊害が出てくるので少し工夫した方がいいんじゃないかな〜と個人的に思います。。。

Booking.comとかはこの辺りの情報がきれいに整っている印象があります。 (その代わりに特別プランみたいなものはない。。。)

 

全ホテルのデータを取得する

ここまでで、ホテルリストの収集と、特定ホテルのデータの収集するコードができたので、ここからが最後の仕上げです。

全ホテルのデータを収集します。

 

これはシンプルに、ホテル一覧のデータからIDを1つずつ取得して、アクセスとかレビューデータをそれぞれ取得していけばOKです。

 

とりあえずコードをどうぞ

 

これで各ホテルのデータを取得することができます。

サーバーへの負荷を考慮して、ところどころに1秒待機するロジックを加えました。

 

base_dataにアクセス情報とレビュー情報をまとめて、plan_room_dataに部屋とプランのデータを格納していきます。

最後に収集したデータをDataFrameに変換すれば完成です。

 

plan_room_dataには、DataFrameがリスト形式で格納されているので、1つにまとめるときにはpd.cocatを使います。

 

データの確認

収集したデータを確認します。

 

アクセスデータとレビューデータ

まずはアクセスデータとレビューデータがまとまっているdf_baseです。

 

きちんとデータが収集できていますね。

2,242個、全てありました!

 

プランと部屋のデータ

次にプランと部屋のデータがまとまっているdf_plan_roomです。

 

こちらもきちんとデータが収集できていることが確認できます。

 

ただし、こちらは一部のホテルのデータは含まれていませんでした。

理由は、こんな感じで情報がなかったためです。

 

最終的に収集できたホテル数は、1,702個でした。

思っていたよりも予約を停止しているホテルが多いですね。

 

分析するにはデータが汚すぎるw

以上でデータの収集は完了しましたが、このままの状態では分析はできません。

今のままでは汚すぎて分析することは不可能です。

数値データも文字列になってますし、住所とかもベタがきなので区ごとに分けて比較するとかの分析も一切できません。

 

分析をするにはたくさんのデータ整形が必要になってきます。

そしてこれが一番大変だったりします。。。

これについては次の記事でまとめていこうと思います。

 

まとめ

本記事では、「Pythonで楽天トラベルから東京23区内のホテル情報を収集する」というテーマで、Pythonを使って、楽天トラベルとスクレイピングする方法について解説しました。

 

久々のコード解説記事で気合が入ってしまったのか、かなり長文になってしまいました。

 

本記事でご紹介したとおり、Pythonであれば比較的短いコードでスクレイピングも用意に実装することができます。

データの収集にPythonはとてもおすすめです。

 

ただ、今回収集したデータはまだまだ汚い状態でこのまま分析に使うことはできません。

分析を行うためには、まずはデータをきれいに整形してあげる必要があります。

データ整形のやり方については次の記事で解説していこうと思います。

 

とりあえず、本記事ではデータの収集に焦点を絞って、これで終わりにしたいと思います。

ここまでの長文を読んでくださり、ありがとうございました。

 

Pythonおすすめ学習法

Udemy

Udemyの特徴

  • 高品質の動画教材がリーズナブルに購入できる
  • セール中なら定価の90%オフなどの価格破壊が起こる
  • 講師に直接掲示板から質問ができ、疑問を解消しながらスムーズに学習できる
  • 動画はダウンロード可能で、隙間時間に効率的に学習できる
  •  30日間の返金保証、一度購入すれば視聴期限なく受講可能

\30日返金保証/

Udemy 公式サイトへ

セール中なら90%オフとかで購入可能です!

キカガク

キカガクの特徴

  • Pythonだけでなく、数学の基礎から、環境構築、AIアプリケーション開発まで一気通貫で学べる
  • 自走できるAI・DX人材を育成
  • オンデマンドの講義 + プロの講師に質問し放題、定期的なメンタリング付き
  • 今後増える動画コンテンツを含め、全ての動画コンテンツが一生見放題
  • 専門実践教育訓練給付金制度を利用すると最大で受講料の70%が還元される

\Pythonだけでなく、機械学習やAIの基礎から学べる/

キカガクを詳しく見る

企業の研修材料にも採用される実績と信頼のあるスクールです!

データミックス

データミックスの特徴

  • データサイエンティストが開発・監修した体系的かつ実践的に学べるカリキュラム
  • 「スキル」のみでなく、データサイエンスの本質である「理論」や「思考」が学べる
  • エンジニアに限らず、多様なキャリアを形成・構築できる
  • オンラインチャットツールによる質問対応やコミュニティなどの充実したフォロー体制
  • 専門実践教育訓練給付金の対象講座で授業料の最大70%還付

\データサイエンスとビジネスが学べる/

データミックス(datamix)を詳しく見る!

エンジニア転職だけでなく起業やフリーランスなど多様なキャリア形成・構築に繋がる

-Python, データ分析
-, ,

© 2022 気ままなブログ