python + Beautiful soupを使用して、Yahoo記事をスクレイピングして、csvに保存するプログラムを考えた。
↓udemyなら、トレンド技術から基礎技術まで幅広く学べます。返金保証もあるので、まずは気になるスキルをチェック
プログラムの概要
以下の手順でプログラムを作成していきます。
①ヤフーニュースのトップページに遷移
②ヤフー見出しのURLから記事URLを取得し、記事内容を取得
③取得した要約記事の本文を読む
④②から③を繰り返し、見出しの記事本文の情報を作成する
⑤取得した記事本文の情報をcsvに保存する
開発環境
OS Windows11 chromedriver-binary 114.0.5735.16.0 selenium 4.1.0 GoogleChrome 116.0.5845.141 beautifulsoup4 4.12.2
Yahoo記事をWebスクレイピングするプログラム
①ヤフーニュースのトップページに遷移
# ヤフーニュースのトップページ情報を取得する URL = "https://www.yahoo.co.jp/" res = requests.get(URL) ENCODING = 'utf_8_sig' news_list = [] # BeautifulSoupにヤフーニュースのページ内容を読み込ませる soup = BeautifulSoup(res.text, "html.parser") # URLに news.yahoo.co.jp/pickup が含まれるものを抽出する。 data_list = soup.find_all(href=re.compile("news.yahoo.co.jp/pickup"))
②ヤフー見出しのURLから記事URLを取得し、記事内容を取得
# ヤフーニュース見出のURL情報をループで取得し、リストで格納する。 headline_link_list = [data.attrs["href"] for data in data_list]
③取得した要約記事の本文を読む
④②から③を繰り返し、見出しの記事本文の情報を作成する
def create_new_list(headline_link_list): news_list = [] # ヤフーニュース見出のURLリストから記事URLを取得し、記事内容を取得する for headline_link in headline_link_list: # ヤフーニュース見出のURLから、 要約ページの内容を取得する summary = requests.get(headline_link) # 取得した要約ページをBeautifulSoupで解析できるようにする summary_soup = BeautifulSoup(summary.text, "html.parser") # aタグの中に「続きを読む」が含まれているテキストを抽出する # ヤフーのページ構成は[Top] -> [要約] -> [本文] となっており、 # [要約]から[本文]に遷移するには「続きを読む」をクリックする必要がある。 summary_soup_a = summary_soup.select("a:contains('記事全文を読む')")[0] # aタグの中の"href="から先のテキストを抽出する。 # するとヤフーの記事本文のURLを取得できる news_body_link = summary_soup_a.attrs["href"] # 記事本文のURLから記事本文のページ内容を取得する news_body = requests.get(news_body_link) # 取得した記事本文のページをBeautifulSoupで解析できるようにする news_soup = BeautifulSoup(news_body.text, "html.parser") dict = {'title':"",'link':"",'text':""} # 記事本文のタイトルを表示する dict['title'] = news_soup.title.text # 記事本文のURLを表示する dict['link'] = news_body_link # class属性の中に「Direct」が含まれる行を抽出する detail_text = news_soup.find_all(class_=re.compile("Direct")) # 記事本文を出力する # hasattr:指定のオブジェクトが特定の属性を持っているかを確認する for i in range(len(detail_text)): if hasattr(detail_text[i], "text"): dict['text'] +=detail_text[i].text else: dict['text'] += '' #ニュース記事を追加する news_list.append(copy.deepcopy(dict)) return news_list
⑤取得した記事本文の情報をcsvに保存する
def csv_out(new_list): #CSVにレビュー情報の書き出し #with open('data/sample.csv','w') as f: #Windowsでエンコードエラーになる場合があるため下の行に変更 with open('data/sample.csv','w',encoding=ENCODING, newline='\n') as f: writer = csv.writer(f, lineterminator='\n') #ヘッダを作成する header=[] header.append('No') header.append('タイトル') header.append('リンク') header.append('記事') writer.writerow(header) #ニュース記事をcsv出力する for i in range(len(news_list)): csvlist=[] dict = news_list[i] #データ作成 csvlist.append('{}'.format(i+1)) csvlist.append(dict['title']) csvlist.append(dict['link']) csvlist.append(dict['text']) # 出力 writer.writerow(csvlist) # ファイルクローズ f.close()
Yahoo記事をWebスクレイピングするプログラム ①~⑤までの処理をまとめたもの
scrapping_yahoo_news.py
import requests
from bs4 import BeautifulSoup
import re
import csv
import copy
def create_new_list(headline_link_list):
news_list = []
# ヤフーニュース見出のURLリストから記事URLを取得し、記事内容を取得する
for headline_link in headline_link_list:
# ヤフーニュース見出のURLから、 要約ページの内容を取得する
summary = requests.get(headline_link)
# 取得した要約ページをBeautifulSoupで解析できるようにする
summary_soup = BeautifulSoup(summary.text, "html.parser")
# aタグの中に「続きを読む」が含まれているテキストを抽出する
# ヤフーのページ構成は[Top] -> [要約] -> [本文] となっており、
# [要約]から[本文]に遷移するには「続きを読む」をクリックする必要がある。
summary_soup_a = summary_soup.select("a:contains('記事全文を読む')")[0]
# aタグの中の"href="から先のテキストを抽出する。
# するとヤフーの記事本文のURLを取得できる
news_body_link = summary_soup_a.attrs["href"]
# 記事本文のURLから記事本文のページ内容を取得する
news_body = requests.get(news_body_link)
# 取得した記事本文のページをBeautifulSoupで解析できるようにする
news_soup = BeautifulSoup(news_body.text, "html.parser")
dict = {'title':"",'link':"",'text':""}
# 記事本文のタイトルを表示する
dict['title'] = news_soup.title.text
# 記事本文のURLを表示する
dict['link'] = news_body_link
# class属性の中に「Direct」が含まれる行を抽出する
detail_text = news_soup.find_all(class_=re.compile("Direct"))
# 記事本文を出力する
# hasattr:指定のオブジェクトが特定の属性を持っているかを確認する
for i in range(len(detail_text)):
if hasattr(detail_text[i], "text"):
dict['text'] +=detail_text[i].text
else:
dict['text'] += ''
#ニュース記事を追加する
news_list.append(copy.deepcopy(dict))
return news_list
def csv_out(new_list):
#CSVにレビュー情報の書き出し
with open('data/sample.csv','w',encoding=ENCODING, newline='\n') as f:
writer = csv.writer(f, lineterminator='\n')
#ヘッダを作成する
header=[]
header.append('No')
header.append('タイトル')
header.append('リンク')
header.append('記事')
writer.writerow(header)
#ニュース記事をcsv出力する
for i in range(len(news_list)):
csvlist=[]
dict = news_list[i]
#データ作成
csvlist.append('{}'.format(i+1))
csvlist.append(dict['title'])
csvlist.append(dict['link'])
csvlist.append(dict['text'])
# 出力
writer.writerow(csvlist)
# ファイルクローズ
f.close()
if __name__ == '__main__':
# ヤフーニュースのトップページ情報を取得する
URL = "https://www.yahoo.co.jp/"
res = requests.get(URL)
ENCODING = 'utf_8_sig'
news_list = []
# BeautifulSoupにヤフーニュースのページ内容を読み込ませる
soup = BeautifulSoup(res.text, "html.parser")
# URLに news.yahoo.co.jp/pickup が含まれるものを抽出する。
data_list = soup.find_all(href=re.compile("news.yahoo.co.jp/pickup"))
# ヤフーニュース見出のURL情報をループで取得し、リストで格納する。
headline_link_list = [data.attrs["href"] for data in data_list]
#ニュース情報作成
news_list = create_new_list(headline_link_list)
#ニュース情報をcsv出力
csv_out(news_list)
data/sample.csvに取得したYahoo記事のタイトル、URL、ニュース本文を書き込みます。
※本プログラム起動前に、dataフォルダを作成しておいてください。
dataフォルダが存在しないと途中でプログラムがエラーで終了してしまいます。
まとめ
本記事では、実際に2023年9月時点のYahooニュースのピックアップ記事の複数の情報をWebスクレイピングにより取得することができました。
処理をベースはできているので、本プログラムをもとにYahooニュースのピックアップ以外の記事も取得できるようにすると便利かと思います。
Webスクレイピングに関する情報は以下を参考にしました。興味ある方はぜひ
↓udemyなら、トレンド技術から基礎技術まで幅広く学べます。返金保証もあるので、まずは気になるスキルをチェック
コメント