Gmail未読メールの読み上げ
cp mail_message.py unread_mail_message.py
で
ファイルをコピーしてから改造
未読の最新の1件のみ取得するようにする
ChatGPTでの出力
最新の未読メール1件のみを取得するようにコードを修正します。
既にmessages.list API呼び出しでmaxResults=1を指定しているため、最新の1件だけを取得しています。
しかし、一番新しいメールが未読でない可能性があるため、
念のためにメッセージのリストをループする部分を削除し、最初のメッセージのみを処理するようする
from __future__ import print_function import os.path import re from googleapiclient.discovery import build from google_auth_oauthlib.flow import InstalledAppFlow from google.auth.transport.requests import Request from google.oauth2.credentials import Credentials import base64 import email import dateutil.parser # スコープの設定 SCOPES = ['https://www.googleapis.com/auth/gmail.readonly'] # トークンとクレデンシャルのパス tokenPath = "token.json" credentialsPath = "credentials.json" # メール本文のデコード関数 def decode(encoded): decoded = base64.urlsafe_b64decode(encoded).decode() return decoded # URLを削除する関数 def remove_urls(text): # URLにマッチする正規表現パターン url_pattern = r'https?://\S+|www\.\S+' return re.sub(url_pattern, '', text) # 最新の未読メール本文を取得する関数 def gmail_get_latest_unread_message_body(service, labelIdsValue): messages = service.users().messages() msg_list = messages.list(userId='me', labelIds=labelIdsValue, q="is:unread", maxResults=1).execute() if 'messages' not in msg_list: return "No unread messages found." # 最新のメッセージ(最新の未読メール)を選択 msg = msg_list['messages'][0] date = gmail_get_messages_body_date(messages, msg) topid = msg['id'] msg = messages.get(userId='me', id=topid).execute() # メールの本文を取得 body = "" if msg["payload"]["body"]["size"] != 0: body = decode(msg["payload"]["body"]["data"]) elif 'parts' in msg["payload"]: # メール本文が parts 属性にある場合 for part in msg["payload"]["parts"]: if part["body"]["size"] != 0: body = decode(part["body"]["data"]) break if not body: return date + "<br> No body content" # URLを削除 body_no_urls = remove_urls(body) return date + "<br>" + body_no_urls # メールの受信日時を取得する関数(変更なし) def gmail_get_messages_body_date(messages, msg): msg_id = msg['id'] m = messages.get(userId='me', id=msg_id, format='raw').execute() raw = base64.urlsafe_b64decode(m['raw']) eml = email.message_from_bytes(raw) date = dateutil.parser.parse(eml.get('Date')).strftime("%Y-%m-%d_%H-%M-%S") return date # Gmail API 初期化関数(変更なし) def gmail_init(): creds = None if os.path.exists(tokenPath): creds = Credentials.from_authorized_user_file(tokenPath, SCOPES) if not creds or not creds.valid: if creds and creds.expired and creds.refresh_token: creds.refresh(Request()) else: flow = InstalledAppFlow.from_client_secrets_file( credentialsPath, SCOPES) creds = flow.run_local_server(port=0) with open(tokenPath, 'w') as token: token.write(creds.to_json()) service = build('gmail', 'v1', credentials=creds) return service # メイン処理 service = gmail_init() # ラベル ID を指定して最新の未読メール本文を取得 latest_unread_message_body = gmail_get_latest_unread_message_body(service, "Label_4") print(latest_unread_message_body)
これで最新の1件のみ取得できるようになった
さらに差し出し元などもなく本文のみ取得している
URLの削除もできているが
メルマガによっては
——
などで区切っているところがある
これは読み上げるとどうなるのか?
もしダメなら、削除項目を増やすこと
とりあえず本文を読み上げる
まず支援学校のメールのIDになるように
latest_unread_message_body = gmail_get_latest_unread_message_body(service, "Label_4")
Label_4の部分を変える
次に
本文が
特別支援学校よりメッセージをお預かりしています。 下記URLをクリックして内容を確認してください。 ※学校からのお知らせの保存期間は1年間です。 重要なお知らせは、スクリーンショットなどでお手元に保存してください。 ※お手元で保存された画像等データのお取り扱いにつきましては、個人情報保護に十分ご配慮ください。
となって取得できているので
記号がどうなるか試すため
Docker を起動して実験
docker run -d -p '192.168.1.69:50021:50021' voicevox/voicevox_engine:cpu-ubuntu20.04-latest
あとは
取得したメールの本文が
mail.txt
にあるので中のテキストをもとにして音声を作成する
curl -s -X POST "192.168.1.69:50021/audio_query?speaker=1" --get --data-urlencode text@mail.txt > query.json curl -s -H "Content-Type: application/json" -X POST -d @query.json "192.168.1.69:50021/synthesis?speaker=1" > mail_audio.wav
普通に問題なく記号や句読点などは読み上げることなく成功した
支援学校は問題なさそうなので
メルマガで実験する
サーチマン佐藤さんのメルマガを使い実験
mail_searchman.txt
として保存し
curl -s -X POST "192.168.1.69:50021/audio_query?speaker=1" --get --data-urlencode text@mail_searchman.txt > query.json curl -s -H "Content-Type: application/json" -X POST -d @query.json "192.168.1.69:50021/synthesis?speaker=1" > mail_searchman_audio.wav
で作成し音声を作成
しかし途中でdocker が過負荷で落ちる
このためおそらくこの方法ではメルマガなどの長文を再生することは出来なさそう