Google Apps ScriptでCloud Run Functionsを操作する【GAS】

2024年8月22日、これまでGoogle Cloud FunctionsとしていたサービスがCloud Runに統合されて、Cloud Run Functionsとしてリリースされました。第2世代という形で利用するようになった為、結構内部が変わっているのではないか?ということで今回、いくつかのテーマで調査してみることにしました。

今回利用するサービス

今回この取り組みをするテーマが

  • Cloud Run Function第2世代でもGASから叩けるのだろうか?
  • Node.js 18で標準装備されたFetch APIは利用可能なのだろうか?
  • UrlfetchAppで設定出来ない接続タイムアウトを実現する

ここから、さらにCloud Run FunctionsでPuppeteerを動かして、クラウド上で全ての稼働を完結できるか?に取り組む必要がでてきた為です。まずは、素のCloud Run Functions第2世代で単純にHTTPリクエストを実行して、値を取り、GAS側に返却出来るか?にチャレンジしています。

※今回は特にCloud Run Functions側に接続制限は加えていません。

Google Apps Scriptでスクレイピングを極める【GAS】

Google Apps ScriptでCloud Functionsの関数を実行する【GAS】

事前準備

以下の作業はCloud Consoleの既存のプロジェクトに対してログインしてから作業を行います。

環境の準備

Cloud Runと統合されたことで多少手順がこれまでと異なっています。第一世代Cloud Functionsは引き続き使えるようになっているので、新規に作ることも可能です。事前にサービスアカウントの作成が必要になります。

  1. 右上のハンバーガーメニュー(≡)をクリックし、サーバーレス項目にあるCloud Runをクリック
  2. 上部にある「関数を作成」をクリックする
  3. インライン エディタで関数を作成するの選択状態のままにする
  4. サービス名には適当な名前を入れます(今回はpuppetmanとして入力しました)
  5. エンドポイントURLが出ているのでコピーする(例:https://puppetman-xxxxx.us-central1.run.app)
  6. ランタイムはNode.js20をとりあえず今回は選んでいます。
  7. 未認証の呼び出しを許可に今回はチェックを入れる(認証を要する場合には別途認証を用意する必要があります)。デフォルトではHTTPトリガーは認証を要するので、第一世代パターンでの未認証の場合にはこちらの手順も見ておきましょう。
  8. トリガーは省略します
  9. 今回はテストなのでコンテナの設定に於いて、リソースでは、メモリ512MB, CPUは1で設定します。
  10. 続けて実行環境に於いては第2世代を選択します。
  11. セキュリティタブでは作成しておいたサービスアカウントを選択します。
  12. 作成をクリックする
  13. Cloud Build APIを有効にしろと出てくるので、有効にするをクリックする
  14. するとpackage.jsonやindex.jsの記述画面が表示されるようになる。

最初に実行する関数名を指定が無くなっている・・・・

Google Cloud Consoleを弄ってみる

package.jsonの記述

通常はpackage.jsonに利用するパッケージを含めておく必要性があります。左サイドバーのpackage.jsonを開いて以下のような記述を追加します。しかし今回は特に追加のパッケージ無しのプレーンな状態で利用します。

これまでHTTPリクエストを実行するにはnode-fetchを使っていたのですが、Node.js18で標準でFetch APIが装備された為、このモジュールを使わずにHTTPリクエストが出来るようになりました。逆にnode-fetchの最新版を加えてrequireするとESM用なので、デプロイ時にエラーとなってしまいますので要注意です。

これでとりあえず、準備は完了。とりあえず保存して再デプロイを押します。但しこのデプロイは緑色のチェックマークがついたら成功なのですが、かなり時間が掛かります

図:とりあえずの環境を用意する

ローカルの開発環境

確かにCloud Run FunctionsでNode.jsを動かすことは出来るのですが、この環境は動かすのには向いていても開発する土台としては酷く使いにくいです。

よって、ローカルマシン上にNode.jsを用意して、実際にindex.jsやpackage.jsonを用意してテストしたほうが手っ取り早い。そして無事に動いたらそのコードだけをCloud Run Functions上にコードとしてマージしてデプロイするといった手順が通常の開発手順になると思います。

図:ローカル環境では無事に動いた

HTTPリクエスト先

今回、GAS側からCloud Run Functionsを叩いて、Cloud Run FunctionsからHTTPリクエストをFetch APIにて投げます。この時のリクエスト先として、AppSheetでも使ったP2P地震情報APIを叩いてみようと思います。

特に認証も無いのでそのままURLを叩けば実行されるようにしています。

AppSheetで安否確認アプリを作ろう【GAS】

ソースコード

GCF側コード

GCF側にコードを記述してデプロイすると、GCF上部にURLが表示されます(例:https://xxx.us-central1.run.app)。このURLをもってGAS側で叩いて、答えを返してあげる為のコードです。index.jsに記述します。

  • P2P地震情報APIをendpointとして変数に入れておきます。
  • exportではなくfunctions.httpで実行する関数を指定する点が第一世代と異なる点になります。
  • この時関数のエントリポイントと実行する実際の関数の名前は一致してる必要があります。
  • Node.jsのFetch APIは通常のJavaScriptのFetch APIとほぼ同じ仕様です。
  • 取得したデータは非同期で処理が流れるので、thenを使って同期的に取得したものを返さないと、返却値が空になるので要注意。
  • response.jsonでリクエスト結果の内容を取得し、thenの次の項目でres.status(200).send(jsonData)とすることで、ステータスコード200を返し、取得した内容をsendでGAS側に送り返しています。

GAS側コード

GAS側ではGCF側で取得したURLを入れて、通常通りUrlfetchAppにてリクエストを投げます。特に変わった点はありません。

ポイント

実は、UrlfetchAppには「接続タイムアウトの秒数指定」ができません。よって、相手側サーバ側でタイムアウトの時間設定が無い場合、下手すると6分丸々リクエストを待った挙げ句に6分の実行時間の壁にぶつかってエラーとなってしまいます(Exception: Address unavailableというエラーが記録されます)。今回のP2P地震情報APIはまさにこのパターンで、貴重な実行時間枠を無駄に消費してしまいます。

よって、GCF側のfetchに対してsetTimeoutを用意して一定時間後に強制的にエラーとして返すようにしてみたり、AbortSignal.timeout()を使ってタイムアウト時間を設定してみたり(Node.jsのFetch APIも装備してる)すると、UrlfetchAppで無駄に時間を消費せずにタイムアウトさせてリトライさせるようにすることが可能です。

ちなみにCloud Run Functionsのタイムアウトはデフォルトで60秒ですが(GASよりも短い)、第2世代は最大60分まで延長が可能です。

図:タイムアウト指定しないとエラーになってしまうケース

Google Apps Scriptで6分の壁(タイムアウト)を突破する【GAS】

関連リンク

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

日本語が含まれない投稿は無視されますのでご注意ください。(スパム対策)