QAアナリティクスをお使いの皆さんもGoogle アナリティクスを使っている方は多いと思います。そのユニバーサルアナリティクスでの計測は2023/6/30までとなっていて、2023/7/1からは計測されません。となるとGA4移行する人が多いですよね。
GA4への移行で注意する点を簡単にまとめておきます。
筆者の予測も入っていますのでご注意ください。2023/2/2時点の記事です。
目次
「We’ll soon configure Google Analytics 4 for you」
と書かれたメールが皆さんに届いていないでしょうか?これなにかというと、下記リンクの告知のメールです。
[UA→GA4] 自動作成された Google アナリティクス 4 プロパティについて – アナリティクス ヘルプ
過去 12 か月間にヒットが発生した標準のユニバーサル アナリティクス プロパティはすべて、Google アナリティクス 4 プロパティの自動作成処理の対象となります。ただし、2023 年 2 月 28 日までに、この自動処理をオプトアウトした場合を除きます。
ユニバーサルアナリティクス停止を知らずに「データがとれてない!」となるのを防ぐためなんでしょうが、知っている人には邪魔でしかない機能です。停止しておきましょう。
強制移行と騒ぐ人が出てくるかもしれませんが、前述のようにGoogleとしては保険的に作成するつもりでしょうから、強制移行ではないと思ってます。
ユニバーサル アナリティクスのサポートは終了します – アナリティクス ヘルプ
こちらの記事にはこう書かれています。
2023 年 7 月 1 日以降は、この日よりも前にユニバーサル アナリティクス プロパティで処理されたデータに、少なくとも 6 か月間アクセスできます。Google は、お客様のデータが重要であることを認識しております。この機会に過去のレポートをエクスポートすることを強くおすすめします。
数か月以内に、既存のユニバーサル アナリティクス プロパティのサポート終了日についてお知らせする予定です。サポート終了日を過ぎると、ユニバーサル アナリティクスのレポートをアナリティクスの管理画面で確認したり、API を介してユニバーサル アナリティクスのデータにアクセスしたりできなくなります。
「6か月間アクセスできます」なので、2023/12/31まではアクセスはできそうです。しかし、その先はわかりません。「数か月以内に」サポート終了日を教えてくれることなっていますが、この記事の最終更新日は2022/10/27です。既に3か月たっていますのでそろそろお知らせがないと困りますよね。
そして、GA4のプロパティを作成することを考えるとずっと残してくれることは考えづらいです。
ユニバーサル アナリティクスのサポートは終了します
「よくある質問 -ユニバーサル アナリティクス プロパティからデータをエクスポートするにはどうすればよいですか?-」
現在、ユニバーサル アナリティクス プロパティからデータをエクスポートする方法はいくつかあります。
次の形式でレポートを個別にエクスポートできます。
・CSV
・TSV
・TSV 形式(Excel)
・Excel(XLSX)
・Google スプレッドシート
・Google アナリティクス Reporting API を使用してデータをエクスポート可能
・Google アナリティクス 360 をご利用の場合: BigQuery へのエクスポートも可能ユニバーサル アナリティクスのサポート終了日までに、データのエクスポートに関する詳しいガイダンスを発表する予定です。
「レポートを個別にエクスポート」ということは見たいレポートを選択してちまちまとダウンロードするしかありません。期間が長くなればサンプリングがかかってデータが間引かれる可能性もあるので、数か月の単位でダウンロードするという気が遠くなる作業となります。
さらにCSV形式でダウンロードしたものをグラフ化しないと意味がないですよね。いくつかのファイルに分割されたものをくっつけて、それを加工してグラフ化…これをも気が遠くなります。
Reporting APIとBigQueryでエクスポートしたところで、何かしらの手段を使って集計とグラフ化をしないといけません。これも面倒。
じゃあ、Googleがこのあたりを面倒見てくれるのか?といったらそれはないでしょう。グラフ化してくれるのなら、終了するといっているユニバーサルアナリティクスを残せば良いですから。
Google Analytics Data Backup by QA
Google Analytics Data Backup By QAをご利用になると、ユニバーサルアナリティクスAPIの連携後、自由にユニバーサルアナリティクスアカウント内の全プロパティのビューデータを移行可能です。移行したデータはユニバーサルアナリティクスより使いやすいと評判のQAビュー画面でいつでも自由に閲覧できます。BIツールを使ってのデータ加工は不要です。
簡単に言うとユニバーサルアナリティクスのデータをQAアナリティクスで見てしまおうということですね。詳しくは上記リンクからご確認ください。
実際に私もユニバーサルアナリティクスのバックアップ方法で困っていて、このツールの開発にちょっとだけかかわったので、皆さんにも使いやすいものになっていると思います。
執筆時点では20個もありません。ユニバーサルアナリティクスは100以上のレポートがありました。つまり、見たいデータが見れなくなるということですね。
標準レポートには「ライブラリ」という機能があってある程度はカスタマイズができます。詳しくはこちらの記事をご覧ください。設定は大変ですが今までのようなレポートが見られる…はずです。
GA4の「ライブラリ機能」の活用例:チーム独自のコレクション | アユダンテ株式会社
日常的なデータチェックには向いてません。
なぜかというとグラフ化がイマイチなので、データをエクスポートするなどしてグラフ化しないといけないからです。ちょっと見たいときに使うにしては面倒ですよね。慣れてくれば数値だけでも傾向はわかりますが、誰かに報告するとなるとグラフ化しないといけないです。
完全に仕様が決まっていて、見るタイミングも決まっていれば、フォーマットを作るのでしょうがそこまでが遠い。
これが見たい、あれが見たい、という要望に対応するのが大変になることでしょう…。
GA4×ルッカースタジオ(旧データポータル)API割り当て上限によるデータセットの設定エラーの原因と対応策まとめ
エラーの原因は、GoogleがGA4 APIを通じてデータを取得する際のリクエスト数に上限を設定したことになります。Googleの本変更の目的は、BigQuery(有料)の利用促進だと想定されますが、事前アナウンスのない変更だったこと、またその割り当て上限がとても厳しく、少しのリクエストでもすぐにエラーになってしまうことで世界中のルッカースタジオユーザーからクレームが噴出している状態となります。
クレームが噴出した一人です。
GA4のレポートがイマイチなのでLooker Studioならできるよ!と思って使っていたらこれ。過去にクライアント向けに作成したレポートもこれに引っかかって大変なことになってしまいました。
解決策がないこともないんですがこれまた面倒くさい。
いったん解決したところでまた同じようなことが起こるのでは?と疑心暗鬼になっているので、ゴリゴリ使っていくのはちょっと怖いですよね。
[GA4]レポートのデータが少ないと思ったら「しきい値」の確認を | アユダンテ株式会社
データのしきい値とは、ユーザー属性などの情報からユーザーを推測することを避けるため、レポートから一部のデータを除外する仕組みです。GA4の標準レポートやデータ探索の他、データポータルのGoogleアナリティクスコネクタで接続した場合のレポートにも適用されるため、注意が必要です。
データのしきい値はGoogleアナリティクスのシステムによって定義されているため、調整することはできません。
個人情報保護の観点からユーザーが推測されそうなデータは自動で除外されるという機能です。そして、コントロール不可能。GA4のレポートやLooker Studioに接続した場合にも適用されます。何をどうやってもつきまとってきます。
しきい値が適用されると何がやっかいかというと、レポートやディメンションを変えるたびにユーザー数の合計が変わったりすることです。どの数字が正しいのかわからなくなりますよね。
Googleシグナルの利用をやめたりレポート識別子の設定を変えれば回避できないこともないですが、ユーザー数の算出方法が変わってしまうので、これまたどの数字が正しいの問題がつきまといます。
数字に一喜一憂することはやめて傾向で見るしかないですよね。
BigQuery: エンタープライズ向けデータ ウェアハウス | BigQuery: クラウド データ ウェアハウス | Google Cloud
BigQuery は、完全にサーバーレスで費用対効果に優れたエンタープライズ データ ウェアハウスです。クラウド全体で機能する機械学習と BI が組み込まれており、データに合わせてスケーリングできます。
わかりやすく言うと、GA4の生データを引っ張って保存してSQLで思うように抜き出せる仕組みです。抜き出したデータはTableauなどを使ってグラフ化します。
そして、料金もかかります。
BigQuery は注意ポイントさえしっかりと押さえていれば、かなりお得に利用できるサーバーレスなビッグデータ分析サービスです。ビッグデータ分析に関するあらゆるニーズに応えるための機能が揃っています。
そう、分かっていればかなりお得に利用できるはずなのです。わかっていれば。
今からこれを勉強して、データを加工して…と思う人はかなり少ないはずです。やったとしても、それなりの規模の企業でしょう。
私はBigQueryに関しては完全にあきらめています。学習することと得られるものを天秤にかけたら…ねぇ。あわないです。
移行が終わればスッキリ。ではないのです。
コロコロ仕様が変わっていくでしょうから、それについていかないと使えなくなってしまうのです。
ずっと情報をキャッチアップして変更があればレポートなども変更して、社内やクライアント向けに周知して…大変ですよね。
BigQuery+Tableauなのかな~と思います。初期設定で数百万円、毎月も数万~十万円かかったりするかな?という感覚です。
進化してもお金で解決。
この方法が取れるところは少ないはず。
これしかないと思います。
細かい分析をするには前述の問題をクリアしないといけないので、費用対効果が合わなくなるはずです。
ここに時間をかけるよりはコンテンツやSNSやメルマガなどに時間をかけたほうが会社としてはメリットがあるでしょう。その結果のチェックのために使うぐらいでいいと思います。
今までのユニバーサルアナリティクスが無料なのに優秀すぎたと思うべきなのでしょう。
世の中は動画であったりSNS上で時間を使う人が増えてきましたよね。それに伴ってWebサイトの役割も以前ほどではなくなっていくでしょうし、そうならないといけません。
時代に流れにあったマーケティング、計測を考えて柔軟に対応しろということだと思ってます。
「そう思わないとやってられない」という言葉を飲み込みながら。
著書:「未経験・低予算・独学」でホームページリニューアルから始める小さい会社のウェブマーケティング必勝法