リクルートライフスタイルの技術力を追え!

第7回 [データ活用編]Airレジにおけるデータ分析とその基盤

この記事を読むのに必要な時間:およそ 3 分

データ分析でわかった意外な“落とし穴”

――幅広いデータがあることで可能になった分析としては,具体的にどういったものがありますか。

井原氏:わかりやすい事例でおもしろかったのは,ユーザがどの部分の操作でつまずいているのかを調査したときです。コールセンターからユーザに電話をかけたとき,どういった内容の話をすると僕たちが望んでいる指標が上がるのかを調査したんですね。ユーザがAirレジを使い始めるとき,メニューの登録などの作業に結構時間がかかるので,そこで最初につまずく人が多いだろうという仮説を持っていたんです図1⁠。

しかし実態はそうではなかった。実は,コールセンターから電話をかけて話した内容で最も指標が上がったのはiPad自体の設定だったんですね。つまり,Airレジの世界に入る前の,iPadの設定で詰まっている方が多くて,そこをフォローしたほうが指標が上がるということがわかりました。そこでマニュアルを見直して,iPadの設定自体から説明するようにしました。

このように自分たちの思い込みを解消することにもデータ分析は役立ちますが,そのためには複数のデータを合わせて見ていく必要があります。お話した事例であれば,僕らが望むような行動をユーザがしているかどうかを示す操作ログのデータと,コールセンターがユーザとどのような会話をしたのかという記録が結び付かないと分析できません。そのため,さまざまな情報を集めていくことが重要だということです。

図1 Airレジのメニュー登録画面

図1 Airレジのメニュー登録画面

最初,このメニュー登録でつまずくユーザが多いと考えていたが,実際にユーザが手間取っていたのはiOSの設定だった

Google Cloud PlatformのBigQueryを積極的に活用

――分析のために利用するデータは,どのようなシステムで収集しているのでしょうか。

前田氏:データを集めるために使っているのはおもにFluentdで,そこからクラウド環境に投げています。クラウドはAmazon Web Services(AWS)とGoogle Cloud Platform(GCP)を併用していますが,最近はGCPを使うことが多いですね。FluentdからGCPのPub/Subに入り,そこからDataproc(Spark)でリアルタイム演算や機械学習をした結果をBigTableに入れています。最終的にはレコメンドAPIや収益予測APIといったマイクロサービスとして施策に利用されます図2⁠。

それぞれのクラウドには強みと弱みがあるので,違いを確認しながら使い分けています。たとえば,BigQueryはRedshiftに比べて大容量をさばけるけど,Updateが使えなかったり,一方でRedshiftはストリーミング的な書き込みが弱かったり。課金方式も大きく異なるため一長一短があります。

図2 システム構成図

図2 システム構成図

2つのクラウドサービスを使い分ける意義

――複数のクラウドを使い分けるのは,運用負担も大きいのではないかと思いますが,そのあたりはどのように考えていますか。

前田氏:たしかに負担は大きいです。ただ,昔のように役割の明確なソリューションを組み合わせて,かぶりなくアーキテクトできる時代ではなくなったと考えています。たくさんのツールがあり,それぞれに得意分野がある,しかもスイートスポットが結構小さい。アーキテクトとしてそれを見極め,レベルを上げていくことを考えたとき,1つの環境だけしか触っていないことのリスクは大きい。またディザスタリカバリのように,データを分散することで得られる価値もあります。その両方の視点から,クラウドを使い分けているのが現状です。

それと,これから期待しているのがGCPコミュニティの盛り上がりです。AWSコミュニティの活動は活発ですが,GCP界隈も盛り上がりつつあります。実際,AWSをやっていたエンジニアがGCPにコンバートするケースもありますし,ベンチャー企業がいきなりGCPを選ぶ例もあります。そういったエッジの効いたエンジニアとミートアップできる。私たちは,このような視点でもクラウドサービスをチェックしています。

これからのチャレンジはリアルタイムなデータ活用

――リクルートライフスタイル社内では,現場の方々もデータ解析ソフトのTableauを使ってデータ分析を行っていると伺いました。Tableauを使いこなすのはなかなかハードルが高いと思うのですが,どのようなブレークスルーがあったのでしょうか。

前田氏:もともと,ビッグデータを民主化しようというプロジェクトがあり,そこには意志決定のスピードを上げたいという思いがありました。ただし,BIツールを入れて「セルフでやってください」だけでは何も変わりません。BI用に最適化されたデータモデルを開発したことと,小さな成功体験を積み重ねること。この2つがブレークスルーのポイントだったと思います。事業ドメインごとにデータを開発し,Tableauを使って従来とは異なるスピード感と高度な分析を1つずつ実現していく中で,気が付いたらフォロワーが増えて社内に浸透していったというイメージです写真3⁠。

写真3 Tableauの画面

写真3 Tableauの画面

「ビッグデータを民主化」するために使われている「Tableau⁠⁠。前田氏はTableauのユーザ会で会長も務めている

――最後に,今後のチャレンジで検討しているものがあれば教えてください。

前田氏:今まさにチャレンジしようと考えているのが,リアルタイムなデータの活用です。リアルタイムのデータ分析は技術的な難易度が高くて,これまであまりチャレンジできていなかったんですね。しかし,生み出されたばかりのデータは,その下流が四則演算だけといったような簡易ロジックでも有益な結果を生み出せることが見えてきました。このようにリアルタイムデータが非常におもしろいことがわかってきたので,そのためにも低いレイテンシでデータを取得する,そのための技術力を磨いているところです。

井原氏:以前のデータ分析は,レコメンドやメールマーケティングなど,実装する先がわかりやすいシステムで,これをやればよいというのも明確でした。しかし今は活用先が多様化して,さまざまな分野でデータ分析が行われるようになりつつあります。このようにニーズが広くなれば,データ開発のためのROI(Return On Investment,投資収益率)もどんどん低減していくんですね。それによって成果が生まれれば,データエンジニアリングにリソースを投入していくことができます。そのため,データを分析して活用する,その領域をどう広げていくかが重要なところだと感じています。

画像