レポート

『サーバ/インフラエンジニア養成読本 ログ収集~可視化編』出版記念!執筆者が語る大講演会! レポート[セッション編]

この記事を読むのに必要な時間:およそ 4.5 分

9月9日,シナジーカフェ GMO Yoursにて『サーバ/インフラエンジニア養成読本 ログ収集~可視化編』出版記念!執筆者が語る大講演会!が開催されました。主催はトレジャーデータ株式会社と株式会社インテリジェンス「dots.」です。本稿では,このイベントの模様をレポートします。

画像

司会進行はトレジャーデータの池内さんです。

画像

池内さんが今回のイベントの経緯を話した後,本書『サーバ/インフラエンジニア養成読本 ログ収集~可視化編』を執筆した4人の著者から,一人あたり持ち時間15分間の発表がありました。

鈴木健太氏『サービス改善はログデータ解析から』

鈴木健太氏は本書の特集タイトルと同じ「サービス改善はログデータ解析から」というタイトルで発表しました

画像

鈴木さんはVOYAGE GROUPの子会社adingoにて広告データの分析基盤構築等を行っています。どんなユーザにどんな枠で出したか,どんなキャンペーンがあるか,どんなクリエイティブを出したら効果が高かったかを分析している基盤を作っているそうです。実際のデータ分析は,サービスの質に密接に関わってきます。分析結果がどれだけ活きるかによって,配信効果が変わってくると述べました。

また,データを生成する機能部分を作るアプリケーションエンジニア,分析するエンジニアはチームとして分かれているそうです。しかしサービスの設計とデータは表裏一体です。どんなサービスを作るか,どんなデータを出すかは,結びついた話だと言います。例えば,広告のターゲティングしたい場合,どういったデータを載せるか,どういうバリエーションを出せるかなどは機能の話です。生み出されるデータはそこに結び付きつつも,別に分析しなければいけません。

データ分析の活かし方を考える上で実業務を考えてみると,⁠広告案件を取ってくる」⁠広告配信」⁠結果分析」⁠手を変える」⁠再度配信」とあります。しかし,これをすべて一人で行うことはできません。各ステップでは営業,オペレータ,データアナリスト,配信エンジニアが携わっていて,これら全員のところでデータが通ります。つまり,データの分析はチームで作るものです。どういうデータをどのように使いたいかという絵を共有して,会社の人に使ってもらうことが重要だと述べました。

しかし,どういったアプローチをしていけばいいのでしょうか。それは書籍で具体的に言及しているとしつつ,チーム体制を取ってデータを解析していくのであれば,解析には「収集」⁠変換」⁠保存」⁠分析」⁠表示」⁠運用」という段階を踏むと良いことを示しました。どのように実現するかは,ミドルウェアを組み合わせて構築することになります。現在は数多くのミドルウェアがあって構築の手段が多様化してきており,実際には何をしたいかに依存する話だと言います。

また,分析するシステムの構築には時間がかかるため,ログ分析導入の必要性をチームに対して説明することも合わせて考えないといけません。そのために,まずは試してみるのが良いとしました。各段階でまずは使うと良いツールとして,書籍でも解説しているFluentd,Elasticsearch,Kibanaを挙げました(運用は最初のうちはなんとかなる,とのこと)⁠そうして,新鮮なログが見えるようになったり,集計・分析できるようになったりする仕組みをシンプルに作ることで,何か発見があるはずだと提案しました。

もちろん,可視化をしただけでは成果は出づらいものです。しかし,可視化について「データに含まれる事実・示唆を効率よく発見し,それを明確に伝えてくれるもの(⁠データ可視化[実践]入門』⁠という言葉を引用し,最初のステップとしての可視化は良いアプローチだと指摘しました。そして,どのような事実があるかは可視化してから考えれば良いとしました。例えば,次の図はサーバ内での処理時間をKibanaで可視化したものです。これにより,ピーク時に15分ごとに処理が詰まっているのが見えることが分かったそうです。このような傾向は見てみないと分かりません。エンジニアとしてはこの点を解決したいと思うはずです。つまり,可視化により,シンプルに気づけ,発想が出てくるのが大事な点だとしました。

画像

なぜデータ解析をするかと言えば,分析を武器にする仕組みを作ることに尽きると言います。継続的に使い,気づきを重ねる仕組みができれば,モノを作る人たちもデータを意識するようになります。営業の人とも可視化されたデータをもとにコミュニケーションを取れるようになると話しました。また,分析する人の視点からアドバイスすることも重要です。それを繰り返して,サービスに生かす文化を作ること,そしてサービスをより良くするところまでいければゴールだろうと述べました。よって,価値を長く提供できる基盤を作ることが重要だとしました。

最後に,⁠データの分析はチームで作るものなので,何のためにデータ分析をするかということを決めることが大事です。ツールを使って終わらないようにしよう」と参加者に伝えました。

よしけんさん『Fluentd構成のお勧めデザインパターン』

よしけんさん (@yoshi_ken) はリブセンスでインフラの研究開発に従事しており,著名なFluentdのプラグインの開発者でもあります。今回は,書籍で担当したFluentdについて発表しました。書籍の第5章「逆引きFluentdプラグイン」には特に力を入れ,250個を超えるプラグインの日本語解説を行ったそうです。

画像

最初に,Fluentdの概要を紹介しました。Fluentdを使うことで,様々なデータ入力元から,少しの手間でログデータやメッセージを収集できます。それを即座にバッファリング,フィルタ処理を行い,データを出力できます。つまり,Fluentdを使うことでログ収集のイニシャルコストを最小化できます。例えば,既存のログ収集を行っている定期バッチをFluentdに置き換えると保守が楽になるはずだと述べました。また,tailプラグインを使うことで取りこぼしのないログ収集が準リアルタイムでできること,レイテンシの改善や帯域バーストの緩和といった効果も言及しました。

次に,Fluentdの基本的な使い方を紹介しました。それはログメッセージの集約と保存することだと言います。つまり,ネットワーク周りで手間のかかるリトライ処理をすべて任せてしまうことです。利用例として,アプリログやアクセスログをFluentdに流して,集約して保存することを挙げました。また,保存先がAmazon等でもプラグインを用いれば簡単なことを説明しました。

Fluentd導入による効果として,ログ/メッセージ収集の実装や運用保守の手間が激減すること,準リアルタイムに収集されたログデータを活用できること,新鮮なデータを用いたストリーミングデータ処理が実現できることを挙げました。これにより,単位時間毎にSQL集計してくれるNorikraを用いてその結果を収集すること,Kibana等のDashboardアプリで可視化すること,リアルタイム分析によるインシデントの早期予測,不達メールアドレスのクリーニング,不正ユーザ抽出などに利用できると述べました。

Fluentdが適さない使い方も取り上げました。まず,QoS最高レベルのExactly Onceを必要とするデータ収集を挙げました。FluentdはAt Most Onceを採用しているため,1回だけ配信するという厳密なトランザクション処理を求める要件には不向きです。そのため,取りこぼしが絶対に許されない課金データの収集には向いていないそうです。また,CPUコア1つで処理できない負荷の高い処理もあまり向いていないそうです(プラグインを利用するか,分散処理のためのFluentdのクラスタ構成が必要になるとのこと)⁠他にも,Fluentdのサービス再起動をともなう設定変更が日常的に派生する使い方もあまり適していないと挙げていました。よって,Fluentdは基本的に変更のないシンプルな処理をのみを担わせるべきだと言及。アプリ側が使いやすい形式に集約するところまでをFluentdで行い,その後のデータの加工についてはアプリ側が自由に行えるようにするのが良いだろうと述べました。

構成パターンについては,まずは安定運用のためにも,各ノードは単一責任(単機能)でシンプルに構成したほうが良いと説明しました。そして「シングル構成」⁠汎用構成」⁠応用構成」をそれぞれ紹介しました。汎用構成として考えらえる,複数のFluentdからのログ/メッセージを集約する際には,forwardプラグインを用いて一度集約し,適切な保存先に仕分ける構成にするのが良いとしました。これはElasticsearchとKibanaを組み合わせたダッシュボードを構築する時などで使えるそうです。また,応用構成の話では,演算コストのかかるフィルタ処理や,障害リスクを下げたい場合のサーバ構成について説明がありました。

最後に,⁠まずは小さくFluentdを導入してみよう。手軽に遊ぶなら,ストリーミングデータプロセッサとして使っても面白いでしょう」と述べていました。

著者プロフィール

高橋和道

gihyo.jp編集部 所属。最近では電子書籍の制作にも関わる。

URL:https://twitter.com/k_taka
URL:https://mstdn.jp/@k_taka

コメント

コメントの記入