読むウェブ ~本とインタラクション

第11回 UGC(User-Generated Content)と書物(2)

この記事を読むのに必要な時間:およそ 2 分

シーンを検索する

今度は,⁠はかりめ料理を食べる」シーンに対して「Hakarime」というタグを付ける。料理を食べる9秒のシーンを選択した。

シーンに対してタグ付けする

motionboxのサーチを使って検索する。⁠Tag]をチェックして「Hakarime」と入力し,検索するとタグ付けされているビデオが表示された。このようにシステム内ではシーン検索も可能となる。

ビデオ内のシーンに付けられたタグで検索できる

ビデオ内のシーンに付けられたタグで検索できる

ブログに貼り付けられたビデオを見ると,⁠hakarime」のタグが追加されている。当然だが,シーンのタグが増えると,ブログに貼り付けられているビデオもすべてアップデートされる。

長時間のビデオでもシーンのタグが増えれば,より引用しやすくなる

長時間のビデオでもシーンのタグが増えれば,より引用しやすくなる

シーンの引用とコメント

ユーザーがビデオ内のあるシーンに対して言及したい場合は,対象とするシーンを選択してメニューから[Link to clip]を選ぶ。

問題にしたいシーンを選択して引用する

問題にしたいシーンを選択して引用する

URLが書き出されるので,記事にペーストする。ビデオの投稿者にシーン引用付きでコメントしてもよいだろう。取得したURLは,引用のシーンだけ再生するので,まさにテキストのような手軽さで扱うことができる。

取得したURLは,選択したシーンだけ再生する

取得したURLは,選択したシーンだけ再生する

UGC系のまったく新しい本

motionboxの「Deep Tagging」は是非,体験してみてほしい。このようなシーンの引用が高度化し,もっと「手軽に」実践できるようになると,今まで実利的に困難だったコンテンツ作りが可能になる。

私が現在,進めているのが「教科書とビデオ教材の融合」である。重要なのは,私たちが「作り込まない」ことである。あくまで「場」を提供して,UGC(User-Generated Content)に委ねる。形式知の集積が利用者にとっても有益となる「場」をデザインすることが「UGC系の出版社(UGCパブリッシャー⁠⁠」の役割ということになる。仮想図書館のイメージもデジタルアーカイブだけではなく,映像メディアとのパッチワークのような融合を容易にする「Mixture Web 」へと広がりつつある。

次回は,CGM TVなどの動向にもふれながら「新しい本のカタチ~UGC Publishing」について追求していきたい。

著者プロフィール

境祐司(さかいゆうじ)

インストラクショナル・デザイナー[Instructional Designer]として学校,企業の講座プラン,教育マネジメント,講演,書籍執筆などの活動をおこなう。2000年より情報デザイン関連のオンライン学習実証実験を始める。現在,教育デザイナー育成を目的としたフォーラムを立ち上げるため準備中。著書に「速習Webデザイン Flash CS4」(技術評論社),「Webデザイン&スタイルシート逆引き実践ガイドブック」(ソシム)などがある。

URLhttp://admn.air-nifty.com/monkeyish_studio/

著書