ネットサービスと著作権のしくみ

第1回「検索エンジン」著作権

はじめまして

はじめまして。サラリーマンの保利と申します。今回から数回にわたってインターネット上のサービスと著作権法との関係についてお話をさせていただくことになりました。どうぞよろしくお願いいたします。

さて、みなさまもご承知の通り、ネット上にはありとあらゆるサービスがあふれています。検索エンジンやネットオークション、ブログ、音楽配信、動画投稿、…などなど。どれも大変便利で魅力的なサービスなのですが、ネット上で提供されているサービスのほとんど全ては「著作権法」という一筋縄ではいかないルールと折り合いをつける必要があります。

そこでこの連載では、ネット上で提供されている代表的なサービスを毎回1つ取り上げ、そのサービスが著作権法上、どのような課題やリスクを抱えているのか、運営するにあたって、どのような作業や権利処理が必要とされるのか、そのあたりの裏側のしくみについてお話していこうと思います。

私自身は「生粋の江戸っ子」ならぬ「生粋の法律っ子」ですので、どうしても法律っぽい話が増えてしまう予感がしているのですが、エンジニア系のみなさまが「??」という感じにならないよう、実例をまじえつつ、法解釈の話も正確な説明というよりはザックリと大雑把に「だいたいこんな感じ」というふうにまとめていくつもりです。

まぁ、しょせんはサラリーマンの「つぶやき系コラム(!?)」ですので、著作権法を鳥瞰図的に眺めつつ、⁠へぇー」とか「難しいんだねぇ」といった感じで興味や理解を深めていただければ幸いです。専門的な個々の事案やトラブルの解決は、専門家の方にお尋ねくださいね。

「検索エンジン」は違法?!

初回は「検索エンジン」を取り上げます。いきなりショッキングな話から始めますが、実は検索エンジンというサービスは著作権法上、厳密に言えば違法なサービス(よりマイルドに言うとしても「グレーゾーンのサービス⁠⁠)です。なぜ違法とされるのでしょうか? それは検索エンジンのしくみと関連します。

私も検索エンジンの技術的なこまかい部分はよく知らないのですが、例えば、みなさんが自分のブログに高知旅行に行った時のことを書いたとしますと、その記事は検索エンジン事業者(=GoogleとかYahoo!とかです)「クローラー」と呼ばれるロボットがデータとして収集していきます。このロボットはリンクを手がかりに次から次へとサイトを渡り歩き、巡回していって、各サイトに何が書いてあるのかをどんどんデータとして収集してしまいます。そして収集で溜めこんだデータをインデックス化し、リストにまとめたものを検索エンジン事業者は作成し、ユーザーが検索窓に「高知/坂本龍馬/旅行」というような検索キーワードを投げて検索すると、リストの中から先ほどの高知旅行のブログ記事を選び出して検索結果としてヒットさせる、というしくみです。

この《収集する→リスト化する→結果表示する》という一連のしくみ(流れ)の中で、特に問題なのが「収集する」という部分です。⁠収集する」というのは、要はデータとしてコピーするということですから、著作権法でいうところの「複製」に該当します。ロボットはブログの作者に「収集していいですか?」とあらかじめ許諾を得ることなしに、無断で機械的に記事内容をジャンジャン収集していきますので、⁠著作権者(=作者)に無断で複製をした」ということになり、これは厳密に言えば違法な行為となります。また「リスト化する」という行為も、⁠データーを加工する」ということですから「翻案」に該当する可能性があり、やはり違法含みの行為となります。

ちなみに、アメリカでは実際に裁判になったケースがいくつかあります。主として画像検索が槍玉にあげられることが多いようでして、⁠私のサイトの画像データを勝手に収集するな!」という趣旨の訴えが権利者(=サイトの運営者)からなされています(Perfect10, Inc. v. Google, Inc.事件やKelly v. Arriba Soft Corp.事件など⁠⁠。しかし、アメリカの著作権法には「フェアユース(fair use⁠⁠」という法理があり、検索エンジン事業者の行為は非侵害とされることが多い模様です。

Note:
「フェアユース」の詳細な説明については、企業法務戦士F-JEYさんの連載『ネットだから気をつけたい!著作権の基礎知識』第9回をご覧ください。

法改正の成立

もっとも、検索エンジンはもはやインターネットにおけるインフラと言えるほどに普及しています。違法の可能性はあるにしろ「じゃあ明日から日本での検索エンジンの提供は中止しますね」ということで、GoogleやYahoo!がサービスを引き上げてしまうというのでは困ります。加えて、先ほど述べた通り、アメリカでは検索エンジンはセーフとされるわけですから、⁠アメリカではできることが何で日本でできないの!?」という素朴な疑問も湧いてきます。そこで、ちょうど今年の6月に国会で「検索エンジンを例外的に合法にします」という法改正がなされました。こんな条文です。

公衆からの求めに応じ、送信可能化された情報に係る送信元識別符号(自動公衆送信の送信元を識別するための文字、番号、記号その他の符号をいう。以下この条において同じ。)を検索し、及びその結果を提供することを業として行う者(当該事業の一部を行う者を含み、送信可能化された情報の収集、整理及び提供を政令で定める基準に従つて行う者に限る。)は、当該検索及びその結果の提供を行うために必要と認められる限度において、送信可能化された著作物(当該著作物に係る自動公衆送信について受信者を識別するための情報の入力を求めることその他の受信を制限するための手段が講じられている場合にあつては、当該自動公衆送信の受信について当該手段を講じた者の承諾を得たものに限る。)について、記録媒体への記録又は翻案(これにより創作した二次的著作物の記録を含む。)を行い、及び公衆からの求めに応じ、当該求めに関する送信可能化された情報に係る送信元識別符号の提供と併せて、当該記録媒体に記録された当該著作物の複製物(当該著作物に係る当該二次的著作物の複製物を含む。以下この条において「検索結果提供用記録」という。)のうち当該送信元識別符号に係るものを用いて自動公衆送信(送信可能化を含む。)を行うことができる。ただし、当該検索結果提供用記録に係る著作物に係る送信可能化が著作権を侵害するものであること(国外で行われた送信可能化にあつては、国内で行われたとしたならば著作権の侵害となるべきものであること)を知つたときは、その後は、当該検索結果提供用記録を用いた自動公衆送信(送信可能化を含む。)を行つてはならない。

〔著作権法47条の6〕

…えっと、⁠なんじゃこりゃ??」というほど、読みづらいというか、読もうという気力さえ起きないほどの複雑な条文ですが、ここでは「読む気がしない」ということの例として挙げたものですので、あまり気にしないでください。

つまり、検索エンジンの事業者は、次のことができるということが条文の趣旨になります。

  1. ロボットでサイトの記事内容を収集できる
  2. 収集したデータをリストに加工・整理できる
  3. リストを用いて検索結果表示を提供できる

ただし、いくつか制約や留保がついています。細かい話になりますが、その点をフォローしておきましょう。

検索サービスを提供する際のルール

「よしっ!ネット検索事業が合法になったのならサービス提供に乗り出してみるか!」とお考えの方は、この法律に則ってサービス内容をアレンジする必要があります。その場合、⁠できること」よりも、むしろ「できないこと」「やってはいけないこと」を確認していく必要があるでしょう。そこで、留意点として注意が必要と思われる部分をいくつかピックアップしてみます。

まず、⁠検索エンジン事業って何?」ということですが、これが政令で定義されるようです。つまり、政令で定める検索エンジン事業の基準をみたさない事業者はそもそもこの法律の対象にならないため、検索エンジンサービスを提供することができません(提供すると従来通り違法になる可能性があります⁠⁠。政令は現時点ではまだ公表されていませんので、その内容は分かりませんが、条文を読む限り、⁠情報の収集、整理及び提供」のやり方が規定されるようです。内容によっては新規参入への障壁になるかもしれませんので注意したいところです。

次に「公開範囲に制限がかかっているサイトは勝手にデータの収集をしてならない」という制限があります。例えば日記公開などで「お友達に限定」というような制限がある場合、限定公開なので勝手にロボットが踏み込んで、サイト記事を収集するのはダメ、ということです。収集したければ記事の作者の許諾を得なさい、ということが条文に明記されています。

また、検索結果を表示する際はURL(法律中では「送信元識別符号」と呼ばれています)を併せて表示することが必須となります。単に飛び先へのリンクだけを結果表示するだけではダメで、ちゃんとURLも表示しなさい、というのが今後のルールとなります。

最後に、ロボットが著作権法上、違法に作成されたデータを収集してきた場合に、検索エンジン事業者が「あ!違法データだ!」と気付いたら、そのデータは検索結果表示の対象から外さなくてはいけません。例えば、ミッキーマウスの画像を違法に掲載しているサイトがあったとして、ロボットがそのサイトのデータを収集してしまったがために、画像検索等で「ミッキーマウス/ディズニー」などとキーワードを入れて検索すると、その違法サイトが検索結果でヒットします、という場合に、検索エンジン事業者が「あ、違法サイトだった!」と気付いたら、その時点で、そのサイトは結果表示から外しなさい、ということです。

ただ、この最後のルールは正直にやろうと思っても、ちょっと無理なんじゃないかなぁと気がします。というのは、ロボットが収集してくるサイト数は何十億、何百億、何千億という途方もない数でしょうから、それをいちいち目視やパトロールで確認することは不可能ですし、そもそも違法にアップされたコンテンツなのか、許諾を得た上でアップされたコンテンツなのかは、アップした本人に聞かないと分かりませんから、検索エンジン事業者の側で自主的に事前に違法か合法かを判断することは現実的ではありません。したがって、最後のルールはおそらく、権利者側からの違法の申し立てを受けた時点で結果表示から外す、という運用になるのだと考えられます。

おわりに

この改正法は予定では来年の1月1日から施行されるようですので、まだもうすこし時間があります。法律ができましたので、一応、検索エンジンは違法の汚名を返上できたわけですが、今回ピックアップした事項以外にも、実際に検索エンジンをビジネスとして提供していくとなると、依然として色々と課題が多そうです。

Note:
例えば「キャッシュ」の取り扱いです。今回の法改正では、情報を収集することは許容されますが、収集したデータ(=キャッシュ)をどの範囲で、どういう態様なら検索結果としてユーザーに提供してよいのかまでは、⁠条文がかなり読みにくいこともあり、)私にはよく分かりません。元サイトが削除されて「リンク切れ」になった際に、あらかじめ保存されているキャッシュを代替で結果表示してもよいのか?などは依然としてビミョーな問題だと私自身は考えています。

初回からかなり細かな、いかにも「生粋の法律っ子」っぽい話になってしまってゴメンナサイ。次回は「ネットオークション」を取り上げる予定です。

おすすめ記事

記事・ニュース一覧