8 インターネット検索エンジンと個人のプライバシー

ハーマン・T・タバーニ

出典

H. T. Tavani, "Internet Search engines and personal privacy" in Joroen van den Hoven (ed.) Computer Ethics: Philosopical Enquiry, Department of Philosphy, Erasumus University, 1997.

1 概要

この論文はインターネット検索エンジンの使用が個人のプライバシーとどのような関わり合いを持つかを考察する。3つの明瞭なる(区別されるべき)問題が考えられる。

  1. 検索エンジンは個人的プライバシーに問題を起こすかということはどれほど正確にいえるか
  2. 検索エンジンに関連するプライバシー問題は他の、コンピュータとプライバシーに関する問題と同類であるか。
  3. インターネット検索エンジンの使用は本当に個人のプライバシーを侵害するか。

第3の問題を扱うにおいて、様々なプライバシー理論が考えられる。ジェームズ・ムーアの「アクセス制限」というプライバシー理論はこれらの理論の中で最も理路整然としており、新たな技術が現れた際のプライバシー問題に対する解決を得るにあたり、最も将来有望であると考えられる。この論文は次のように結論する。個人がある程度の基準で自律を保持できるようにする。そして、検索エンジン技術の利益を楽しむのと同時に、個人の情報を管理できるようにする。と言う方針を提案する。

2 導入

科学技術は新しい(種の)情報を生み出す、と同時にそれゆえ新しいプライバシー問題をも生み出す。科学技術が進歩するにつれて、我々は個人のプライバシーを守るために、個人や個人の情報にアクセスすることに対し、どのような制限を加えるべきか考えねばならない(James. H. Moor)。

ムーアのこの主張は、検索エンジンと呼ばれる科学技術に適用した時、特別な重要性を帯びてくると思われる。インターネット使用者が検索エンジンにおいてトピックスとして入力可能なものに、個人の情報も含まれる。検索エンジンのエントリーボックスに個人の名前を入れることにより、使用者はもしかするとその人に関する情報を探り、引き出すことが出来るかもしれない。しかしながら個人は、自分の名前が一つもしくはそれ以上の、検索エンジンのデータベースの中に含まれている事を知らないかもしれない。また、ひょっとすると検索エンジンのことや、検索エンジンが個人の情報を引き出せる能力をあまり知らないかもしれないから、検索エンジンと個人のプライバシーに関する問題が生ずるわけである。検索エンジンは、最近はインターネットに普通にアクセスできる人なら誰でも利用できる。このような検索エンジンを使うと使用者は、以前なら途方もない時間をかけなければ得られなかった情報を、大体数分で得ることが出来るので、多くのインターネット使用者は検索エンジンの技術を称賛している。しかし、同じ技術が個人に関する情報を得ることも出来るので、そのような検索エンジンの技術の使用は個人のプライバシーを脅かすかどうかと問うことが出来る。

3 サーチエンジンはどの程度個人のプライバシーをおびやかすのか

インターネット上で現在利用できる情報は各個人の情報も含み、それがインターネット上で存在しているという価値から公共の情報である、と言うのは議論の余地がある。この問題に対しある答えが考えられる。もし、情報がすでに何らかの形---例えば出版物(hardcopy format)---で公共に利用できるようになっており、それが電子的な(electronic)形の情報に転換され、インターネット上に掲載された時、それは非合理的だとか、不適当であるようには思えないと言うものである。ここで、二つのシナリオを考えてみよう。ひとつはその意見に合致するもの、もう一つは深刻な疑問を与えるもの、である。

シナリオ(1):ある一個人---仮にAとでも呼ぶことにしよう---がある専門的な会議に論文を提出した。その会議の会報(Aの論文も掲載されている)がその後、本のような形で出版された。そしてその会報は、スポンサーの会社のWeb-siteに掲載されることになった。そして、そのWeb-siteは後にある検索エンジンに〈発見〉されてしまった。ある個人Bさんは検索エンジンのエントリーボックスの中にAさんの名前を入れた。すると〈hit〉と出て、Aさんが認識された。BさんはAさんが例の論文を専門的会議で発表したことを知ってしまった。さて、Aさんのプライバシーは侵害されたであろうか。Aさんの論文はすでに出版の形で公共的に利用できたので、我々はたいがい、Aさんの論文を公的情報ととらえがちである。もし、Bさんが検索エンジンを経由してAさんが例の論文を専門的会議に提出していたことを発見しても、普通はAさんのプライバシーが侵害されたとは言わない傾向がある。しかし、ある媒体において公的と思われた情報は、それ以外の媒体に転換された時---例えば電子的な媒体---公的と見てもいいと考えていいだろうか。

シナリオ(2):ある個人Cさんが、同性愛の組織によって後援されている運動に寄与していた。Cさんの貢献は後に組織の週報(限られた分布での出版物であった) で認められた。組織の出版物は、週報なども含み電子的(electronic)な形に転換され、組織のWeb-siteに掲載された。そのWeb-siteは検索エンジンに発見されそのサイトのURLが検索エンジンのデータベースに含まれることになった。Dさんが Cさんの名前を検索エンジンのエントリーボックスに入れると、Cさんを確認し〈ヒット〉という結果が出た。(それはCさんが同性愛の組織と関係があることを暗示する)DさんはCさんが例の同性愛組織に貢献したことを知る。Cさんのプライバシーは侵害されただろうか。シナリオ(2)においては、当然Cさんのプライバシーが実際に侵害されたかどうか考えることができるだろう。

個々人は、アクセス可能な検索エンジンにおける個人情報の含有についての知識を持っていたり、管理していたりしているわけではないだろうから、検索エンジン技術が個人のプライバシーに関する問題を含むと言う問題が想起される。しかしながら、注意して欲しいのは、そのような検索エンジンの使用によって個人のプライバシーが本当に侵害されると言う主張はまだない。この問題にについて答えを出す前に、まず次のことを考えよう。検索エンジンによるプライバシー問題は、その他のコンピュータとプライバシーに関わる問題と類似しているのか、違うのか。

4 サーチエンジンによるプライバシー問題は、他のコンピュータ・プ ライバシー問題と同じだろうか

検索エンジンに関連するプライバシー問題がその他のもっと幅広い領域におけるプライバシーとコンピュータの問題の本質的一種とわかったなら、この特別なプライバシー問題を分析できるモデルがすでに存在する。デボラ・ジョンソンとヘレン・ニッセンバームは〈情報プライバシー〉と〈通信プライバシー〉の間に面白い区別を設ける。前者がコンピュータのデータベースに記憶されている個人情報に関連したプライバシー問題を扱うのに対し、後者は監視と暗号化技術を含めた電子通信に関連するプライバシー問題を一括して扱う。多くの場合においてこの区別は非常に有用である。情報収集組織に集められた公共と個人、両方のデータベースの中の個人のコンピュータ記録に関連するプライバシー問題は、まさに〈情報プライバシー〉のカテゴリーに入ると思われる。そのようなプライバシー問題は、通信技術に関連する問題とは区別できるだろう。

検索エンジンは、データベースから情報を引き出すので、検索エンジンに関連する問題は、一見すると、情報プライバシーの一種または、部分集合と思われるだろう。しかしながら、典型的な情報プライバシーケースにおいては、個人についての情報は、公共の目からは隠され、その人自身しかアクセスできなかったり、購入したりするしかない。しかしこの検索エンジン技術のケースにおいては、検索エンジンのデータベースに記憶されている、個々人に関する情報は、典型的な (一般的な)インターネットアクセスができる人なら誰でも利用可である。インターネット使用者が個人情報を利用可であるということは、個人に関する情報が、一方では公共の目から隠され、また一方ではすでに公然とアクセスできるという点で、検索エンジンに関連するプライバシー問題を情報プライバシーの典型的(一般的)例として見ていいか、について深刻な疑問を生み出す。

次に、検索エンジンに関するプライバシー問題が《情報プライバシー》の例ではないなら、それよりも《通信プライバシー》の範疇に入るはずだ、と考えられる。しかしながら、通信プライバシーに含まれる多くのケースとは違って、検索エンジンを通して個人情報を集めることは秘密性(後ろめたさ)がない。また、検索エンジンを経由して得られる個々人の情報はある電子市場のメンバーに利用可能なのである。そこで、検索エンジンに関連したプライバシー問題は通信プライバシーの範疇にも正確には当てはまらないことになる。したがって検索エンジンの使用に関連したプライバシー問題は、ほとんどのコンピュータとプライバシー間の問題に適用可能な、デボラ・ジョンソンとヘレン・ニッセンバームの案(論)を、ある意味超越し、ある意味無視するものであるように見える。

ここまでで、検索エンジンを使えば個人のプライバシーに関する問題が生じ、検索エンジンに関するプライバシー問題はある重要な点において、その他のコンピュータとプライバシー間の問題とは異なることが分かった。我々はまだ第三の(そしておそらくは最も重要な)問題を考えていない。すなわち、検索エンジンの使用は本当に個人のプライバシーを侵害するのか。という問題である。 Q3に移ろう。

5 サーチエンジン技術はほんとうに個人のプライバシーを冒すだろうか?

Q3に答えるために、先ず適切な個人プライバシー理論が必要である。私は以前、三つのプライバシーに関する伝統的な理論を吟味した。私はそれらを《不侵入理論》、《除外理論》、《制限理論》と名づけた。私は以下の理由により、これらの理論はどれも個人のプライバシーの説明には不適当であると主張した。《不侵入理論》はプライバシーと自由と言う、異なる問題を一緒にしている。《除外理論》はプライバシーを単独で居ることと混同している。《制限理論》はプライバシーを秘密主義と混同している。私は、伝統的理論は時に、プライバシーそのものを権利の点から規定することにより、プライバシーの条件と、プライバシーの権利とを混同していると主張した。そして私は、プライバシーをコントロールする理論(チャールズ・フライドとジェームズ・レイチェルズとその他の人によって唱えられた理論)は、先ほどの全ての伝統的理論を超越していると主張する。なぜなら、A:三つの伝統的理論が生み出した混同を避けている。B:プライバシーの条件とプライバシーへの権利とを区別することができる、からである。プライバシーをコントロールする理論---すなわち個人は自分に関する情報を管理している時のみ、自分のプライバシーを維持していると言えると言う理論---を用いると当然、個々人から個人情報の管理を奪う検索エンジン技術の使用は、個人のプライバシーを維持することと矛盾することになると思えるだろう。

もし、ある人がある個人情報を、アクセス可能な検索エンジンのデータベースの中に含めることに自発的に同意していて、その人が、そのような個人情報があらゆるインターネット使用者のコンピュータ画面に映し出される可能性を理解していたなら、その人は例の個人情報の管理を保持していることになり、自分のプライバシーを保持していることにもなる。一方、上に挙げた二つの状態について自発的に同意していない人は、自分についての情報を管理していないし、少なくともコントロール理論によれば、プライバシーを失っている。そこで、もし我々がコントロール理論を適用するなら、自分の個人情報が検索エンジンのデータベースに記録されていて、引き出されていることを正当と認めていない個人に関する情報を引き出すために、検索エンジンを使用することは、その個人の個人プライバシーを維持することと矛盾する。

もちろん、コントロール理論がプライバシーを理路整然と説明しているかどうかも考えるべきである。このプライバシー理論は、最近ジェームズ・ムーアと W. A. ペアレントによって反直観的であると批判された。ムーアはコントロール理論における実際的欠点を指摘した。つまり、何者も自分自身についての情報を完全に管理することは出来ないということである。しかしながら、そのような不可能性は必ずしも自分の個人プライバシーを守るのに問題にならない、とも主張する。

情報の管理のみに焦点を当てるのならば、プライバシーコントロール理論は個々人の自律においてかなり重要な位置を占める。エリザベス・ベアズリーや、デボラ・ジョンソン、ハイマン・グロス、そしてその他の人は自律がプライバシーにおいて重要な役割を担うことを指摘する。自律がコントロール理論の中核を成しているのは明らかである。

それでは、コントロール理論よりも個人プライバシーをより理路整然と説明したものはあるのだろうか。ムーアはある理論を提案する。その理論を彼は《アクセス制限》のプライバシー理論の一種だと言う。それは、様々なプライバシー理論の欠点や弱さを持たず、それらの理論の代わりとなると言う。ムーアによると、個人は、他人による侵入や干渉や情報アクセスから守られている状況でいる時、他人に対してプライバシーを持っているといえる。ムーアは《Situation》と言う考えは自分のプライバシーの定義において中核をなすと言っている。彼はさらに、自分の考えをわざとあいまいにしたので、我々が普通プライベートだとみなしている事態の範囲まで適用できると指摘する。彼は、《situation》は《位置付けにおける活動》や、《関係》また、《コンピュータに記録または、において処理された情報の保管とアクセス》などでありうるという。

もう一つムーアが挙げている区別は、「自然にプライベートな状況」と「規範的にプライベートな状況」である。前者において、個々人は観察や干渉他人による侵入などから、本来的手段によって保護される。後者では、プライバシーは倫理的、合理的そして慣習的規範によって保護される。「自然にプライベートな状況」ではプライバシーは失われることはあっても、侵害されたり犯されたりはしない、なぜならそこに保護されるべき権利を参照すべき規範、基準(慣例、法、倫理)がないからだ。ムーアは次の様に主張することによって、さらに自分の定義を洗練させていく。個人は他人に関し、個人が規範的に侵入や干渉や他人による情報アクセスから保護されているときのみ、規範的にプライバシーを保持していると言える。ムーアによると規範的プライバシーの境界線は、グループごとに変化し、時間がたつごとに変わる。この点を説明するのにムーアはプライバシーの実態を、アメリカとアルゼンチンにおける患者の医学記録(カルテ)の擁護に見る。どちらの国においても、これらの記録は「規範的にプライベートな状況」と考えられる、と指摘する。しかしながら、さらに彼は医療記録は、それぞれの国によって扱い方が違うと指摘する。昔のアメリカでの医療記録の扱い方は、今日のアルゼンチンでの扱い方と全く同じであった。もちろん、いずれどちらの国でも扱い方は変わっていくだろうし、患者の医療記録が「規範的なプライベートな状況」であると考えない国もどんなときであろうと存在するだろう。ムーアによると、我々は「規範的にプライベートな状況」を持っている。というのも、そのような「状況」は個人、グループ、そして時には社会全体にとってさえ有益であるからである。

ムーアの状況に立脚したプライバシーのモデルはコントロール理論よりも数多くの利点を持っている。例えば、「規範的にプライベートな状況」と「自然にプライベートな状況」を分けることにより、ムーアの理論は、コントロール理論では簡単には区別できない(自然な意味においての)プライバシーの欠如と(規範的な意味においての)プライバシーの侵害とを区別できる。もう一つのムーア理論の利点は、何が「プライベートな状況」の《パラメータ》であるかについて公的に述べることができるので、そのような《パラメータ》は「完全に公共的」で、そしておそらくその状況にある人もしくは影響を受けている人たちに知られることとなる。

それではここからムーアのプライバシー理論と検索エンジン技術の関係を見てみよう。先ず、第一に検索エンジンのデータベースに含まれる個人情報はムーアの言うところの《状況》の構成要素となりうる。自然な状況においてXについての情報を探し出すために、X以外の誰かによって検索エンジンが使われるたび、個人のプライバシーは確かに失われている。しかしながら、ムーアの観点によると、単なるプライバシーの欠如は必ずしもプライバシーの侵害とはならない。そこでXのプライバシーが規範的な意味において侵害されたかどうかは、まだはっきりしない。検索エンジンのデータベースに含まれる個人情報は「規範的にプライベートな状況」と定義できるか。すなわち、その情報にアクセスすることは制限されるべきかと言うことである。そして、もしその答えが《yes》なら、一体どのような条件でそれは決定されるのか。功利主義の立場から見れば、検索エンジンの使用を制限しないことで、もっと公共的利益が得られるかもしれないから、検索エンジンの情報にアクセスすることは制限されるべきでは無いように見える。しかしながら、義務論的立場から見れば、検索エンジン中の個人情報を「規範的にプライベートな状況」であると宣言すべき場合も考えられる。というのも個人情報にアクセスすることを制限しないのは、個々人の自律と個々人に対する敬意 (尊敬)を脅かすことになるだろうからである。検索エンジン技術の場合においてはどちらの立場をとるべきなのだろうか。

そしてどうすればQ3を説くことができるのだろうか。我々はこの問いを二つのプライバシー理論の観点から考察した。コントロール理論は我々にQ3に対する明白な答えを与えてくれた。というのは、検索エンジンを使って個人の情報を得ることは、その人が自分の情報が検索エンジンのデータベースに含まれることに同意していない限り、個人がプライバシーを保持することと矛盾しているからである。しかしながら、コントロール理論がそれ自体問題を持っていて批判されやすいということも見てきた。例えば、セクション(1)で考察した二つのシナリオを思い起こせば、どちらのケースにおいても例の二人、(AとC)は自分たちの情報がどのようにインターネット上で伝達されるかを管理していない。シナリオ(1)においてはAのプライバシーは侵害されていないという傾向があるのに、一方シナリオ(2) においてはCのプライバシーは侵害されたという主張も考えられる。そこで、個人情報の管理の有無が個人のプライバシーが侵害されたかどうかを決定するのではなく、むしろ個人情報へのアクセスが制限されているかいないかの状況が問題なのである。

ムーアのアクセス制限というプライバシー理論は---たとえQ3に対する明確な答えを与えてくれないとしても---コントロール理論よりも数多くの点において優れていることが分かった。ムーアは情報をプライベートとみなすかどうかが不明確な時があると認めている。ある新しい状況を「規範的にプライベートな状況」と定義するかどうか決定するとき、その状況を《合理的理論と公的な意思決定》を通して評価すべきであって、単に《習慣とか好み》に頼って決めてしまってはいけない、と示唆している。

6 結論: 未解決の問題と暫定的提案

ここまでで、プライバシー問題と検索エンジン技術の関係についてどのような結論ができたか。Q1に対する答えの中で、個人についての情報を得るための検索エンジンの使用は個人プライバシー問題を生ずることが分かった。Q2に対する答えの中で、検索エンジンに関するプライバシー問題は、《情報プライバシー》と《通信プライバシー》のどちらの範疇にも完全には当てはまらないことも分かった。それは、検索エンジンとプライバシーに関する問題を、一般的なコンピュータとプライバシーに関する問題の一例と考えることは有益ではないことを示唆するものであった。第3の(そしておそらくは最も重要な)問題に関して、答えはそれほど明瞭でなかった。我々はまだQ3に対する明瞭な哲学的答えを出してはいないが(にもかかわらず)、最後に私はこの問題に対する実用(実際)的な方針として、予備的な提案をしたい。ムーアが提案する、ある状況が《規範的にプライベートな状況》だと決定すべきかどうかを決定する合理的議論---すなわちアクセスを制限すべきかどうか---を追うにつれ、検索エンジン技術に関連するプライバシー問題に関して、その科学技術が比較的まだ新しい時、我々は公的話し合いをしなければいけない事がわかった。もちろんそのような手段は、検索エンジンの使用に関する分かりやすく理路整然とした方針を作る過程の最初の段階にあたるだろう。

ムーアの理論が正しく示唆しているように、もっともらしい方針は検索エンジンに影響を受けている全ての人(インターネット上に検索エンジン技術の手段を与えたことに責任を持つ関係者を含める)に何が必要かをはっきりと説明することである。数多くの明確に定義された規則(ルール)が作られるべきであり、個々人はその規則が何であるか、はっきり知らされなければならない。そのルールは、ムーアが指摘するように、公的または公的原則とムーアが呼ぶものに従うものでなければならない。すなわちプライベート状況を決定するルールと条件は明確で、その状況に影響を受ける人に知らされてなければならない。おそらく予備的な議論と討論を通して以下のような過程を設立することになるだろう。

上述の提案において、人は国民投票を通して、現在インターネット検索エンジンを経由して利用可能な個人情報にアクセスすることを制限するかどうかを決定できるだろう。その投票結果がどうであれ、人はある程度自分の個人情報の管理と自律を与えられるだろう。というのも、自分の情報を、現在アクセス可能な検索エンジンのデータベースからのぞくかどうか選ぶことができるからである。もちろん、もし検索エンジンを通して個人情報にアクセスすることが制限されないという方針ができたとしても、自分の情報を、アクセス可能な検索エンジンのデータベースから取り除き、将来も含まれないようにリクエストするのは、その人自身の責任(義務)になるだろう。

上述の提案は明らかに、いくつかの重要な解く必要がある細かい点についてあいまいである。しかしながら私は、ムーアのアクセス制限のプライバシー理論は、元来の個人プライバシーにおいて価値ある洞察を与えてくれることに加えて、プライバシーと新科学技術に関連する方針を作るのに価値ある手順を与えてくれる、と信じている。次に我々は、検索エンジンを取り巻くプライバシー問題を解決するために、この手順の細かい(詳細な)点を理解しなければならない。

この論文の主要目的は、インターネット上での検索エンジンの使用のすごくよくできた方針の詳しい説明を明瞭に表現することでもなければ、前に考えた三つの主要な問題のそれぞれに決定的な答えを与えることでもなかった。その代わり、そのねらいは、さらなる議論を通して、かなり新しいインターネットに関する技術---すなわち検索エンジン---の使用から生ずると思われる個人のプライバシーに関する問題を提起することであった。


(井上真吾)
目次に戻る