出典 Arthur Kuflik (バーモント大学哲学科)(1999) Computers in control: Rational transfer of authority or irresponsible abdication of autonomy? In Ethics and Information technology,vol.1 No.3 pp.173-184
コンピュータが発達し、今まで人が行っていた仕事を機械が受け持つようになるであ ろう将来、我々はどの程度まで、 責任(responsibility)の委譲・放棄を行う事がで きるのだろうか。一部ではコンピュータの方が人間より優秀であるなら、人間は全面 的にコンピュータに従うべきだというかのような議論もある。それに対してこの論文 でカフリックは、責任の概念を6つに分け、コンピュータが持ちうる責任と人間が決 して放棄する事の出来ない種類の責任を区別し、そして決して放棄してはいけない種 類の責任があると主張する。
現在医療分野などで使われるエキスパートシステムは、補助的なものでしかない。し かしこのシステムが発展するであろう将来、人は専門家を頼るように、その専門に通 じたコンピュータに頼るようになるかもしれない。このようにコンピュータの果たす 役割が「意思決定」にまで広がったとき、そのコンピュータによる支配をどの程度、 どのように受け入れるのが正しいのか?カフリックはその問に答えるために、人間の 自律と責任の概念について再考察する。
まず、導入の「コンピュータが意思決定する」という言葉の意味を明らかにしてお く。コンピュータはプログラムの設計者が定めた意思決定の為の基礎的決定事項にし たがっている。その意味でコンピュータの行う意思決定は二次的、下位のものであ る。よって結果に対する究極的道徳責任があるのは意思決定を行うプログラムを実行 したコンピュータではなく、そのプログラムを作った人間である。
それにもかかわらず「新しい技術がコンピュータに意思決定において更なる責任を負 わせる」(New techonologies are making computers reponsible for more and more decisions) という言い方に違和感を感じないのはなぜだろうか。カフリックは 「責任」という語の多義性が原因であると考え、責任概念を6つの種類に分類し説明 する。
1「因果責任(causal-responsibility)」 結果に最も近い原因 ex.台風の風が木 を倒した
2「機能的役割としての責任(functional-role responsibility) 」 機能をもつシ ステムの中である役割を果たしたという意味での責任 ex.バクテリアが森の循環シ ステムのなかで分解の役割を果たす (1、2は道徳的責任を持つ行為者でなくても成り立つresponsibility)
3「道徳的説明責任(moral accountability responsibility)」道徳的行為者は、人 に何らかの影響をもたらすような行為を行った場合に、その意思決定や振る舞いに対 して単なる説明ではなく、道徳的にもっともな説明や言い訳、また謝罪や訂正を要求 される。そのように、道徳的に応答するように責められること。また、機能としてそ のような応答ができうるならば、機械も道徳的行為者である。
4「栄誉ある責任感(honorific sense of "responsible")」道徳的に応えうる(す なわち、道徳的にもっともな説明をしたり、謝ったりできる)行為者であり、さらに 自分の行動が他に及ぼす影響を適切な道徳的見地から判断できる。そしてその適切な 判断に基づいて行動し、その行為に対して責任感を持っていること。対義語は irresponsible--無責任
5「役割責任(role-responsibility)」ある役割を与えられた人が、その役割におい て求められ、期待されている仕事を果たすようもとめられる事。(2、3の結合であ り、人も機械も含まれる)
6「監督責任(oversight-responsibility)」役割責任の特別な形。仕事を委譲した 相手が正常に働いているかを確認し、場合に応じて適切な処置をとるという監督役割 を果たす事。
この論文で扱うのはコンピュータ科学に属する問い(どれくらい完全なエキスパート システムができるか?)や心の哲学に属する問い(コンピュータは意識を持つか?) ではなく、道徳哲学的な問いである。それは次のようなものになろう。我々はコン ピュータによるコントロールに、どのくらい、どのように、頼るべきか?この問いを 考える時、少なくとも次の二つの道徳的問いが考慮に入れられなければならない。
A コンピュータに意思決定の役割を負わせるかどうか決める際に、何を考慮に入れる のが道徳的に正しいか?(結果の最終的責任はコンピュータではなく人間にあると前 提する)
B コンピュータをコントロールの中枢にすると決定した場合に、そのコンピュータ制 御機構に対する高位の命令権を人間はどの程度保持しておくべきか?
コンピュータは処理速度や持久力などの能力において人間より優れている。その意味 でコンピュータの利点は大きい。しかし一方で、安全性が非常に重要な場面において は、複雑な機械に頼ることは危ういのではないか、という心配がある。大きなソフト のプログラムはテストするのも、エラーを直すのも難しい。また仮にソフトが高い割 合で正常に働くとされてもその安全性について絶対的に信頼がおけるという事にはな らない。そのような問題に対しては二つの対応の仕方がある。
人は自分の間違いをコンピュータの性能を利用する事で、改善したり克服したりでき る。しかしまた、自分の不完全さを自分自身がつくり出した複雑な機械で乗り越えよ うという試みには、限界がある。また、プログラムの基礎となっている人間の経験や 直観とのつながりを失ってしまう程に我々がコンピュータに頼るとしたら、人は適切 な監督を出来なくなり、コンピュータの犯した現実から遊離した誤りさえも正せなく なる。
<結論(1) コンピュータの信頼性・性能の向上は目指されるべきである。しかしどれ ほど信頼出来るものを作ってもその信頼性が人間の限界を超える事はないので、過度 にコンピュータに依存することは危ない>
人の生死や健康にそれほど関わらない仕事の場合や、仕事自体が退屈なものである場 合は、多少信頼性が低くてもコンピュータの制御下で自動装置にその仕事をこなさせ ることは、人間的なやり方である。逆に、仮にコンピュータの方が人より目的を果た す信頼性が高いとしても、コンピュータ化を拒む種類の事柄がある(ex.贈り物:贈 り物の中身だけでなく、贈り主がどれほど贈るという行為に関わったかということも 大切である。そのことは他者に代行してもらうことは出来ない) 人は他者(人でも機械でも)によって代行された生では意味を持って生きられない。 ノージックの経験機械(experience-machine)でもいわれているが、我々は真の活動 と経験から得る満足を非常に重視している。
<結論(2) 他者(人でも機械でも)に自分の代わりに人生を生きてもらう事には限度 がある>
カフリックによると、自立した人とは、「自分の人生の道徳的質の高さを、過度の反 省に陥ることなく評価しながら保つことのできる人」である。また、複雑な社会にお いて、ある一人の人が全ての道徳的事柄への最高の答えを出すことは不可能であるか ら、道徳的自律の理想的実現には「道徳的作業の分業(division of moral labor)」 が必要になる。
そしてカフリックは、この自律した人間という観点を「コンピュータによる意思決 定」の文脈にあてはめる。
「統計的にコンピュータの下す決定の方がより確かだから、人の持っている全ての責 任をコンピュータに譲るべきだ」という言葉が正しく意味するのは「人は道徳的責任 をコンピュータの為に放棄するべきだ」ということである。統計上は人より優秀なコ ンピュータがあっても、それが間違いを犯さない訳ではない。最善の行動から外れる ことはあり得るし、その場合人の適切な介入による修正が必要になる。 次にその介入を分類する。
1の放棄が理性的な選択である場合であっても、2 は保持しなければならない、とカ フリックは言う。
<結論(3) 自律した道徳的行為者(autonomous moral agents)は専門技術に従う が、従うからといって「背後からの監視責任」(background-oversight responsibility) まで放棄することは理性的ではない>
J.Moorは"Are There Dicisions Computers Should Never Make?"という論文のなか で、「コンピュータが人間より優れた意思決定を行うのであれば、人間はコンピュー タに頼るべきである」と主張している。これはカフリックの主張する論点と一見対立 しているように見えるが、カフリックは実際の対立ではないという。
ムーアはコンピュータによる意思決定の範囲が広くなりすぎると、人間性を損なう (dehumanize)と警告している。これはカフリックの結論(2)の部分と主旨は同じ である。またムーアは「コンピュータは人間の基礎的な目的や価値を定める事はでき ないし、すべきではなく、コンピュータの意思決定が問題になる時には、人は継続的 な責任を負う」としている。これは結論(3)の監督責任を放棄すべきでないという 主張と同じであるとカフリックは考えている。
コンピュータによる決定の仕組みが人より優れていようがいまいが、安全を脅かすよ うな間違いをコンピュータが犯したことが明らかな場合に、適切なトレーニングを積 み豊富な知識を持った人がそのシステムに介入出来るよう設計しておくのは理性にか なっている。
人の安全が問題になる時、コンピュータの処理速度や持久力は、人間の道徳的判断力 ・パターン認識力・柔軟性などと一緒に利用されるべきである。「偶発事故が起こっ たが人の介入が適当でないとき」でさえ、人は 「最終的な監督責任」を放棄する事 はできない。その責任を保持出来ないということは、すなわち、自律した道徳的行為 者としての責任を果たす事を断念することに他ならない。
コンピュータが人のコントロールを離れて動き出す未来がSF等では描かれる。その場 合の2パターン
前者はあくまで人の意思に従うスーパー機械である。しかし後者に対しては、我々人 間は何を為すべきか考えねばならない。全ての責任を放棄してコンピュータに任せき るのか、それとも(現在の主人と道具の関係が逆転して)道徳的に正しいコンピュー タの意思に従いそれを実現する為に涙ぐましい努力をするのか。
後者の問題を考えることは人の道徳性(morality) とは何かを考えさせる。道徳的に 適切な人としての我々の役割は、道徳的に完璧な機械に仕えることではない。道徳的 に適切な人の役割とは、自身の人生を正直に、正しく導くために最善のことをなし、 誰もがしているように良心的に生きるよう努力する事なのである。このように、コン ピュータ支配がどこまで受け入れられるかという問いは、我々の考える人間らしい生 がどんなものであるかという哲学的問いを含んでいる。