ロボット倫理:反種差別主義とアンチナタリズムの観点から

ロボット倫理:反種差別主義とアンチナタリズムの観点から



Kei Singleton

Blog version.
First written: 14 July. 2018; last update: 14 July 2018

Abstract

この記事では、現在すでに積極的に意見が交わされているロボットの道徳的地位を巡る議論を、種差別主義と生殖の倫理と関連付けて考察する。ロボットの道徳的地位を巡る議論それ自体が、一般に認識されている以上に現実的かつ重要な問題であることを示すとともに、それを通して考察することで、ヒトでない動物の道徳的地位を尊重すべきであるという議論や、生殖の非倫理性を糾弾するアンチナタリズムの議論もまた、なお一層に重要かつ説得力のあるものであると理解できることを説明する。

Keywords: ロボット倫理、応用倫理学、AI、人工知能、ロボット工学、アニマルライツ、種差別、アンチナタリズム、生殖の倫理

Contents


1 Introduction
2 ロボットの道徳的地位と種差別主義
3 ロボットとアンチナタリズム
4 Conclusion

1 Introduction


 ロボット倫理とは、ロボットの開発や扱いに関わる諸々の倫理的問題を扱う応用倫理学の一分野である。ロボットに対する人間の倫理的振る舞いを扱うという点で、ロボット自身の倫理的振る舞いを扱うマシン倫理と対比される。近年のAIの発展を取り巻く状況を見てもわかるように、ロボットやそれに関連する技術の発展は急速であり、かつその影響は重大である。また、それらに関して開発者自身にも予測不能な面が大きいことから、その開発に携わる倫理的責任もまた極めて重大なものである。その中でも特に重要な問題が、ロボット自身が道徳的地位を獲得した場合、そのような存在を開発および実験に利用することが許されるのかということ、そしてまた、そのような存在を生み出すこと自体が、道徳的に許容されるのかということである。この記事では、これらの問題が決してSFの世界の中だけの空想的な問題ではなく、より多くの人々が真剣に考慮すべき現実的な問題であることを議論する。そしてこれらの問題は手元に逆流し、すでに明確な道徳的地位を持つと議論されているヒトでない動物の利用や、道徳的地位を持つ存在を同意なくこの世に生み出す生殖という行為の倫理性が問い直されることになるということも示す。

 この記事の残りの構成としては、まず続く第二節で、ロボットの道徳的地位を取り巻く議論を紹介し、この議論の現実的な重要性を示す。第三節では、知覚を有するロボットを生み出すべきでない理由を説明し、そこからロボット倫理とアンチナタリズムの接点が自然と浮かび上がることを示す。そしてまた、ロボット倫理を通して考察することにより。あらゆる知覚を持つ存在に関するアンチナタリズムが、なお一層説得力を持つ堅固な倫理的見解であることを議論する。



2 ロボットの道徳的地位と種差別主義


 ロボット倫理の議論において、肯定的にであれ、否定的にであれ、ロボットの 地位を考える際の一つの基準として持ち出されるのが、以下のAsimov によるロ ボット工学三原則

第一条:
 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。

第二条:
 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。

第三条:
 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、 自己をまもらなければならない。[1] 

である。ロボット自身がどのように振舞うべきかというマシン倫理的観点からもこの基準は現実に正当なものとならないことが議論されているし、何より、ロボットが道徳的地位を得た場合、彼らにこの「奴隷」の原則に従わせることは、ロボット自身の利害に照らし合わせて正当なものにならないということも指摘されている。Asimov 自身も、小説"The Bicentennial Man"[2](映画『アンドリューNDR114』の原作)中で、ロボット工学三原則がロボットの倫理の適切な基底であることを否定している。実際、ロボットが自由のために闘い、人間として受け入れられ死んでゆくこの物語は、人間としての地位と自由のために闘ったアフリカ系アメリカ人の歴史を暗示していると言われている。作中では判事のセリフを通してこう語られる:

自由という概念を理解し、その地位を望むことができるほど十分発達した精神を持つものであるなら、それがどんなものであっても、その自由を否定する権利は存在しない。


 ロボットの道徳的地位および法的な保護に関する議論はすでに様々な研究者により、様々な角度から議論されている。ロボットが道徳的配慮を受けるべき存在となるのに必要な性質として挙げられるものは論者によって異なるものの、焦点は概ね、上で言及した自由を享受できる能力を含めた、意識的知覚や知性および自律性、これらの三つの性質に収束している。特に、意識的知覚を持つことが決定的な性質となることには一般的に合意が存在している[3]。そして、ひとたびロボットが意識的利害を持つ存在となった場合、彼らの道徳的地位に平等な配慮を与えないことは、新たな種差別となりうると多くの論者が口をそろえて主張している(例えば[3-6] など)。

 なぜ意識的知覚が道徳的地位の基準となるかということへの答えは自明である。道徳とはそもそも知覚を持つ存在のウェルビーイングに関することであり、まさに意識的知覚に及ぼす影響に基づいて善悪は判断されるからである1。そしてその意識的知覚に及ぼす影響ではなく、人種や性別や種や、そして可能性としては、生物学的進化の産物なのか人工物なのかなどと言った区分けによって対象の 利害を平等に扱わないことが、他ならぬ差別なのである。この点については、動物倫理の議論においても義務論的アプローチと功利主義的アプローチの間に一つの一致が見られる。Francione は、他者に道具として利用されない基本的な権利 を持つのに十分な条件は知覚を持つことであるとしているし、Singer も同様に、利害を享受する能力、すなわち知覚を、平等に配慮されるべき道徳的地位の基盤であるとしている[7]。ヒトでない動物に対する種差別の問題で議論されているように、知性や自律性を基本的な道徳的地位の有無の基準とすることも危険である。例えば知性を基準とした場合2、知的障害者や幼児などは道徳的地位を持たないという結論も導かれうるし、自律性を基準とした場合もまた、何らかの障害によって精神的および身体的な自律性を欠いた人物に道徳的地位が与えられないということになりうる。よって、ロボットや他の何らかの人工的なシステムが知覚を得た場合に、彼らが人工物であるということや、知性や自律性を欠いていることを理由に彼らに平等な配慮をしないとすれば、論理的にはそれは一部の人間に対する差別も許容することに繋がるのである。そしてまた、知覚を持つロボットという現時点では仮定的な存在にも、それが実現した場合に道徳的地位を認めるというのなら、すでにそれらの条件を満たしているヒトでない動物たちの道徳的地位も尊重しなければならないのである。

 動物とロボットの間には相違点もある。しかしこの相違点は、ロボットにとっても、現在利害を不当に扱われている動物たちにとっても有利に作用しうる。現在、動物に対する種差別を正当化しようとするものたちが行う議論は、上で挙げた意識的知覚のような利害関心と直結する性質を持ちながらも、ヒトでない動物にはヒトとは異なる「何か」がある、というものである。この「何か」というものは、その都度中身を変える彼らにとってのワイルドカードのようなものであるが、Calverley が「もしアンドロイドにはなんらかの因子が欠けており、ある因子がある種の要求や地位を持つことへの反論になる場合、その欠けている何かを設計者によって付加されることができる」[5] と述べているように、ロボットには、ワイルドカードの絵柄に応じてそれらの性質の多くを付与することが可能なのである3。そしてCalverley が付け加えるように「ひとたび「動物」から「人間」を区別するそれらの特性が特定されたと仮定したならば、アンドロイドをそのギャップの橋渡しをするようデザインできる可能性もある」のだ。すなわち、Dawkins が種差別主義の問題を縁取るためにたびたび持ち出す、種差別主義者にとって「やっかいな」進化的中間種の仮定的存在[8] よりも、もっとやっかいな人工的な中間種によって橋渡しをされることによって、種差別主義者はあらゆる手立てを失うことになるかもしれないのだ4(ただし、このような存在を現実に生み出すべきではない。その理由は次節で議論する)

 しかし、Singer およびSagan のエッセイ[9] で「我々がこれまで出会ってきたヒトでない知覚を持つ存在――動物――との関係の歴史だけ見てみれば、我々が知覚を持つロボットを単なる所有物としてではなく、配慮に値する道徳的地位と利害を持つ存在とみなすだろうと自信を持って言える根拠はない」と語られているように、ロボットが道徳的地位を持つにふさわしい性質を獲得し、その利害を不当に扱うことを正当化する術がないということが明らかになったとしても、多くの人々がその事実を尊重するとは限らない。Coeckelbergh は

我々は奴隷、女性、そして一部の動物たちの解放を行ってきた。はじめ、奴隷や女性は'men' として扱われていなかった。しかし、我々は 道徳的な進歩をし、今や彼らを人間(human) とみなしている。過去には我々は動物たちを物として扱ってきたが、今では彼らの多くが感 じ考えるということを学んでいる。現在、あるいは近い将来は、知性や意識など、我々が権利の帰属や利害の考慮の基底となると信じる何 らかの性質を人間と共有するという理由で、ある種のロボットに、それにふさわしい地位を与える時なのだろう[6]。

と書いているが、実際には未だ動物の多くは解放されておらず、女性や他人種に向けた差別も根絶されていないことを考えれば、事がスムーズに運ぶと安易に考えることは出来ない。人類の歴史は過ちの繰り返しである。もし我々が今の段階から、ヒトでない動物への差別の問題と並行して、将来可能なあらゆる知覚ある存在に対する配慮の必要性を訴えていかなければ、奴隷が実際に闘って「解放」されたように、冒頭で引用した"The Bicentennial Man"のAndrew と同じく、人工的なシステムたちにもその闘いを強いることになってしまうのかもしれない。これが、ロボットの道徳的地位に関して、単なる空想だと退けることなく、真剣に議論していかなければならない理由である。

 一方で、一般に認識され関心を惹いているロボットやAI に関する倫理的問題と言えば、高度に発達したAI が人類への配慮を示さず、一方的な支配を行うというシナリオである。もしもここで議論した道徳的地位を得るにふさわしい性質を備えたロボットに対し道徳的配慮をする必要がないという態度を通そうとするのなら、彼らもまた、我々に対して配慮を行う必要はないと主張できることになるだろう。考えてみれば、一部の人々が恐れている高度なAI によって利害を尊重されることなく資源のように利用されるというシナリオは、まさに、これまで 人類が他の動物たちに対して行ってきたことそのものであることがわかる。AI による暴走を防ぎ、倫理的な技術の発展と利用を保証するためにはどうすればよいのかということについてのカギを理解したいのであれば、まず自分たちの無自覚な暴力性について自省することから始めるべきなのではないだろうか。

 これまで取り上げてきた議論は、ロボット自身が道徳的地位を得るための内在的性質に関するものであった。しかし、ロボット自身が道徳的配慮に値する性質を備えていなくとも、依然として我々は彼ら(の少なくとも一部)に法的権利与えるべき、あるいは彼らの法的な保護規則を制定すべきだという議論もある。Darling はKant の言葉「動物に対して残酷な人は、人に対しても容赦ない」を引用し[10]、社会性ロボットの扱いが、ヒトや他の動物への関わりにも影響を持つことを理由に、社会性ロボットに他の対象物とは異なる法的扱いが必要である という可能性について論じている。Darling は心理学的文献を引用し、我々人間が社会性ロボットに抱く愛着は、他の対象物に対するものとは著しくことなることを示している。しかしそれでも、この種の人間の利害にのみ基づいて保護規則を要求する議論は、恣意性が大きすぎるという批判が挙がるのを避けられない。この種の議論に対する最も強い反対意見を示しているのがBryson である。彼女は"Robots Should Be Slaves."と題された論文[11] で、Darling の主張とは反対に、我々がどれだけ情を抱こうとも、ロボットを道徳的配慮の必要な存在として扱うべきではないと主張している。ただし彼女は、ロボットがどんな道徳的地位にあっても彼らに配慮すべきではないと主張しているのではない。彼女が主張しているのは、ロボットは我々がどれだけ情を感じようと単なる物であり、彼らへの道徳的配慮はリソースの無駄であるため、ロボットは奴隷、より正確には召使として扱うべきだということである。そして、ロボットが知覚を持ちえたとしても、それは我々がそうプログラムしなければ実現しないことであり、道具としての機能を果たすためにそのような性質をプログラムする必要はないばかりか、さらなるリソースの無駄になるだけであるため、我々はそのようなロボットを生み出すべきでないという。

 このように、将来のロボットの道徳的地位はどうなるのか、というよりも、そもそも道徳的地位を持つようなロボットを生み出すべきでない、という意見も存在する。そして、その理由は我々自身の利害に由来するものだけでなく、生み出されるロボット自身への配慮から来るもの、すなわちロボットのアンチナタリズムとも呼べるような考えから来るものもある。

1では意識を持たない存在に対しては何をしても良いのか、というよくある反論に念のため先回りしておくと、対象自身が道徳的地位を得るのに意識的知覚を持つ必要がある、ということは、意識的知覚を持たないものに対しては何をしても良い、ということを意味しない。例えば植物状態の人間に対する扱いが、親族や社会全体に間接的に悪影響を及ぼしうる可能性などを指摘しておけば十分だろう。この種の議論は後に触れるDarling の主張にも関係する
2多くの場合、その基準とは、その基準を設定しようとするホモ・サピエンスの個体自身の恣意的な感覚に基づくものであり、本来はそれ自体に正当化の手続きが要求されるものである
3実際には、それらの「何か」のどれ一つとして、意識的な利害を持つものを不当に扱うことを正当化する理由にはならないことは言うまでもない
4人工物との統合や遺伝子編集によって動物の能力を向上させるアニマル・エンハンスメントという考えも、ロボット倫理に関係する問題であるがここでは扱わない。その種の技術の倫理的な利用案としては、例えば動物の搾取の問題に目を向けさせることを主眼とした思考実験的な記事であるが http://sciencetime.seesaa.net/article/438874756.html を参照

3 ロボットとアンチナタリズム


 Wallach とAllen は次のような問題を提起している。「もしいつかロボットが痛みや、他の情緒的状態を経験する能力を得たとしたら、そこで生じる疑問は、彼らが人間に危害を加えうる可能性ではなく、それらの人工的システム自身が経験する痛みを理由に考えて、そのようなシステムを作成することは道徳的なことになりうるのか?ということである」[12] そしてGunkel はこの問題提起に沿ってこう述べる。「知覚の存在を実証するためには、痛みを感じるロボットを作成できることが必要になるだろう。しかし、そのようなことを行うこと自体がすでに、非道徳的な行為に関与することになるかもしれない。言い換えれば、ロボットが権利を持つことができるかどうかを実証することは、まさにそれらの権利を侵害することによってのみ可能になるかもしれないのだ」[13]。またGrau は、Bryson同様に、ロボットが同様の作業を遂行するのに意識が必要ないのであれば、敢えて意識をプログラムするべきでないという主張を、ロボット自身の利害を考慮した観点から行っている[14]:

「奴隷」であるということが、我々に仕えるために生み出されるということを意味するのなら、粗暴な事実として、我々が、未来のロボットを含むほとんどの機械を奴隷として作り続けることは間違いないだろう。我々が道徳的に関係する性質(知覚、自律性、あるいは私がこれまでに議論したような実存的な自己のようなもの)を持たない機械を作ってきたことを考えれば、これについて道徳的に間違っていることは何もない。しかしひとたび、道徳的に関連する側面においてヒトに類似したロボットの領域に踏み入ったとしたら、彼らがどう扱れるかということに非常に注意する必要がある。このようなロボットの創造を意図的に避けることは、特に、そのような機械によって実行される作業が、道徳的に関連する特性を持たない機械によっても同じように効果的に実行されるものだと分かった場合は、倫理的なことでもあるだろう。

上で引用した研究者たちは、一般的なアンチナタリズムを意図的に示唆する議論を行っているわけではない。一方で、一般的な倫理的アンチナタリズムの基底となる議論を明確に考慮したうえで、人工意識の開発に倫理的な理由から最も強く反対している人物の一人がMetzinger である5。彼は彼の議論において、意識的な自己を生み出しうるすべてのシステムをエゴ・マシーンと呼び、ヒトであるとかヒト以外の動物であるとか、あるいはロボットのような人工的なシステムであるとかを区別しない[15]。Metzinger は、意識を持つ人工システムを生み出すべきでないことを示すために、次のような思考実験を提案する:

…認識論ではなく、倫理学を目的とする一つの思考実験を考察しよう。あなたが科学研究費の申請書を審査する倫理委員会の一員であると想像してみよう。ある人が次のように言う。

心の発達の遅れた幼児を養育するために、遺伝子技術を使いたい。急を要する科学上の理由で、ある特定の認知的・感情的・知覚的欠陥をもった人間の幼児を作り出す必要がある。これは重要かつ革新的な研究計画であり、この研究では発達の遅れた幼児の生後の心理的発達状況をコントロールされた状況で、再現可能な仕方で調査する必要がある。この研究は私たち自身の心の働きを理解するために重要なだけでなく、精神疾患の治療にも大きに役立つかもしれない。それゆえ、包括的な財政援助が早急に必要なのだ。

このような考えはばかげていて、俗悪なだけでなく危険でもあるとあなたが即座に決定することははっきりしている。…この思考実験の眼目は、まだ生まれてきていない将来の人工的なエゴ・マシーンを擁護してくれる人が今日の倫理委員会にはいないことを気づかせることにある。意識経験や自己性を実現しうる最小限の十分条件を満たす最初の機械は、遺伝的に作り出された、発達の遅れた人間の幼児と同様の状況にいることに気がつくだろう。…初期の段階においては、人工的なエゴ・マシーンの知覚システム、例えば、人工の眼や耳などは正常に作動していないと想定する方が無難である。機械は半ば難聴、半ば盲目であり、世界や世界の中にいる自分自身を知覚する際に何らかの困難に陥ることもあるだろう。この機械が本当の人工的なエゴ・マシーンであったならば、仮説通り、この機械が苦しむこともありうる のだ。

Metzinger はさらに深刻な状況が起こりうる可能性についても言及している

彼らの感情的な苦しみは質的に私たちの苦しみと全く異なっていたり、あるいは私たち作り手が想像することさえできないほど程度が激しかったりするかもしれない。実際、このような機械の第一世代は、ハードウェア上の様々な欠陥や、より高いレベルでの失敗に起因する自己調整の喪失を反映した多くの否定的感情を抱くに違いない。このような否定的感情は意識され、強烈に感じられるのだが、多くの場合、私たちはこういった感情を理解することも、あるいは認識することすらできないかもしれないのだ。

しかしMetzinger いわく、これらの人工的苦しみの問題は、あまりに長い間無視され続けてきた6。そして彼はこの種の状況を回避するためにも、人工的な苦しみを回避するということをロボット倫理の一つの原理とすることを提案している[16]。またTomasik が懸念するのが、地球外への苦しみの拡大であるが[17]、我々が苦しみを考慮しない技術開発や、あるいはそれ自体が苦しみ感じる人工物を生み出すことに強い倫理的ブレーキを持たない場合、これらの際限ない苦しみの拡大が現実に起こり得てしまうのである。

 Calverley は人間との差異はあっても、ロボットに権利を与えるべきであるという文脈で「もし現代の哲学者たち、特に還元的唯物論的見方をするものたちが議論するように、人間も十分複雑な複製法を用いることで完全に複製可能な生物学的基盤の中の電気パルスに過ぎないのであれば、我々が現在従事している純粋な生命の生物的生殖プロセスと、人工授精によりペトリ皿中で行われるもの、そして数学的アルゴリズムを基にしたアンドロイドの誕生を通した発展の結果に何らかの違いがあるだろうか?」[5] と述べているが、この議論はこの節の文脈では逆にたどることも出来る。すなわち、苦痛を感じるロボットを生み出すことに倫理的な問題があるのなら、そもそも我々が現在従事している知覚を持つ存在を生み出す行為、すなわち生殖や他の動物の人為的な繁殖自体が倫理的に許されない行為なのではないか、ということである。

 人工意識を生み出すことの倫理性を通して考えることは、より一般のアンチナタリズムの議論の見通しを良くする助けにもなる。上で引用した通り、知覚を持つロボットが経験しうる苦痛を理由にそれらを創造することに倫理的懸念や反対を示す意見はあれど、それらが経験しうる快を理由にそれらを創造すべきであるという意見は当然見られない。これは、Benatar が非対称性の議論[18] で説明する、幸福な存在を生み出す倫理的義務はないが、不幸な存在を生み出さないようにする倫理的義務はあるという認識や、苦痛を経験する存在として生み出されることは危害を被ることになるが、快を経験する存在として生み出されないことによって、その快を奪われることになるとか、危害を被るということにはらないといった認識が当たり前に共有されているという事実を顕わにしている。そしてこれらの認識を認める限り、自然とあらゆる知覚を持つ存在を生み出すことは間違いであるという結論が導かれるのである7。一般に知覚を持つロボットを生み出すことへの懸念の基にあるのは、苦痛を感じる存在を我々の都合や社会の発展のために、ある種の奴隷として生み出すことへの罪悪感である。しかし、すでにKantが指摘していた通り、子供を生みだすことも親や他のすでに存在する人間の都合による他者の利用に他ならない8。幸福な未来の実現のため、という聞こえは良くともより直接的な道具的利用を理由にした場合にも、もちろん行っていることは変わらない。

 このように、ロボットに関する倫理を主眼にした場合、通常のアンチナタリズムの議論に不必要な歪みを加える種々のバイアスを回避し、本質的な部分を議論することがより容易になる。苦痛を感じるロボットを生み出すべきでないという主張に対し「あなたは自分の人生がうまく行っていないからそんなことを言うのだろう」とか、「そんな主張をしながら自殺しないあなたは矛盾している」という返しが、全く文脈にそぐわない的外れな主張であることも明らかだろう。前節で議論したように、対象の利害ではない別の道徳的に不適な性質を理由に、対象の利害に平等な配慮をしないのなら、それは差別であり、道徳的に正当化されないことである。ここでの文脈で言えば、苦痛を感じるロボットの利害を理由に、彼らを生み出さないということが倫理的な選択であるということを認めるのなら、道徳的権利の平等性や利害への平等な配慮の原則から、ヒトやヒトでない動物の利害も同様に尊重し、存在を与えないという選択をしなければならないのである。

 第二節で人類の歴史が過ちの繰り返しであることを述べたが、生物全体の歴史を見ても、それは生殖という過ちの繰り返しである。AI の"foom"9が懸念されているが[19]、我々はそれ以上に苦しみの大爆発について懸念するべきなのだ。そしてそれを考慮することができるのであれば、すでに大惨事となっている地球上の苦しみを今以上に悪化させるリスクを負うことではなく、静かな終焉を目指した片づけに取り掛からなければいけないのである。

55Metzinger は、AI 自身に埋め込む倫理理論の問題に関する議論でもアンチナタリズムを取り上げている。慈善的人工知能によるアンチナタリズム(BAAN) についてはTheRealArg ブログ記事  http://therealarg.blogspot.com/2017/11/baan.html 参照
6彼は、人工的な苦しみのみならず、苦しみの問題について専門家によって十分真剣に考慮されてこなかったことを指摘し、この問題の重要性とアプローチについても語っている。それについては、例えば The Return of Consciousness. A New Science on Old Questions Publisher: Axess Publishing AB; 1st edition (2017) に掲載されている彼のエッセイあるいはそれを要約したTheRealArg ブロ グ記事 http://therealarg.blogspot.com/2018/03/blog-post_24.html 参照
7ベネタリアン的非対称性に基づく議論についての基本的な解説は、TheRealArg ブログ記事http://therealarg.blogspot.com/2018/03/HowtoEvaluatetheAsymmetry.html を参照
8Kant の義務論とアンチナタリズムについては、Puls, H. (2016). Kant ’s Justification of Parental Duties. Kantian Review, 21(1), 53-75. あるいはそれを要約したTheRealArg ブログ記事http://therealarg.blogspot.com/2018/03/Kants-Parents-Duty-and-Antinatalism.html 参照
9foom は、こもった爆発音を意味する英単語であるが、AI の問題の文脈においては、単一あるいは少数のの汎用人工知能(AGI: Artificial General Intelligence) が、再帰的な自己改善によって、局 所的に知的な「爆発」を起こし、制御不能なほど急速に発展する様を指す。

4 Conclusion


 ロボットが配慮すべき道徳的地位を得る条件は何か、ということや、そのような存在を生み出すことは許されるのか、という議論は、そのまま人工的なシステムでない我々ヒトを含めた動物にも当てはめることができるということを示した。そして、現在では未だ仮定的な存在である人工的なシステムを考える際には、より身近な存在である動物たちの問題を考える際に障害となる種々のバイアスの一部が生じるのを回避することができ、それによりより公平でクリアな議論が可能となる。そのため、ロボット倫理という分野は、数学や物理学における座標変換の一つの用法のように、バイアスによって邪魔をされやすい一部の倫理的問題を一旦そこに移し、本質的な部分をより見やすくして議論した後に、また身近な状況に移し返すという扱い方も有効となりうるだろう。しかし、何よりロボットの道徳的地位や権利そのものもまた、独立して極めて重要な問題であるということを改めて強調しておきたい。第二節で議論したように、人類の歴史は過ちの繰り返しである。人工意識の創造の見通しがついてから議論を始めても、一部の研究者たちを止めるには遅すぎることになるだろう。またMetzinger が指摘している通り、場合によっては、事前の見通しもなく、急速な発展によって突如実現されるということや、開発者自身が意識の創造に成功していることにも気づかず、多大な苦痛を生じさせながら開発が続けられるということも考えられうる。そういった状況を招かないために、すでに種差別や生殖の問題に意識を持っている人々が、率先してこれらの問題を公に議論していかなければならない。


References


[1] Isaac Asimov. Runaround. i, robot. New York: Bantam Dell, 1950.

[2] Isaac Asimov, Robert Silverberg, and Hugo Timmerman. The bicentennial man. Panther, 1978.

[3] Robert Sparrow. The turing triage test. Ethics and Information Technology, 6(4):203{213, 2004.

[4] Susan Leigh Anderson. Asimov ’s“ three laws of robotics ”and machine metaethics. Ai & Society, 22(4):477-493, 2008.

[5] David J Calverley. Android science and the animal rights movement: are there analogies. In Cognitive sciences society workshop, Stresa, Italy, pages 127-136, 2005.

[6] Mark Coeckelbergh. Robot rights? towards a social-relational justi cation of moral consideration. Ethics and Information Technology, 12(3):209-221, 2010.

[7] Peter Singer. Animal liberation: A new ethic for our treatment of animals. New York: Avon, 1975.

[8] Richard Dawkins. The blind watchmaker: Why the evidence of evolution reveals a universe without design. WW Norton & Company, 1986.

[9] P Singer and A Sagan. When robots have feelings. if, as seems likely, we develop super-intelligent machines, their right will need protection, too. The Guardian, 2009.

[10] Kate Darling, Robot Law, R Calo, M Froomkin, and I Kerr. Extending legal protection to social robots. IEEE Spectrum, 10, 2012.

[11] Joanna J Bryson. Robots should be slaves. Close Engagements with Ar- ti cial Companions: Key social, psychological, ethical and design issues, pages 63-74, 2010.

[12] Wendell Wallach and Colin Allen. Moral machines: Teaching robots right from wrong. Oxford University Press, 2008.

[13] David J Gunkel. The other question: can and should robots have rights? Ethics and Information Technology, 20(2):87-99, 2018.

[14] Christopher Grau. There is no‘ i ’in‘ robot ’: robots and utilitarianism. Machine ethics, pages 451{63, 2011.

[15] トーマスメッツィンガー. 原塑, 鹿野祐介, エゴ・トンネル: 心の科学と「わたし」という謎. 岩波書店, 2015.

[16] Thomas Metzinger. Two principles for robot ethics. Robotik und Gesetzge- bung, pages 247-286, 2013.

[17] Brian Tomasik. Risks of astronomical future suffering. Foun- dational Research Institute (Last update: 26 Aug 2017) http://foundationalresearchorg/publications/risks-of-astronomical-future- suffering/. Accessed August, 28:2017, 2011.

[18] David Benatar. Better Never To Have Been: The Harm Of Coming Into Existence. Oxford University Press, 2008.

[19] Brian Tomasik. Arti cial intelligence and its implications for future suffer- ing. Foundational Research Institute, 2017.



エフィリズム/アンチナタリズムについてのさらなる議論はこちらを、人工意識と道徳の問題については、『人工知能、人工意識と道徳』を参照。

コメント

このブログの人気の投稿

アンチナタリズム入門 ~わかりやすいアンチナタリズムの解説~アンチナタリズムとは何であり、何でないのか

オメラスを去れ

非同一性問題について:危害の定義とアンチナタリズム

Anti-Suffering Anti-Life:アンチ-サファリング アンチ-ライフ

アンチナタリズムの分類