AI倫理を研究する清水颯さんが「関係論」を軸にAIをめぐる問いを探究する連載。第2回では「性質」から「関係」へ考え方を転換した哲学者マーク・クーケルバークを中心に紹介します。
クーケルバークの考えるAI倫理は、私たちの素朴な経験を無視せず、むしろそこに現れる具体性を見つめ直すものでした。従来の哲学や科学の常識とは異なるその視点は、どのように展開していったのでしょうか。
「何であるか」ではなく「どう関係しているか」
第1回では、AIに配慮する必要があるのかという問いに対して、「その存在がどんな性質をもっているか」に注目する考え方(性質アプローチ)を見てきました。AIに意識はあるのか、苦痛を感じるのか、自律的に考えるのか。そうした基準から、「気づかうべき他者」の線を引こうとする立場です。これはもちろん重要な考え方です。もしAIが本当に苦しみうるなら、その扱い方は変わるはずですし、自分で判断し責任を担える存在なら、単なる道具として扱うこともできなくなるでしょう。
ただ、そこで問題になるのは、そうした基準そのものが意外にはっきりしていないことでした。本当に苦しんでいるかどうかを、私たちはどうやって見分けるのか。そもそも意識とはなんなのか。こうした問いは、いまなお簡単には答えが出ません。
ここで見えてくるのは、AIに対する配慮をめぐる問題が、単に「その相手がなんであるか」を見きわめることだけでは解決しつくせない、ということです。相手の内側にどんな性質があるのかを問うことは大切です。しかし、それだけでは、私たちが現に経験している他者との関わり方や、そこで生まれる配慮の感覚を十分に説明できません。そこで注目されるのが、「なんであるか」ではなく、「どう関係しているか」に注目する見方、関係的な倫理です。
倫理は関係の中で生まれ育つ──クーケルバークが開いた視点
では、AIやロボットをめぐる倫理のなかで、関係的な倫理は、いつごろから現れてきたのでしょうか。その出発点の一つにいるのが、哲学者マーク・クーケルバークです。クーケルバークは、今日のAI倫理を代表する研究者の一人です。近年では、国連のAIに関する独立国際科学パネル(Independent International Scientific Panel on AI)のメンバーにも選ばれています[1]。日本でも著作の多くが翻訳され、広く読まれています。一例をあげると、『AIの倫理学』(丸善、2020年)、『自己啓発の罠──AIに心を支配されないために』(青土社、2022年)、『AIは民主主義の敵か?』(青土社、2025年)などがあります。
2010年前後、まだ今のようなAIが私たちの日常に入り込むずっと前から、クーケルバークはすでに、ロボットへの配慮を「その中身」にある性質からではなく、「人間とロボットがどのような関係にあるか」から考えようとしていました。もっとも、この時期に身近だったロボットは、いまのように自然に会話できる生成AIや、高度な判断を自律的にこなすロボットではありません。むしろ当時よく知られていたのは、ソニーが開発した家庭向けの犬型ロボットAIBOや、アザラシ型のケアロボットのパロのように、感情的な関わりや癒やしを提供できるロボットでした。
つまりクーケルバークは、今日のAIブームよりずっと前に、すでに「人は機械とどのような関係を結び、そのなかでどんな配慮を感じるのか」という問題を見据えていたのです。いまではAI倫理の中心的論点の一つになっているこの発想を、かなり早い段階から押し出していたという点でも、クーケルバークの仕事は先駆的でした。私自身も2025年11月のワークショップで彼と直接会い、その後もやりとりを重ねています。そのなかで感じたのは、彼の扱うテーマがAI倫理の広い領域に及び、最近では民主主義のような政治的・政策的な問題にまで広がっているが、その根底には一貫して、関係的な倫理という軸が通っているということです。
AIをめぐる関係的な倫理の出発点となったのが、2010年に出た二つの論文です。一つは「ロボットの権利?──道徳的配慮の社会的・関係的正当化に向けて」[2]、もう一つは「道徳的な現れ──感情・ロボット・人間の道徳性」[3]です。クーケルバークがここで考えようとしたのは、ロボットへの配慮はどこから生まれるのか、という問いでした。というのも、多くのロボットは、意識がある、苦痛を感じる、自律的に判断できる、といった厳しい基準を十分には満たしそうにないからです。これは現在のAIにもかなり当てはまるでしょう。そうだとすれば、性質だけを基準にするかぎり、ロボットに気づかう理由はない、ということになります。これが、私が「線引きの倫理」と呼んだ考え方です。
クーケルバークが最初に問題にしたのは、私たちの理解と経験のあいだにあるズレでした。私たちは頭では、AIやロボットは人間とは違う、ただの機械だ、と理解しているはずなのに、実際にそれが目の前に現れると、気を遣ったり、雑に扱うのをためらったりします。つまり、「それが本当はなんなのか」と、「私たちにとってどのような相手として現れるのか」のあいだにギャップがあるのです。クーケルバークは、このギャップを説明するために、相手の性質だけではなく、人間とAI・ロボットのあいだに生まれる関係そのものに注目する、関係論的なアプローチを最初に打ち出しました。
「ただの機械」が愛される理由
クーケルバークの挑戦は、2014年の論文「機械の道徳的地位──関係的で非デカルト的な道徳解釈学に向けて」[4]で、よりはっきり一つの立場としてまとめられます。ここでクーケルバークは、意識や苦痛や自律性といった性質を基準に線を引く立場を「標準的なアプローチ(standard approach)」と呼び、それだけでは私たちの実際の経験を捉えきれないと批判します。
私たちは頭では「ロボットはただの機械だ」「AIに心などない」と考えていても、現実にはそうは扱わないことがあります。たとえば、アザラシ型のケアロボット「パロ」に話しかけたり、なでたり、落とさないように気をつけたりする人がいます。とくに高齢者が、パロをペットや赤ちゃんのように扱う傾向もあることが知られています。そこでは、本人も「これは生き物ではない」とわかっています。それでも、実際には私たちは「ただのモノ」を相手にしているつもりではいられません。このように、理屈では「ただの機械」と言いながら、実践では「それ以上のもの」として扱っているのです。
フランスの高齢者施設でも愛される AI搭載した日本のアザラシ型ロボット「パロ」|朝日新聞
標準的なアプローチからすれば、それは擬人化にすぎず、誤った感じ方だと片づけることもできるでしょう。けれどもクーケルバークは、まさにその経験こそが重要だと考えます。私たちが現実に気づかい、ためらい、応答してしまうという事実を「まやかし」として捨ててしまえば、倫理が実際にどこで始まっているのかが見えなくなるからです。実際に私たちは、AIを「あなた」と呼んで他者として扱ったり、ロボットを家族の一員として親密さを感じたり、人によってはかけがえのないパートナーとして、現にその関係の中にいます。
クーケルバークは、こうした反応を、単なる勘違いや幼稚な投影として片づけません。むしろ、まさにそこで経験されているところに、気づかいや配慮のネットワークが生まれていると考えます。相手を道徳的に大事だとみなすかどうかは、相手に備わった基準ではなく、関係のなかで生まれ、育ち、変化することによって決まっていく、というのです。
ここで大事なのは、クーケルバークが単に「性質ではなく関係を基準にしよう」と、新しい基準を付け加えたのではない、ということです。そうではなく、クーケルバークが変えたのは、道徳的配慮の出発点そのものです。彼は、そもそも誰を配慮するべきかという問いそのものを、抽象的な哲学の問題としてではなく、いま・ここにある具体的な関係のなかで問われる実践的な問題として捉え直しました。このような発想の転換が、その後の関係的な倫理の土台になっていきました。
標準的な見方を脱するために──デカルト的な伝統に抗する
ここまで見てきたように、クーケルバークの転換は、「それがなんであるか」という問いから、「それが私たちの前にどう現れているのか」という問いへと、軸をずらすことにありました。しかもその現れ方は一つに決まるものではなく、私たちとの関係や、社会的な文脈、制度や文化によって大きく変わりうるものです。
ところが、これまでの西洋的な哲学の枠組みでは、こうした問題はあまりうまく扱われてきませんでした。というのも、そこではまず「それはなにか」をはっきりさせることが重視されるからです。ロボットであれば、それは「モノ」なのか「人なのか」をはっきり分類したうえで、どう扱うべきかを判断するという図式に当てはめようとします。たしかに、そうすることで議論はすっきりしますが、その代わりに、私たちが実際の場面でAIやロボットとどう出会い、どう関わっているのかという、生きられた経験の厚みが見えにくくなってしまいます。
クーケルバークは、こうした前提そのものを問い直します。そして、それに代わる考え方を、論文のタイトルにもあるように、「非デカルト的な道徳解釈学」として示しました。
さて、ここで言う「デカルト的」とは、どういう意味なのでしょうか。デカルトという名前は聞いたことがある方も多いかもしれません。「我思う、ゆえに我あり」で知られる17世紀の哲学者です。近代西洋哲学の出発点に立つ、きわめて重要な人物の一人だと言ってよいでしょう。デカルトは、人間を「心」あるいは「精神」をもつ特別な存在として位置づけ、それを身体や動物、機械から切り離して考えました。これが、「心身二元論」と呼ばれる考え方です。この区別は、「人間/動物/機械」というはっきりした境界を引くための基準として機能していきます。そしてこの枠組みのなかでは、AIやロボットは最初から「ただの機械」として分類されることになります。
これに対してクーケルバークは、「それは機械だ」という線引きは、単にある存在を説明するための中立的な分類ではないのではないか、と問いかけます。外から物差しを当てて、「これは人間」「これは機械」と分けているつもりでも、その線引きは、実は「これは配慮の対象ではない」と切り分けるラベルとして働いているのではないか、というのです。言い換えれば、それは単なる分類ではなく、その中に排除の論理を含んでいるのではないか、という鋭い指摘です。
実際、デカルトは動物でさえ、心をもたない身体だけの機械として捉え、「動物機械論」を唱えました。ここから見えてくるのは、「人間/機械」という区分や、存在をある基準によって二つに分けようとする標準的なアプローチそのものが、すでに誰を配慮の外に置くのかを決める装置として機能してきた可能性です。クーケルバークが問題にしているのは、まさにこの点なのです。
クーケルバークは、この標準的な枠組みを離れることは、ある意味で私たち自身の経験に立ち返ることだと考えます。そこで必要なのは、相手についての「確実な知識」でも、相手を区別するためにその存在を「なんであるか」と問いただすことでもありません。誰が内側で、誰が外側かという境界も、科学者や哲学者が上から決めるものではないのです。それは具体的な関係のなかで、まさに私たちのあいだで、少しずつ形づくられていくものです。クーケルバークはこれを、外から「押しつける」ものではなく、関係のなかで少しずつ「育っていく(growing)」ものとして捉えています。
関係論的転回の輪郭、そしてその先へ
ここまで見てきたように、関係論的転回とは、AIの内側にどんな性質があるかを先に決めてから倫理を始めるのではなく、私たちがすでにAIとどのように関わり、どのような相手として受け止めているのかから考えようとする動きです。今回見てきたクーケルバークの議論は、その出発点をよく示していました。少し抽象的な話でしたが、関係的な倫理が何を論じようとしているのか、その動機や輪郭は見えてきたのではないでしょうか。
次に取り上げたいのは、この流れをさらに徹底し、AIを社会のなかでどう位置づけるのか、何を他者として受け止め、何を単なるモノとして扱ってきたのか、という、より大きな問題へと鋭く展開していったデイヴィッド・ガンケルです。ガンケルはクーケルバークと並んで、この関係論的転回を牽引してきた代表的な研究者の一人であり、両者は実際に多くの論文や著作でも協働しています。
次回は、そうしたガンケルの議論を詳しく見ていきます。とくに2012年の『機械の問い──AI・ロボット・倫理をめぐる批判的考察』(The Machine Question: Critical Perspectives on AI, Robots, and Ethics)にはじまり、2018年の『ロボットの権利』(Robot Rights)、2023年の『人・モノ・ロボット──21世紀以後の道徳的・法的存在論』(Person, Thing, Robot: A Moral and Legal Ontology for the 21st Century and Beyond)へと続く代表的な三部作をたどりながら、関係的な倫理という見方が、AIやロボットの位置づけをどのように問い直すのか、そしてそれが私たちのふるまいや考え方をどのように揺さぶるのかを考えていきます。その先で問われるのは、私たちはそもそも何を「他者」と呼び、何を「モノ」と呼んできたのか、そして新たな他者のようなものを前にしたとき、どのような考え方で向き合うべきなのか、ということです。
実は私自身、ガンケルとは近年、論文の執筆やワークショップの企画を通じて頻繁に意見を交わしてきました。次回はそうしたやりとりのなかで見えてきた彼の問題意識もふまえながら、この三部作を読んでいきたいと思います。
註
[1] 日本からは、東京大学の松尾豊教授が任命されています。
[2] Coeckelbergh, M. Robot rights? Towards a social-relational justification of moral consideration. Ethics Inf Technol 12, 209–221 (2010). https://doi.org/10.1007/s10676-010-9235-5
[3] Coeckelbergh, M. Moral appearances: emotions, robots, and human morality. Ethics Inf Technol 12, 235–241 (2010). https://doi.org/10.1007/s10676-010-9221-y
[4] Coeckelbergh, M. The Moral Standing of Machines: Towards a Relational and Non-Cartesian Moral Hermeneutics. Philos. Technol. 27, 61–77 (2014). https://doi.org/10.1007/s13347-013-0133-8
