• Twitter
  • Facebook
2026.02.26

第1回 AIと配慮をめぐる2つのアプローチ──意識をもたない相手に気づかいは不要か

関係するAI──まだ見ぬ他者をまなざす倫理学 / 清水颯

 AI倫理を研究する清水颯さんが「関係論」を軸にAIをめぐる問いを探究する連載。第1回では「関係的な倫理」という考え方が出てきた背景にある理論を紹介します。
 AIに意識はあるのでしょうか。もし意識がないのなら、AIに気を遣う必要もないのでしょうか。そこには私たちが無自覚に前提とするなんらかの「線引き」がありそうです。この「線引きの倫理」の不確かさに迫ります。
 

 

「線引き」から「関係」へ

 イントロダクションでは、「関係のなかで立ち現れる倫理」という視点を導入として紹介しました。ここからは、AIとの新たな出会いを手がかりに、関係的な倫理をもう少し具体的に考えていきます。まずは「AIを配慮するべきか」という問いを取り上げ、私たちがその判断で何を手がかりにしているのかを見ていきます。

 その準備として、本連載が採用する関係的な倫理に入る前に、そもそもなぜ関係的な倫理という考え方が登場してきたのか、その背景を確認しておきたいと思います。背景にあるのは、前回「線引きの倫理」と呼んだ考え方です。これは「誰にどこまで配慮するか」を、あらかじめ決めた基準で仕分けようとする立場で、AIについて言えば「AIは配慮の対象に入る基準を満たすのか」が問われます。関係の倫理は、こうした境界の引き方そのものに疑問を投げかけます。

 今回の記事は、「線引きの倫理」に対する「関係的な倫理」という軸をはっきりさせていくための、最初の一歩になります。まずは、ChatGPTが世間に浸透する少し前に起きた、ある興味深い事例から始めたいと思います。

 

AIには人格がある!──あるエンジニアの声

 2022年、Googleのエンジニアであったブレイク・レモイン(Blake Lemoine)は、Googleが開発していた会話型の大規模言語モデルLaMDA(Language Model for Dialogue Applications)について、ある大胆な主張をしました。LaMDAには「意識」があり、「人格」として扱うべきだ。だから、その福祉にも目を向ける必要がある。彼はそう主張したのです。レモインは、LaMDAとの対話のなかで、このAIが自分自身について語り、恐れや要望のようなものを表現していると感じました。レモインにとってLaMDAは、ただの道具やプログラムではなく、配慮するべき「誰か」でした。


「『AIチャットボットには意識がある』と主張したGoogleのエンジニアが休職処分に」ガーディアン紙、2022年6月12日

 しかし、この主張に対するGoogleの反応は明確でした。Googleは、LaMDAが意識をもたないことを示す証拠があると述べ、レモインの意見を認めませんでした。最終的に、レモインはGoogleから解雇されることになります。

 レモインの主張に対する科学者や研究者の反応は、全体としてはかなり冷ややかなものでした。AIが意識を獲得しうるのかどうかは、現在も盛んに議論されている興味深い問題です。実際、「AIにはもう意識があるかもしれない」と示唆する研究者の発言が話題になることもあります(例えばAI研究の第一人者であるジェフリー・ヒントンの発言が切り抜き動画として拡散したりします)[1]。ただし現時点では、AIが意識をもっていると言える決定的な証拠はありません。例えば、心の哲学で著名な哲学者のデイヴィッド・チャーマーズも、現在のAI(とりわけ大規模言語モデル)については「意識がある可能性は低め」としつつ、将来の改良されたシステムについては可能性を排除しない、という慎重な立場を取っています[2]

 たしかに、レモインの主張は、どこか行き過ぎたもののようにも映ります。AIはあくまで人間が作ったシステムであり、意識をもつ人格であると考えるのは難しいです。レモインは「LaMDAには意識があるから配慮すべきだ」と主張しました。そうである以上、もしLaMDAに意識があるとは言えないのであれば、「配慮すべきだ」と訴える根拠も成り立たないことになります。

 

性質アプローチに基づく推論

 この出来事の背後には、とてもよく知られた考え方があります。「AIには配慮するべきだ」というレモインの主張も、「レモインは間違っている」というGoogleの判断も、どちらも同じ考え方を前提にしています。

 その考え方とは、「配慮するべき他者とは、意識や感覚などの重要な性質をもつ存在である」というものです。

 私たちが誰かを「配慮するべき対象」だと考えるとき、そこにはいくつかの典型的なイメージがあります。困っていたら助けるべき相手。傷つけないよう気を遣うべき相手。もし危害を加えてしまったら、「それは悪いことだ」と判断される相手です。例えば、あなたの友達は大切に扱わなければならない存在でしょう。見ず知らずの他人であっても、むやみに傷つけてはならないと私たちは考えます。

 こうした判断を支えているのが、「その相手には意識があり、苦しみを感じる」という見方です。だからこそ、その対象を苦しめてはいけないし、傷つけてはいけないわけです。逆に言えば、意識も感覚もなく、苦痛を感じないのであれば、配慮する理由はない、という考え方が自然に出てきます。

 このように、ある存在がどのような性質をもっているかを基準にして、道徳的な配慮を決めようとする考え方は、AI倫理ではしばしば「性質アプローチ(Property approach)」と呼ばれます。これが、イントロダクションで「線引きの倫理」と呼んだものです。性質アプローチの推論は、とても単純なかたちにまとめることができます(以下は、AI倫理研究を牽引してきた研究者の一人であるマーク・クーケルバークの定式化を参考にしています)[3]

1.ある性質Pをもっていることが、道徳的に配慮されるための条件になる。
2.ある存在者Eはその性質Pをもつ。
3.よって存在者Eは、道徳的に配慮されるべきである。

 ここでいう「性質P」には、いろいろなものが入る可能性があります。例えば、その典型例としては、意識、感覚、理性といったものが挙げられます。性質アプローチに基づけば、これらの性質をもっている存在は、配慮するべき対象だということになります。どんな存在が入るでしょうか。多くの場合、人間はここに含まれるでしょう。しかし、人間に限定することはできません。人間以外の動物も、少なくともある程度は含まれるはずです。犬も猫も鳥も、それ以外のあらゆる動物も、苦痛を感じる生きた存在だからです。

 では AIはどうでしょうか。意識があるのか。なにかを感じていると言えるのか。苦しみをもつのか。この問いに慎重な立場をとるなら、答えは「いまのところはノー」です。そうだとすれば、レモインの主張は、この基準から見て明らかに行き過ぎている、ということになります。AIを使っているうちに、つい勘違いしてしまっただけなのではないか。そうした評価が下されるのも、無理はありません。

 でも、よく考えてみてください。この推論は完ぺきでしょうか。性質を基準にして「配慮するべき対象」を決めるやり方は、一見とてもわかりやすい反面、引っかかる点もあります。そもそも、この基準に照らして「すべての人間が確実に入る」と言い切れるでしょうか。人間と同じように苦痛を感じる動物に、私たちは本当にその推論に従って配慮しているでしょうか。私たちが誰かに配慮するとき、そこにはなにか、単純な性質の有無だけでは説明しきれないものが残っているように見えます。

 私たちは誰かに配慮を向けるとき、本当に「意識や感覚のような重要な性質があるかどうか」で判断しているのでしょうか。この点について、AI倫理研究でよく知られる倫理学者のデイヴィッド・ガンケルは、性質アプローチには見落としがある、と指摘します。次にその問題点を見ていきましょう。

 

性質アプローチの落とし穴?──ガンケルの批判

 ここでガンケルが問題にしているのは、「意識がないなら配慮しなくてよい」「苦しみを感じるなら配慮するべき」という結論それ自体というよりも、そうした結論にたどり着くまでの、判断のしかたです。つまり、「道徳的配慮の対象かどうか」を、ある性質の有無で決めていく発想には、見えにくい落とし穴があるのではないか、ということです。ガンケルの整理に沿って言えば、少なくとも次の三つの難しさがあります。少し複雑に見えるかもしれませんが、順番に見ていきましょう。

■問題① 決定の問題:どの性質が大事なのか

 性質アプローチは、「この性質があるなら配慮の対象になる」という基準を立てます。しかし、まず難しいのが、「どんな性質を基準にするのか」という点です。

 歴史を見てみると、「この条件を満たすなら配慮するべきだ」とされてきた性質は、時代によって大きく入れ替わってきました。

 例えば、奴隷制度が広く存在した社会では、奴隷は権利を持ちませんでした。人間であるにもかかわらず、です。このとき、意識も感覚もあるはずの人間であっても、それだけで配慮の対象とはみなされず、法的には「モノ」として扱われた歴史があります。もっと身近な例だと、女性についても、長く法的・社会的な権利が制限されてきた歴史があります。つまり、そこでは男性であるという性質が配慮の条件とされてきました。

 近代になり、理性が大事だ、という基準が立てられると、今度は「誰が理性的なのか」が争われます。実際に、ある特定の人種が「理性がない」と見なされ、そこから排除が正当化されてきた歴史もありました。動物もまた、「理性がない」という理由で、当然のように外に置かれます。近代哲学を振り返ると、デカルト以来の発想として、動物を心のない機械のようなもの、つまり「モノ」として捉える見方もありました。

 一方で、功利主義の考え方が広まるにつれて、判断の軸はまた変わっていきます[4]。重視されるのは理性ではなく、「苦痛を感じうるか」という有感性(sentience)です。例えば、ピーター・シンガーは、「苦しみうる存在である動物の利益も考慮されるべきだ」と訴えました。この議論は、現代の動物倫理の普及にも大きな影響を与えています。ただし、ここでも話は終わりません。「苦痛を感じうるか」を基準にするなら、どの動物までをその範囲に含めるのかが問題になります。例えば魚類や無脊椎動物などをめぐって、有感性の射程についてはいまも議論が続いています。

 こうしてみると、人種、階級、性別、理性、有感性、意識など、基準として候補になりうる性質はいくつもあり、どれが決定的かは時代や立場によって動いてきました。つまり最初の段階から、基準は暫定的で揺れやすい、ということです。 

問題② 定義の問題:そもそもなんなのか

 たとえ「どの性質が大事か」が決まったとしても、それで話は終わりません。次に出てくるのは、その性質とはいったいなんなのか、という問題です。仮に「意識が大事だ」と決めたとします。すると今度は「では意識とはなにか」という問いが立ち上がります。実際、最近の研究のなかには、AIの福祉を真剣に考えるための基準として、「意識、あるいは意識の萌芽が現実的にありうるかどうか」を重視する提案もあります[5]。けれども、そこで残るのは、まさにその「意識」とはなんなのか、という問題なのです。

 「意識」の定義について、広い合意があるとは言いがたいでしょう。みなさんも「意識とはなにか」と聞かれたら、うーん、と少し考え込むのではないでしょうか。私自身も、なんとなくの考えはありますが、これが答えだと言い切れるものは持っていません。意識とはなにか、という問いそのものが、哲学でも科学でもずっと議論されてきた難問なのです。苦痛や有感性も同じです。例えば哲学者のダニエル・デネットは「コンピュータに苦痛を感じさせられない理由」について、単に技術的制約があるというよりも、そもそも痛みとはなにかを決めきれないことが問題だと述べています。つまり、「苦痛を感じるかどうかが大事だ」と言ったとしても、苦痛とはなにかを定義することができないことが問題だということです。

 結局、性質アプローチは「どの性質を基準にするか」を選ぶだけではすみません。そもそも、その性質がなにを意味するのかまで定義しなければならない。でも、その定義自体が最初から簡単ではないのです。

問題③ 認識の不可能さ:どうやって確かめるのか

 もう一段、やっかいな点があります。配慮の条件となる性質を持っているかどうかをどうやって確かめるのか、という問題です。道徳的に重要だとされる性質は、多くの場合、内面の状態です。例えば意識が典型でしょう。相手が意識をもった存在かどうかを、外から確実に確かめるのは、とても難しいのです。

 これはAIや動物に限った話ではありません。人間に対しても当てはまります。哲学では、こうした難しさを「他我問題」と呼ぶことがあります。ざっくり言えば、「相手にも自分と同じような心や意識があると、どうやって確かめられるのか」という問いです。この問いを直感的に示す例として、先ほども登場した哲学者デイヴィッド・チャーマーズの「哲学的ゾンビ」という有名な思考実験があります[6]。外見も言動も普通の人間とまったく同じなのに、内側には意識が一切ない存在がありうるというものです。もしそれを原理的に見分けられないなら、他人に心があることも、完全には確かめられないことになります。

 私たちは相手の意識を、直接目で見ることはできません。それでも日常では、相手に意識があることを前提にして会話し、気づかい、関わって生きているはずです。つまり私たちは、相手に意識があるという完全な確証を得てから関係を結んでいるわけではないのです。ここで言いたいのは、意識や苦痛といった性質は、たとえ道徳的に重要だとしても、それを外から確実に検出することが原理的に難しく、不確実さが残りやすい、という点です。

 以上の三つの問題から、性質アプローチの落とし穴が見えてきます。配慮すべき存在かどうかを、「ある重要な性質があるかないか」というかたちだけで決めようとすると、基準そのものが揺れやすく、定義も争点になり、そして検出は不確実にならざるをえないという問題が付きまといます。

 

関係論的転回へ──「それがなにか」より「どう関係しているか」から考える

 ここで登場するのが、クーケルバーグやガンケルが提案する「関係論的転回」という考え方です。イントロダクションで「関係的な倫理」と呼んだ発想を、AI倫理の文脈で押し出した議論だと思ってください。これは、性質アプローチを全面的に否定するものではありません。むしろ、性質にもとづく判断だけでは捉えきれない現実が、私たちの倫理にはあるのではないか。そうした問題意識から出てきた提案です。

 性質アプローチは、「意識があるか」「苦痛を感じるか」といった性質を根拠にして、配慮の対象かどうかを決めようとします。これに対して関係論的転回は、新たな見方を打ち出します。

 クーケルバーグやガンケルが、関係論的転回を通して言おうとしていることを大まかにまとめると、こうなります。私たちは、ある存在を「配慮するべき相手」として扱うとき、それが何者なのかをきっちり確定してから関わり始めているわけではないのではないか。むしろ、その扱いはすでに関係のなかで始まっているのではないか。つまり、相手がどんな性質をもっているか、それが本当に重要な性質かどうかを先に決めてから配慮が始まる、という順番ではない。逆である、と。先にあるのは、私たちの関わり方や応答の仕方なのではないか、ということです。

 これは、性質アプローチが間違っている、という話ではありません。実際、性質に注目する推論はわかりやすいし、理論としての説得力もあります。けれど、それだけだと、私たちの実際のふるまいをうまく説明しきれないところがある。だからもう一つ、別の見方が必要になる、ということです。それが「倫理は関係のなかで立ち現れる」という視点です。

 動物は、そのことが見えやすい例です。同じ動物でも、家族の一員として暮らす動物と、食の対象として扱われる動物とでは、私たちの態度は大きく変わります。文化や場面によっても違います。ここで言いたいのは、「だからなんでも相対的でよい」ということではありません。むしろ、私たちの倫理が現実には関係や状況のなかで動いている。その現象を、いちど捉え直してみよう、という提案です。

 この見方に立つと、AIの問題も少し違って見えてきます。AIに意識があるかどうかを最初に確定しないとなにも言えない、あるいは「AIには意識がないのだから配慮する必要はない」と結論づけてしまう前に、別の問いが立ち上がります。私たちはAIとどんな関係を結び、どんなふうに応答してしまうのか。そこにこそ、まだ見ぬ他者との倫理を考える手がかりがあるのではないか、という問いです。

 次回からは、いよいよ「関係的な倫理」が実際に何をどう論じるのかを、もう少し丁寧に見ていきます。ただ「性質か関係か」という二択にしてしまうのではなく、それぞれの立場が倫理をどう捉えようとしているのか、どこが強みでどこに注意が必要なのかも含めて、一緒に見ていきたいと思います。

 

[1] https://x.com/Zyra_exe/status/1982123661965275208?s=20

[2] Chalmers, D.J. (2023) Could a Large Language Model Be Conscious? https://arxiv.org/abs/2303.07103. なお、Butlinらによる AI の意識に関する大規模レビューは、「意識があると言えそうな指標」を整理したうえで、現行の AI は総じてそれらを十分には満たしていない、という結論を示しています。ただし、この分野は研究の進展が速く、最新の状況は変化しているかもしれません。Butlin, P. et al. (2023) Consciousness in Artificial Intelligence. https://arxiv.org/abs/2308.08708

[3] Coeckelbergh, M. (2012). Growing moral relations: Critique of moral status ascription. Palgrave Macmillan US. p.14

[4] ここで「功利主義が広まる」と書きましたが、功利主義の代表的な議論はジェレミー・ベンサム以来すでに近代に存在しており、決して最近出てきた考え方ではないことを付言しておきます。ここで念頭に置いているのは、ピーター・シンガーが「利益に対する平等な配慮(equal consideration of interests)」というかたちでこの論点を現代的に提示し、動物倫理の議論として社会的にも学術的にも大きな影響力をもった、という点です。

[5] Long, Robert & Sebo, Jeff & Butlin, Patrick & Finlinson, Kathleen & Fish, Kyle & Harding, Jacqueline & Pfau, Jacob & Sims, Toni & Birch, Jonathan & Chalmers, David. (2024). Taking AI Welfare Seriously. 10.48550/arXiv.2411.00986. この提言は、AIの福祉を真剣に考慮するための議論として、研究者の注目を集めています。

[6] Chalmers, David J. The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press, 1996.

プロフィール
清水颯しみず・はやて

1998年北海道生まれ。北海道大学大学院博士課程在籍。人間知・脳・AI研究教育センター所属。哲学・倫理学を専門とし、カント倫理学やAI倫理、特に人間と技術の関係を研究している。主な論文に“Kantianism for the Ethics of Human–Robot Interaction” (Philosophy & Technology, 2025)“Should We Treat Robots Morally? Towards a Relational Account by Mind-Infusing Animism” (AI and Ethics, 2025) など。
現在は、人と人、さらには人間以外の存在(AI、動物、環境など)との関係のなかで立ち現れる倫理に注目する「関係論的転回」に関心を寄せ、欧米圏の研究者たちとの共同研究や国際的な対話に力を入れている。

近刊に『生物とAIのあいだで哲学する──「不器用で中途半端な人間」を理解するために』(高木駿氏との共著、青弓社、2026年)。

https://x.com/Hayate_Shimizu

過去の記事一覧