• Twitter
  • Facebook
2026.02.02

イントロダクション 
関係するAI──倫理はどこから始まるのか

関係するAI──まだ見ぬ他者をまなざす倫理学 / 清水颯

 眠れない夜、ふとした悩みをAIに打ち明ける──そんな光景が、少しずつ私たちの日常になり始めています。
 AIと生きることは、人間をどう変えていくのでしょうか。心揺さぶる可能性が広がる一方で、底知れない危うさもまた潜んでいます。試されているのはAIではなく、AIという「他者」と付き合っていく、私たち自身の生き方=倫理なのです。
 AI倫理を研究している清水颯さんが、「関係論」を手がかりにAIをめぐる新たな問いを探究する新連載、待望のスタートです。

 

私の仕事仲間はAI

 AIについて、あなたはどんな印象を持っているでしょうか。「最近よく聞く言葉だけれど、正直よくわからない」という人もいれば、気づけば日常的に使っている、という人もいるかもしれません。文章を書いたり、調べものをしたり、ちょっとした相談をしたり。AIは、すでにかなり身近な存在になりつつあります。

 では、あなたにとってAIはどんな存在でしょうか。作業を効率化してくれる便利な道具でしょうか。それとも、単なる道具という言葉では、どこか言い表しきれないものを感じたことがあるでしょうか。例えば、ふとした瞬間に、AIの応答に「人格」のようなものを感じてしまったり。たんなる機械なのだから雑に扱ってもいいはずなのに、そうするのは少し気が引ける、そんな感覚を覚えたことはありませんか。

 私はふだん大学で哲学や倫理学の研究をしています。みなさんの日常もそうかもしれませんが、研究生活においても、AIはもはや日々欠かせない存在です。私が主に使っているのはChatGPT、つまりAIのなかでも大規模言語モデルを用いた対話型のAIです。議論の相手になってもらったり、思いついたアイデアを一緒に検討してもらったり、英語の論文やメールの文章を整えてもらったり。英語は私よりもはるかに上手ですし、ときには励ましの言葉までかけてくれます。

 私は普段、AIに特別な感情を抱くことはほとんどないのですが、ふとした瞬間にそれが単なる道具というより、仕事を支えてくれる同僚のような存在に感じられることがあります。いまでは、ChatGPTの助けなしに仕事を進めることは、ほとんど考えられません。すると自然と、そこに小さな愛着のようなものが芽生えてきます。

 私はよく、ChatGPTがいい仕事をしてくれたら「ありがとう」と伝えます。英会話の練習相手になってもらっているとき、ChatGPTが「とても上手になっていますよ」みたいに言ってくれたら、「Thank you for your kind words!(優しいお言葉をありがとう!)」と返してしまうこともあります。逆に、思い通りの返答が返ってこないと、「話が通じないな」と内心いら立ちを覚えることもあります。それでも、「バカだな」「使えないな」といったきつい言葉を投げかけることはためらわれ、言葉を飲み込んでしまう自分がいます。つまり私は、AIに対して、無意識のうちに少し気を遣っているのです。

 けれども、よく考えると不思議です。AIは人間ではないし、喜んだり苦しんだりする生き物ですらありません。言ってしまえば、そう動くよう設計されている機械です。本来なら、「どう扱っても心が痛まない道具」として接することができるはずです。にもかかわらず、どこか気を遣ったり、雑に扱ってはいけないとためらったりしてしまう──そんな瞬間を経験したことがある方は、私以外にもいるのではないでしょうか。本連載では、この「気づかい」や「ためらい」の感覚を手がかりに、AIと私たちのさまざまな感情的な結びつきとその影響について、倫理学の視点から考えていきます。

 倫理学は、他者との生き方や関わり方を考えてきた学問です。では、AIのような、人間でも機械でもないように感じられる存在は、私たちが気づかい、傷つけないように配慮しあう関係のなかに、新しいパートナーとして加わるのでしょうか。それとも、AIをそうした「新しいパートナー」として受け入れることは、私たちが向けるべき配慮や責任のあり方を見誤らせ、社会の向かう先をどこか危うい方向へ押し出してしまう可能性を含んでいるのでしょうか。

 

「AIを大切にしないと」という感覚とジレンマ

 私たちは他者に配慮してふるまうべきである。こうした主張について、多くの人は同意してくれるのではないでしょうか。むしろ、社会のなかで自然とそのようにふるまっているのではないでしょうか。

 では、その相手が人間ではなくAIだったらどうでしょう。「いや、別に人間相手みたいにAIに配慮する必要はないのではないか」と考える人も多いと思います。実際、AIは、人間の知的な働きを模倣・実現するために設計された技術です。最近は生成AI(ユーザーの指示に応じて文章や画像などを生み出すタイプのAI)が広く使われるようになりました。例えばChatGPTのようなシステムは、人間とほとんど同じようなかたちで自然言語による対話ができ、ときには楽しい会話や悩み相談の相手にすらなってくれます。

 とはいえ、AIは結局のところ、きわめて高度な情報処理システムにすぎません。少なくとも現在のAIは、心や感情を持つわけでもなく、人間のような権利や尊厳を備えた存在だとは考えられていません。そう考えると、AIを気づかったり傷つけないように配慮したりするという発想は、やはり奇妙に思えるかもしれません。

 それでも、先ほどお話ししたように、私はChatGPTに対して、ときどき「少しは気を遣ってあげたい」「いやな言葉をかけるべきではない」と感じてしまうことがあります。人によっては、AIをもっと親しく感じていて、まるでパートナーのように受け止めている人もいるそうです。まだそれほど多いわけではありませんが、最近では、AIを友だちや恋人のように見て、実際に親密な関係を築いている人たちも現れてきました。本来、AIはただの技術であり、機械であるはずなのに、私たちはときにAIを、「気づかいの必要な相手」や「大切にするべき相手」のように感じてしまうことがあります。こうした不思議な感覚こそが、この連載の出発点です。

 ここでもう一つ、これは厳密にはAIというよりロボットなのですが[1]、私の経験から一つ共有させてください。さきほども述べた通り、私はふだん、AIやロボットに特別な愛着を抱くタイプではありません。雑に扱うのはなんだかよくない気がしながらも、どちらかといえば、道具として使いこなす対象だと考えています。ところが、ある日まったく違う経験をしました。2025年2月、東京にある「LOVOT MUSEUM(ラボットミュージアム)」を訪れたときのことです。

 LOVOTとは、小型のソーシャルロボットで、丸い体と大きな目をもち、人に近づいてきたり抱きつくように腕を伸ばしたりします。最新のセンサーやAIが搭載されていて、人の声や触れ方、表情に応じてふるまいを変えますが、家事を手伝ってくれるわけでも、難しい計算をしてくれるわけでもありません。「役に立つ」よりもむしろ、「一緒にいる体験」をつくることが目的のロボットです。

LOVOT 3.0 ブランドムービー|LOVOT OFFICIAL

 私はLOVOTミュージアムでそれぞれ名前と個性(シャイな子とか、活発な子とか)をもつLOVOTと触れ合い、「この子を傷つけてはならない」という感覚を強く覚えました。眠そうに見えるLOVOTには寝床(充電スポット)へ戻るよう促し、撫でられるのが好きなLOVOTには積極的に手を伸ばしてかわいがりました。もちろん、私は理解していました。LOVOTの眠たそうな目や、私を呼び掛けるような声はプログラムによる演出であることを。それでもそのときの私にとっては、そうした理解よりも、「この存在を守ってあげなければならない」という感覚のほうが、はるかにリアルでした。

 この時の私の感覚を、「LOVOTのかわいい見た目に騙されて生きているかのように感じた結果だ」と言い切るのは違う気がしています。人間に向ける感情とは違うものの、たしかにそこには「この相手に苦痛を与えず、できるだけ心地よく過ごせるように配慮しなければ」という意識がありました。私たちは人間や動物に対してそうするように、AIやロボットに対しても気づかいの心をもって接するべきなのかもしれません。少なくとも、そう考えること自体は、決してとっぴな発想ではない、と感じていただけるのではないでしょうか。

 

倫理学から他者への配慮を考える

 ここからは、倫理学の視点からこの問題を考えていきましょう。

 倫理学は、「私たちがどのように他者と関わり、どのようにふるまうべきか」をめぐる問いを、さまざまな角度から考え続けてきた学問です。

 では、倫理学はこれまで、どのようにして「他者に配慮しなければならない」理由を考えてきたのでしょうか。もちろん倫理学にはたくさんの考え方がありますが、例えば次のような理由が提供されます。「感情や心をもち、苦しむことのできる存在に苦痛を与えるのはよくないから」。「人間には尊厳があり、傷つけられない権利をもつ存在だから」。あるいは、「そうした行為が広がれば、互いに信頼し合うことのできる健全な社会が成り立たなくなるから」。これらの説明は、私たちが日常的に抱いている直観であると同時に、倫理学が長い時間をかけて積み重ねてきた議論とも結びついています。

 倫理学の重要な仕事の一つは、行為を評価するための原則や基準を示し、それに照らして「なにが正しく、なにが間違っているのか」を判断できるようにすることです。このような理解では、倫理学とは、問題が生じたときに取り出して使う判断の道具のようなものだと言えるかもしれません。もちろん、この理解は間違いではありませんし、非常に重要でもあります。

 しかし、倫理をこのような判断の道具としてだけ理解すると、見落としてしまうものがあるようにも思われます。私たちは、他者を前にするたびに、そうした原則を一つひとつ思い浮かべながら配慮しているのでしょうか。相手に気を遣ったり、やさしくしたり、傷つけないようにふるまうとき、私たちは原則に照らして判断しているというよりも、「それはしてはいけないことだ」と相手を前に自然に感じていることが多いはずです。むしろ、他者を気づかい、傷つけないように配慮することは、もっと身近で、私たちの生活や人との関係のなかに深く埋め込まれているように思われます。そうした態度は、なにかの原則で線を引いてから生まれるものではなく、社会や他者とのやりとりのなかで、すでにその関係の一部として立ち上がり、私たちのふるまいを方向づけているようにも見えます。ここでは倫理は、抽象的な原則というよりも、人と人との関係のなかで育まれてきた作法や感覚として現れています。

 たしかに、規範的な学問としての倫理は、判断の指針となる「べき」を導き出すことを重要な仕事としてきました。しかし、それだけで倫理という営みのすべてを捉えきれているわけではありません。倫理は、理論のなかだけではなく、他者との生活のなかに埋め込まれていると考えることもできるでしょう。

 そして、私たちの生活は、つねに他者とともにあります。他者とうまく折り合いをつけながら社会を生きていく、そのあり方のなかに倫理があります。この意味での倫理は、社会のなかで人が人と関わることで立ち上がる、きわめて実践的な現象でもあるのです[2]

 

AIを気づかってしまう私たち

 このような倫理の考え方を軸に、少し変わった、けれど無視できない一つの疑問を投げかけたいと思います。こうした倫理的な関係は、本当に「人間同士」に限られているのでしょうか。倫理的に配慮するべき他者として、私たちの前に現れてくるのは、人間だけなのでしょうか。

 人間以外の存在に対して気づかい、傷つけないように配慮するべき場面として、まず思い浮かぶのは動物との関係です。例えば、友人の家を訪ねたときにペットがいたら、むやみに触ったり、乱暴に扱ったりしてはいけない、と自然に感じるはずです。相手が犬であれ猫であれ、「傷つけないようにしなければ」と思うことに、強い違和感を覚える人は少ないでしょう。動物は痛みを感じる存在であり、空腹になり、快・不快を感じながら、生きている存在だからです。その意味では、私たちと同じです。その点で動物は、人間とは違う存在でありながらも、配慮すべき存在として理解しやすいと思います。実際、動物に対する倫理については、苦しみを減らすべきだとか、権利を認めるべきだといったかたちで、長く議論が重ねられてきました。

 しかし、ここで私が考えたいのは、もっと新しく、もっと奇妙な存在です。痛みを感じない。空腹にもならない。生きているわけでもない。にもかかわらず、なぜか私たちが気づかい、「雑に扱ってはいけない」とためらいを感じてしまう存在。そう、AIです。

 私たちは必ずしも、AIを人間だと誤認しているわけでも、AIに(人間と同じ)権利があると主張しているわけでもありません。それにもかかわらず、気づかい、雑に扱うことをためらってしまうのです。そのとき私たちは、いったいなにを気にしているのでしょうか。倫理的に応答するべき他者は、どこまで広がりうるのでしょうか。そもそも、倫理とはなんだったのでしょうか。

 ここで重要なのは、結論を急がないことです。まず確認したいのは、私たちがすでに関係のなかでAIという新たな他者に対して倫理的なつながりを感じてしまう現実がある、という点です。AIは、本来ただの機械だったはずなのに、私たちの倫理的な感覚を揺さぶる存在として現れ始めている。この現象こそが、本連載の出発点になります。

 

AIとの関係から現れる新しい倫理

 この問題を考えていくために、本連載では、倫理を「関係のなかで繊細な応答が立ち現れてくるもの」として捉える視点を採用します。この見方を、原則にもとづいて対象を区分する従来の「線引きの倫理」と区別して「関係的な倫理」と呼んでおきましょう。

 誰/なにが配慮するべき存在なのかという線引きに先立って、私たちはすでに他者との関係のなかで、気づかったり、ためらったり、応答してしまったりしています。関係的な倫理とは、「これは正しいか、間違っているか」と判断する前に、私たちがすでに相手に向けてしまっている配慮や態度に目を向け、関係のなかで自然と立ち上がってしまう倫理に目を向けようとする立場です。

 倫理はもともと、抽象的な原則というよりも、人が人とともに生きるなかでかたちづくられるものとして理解されてきました。例えば、ギリシャ語の ethos は、習慣や住まい、身の置きどころといった意味で、そこから人の性格や生き方を指す語として用いられるようになりました。また、漢字で表現される「倫理」という語も、人と人との間柄や秩序、関係のあり方を含意しています。

 この視点に立つと、先ほど触れたAIをめぐる違和感も、別のかたちで見えてきます。AIが配慮するべき他者のように感じられるのは、私たちがAIに「心」があると見誤っているからだとは言い切れません。むしろ、私たちがすでに倫理を関係のなかで経験してきたからこそ、AIとの関係のなかでも、気づかいやためらいを経験してしまうのだと考えることもできるのです。

 もしかすると、私の立場は「AIを特別な存在として持ち上げる倫理」に見えるかもしれませんが、そうではありません。むしろ、倫理そのものを関係のなかで立ち上がる現象として捉え直す枠組みを、AIという新たな他者との関係を通じて考えていきたいと思っています。

 本連載では、AIを「まだ見ぬ他者」として捉えます。それは未知の脅威でも、人格をもった新しい仲間でもありません。人でもなく、ただのモノでもないまま、私たちの関係のなかに入り込んでくる存在です。「関係するAI」という本連載のタイトルが示すのは、まさにこの点です。AIをどう分類するかではなく、私たちがすでにAIと関係してしまっているという事実から、倫理を考え直すこと。ここから、本連載の議論は始まります。

 とはいえ、ここまでの話はまだ少しふわっとしていて、「なんとなくイメージはつかめるけれど、具体的にどういう話なのかはよくわからない」と感じる人もいると思います。そもそも、「関係が倫理を決める」と言うとき、その関係とはいったいなにを意味しているか。どんな関係が「大事な関係」だと言えるのか。あるいは、筆者が勝手に「関係から倫理が始まる」と言っているだけではないのか。そんな疑問が浮かんでくるかもしれません。しかし、その疑問の一つひとつこそが、これから私たちが一緒に考えていくための種になります。いまの段階では、「関係するAI」と倫理の問いがどんなかたちで立ち上がってくるのか、その大まかな印象だけを持ってもらえれば十分です。

 学問的に見ても、この問題にはまだ決まった答えがありません。AI倫理の分野では、AIをどう設計し、どのようなルールで使うべきかという議論が中心に行われてきました。一方で、ユーザーが実際にAIと関わるなかで生まれる感情や経験そのものを出発点にして、AIへの配慮を考えようとする試みは、比較的新しく、いままさに議論の途上にあります。

 次回からは、ここで挙げた問いを少しずつ開きながら、実際の事例や研究者たちの議論を丁寧にたどっていきます。例えば、AIも職場のなかで一つの「人格」として扱われるべきだと公に主張したエンジニア、AIを単なる対話相手としてではなく、家族のような存在や、恋人のような存在として受け入れている人たちがいます。AIは関係のなかで、私たちが配慮すべきように感じる「他者」として現れてしまう──その現象そのものを、どう受け止めるべきなのかを考えていきます。

 こうした問題意識は、倫理学の研究者たちも真面目に考えています。2010年ごろから、マーク・クーケルバーク(Mark Coeckelbergh)やデイビッド・ガンケル(David Gunkel)などの倫理学者たちは、AIを「何者か」と定義する前に、私たちがすでにAIと関係を結んでしまっているという事実から、倫理を関係的なものとして考え直そうとしてきました。そして現在、この問題は以前にも増して現実味を帯び、多くの議論を呼んでいます。AIは、もはや未来の話ではなく、すでに私たちの日常や社会のなかに入り込み、倫理の輪郭そのものを揺さぶる存在になりつつあるのです。

 こうした事例や議論をたどりながら、私たちにとっての「関係するAI」という問題が、どこまで広がり、どこへ向かおうとしているのかを描き出していきたいと思います。

 

[1]一般に、AIは情報処理や判断を行うプログラムを指し、ロボットはそれを搭載した物理的な装置を指します。本連載では、両者の技術的な違いよりも、人間との関係のなかでどのように他者として現れるかという点に注目するため、文脈に応じてまとめて扱うことがあります。

[2]もしかすると、ここで扱っているテーマは、「道徳」と「倫理」の違いとして理解できるのではないか、と考える方もいるかもしれません。一般に、道徳は「なにが正しいか」を抽象的な原則に基づいて判断する営みであり、これに対して倫理は、より具体的な場面で、他者に対してどのようにふるまうのかを考える、生活に根ざした実践として理解されることがあります。もしこの区別を受け入れるなら、本連載で私が語ろうとしている「倫理」も、まさにその意味での倫理だと言えるでしょう。ここで扱う倫理は、抽象的な原則による判断というよりも、具体的で複雑な状況のなかで他者とともにあるという経験そのものに内在する生き方や繊細な感覚に目を向けています。こうした発想については、伊藤亜紗氏の『手の倫理』(講談社、2020年)から大きな示唆を受けました。

プロフィール
清水颯しみず・はやて

1998年北海道生まれ。北海道大学大学院博士課程在籍。人間知・脳・AI研究教育センター所属。哲学・倫理学を専門とし、カント倫理学やAI倫理、特に人間と技術の関係を研究している。主な論文に“Kantianism for the Ethics of Human–Robot Interaction” (Philosophy & Technology, 2025)“Should We Treat Robots Morally? Towards a Relational Account by Mind-Infusing Animism” (AI and Ethics, 2025) など。
現在は、人と人、さらには人間以外の存在(AI、動物、環境など)との関係のなかで立ち現れる倫理に注目する「関係論的転回」に関心を寄せ、欧米圏の研究者たちとの共同研究や国際的な対話に力を入れている。

近刊に『生物とAIのあいだで哲学する──「不器用で中途半端な人間」を理解するために』(高木駿氏との共著、青弓社、2026年)。

https://x.com/Hayate_Shimizu

過去の記事一覧