AIと人は、どこまで信頼し合えるのか――高齢化社会で問われるロボットとの新しい関係性

家事や介護、日常のコミュニケーションまで、AIやロボットはすでに私たちの生活に入り込みつつあります。

高齢化が進む日本社会において、それらは「便利な道具」を超え、人の暮らしを支える存在として期待されています。

本インタビューでは、AIと人間の関係性、依存や感情移入、そして責任の所在といった課題について、東京工芸大学の片上大輔先生にお話を伺いました。

AI・ロボットは高齢化社会の支え手へ――生活と介護を広く補完する存在に

LC Asset Design(以下LC)ロボットやAIは、今後どのような形で私たちの生活や仕事に関わってくるのでしょうか。

片上氏:すでに多くのロボットやAIが、私たちの生活や仕事に関わっていると思います。関連分野の研究者の議論を見ていると、今後は家事や介護分野におけるロボット技術の革新が進むと考えられているケースが多いです。

私たちの研究室でも、スマートホームエージェントや介護支援者向けのトレーニングシステムなどを研究しています。そうした意味では、同じ方向性を考えながら研究を進めていると言えると思います。

LC:スマートホームエージェントや介護支援者向けのトレーニングシステムを研究対象にした理由があれば教えてください。

片上氏:最近では、高齢者の独居世帯が増えていて、一人で過ごす時間が増えている状況です。そこでAIエージェントとの会話によって、コミュニケーション不足を一定程度補う役割が期待できるのではないかと考えています。

また、認知症の患者や、在宅で認知症患者を介護する家族介護者も増えてきています。そうした支援に対するニーズは、今後さらに高まっていくと思います。このように、さまざまな場面で生活を支える存在として、AIやロボットが関わってくるのではないかと感じています。

LC:会話不足を補ったり、高齢化社会におけるサポート体制が充実したりすることは望ましいことのように思います。一方で、人がAIに頼りすぎないために、あえて「できないこと」を残すような設計は必要だと思われますか。

片上氏:個人的な意見になりますが、サポート体制が充実することで問題が想定されるのならば対応する必要がありますが、問題が想定されないならば、その必要はあまりないのではないかと思っています。

そのため、問題が想定・顕在化していない時点では対策を講じるのは難しいと思います。仮に問題が起きたとしても、クリティカルなものでなければ、徐々に議論されていくテーマになるのではないでしょうか。

もちろん、技術が発展していく段階では、技術の進展と並行して倫理的な問題について考えていくのが良いと思います。新しい技術開発を進めながら、ELSI(エルシー)と呼ばれる倫理・法律・社会的な問題全般について同時に考えていくという研究スタイルが、最近では一般的です。

LC:進めながら考えていく姿勢が大切なのですね。

片上氏:実際、現時点で特定の機能を制限した方が良いという考えは現時点ではあまり感じておりません。むしろ、懸念点があれば知りたいですし、さまざまな意見を聞きたいという気持ちがあります。

ネガティブな側面を挙げすぎることで、技術の発展が遅れてしまう可能性もあるため、どちらか一方に偏ることなく、両面を意識しながら考えていく必要があると感じています。

ロボットと人間の関係性で、私たちが忘れてはいけないこと

LC:ロボットと人間の関わり合いにおいて、人間側が忘れてはいけないことは何でしょうか。人間同士の関係性と異なる点があれば教えていただきたいです。

片上氏:現時点では、ロボットやAIを一方的に信頼したり、過度に依存したりしないよう、個々人が注意する必要があると感じています。

ただ、これは人間同士の関係でも同じで、よく知らない相手を一方的に信頼したり依存したりすることは危険だと、皆さんも普段から気をつけていることだと思います。そういう意味では、私たち人間はAIについてまだ十分に理解していない、という点が根本的な問題なのかもしれません。

一方で、技術が進歩し、情報の信頼性が高まり、ユーザーがAIと十分なやり取りを重ねて信頼性を構築できた段階では、こうした懸念は大きな問題にならなくなる可能性もあると考えています。

LC:技術の進歩はもちろん、人間側が上手くAIを使いこなすスキルも求められそうですね。

片上氏:そうですね。また、人間にはさまざまな対象を擬人化する傾向があることが知られています。これは「メディア・イクエーション(メディアの等式)」と呼ばれる法則で、ぬいぐるみやバイクに対して感情や意志を感じることもあります。

AIに対しても「ちゃんと考えて行動している」「意志や感情を持っている」と感じたことのある方もいるはずです。たとえ実際のAIの内部構造がそうでなかったとしてもそう思ってしまうことは珍しくないので、その傾向を意識し知っておくことは大切だと思います。

それによって、現時点で考えられるような、少し誤った関係性に陥ることを避けられるのではないでしょうか。

LC:ありがとうございます。人間同士の関係性と異なる点についてはどうでしょうか。

片上氏:現状ではまだ多くの違いがあると考えています。

例えば、人間と同じような感情モデルを備えたロボットやAIについては、これまでもさまざまな説明や発表がありました。感情モデルや認知アーキテクチャを備えた対話システムも開発されていますが、そうしたAIと人間がどのような関係性を築けるのかについては、まだ分からないことが非常に多い状況です。

また、人間同士で「親友」と呼ばれる関係に至るには、何が必要なのかといった研究は、社会心理学などで長く行われてきました。信頼性の構築モデルも提案されていますが、これが人間とAIの間でも成り立つのかどうかは、今後の研究テーマです。

LC:社会心理学では人間同士が関係を築くのにどのようなプロセスがあると言われているのでしょうか。

片上氏:社会心理学のある研究では、人間同士が互いに知り合い、情報交換や自己開示を行い、共通点や違いを認識します。その後、共同活動を行う中で葛藤が生じ、それを乗り越えることで親密性が高まり、強い信頼関係が築かれるとされています。

もしこうしたプロセスが人間同士だけでなく、人間とAIの間でも成り立つのであれば、同様の過程を経て強固な信頼関係を築ける可能性もあると考えています。ただし、現状ではそこまで到達しているわけではなく、あくまで可能性の段階です。

LC:AIが今後人間と信頼関係を築けるようになった場合、AIに感情移入すること自体は良いことなのでしょうか。それとも注意すべきことなのでしょうか。

片上氏:感情移入については、ニュースなどではネガティブな側面が取り上げられることが多い印象があります。感情移入しすぎた結果、問題が生じた、被害が出たといった話が報じられがちですよね。

先ほども述べたように、人間は基本的に擬人化しやすく、無意識のうちに感情移入してしまう傾向があります。人の形をしていなくても、そこに擬人性を感じて感情移入してしまうことは珍しくありません。

それが良いか悪いかは、結果としてどちらの方向に影響が出るかによると思います。依存してしまい、通常の生活に支障が出るのであれば、それは悪い影響が出たケースだと考えられます。一方で、感情移入することで生活が良い方向に変わる可能性も十分にあります。

重要なのは、それをどちらの方向に導けるかです。研究者や開発者の立場としては、感情移入の良い側面がうまく活かされるようなインタラクション設計やデザインを考えることが、重要な研究テーマだと考えています。

感情移入には良い面も悪い面もあるため、それを見極めること、そして作る側は良い方向に向かうよう注意して設計することが大切だと思います。

自律的に判断するAIと「責任」の所在

LC:AIが複数の人間と柔軟に対応するために、倫理的・技術的に最も困難な課題とは何でしょうか。

片上氏:今まさに取り組もうとしても難しいこと、つまりAIがまだ十分にできていない点という意味では、他人への配慮や個別対応が挙げられると思います。

人間にとっては簡単にできるけれど、AIには難しいことの一つが、複数の人間に対して柔軟に対応することです。「柔軟に対応する」という言葉にはさまざまな難しさが含まれていて、例えば「暗黙の了解」のように、人間であれば常識的に分かることが、従来のAIでは難しいという課題がありました。

ただ、最近は生成AIが進展し、LLM(大規模言語モデル)などを活用することで、ある程度柔軟に対応することが技術的に可能になってきていると感じています。この点は研究としても進んでいる部分で、十分に発展している分野だと思いますし、今後さらに発展できるとよいと考えています。

LC:たしかに以前のAIに比べると、自分のニーズに細かく対応してくれるようになった気がします。他に課題はあるのでしょうか?

片上氏:文化的な違いも大きな要素だと思います。

他人への配慮や個別対応といった点は、文化差の影響が大きく、世界的に見ても日本人はこの能力に優れている側面があると感じています。そのため、他人への配慮や個別対応が可能なAIを作ろうとする際、日本の開発者や研究者は比較的有利な環境にいるのではないかと考えています。

私はヒューマン・エージェント・インタラクションという研究分野で研究をしていますが、そうした意味でも、この分野において日本人研究者は積極的に取り組んでいるのではないかと思っています。

LC:ありがとうございます。

今後AIが普及し、家事や生活などに深く関わってくるようになると、AIの「責任」の立ち位置がより大きくなっていくと思います。AIが判断を誤ってしまった場合、その責任は誰が負うべきだとお考えでしょうか。

片上氏:それは本当に倫理的な問題だと思います。よく出てくる例としては、いわゆるトロッコ問題のような話になるのではないでしょうか。

誰の責任なのかという点は、法律的にもかなり議論になってきましたし、自動運転車の事故でも同様の議論が行われてきたと思います。

例えば、自動運転車が事故を起こし、亡くなった方が出た場合に、運転席に座っていた人の責任なのか、それとも自動運転システムを作った会社の責任なのか、といった問題です。このような責任の所在は避けられないテーマだと思いますし、法律が整備されていく中で初めて見えてくる部分も多いと思います。

結局のところ、場合によるとしか答えられない面が大きいです。AIと開発者、そして実際に何が起こったのかをすべて把握したうえで議論する必要があるので、ケースバイケースになるのではないかと思います。正直、答えるのは難しいですね。

LC:倫理的にとても難しい問いで、正しい答えが一つあるわけではないですよね。

片上氏:はい、これは簡単に解決できる問題ではないと思います。

AIは今のところツールというイメージが強いですが、今後さらに自立性を持ち、自ら判断を下すようになると、その責任を誰が負うのかという問題がより顕在化してきます。

任せれば任せるほど、「では責任はどちらが負うのか」という問いが必ず出てきますし、その都度決めていかなくてはならない。AIは今後も進化して自律性が高まっていくので、責任の考え方も時代ごとに変わっていくのではないかと感じています。

LC:トロッコ問題や自動運転の例でも、AIが原因となる事故やトラブルがニュースで取り上げられていますが、責任の所在については依然として議論が続いています。

まだ想像の段階かもしれませんが、AIが普及して事故が起きてから法律が整備されるのか、それとも法律を先に整えたうえでAIや自動運転が普及していくのか、どちらが良いとお考えですか。

片上氏:基本的に、これまでの歴史や社会の流れを見てくると、問題が起きてから法律が整備されるケースが多いと思います。法律はどうしても遅れてやってくる、という印象があります。

私は専門家ではありませんので正確なことは言えませんが、全体的にはそのような流れになるのではないかと感じています。

AIは生活の中で「空気を読む存在」になりつつある

LC:AIは今後、私たち一般人の生活において、どのように関わってくるのでしょうか。

片上氏:現状でもすでに、AIはさまざまな形で私たちの生活に関わっていますが、特に近年の生成AI技術の発展は非常に著しく、仕事の仕方が多くの分野で変わってきていると感じています。

こうした技術が、身体性を持つ物理的な世界とつながりつつあり、家事や介護といった分野を含め、さまざまな領域で応用が広がっていくのではないかと考えています。生成AIの技術と物理的な世界が結びつくことで、できることは飛躍的に増えていくでしょう。

LC:例えば、日常生活を支えてくれるサービスや商品はもう登場しているのでしょうか。

片上氏:一般家庭でも、スマートスピーカーやリモコン、スイッチボットなどを使って、便利な生活空間を作っている方はすでにいらっしゃると思います。

私たちの研究室でも、朝出勤してドアを開けると、AIスピーカーが「おはようございます」と挨拶をして、その日の天気や花粉の状況を教えてくれます。これは学生が設定してくれたものです。

夜になると終バスの時間を、乗り遅れないように10分ほど前に知らせてくれますし、昼になると「お昼休みの時間です」と教えてくれます。さらに、お昼休み(13時から14時)が終わる14時になると「お昼休みはそろそろ終わりです。作業に戻りましょう」と声をかけてくれるんです。

面白いのは、その声がかかると、休んでいた学生たちがパラパラと作業に戻り始めることです。AIスピーカーを導入する前は、お昼休みが終わってもゆっくり過ごしたり遊んだりして、15時や16時になっても戻らないことがありました。それが、この声がけを設定すると、14時になると自然と作業に戻り始めるようになるんです。もちろん全員ではありませんが、確かに変化があります。

LC:先生の声かけで動くのは理解できますが、AIの声でも効果があるのですね。

片上氏:はい、学生たちは、その言葉が自分たちで設定したAIのものだと分かっています。それでも影響を受けて行動する。その様子を見ていて、とても面白いと感じました。

これはAIと私たちの生活との、ひとつの良い関わり方だと思います。教員や上司が言うと角が立つようなことでも、AIが言ってくれると誰も傷つかない。AIを擬人化していることもあり、ある程度の影響力が生まれるのだと思います。感情労働的な部分を支援してくれる使われ方は、今後さらに増えていくのではないでしょうか。

例えば、なかなか終わらない会議で、AIが「そろそろ会議を終わりにしましょう」と促してくれるような使い方も考えられます。そうした活用がもっと広がってもおかしくないと思いますし、良い使い方の一つではないかと感じています。

LC:たしかに、AIと人間の良いところどりができそうですね。

お話していただいた例のように、AIに詳しくなくても接する機会が増えて、今後は生成AIを気軽に使う場面が多くなるのではと思います。一般の人がAIと付き合っていく上で、最低限これだけは知っておいた方がよい、という点があれば教えてください。

片上氏:どうしても開発者目線になってしまうのですが、例えば、対話システムが生成AIとつながっている場合、問いかけ方や話しかけ方次第で、返ってくる答えは大きく変わります。

つまり、よく理解している人はAIと上手くコミュニケーションが取れますが、何を話せばいいのか分からない人は、AIのパフォーマンスを十分に引き出せない、うまく会話ができないと感じてしまうことがあるということです。

そうしたスキルの差は、現時点ではどうしても出てくると思います。将来的には技術の発展によって、影響がなくなる可能性もありますが、今はまだAIの恩恵をうまく受けられる人と、そうでない人に分かれてしまう可能性があります。

よく知っている人がうまく使える、というのは当たり前の話かもしれませんが、何も知らないと「自分の話しかけ方を変えてみよう」とはなかなか思えません。

ただ、そういう仕組みなのだと知っていれば、自分のスキルを上げようとか、話し方を変えてみようと考えるきっかけになると思います。

LCマガジン(当社メディア)では以下のような記事も紹介しています。

目次