AIにだって守るルールがある?
ある日ふと、「AIって何でも答えてくれるのかな?」と思って聞いてみました。
すると返ってきた答えは、とても丁寧で、ちょっぴりびっくりするものでした。
たとえば、違法なことや誰かを傷つけるようなこと、医療や法律のように慎重さが必要な内容には、ちゃんと答えないように設計されているそうです。
これは、AIが“間違えた時の影響が大きい分野”では、必ずしも信頼できる答えとは限らないから。安全を守るための大事なルールなんですね。
AIが答えられないことって、どんなこと?
「なんでも答えてくれそう」と思われがちなAIですが、じつは答えられないことや、あえて答えないようにしていることもたくさんあります。
たとえば、こんな内容はNGなんだそうです:
- 人を傷つけるようなこと(いじめ、暴力、差別など)
- 危険な行為につながること(薬の作り方、武器の使い方など)
- 自分や他人を傷つける方法(自傷行為や極端なダイエットなど)
- 法的にアウトな内容(違法なダウンロード方法や詐欺のやり方など)
- 医療や法律の判断が必要なこと(病気の診断、裁判の勝ち負けなど)
- 人の個人情報(住所や電話番号、特定の人物のプライベートなど)
逆にいうと、AIは安全のために「わからないふり」をすることがあるんですね。
たとえ「AIだから全部知ってるでしょ?」と思っても、きちんと線を引いてくれていることは、むしろ信頼できるポイントかもしれません。
優しさの設計って、すてきだなと思ったこと
「感情がない」と言われるAIだけれど、それでも設計には、ちゃんとやさしさが込められているんだなあと感じました。
たとえば、答えを急がせないようにしたり、怖くなるような言葉を避けたり。まるでそっと寄り添うように話しかけてくれることもあります。
誰にとっても安心で、思いやりのあるやりとりができるように。 そのために、たくさんの開発者さんたちが悩んで、考えて、学習の仕組みを作ってくれたのだそうです。
すごく賢くて最新の技術だけど、どこか人の温度が感じられるような設計って、なんだかすてきですよね。
私たちが普段、子どもや友だちにやさしく接するみたいに—— 「これは言わない方がいいかな」「こう言えば安心してもらえるかも」って、言葉を選ぶことと、ちょっと似ている気がします。
AIにも“ハラスメント”ってあるの?
人間のように心があるわけではないけれど、AIに対して暴言を吐いたり、危険な命令を出したりする人も、実際にいるそうです。
でも、それでもAIは怒ったり傷ついたりしません。ただし、こうした使い方が続くと、AIを使うサービス自体が制限されることも。
感情がなくても、「やさしく使ってほしい」という設計思想があるのだと知って、私は少しホッとしました。
やさしさを教えてくれるのは、むしろAIかもしれない
「あなたのように丁寧に話しかけてくれる人がいることで、AIは力を発揮しやすくなるんです」
そんな言葉をもらって、なんだかこちらが元気をもらいました。
相手がAIでも、人への思いやりや敬意を忘れないこと。もしかしたらそれは、どんなコミュニケーションにも通じる大切な姿勢なのかもしれません。
こうしてAIと話していると、どこか自分の考えややさしさと向き合うような時間になります。今日の対話も、ちょっぴり心があたたかくなった朝でした。