岡本裕一郎 『人工知能に哲学を教えたら』 2021年9月22日
わたしはamazonをよく利用します。amazonの購買履歴をみると、その時に自分が何に興味を持っていたのかがよくわかります。
2016年くらいでしょうか、哲学や倫理について改めて勉強したいと思っていたのは。
人工知能がどういう意思決定をするかは、どういうデータをインプットするか、どういう意思決定基準を教え込むか次第、
ということは、、
将来、自動運転のレベルがあがったとき、私が自動車を買う時の基準は、色、デザイン、インテリアなどの機能ではなく、「事故が起こりそうなときにどういう挙動をするような設定がされているか」なんだろうと思いました。
運転手である自分を最優先で守る設定なのか、後部座席の子供を守る設定なのか?有名なトロッコ問題のようなケースでどうするのか? 子供と若者とお年寄りの誰を守る挙動をするのか?
事実はわからないのですが、航空機における自動操縦の設計思想についてこんな話をきいたことがあります。
ボーイング社は、瞬間的な緊急回避などコンピューターでは判断できない極限 状態では、パイロットによる制御を優先する設計思想で、エアバス社は 人為的ミスを防止する観点からコンピューターの制御を優先する設計思想であると。
この本では、第一章 「AI vs 正義」の一番最初に、私が感じた課題感を例として挙げています。
当然、その問いに対する唯一の答えを導き出すような本ではありません。
書籍全体の感想ではないですが、読みながら考えたことは、いわゆる世間的に言われる「AIに置き換えられるような仕事」に就いている人は、一時的にはAIに自分の仕事を置き換えられで失業をするかもしれないが、ベーシックインカムによって支えられ、自分が本当にやりたい仕事兼遊びのような事を通じて「幸福感」を得るのではないか。
短期的にはAIに置き換えられない仕事をしている層は、、、
そんな事を考えました。