I want a range life...

エイアイ

AIは何かしたときに責任をとってくれない。たとえばAIの決定に従った設計をしてリリースして障害が起こったとして、それは決定に従うという決定をした俺の責任であり、AIの責任ではないと考えるのが普通だろう。 一番だるいし嫌なのは何かを決定することなのだけど、それをAIに完全に移譲するというのは上記のような構造的問題があり、この点は計算機ではどうしょうもないですよね、となっている。上記を、「AIの責任です」としてもじゃあAIが取る責任って何って話になる。 一方で人間に責任を取らせる、減給なり解雇なり、法律に触れたのなら罰則なりという形になるのだろうけど、それは「責任を取らせ」たことになるのか? それ(=罰則)をすることで周りの人や社会が納得するのでそうしているはずで、本質的に失敗や被害をundoしているわけではない。仕事がなくなったり処罰されて人間が困るのは、究極的には基本的人権があるから(生存権、財産権他)だと考えられるかもしれない。じゃあAIは...AIが何かの責任を取ることはできない? とにかく計算機の知識の範囲ではこの話は語れなくて、勉強が足りぬ。