うーむ
なんか夕飯を食べてから寝てた。出張続きで疲れてる?色々やりたい事もあるが、適宜休んどこ。 といいつつ明日も出かける。
LLM/AI普及の最大の懸念点は、AIに助けてもらうことによりヒトの能力が比較的に向上するが、したところで、その向上した能力で起こしたことの結果の責任を取るのは相変わらずヒトであるというところだ。つまり、本来そのヒトが持っている能力以上のことができてしまうようになる(例えば英語による意思疎通)、その上で、本来自分ができないことにもかかわらず、それついてもその結果の責任を問われてしまうことになる。できないことについてどう責任を取るのか?
ただまあ、責任とは?というところが本来もっと議論されるべきかもしれない(先のボルグで少し考察したが)。めちゃくちゃ社会学分野の話っぽいので素人でわからんな...。
更新に失敗した…
銀座のジャポネに行った。すげー並んだ。そしてこれ、美味いけど、スパゲッティで中華炒め作ってるんだな…。 なので多分キムチとかが美味い説。
渋谷東?のゾーンまで出てrec coffee渋谷店へ。ここまで渋谷から離れると人も少なく道も小綺麗で快適。 薬院のいつもの味。
AIは何かしたときに責任をとってくれない。たとえばAIの決定に従った設計をしてリリースして障害が起こったとして、それは決定に従うという決定をした俺の責任であり、AIの責任ではないと考えるのが普通だろう。 一番だるいし嫌なのは何かを決定することなのだけど、それをAIに完全に移譲するというのは上記のような構造的問題があり、この点は計算機ではどうしょうもないですよね、となっている。上記を、「AIの責任です」としてもじゃあAIが取る責任って何って話になる。 一方で人間に責任を取らせる、減給なり解雇なり、法律に触れたのなら罰則なりという形になるのだろうけど、それは「責任を取らせ」たことになるのか? それ(=罰則)をすることで周りの人や社会が納得するのでそうしているはずで、本質的に失敗や被害をundoしているわけではない。仕事がなくなったり処罰されて人間が困るのは、究極的には基本的人権があるから(生存権、財産権他)だと考えられるかもしれない。じゃあAIは...AIが何かの責任を取ることはできない? とにかく計算機の知識の範囲ではこの話は語れなくて、勉強が足りぬ。