■スポンサードリンク
有罪、とAIは告げた
新規レビューを書く⇒みなさんの感想をお待ちしております!!
有罪、とAIは告げたの評価:
| 書評・レビュー点数毎のグラフです | 平均点4.08pt | ||||||||
■スポンサードリンク
Amazonサイトに投稿されている書評・レビュー一覧です
※以下のAmazon書評・レビューにはネタバレが含まれる場合があります。
未読の方はご注意ください
全2件 1~2 1/1ページ
| ||||
| ||||
|---|---|---|---|---|
| AIが裁判をする時代を描く、という設定に惹かれて読んだ。 でも読み終えて残ったのは、「なぜそこに触れない?」という苛立ちだった。 そもそも裁判官によって結論が変わる。それをおかしいと思わないのか? 「どの裁判官がやっても結論が変わらない」ことを目指すべきではないか? ところがこの作品はそこに全く踏み込まない。 AIによる裁きが「怖い」と感じるのは理解できる。 でも現実の裁判は、果たしてそんなに「公平」なのだろうか? 「裁判官によって量刑がブレる」 「弁護士の力量によって有利不利が変わる」 「金がある人のほうが優秀な弁護士を雇える」 「裁判官にも“当たり外れ”がある」 公平とは何か?「AIがそれをどう担えるか?」という問いに 真正面から取り組む物語が必要だったはずだ。 このテーマ設定でそれをやらないなら、何のためにAIを出したの?とすら思う。 読んでいて特に納得できなかったのは、「自分のコピーをAIにやらせる」という使い方。 いやいや、優秀な裁判官の判断をベースにしたほうが合理的だし出世にも繋がるでしょ? 作中でも裁判官の階級制度(1号・2号など)に言及があったのに、誰も「上位階級の裁判官のロジックを学習させたAIを使おう」とは考えない。 そんなリアリティのない世界観に強く違和感を覚えた。 しかも、物語上のどんでん返しが「検察側のミス」だったことにも拍子抜け。 期待して読んだだけに、ただのがっかりでは済まない。 腹立たしいほど浅い使い方だった。 | ||||
| ||||
|
| ||||
| ||||
|---|---|---|---|---|
| そもそもこの小説に登場する人工知能の学習方法に問題がある。 一人の人間に学習を任せれば偏ったデータを学習させるというリスクは当然考えられる。 だからこそ複数の人の目によって異なる価値観で学習データを選別する必要があるのは自明であり、〈法神〉がたった一人の中国人に学習を委ねていることがそもそもの間違い。複数の日本人の専門家によって学習データを議論させることで偏った学習をするリスクは減らせるはず。 多くの裁判官の判決を人工知能が学ぶことによって、一人の人間では成しえない広範な知識や考え方を身に着けることができ、偏りの少ない考え方、より一般的な判決をすることができることが人工知能の最大のメリットだと思う。 一人の裁判官の考え方をトレースさせることにどんなメリットがあるのか分からない。 時代とともに倫理観が変化することはありうる話であり、それは学習させることで対応できるはずである。 人間も常に学習し続けないといけないのは同じ。 偏った学習をしているのなら再学習をすればいいだけなのに、一度偏った学習をした〈法神〉は欠陥品という考え方をしていることが理解不能。それならこの世のあらゆる人間も人工知能も欠陥品ということになる。 人間が不完全である以上、人間が作っている人工知能も永遠に不完全であることは自明。 不完全性を受け入れられないのなら電子行政システムも使えないし飛行機にも乗れない。 人工知能が全知全能完全無欠でなければならいという前提がそもそもおかしい。 人工知能に判決を委ねるのは無理だとしても、広範な知識を基にした平均的な判決はどうなるのか、という考察の手助けとなる人工知能、というような使い方もあると思う。安全という面で慎重になることは必要だと思うが、常に人間の方が完全な判決ができるという思い込みは捨てるべきだと思う。 | ||||
| ||||
|
■スポンサードリンク
|
|
|
新規レビューを書く⇒みなさんの感想をお待ちしております!!




