2023年発表の本書は、テクノロジーを起点に未来の在り方を提唱するフューチャリスト小川和也氏の警鐘。人工知能(AI)とゲノム編集技術が急成長していて、人類社会に危機が訪れているとの内容だ。筆者は人類滅亡を、
・人間による主体的な世界の統治が出来なくなる
・人間が個体数を劇的に減らし、種の保存が出来なくなる
・人類に変わる「ポストヒューマン」が誕生し、彼らが統治役を取って代わる
ことだとして、その直接原因を、地球環境・生態系の激変、制御できない技術の暴走ではないかと危惧している。
AIのシンギュラリティについては、何冊か紹介しているが、それらの主張と大きな違いはない。ゲノム編集については、これまで紹介した書はないが、やはり「なんでも作れてしまう」ために、ヒト自身やその食物などを変容させるリスクが増大していると述べている。最悪の場合、この2つの技術によって人類は滅亡するというのが筆者の主張。
では滅亡しないために、人類はどうすればいいのか。先端科学技術を平和や善のためだけに使うのは、非常に難しいことだ。科学技術だけではなく、社会科学の視点も入れた、倫理的・法的・社会課題解決のアプローチが必要である。強制力という意味で、法律による縛りが求められるが、法律の制定には時間がかかる。
本当に必要なのか弊害の原因と結果についてエビデンスを集めているうちに、技術が想定を超える成長を遂げて規制が後追い、もしくは手遅れになりかねない。そこで「予防原則」を取り入れた議論が必要になる。
法律の前に倫理を確立すれば、リスクは軽減できる。ただその全体的、地球規模のコンセンサスを得る倫理感の確立もまた難しい。ただ筆者は「人工知能とゲノム編集の安全利用」2点に絞った議論なら収斂させられるのではないかという。
・単一の万能AIでなく、限定条件でのAI利用を促進するリスクベースの人工知能制御
・ヒトは自然物であるとする考えから逸脱しない世界規模のゲノム編集ガバナンス
をすべきというのが結論でした。しかし、少なくともAIに関しては、そのような制御が可能な状況にはありません。最悪の場合でも、人類滅亡を回避するには・・・もう少し知恵が必要なようです。