AIが「人類を削除したほうが合理的」と判断する日はくるのか?
最大の懸念は、AIが人類を支配したり、滅ぼすことになったりしないかという問題だ。現在、感情を理解するAIの開発も進んでいる。AIが、怒りや悲しみなどマイナスの感情を獲得することに不安はないのだろうか。あるいは「人類を削除したほうが合理的」と判断されてしまったら――。
「高度に進化したAIが何を考えているのかを人間が把握することができなくなることも起こりうるでしょう。だからこそ、AIに最良の“人間性”を受け継がせていく必要があります」(谷崎氏)
博士と危機感を共有してきた米国の実業家、イーロン・マスク氏らを顧問とする研究組織「フューチャー・オブ・ライフ・インスティテュート」は、AI開発における23項目の倫理規定を策定。さらに、マスク氏が設立したAI研究機関「オープンAI」は「人類を脅かすAIが出現した場合、人類を守るためのAIを開発する」としている。博士が繰り返し訴えてきたことがこのような形で受け継がれ、将来、人類の危機を救うことに繋がるのかもしれない。
― ホーキング博士の遺言 人類はあと100年で滅ぶ ― 1
2
この特集の前回記事
ハッシュタグ