AIが「人類を削除したほうが合理的」と判断する日はくるのか?
最大の懸念は、AIが人類を支配したり、滅ぼすことになったりしないかという問題だ。現在、感情を理解するAIの開発も進んでいる。AIが、怒りや悲しみなどマイナスの感情を獲得することに不安はないのだろうか。あるいは「人類を削除したほうが合理的」と判断されてしまったら――。
「高度に進化したAIが何を考えているのかを人間が把握することができなくなることも起こりうるでしょう。だからこそ、AIに最良の“人間性”を受け継がせていく必要があります」(谷崎氏)
博士と危機感を共有してきた米国の実業家、イーロン・マスク氏らを顧問とする研究組織「フューチャー・オブ・ライフ・インスティテュート」は、AI開発における23項目の倫理規定を策定。さらに、マスク氏が設立したAI研究機関「オープンAI」は「人類を脅かすAIが出現した場合、人類を守るためのAIを開発する」としている。博士が繰り返し訴えてきたことがこのような形で受け継がれ、将来、人類の危機を救うことに繋がるのかもしれない。
― ホーキング博士の遺言 人類はあと100年で滅ぶ ―
1
2
この特集の前回記事
【関連キーワードから記事を探す】
「AIに悩みを相談してはいけない人」の特徴。精神科医が警鐘を鳴らす“依存の落とし穴”
“人間よりもAI”にお悩み相談する人が増加中。専門家が明かす、AIに頼りすぎる危険性
体育会系人材は時代遅れになるか? AI時代に求められるアスリート人材の力
6歳の子供でも稼げるAI時代、副業YouTuberが明かす「将来生き残るための4箇条」
’04年にアップルに投資して90倍のリターン!投資家・中島聡氏が誰でもできる「100倍株」の見つけ方を伝授