【ヒット商品のネタ出しの会】 日本経済新聞の記事「<サイエンスNextViews>AI研究第一人者の願い、安全な公共財へ協力を」から
2024/11/12
2024.11.10 日本経済新聞の記事「<サイエンスNextViews>AI研究第一人者の願い、安全な公共財へ協力を」から
AIの急速な性能向上に科学者の理解が追いついていない危惧
コラムの著者 青木慎一氏(日本経済新聞社 編集委員)によれば、2024年のノーベル物理学賞の受賞者、ジョン・ホップフィールド氏(米プリンストン大学名誉教授)とジェフリー・ヒントン氏(カナダ、トロント大学名誉教授)の受賞記者会見は異常だったという。受賞の喜びよりも人工知能(AI)のリスクについて語る場面が目立ったからだという。両氏ともAIの急速な性能向上に不安を隠しきれず、人間が将来支配されるとの予想もでたという。先駆者の2人がAIのリスクを強調するのはなぜだろうか。
○勃興する核技術への科学者の訴えが頓挫した失敗を再度起こすのか
青木氏によれば、リスクや不安の要因は、AIの性能向上が科学者の理解をすでに超えているとの危惧である。AIの動作の大まかな原理はわかっているものの、なぜうまく答えを導き出せるのか、その根拠は何なのかなど未だに不明だからである。
多くの科学者はAIの過大評価だと指摘する人もいる。だが、AIは謎が多く、究明する必要があるとの認識は共通しているという。ここにAIがもつ社会的課題がある。AIの制御法を見つけられなければ、人間の命令に逆らったり、想定外の行動をとる可能性もあり、大惨事を招く恐れがあるという。
さらに危惧すべきは、AI研究や技術開発は世界で10万人といわれる科学者や技術者が携わっているが、安全性に取り組むのは1%にも満たないという。ヒントン氏がこの点でも「多くの若手が安全性に取り組みべきだと」と主張しているという。安全なAIを実現するには多国間協力と国際的な研究機関が必要であると2人は主張している。得られた知を世界で共有していくことが重要である。
この協力の背景に、第2次世界大戦末期の科学者たちによる核技術に対する国際協力の頓挫が蘇ってくるからである。大国の論理で、核技術は核開発競争を煽り、広島・長崎の被爆を回避できなかった。国連が9月にAIのリスクに関する理解や適切な対応を促す専門家パネルの設置を決めた。いまこそ国際ルールなど策定などを進めるべきであろう。🛜🧠🌿☀️🎓💡🛠️🎸♪💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍🇯🇵
コメント