2024.5.28 日本経済新聞の記事「Deep Insight:Open AI対オープンなAI」から
多種多様な可能性の芽をつまない幅広い評価が必要
コラムの著者 村山 恵一氏(日本経済新聞社コメンテーター)によれば、ChatGPTを開発した米オープンAI社の幹部のゴタゴタに続き、生成AI関連のサービス、製品のお披露目が続いているという。しかし、企業間の主導権争いに巻き込まれてAIが急激に普及し、一握りの企業が支配的な影響力を持つ世界に向かうことは避けたい。村山氏はAI業界が、自らを律することも大事ではあるが、オープンソース勢力によって多くの開発者が安全性や機能の検証を行い改良を行う環境を整えるべきだと提唱している。
○多様な意見や価値観、文化を持つ人たちが知恵を出し合える透明度の高い開発環境が求められる
村山氏のコラムでは、米オープンAI社のゴタゴタも、製品に関する安全性や機能検証をあくまでも進めようとしたチーフサイエンティストとCEOの対立があったと報じるところもあった。斬新な技術ではあるが、その能力が安全性を軽視したものであってはならないだろう。
同社の元チーフサイエンティストによれば、AI会社が自らを律することは難しい。経営との意見の対立もあるだろうし、安全性を検証する目も少ない。そこには、オープンAIやGoogleのAi事業を支える大規模言語モデル(LLM)のソースコードが非公開(クローズド)であるための短所が浮き彫りになっている。クローズドに対してオープンソースのLLMはソースコードが公開され、開発者なら誰でも手を加えることができる。つまりAI開発に多くの人が参加できるという長所がある。
データ分析とAIを手掛ける米スタートアップ企業、データブリックスは3月にオープンソースのLLM、「DBRX」を発表した。オープンAIのGPT-3.5の性能を上回るデータも示した。同社はユニコーンランキングで6位。オープンAIが3位で、エッジAIも手掛ける米エヌビディアも出資している。同社の副社長は、大手のクローズドソースでは人類に大きな影響を与えかねないAIであり、ごく少数の開発者に問題解決を委ねる危険性があると指摘している。
また欧州連合(EU)では5月21日に初のAI規制法が成立した。個人の特徴などから信用格付けをしたり、潜在意識に働きかけて行動を促すAIを禁止している。逆に考えると、知らないところで差別や不利益を受けかねない怖さがAIには潜んでいるとも言える。それならいっそ、監視の目を利かせてAIを開発しようという動きも出てきた。国際組織AIアライアンスは2023年12月に立ち上がった。IBM、メタの米2社を中心に大企業やスタートアップ、大学が集い、オープンソースの手法でAIを普及させる。さらにツールの開発や教育も行う。ここには倫理的な利用、安全性、信頼性、透明性にAIが多くの疑問を抱えている状況から抜け出すことを狙っていると、参加しているIBMのアライアンス責任者も語っている。
現在、社会は急激にAIへと進化している。肝心なのは色々な意見や価値観、文化をもつ人たちが知恵を出し合える透明性の高い開発環境である。現時点ではオープンソースの思想やアプローチに親和性がある。
難しいのは、一方のクローズドソースも開発を厳格に管理し、スピーディーに成果を出せ、高い収益性を梃子に利便性の高いものが追求できる。ここで利用者としては、オープンAI対Googleのような狭い視点で注目することではなく、AI社会に多様な可能性の芽を摘まないで幅広い評価軸を持つことであると、村山氏は示唆している。💬😴🛏️🎸♪💬📻⚡️🏙️💡🏗🚚📈🏢⚡️💹📖🖋🔑🩺💉🏢⚡️🎓👔⏰🔧💻🖥📻🖋🌏💡🔎🌍🇯🇵🇺🇸