サム・アルトマンCEOの来日に見る、『ChatGPT』を開発したOpenAIの“過去・現在・未来”

アメリカより好意的だが中国ほどではない

 ところで、アルトマンCEOはなぜ“来日を選んだ”のだろうか。この疑問に対しては、OpenAIのシェイン・グウ(Shane Gu)日本担当幹部が日本メディアの取材で答えている。同幹部いわく、「日本はドラえもんなどの文化的影響により諸外国よりAIに好意的」であることが来日の決め手になったという。

「ChatGPT」日本での事業に力を入れる理由 オープンAI社幹部「人工知能に好意的」|TBS NEWS DIG

 日本を含めた世界各国のAIに対する感情については、スタンフォード大学が毎年発表しているAIに関するレポート「AI Index Report」の2023年度版で詳しく論じられている。同レポートの第8章「公衆の意見」では、世界各国の国民が抱くAIに対する感情が多角的に調査されている。その調査のなかには「AIを使った製品とサービスには欠点よりも恩恵がある」という質問に対して、各国民が「そう思う」と答えた割合をまとめたものがある。

〈出典:AI Index Report 2023「CHAPTER 8:Public Opinion」〉

 以上の質問に対して「そう思う」と答えた日本人は42%であるのに対して、アメリカ人は35%であった。ほかのG7各国の調査結果を割合の多い順に並べると、イタリアが50%、イギリスが38%、ドイツが37%、カナダが33%、フランスが31%であった。もっともAIを好意的にとらえているのは中国で、その割合は78%にものぼる。ほかのアジア諸国はインドが71%、マレーシアが65%、韓国が62%と、いずれも日本より好意的な結果となった。この調査結果より日本は「G7諸国のなかではAIに好意的ではあるが、世界各国と比べるとそれほどAIを好ましく思っていない」ということがわかる。

 「AI Index Report 2023」に見られるように、アメリカはAIに対して否定的な傾向にある。『GPT-4』がリリースされた約1週間後の2023年3月22日、同国のペンシルバニア州に拠点を置く研究機関「FLI」(Future of Life Institute:直訳で生命の未来研究所)は「巨大AI実験の停止に関する公開書簡」を発表した。この書簡は、大規模AIモデルがもつ社会への影響力を鑑みて、『GPT-4』より強力なAIの訓練を少なくとも6カ月間停止することを要請したものだ。この公開書簡は2023年5月2日時点で27,565名が署名しており、そのなかにはイーロン・マスク氏も名前を連ねている。

〈出典:FLI「Pause Giant AI Experiments: An Open Letter」〉

 世界全体が必ずしもAIに好意的でないなか、OpenAIとしては「G7諸国のなかでは比較的AIに好意的な日本にぜひとも好印象を抱いてもらいたい」という思惑があり、それが今回のアルトマンCEOの来日という結果につながったのだろう。

スケーリング則の終焉? モデルサイズ競争とは異なったアプローチを模索するAI開発業界

 アルトマンCEO来日と同じか、それ以上に関心の的となっている話題として、“OpenAIは今後どのようなAIを開発するのだろうか”という疑問があるだろう。

 近年のAIモデルはAIの擬似的な脳神経細胞の数を表す「モデルサイズ」、これを増やす方向で進化してきた。こうした開発方針・手法は「スケーリング則」と呼ばれ、OpenAIやGoogleはモデルサイズをめぐってしのぎを削ってきた。しかし、今後もこうした開発競争が続くのだろうか。より効率のいいアプローチがほかに無いのだろうか。この疑問に対するヒントは、2023年4月19日にWIRED.jpが公開した記事にある。

 WIRED.jpの記事によれば、4月13日にアメリカ・マサチューセッツ工科大学で開催されたイベントでアルトマンCEOはOpenAIの今後のAI開発方針について「巨大なモデルを用いる時代は終わりつつあると思います」と語った。この発言は、同社はもはやスケーリング則にしたがってAIを開発しない、とも解釈できるものだ。一方で、新しい開発方針については「ほかの方法でモデルを改善することになるでしょう」と述べるにとどまった。

〈出典:WIRED.jp「OpenAIのCEO、「巨大AIモデルを用いる時代は終った」と語る」〉

 実のところ、スケーリング則から脱却する研究は2022年頃から盛んにおこなわれている。たとえば、Meta社のAI部門が公開している公式ブログでは同年2月23日、同社のチーフAIサイエンティストを務めるヤン・ルカン(Yann LeCun)氏が提唱する「世界モデル」が紹介された。世界モデルとは、簡単に言えば“常識のあるAI”を開発するアイデアのことである。同氏によれば、AIが人間と同じように常識を理解できれば、「AIの学習データ量を劇的に減らすことができる」という。こうした設計思想にもとづいたAIは、現在のAIと比較することが難しく、その根底が異なるので、スケーリング則が通用しないと考えられる。

〈出典:Meta AI「Yann LeCun on a vision to make AI systems learn and reason like animals and humans」〉

 カナダ・トロント大学所属のジェフリー・ヒントン名誉教授もまた、全く新しいアプローチでスケーリング則から脱却するアイデアを展開している。2023年12月1日にZDNETが報じたところによると、同教授は「ソフトウェアとハードウェアの分離」という現在のコンピュータの基本原理の見直しを提唱しているという。ソフトウェアの状態に応じて“変化するハードウェア”を実現することによって、『ChatGPT』のベースとなっているAIである『GPT-3』が抱える電力消費の課題を改善できるとしている。

 というのも、昨今の最先端AIが抱える問題として、消費電力が大きいことが挙げられ、スタンフォード大の「AI Index Report 2023」の第2章「技術的パフォーマンス」によれば、『GPT-3』の消費電力は1,287MWhにもなる。同レポートで示された2021年における米電力会社の顧客の年間平均電力消費量が10.6MWh(10,632kWh)ということを踏まえれば、その消費量がいかに大きなものであるかおわかりいただけるだろう。同教授のアイデアはこの根本問題を解決する可能性があるのだが、このアイデアにもとづいて開発されたAIもまた、現在の設計思想と著しく異なるのでスケーリング則は適用できないだろう。

〈出典:ZDNET「We will see a completely new type of computer, says AI pioneer Geoff Hinton」〉

〈画像出典:https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report-2023_CHAPTER_2.pdf

 ちなみにこれは余談だが、ジェフリー・ヒントン名誉教授と前出のヤン・ルカン氏、そしてヨシュア・ベンジオ正教授の3人は、今日のAIの基礎技術であるディープラーニングを発明した功績で「計算機科学のノーベル賞」と言われるチューリング賞を2018年に受賞している。

 以上のようにサム・アルトマンCEOの最近の言動をまとめることで、OpenAIの過去・現在・未来を展望できた。この展望からわかるのは、現在こそ『ChatGPT』をはじめとする大規模AIモデルの最盛期であり、より大規模なAIモデルによる画期的な業績は見られないかも知れない、ということだろう。その一方で、大規模AIモデルをプラットフォームとする覇権争いは今後も激化が予想され、この争いにおいてOpenAIは“台風の目”であり続けるだろう。

関連記事