ITR Review
生成AIの普及拡大の起爆剤となるか
生成AIの中核的技術である大規模言語モデル(LLM)において、昨今、オープンソースとして公開されるモデルが増加している。技術の進化や普及拡大においてオープンソースLLMが果たす役割は大きいと期待されるが、ユーザー企業においてはその活用について留意すべき点がある。
生成AI分野の中でも、ベンダー各社がとりわけ熱い開発競争を繰り広げているLLMだが、昨今、このLLMをオープンソースとして公開するケースが増加している。米スタンフォード大学の人間中心のAI研究所「Human-Centered AI Institute(HAI)」が2024年4月に公開したレポートによれば、2023年中にリリースされたLLMを含む基盤モデルは149種に上るが、そのうちオープンソースとして提供されたものは98種と66%を占めたとされる。これは、2021年の33%(27種中9種)、2022年の44%(72種中32種)と比較しても急速な拡大である。
とりわけ特徴的なのは、AI分野に特化した新興ベンダーだけでなく、大手ITベンダーの中にも、自社開発のLLMをオープンソース化する取り組みが目立つことだ。例えば、Facebookの開発元として知られるMeta社は、独自開発のLLMである「Llama」をいち早くオープンソースとして公開。当初は研究目的での利用に限定していたが、2023年7月にリリースされた「Llama 2」からは商用利用にも対応した。中国Alibaba社の「Qwen」は、日本ではなじみが薄いが、中国語と英語の自然言語処理能力で高いベンチマーク・スコアを叩き出している。2024年に入ってからは、Google社が「Gemma」、IBM社が「Granite」とそれぞれオープンソースのLLMを発表した。国内勢としては、Preferred Networksが2023年9月に日本語と英語のデータセットに特化して学習を施した「PLaMo」をリリースしている(図1)。
ITRでは著作物の利用に関してガイドラインを設けています。 ITRの著作物を「社外利用」される場合は、一部のコンテンツを除き、事前にITRの利用許諾が必要となります。 コンテンツごとに利用条件や出典の記載方法が異なりますので、詳細および申請については『ITR著作物の引用ポリシー』をご確認ください。
このサイトではJavaScriptを使用しています
ご利用になる場合は、ブラウザの設定でJavaScriptを有効にして下さい