レポート・ライブラリ|株式会社アイ・ティ・アール

【R-224084_14551827048】オープンソースLLMの可能性

作成者: 株式会社アイ・ティ・アール|Aug 19, 2024 12:00:00 AM

生成AIの中核的技術である大規模言語モデル(LLM)において、昨今、オープンソースとして公開されるモデルが増加している。技術の進化や普及拡大においてオープンソースLLMが果たす役割は大きいと期待されるが、ユーザー企業においてはその活用について留意すべき点がある。

急増するオープンソース型LLM

生成AI分野の中でも、ベンダー各社がとりわけ熱い開発競争を繰り広げているLLMだが、昨今、このLLMをオープンソースとして公開するケースが増加している。米スタンフォード大学の人間中心のAI研究所「Human-Centered AI Institute(HAI)」が2024年4月に公開したレポートによれば、2023年中にリリースされたLLMを含む基盤モデルは149種に上るが、そのうちオープンソースとして提供されたものは98種と66%を占めたとされる。これは、2021年の33%(27種中9種)、2022年の44%(72種中32種)と比較しても急速な拡大である。

とりわけ特徴的なのは、AI分野に特化した新興ベンダーだけでなく、大手ITベンダーの中にも、自社開発のLLMをオープンソース化する取り組みが目立つことだ。例えば、Facebookの開発元として知られるMeta社は、独自開発のLLMである「Llama」をいち早くオープンソースとして公開。当初は研究目的での利用に限定していたが、2023年7月にリリースされた「Llama 2」からは商用利用にも対応した。中国Alibaba社の「Qwen」は、日本ではなじみが薄いが、中国語と英語の自然言語処理能力で高いベンチマーク・スコアを叩き出している。2024年に入ってからは、Google社が「Gemma」、IBM社が「Granite」とそれぞれオープンソースのLLMを発表した。国内勢としては、Preferred Networksが2023年9月に日本語と英語のデータセットに特化して学習を施した「PLaMo」をリリースしている(図1)。