デジタル人材の育成
公開日:2024年5月29日
近年、大規模言語モデル(Large Language Model: LLM)の規模拡大に伴う消費電力の増大と、学習時における計算コストの増大が課題となっている。 本提案では、ネットワークの非線形ダイナミクスを活用する情報処理機構 「リザバーコンピューティング」の知見を活かした言語モデルをソフトウェア上で開発する。開発する言語モデルの性能を機械翻訳等のタスクにおいて確認した上で、次の2つの目標達成を試みる。1点目は、リザバーコンピューティングの知見を活かした言語モデルが、リザバーコンピューティングの要件を満たしていることを示すことである。2点目は、省電力や高速学習という観点からの有用性を示すことである。これらの目標を達成させた後、モデルのFPGA実装を見据えた検討を行う。本取り組みにより、学習や推論時におけるエネルギー消費の大幅な削減を実現し、環境負荷の低減とリアルタイムでの高速処理を両立させることが期待される。事業化に向けてはエッジAI市場への参入を視野に入れ、プロトタイプの開発と評価等を実施する。
リザバー計算と大規模言語モデルに使用されるTransformerの接点を探求する研究開発の提案である。Transformerにリザバー計算の考え方を導入することにより計算量や消費電力の少ない言語モデルを開発し、エッジ計算向けのコンパクトな自然言語処理デバイスを実現するという狙いは新規性が高い。言語処理モデルの軽量化については様々なアプローチが考えられるが、応募者が自然言語処理とリザバー計算モデルの双方の研究開発経験を有していることから、独自の着眼点を活かした研究開発が期待できる。軽量の言語処理モデルを開拓できれば、多くのサービス産業への導入・活用が見込める。
2024年5月29日
2024年度採択プロジェクト概要(中村PJ)を掲載しました。