ライオン、AWSの支援で独自LLM開発 熟練技術者の暗黙知を継承

2025年10月8日21:05|ニュースCaseHUB.News編集部
x
hatebu

 ライオンは、熟練技術者の退職によって失われつつある「暗黙知」の継承などを目的に、独自の大規模言語モデル(LLM)「LION LLM」の開発に着手したと発表した。開発にあたってはアマゾン ウェブ サービス ジャパン(AWSジャパン)の支援を受ける。長年にわたる社内の研究開発データを学習させることで、専門領域の高度な質問にも対応できるようにする。知識資産の活用を最大化し、競争優位性の向上を目指す。

 ライオンでは、長年の経験で培われた熟練技術者の暗黙知が退職により失われつつあることが大きな課題となっていた。同社はその対策として2022年から生成AIの活用を進め、2023年12月には研究ナレッジ検索ツールを導入し、情報検索時間を5分の1以下に短縮する成果を上げていた。しかし、専門知識を前提とする高度な質問や、体系的なナレッジ整理を要する複雑な業務への対応には限界があったという。

 そこで同社は2025年4月、AWSジャパンの「生成AI実用化推進プログラム」に参加し、独自のLLM開発に着手した。プログラムを通じてコスト面の支援や技術的な助言を受け、社内に内製開発体制を整備。AWSのオープンソースクラスターツール「AWS ParallelCluster」とNVIDIAの「Megatron-LM」を組み合わせ、多数のGPUを連携させる分散学習基盤を構築した。これにより、「大量のデータを高速にGPUに送り込みながら、学習の処理を並列実行することが可能になった」としている。

 開発する「LION LLM」は、ベースモデルとして「Qwen 2.5-7B」を採用。学習データは、研究報告書や製品組成情報、品質評価データなど、数十年にわたり蓄積してきた社内の知見が中心だ。初期の検証では、過去の知見に基づいた具体的なアドバイスや、複数の事例を統合した回答が可能であることを確認しており、従来の検索ツールと比較して回答の網羅性が大幅に向上したという。

 ライオンは今後、プレゼンテーション形式のファイルなど、これまで扱いにくかったデータの構造化やクリーニングを進め、学習データの拡充と品質向上を図る。また、経済産業省と新エネルギー・産業技術総合開発機構(NEDO)が主導する「GENIAC」で開発された国産モデルの活用も視野に入れ、継続的な精度向上を目指す。将来的には、既存のナレッジ検索ツールと「LION LLM」を統合し、より高度な業務への対応を通じて競争優位性の向上につなげたい考えだ。

ニュースリリース