LGの独自AI「K-EXAONE」が登場:韓国発の強力なモデル
2026年1月25日 (日)
- •LG AI Researchが、2360億パラメータのMoEモデル「K-EXAONE」を公開。オープンウェイトモデルで世界7位を記録した。
- •独自の強化学習「AGAPO」とマルチトークン予測により、推論速度が1.5倍向上。推論能力も大幅に強化されている。
- •26万トークンのコンテキスト長と、高効率な処理を可能にする独自の「SuperBPE」トークナイザーを搭載。
LG AI Researchは、K-EXAONEによってグローバルなLLM市場での主権確保に乗り出した。これは韓国の技術的自立を目指して設計された、国産AIモデルの象徴である。 核となるのはMixture-of-Experts(MoE)アーキテクチャだ。2360億ものパラメータを持ちながら、一度に活性化されるのはわずか10%に過ぎない。これにより、膨大な知能と現実的な計算コストの両立に成功した。さらに、独自の「SuperBPE」トークナイザーが複雑な単語を効率よく圧縮し、データ処理を劇的に高速化させている。 特筆すべきは、独自開発の強化学習アルゴリズム「AGAPO」の存在だろう。従来のモデルが誤答を単に捨てるのに対し、AGAPOは「失敗した経路」に負の報酬を与えることで学習する。この手法が、AIに複雑な論理的推論における「やってはいけないこと」を教え込み、精度を極限まで高めた。 その結果、K-EXAONEは数学やコーディングのベンチマークで、世界の名だたるオープンウェイトモデルを圧倒する成績を収めた。26万トークンという広大なコンテキスト長を備え、書籍一冊を一度に読み解くことも可能だ。LGは、デジタルツールやAPIを自ら使いこなす「AIエージェント」時代の主役として、このモデルを位置づけている。