OpenAI、GPT-5.4 miniとnanoを公開
- •OpenAIが、コーディングやサブエージェント向けに最適化された高効率モデル「GPT-5.4 mini」と「nano」をリリースした。
- •GPT-5.4 miniは、GPT-5.4の2倍の速度で動作しながら、SWE-Bench Proで54.4%という高いスコアを記録した。
- •新たなnanoモデルは、100万入力トークンあたり0.20ドルという低価格で、テキスト分類やデータ抽出を可能にする。
OpenAIは、フラッグシップラインナップを拡充し、GPT-5.4 miniとnanoを新たに発表した。これら2つの軽量モデルは、コストと遅延を大幅に抑えつつ、トップクラスの知能を提供することを目指して設計されている。複雑な推論を担う主要なGPT-5.4モデルに対し、これらの小型モデルは大量のテクニカルなタスクを主なターゲットとしている。特にmini版は、効率性と能力の両立を図っており、現実のソフトウェア問題を解決する能力を測定するSWE-Bench Proのような専門的なベンチマークにおいて、大型モデルに匹敵する実力を示している。
GPT-5.4 nanoの登場は、エコシステムにおけるコスト効率の新たな基準を提示した。このモデルは、テキストの分類やランキングといった、単純で繰り返しの多いタスクに特化して調整されている。特筆すべきは、大規模なAIシステム内で「サブエージェント」として機能するように構築されている点だ。メインモデルが高度な計画を担当する一方で、小型モデルが特定のサブタスクを並列して実行する仕組みである。こうしたルーチン業務を安価で高速なモデルにオフロードすることで、開発者はシステム全体のパフォーマンスを損なうことなく、運用コストを劇的に削減できるようになった。
ユーザーや開発者にとって、「コンピュータ操作(computer use)」能力へのシフトも同様に重要である。GPT-5.4 miniは複雑なユーザーインターフェースのスクリーンショットを解釈する能力を備えており、低い遅延でコードベースの探索やソフトウェアのデバッグを行うことが可能だ。実用面では、CodexやChatGPTといったツールにおいて、よりレスポンスの良いAI機能が実現することを意味する。実際に、無料ユーザー向けの「思考」機能を強化するために、すでにminiモデルの統合が進められている。知能の定義が、単なる処理能力の高さだけでなく、効率的で専門化された知能をいかに戦略的に配置するかに移りつつあることを、この階層化されたアプローチは示唆している。