OpenAI Gpt-oss-120bとGpt-oss-20bを展開し、最先端のモデルをローカルデバイスに導入
簡単に言えば OpenAI は、インターネットにアクセスせずに高度なローカル AI パフォーマンスを実現できる 120 つの強力なオープンウェイト モデル、gpt-oss-20b と gpt-oss-XNUMXb をリリースしました。これにより、開発者のアクセシビリティが大きく向上します。
人工知能研究機関 OpenAI gpt-oss-120bとgpt-oss-20bという2.0つの高度なオープンウェイト言語モデルのリリースを発表しました。これらのモデルは、低い運用コストを維持しながら、実用的なアプリケーションで高いパフォーマンスを発揮します。柔軟なApache XNUMXライセンスの下でリリースされたこれらのモデルは、推論タスクにおいて同規模の他のオープンモデルを凌駕し、堅牢なツール使用能力を備え、コンシューマーグレードのハードウェア上で効率的に動作するように最適化されています。トレーニングプロセスには、強化学習技術と、 OpenAIo3 やその他の最先端システムを含む、最も先進的な内部モデル。
gpt-oss-120bモデルは、ほぼ同等の性能を発揮します。 OpenAIのo4-miniモデルは、基礎推論ベンチマークで80GBのGPUで効率的に動作します。一方、gpt-oss-20bモデルは、 OpenAIo3-miniは一般的なベンチマークで優れた性能を示し、16GBのメモリを搭載したエッジデバイスでも動作するため、高価なインフラストラクチャを必要とせずに、デバイス内アプリケーション、ローカル推論、迅速なテストに適しています。両モデルは、ツールの使用、少量の関数呼び出し、思考連鎖(CoT)推論において優れた能力を示しており、Tau-Benchのエージェント評価やHealthBenchで実証されています。 OpenAI o1と GPT-4o.
これらのモデルはResponses APIと互換性があり、エージェントワークフローに統合できるように設計されており、高度な指示追従、Web検索やPythonコード実行などのツール利用、そして推論機能を提供します。これには、複雑な推論を必要としないタスクや、最終出力の低レイテンシを優先するタスク向けに最適化するための調整可能な推論努力が含まれます。どちらのモデルも完全にカスタマイズ可能で、思考連鎖推論を完全にサポートし、構造化された出力形式に対応しています。
これらのモデルの公開においては、特にオープンな性質上、安全性への配慮が不可欠です。包括的な安全性トレーニングと評価に加え、敵対的に微調整されたgpt-oss-120bバージョンを用いて、追加のテストレイヤーが適用されました。 OpenAIの準備フレームワーク。GPT-OSSモデルは、 OpenAIの最新の独自モデルは、開発者に同様の安全性保証を提供します。詳細な結果と詳細情報は、研究論文とモデルカードで公開されています。この方法論は外部専門家によってレビューされており、オープンウェイトモデルの新たな安全基準の確立に向けた進展を示しています。
OpenAI AI Sweden、Orange、Snowflakeといった初期のパートナーと連携し、データセキュリティのためのオンプレミスホスティングや、特殊なデータセットの微調整など、これらのオープンモデルの実用化を模索してきました。これらのオープンモデルの提供は、個人開発者から大企業、政府機関まで、幅広いユーザーが自社のインフラ上でAIを実行・カスタマイズできるようにすることを目的としています。 OpenAIの API を使用すると、開発者はパフォーマンス、コスト、レイテンシのバランスをとるさまざまなオプションから選択して、多様な AI ワークフローをサポートできます。
Gpt-oss-120b と Gpt-oss-20b が、広範なプラットフォームとハードウェアのサポートとともに無料で利用可能になりました
gpt-oss-120bとgpt-oss-20bの重みはHugging Faceからダウンロード可能で、MXFP4形式のネイティブ量子化が提供されています。これにより、gpt-oss-120bモデルは80GBのメモリ容量で動作し、gpt-oss-20bモデルは16GBのメモリ容量しか必要としません。両モデルはHarmony Prompt形式を用いた事後学習済みで、導入を容易にするためにPythonとRustでオープンソースのHarmonyレンダラーが利用可能です。さらに、PyTorchとAppleのMetalプラットフォームを用いた推論実行用のリファレンス実装と、実用的なアプリケーションのためのサンプルツールセットも提供されています。
これらのモデルは柔軟性と使いやすさを重視して設計されており、ローカル、デバイス上、またはサードパーティの推論プロバイダーを介した導入をサポートしています。アクセシビリティを向上させるため、Azure、Hugging Face、vLLM、Oなどの主要な導入プラットフォームとのパートナーシップがリリース前に確立されています。llama, llama.cpp、LM Studio、AWS、Fireworks、Together AI、Baseten、Databricks、Vercel、Cloudflare、OpenRouter。また、NVIDIA、AMD、Cerebras、Groqなどのハードウェアメーカーとの連携により、様々なシステムで最適なパフォーマンスを実現しました。
今回のリリースに合わせて、MicrosoftはWindowsデバイス向けにgpt-oss-20bモデルのGPU最適化バージョンを提供します。ONNXランタイムを搭載したこれらのバージョンはローカル推論をサポートし、Foundry LocalおよびVS Code用AIツールキットからアクセスできるため、Windowsプラットフォーム開発者の統合プロセスを簡素化します。
自社の環境内で微調整と導入が可能な、完全にカスタマイズ可能なモデルを求める開発者にとって、gpt-ossモデルは最適なソリューションです。一方、マルチモーダル機能、組み込みツール、シームレスなプラットフォーム統合を求める開発者にとって、APIプラットフォームを通じて提供されるモデルは依然として最適な選択肢です。開発者からのフィードバックは引き続きモニタリングしており、将来的にはgpt-ossモデルのAPIサポートも検討する予定です。
gpt-oss-120b と gpt-oss-20b の導入は、オープンウェイトモデルの分野における顕著な進歩であり、その規模における推論能力と安全性の大幅な向上をもたらします。これらのオープンモデルは、開発者に最先端の研究を促進し、イノベーションを刺激し、多様なアプリケーションにわたってより安全で透明性の高いAI開発を促進するための幅広いツールを提供することで、独自のホスト型モデルを補完します。
さらに、これらのオープンモデルは、新興市場、リソースが限られたセクター、そして独自仕様のソリューション導入に制約のある小規模組織にとって、参入障壁の低減に役立ちます。アクセスしやすく強力なツールを提供することで、世界中のユーザーが開発、革新、そして新たな機会の創出を促進できます。米国で開発されたこれらの高性能なオープンモデルが広く利用可能になることで、公平なAIアクセスの拡大に貢献します。
オープンモデルの信頼できるエコシステムは、AIへの幅広く包括的なアクセシビリティを促進する上で不可欠な要素です。開発者や研究者は、これらのモデルを実験、共同作業、そして実現可能性の限界を押し広げるために活用することが推奨されます。この分野における今後の進歩は、大きな期待とともに期待されています。
免責事項:本記事の内容はあくまでも筆者の意見を反映したものであり、いかなる立場においても当プラットフォームを代表するものではありません。また、本記事は投資判断の参考となることを目的としたものではありません。
こちらもいかがですか?
Bitgetは現物マージン取引における一部通貨のローン金利を先物資金調達率から切り離しました
Bitgetは現物マージン取引における一部通貨のローン金利を先物資金調達率から切り離しました
GHO HodlerYieldキャンペーンルール
Bitgetが2025年7月保護基金評価レポートを発表
トレンド
もっと見る暗号資産価格
もっと見る








