
OpenAIは2025年8月、世界最大のAI推論インフラに最適化された新しいオープン モデル「gpt-oss-120b」「gpt-oss-20b」を公開した。
これらのモデルを使用すると、誰でも画期的な生成 AI、リーズニング AI、フィジカル AI、ヘルスケア、および製造アプリケーションを開発することができるほか、AIによって推進される次の産業革命が進み続ける中、新たな産業を創出することも可能だという。
オープンウェイトのテキスト リーズニング大規模言語モデルは、NVIDIA H100 GPUでトレーニングされ、世界中の NVIDIA CUDAプラットフォームを実行している何億ものGPU上で推論を最適に実行する。
そんなOpenAIとNVIDIAが推進するAIイノベーションに関する記事がNVIDIAブログに掲載されたので、概要をお伝えする。
毎秒150 万トークンを実現、推論を大幅に効率化しながら最適な推論を提供
OpenAI が2025年8月にリリースした 2つの新しいオープンウェイトAIリーズニング モデルは、業界や規模を問わず、世界中の開発者、愛好家、企業、スタートアップ、政府の手に最先端のAI 開発を直接届けるものだ。
これらのオープン モデル (gpt-oss-120b および gpt-oss-20b) における NVIDIAとOpenAI のコラボレーションは、コミュニティ主導のイノベーションの力を証明するものであり、AIを世界中で利用しやすいものにする上でのNVIDIAの基盤的な役割を明確にしている。
OpenAI の新しい柔軟なオープンウェイトのテキスト リーズニング大規模言語モデル (LLM) は、NVIDIA H100 GPU でトレーニングされ、世界中の NVIDIA CUDAプラットフォームを実行している何億ものGPU上で推論を最適に実行する。
現在、これらのモデルは NVIDIA NIM マイクロサービスとして利用が可能で、柔軟性、データ プライバシー、エンタープライズ グレードのセキュリティを備えた GPU アクセラレーテッド インフラに簡単に展開できる。
これらのモデルは、NVIDIA Blackwellプラットフォームへのソフトウェア最適化により、NVIDIA GB200 NVL72 システムで毎秒150万トークンを実現。推論を大幅に効率化しながら、最適な推論を提供していく。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang)氏 は次のように述べている。
「OpenAI は、NVIDIA AI で何が構築できるのかを世界に示し、そして今、オープンソース ソフトウェアのイノベーションを推進しています。gpt-oss モデルは、世界中の開発者が世界最大の AI コンピューティング インフラ上で、その最先端のオープンソース基盤を利用できるようにし、AI における米国の技術リーダーシップを強化します」
■NVIDIA Blackwell が高度なリーズニングを実現
gpt-oss のような高度なリーズニング モデルにより、生成されるトークンが飛躍的に増加する中、コンピューティング インフラに対する需要は大幅に拡大している。
この需要を満たすには、最高レベルの推論実行に必要なスケール、効率、投資利益率を提供するように設計されたアーキテクチャである NVIDIA Blackwellを搭載した専用のAIファクトリーが必要だ。
NVIDIA Blackwell には NVFP4 4ビット精度などのイノベーションが採用されており、電力要件とメモリ要件を大幅に削減しながら、超効率的かつ高精度の推論を実現している。そのため、1 兆パラメータのLLMをリアルタイムで実行可能で、数十億ドル相当の価値をもたらす。

■世界中の何百万人もの AI 開発者のためのオープンな開発
NVIDIA CUDAは、世界で最も広く利用可能なコンピューティング インフラであり、ユーザーは強力なNVIDIA DGX Cloudプラットフォームから、NVIDIA GeForce RTX や NVIDIA RTX PROを搭載した PC やワークステーションまで、どこにでも AI モデルを展開して実行できる。
これまでに4億5000 万回以上ダウンロードされており、本日より、CUDA開発者の大規模なコミュニティは、すでに使用している NVIDIA テクノロジ スタック上で動作するように最適化された、これらの最新モデルにアクセスできるようになる。
OpenAIとNVIDIA は、オープンソース ソフトウェアへのコミットメントを示すため、NVIDIA Tensor-RT LLMやその他のライブラリの提供に加えて、主要なオープン フレームワーク プロバイダーと協力して、FlashInfer、Hugging Face、llama.cpp、Ollama、vLLM にモデルを最適化しており、開発者はそれぞれ最適なフレームワークを選んで開発を行なうことができる。
■オープンソースを基盤としたコラボレーションの歴史
今回の新たなモデルのリリースは、NVIDIA のフルスタック アプローチが、世界で最も野心的な AI プロジェクトを可能な限り幅広いユーザー ベースに届けるのに役立つことを明確に示すものだ。
その物語は、2016年にフアン氏が最初のNVIDIA DGX-1 AI スーパーコンピューターを、サンフランシスコにある OpenAI の本社に自ら届けたときに始まった、NVIDIAとOpenAI とのコラボレーションの初期の時代にまで遡る。
それ以来、両社は AI にできることの限界を押し広げるために協力を重ね、大規模なトレーニングの実行に必要なコア テクノロジと専門知識を提供してきた。
また、NVIDIA は 900以上のNVIDIAソフトウェア開発キットと AI モデルを使用する 250か国650万人以上の開発者のために、NVIDIAの広範なソフトウェア スタックと併せて、OpenAI の gpt-oss モデルを NVIDIA Blackwell および RTX GPU に最適化することで、より迅速でコスト効率の高いAI の進歩を実現している。
◎技術的な詳細はこちらから。
https://developer.nvidia.com/blog/delivering-1-5-m-tps-inference-on-nvidia-gb200-nvl72-nvidia-accelerates-openai-gpt-oss-models-from-cloud-to-edge/
https://blogs.nvidia.com/blog/rtx-ai-garage-openai-oss/
https://build.nvidia.com/search?q=gpt-oss
関連情報
https://www.nvidia.com/ja-jp/
構成/清水眞希