Special Feature
Oracle CloudWorld 2024 Report[下] AI、セキュリティーでも独自路線
2024/10/17 09:00
週刊BCN 2024年10月14日vol.2033掲載
(取材・文/藤岡 堯)
ゼタスケールのインフラ
生成AIブームの過熱により、この領域での投資競争は激しさを増す一方だ。少しでも早く市場に投入し、優位に立つためには、生成AIに超高速で学習させ、実用性を高める必要がある。ただ、そのためには万単位のGPUによる巨大なクラスターが必要になるとも言われ、ユーザーが生成AIのワークロードを実行するためにも相当のインフラが求められる。この流れの中で、オラクルは大規模AI開発インフラの担い手としての存在感を高めている。例えば、米OpenAI(オープンエーアイ)はAIインフラのキャパシティー拡張のために「Oracle Cloud Infrastructure」(OCI)を活用しており、米Microsoft(マイクロソフト)は検索サービス「Bing」の対話型検索にOCIを取り入れ、需要増加に対処している。
そのインフラ基盤となるのは、GPUを搭載したベアメタルインスタンスを中核に、RoCEネットワーク、HPCストレージなどで構成するAIインフラサービス「OCI Supercluster」だ。CloudWorldの会期中には、OCI Super
clusterの拡張が発表された。最大13万1072基の「NVIDIA Blackwell GPU」を搭載可能で、2.4ゼタFLOPSのピーク性能を実現。オラクルは「業界初となるゼタスケールのクラウド・コンピューティング・クラスタ」(ゼタは10の21乗を表す)と表現し、HPCの世界ランキング「TOP500」で現在首位の「Frontier」の3倍以上、ほかのハイパースケーラーの6倍以上のGPU数が提供できるという。
米国時間の9月11日に実施されたセッションで、OCIなどのプロダクトマーケティングを担当するレオ・リャン・グループバイスプレジデント(GVP)は「現時点で市場には1000を超える大規模言語モデルがあり、今後も増え続けるだろう。私たちの目標は、そうした顧客やパートナーに必要なインフラを提供することだ」と述べ、AI開発を支える重要な役割を果たす姿勢を強調した。
- アプリ開発の新たな方法論「GenDev」
- 新たなネットワーク保護技術を提供へ
- UX、UIをよりシンプルにし顧客に支持されるシステムにSuiteWorldも開催
続きは「週刊BCN+会員」のみ
ご覧になれます。
(登録無料:所要時間1分程度)
新規会員登録はこちら(登録無料) ログイン会員特典
- 注目のキーパーソンへのインタビューや市場を深掘りした解説・特集など毎週更新される会員限定記事が読み放題!
- メールマガジンを毎日配信(土日祝をのぞく)
- イベント・セミナー情報の告知が可能(登録および更新)
SIerをはじめ、ITベンダーが読者の多くを占める「週刊BCN+」が集客をサポートします。 - 企業向けIT製品の導入事例情報の詳細PDFデータを何件でもダウンロードし放題!
- 1