

ConoHa for AI について
大規模言語モデルや生成AIのモデルの構築や画像生成等の生成系AIのビジネスに最適な爆速GPU「NVIDIA H100 Tensor コア GPU」、「NVIDIA L4 Tensor コア GPU」を搭載したAIスタートアップ向けの仮想サーバーサービスです。

提供背景
現在、OpenAIが開発した「ChatGPT」の登場をきっかけとしてAI関連市場は急激に変化・成長し、特に大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)に注目が高まっています。AIの需要が高まるにつれ、高い計算能力を持つGPUの需要も日に日に増加し続けています。
一方、AI技術は急速に発展しており、それに伴い多くのAIスタートアップが誕生しています。これらのスタートアップは、革新的な製品やサービスを開発する可能性を秘めていますが、成長するには資金やインフラを含めたリソースが必要です。
このような背景の中、AI関連のアプリ開発を行うスタートアップ含めた企業または個人事業主の課題を解決するために、GMOインターネットグループは、国産ホスティング事業者として長年にわたり培ってきた大規模インフラ技術・ノウハウを活用し、爆速GPU「NVIDIA H100 Tensor コア GPU」「NVIDIA L4 Tensor コア GPU」を搭載した仮想サーバーサービス「ConoHa for AI」を2023年内に提供します。
利用シーン
-
CASE 01
-
大規模言語モデルや生成系AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスをご検討のお客様。
-
CASE 02
-
公開・提供された大規模言語モデルに、独自のデータセットを用いて特定の目的に特化した学習を行い、独自モデルを生成したいお客様。
-
CASE 03
-
公開・提供された大規模言語モデルや生成系AIのモデルを活用し、アプリやサービスの新規・既存アプリに組み込んで提供するビジネスをご検討のお客様。
-
CASE 04
-
生成系AIを利用して生成したコンテンツを自社プロダクトでご利用をご検討のお客様。
GPUの導入課題
-
- 設備投資
-
GPU搭載サーバーの導入では、サーバーへの巨額な初期投資やサーバーラックの確保や電源・空調の増設など、ファシリティ面での設備投資が発生。
-
- GPUのメモリ不足
-
大規模言語モデルや生成系AIのモデルを自ら開発する場合、大量のデータ・パラメータを持つことになるため、学習や生成を高速処理が可能なGPUリソースが必要となる。
利用メリット
-
- 爆速GPU
-
最新爆速GPU「NVIDIA H100 Tensor コア GPU」「NVIDIA L4 Tensor コア GPU」をご利用いただけます。
-
- 高速処理でビジネスを加速
-
学習や生成処理が短時間のため、ストレスなく快適にご利用いただけ、ビジネスを加速させることができます。
提供予定サーバースペック
GPUカード | NVIDIA L4 Tensor コア GPU | NVIDIA H100 Tensor コア GPU | |
---|---|---|---|
基本仕様 | GPUカード搭載数 | 1 | 1 |
GPU搭載メモリ | 24GB | 80GB | |
vCPU | 20vCPU | 22vCPU | |
メモリ | 128GB | 228GB | |
OS | Ubuntu 22.04LTS | ||
ブロックストレージ | 1TB | ||
root権限 | ○ | ||
データセンター | 日本 | ||
演算性能 | ピーク単精度演算性能 [FP32] |
30.3 TFLOPS | 51 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
242 TFLOPS※ | 1513 TFLOPS※ |
- ※スパース性あり。仕様はスパース性なしで半減します。
最新モデル「NVIDIA H100」と
過去モデルとのスペック・性能比較
GPU | H100 | A100 | V100 |
---|---|---|---|
アーキテクチャ | Hopper | Ampere | Volta |
GPUメモリ | 80GB | 80GB | 32GB |
CUDA®コア数 | 14,592コア | 6,912コア | 5,120コア |
ピーク単精度演算性能 [FP32] |
51 TFLOPS | 19.5 TFLOPS | 14 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
1513 TFLOPS※ | 624 TFLOPS※ | 112 TFLOPS |
- ※スパース性あり。仕様はスパース性なしで半減します。
最新モデル「NVIDIA L4」と
過去モデルとのスペック・性能比較
GPU | L4 | T4 |
---|---|---|
アーキテクチャ | Ada Lovelace | Turing |
GPUメモリ | 24GB | 16GB |
CUDA®コア数 | 7,424コア | 2,560コア |
ピーク単精度演算性能 [FP32] |
30.3 TFLOPS | 8.1 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
242 TFLOPS※ | 65TFLOPS |
- ※スパース性あり。仕様はスパース性なしで半減します。
トライアル募集要項
- 対象
-
AI関連のアプリ開発を行うスタートアップ含めた企業または個人事業主
- 応募方法
-
本ページ内の「トライアル申込み」からお申込みください。
- 応募期間
-
2023年6月5日(月) ~ 2023年7月14日(金) 23:59予定
応募を締め切らせていただきました。
- 利用開始時期
-
2023年8月中旬
- 無償提供期間
-
2023年8月 ~ 10月31日(火) 予定
- ※必ずお読みください
- ・お申込みいただいた方全員に、ご提供するものではございません。お申込み内容から個別に審査を実施し、ご提供可否を判断させていただきます。
トライアル版をご提供するお客様に個別にご連絡をさせていただきます。あらかじめご了承ください。 - ・1社1台の提供とさせていただきます。
- ・情報が不足している場合には、個別にご連絡をさせていただく場合がございます。
- ・トライアル版提供のお客様には個別にご連絡をさせていただきます。
- ・本サービスは、新機能の動作検証およびフィードバック収集を目的として、開発中サービスを実験的にトライアル版として提供を行います。提供終了(正式サービス化に伴う提供終了の場合を含みますが、これに限りません)までの間、無料でご利用いただけます。
- ・インタビューやアンケートへのご協力をお願いいたします。
- ・本件は予告なく変更、または中止する場合がございます。