ConoHa for AI について

大規模言語モデルや生成AIのモデルの構築や画像生成等の生成系AIのビジネスに最適な爆速GPU「NVIDIA H100 Tensor コア GPU」、「NVIDIA L4 Tensor コア GPU」を搭載したAIスタートアップ向けの仮想サーバーサービスです。

提供背景

ConoHa for AI

現在、OpenAIが開発した「ChatGPT」の登場をきっかけとしてAI関連市場は急激に変化・成長し、特に大規模言語モデル(LLM)や生成AI(ジェネレーティブAI)に注目が高まっています。AIの需要が高まるにつれ、高い計算能力を持つGPUの需要も日に日に増加し続けています。

一方、AI技術は急速に発展しており、それに伴い多くのAIスタートアップが誕生しています。これらのスタートアップは、革新的な製品やサービスを開発する可能性を秘めていますが、成長するには資金やインフラを含めたリソースが必要です。

このような背景の中、AI関連のアプリ開発を行うスタートアップ含めた企業または個人事業主の課題を解決するために、GMOインターネットグループは、国産ホスティング事業者として長年にわたり培ってきた大規模インフラ技術・ノウハウを活用し、爆速GPU「NVIDIA H100 Tensor コア GPU」「NVIDIA L4 Tensor コア GPU」を搭載した仮想サーバーサービス「ConoHa for AI」を2023年内に提供します。

利用シーン

  • CASE 01

    大規模言語モデルや生成系AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスをご検討のお客様。

  • CASE 02

    公開・提供された大規模言語モデルに、独自のデータセットを用いて特定の目的に特化した学習を行い、独自モデルを生成したいお客様。

  • CASE 03

    公開・提供された大規模言語モデルや生成系AIのモデルを活用し、アプリやサービスの新規・既存アプリに組み込んで提供するビジネスをご検討のお客様。

  • CASE 04

    生成系AIを利用して生成したコンテンツを自社プロダクトでご利用をご検討のお客様。

GPUの導入課題

  • 設備投資

    GPU搭載サーバーの導入では、サーバーへの巨額な初期投資やサーバーラックの確保や電源・空調の増設など、ファシリティ面での設備投資が発生。

  • GPUのメモリ不足

    大規模言語モデルや生成系AIのモデルを自ら開発する場合、大量のデータ・パラメータを持つことになるため、学習や生成を高速処理が可能なGPUリソースが必要となる。

利用メリット

  • 爆速GPU

    最新爆速GPU「NVIDIA H100 Tensor コア GPU」「NVIDIA L4 Tensor コア GPU」をご利用いただけます。

  • 高速処理でビジネスを加速

    学習や生成処理が短時間のため、ストレスなく快適にご利用いただけ、ビジネスを加速させることができます。

提供予定サーバースペック

GPUカード NVIDIA L4 Tensor コア GPU NVIDIA H100 Tensor コア GPU
基本仕様 GPUカード搭載数 1 1
GPU搭載メモリ 24GB 80GB
vCPU 20vCPU 22vCPU
メモリ 128GB 228GB
OS Ubuntu 22.04LTS
ブロックストレージ 1TB
root権限
データセンター 日本
演算性能 ピーク単精度演算性能
[FP32]
30.3 TFLOPS 51 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
242 TFLOPS 1513 TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。

最新モデル「NVIDIA H100」と
過去モデルとのスペック・性能比較

GPU H100 A100 V100
アーキテクチャ Hopper Ampere Volta
GPUメモリ 80GB 80GB 32GB
CUDA®コア数 14,592コア 6,912コア 5,120コア
ピーク単精度演算性能
[FP32]
51 TFLOPS 19.5 TFLOPS 14 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
1513 TFLOPS 624 TFLOPS 112 TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。

最新モデル「NVIDIA L4」と
過去モデルとのスペック・性能比較

GPU L4 T4
アーキテクチャ Ada Lovelace Turing
GPUメモリ 24GB 16GB
CUDA®コア数 7,424コア 2,560コア
ピーク単精度演算性能
[FP32]
30.3 TFLOPS 8.1 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
242 TFLOPS 65TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。

トライアル募集要項

対象

AI関連のアプリ開発を行うスタートアップ含めた企業または個人事業主

応募方法

本ページ内の「トライアル申込み」からお申込みください。

応募期間

2023年6月5日(月) ~ 2023年7月14日(金) 23:59予定

応募を締め切らせていただきました。

利用開始時期

2023年8月中旬

無償提供期間

2023年8月 ~ 10月31日(火) 予定

  • ※必ずお読みください
  • ・お申込みいただいた方全員に、ご提供するものではございません。お申込み内容から個別に審査を実施し、ご提供可否を判断させていただきます。
    トライアル版をご提供するお客様に個別にご連絡をさせていただきます。あらかじめご了承ください。
  • ・1社1台の提供とさせていただきます。
  • ・情報が不足している場合には、個別にご連絡をさせていただく場合がございます。
  • ・トライアル版提供のお客様には個別にご連絡をさせていただきます。
  • ・本サービスは、新機能の動作検証およびフィードバック収集を目的として、開発中サービスを実験的にトライアル版として提供を行います。提供終了(正式サービス化に伴う提供終了の場合を含みますが、これに限りません)までの間、無料でご利用いただけます。
  • ・インタビューやアンケートへのご協力をお願いいたします。
  • ・本件は予告なく変更、または中止する場合がございます。

メールでのお問い合わせ

お問い合わせはメールで承っております。 までご連絡ください。