東京, 2024年10月22日 - (JCN Newswire) - 当社は、このほど、世界的なGPU不足に対応するため、高い実行効率が見込める処理に対してリアルタイムにGPUを割り振る当社独自のアダプティブGPUアロケーター技術と、各種AI処理の最適化技術を統合したミドルウェア技術「AI computing broker(以下、ACB技術)」を開発しました。本技術は、オンプレミスだけでなくクラウドで提供されているGPU環境においても利用可能であり、単一のGPUを用いるAIアプリから複数のGPUを用いる大規模言語モデルまで幅広く活用できます。単一のGPUによる先行トライアルの技術検証結果を踏まえた上で、2024年10月よりトレーダム株式会社(注1)がACB技術を採用し、またさくらインターネット株式会社(注2)は、当社と共同で複数のGPU上でACB技術の実証実験を開始します。
当社はトレーダム株式会社とさくらインターネット株式会社に加えて、AWL株式会社(注3)、エクストリーム-D株式会社(注4)、モルゲンロット株式会社(注5)と、単一GPUによるACB技術の先行トライアルを2024年5月より順次行い、各社それぞれのクラウド環境やサーバー上での動作と、各AI処理に対する演算処理効率の最大で2.25倍の向上、同時に取り扱えるAI処理数の大幅な増加などの有効性を確認しました。
当社は今後も、AI処理におけるGPUの演算効率を高めてGPUコストを削減したいAIサービス事業者や、一つのGPUにできるだけ多くのAI処理を割り当てたいクラウドサービス事業者などのGPU資源提供者に本技術を提供し、世界的なAI需要の高まりに伴うGPU不足や電力問題などの課題を解決し、AIによるお客様のビジネスの生産性と創造性の拡張に貢献します。
背景
生成AIをはじめとする世界的なAI需要の爆発的な高まりを受け、AI処理に最適とされるGPUの需要も急激に増加しています。生成AI市場の世界需要額は2023年から2030年にかけて約20倍の成長(注6)が見込まれており、それに比例しGPUの需要も同様の規模で急激に増大することが予想されます。一方で、GPUの需要に応じたデータセンターにおける消費電力の増加が課題となっており、2030年には全世界の発電量の10%がデータセンターによって消費されると推定(注7)されています。これを受けて当社は、GPUに関わる世界的な社会課題に対応するため、GPUでプログラムを実行中でも、高い実行効率が見込める処理に対してリアルタイムかつ優先的にGPUを割り振り、CPUとGPUの計算リソースを最大活用できるアダプティブGPUアロケーター技術を2023年11月に開発し、様々なプラットフォーム上での効果検証を進めてきました。
「AI computing broker」について
今回当社は、さらなるGPU不足への対応を見据え、GPUサーバー上で動作するAI処理に対して計算処理を自動で最適化するミドルウェア技術「AI computing broker」を開発しました。本技術は、アダプティブGPUアロケーター技術と各種AI処理の最適化技術を統合したミドルウェア技術であり、複数のプログラム中のGPUを必要とするAI処理部を見極め、計算資源の割当や最適化を自動的に適用します。従来技術のジョブ単位での割当とは異なり、当社が培ってきた演算最適化技術により動的にGPU資源をGPU計算単位で割り当てて稼働率を向上させるほか、本技術のGPUメモリの管理機能により、ユーザーはプログラムが使用するGPUメモリ量や、GPUの物理的なメモリ容量を気にする事無く、多数のAI処理を割り付ける事が可能になります。
単一GPUを用いたACB技術の先行トライアルでは、ACB技術非適用の場合と比較して、顧客環境におけるGPUの単位時間当たりの処理性能について最大で2.25倍の向上を確認しました。また本技術にはアプリ動作を見ながらGPUのメモリを共有するメモリ管理機能が備わっており、ユーザーは各ジョブの総メモリ使用量が物理メモリの最大容量に収まるかどうかを気にせずに処理を実行できます。これにより最大でGPUの物理メモリ容量の約5倍に当たる、150GBものメモリを必要とするAI処理を同時に取り扱えることを確認しました。
図 「AI computing broker」の技術概要と技術検証結果
トレーダム株式会社 執行役員 チーフデータサイエンスオフィサー 栢本 淳一 コメント
当社は、高度なAIを活用した為替リスクをコントロールするソリューションを提供しています。今回のAI computing brokerのトライアルを通じ、AIモデルを生成するうえで必要なGPU計算資源を手軽に効率化でき、AI学習処理を多重化することでより精度の高いモデルを短期間で開発できる可能性を確認いたしました。今後、富士通との連携を通じて、本技術を活用した自社ソリューション開発の強化を図り、企業の成長やフィンテック業界の発展に貢献してまいります。
さくらインターネット株式会社 / さくらインターネット研究所 所長 鷲北 賢 コメント
今回AI computing brokerのトライアル利用を通じ、当社のクラウド事業においてGPUの計算資源をより効率的にお客様に提供でき、活用が広がっているGPUをより多くのお客様にお使い頂ける可能性を確信しました。今回の実証実験を通じて、昨今の急速な GPU の需要拡大への対応に役立てていきたいと考えています。
AWL株式会社 R&D ディビジョン長 藤村 浩司 コメント
当社は、リテール店舗を中核に、あらゆるリアル空間の課題解決と価値向上を目指し、AIカメラソリューションの開発・提供を行っています。多くのお客様からのリクエストに応じて、複数のAIモデルのトレーニングを並列実行する際には、GPU運用コストの最適化が不可欠です。今回のトライアルを通じて、AI computing brokerがGPU利用率を向上させ、AI処理の効率化を実現できる技術であることを確認しました。本技術のさらなる発展を期待しております。
エクストリーム-D株式会社 代表取締 CEO兼CTO 柴田 直樹 コメント
この度は、AI computing brokerの発表おめでとうございます。 当社は、AIおよびHPC顧客にクラウド的サービス「Raplase」を提供しております。当社の顧客の大きな課題としてオンプレミスとベアメタルクラウドでの高価なGPUの利用効率化によるコストパフォーマンス最大化があります。富士通のAI computing brokerは課題解決の一助になると考えており、今後も富士通様と検証を継続し、当社のお客様への適用を検討して参ります。
モルゲンロット株式会社 取締役COO 中村 昌道、執行役員CTO 伊藤 寿 コメント
当社は、コンテナデータセンターを活用した分散型のクラウドコンピューティングパワー(計算力)を提供し、様々なGPUを含む高度な計算資源の需要拡大に対応した計算力のシェアリングエコノミーモデルの確立に取り組んでいます。
今回は当社のプロダクトであるHPC管理ソリューション(M:Arthur)やクラウドサービス(Cloud Bouquet)において、AI computing brokerによるGPUの更なる効率的な利用の実現に向けて技術トライアルを実施し、複数のジョブを2台のGPUを用いて連続で実行した場合と比較して、ACB技術の使用によりジョブ間でGPUを共有したことで全体の実行時間を10%近く短縮することに成功しました。複数ジョブを並行して実行できるため、例えば限られたリソースの中で、モデル構築のための長時間学習と、実行テストのための短時間の学習や推論を同時に実行できる点も大きなメリットです。
今後は、当社のプロダクトとACB技術との連携について協議していきたいと考えています。
今後について
今後は、さらに大規模な計算機環境での利用を想定し、複数台のサーバーに搭載された複数のGPUに対しACB技術を適用させるなど、技術の適用範囲を拡張させていきます。当社は今後も、先進的なコンピューティング技術の開発を通してGPU不足や電力不足などの課題を解決し、人々のバディとして生産性と創造性を拡張するAIの実現に貢献していきます。
URL https://pr.fujitsu.com/jp/news/2024/10/22.html
トピック: Press release summary
Source: Fujitsu Ltd
セクター: Cloud & Enterprise
https://www.acnnewswire.com
From the Asia Corporate News Network
Copyright © 2024 ACN Newswire. All rights reserved. A division of Asia Corporate News Network.
|