-

Cirrascale Cloud Services®とCerebras Systemsが、比類なき人工知能パフォーマンスを実現するCerebras Cloud @ Cirrascaleの提供を発表

新たなパートナーシップにより、最高性能のAIコンピュートと大規模にスケーリング可能なディープラーニングを、アクセス可能で使いやすく、手頃な価格のクラウドソリューションとして提供しAIを民主化します

カリフォルニア州サンディエゴおよびサニーベール--(BUSINESS WIRE)--(ビジネスワイヤ) -- (ビジネスワイヤ) -- 自律走行車、自然言語処理(NLP)およびコンピュータビジョン ワークフロー向けの深層学習インフラストラクチャ・ソリューションを提供するCirrascale Cloud Services®は、本日、Cerebras Cloud @ Cirrascaleプラットフォームの提供を発表しました。Cerebras Cloud @ Cirrascaleは、標準的なMLフレームワークとセレブラス社のソフトウェアを使用した簡単なプログラミングにより、高速で柔軟なトレーニングを提供します。深層学習プロセッサの業界をリードするCerebras社のWafer-Scale Engine (WSE-2)のパフォーマンスを、スケーラブルでアクセス可能なCirrascale社の実績あるクラウド・サービスを通じて、より多くのユーザーに提供します。

Cirrascale Cloud Services のCEOであるPJ Go氏は、「Cerebrasのワールドクラスの人工知能(AI)コンピュート・パワーをクラウドに導入できることを嬉しく思います。私たちは、深層学習へのアクセスを拡大し、フォーチュン500の大手顧客、研究機関、革新的な新興企業での大規模な商業展開を可能にすることで、AIを真に民主化します。Cerebras Cloud @ Cirrascaleは、深層学習の未来を前進させ、AIワークロードのパフォーマンスを大幅に加速します」と、述べています。

Cerebras Cloudは、ウォールクロックトレーニング性能において、10から100台のGPUで行う学習と推論のワークロードを1台のCS-2で提供し、標準的なMLフレームワークを用いて、シンプルなシングルノードのプログラミングでクラスタスケールのパフォーマンスを実現します。最近の比較では、Cerebrasシステムは8 GPUサーバーと比較して、NLPのBERT型モデルの精度まで到達する学習時間を9.5倍に短縮しました。学習時間はGPUではリニアにスケールしないため、1台のCS-2と同じ精度でモデルを学習するには120台以上のGPUが必要になります。Cerebras Cloudに搭載されているWSE-2は、ニューラルネットワークのワークロードでは一般的だが、従来のプロセッサでは難しかった細かいスパース性や動的なスパース性を独自に処理します。

CerebrasのCEO兼共同創業者であるアンドリュー・フェルドマンは、「Cirrascaleと提携し、Cerebras Cloud @ Cirrascaleを導入することで、膨大なデータセットから世界を変えるような洞察を得ようとしている多くのお客様に、当社のCS-2システムのパワーとパフォーマンスを提供できることを嬉しく思います。

我々は、850,000個のAIに最適化されたコアを搭載したWSE-2を設計し、Cerebras Cloud @ Cirrascaleの基盤でもあるCS-2システムが1台でAIワークロードのクラスター規模の高速化を容易に実現できるようにしました。これにより、お客様はトレーニングや推論に大規模な最新モデルを使用して、ソリューションをより早く展開することができます」と、述べています。

Cerebras Cloud @ Cirrascaleは、現在、週単位または月単位の定額制で提供されており、長期的に使用する場合には割引が適用され、予測可能な価格で追加料金は発生しません。さらに、Cirrascaleは、Cerebras Cloudとお客様が現在使用している数々の大手クラウドサービスのオンラインベースのワークフローと簡単に統合し、安全なマルチクラウド・ソリューションを構築することができます。

Cerebras Cloud @ Cirrascaleは、すべてのコンポーネントがAI向けに最適化されており、他のどのソリューションよりも少ないスペースと電力で高い演算性能を実現します。AIからHPCまで、ワークロードに応じて、従来のソリューションに比べて数百倍から数千倍のパフォーマンスを発揮しますが、使用するスペースや電力はほんのわずかです。Cerebras Cloudは、他のどのデータセンターAIソリューションよりも高いコンピュート密度、高速メモリ、広帯域のインターコネクトにより、高速で柔軟なトレーニングと低レイテンシーのデータセンター推論を可能にするよう設計されています。

お客様は、https://cirrascale.com/cerebrasにアクセスする事で、Cerebras Cloud @ Cirrascaleの使用を開始することができます。 詳細については、Cerebrasブログをご覧ください。

Cirrascale Cloud Servicesについて

Cirrascale Cloud Servicesは、深層学習のワークフローを可能にするパブリックおよびプライベートの専用クラウド・ソリューションを提供するプレミア・プロバイダーです。Cirrascale Cloud Servicesは、大規模な深層学習事業者、サービス・プロバイダー、およびHPCユーザー向けに、クラウドベースのインフラストラクチャ・ソリューションを提供しています。Cirrascale Cloud Services とそのユニークなクラウド・オファリングについての詳細は、www.cirrascale.com をご覧いただくか、電話で(888)942-3800 までお問い合わせください。

セレブラスシステムズについて

Cerebras Systemsは、先駆的なコンピュータキテクト、コンピュータ科学者、ディープラーニング研究者、あらゆるタイプのエンジニアからなるチームです。我々は、人工知能の作業を現在の技術水準を超えて3桁の速さで加速させる新しいクラスのコンピュータを構築するために結集しました。CS-2は、現存する最速のAIコンピューターです。CS-2には、Cerebras Wafer Scale Engine (WSE-2)をはじめとする、業界初の技術が結集されています。WSE-2は、これまでに作られた中で最大のチップで、2.6兆個のトランジスタを搭載し、46,225平方ミリメートル以上のシリコンをカバーしています。市販されている最大のグラフィックプロセッサーは、540億個のトランジスタを持ち、815平方ミリメートルの面積を持っています。人工知能の分野では、大きなチップは情報をより速く処理し、より短時間で答えを出すことができます。その結果、WSE-2を搭載したCerebras CS-2では、これまで数ヶ月かかっていたニューラルネットワークの学習が数分でできるようになりました。

本記者発表文の公式バージョンはオリジナル言語版です。翻訳言語版は、読者の便宜を図る目的で提供されたものであり、法的効力を持ちません。翻訳言語版を資料としてご利用になる際には、法的効力を有する唯一のバージョンであるオリジナル言語版と照らし合わせて頂くようお願い致します。

Cirrascale Cloud Services、 CirrascaleおよびCirrascaleロゴは、Cirrascale Cloud Services LLCの商標または登録商標です。

Contacts

Cerebras Systems


Release Versions

Contacts

More News From Cerebras Systems

CerebrasとG42、4エクサFLOPSの世界最大AIトレーニング用スーパーコンピュータを発表、イノベーションの新時代を後押し

カリフォルニア州サニーベール--(BUSINESS WIRE)--(ビジネスワイヤ) -- ジェネレーティブAI高速化のパイオニアであるCerebras Systemsと、アラブ首長国連邦(UAE)を拠点とする技術グループであるG42は本日、9台のスーパーコンピュータを相互接続したネットワークであるCondor Galaxyを発表しました。このネットワークの最初のAIスーパーコンピュータであるCondor Galaxy 1(CG-1)は、4エクサFLOPSと5,400万コアを備えています。CerebrasとG42は、このようなスーパーコンピューターをさらに2台、CG-2とCG-3として、2024年初頭に米国に配備する計画です。最終的な総容量は36エクサFLOPSで、この前例のないスーパーコンピューティング・ネットワークが、世界的なAIの進歩に革命をもたらすことを期待します。 「世界最速のAIトレーニング用スーパーコンピュータを迅速に提供するためにCerebrasと協力し、世界中にこれらのスーパーコンピュータを相互接続するための基盤を構築することは、非常にエキサイティングなことです。こ...

CerebrasがCS-2ウェハースケールシステムで学習した7つの新しいGPTモデルを公開

カリフォルニア州サニーベール--(BUSINESS WIRE)--(ビジネスワイヤ) -- 本日、ジェネレーティブAI向け人工知能(AI)コンピュートのパイオニアであるCerebras Systemsは、GPTベースの大規模言語モデル(LLM)、研究コミュニティによるオープンユースに向け7つの学習したモデルをリリースすることを発表しました。これは、企業が非GPUベースのAIシステムを使用して13BパラメータまでのLLMを学習させ、業界標準のApache 2.0ライセンスを通じてモデル、重み、学習レシピを共有する初めての試みです。7つのモデルはすべて、AIスーパーコンピュータ「Cerebras Andromeda」の16台のCS-2システムで学習を行ったものです。 OpenAIのChatGPTを先駆けとして、LLMの急成長は、より強力で高性能なAIチップの開発競争に拍車をかけています。多くの企業がNvidia®GPUの代替を期待する一方で 、大規模なモデルを学習する能力と、その結果を許諾付きライセンスでオープンソース化する意欲の両方を示した企業はありません。実際、競争圧力により、制限付...

Green AI CloudとCerebras Systems、業界をリードするAIのパフォーマンスとサステナビリティを欧州で実現

カリフォルニア州サニーベールおよびストックホルム--(BUSINESS WIRE)--(ビジネスワイヤ) --高性能人工知能(AI)コンピュートのパイオニアであるCerebras Systemsと、ヨーロッパで最も持続可能なスーパーコンピューティングプラットフォームであるGreen AI Cloudは、Green AI上でCerebras Cloudを提供することを発表しました。業界をリードするCS-2システムを提供する欧州初のクラウドコンピューティング・プロバイダーとして、Green AIの顧客は、従来のクラウドサービスプロバイダーよりもはるかに速く、環境への影響を大幅に軽減しながらGPTクラスのモデルを容易にトレーニングできるようになりました。 Green AI Cloudは、クリーンエネルギー・コンピュートのパイオニアです。Green AI Cloudは、スウェーデン北部にあるデータセンターで再生可能エネルギー(水力と風力)のみを使用し、運用時の余熱を工業製品製造用の加熱液体に変換しているため、CO2排出量はゼロです。新しいCerebras Cloudの提供により、お客様はGP...
Back to Newsroom