aiDAPTIV-plus-logo

AI導入を
身近なものに

リソースの有効活用

aiDAPTIV+ を使用すると、
エンジニアリング チームのトレーニングではなく、
データそのもののトレーニングに集中できます。

費用対効果の向上

ファイソンのaiDAPTIV+ はコスト効率の高い
フラッシュメモリを使用し、汎用 ワークステーションでの
大規模言語モデル (LLM) のトレーニングが 実現可能です。

価値

ファイソンのaiDAPTIV+ はコスト効率の高い
フラッシュメモリを使用し、汎用 ワークステーションでの
大規模言語モデル (LLM) のトレーニングが 実現可能です。

セキュリティ

aiDAPTIV+ ワークステーションを使用すると、
データの制御と管理を自社の管理エリア内で
保管できます。

データモデルトレーニングを
スムーズにスケーリング

aiDAPTIV+ は、データ トレーニングを必要とする
機関向けに発売された大規模なデータ モデル トレーニングのターンキー ソリューションで

あり、追加の人員配置やインフラストラクチャ
は必要ありません。

ハイブリッド ソリューションにより LLM トレーニングの効率が大幅に向上

ファイソンのaiDAPTIV+ は、今の大規模言語モデル (LLM) トレーニングの課題を克服するハードウェアとソフトウェアのハイブリッド ソリューションです。

パートナーのワークステーション PC を使用して、Llama 70b までのLLMトレーニングに費用対効果の高いアプローチを提供できます。

Play Video about aiDAPTIV+_For PE Web

スケーラビリティの向上

aiDAPTIV+ を使用するより、企業はノードを拡張し、
トレーニングデータ量を増加してトレーニング時間を短縮できます。

2250987_PASCARIaiDAPTIV+PageRedesign_PC_042624_PASCARIaiDAPTIV+_Chart_PageRedesign

大規模なモデル トレーニングへの扉を開く

aiDAPTIV+ が登場するまで、中小企業は Llama 7b を超えて拡張する能力がなく、小規模で不正確なトレーニングに限定されていました。

ファイソンの aiDAPTIV+ ソリューションにより、大規模なモデルワークロードも実行可能になります。

aiDAPTIVLink_Orange_English
Pascari aiDAPTIVCache Family Eng

SEAMLESS INTEGRATION

  • Optimized middleware to extends GPU memory capacity
  • 2x 2TB aiDAPTIVCache to support 70B model
  • Low latency


HIGH ENDURANCE

  • Industry-leading 100 DWPD over 5 years
  • SLC NAND with advanced NAND correction algorithm

パートナーと代理店

システムインテグレーター