すべてのプロダクト
Search
ドキュメントセンター

Platform For AI:DeepSeek モデルを開発および使用する

最終更新日:Apr 28, 2025

Model Gallery は、Platform for AI(PAI)のモデル・アズ・ア・サービス(MaaS)コンポーネントです。 Model Gallery は、大規模言語モデル(LLM)、AI 生成コンテンツ(AIGC)、コンピュータビジョン(CV)、自然言語処理(NLP)など、さまざまな分野の最先端(SOTA)モデルを備えています。 そのローコード/ノーコード インターフェイスは、モデル ライフサイクル全体を容易にします。 このトピックでは、Model Gallery を使用して DeepSeek モデルをデプロイ、蒸留、トレーニング、およびアプリケーションを構築する方法について説明します。

準備

(必須) PAI をアクティブ化し、ワークスペースを作成する

PAI ワークスペースは、計算リソース、権限、および AI アセットを一元管理するために設計されています。 PAI をアクティブ化すると、デフォルトのワークスペースが作成されます。 ただし、ワークスペースがない場合は、手動で作成する必要があります。 Object Storage Service(OSS)などのサービスは、コード、モデル、データセット、およびその他のファイルを保存するためにクラウド ストレージが必要なため、デフォルトでアクティブ化されます。

手順を表示するには、クリックします

  1. PAI コンソール に移動して、PAI をアクティブ化します。 リージョンごとに個別にアクティブ化する必要があるため、リージョンは慎重に選択してください。

    image.png

  2. (オプション) OSS をアクティブ化していない場合は、OSS コンソール ページ に移動して、OSS をアクティブ化し、PAI ワークスペースと同じリージョンに バケットを作成します。

    image.png

  3. PAI ワークスペース ページに移動し、[ワークスペースの作成] をクリックします。

    image.png

  4. Model Gallery に移動して、目的のモデルを見つけることができます。image.png

(注) リージョンとリソース仕様

  1. PAI ワークスペースや OSS バケットなど、ほとんどの Alibaba Cloud サービスはリージョン固有であることに気付いているかもしれません。 一部のリージョンは相互接続されていない可能性があるため、選択するリージョンに注意する必要があります。

  2. 計算リソースの可用性と仕様は、リージョンによって大きく異なる場合があります。 特定のリージョンにリソースがない場合は、他のリージョンの可用性を確認してください。

    image.png

  3. PAI は、従量課金制とサブスクリプションの 2 つの課金オプションを提供しています。 従量課金制リソースはすべてのユーザーで共有されるため、在庫切れが発生する可能性があります。 その場合は、他のリージョンの可用性を確認してください。

  4. PAI は、さまざまなシナリオに対応するさまざまなリソース仕様を提供しています。 一部の仕様は、ホワイトリストに登録されているユーザーに制限されています。 シナリオに合わせたアドバイスについては、営業担当者にお問い合わせください。

    プラットフォームは、凌雲リソース もサポートしています。これは、通信に高速ネットワークを使用し、分散トレーニングやデプロイに不可欠です。 凌雲リソースもホワイトリストに登録されているユーザーに制限されています。 必要に応じて、営業担当者にお問い合わせください。

    image.png

(オプション) 分散トレーニングまたはデプロイ用の VPC を作成する

分散トレーニングまたはデプロイには、仮想プライベートクラウド(VPC)が必要です。 さらに、インターネット アクセスが必要なシナリオでは、VPC のパブリック ポートが必要です。

VPC を作成するときは、vSwitch とセキュリティ グループも設定します。

  1. VPC と vSwitch を作成する

  2. 同じリージョンにセキュリティ グループを作成する

その後、Model Gallery でトレーニングまたはデプロイを開始するときに VPC を設定できます。 image.png

モデル デプロイメント

DeepSeek-V3 および DeepSeek-R1 のワンクリック デプロイメント

また、蒸留モデルである DeepSeek-R1-Distill-Qwen-7B もお勧めします。これはサイズが小さいため、クイック プラクティスに最適です。 計算リソースの要件が低く、無料トライアル リソースを使用してデプロイできます。

ファインチューニングと蒸留

ファインチューニング: プライベート データを使用してモデルをトレーニングし、シナリオでの応答の精度を向上させます。

蒸留: 大きな教師モデルの知識を小さな生徒モデルに転送します。 これにより、教師モデルの推論機能と精度は維持されますが、計算コストとストレージ コストが大幅に削減されます。 蒸留もファインチューニングの一種です。

説明

ファインチューニングは簡単な作業ではなく、すべての問題を解決できるわけではありません。 ファインチューニングの成功は、データセットのサイズと品質、トレーニング ハイパーパラメーター、および多数の試行など、さまざまな要因によって異なります。 多くの実際のシナリオでは、より単純な検索拡張生成(RAG)アプリケーションで十分な場合、ファインチューニングが最適なソリューションではない場合があります。 すべては特定のニーズによって異なります。

DeepSeek-R1 蒸留モデルのワンクリック ファインチューニング

AI アプリケーションの構築

LangStudio を使用したアプリケーションの開発

PAI は、LangStudio モジュールを提供します。これは、エンタープライズ レベルの LLM アプリケーションの開発を簡素化します。 LangStudio には、RAG や Web 検索など、最も一般的な AI アプリケーション タイプの組み込みテンプレートがあります。 簡単な構成で対応する AI アプリケーションを作成できます。