全部产品
Search
文档中心

Alibaba Cloud Linux:Gunakan gambar kontainer AI untuk menerapkan Qwen-7B-Chat pada instance yang dilengkapi dengan GPU NVIDIA

更新时间:Jun 28, 2025

Topik ini menjelaskan cara menggunakan gambar kontainer Kecerdasan Buatan (AI) dari Alibaba Cloud AI Containers (AC2) untuk menerapkan Qwen-7B-Chat pada Instance ECS (Elastic Compute Service) dengan GPU NVIDIA guna membuat chatbot.

Langkah 1: Buat Instance ECS

  1. Buka halaman pembelian instance di Konsol ECS.

  2. Konfigurasikan parameter sesuai petunjuk untuk membuat Instance ECS.

    Catat parameter berikut. Untuk informasi lebih lanjut tentang konfigurasi parameter lainnya di halaman pembelian Instance ECS, lihat Buat Instance di Tab Peluncuran Kustom.

    • Instance: Qwen-7B-Chat memerlukan lebih dari 16 GiB Memori GPU. Untuk memastikan stabilitas model, pilih tipe instance minimal ecs.gn6i-c4g1.xlarge.

    • Image: Pilih image Alibaba Cloud Linux 3.2104 LTS 64-bit.

    • Public IP Address: Untuk mempercepat proses unduhan model, pilih Assign Public IPv4 Address, atur Metode Penagihan Bandwidth ke Pay-by-traffic, dan tetapkan Bandwidth Maksimum ke 100 Mbit/s.

      image

    • Data Disk: Beberapa file model Qwen-7B-Chat memerlukan ruang penyimpanan besar. Untuk memastikan kinerja optimal, tambahkan disk data minimal 100 GiB.

Langkah 2: Buat lingkungan runtime Docker

  1. Instal Docker.

    Untuk panduan instalasi Docker pada Instance ECS dengan Alibaba Cloud Linux 3, lihat Instal Docker.

  2. Jalankan perintah berikut untuk memverifikasi bahwa daemon Docker telah dimulai:

    sudo systemctl status docker
  3. Jalankan perintah berikut untuk menginstal driver NVIDIA dan Komponen Compute Unified Device Architecture (CUDA):

    sudo dnf install -y anolis-epao-release
    sudo dnf install -y kernel-devel-$(uname -r) nvidia-driver{,-cuda}
  4. Jalankan perintah berikut untuk menginstal NVIDIA Container Toolkit:

    sudo dnf install -y nvidia-container-toolkit
  5. Jalankan perintah berikut untuk memulai ulang daemon Docker. Saat NVIDIA Container Toolkit terpasang, panggilan balik pra-mulai Oracle Cloud Infrastructure (OCI) ditambahkan. Selama pemulangan daemon Docker, GPU menjadi dapat diakses oleh kontainer melalui panggilan balik pra-mulai OCI.

    sudo systemctl restart docker

    Setelah daemon Docker dimulai ulang, kemampuan pass-through GPU diaktifkan untuk Docker. Saat membuat kontainer, konfigurasikan parameter --gpus <gpu-request> untuk menentukan GPU mana yang akan dilewatkan.

  6. Jalankan perintah berikut untuk membuat dan menjalankan kontainer AI PyTorch:

    AC2 menyediakan berbagai gambar kontainer AI. Anda dapat menggunakan gambar tersebut untuk dengan cepat membuat lingkungan runtime PyTorch.

    sudo docker pull ac2-registry.cn-hangzhou.cr.aliyuncs.com/ac2/pytorch:2.2.0.1-3.2304-cu121
    sudo docker run -itd --name pytorch --gpus all --net host -v $HOME/workspace:/workspace \
      ac2-registry.cn-hangzhou.cr.aliyuncs.com/ac2/pytorch:2.2.0.1-3.2304-cu121

    Saat perintah sebelumnya dijalankan, sistem menarik gambar kontainer, menggunakan gambar untuk membuat kontainer bernama pytorch yang berjalan dalam mode terpisah, serta memetakan direktori home ke kontainer untuk melestarikan kode.

Langkah 3: Terapkan Qwen-7B-Chat

  1. Jalankan perintah berikut untuk masuk ke lingkungan kontainer:

    sudo docker exec -it -w /workspace pytorch /bin/bash

    Anda harus menggunakan lingkungan kontainer untuk menjalankan perintah selanjutnya. Jika keluar secara tidak sengaja, masuk kembali ke lingkungan kontainer. Gunakan perintah cat /proc/1/cgroup | grep docker untuk memeriksa apakah lingkungan saat ini adalah kontainer. Jika ada keluaran perintah yang dikembalikan, lingkungannya adalah kontainer.

  2. Jalankan perintah berikut untuk menginstal dan mengonfigurasi perangkat lunak yang diperlukan:

    yum install -y git git-lfs wget tmux
  3. Jalankan perintah berikut untuk mengaktifkan Git Large File Storage (LFS).

    Mengunduh model pralatih memerlukan dukungan Git LFS.

    git lfs install
  4. Unduh kode sumber dan model.

    1. Buat sesi tmux:

      tmux

      Catatan: Proses pengunduhan model pralatih memerlukan waktu lama. Disarankan untuk mengunduh model dalam sesi tmux. Jika instance terputus, sambungkan kembali ke instance dan jalankan perintah tmux attach untuk melanjutkan sesi.

    2. Jalankan perintah berikut untuk mengunduh kode sumber dan model pralatih proyek Qwen-7B-Chat:

      git clone https://github.com/QwenLM/Qwen.git
      git clone https://www.modelscope.cn/qwen/Qwen-7B-Chat.git qwen-7b-chat --depth=1
  5. Jalankan perintah berikut untuk menerapkan lingkungan runtime:

    Sejumlah dependensi Python AI telah diintegrasikan ke dalam AC2. Anda dapat menggunakan YUM atau Dandified YUM (DNF) untuk menginstal dependensi runtime Python.

    dnf install -y python-einops \
        python3-datasets \
        python3-gradio \
        python3-mdtex2html \
        python3-protobuf \
        python3-psutil \
        python3-pyyaml \
        python3-rich \
        python3-scikit-learn \
        python3-scipy \
        python3-sentencepiece \
        python3-tensorboard \
        python3-tiktoken \
        python3-transformers \
        python3-transformers-stream-generator \
        yum-utils

    Beberapa dependensi tertentu harus diunduh dan diinstal secara manual untuk mencegah komponen dalam gambar AC2 tertimpa selama instalasi.

    yumdownloader --destdir ./rpmpkgs python3-timm python3-accelerate
    rpm -ivh --nodeps rpmpkgs/*.rpm && rm -rf rpmpkgs
  6. Berinteraksi dengan chatbot:

    1. Jalankan perintah berikut untuk memulai chatbot:

      cd /workspace/Qwen
      python3 cli_demo.py -c ../qwen-7b-chat

      Setelah penyebaran selesai, Anda dapat memasukkan teks di prompt User: untuk berbicara dengan model Qwen-7B-Chat secara real-time.

      image.png

      Catatan

      Untuk keluar dari chatbot, jalankan perintah :exit.