Komponen Inferensi Model BERT dari Platform for AI (PAI) digunakan untuk melakukan inferensi offline menggunakan model Bidirectional Encoder Representations from Transformers (BERT). Komponen ini mengklasifikasikan teks dalam tabel input melalui model klasifikasi berbasis BERT yang telah dilatih.
Batasan
Komponen Inferensi Model BERT PAI hanya dapat digunakan dengan sumber daya Deep Learning Containers (DLC).
Algoritma
BERT adalah model bahasa pra-latih (PLM) berbasis Transformer di bidang pemrosesan bahasa alami (NLP). Model ini dilatih pada sejumlah besar data teks mentah untuk mempelajari pemahaman konteks dua arah dari teks input. BERT memahami setiap kata berdasarkan kata-kata sebelum dan sesudahnya serta dapat disesuaikan untuk berbagai tugas NLP. Komponen Inferensi Model BERT PAI menggunakan model klasifikasi berbasis BERT yang telah dilatih untuk mengklasifikasikan teks dalam tabel input ke dalam kategori yang ditentukan selama pelatihan.
Konfigurasikan komponen di konsol PAI
Anda dapat mengonfigurasi parameter komponen Inferensi Model BERT PAI di Machine Learning Designer.
Port input
Port input (kiri ke kanan)
Tipe data
Komponen hulu yang direkomendasikan
Diperlukan
Tabel Data Inferensi
Tabel MaxCompute
Ya
Parameter komponen
Tab
Parameter
Diperlukan
Deskripsi
Nilai default
Fields Setting
OSS model path
Ya
Path Object Storage Service (OSS) model klasifikasi berbasis BERT yang dilatih di QuickStart.
Tidak tersedia
Selected Column Name
Ya
Pilih kolom teks yang ingin Anda prediksi.
Tidak tersedia
Lifecycle
Tidak
Siklus hidup tabel output.
28
Tuning
GPU
Tidak
Pilih tipe instans Elastic Compute Service (ECS) dengan akselerasi GPU untuk pelatihan.
Tidak tersedia
Maximum Running Duration
Tidak
Durasi maksimum komponen berjalan.
Tidak tersedia
Port output
Port output (kiri ke kanan)
Tipe data
Komponen hilir
Tabel Output
Tabel MaxCompute
Referensi
Untuk informasi lebih lanjut tentang komponen Machine Learning Designer, lihat Ikhtisar Machine Learning Designer.