Topik ini menjelaskan penggunaan TPC Benchmark H (TPC-H) untuk menguji kinerja kueri pemrosesan analitik online (OLAP) dan kueri titik pasangan nilai-kunci.
Tentang TPC-H
Deskripsi berikut dikutip dari Spesifikasi TPC Benchmark™ H (TPC-H):
TPC-H adalah benchmark pendukung keputusan yang mencakup rangkaian kueri ad hoc berorientasi bisnis dan modifikasi data bersamaan. Kueri serta data yang digunakan untuk mengisi database dipilih agar relevan di berbagai industri. Benchmark ini merepresentasikan sistem pendukung keputusan yang memproses volume data besar, mengeksekusi kueri kompleks, dan memberikan jawaban atas pertanyaan bisnis penting.
Untuk informasi lebih lanjut, lihat Spesifikasi Standar TPC Benchmark™ H.
Pengujian kinerja TPC-H yang dijelaskan dalam topik ini diimplementasikan berdasarkan pengujian benchmark TPC-H tetapi tidak memenuhi semua persyaratan pengujian benchmark TPC-H. Oleh karena itu, hasil pengujian yang dijelaskan dalam topik ini tidak dapat dibandingkan dengan hasil publikasi pengujian benchmark TPC-H.
Dataset
TPC-H adalah dataset yang dikembangkan oleh Transaction Processing Performance Council (TPC) untuk mensimulasikan sistem pendukung keputusan. Dataset ini digunakan di akademisi dan industri untuk mengevaluasi kinerja sistem pendukung keputusan.
TPC-H memodelkan data dalam lingkungan produksi untuk mensimulasikan gudang data sistem penjualan. Gudang data terdiri dari delapan tabel dengan ukuran masing-masing berkisar antara 1 GB hingga 3 TB. Pengujian benchmark TPC-H melibatkan 22 pernyataan kueri, dengan fokus pada waktu respons setiap kueri, yaitu durasi dari pengiriman kueri hingga penerimaan hasil. Hasil pengujian secara komprehensif mencerminkan kemampuan sistem dalam memproses kueri. Untuk informasi lebih lanjut, lihat Spesifikasi Standar TPC BENCHMARK H.
Skenario
Topik ini mencakup pengujian berikut:
Pengujian kinerja kueri OLAP: Membuat tabel berorientasi kolom, mengimpor data ke tabel, lalu mengeksekusi 22 pernyataan kueri dari pengujian benchmark TPC-H.
Pengujian kinerja kueri titik pasangan nilai-kunci: Membuat tabel berorientasi baris berdasarkan skema yang ditentukan untuk tabel ORDERS dan mengeksekusi kueri titik berdasarkan kunci utama.
Pengujian pembaruan data: Menguji kinerja pembaruan data berdasarkan kunci utama untuk mesin OLAP.
Jumlah data uji memengaruhi hasil pengujian. Alat pembuatan data TPC-H memungkinkan Anda mengubah faktor skala (SF) untuk menyesuaikan jumlah data yang dihasilkan. Satu SF menunjukkan 1 GB data.
Jumlah data sebelumnya merujuk pada jumlah raw data. Saat menyiapkan lingkungan pengujian, Anda juga harus mempertimbangkan faktor lain seperti ruang yang akan ditempati oleh indeks.
Perhatian
Untuk mengurangi variabel yang mungkin memengaruhi hasil pengujian, disarankan menggunakan instance baru setiap kali melakukan pengujian yang dijelaskan dalam topik ini, alih-alih meningkatkan atau menurunkan spesifikasi instance yang ada, untuk memenuhi persyaratan pengujian.
Pengujian kinerja pada kueri OLAP
Persiapan awal.
Siapkan lingkungan dasar untuk pengujian kueri OLAP.
Beli instance Hologres. Untuk informasi lebih lanjut, lihat Beli instance Hologres. Dalam contoh ini, instance pay-as-you-go eksklusif digunakan. Instance ini hanya untuk pengujian dan dikonfigurasi dengan 96 core CPU dan 384 GB memori. Anda juga dapat mengonfigurasi sumber daya komputasi sesuai kebutuhan bisnis.
Buat instance Elastic Compute Service (ECS). Untuk informasi lebih lanjut, lihat Metode Pembuatan. Tabel berikut menjelaskan spesifikasi instance ECS yang digunakan dalam topik ini.
Item
Spesifikasi
Instance type
ecs.g6.4xlarge
Image
Alibaba Cloud Linux 3.2104 LTS 64-bit
Data disk
Enterprise SSD (ESSD) digunakan. Anda dapat menentukan kapasitas berdasarkan jumlah data yang digunakan dalam pengujian.
Unduh dan konfigurasikan paket pengujian benchmark untuk Hologres.
Masuk ke instance ECS. Untuk informasi lebih lanjut, lihat bagian "Hubungkan ke instance" dalam Buat dan kelola instance ECS di konsol (versi ekspres).
Instal klien PostgreSQL.
yum update -y yum install postgresql-server -y yum install postgresql-contrib -yUnduh dan dekompres paket pengujian benchmark untuk Hologres.
wget https://oss-tpch.oss-cn-hangzhou.aliyuncs.com/hologres_benchmark.tar.gz tar xvf hologres_benchmark.tar.gzPergi ke direktori benchmark Hologres.
cd hologres_benchmarkJalankan perintah
vim group_vars/alldan konfigurasikan parameter yang diperlukan untuk pengujian benchmark.# db config login_host: "" login_user: "" login_password: "" login_port: "" # benchmark run cluster: hologres cluster: "hologres" RUN_MODE: "HOTRUN" # benchmark config scale_factor: 1 work_dir_root: /your/working_dir/benchmark/workdirs dataset_generate_root_path: /your/working_dir/benchmark/datasetsTabel berikut menjelaskan parameter.
Tipe
Parameter
Deskripsi
Parameter koneksi Hologres
login_host
Titik akhir virtual private cloud (VPC) dari instance Hologres.
Anda dapat masuk ke Konsol Hologres, pergi ke halaman Detail Instance, dan mendapatkan titik akhir VPC di kolom Endpoint di bagian Network Information.
CatatanTitik akhir tidak mengandung nomor port. Contoh:
hgpostcn-cn-nwy364b5v009-cn-shanghai-vpc-st.hologres.aliyuncs.com.login_port
Nomor port VPC tempat instance Hologres berada.
Anda dapat masuk ke Konsol Hologres, pergi ke halaman Detail Instance, dan mendapatkan nomor port titik akhir VPC di kolom Endpoint di bagian Network Information.
login_user
ID AccessKey akun Alibaba Cloud Anda.
Anda dapat mendapatkan ID AccessKey dari halaman Pasangan AccessKey.
login_password
Rahasia AccessKey akun Alibaba Cloud Anda.
Parameter konfigurasi pengujian benchmark
scale_factor
SF dari set data, yang mengontrol jumlah data yang akan dihasilkan. Nilai default: 1. Unit: GB.
work_dir_root
Direktori root dari direktori kerja. Direktori root digunakan untuk menyimpan data seperti pernyataan pembuatan tabel dan pernyataan SQL lainnya untuk pengujian TPC-H. Direktori default adalah
/your/working_dir/benchmark/workdirs.dataset_generate_root_path
Path tempat set data uji yang dihasilkan disimpan. Path default adalah
/your/working_dir/benchmark/datasets.
Jalankan perintah berikut untuk mengaktifkan pengujian TPC-H otomatis end-to-end.
Pengujian TPC-H end-to-end mencakup pembuatan data, pembuatan database uji, pembuatan tabel, dan impor data ke tabel. Database uji dinamai dalam format tpc_h_sf<scale_factor>, seperti tpc_h_sf1000.
bin/run_tpch.shAnda juga dapat menjalankan perintah berikut untuk melakukan pengujian kueri TPC-H.
bin/run_tpch.sh queryLihat hasil pengujian.
Periksa gambaran umum hasil pengujian.
Setelah menjalankan perintah
bin/run_tpch.sh, hasil pengujian akan ditampilkan. Contoh hasil pengujian:TASK [tpc_h : debug] ************************************************************************************************** skipping: [worker-1] ok: [master] => { "command_output.stdout_lines": [ "[info] 2024-06-28 14:46:09.768 | Run sql queries started.", "[info] 2024-06-28 14:46:09.947 | Run q10.sql started.", "[info] 2024-06-28 14:46:10.088 | Run q10.sql finished. Time taken: 0:00:00, 138 ms", "[info] 2024-06-28 14:46:10.239 | Run q11.sql started.", "[info] 2024-06-28 14:46:10.396 | Run q11.sql finished. Time taken: 0:00:00, 154 ms", "[info] 2024-06-28 14:46:10.505 | Run q12.sql started.", "[info] 2024-06-28 14:46:10.592 | Run q12.sql finished. Time taken: 0:00:00, 85 ms", "[info] 2024-06-28 14:46:10.703 | Run q13.sql started.", "[info] 2024-06-28 14:46:10.793 | Run q13.sql finished. Time taken: 0:00:00, 88 ms", "[info] 2024-06-28 14:46:10.883 | Run q14.sql started.", "[info] 2024-06-28 14:46:10.981 | Run q14.sql finished. Time taken: 0:00:00, 95 ms", "[info] 2024-06-28 14:46:11.132 | Run q15.sql started.", "[info] 2024-06-28 14:46:11.266 | Run q15.sql finished. Time taken: 0:00:00, 131 ms", "[info] 2024-06-28 14:46:11.441 | Run q16.sql started.", "[info] 2024-06-28 14:46:11.609 | Run q16.sql finished. Time taken: 0:00:00, 165 ms", "[info] 2024-06-28 14:46:11.728 | Run q17.sql started.", "[info] 2024-06-28 14:46:11.818 | Run q17.sql finished. Time taken: 0:00:00, 88 ms", "[info] 2024-06-28 14:46:12.017 | Run q18.sql started.", "[info] 2024-06-28 14:46:12.184 | Run q18.sql finished. Time taken: 0:00:00, 164 ms", "[info] 2024-06-28 14:46:12.287 | Run q19.sql started.", "[info] 2024-06-28 14:46:12.388 | Run q19.sql finished. Time taken: 0:00:00, 98 ms", "[info] 2024-06-28 14:46:12.503 | Run q1.sql started.", "[info] 2024-06-28 14:46:12.597 | Run q1.sql finished. Time taken: 0:00:00, 93 ms", "[info] 2024-06-28 14:46:12.732 | Run q20.sql started.", "[info] 2024-06-28 14:46:12.888 | Run q20.sql finished. Time taken: 0:00:00, 154 ms", "[info] 2024-06-28 14:46:13.184 | Run q21.sql started.", "[info] 2024-06-28 14:46:13.456 | Run q21.sql finished. Time taken: 0:00:00, 269 ms", "[info] 2024-06-28 14:46:13.558 | Run q22.sql started.", "[info] 2024-06-28 14:46:13.657 | Run q22.sql finished. Time taken: 0:00:00, 97 ms", "[info] 2024-06-28 14:46:13.796 | Run q2.sql started.", "[info] 2024-06-28 14:46:13.935 | Run q2.sql finished. Time taken: 0:00:00, 136 ms", "[info] 2024-06-28 14:46:14.051 | Run q3.sql started.", "[info] 2024-06-28 14:46:14.155 | Run q3.sql finished. Time taken: 0:00:00, 101 ms", "[info] 2024-06-28 14:46:14.255 | Run q4.sql started.", "[info] 2024-06-28 14:46:14.341 | Run q4.sql finished. Time taken: 0:00:00, 83 ms", "[info] 2024-06-28 14:46:14.567 | Run q5.sql started.", "[info] 2024-06-28 14:46:14.799 | Run q5.sql finished. Time taken: 0:00:00, 230 ms", "[info] 2024-06-28 14:46:14.881 | Run q6.sql started.", "[info] 2024-06-28 14:46:14.950 | Run q6.sql finished. Time taken: 0:00:00, 67 ms", "[info] 2024-06-28 14:46:15.138 | Run q7.sql started.", "[info] 2024-06-28 14:46:15.320 | Run q7.sql finished. Time taken: 0:00:00, 180 ms", "[info] 2024-06-28 14:46:15.572 | Run q8.sql started.", "[info] 2024-06-28 14:46:15.831 | Run q8.sql finished. Time taken: 0:00:00, 256 ms", "[info] 2024-06-28 14:46:16.081 | Run q9.sql started.", "[info] 2024-06-28 14:46:16.322 | Run q9.sql finished. Time taken: 0:00:00, 238 ms", "[info] 2024-06-28 14:46:16.325 | ----------- HOT RUN finished. Time taken: 3255 mill_sec -----------------" ] } skipping: [worker-2] skipping: [worker-3] skipping: [worker-4] TASK [tpc_h : clear Env] ********************************************************************************************** skipping: [worker-1] skipping: [worker-2] skipping: [worker-3] skipping: [worker-4] ok: [master] TASK [tpc_h : debug] ************************************************************************************************** ok: [master] => { "work_dir": "/your/working_dir/benchmark/workdirs/tpc_h/sf1" } skipping: [worker-1] skipping: [worker-2] skipping: [worker-3] skipping: [worker-4]Lihat detail hasil pengujian.
Setelah berhasil menjalankan perintah
bin/run_tpch.sh, sistem membangun direktori kerja untuk seluruh pengujian benchmark TPC-H dan mengembalikan path direktori<work_dir>. Anda dapat beralih ke path ini untuk melihat informasi terkait, seperti pernyataan kueri, pernyataan pembuatan tabel, dan log runtime. Gambar berikut menunjukkan contohnya.
Anda juga dapat menjalankan perintah
cd <work_dir>/logsuntuk pergi ke direktori logs di direktori kerja, dan melihat hasil pengujian serta hasil eksekusi rinci dari pernyataan SQL.Kode berikut menunjukkan struktur direktori
<work_dir>.working_dir/ `-- benchmark |-- datasets | `-- tpc_h | `-- sf1 | |-- worker-1 | | |-- customer.tbl | | `-- lineitem.tbl | |-- worker-2 | | |-- orders.tbl | | `-- supplier.tbl | |-- worker-3 | | |-- nation.tbl | | `-- partsupp.tbl | `-- worker-4 | |-- part.tbl | `-- region.tbl `-- workdirs `-- tpc_h `-- sf1 |-- config |-- hologres | |-- logs | | |-- q10.sql.err | | |-- q10.sql.out | | |-- q11.sql.err | | |-- q11.sql.out | | |-- q12.sql.err | | |-- q12.sql.out | | |-- q13.sql.err | | |-- q13.sql.out | | |-- q14.sql.err | | |-- q14.sql.out | | |-- q15.sql.err | | |-- q15.sql.out | | |-- q16.sql.err | | |-- q16.sql.out | | |-- q17.sql.err | | |-- q17.sql.out | | |-- q18.sql.err | | |-- q18.sql.out | | |-- q19.sql.err | | |-- q19.sql.out | | |-- q1.sql.err | | |-- q1.sql.out | | |-- q20.sql.err | | |-- q20.sql.out | | |-- q21.sql.err | | |-- q21.sql.out | | |-- q22.sql.err | | |-- q22.sql.out | | |-- q2.sql.err | | |-- q2.sql.out | | |-- q3.sql.err | | |-- q3.sql.out | | |-- q4.sql.err | | |-- q4.sql.out | | |-- q5.sql.err | | |-- q5.sql.out | | |-- q6.sql.err | | |-- q6.sqlout | | |-- q7.sql.err | | |-- q7.sql.out | | |-- q8.sql.err | | |-- q8.sql.out | | |-- q9.sql.err | | |-- q9.sql.out | | `-- run.log | `-- logs-20240628144609 | |-- q10.sql.err | |-- q10.sql.out | |-- q11.sql.err | |-- q11.sql.out | |-- q12.sql.err | |-- q12.sql.out | |-- q13.sql.err | |-- q13.sql.out | |-- q14.sql.err | |-- q14.sql.out | |-- q15.sql.err | |-- q15.sql.out | |-- q16.sql.err | |-- q16.sql.out | |-- q17.sql.err | |-- q17.sql.out | |-- q18.sql.err | |-- q18.sql.out | |-- q19.sql.err | |-- q19.sql.out | |-- q1.sql.err | |-- q1.sql.out | |-- q20.sql.err | |-- q20.sql.out | |-- q21.sql.err | |-- q21.sql.out | |-- q22.sql.err | |-- q22.sql.out | |-- q2.sql.err | |-- q2.sql.out | |-- q3.sql.err | |-- q3.sql.out | |-- q4.sql.err | |-- q4.sql.out | |-- q5.sql.err | |-- q5.sql.out | |-- q6.sql.err | |-- q6.sql.out | |-- q7.sql.err | |-- q7.sql.out | |-- q8.sql.err | |-- q8.sql.out | |-- q9.sql.err | |-- q9.sql.out | `-- run.log |-- queries | |-- ddl | | |-- hologres_analyze_tables.sql | | `-- hologres_create_tables.sql | |-- q10.sql | |-- q11.sql | |-- q12.sql | |-- q13.sql | |-- q14.sql | |-- q15.sql | |-- q16.sql | |-- q17.sql | |-- q18.sql | |-- q19.sql | |-- q1.sql | |-- q20.sql | |-- q21.sql | |-- q22.sql | |-- q2.sql | |-- q3.sql | |-- q4.sql | |-- q5.sql | |-- q6.sql | |-- q7.sql | |-- q8.sql | `-- q9.sql |-- run_hologres.sh |-- run_mysql.sh |-- run.sh `-- tpch_tools |-- dbgen |-- qgen `-- resouces |-- dists.dss `-- queries |-- 10.sql |-- 11.sql |-- 12.sql |-- 13.sql |-- 14.sql |-- 15.sql |-- 16.sql |-- 17.sql |-- 18.sql |-- 19.sql |-- 1.sql |-- 20.sql |-- 21.sql |-- 22.sql |-- 2.sql |-- 3.sql |-- 4.sql |-- 5.sql |-- 6.sql |-- 7.sql |-- 8.sql `-- 9.sql
Pengujian kinerja pada kueri titik pasangan nilai-kunci
Anda dapat menggunakan database hologres_tpch dan tabel ORDERS yang dibuat untuk pengujian kinerja kueri OLAP untuk melakukan pengujian kinerja kueri titik pasangan nilai-kunci. Prosedur:
Buat tabel.
Pengujian kinerja kueri titik pasangan nilai-kunci memerlukan tabel berorientasi baris. Oleh karena itu, tabel yang dibuat untuk pengujian kinerja kueri OLAP tidak dapat digunakan langsung. Anda harus membuat tabel berorientasi baris. Gunakan klien PostgreSQL untuk terhubung ke instance Hologres dan jalankan perintah berikut untuk membuat tabel bernama public.orders_row.
CatatanUntuk informasi lebih lanjut tentang cara menggunakan klien PostgreSQL untuk terhubung ke instance Hologres, lihat bagian "Hubungkan ke instance Hologres untuk pengembangan data" dalam Gunakan klien PostgreSQL untuk terhubung ke Hologres.
DROP TABLE IF EXISTS public.orders_row; BEGIN; CREATE TABLE public.orders_row( O_ORDERKEY BIGINT NOT NULL PRIMARY KEY ,O_CUSTKEY INT NOT NULL ,O_ORDERSTATUS TEXT NOT NULL ,O_TOTALPRICE DECIMAL(15,2) NOT NULL ,O_ORDERDATE TIMESTAMPTZ NOT NULL ,O_ORDERPRIORITY TEXT NOT NULL ,O_CLERK TEXT NOT NULL ,O_SHIPPRIORITY INT NOT NULL ,O_COMMENT TEXT NOT NULL ); CALL SET_TABLE_PROPERTY('public.orders_row', 'orientation', 'row'); CALL SET_TABLE_PROPERTY('public.orders_row', 'clustering_key', 'o_orderkey'); CALL SET_TABLE_PROPERTY('public.orders_row', 'distribution_key', 'o_orderkey'); COMMIT;Impor data.
Eksekusi pernyataan INSERT INTO untuk mengimpor data dari tabel ORDERS dalam dataset TPC-H ke tabel public.orders_row.
CatatanHologres V2.1.17 dan versi lebih baru mendukung fitur Serverless Computing. Fitur ini cocok untuk skenario di mana Anda ingin mengimpor sejumlah besar data secara offline, menjalankan pekerjaan ekstrak, transformasi, dan pemuatan (ETL) berskala besar, atau menanyakan sejumlah besar data dari tabel asing. Anda dapat menggunakan fitur Serverless Computing untuk melakukan operasi tersebut berdasarkan sumber daya komputasi serverless tambahan. Ini menghilangkan kebutuhan untuk memesan sumber daya komputasi tambahan untuk instance, meningkatkan stabilitas instance, dan mengurangi kemunculan kesalahan out of memory (OOM). Anda hanya dikenakan biaya untuk sumber daya komputasi serverless tambahan yang digunakan oleh tugas. Untuk informasi lebih lanjut tentang fitur Serverless Computing, lihat Serverless Computing. Untuk panduan penggunaan fitur ini, lihat Panduan Pengguna pada Serverless Computing.
-- Opsional. Kami sarankan Anda menggunakan fitur Serverless Computing untuk mengimpor sejumlah besar data secara offline dan menjalankan pekerjaan ekstrak, transformasi, dan pemuatan (ETL). SET hg_computing_resource = 'serverless'; INSERT INTO public.orders_row SELECT * FROM public.orders; -- Reset konfigurasi. Ini memastikan bahwa sumber daya komputasi serverless tidak digunakan untuk pernyataan SQL berikutnya. RESET hg_computing_resource;Lakukan kueri.
Hasilkan pernyataan kueri.
Tabel berikut menjelaskan dua jenis kueri yang terlibat dalam pengujian kinerja kueri titik pasangan nilai-kunci.
Tipe Kueri
Pernyataan Kueri
Deskripsi
Penyaringan Nilai Tunggal
SELECT column_a ,column_b ,... ,column_x FROM table_x WHERE pk = value_x ;Pernyataan kueri ini berlaku untuk penyaringan nilai tunggal di mana hanya satu nilai kunci utama yang ditentukan dalam klausa
WHERE.Penyaringan Multi-Nilai
SELECT column_a ,column_b ,... ,column_x FROM table_x WHERE pk IN ( value_a, value_b,..., value_x ) ;Pernyataan kueri ini berlaku untuk penyaringan multi-nilai di mana beberapa nilai kunci utama ditentukan dalam klausa
WHERE.Eksekusi skrip berikut untuk menghasilkan pernyataan SQL yang diperlukan.
rm -rf kv_query mkdir kv_query cd kv_query echo " \set column_values random(1,99999999) select O_ORDERKEY,O_CUSTKEY,O_ORDERSTATUS,O_TOTALPRICE,O_ORDERDATE,O_ORDERPRIORITY,O_CLERK,O_SHIPPRIORITY,O_COMMENT from public.orders_row WHERE o_orderkey =:column_values; " >> kv_query_single.sql echo " \set column_values1 random(1,99999999) \set column_values2 random(1,99999999) \set column_values3 random(1,99999999) \set column_values4 random(1,99999999) \set column_values5 random(1,99999999) \set column_values6 random(1,99999999) \set column_values7 random(1,99999999) \set column_values8 random(1,99999999) \set column_values9 random(1,99999999) select O_ORDERKEY,O_CUSTKEY,O_ORDERSTATUS,O_TOTALPRICE,O_ORDERDATE,O_ORDERPRIORITY,O_CLERK,O_SHIPPRIORITY,O_COMMENT from public.orders_row WHERE o_orderkey in(:column_values1,:column_values2,:column_values3,:column_values4,:column_values5,:column_values6,:column_values7,:column_values8,:column_values9); " >> kv_query_in.sqlDua file SQL dihasilkan:
kv_query_single.sql: Pernyataan SQL yang berlaku untuk penyaringan nilai tunggal disimpan dalam file ini.kv_query_in.sql: Pernyataan SQL yang berlaku untuk penyaringan multi-nilai disimpan dalam file ini, di mana 10 nilai kunci utama acak ditentukan dalam klausa WHERE.
Instal pgbench, yang memfasilitasi pengumpulan statistik pada kueri. Jalankan perintah berikut untuk menginstal pgbench:
yum install postgresql-contrib -yUntuk mencegah masalah ketidakcocokan, disarankan menginstal pgbench V13 atau lebih baru. Jika Anda telah menginstal pgbench secara lokal, pastikan versinya lebih baru dari V9.6. Untuk melihat versi pgbench, jalankan perintah berikut:
pgbench --versionEksekusi pernyataan kueri.
CatatanJalankan perintah berikut di direktori tempat file SQL berada.
Gunakan pgbench untuk mengeksekusi pernyataan kueri yang berlaku untuk penyaringan nilai tunggal.
PGUSER=<AccessKey_ID> PGPASSWORD=<AccessKey_Secret> PGDATABASE=<Database> pgbench -h <Endpoint> -p <Port> -c <Client_Num> -T <Query_Seconds> -M prepared -n -f kv_query_single.sqlGunakan pgbench untuk mengeksekusi pernyataan kueri yang berlaku untuk penyaringan multi-nilai.
PGUSER=<AccessKey_ID> PGPASSWORD=<AccessKey_Secret> PGDATABASE=<Database> pgbench -h <Endpoint> -p <Port> -c <Client_Num> -T <Query_Seconds> -M prepared -n -f kv_query_in.sql
Tabel berikut menjelaskan parameter dalam perintah sebelumnya.
Parameter
Deskripsi
AccessKey_ID
ID AccessKey akun Alibaba Cloud Anda.
Anda dapat mendapatkan ID AccessKey dari halaman Pasangan AccessKey.
AccessKey_Secret
Rahasia AccessKey akun Alibaba Cloud Anda.
Anda dapat mendapatkan Rahasia AccessKey dari halaman Pasangan AccessKey.
Database
Nama database Hologres.
Setelah Anda membeli instance Hologres, database bernama postgres dibuat secara default.
Anda dapat menghubungkan database postgres ke instance Hologres. Namun, sumber daya yang dialokasikan untuk database ini terbatas. Kami sarankan Anda membuat database untuk memastikan sumber daya yang cukup untuk bisnis Anda. Untuk informasi lebih lanjut, lihat Buat Database.
Endpoint
Endpoint instance Hologres.
Anda dapat mendapatkan endpoint instance Hologres dari bagian Network Information halaman Detail Instance di Konsol Hologres.
Port
Nomor port instance Hologres.
Anda dapat mendapatkan nomor port instance Hologres di halaman Instance Details di Konsol Hologres.
Client_Num
Jumlah klien yang akan diuji.
Dalam contoh ini, Anda hanya perlu menguji kinerja kueri, bukan konkurensi. Oleh karena itu, parameter ini diatur ke 1.
Query_Seconds
Durasi uji stres setiap kueri yang dieksekusi oleh setiap klien. Unit: detik. Dalam contoh ini, parameter ini diatur ke 300.
Pengujian pembaruan data
Anda dapat menguji kinerja pembaruan data berdasarkan kunci utama untuk mesin OLAP. Dalam contoh ini, satu baris data dimasukkan, atau satu baris data diperbarui jika terjadi konflik kunci utama.
Hasilkan pernyataan kueri.
echo " \set O_ORDERKEY random(1,99999999) INSERT INTO public.orders_row(o_orderkey,o_custkey,o_orderstatus,o_totalprice,o_orderdate,o_orderpriority,o_clerk,o_shippriority,o_comment) VALUES (:O_ORDERKEY,1,'demo',1.1,'2021-01-01','demo','demo',1,'demo') on conflict(o_orderkey) do update set (o_orderkey,o_custkey,o_orderstatus,o_totalprice,o_orderdate,o_orderpriority,o_clerk,o_shippriority,o_comment)= ROW(excluded.*); " > /root/insert_on_conflict.sqlMasukkan data atau perbarui data. Untuk informasi lebih lanjut tentang parameter, lihat Parameter dalam topik ini.
PGUSER=<AccessKey_ID> PGPASSWORD=<AccessKey_Secret> PGDATABASE=<Database> pgbench -h <Endpoint> -p <Port> -c <Client_Num> -T <Query_Seconds> -M prepared -n -f /root/insert_on_conflict.sqlContoh hasil:
transaction type: Custom query scaling factor: 1 query mode: prepared number of clients: 249 number of threads: 1 duration: 60 s number of transactions actually processed: 1923038 tps = 32005.850214 (termasuk pembuatan koneksi) tps = 36403.145722 (tidak termasuk pembuatan koneksi)
Pengujian kinerja menggunakan Realtime Compute for Apache Flink untuk menulis data ke Hologres secara real-time
Anda dapat melakukan pengujian ini untuk mengevaluasi kinerja menggunakan Realtime Compute for Apache Flink untuk menulis data ke Hologres secara real-time.
Pernyataan DDL Hologres
Dalam contoh ini, tabel Hologres yang berisi 10 kolom digunakan. Kolom
keydikonfigurasikan sebagai kolom kunci utama. Untuk membuat tabel Hologres ini, eksekusi pernyataan DDL berikut:DROP TABLE IF EXISTS flink_insert; BEGIN ; CREATE TABLE IF NOT EXISTS flink_insert( key INT PRIMARY KEY ,value1 TEXT ,value2 TEXT ,value3 TEXT ,value4 TEXT ,value5 TEXT ,value6 TEXT ,value7 TEXT ,value8 TEXT ,value9 TEXT ); CALL SET_TABLE_PROPERTY('flink_insert', 'orientation', 'row'); CALL SET_TABLE_PROPERTY('flink_insert', 'clustering_key', 'key'); CALL SET_TABLE_PROPERTY('flink_insert', 'distribution_key', 'key'); COMMIT;Skrip untuk penyebaran Realtime Compute for Apache Flink
Anda dapat menggunakan generator angka acak yang disediakan oleh Flink yang sepenuhnya dikelola untuk menulis data ke Hologres. Jika terjadi konflik kunci utama, seluruh baris data diperbarui. Setiap baris berisi data lebih dari 512 byte. Eksekusi skrip berikut untuk menjalankan pekerjaan Realtime Compute for Apache Flink:
CREATE TEMPORARY TABLE flink_case_1_source ( key INT, value1 VARCHAR, value2 VARCHAR, value3 VARCHAR, value4 VARCHAR, value5 VARCHAR, value6 VARCHAR, value7 VARCHAR, value8 VARCHAR, value9 VARCHAR ) WITH ( 'connector' = 'datagen', -- opsi opsional -- 'rows-per-second' = '1000000000', 'fields.key.min'='1', 'fields.key.max'='2147483647', 'fields.value1.length' = '57', 'fields.value2.length' = '57', 'fields.value3.length' = '57', 'fields.value4.length' = '57', 'fields.value5.length' = '57', 'fields.value6.length' = '57', 'fields.value7.length' = '57', 'fields.value8.length' = '57', 'fields.value9.length' = '57' ); -- Buat tabel hasil Hologres. CREATE TEMPORARY TABLE flink_case_1_sink ( key INT, value1 VARCHAR, value2 VARCHAR, value3 VARCHAR, value4 VARCHAR, value5 VARCHAR, value6 VARCHAR, value7 VARCHAR, value8 VARCHAR, value9 VARCHAR ) WITH ( 'connector' = 'hologres', 'dbname'='<yourDbname>', -- Nama database Hologres. 'tablename'='<yourTablename>', -- Nama tabel Hologres ke mana Anda ingin menulis data. 'username'='<yourUsername>', --ID AccessKey akun Alibaba Cloud Anda. 'password'='<yourPassword>', -- Rahasia AccessKey akun Alibaba Cloud Anda. 'endpoint'='<yourEndpoint>', -- Titik akhir VPC dari instance Hologres ke mana Anda ingin terhubung. 'connectionSize' = '10', -- Nilai default adalah 3. 'jdbcWriteBatchSize' = '1024', -- Nilai default adalah 256. 'jdbcWriteBatchByteSize' = '2147483647', -- Nilai default adalah 20971520. 'mutatetype'='insertorreplace' -- Masukkan satu baris data, atau ganti data di seluruh baris. ); -- Ekstrak, transformasi, dan muat data serta tulis data ke Hologres. insert into flink_case_1_sink select key, value1, value2, value3, value4, value5, value6, value7, value8, value9 from flink_case_1_source ;Untuk informasi lebih lanjut tentang parameter, lihat Tabel hasil Hologres.
Contoh hasil:
Di halaman Monitoring Information instance Hologres di Konsol Hologres, Anda dapat melihat rekaman per detik (RPS).

22 pernyataan kueri TPC-H
Tabel berikut menyediakan tautan ke 22 pernyataan kueri TPC-H. Untuk melihat pernyataan kueri tertentu, klik tautan dalam tabel.
Item | Pernyataan Kueri | |||
22 pernyataan kueri TPC-H | ||||
- | - | |||
Q1
select l_returnflag, l_linestatus, sum(l_quantity) as sum_qty, sum(l_extendedprice) as sum_base_price, sum(l_extendedprice * (1 - l_discount)) as sum_disc_price, sum(l_extendedprice * (1 - l_discount) * (1 + l_tax)) as sum_charge, avg(l_quantity) as avg_qty, avg(l_extendedprice) as avg_price, avg(l_discount) as avg_disc, count(*) as count_order from lineitem where l_shipdate <= date '1998-12-01' - interval '120' day group by l_returnflag, l_linestatus order by l_returnflag, l_linestatus;Q2
select s_acctbal, s_name, n_name, p_partkey, p_mfgr, s_address, s_phone, s_comment from part, supplier, partsupp, nation, region where p_partkey = ps_partkey and s_suppkey = ps_suppkey and p_size = 48 and p_type like '%STEEL' and s_nationkey = n_nationkey and n_regionkey = r_regionkey and r_name = 'EUROPE' and ps_supplycost = ( select min(ps_supplycost) from partsupp, supplier, nation, region where p_partkey = ps_partkey and s_suppkey = ps_suppkey and s_nationkey = n_nationkey and n_regionkey = r_regionkey and r_name = 'EUROPE' ) order by s_acctbal desc, n_name, s_name, p_partkey limit 100;Q3
select l_orderkey, sum(l_extendedprice * (1 - l_discount)) as revenue, o_orderdate, o_shippriority from customer, orders, lineitem where c_mktsegment = 'MACHINERY' and c_custkey = o_custkey and l_orderkey = o_orderkey and o_orderdate < date '1995-03-23' and l_shipdate > date '1995-03-23' group by l_orderkey, o_orderdate, o_shippriority order by revenue desc, o_orderdate limit 10;Q4
select o_orderpriority, count(*) as order_count from orders where o_orderdate >= date '1996-07-01' and o_orderdate < date '1996-07-01' + interval '3' month and exists ( select * from lineitem where l_orderkey = o_orderkey and l_commitdate < l_receiptdate ) group by o_orderpriority order by o_orderpriority;Q5
select n_name, sum(l_extendedprice * (1 - l_discount)) as revenue from customer, orders, lineitem, supplier, nation, region where c_custkey = o_custkey and l_orderkey = o_orderkey and l_suppkey = s_suppkey and c_nationkey = s_nationkey and s_nationkey = n_nationkey and n_regionkey = r_regionkey and r_name = 'EUROPE' and o_orderdate >= date '1996-01-01' and o_orderdate < date '1996-01-01' + interval '1' year group by n_name order by revenue desc;Q6
select sum(l_extendedprice * l_discount) as revenue from lineitem where l_shipdate >= date '1996-01-01' and l_shipdate < date '1996-01-01' + interval '1' year and l_discount between 0.02 - 0.01 and 0.02 + 0.01 and l_quantity < 24;Q7
select supp_nation, cust_nation, l_year, sum(volume) as revenue from ( select n1.n_name as supp_nation, n2.n_name as cust_nation, extract(year from l_shipdate) as l_year, l_extendedprice * (1 - l_discount) as volume from supplier, lineitem, orders, customer, nation n1, nation n2 where s_suppkey = l_suppkey and o_orderkey = l_orderkey and c_custkey = o_custkey and s_nationkey = n1.n_nationkey and c_nationkey = n2.n_nationkey and ( (n1.n_name = 'CANADA' and n2.n_name = 'BRAZIL') or (n1.n_name = 'BRAZIL' and n2.n_name = 'CANADA') ) and l_shipdate between date '1995-01-01' and date '1996-12-31' ) as shipping group by supp_nation, cust_nation, l_year order by supp_nation, cust_nation, l_year;Q8
select o_year, sum(case when nation = 'BRAZIL' then volume else 0 end) / sum(volume) as mkt_share from ( select extract(year from o_orderdate) as o_year, l_extendedprice * (1 - l_discount) as volume, n2.n_name as nation from part, supplier, lineitem, orders, customer, nation n1, nation n2, region where p_partkey = l_partkey and s_suppkey = l_suppkey and l_orderkey = o_orderkey and o_custkey = c_custkey and c_nationkey = n1.n_nationkey and n1.n_regionkey = r_regionkey and r_name = 'AMERICA' and s_nationkey = n2.n_nationkey and o_orderdate between date '1995-01-01' and date '1996-12-31' and p_type = 'LARGE ANODIZED COPPER' ) as all_nations group by o_year order by o_year;Q9
select nation, o_year, sum(amount) as sum_profit from ( select n_name as nation, extract(year from o_orderdate) as o_year, l_extendedprice * (1 - l_discount) - ps_supplycost * l_quantity as amount from part, supplier, lineitem, partsupp, orders, nation where s_suppkey = l_suppkey and ps_suppkey = l_suppkey and ps_partkey = l_partkey and p_partkey = l_partkey and o_orderkey = l_orderkey and s_nationkey = n_nationkey and p_name like '%maroon%' ) as profit group by nation, o_year order by nation, o_year desc;Q10
select c_custkey, c_name, sum(l_extendedprice * (1 - l_discount)) as revenue, c_acctbal, n_name, c_address, c_phone, c_comment from customer, orders, lineitem, nation where c_custkey = o_custkey and l_orderkey = o_orderkey and o_orderdate >= date '1993-02-01' and o_orderdate < date '1993-02-01' + interval '3' month and l_returnflag = 'R' and c_nationkey = n_nationkey group by c_custkey, c_name, c_acctbal, c_phone, n_name, c_address, c_comment order by revenue desc limit 20;Q11
select ps_partkey, sum(ps_supplycost * ps_availqty) as value from partsupp, supplier, nation where ps_suppkey = s_suppkey and s_nationkey = n_nationkey and n_name = 'EGYPT' group by ps_partkey having sum(ps_supplycost * ps_availqty) > ( select sum(ps_supplycost * ps_availqty) * 0.0001000000 from partsupp, supplier, nation where ps_suppkey = s_suppkey and s_nationkey = n_nationkey and n_name = 'EGYPT' ) order by value desc;Q12
select l_shipmode, sum(case when o_orderpriority = '1-URGENT' or o_orderpriority = '2-HIGH' then 1 else 0 end) as high_line_count, sum(case when o_orderpriority <> '1-URGENT' and o_orderpriority <> '2-HIGH' then 1 else 0 end) as low_line_count from orders, lineitem where o_orderkey = l_orderkey and l_shipmode in ('FOB', 'AIR') and l_commitdate < l_receiptdate and l_shipdate < l_commitdate and l_receiptdate >= date '1997-01-01' and l_receiptdate < date '1997-01-01' + interval '1' year group by l_shipmode order by l_shipmode;Q13
select c_count, count(*) as custdist from ( select c_custkey, count(o_orderkey) as c_count from customer left outer join orders on c_custkey = o_custkey and o_comment not like '%special%deposits%' group by c_custkey ) c_orders group by c_count order by custdist desc, c_count desc;Q14
select 100.00 * sum(case when p_type like 'PROMO%' then l_extendedprice * (1 - l_discount) else 0 end) / sum(l_extendedprice * (1 - l_discount)) as promo_revenue from lineitem, part where l_partkey = p_partkey and l_shipdate >= date '1997-06-01' and l_shipdate < date '1997-06-01' + interval '1' month;Q15
with revenue0(SUPPLIER_NO, TOTAL_REVENUE) as ( select l_suppkey, sum(l_extendedprice * (1 - l_discount)) from lineitem where l_shipdate >= date '1995-02-01' and l_shipdate < date '1995-02-01' + interval '3' month group by l_suppkey ) select s_suppkey, s_name, s_address, s_phone, total_revenue from supplier, revenue0 where s_suppkey = supplier_no and total_revenue = ( select max(total_revenue) from revenue0 ) order by s_suppkey;Q16
select p_brand, p_type, p_size, count(distinct ps_suppkey) as supplier_cnt from partsupp, part where p_partkey = ps_partkey and p_brand <> 'Brand#45' and p_type not like 'SMALL ANODIZED%' and p_size in (47, 15, 37, 30, 46, 16, 18, 6) and ps_suppkey not in ( select s_suppkey from supplier where s_comment like '%Customer%Complaints%' ) group by p_brand, p_type, p_size order by supplier_cnt desc, p_brand, p_type, p_size;Q17
select sum(l_extendedprice) / 7.0 as avg_yearly from lineitem, part where p_partkey = l_partkey and p_brand = 'Brand#51' and p_container = 'WRAP PACK' and l_quantity < ( select 0.2 * avg(l_quantity) from lineitem where l_partkey = p_partkey );Q18
select c_name, c_custkey, o_orderkey, o_orderdate, o_totalprice, sum(l_quantity) from customer, orders, lineitem where o_orderkey in ( select l_orderkey from lineitem group by l_orderkey having sum(l_quantity) > 312 ) and c_custkey = o_custkey and o_orderkey = l_orderkey group by c_name, c_custkey, o_orderkey, o_orderdate, o_totalprice order by o_totalprice desc, o_orderdate limit 100;Q19
select sum(l_extendedprice* (1 - l_discount)) as revenue from lineitem, part where ( p_partkey = l_partkey and p_brand = 'Brand#52' and p_container in ('SM CASE', 'SM BOX', 'SM PACK', 'SM PKG') and l_quantity >= 3 and l_quantity <= 3 + 10 and p_size between 1 and 5 and l_shipmode in ('AIR', 'AIR REG') and l_shipinstruct = 'DELIVER IN PERSON' ) or ( p_partkey = l_partkey and p_brand = 'Brand#43' and p_container in ('MED BAG', 'MED BOX', 'MED PKG', 'MED PACK') and l_quantity >= 12 and l_quantity <= 12 + 10 and p_size between 1 and 10 and l_shipmode in ('AIR', 'AIR REG') and l_shipinstruct = 'DELIVER IN PERSON' ) or ( p_partkey = l_partkey and p_brand = 'Brand#52' and p_container in ('LG CASE', 'LG BOX', 'LG PACK', 'LG PKG') and l_quantity >= 21 and l_quantity <= 21 + 10 and p_size between 1 and 15 and l_shipmode in ('AIR', 'AIR REG') and l_shipinstruct = 'DELIVER IN PERSON' );Q20
select s_name, s_address from supplier, nation where s_suppkey in ( select ps_suppkey from partsupp where ps_partkey in ( select p_partkey from part where p_name like 'drab%' ) and ps_availqty > ( select 0.5 * sum(l_quantity) from lineitem where l_partkey = ps_partkey and l_suppkey = ps_suppkey and l_shipdate >= date '1996-01-01' and l_shipdate < date '1996-01-01' + interval '1' year ) ) and s_nationkey = n_nationkey and n_name = 'KENYA' order by s_name;Q21
select s_name, count(*) as numwait from supplier, lineitem l1, orders, nation where s_suppkey = l1.l_suppkey and o_orderkey = l1.l_orderkey and o_orderstatus = 'F' and l1.l_receiptdate > l1.l_commitdate and exists ( select * from lineitem l2 where l2.l_orderkey = l1.l_orderkey and l2.l_suppkey <> l1.l_suppkey ) and not exists ( select * from lineitem l3 where l3.l_orderkey = l1.l_orderkey and l3.l_suppkey <> l1.l_suppkey and l3.l_receiptdate > l3.l_commitdate ) and s_nationkey = n_nationkey and n_name = 'PERU' group by s_name order by numwait desc, s_name limit 100;Q22
select cntrycode, count(*) as numcust, sum(c_acctbal) as totacctbal from ( select substring(c_phone from 1 for 2) as cntrycode, c_acctbal from customer where substring(c_phone from 1 for 2) in ('24', '32', '17', '18', '12', '14', '22') and c_acctbal > ( select avg(c_acctbal) from customer where c_acctbal > 0.00 and substring(c_phone from 1 for 2) in ('24', '32', '17', '18', '12', '14', '22') ) and not exists ( select * from orders where o_custkey = c_custkey ) ) as custsale group by cntrycode order by cntrycode;