DataWorks menyediakan HDFS Reader dan HDFS Writer untuk membaca data dari serta menulis data ke sumber data Hadoop Distributed File System (HDFS). Topik ini menjelaskan kemampuan sinkronisasi data dari atau ke sumber data HDFS.
Versi HDFS yang Didukung
Alibaba Cloud Apsara File Storage for HDFS tidak didukung.
Batasan
Pembacaan data batch
Perhatikan hal-hal berikut saat menggunakan HDFS Reader:
Koneksi jaringan yang kompleks diperlukan antara grup sumber daya bersama dan HDFS. Oleh karena itu, disarankan untuk menggunakan grup sumber daya eksklusif untuk Data Integration untuk menjalankan tugas sinkronisasi Anda. Pastikan bahwa grup sumber daya eksklusif Anda untuk Data Integration dapat mengakses node NameNode dan DataNode dari HDFS.
Secara default, HDFS menggunakan daftar putih jaringan untuk memastikan keamanan data. Dalam hal ini, disarankan untuk menggunakan grup sumber daya eksklusif untuk Data Integration untuk menjalankan tugas sinkronisasi yang menggunakan HDFS Reader.
Jika Anda menggunakan editor kode untuk mengonfigurasi tugas sinkronisasi yang menggunakan HDFS Reader, pengujian konektivitas jaringan untuk sumber data HDFS yang digunakan tidak diperlukan. Jika sistem melaporkan kesalahan terkait pengujian konektivitas, Anda dapat mengabaikan kesalahan tersebut.
Anda harus menggunakan akun administrator untuk memulai tugas sinkronisasi data. Pastikan bahwa akun administrator memiliki izin untuk membaca dan menulis data pada file HDFS terkait. Jika akun administrator tidak memiliki izin, Anda dapat menggunakan editor kode untuk mengonfigurasi tugas sinkronisasi data dan menambahkan konfigurasi
"hdfsUsername": "Akun yang diizinkan"ke dalam kode tugas.
HDFS Reader mendukung fitur-fitur berikut:
Mendukung format file teks, ORC, RC, Sequence, CSV, dan Parquet. Data yang disimpan dalam file-file dalam format ini harus diatur sebagai tabel dua dimensi logis.
Membaca data berbagai jenis sebagai string, serta mendukung konstanta dan pemangkasan kolom.
Mendukung pembacaan rekursif dan ekspresi reguler yang mengandung asterisk (
*) dan tanda tanya (?).Mengompresi file ORC dalam format Snappy atau ZLIB.
Mengompresi file Sequence dalam format LZO.
Menggunakan thread paralel untuk membaca data dari beberapa file.
Mengompresi file CSV dalam format GZIP, BZ2, ZIP, LZO, LZO_DEFLATE, atau Snappy.
Kompatibel dengan Hive 1.1.1 dan Hadoop 2.7.1 yang bekerja dengan JDK 1.6. HDFS Reader dapat berjalan normal dengan Hive 1.2.0 dan Hadoop 2.5.0 atau Hadoop 2.6.0 selama pengujian.
HDFS Reader tidak dapat menggunakan thread paralel untuk membaca satu file karena metode sharding internal.
Penulisan data batch
Perhatikan hal-hal berikut saat menggunakan HDFS Writer:
HDFS Writer hanya dapat menulis file teks, ORC, dan Parquet yang menyimpan tabel dua dimensi logis ke HDFS.
HDFS adalah sistem file terdistribusi dan tidak memiliki skema. Oleh karena itu, Anda tidak dapat menulis hanya data di beberapa kolom file ke HDFS.
Tipe data Hive seperti DECIMAL, BINARY, ARRAYS, MAPS, STRUCTS, dan UNION tidak didukung.
HDFS Writer hanya dapat menulis data ke satu partisi dalam tabel Hive yang dipartisi pada satu waktu.
Untuk menulis file teks ke HDFS, pastikan bahwa pemisah di file sama dengan yang ada di tabel Hive yang ingin Anda asosiasikan dengan file tersebut. Dengan cara ini, Anda dapat mengasosiasikan kolom-kolom di file yang ditulis ke HDFS dengan kolom-kolom di tabel Hive.
HDFS Writer dapat digunakan di lingkungan tempat Hive 1.1.1 dan Hadoop 2.7.1 (versi JDK: 1.7) diinstal. JDK adalah singkatan dari Java Development Kit. HDFS Writer juga dapat menulis file ke HDFS di lingkungan pengujian tempat Hive 1.2.0 dan Hadoop 2.5.0 atau Hadoop 2.6.0 diinstal.
HDFS Writer hanya mendukung grup sumber daya eksklusif untuk Data Integration.
Cara kerjanya
HDFS Writer menulis file ke HDFS dengan cara berikut:
Membuat direktori sementara yang tidak ada di HDFS berdasarkan parameter path yang Anda tentukan.
Direktori sementara ditentukan dalam format path_Suffix acak.
Menulis file yang diperoleh dari pembaca ke direktori sementara.
Memindahkan file dari direktori sementara ke direktori yang ditentukan setelah semua file selesai ditulis. Nama file yang ingin Anda tulis ke HDFS harus berbeda dari nama file yang sudah ada di HDFS.
Menghapus direktori sementara. Jika HDFS Writer gagal terhubung ke HDFS karena gangguan jaringan, Anda harus secara manual menghapus direktori sementara dan semua file di direktori sementara.
Untuk menyinkronkan data, Anda harus menggunakan akun administrator yang memiliki izin baca dan tulis pada file tertentu.
Pemetaan tipe data
Pembacaan data batch
Hive mempertahankan metadata file dan menyimpan metadata tersebut di metadatabase sendiri, seperti database MySQL. HDFS Reader tidak dapat mengakses atau menanyakan metadata di metadatabase Hive. Oleh karena itu, Anda harus menentukan tipe data yang ingin dikonversi.
Tabel berikut mencantumkan pemetaan tipe data berdasarkan mana HDFS Reader mengonversi tipe data dalam file RC, Parquet, ORC, teks, dan Sequence di Hive.
Kategori | Tipe data Integrasi Data | Tipe data Hive |
Integer | long | TINYINT, SMALLINT, INT, dan BIGINT |
Floating point | double | FLOAT dan DOUBLE |
String | string | STRING, CHAR, VARCHAR, STRUCT, MAP, ARRAY, UNION, dan BINARY |
Tanggal dan waktu | date | DATE dan TIMESTAMP |
BOOLEAN | boolean | boolean |
LONG: data tipe integer dalam file HDFS, seperti 123456789.
DOUBLE: data tipe floating point dalam file HDFS, seperti 3.1415.
BOOLEAN: data tipe Boolean dalam file HDFS, seperti true atau false. Data tidak peka huruf besar/kecil.
DATE: data tipe tanggal dan waktu dalam file HDFS, seperti 2014-12-31 00:00:00.
Tipe data TIMESTAMP yang didukung oleh Hive dapat akurat hingga nanodetik. Oleh karena itu, data tipe TIMESTAMP yang disimpan dalam file teks dan ORC mirip dengan 2015-08-21 22:40:47.397898389. Setelah data dikonversi menjadi tipe DATE di Data Integration, bagian nanodetik dalam data hilang. Oleh karena itu, Anda harus menentukan tipe data yang dikonversi menjadi STRING untuk memastikan bahwa bagian nanodetik data tetap ada setelah konversi.
Penulisan data batch
HDFS Writer dapat menulis file teks, ORC, atau Parquet ke direktori tertentu di HDFS. Anda dapat mengasosiasikan kolom-kolom di file dengan kolom-kolom di tabel Hive. HDFS Writer mendukung sebagian besar tipe data Hive. Pastikan bahwa tipe data sistem Anda didukung.
Tabel berikut mencantumkan pemetaan tipe data berdasarkan mana HDFS Writer mengonversi tipe data.
Tipe data kolom yang ditentukan di file harus sama dengan tipe data kolom di tabel Hive.
Kategori | Tipe data Hive |
Integer | TINYINT, SMALLINT, INT, dan BIGINT |
Floating point | FLOAT dan DOUBLE |
String | CHAR, VARCHAR, dan STRING |
BOOLEAN | BOOLEAN |
Tanggal dan waktu | DATE dan TIMESTAMP |
Mengembangkan Tugas Sinkronisasi Data
Untuk informasi tentang titik masuk dan prosedur konfigurasi tugas sinkronisasi data, lihat bagian-bagian berikut. Untuk informasi tentang pengaturan parameter, lihat infotip setiap parameter di tab konfigurasi tugas.
Menambahkan Sumber Data
Mengonfigurasi Tugas Sinkronisasi Batch untuk Menyinkronkan Data Tabel Tunggal
Untuk informasi lebih lanjut tentang prosedur konfigurasi, lihat Konfigurasikan Tugas Sinkronisasi Batch Menggunakan UI Tanpa Kode dan Konfigurasikan Tugas Sinkronisasi Batch Menggunakan Editor Kode.
Untuk informasi tentang semua parameter yang dikonfigurasi dan kode yang dijalankan saat Anda menggunakan editor kode untuk mengonfigurasi tugas sinkronisasi batch, lihat Lampiran: Kode dan Parameter.
Lampiran: Kode dan Parameter
Lampiran: Konfigurasikan Tugas Sinkronisasi Batch Menggunakan Editor Kode
Kode untuk HDFS Reader
{
"type": "job",
"version": "2.0",
"steps": [
{
"stepType": "hdfs",// Nama plugin.
"parameter": {
"path": "",// Jalur file dari mana Anda ingin membaca data.
"datasource": "",// Nama sumber data.
"hadoopConfig":{
"dfs.data.transfer.protection": "integrity",
"dfs.datanode.use.datanode.hostname" :"true",
"dfs.client.use.datanode.hostname":"true"
},
"column": [
{
"index": 0,// Indeks kolom di file sumber. Indeks dimulai dari 0, yang menunjukkan bahwa HDFS Reader membaca data dari kolom pertama file sumber.
"type": "string"// Tipe bidang.
},
{
"index": 1,
"type": "long"
},
{
"index": 2,
"type": "double"
},
{
"index": 3,
"type": "boolean"
},
{
"format": "yyyy-MM-dd HH:mm:ss",// Format waktu.
"index": 4,
"type": "date"
}
],
"fieldDelimiter": ",",// Pemisah kolom.
"encoding": "UTF-8",// Format penyandian.
"fileType": ""// Format file.
},
"name": "Reader",
"category": "reader"
},
{
"stepType": "stream",
"parameter": {},
"name": "Writer",
"category": "writer"
}
],
"setting": {
"errorLimit": {
"record": ""// Jumlah maksimum catatan data kotor yang diizinkan.
},
"speed": {
"concurrent": 3,// Jumlah maksimum thread paralel.
"throttle": true // Menentukan apakah throttling diaktifkan. Nilai false menunjukkan bahwa throttling dinonaktifkan, dan nilai true menunjukkan bahwa throttling diaktifkan. Parameter mbps hanya berlaku ketika parameter throttle diatur ke true.
"mbps":"12"// Laju transmisi maksimum. Unit: MB/s.
}
},
"order": {
"hops": [
{
"from": "Reader",
"to": "Writer"
}
]
}
}Contoh berikut menunjukkan konfigurasi HDFS Reader dengan parameter parquetSchema.
Parameter fileType harus diatur ke parquet.
Jika Anda ingin HDFS Reader membaca kolom tertentu dari file Parquet, Anda harus menentukan skema lengkap di parameter parquetSchema dan menentukan kolom yang ingin dibaca menggunakan bidang indeks di parameter kolom.
"reader": {
"name": "hdfsreader",
"parameter": {
"path": "/user/hive/warehouse/addata.db/dw_ads_rtb_monitor_minute/thedate=20170103/hour_id=22/*",
"defaultFS": "h10s010.07100.149:8020",
"column": [
{
"index": 0,
"type": "string"
},
{
"index": 1,
"type": "long"
},
{
"index": 2,
"type": "double"
}
],
"fileType": "parquet",
"encoding": "UTF-8",
"parquetSchema": "message m { optional int32 minute_id; optional int32 dsp_id; optional int32 adx_pid; optional int64 req; optional int64 res; optional int64 suc; optional int64 imp; optional double revenue; }"
}
}Parameter dalam kode untuk HDFS Reader
Parameter | Deskripsi | Diperlukan | Nilai default |
path | Jalur file dari mana Anda ingin membaca data. Jika Anda ingin membaca data dari beberapa file, Anda dapat menentukan ekspresi reguler, seperti
Perhatikan item berikut saat Anda mengonfigurasi parameter path:
| Ya | Tidak ada nilai default |
defaultFS | Titik akhir dari node NameNode di HDFS. Grup sumber daya dibagi tidak mendukung parameter Hadoop lanjutan terkait ketersediaan tinggi. | Ya | Tidak ada nilai default |
jenisFile | Format file dari mana Anda ingin membaca data. HDFS Reader secara otomatis mengidentifikasi format file dan menggunakan kebijakan baca terkait. Sebelum HDFS Reader membaca data, ia memeriksa apakah semua file di jalur yang ditentukan sesuai dengan format yang ditentukan oleh parameter fileType. Jika format file tidak sesuai dengan format yang ditentukan oleh parameter fileType, tugas sinkronisasi data gagal. Nilai valid untuk parameter fileType:
HDFS Reader mengurai file dalam format teks dan ORC dengan cara yang berbeda. Jika data dikonversi dari tipe data kompleks Hive menjadi tipe STRING yang didukung oleh Data Integration, hasil konversinya berbeda untuk format teks dan ORC. Tipe data kompleks mencakup MAP, ARRAY, STRUCT, dan UNION. Contoh berikut menunjukkan hasil konversi dari tipe MAP ke tipe STRING:
Hasil konversi menunjukkan bahwa data tetap tidak berubah tetapi formatnya sedikit berbeda. Oleh karena itu, jika kolom yang ingin Anda sinkronkan menggunakan tipe data kompleks Hive, kami sarankan Anda menggunakan format file yang seragam. Praktik terbaik yang direkomendasikan:
| Ya | Tidak ada nilai default |
kolom | Nama kolom dari mana Anda ingin membaca data. Bidang type menentukan tipe data. Bidang index menentukan ID kolom, dimulai dari 0. Bidang value menentukan sebuah konstanta. Jika Anda menentukan bidang value, HDFS Reader akan membaca nilai dari bidang ini. Secara default, HDFS Reader membaca semua data sebagai string. Dalam hal ini, atur parameter ini ke Untuk parameter kolom, Anda harus mengonfigurasi bidang type dan salah satu dari bidang index atau value. Contoh: Catatan
| Ya | Tidak ada nilai default |
fieldDelimiter | Pemisah kolom dari mana Anda ingin membaca data. Jika file sumber adalah file teks, Anda harus menentukan pemisah kolom. Jika Anda tidak menentukan pemisah kolom, HDFS Reader menggunakan koma (,) sebagai pemisah kolom secara default. Jika file sumber adalah file ORC, Anda tidak perlu menentukan pemisah kolom. HDFS Reader menggunakan pemisah default dari Hive, yaitu \u0001. Catatan
| Tidak | , |
encoding | Format encoding dari file yang ingin Anda baca datanya. | Tidak | utf-8 |
nullFormat | String yang mewakili pointer null. Tidak ada string standar yang dapat mewakili pointer null dalam file teks. Anda dapat menggunakan parameter ini untuk menentukan string mana yang mewakili pointer null. Sebagai contoh, jika Anda mengatur parameter ini ke Catatan String NULL berbeda dari pointer null. Perhatikan perbedaan di antara keduanya. | Tidak | Tidak ada nilai default |
kompres | Format kompresi ketika parameter fileType diatur ke CSV. Format kompresi berikut didukung: GZIP, BZ2, ZIP, LZO, LZO_DEFLATE, Hadoop-Snappy, dan Framing-Snappy. Catatan
| Tidak | Tidak ada nilai default |
parquetSchema | Deskripsi skema data dalam file Parquet. Jika Anda mengatur parameter fileType ke parquet, Anda harus mengonfigurasi parameter parquetSchema. Pastikan nilai parameter parquetSchema sesuai dengan sintaks JSON. Parameter parquetSchema berisi bidang-bidang berikut:
Contoh konfigurasi: | Tidak | Tidak ada nilai default |
csvReaderConfig | Konfigurasi yang diperlukan untuk membaca file CSV. Nilai parameter harus sesuai dengan tipe MAP. Anda dapat menggunakan pembaca file CSV untuk membaca data dari file CSV. Pembaca file CSV mendukung beberapa konfigurasi. Contoh berikut menunjukkan konfigurasi umum: Konfigurasi berikut menunjukkan semua bidang dan nilai defaultnya. Saat mengonfigurasi parameter csvReaderConfig tipe MAP, Anda harus menggunakan nama bidang yang disediakan dalam konfigurasi berikut: | Tidak | Tidak ada nilai default |
hadoopConfig | Pengaturan parameter Hadoop lanjutan, seperti parameter yang terkait dengan ketersediaan tinggi. Grup sumber daya dibagi tidak mendukung parameter Hadoop lanjutan yang terkait dengan ketersediaan tinggi. Catatan Pengaturan di atas digunakan untuk mengonfigurasi otentikasi Kerberos di HDFS Reader. Jika Anda mengonfigurasi otentikasi Kerberos untuk sumber data HDFS, Anda tidak perlu mengonfigurasinya di HDFS Reader. Untuk informasi lebih lanjut tentang cara menambahkan sumber data HDFS, lihat Tambahkan sumber data HDFS. | Tidak | Tidak ada nilai default |
haveKerberos | Menentukan apakah akan mengaktifkan autentikasi Kerberos. Nilai default: false. Jika Anda menetapkan parameter ini ke true, Anda juga harus mengonfigurasi parameter kerberosKeytabFilePath dan kerberosPrincipal. | Tidak | false |
kerberosKeytabFilePath | Jalur absolut dari file keytab untuk otentikasi Kerberos. Parameter ini diperlukan jika parameter haveKerberos diatur ke true. | Tidak | Tidak ada nilai default |
kerberosPrincipal | Prinsipal Kerberos, seperti ****/hadoopclient@**.***. Parameter ini diperlukan jika parameter haveKerberos diatur ke true. Catatan Path absolut dari file keytab diperlukan untuk otentikasi Kerberos. Oleh karena itu, Anda harus mengonfigurasi otentikasi Kerberos untuk grup sumber daya eksklusif untuk Data Integration. Kode berikut memberikan contoh konfigurasi: | Tidak | Tidak ada nilai default |
Kode untuk HDFS Writer
{
"type": "job",
"version": "2.0",// Nomor versi.
"steps": [
{
"stepType": "stream",
"parameter": {},
"name": "Reader",
"category": "reader"
},
{
"stepType": "hdfs",// Nama plugin.
"parameter": {
"path": "",// Direktori di HDFS ke mana Anda ingin menulis file.
"fileName": "",// Awalan nama file yang ingin Anda tulis ke HDFS.
"compress": "",// Format kompresi file yang ingin Anda tulis ke HDFS.
"datasource": "",// Nama sumber data.
"column": [
{
"name": "col1",// Nama kolom.
"type": "string"// Tipe data kolom.
},
{
"name": "col2",
"type": "int"
},
{
"name": "col3",
"type": "double"
},
{
"name": "col4",
"type": "boolean"
},
{
"name": "col5",
"type": "date"
}
],
"writeMode": "",// Mode penulisan.
"fieldDelimiter": ",",// Pemisah kolom.
"encoding": "",// Format penyandian.
"fileType": "text"// Format file yang ingin Anda tulis ke HDFS.
},
"name": "Writer",
"category": "writer"
}
],
"setting": {
"errorLimit": {
"record": ""// Jumlah maksimum catatan data kotor yang diizinkan.
},
"speed": {
"concurrent": 3, // Jumlah maksimum thread paralel.
"throttle": false, // Menentukan apakah throttling diaktifkan. Nilai false menunjukkan bahwa throttling dinonaktifkan, dan nilai true menunjukkan bahwa throttling diaktifkan.
}
},
"order": {
"hops": [
{
"from": "Reader",
"to": "Writer"
}
]
}
}Parameter dalam kode untuk HDFS Writer
Parameter | Deskripsi | Diperlukan | Nilai default |
defaultFS | Alamat node NameNode di HDFS, seperti | Ya | Tidak ada nilai default |
fileType | Format file yang ingin Anda tulis ke HDFS. Nilai valid:
| Ya | Tidak ada nilai default |
path | Direktori di HDFS ke mana Anda ingin menulis file. HDFS Writer menulis beberapa file ke direktori berdasarkan konfigurasi thread paralel. Untuk mengasosiasikan kolom-kolom di file dengan kolom-kolom di tabel Hive, atur parameter path ke jalur penyimpanan tabel Hive di HDFS. Misalnya, jalur penyimpanan yang ditentukan untuk gudang data Hive adalah | Ya | Tidak ada nilai default |
fileName | Awalan nama file yang ingin Anda tulis ke HDFS. Suffix acak ditambahkan ke awalan yang ditentukan untuk membentuk nama file aktual yang digunakan oleh setiap thread. | Ya | Tidak ada nilai default |
column | Nama kolom ke mana Anda ingin menulis data. Anda tidak dapat menulis data hanya ke beberapa kolom di tabel Hive. Untuk mengasosiasikan kolom-kolom di file dengan kolom-kolom di tabel Hive, konfigurasikan parameter name dan type untuk setiap kolom. Parameter name menentukan nama kolom, dan parameter type menentukan tipe data kolom. Anda dapat mengonfigurasi parameter column dalam format berikut: | Diperlukan jika parameter fileType diatur ke text atau orc | Tidak ada nilai default |
writeMode | Mode penulisan. Nilai valid:
Catatan File Parquet tidak mendukung mode append. Untuk menulis file Parquet, Anda harus mengatur parameter writeMode ke nonConflict. | Ya | Tidak ada nilai default |
fieldDelimiter | Pemisah kolom yang digunakan dalam file yang ingin Anda tulis ke HDFS. Pastikan Anda menggunakan pemisah yang sama dengan yang ada di tabel Hive. Jika tidak, Anda tidak dapat menanyakan data di tabel Hive. Catatan Hanya pemisah satu karakter yang didukung. Jika Anda menentukan pemisah multi-karakter, kesalahan dilaporkan. | Diperlukan jika parameter fileType diatur ke text atau orc | Tidak ada nilai default |
compress | Format kompresi file yang ingin Anda tulis ke HDFS. Secara default, parameter ini dibiarkan kosong, yang menunjukkan bahwa file tidak dikompresi. Untuk file teks, format kompresi GZIP dan BZIP2 didukung. | Tidak | Tidak ada nilai default |
encoding | Format penyandian file yang ingin Anda tulis ke HDFS. | Tidak | Tidak ada nilai default |
parquetSchema | Skema file Parquet yang ingin Anda tulis ke HDFS. Parameter ini tersedia hanya jika parameter fileType diatur ke parquet. Format: Bidang:
Catatan Setiap baris, termasuk yang terakhir, harus diakhiri dengan titik koma (;). Contoh: | Tidak | Tidak ada nilai default |
hadoopConfig | Pengaturan parameter Hadoop lanjutan, seperti parameter terkait ketersediaan tinggi. Jika Anda menggunakan grup sumber daya bersama untuk Data Integration, Anda tidak dapat mengonfigurasi parameter Hadoop lanjutan yang terkait dengan ketersediaan tinggi. Jika Anda ingin mengonfigurasi parameter-parameter ini, Anda harus menggunakan grup sumber daya kustom untuk Data Integration. Untuk informasi lebih lanjut, lihat Buat dan Gunakan Grup Sumber Daya Kustom untuk Data Integration. | Tidak | Tidak ada nilai default |
dataxParquetMode | Mode sinkronisasi untuk file Parquet. Nilai valid: fields dan columns. Jika Anda mengatur parameter ini ke fields, HDFS Writer dapat menulis data tipe kompleks, seperti ARRAY, MAP, dan STRUCT. Jika Anda mengatur parameter ini ke fields, HDFS Writer mendukung HDFS di atas Object Storage Service (OSS). Dalam hal ini, HDFS menggunakan OSS sebagai layanan penyimpanan, dan HDFS Writer menulis file Parquet ke OSS. Anda dapat menambahkan parameter-parameter terkait OSS berikut dalam parameter hadoopConfig:
Kode contoh berikut memberikan contoh cara terhubung ke OSS: | Tidak | columns |
haveKerberos | Menentukan apakah otentikasi Kerberos diperlukan. Jika Anda mengatur parameter ini ke true, parameter kerberosKeytabFilePath dan kerberosPrincipal diperlukan. | Tidak | false |
kerberosKeytabFilePath | Jalur absolut file keytab untuk otentikasi Kerberos. | Diperlukan jika parameter haveKerberos diatur ke true. | Tidak ada nilai default |
kerberosPrincipal | Prinsipal Kerberos, seperti ****/hadoopclient@**.***. Parameter ini diperlukan jika parameter haveKerberos diatur ke true. Jalur absolut file keytab diperlukan untuk otentikasi Kerberos. Untuk menggunakan otentikasi Kerberos, Anda harus mengonfigurasi otentikasi Kerberos pada grup sumber daya kustom. Kode berikut memberikan contoh konfigurasi: | Tidak | Tidak ada nilai default |