すべてのプロダクト
Search
ドキュメントセンター

DataWorks:Hive データソース

最終更新日:Nov 09, 2025

Hive データソースは、Hive からのデータの読み取りと Hive へのデータの書き込みのための双方向チャネルを提供します。このトピックでは、DataWorks が Hive に対してサポートするデータ同期機能について説明します。

機能

Apache Hive は Hadoop 上に構築されたデータウェアハウスツールで、大量の構造化ログの統計分析に使用されます。Hive は構造化データファイルをテーブルにマッピングし、SQL クエリ機能を提供します。Hive は、データ分析に MapReduce を使用し、処理されたデータを Hadoop 分散ファイルシステム (HDFS) に保存し、HiveQL を MapReduce プログラムに変換して、Yet Another Resource Negotiator (YARN) 上で実行する SQL 解析エンジンです。

Hive Reader プラグインは、Hive Metastore サービスにアクセスして、構成されたデータテーブルのメタデータを取得します。HDFS ファイルを使用する方法と、Hive Java Database Connectivity (JDBC) を使用する方法の 2 つの方法でデータを読み取ることができます。

  • HDFS ファイルを使用したデータの読み取り

    Hive Reader プラグインは、Hive Metastore サービスにアクセスして、HDFS ファイルストレージパス、ファイル形式、区切り文字など、構成されたデータテーブルに関する情報を解析します。その後、プラグインは HDFS ファイルを読み取ることによって Hive からテーブルデータを読み取ります。

  • Hive JDBC を使用したデータの読み取り

    Hive Reader プラグインは、Hive JDBC クライアントを介して HiveServer2 サービスに接続してデータを読み取ります。Hive Reader プラグインは、where 句を使用したデータフィルタリングをサポートし、SQL 文を使用して直接データを読み取ることができます。

Hive Writer プラグインは、Hive Metastore サービスにアクセスして、HDFS ファイルストレージパス、ファイル形式、区切り文字など、構成されたデータテーブルに関する情報を解析します。プラグインはデータを HDFS ファイルに書き込み、その後、Hive JDBC クライアントを介して LOAD DATA SQL 文を実行して、HDFS ファイルから Hive テーブルにデータをロードします。

Hive Writer プラグインの基本的なロジックは、HDFS Writer プラグインのロジックと同じです。Hive Writer プラグインで HDFS Writer 関連のパラメーターを構成できます。これらのパラメーターは HDFS Writer プラグインに渡されます。

サポートされているバージョン

Hive プラグインは、次のバージョンをサポートしています。

0.8.0
0.8.1
0.9.0
0.10.0
0.11.0
0.12.0
0.13.0
0.13.1
0.14.0
1.0.0
1.0.1
1.1.0
1.1.1
1.2.0
1.2.1
1.2.2
2.0.0
2.0.1
2.1.0
2.1.1
2.2.0
2.3.0
2.3.1
2.3.2
2.3.3
2.3.4
2.3.5
2.3.6
2.3.7
3.0.0
3.1.0
3.1.1
3.1.2
3.1.3
0.8.1-cdh4.0.0
0.8.1-cdh4.0.1
0.9.0-cdh4.1.0
0.9.0-cdh4.1.1
0.9.0-cdh4.1.2
0.9.0-cdh4.1.3
0.9.0-cdh4.1.4
0.9.0-cdh4.1.5
0.10.0-cdh4.2.0
0.10.0-cdh4.2.1
0.10.0-cdh4.2.2
0.10.0-cdh4.3.0
0.10.0-cdh4.3.1
0.10.0-cdh4.3.2
0.10.0-cdh4.4.0
0.10.0-cdh4.5.0
0.10.0-cdh4.5.0.1
0.10.0-cdh4.5.0.2
0.10.0-cdh4.6.0
0.10.0-cdh4.7.0
0.10.0-cdh4.7.1
0.12.0-cdh5.0.0
0.12.0-cdh5.0.1
0.12.0-cdh5.0.2
0.12.0-cdh5.0.3
0.12.0-cdh5.0.4
0.12.0-cdh5.0.5
0.12.0-cdh5.0.6
0.12.0-cdh5.1.0
0.12.0-cdh5.1.2
0.12.0-cdh5.1.3
0.12.0-cdh5.1.4
0.12.0-cdh5.1.5
0.13.1-cdh5.2.0
0.13.1-cdh5.2.1
0.13.1-cdh5.2.2
0.13.1-cdh5.2.3
0.13.1-cdh5.2.4
0.13.1-cdh5.2.5
0.13.1-cdh5.2.6
0.13.1-cdh5.3.0
0.13.1-cdh5.3.1
0.13.1-cdh5.3.2
0.13.1-cdh5.3.3
0.13.1-cdh5.3.4
0.13.1-cdh5.3.5
0.13.1-cdh5.3.6
0.13.1-cdh5.3.8
0.13.1-cdh5.3.9
0.13.1-cdh5.3.10
1.1.0-cdh5.3.6
1.1.0-cdh5.4.0
1.1.0-cdh5.4.1
1.1.0-cdh5.4.2
1.1.0-cdh5.4.3
1.1.0-cdh5.4.4
1.1.0-cdh5.4.5
1.1.0-cdh5.4.7
1.1.0-cdh5.4.8
1.1.0-cdh5.4.9
1.1.0-cdh5.4.10
1.1.0-cdh5.4.11
1.1.0-cdh5.5.0
1.1.0-cdh5.5.1
1.1.0-cdh5.5.2
1.1.0-cdh5.5.4
1.1.0-cdh5.5.5
1.1.0-cdh5.5.6
1.1.0-cdh5.6.0
1.1.0-cdh5.6.1
1.1.0-cdh5.7.0
1.1.0-cdh5.7.1
1.1.0-cdh5.7.2
1.1.0-cdh5.7.3
1.1.0-cdh5.7.4
1.1.0-cdh5.7.5
1.1.0-cdh5.7.6
1.1.0-cdh5.8.0
1.1.0-cdh5.8.2
1.1.0-cdh5.8.3
1.1.0-cdh5.8.4
1.1.0-cdh5.8.5
1.1.0-cdh5.9.0
1.1.0-cdh5.9.1
1.1.0-cdh5.9.2
1.1.0-cdh5.9.3
1.1.0-cdh5.10.0
1.1.0-cdh5.10.1
1.1.0-cdh5.10.2
1.1.0-cdh5.11.0
1.1.0-cdh5.11.1
1.1.0-cdh5.11.2
1.1.0-cdh5.12.0
1.1.0-cdh5.12.1
1.1.0-cdh5.12.2
1.1.0-cdh5.13.0
1.1.0-cdh5.13.1
1.1.0-cdh5.13.2
1.1.0-cdh5.13.3
1.1.0-cdh5.14.0
1.1.0-cdh5.14.2
1.1.0-cdh5.14.4
1.1.0-cdh5.15.0
1.1.0-cdh5.16.0
1.1.0-cdh5.16.2
1.1.0-cdh5.16.99
2.1.1-cdh6.1.1
2.1.1-cdh6.2.0
2.1.1-cdh6.2.1
2.1.1-cdh6.3.0
2.1.1-cdh6.3.1
2.1.1-cdh6.3.2
2.1.1-cdh6.3.3
3.1.1-cdh7.1.1

制限事項

  • Hive データソースは、サーバーレスリソースグループ (推奨) および Data Integration 専用リソースグループ をサポートしています。

  • TextFile、ORCFile、または ParquetFile 形式のファイルのみを読み取ることができます。

  • Data Integration を使用して Hive クラスターへのオフライン同期を実行すると、サーバー上に一時ファイルが生成されます。これらのファイルは、同期タスクの完了後に自動的に削除されます。ファイルシステムが利用できなくなるのを防ぐために、サーバーの HDFS ディレクトリ内のファイル数の制限を監視してください。DataWorks は、ファイル数が HDFS ディレクトリの制限内に収まることを保証しません。

    説明

    サーバー上で、dfs.namenode.fs-limits.max-directory-items パラメーターを変更して、単一のディレクトリに含めることができるディレクトリまたはファイルの最大数を定義できます。デフォルト値は 1,048,576 で、値の範囲は 1 から 6,400,000 です。この問題を回避するには、HDFS の dfs.namenode.fs-limits.max-directory-items パラメーターの値を増やすか、不要なファイルを削除します。

  • Hive データソースにアクセスするには、Kerberos ID 認証または SSL 認証 を使用できます。ID 認証が不要な場合は、データソースを追加するときに [認証なし][認証オプション] を選択します。

  • DataWorks で Kerberos 認証を使用して Hive データソースにアクセスする場合、HiveServer2 とメタストアの両方で Kerberos 認証が有効になっているが、異なるプリンシパルを使用している場合は、拡張パラメーターに次の構成を追加する必要があります。

     {
    "hive.metastore.kerberos.principal": "<your metastore principal>"
    }

サポートされているフィールドタイプ

次の表に、オフライン読み取りで Hive データソースがサポートするフィールドタイプを示します。

カテゴリ

Hive データ型

文字列

CHAR, VARCHAR, STRING

整数

TINYINT, SMALLINT, INT, INTEGER, BIGINT

浮動小数点

FLOAT, DOUBLE, DECIMAL

日付と時刻

TIMESTAMP, DATE

ブール値

BOOLEAN

準備

必要な準備は、データソースの構成モードによって異なります。

Alibaba Cloud インスタンスモード

このインスタンスの OSS テーブルを同期する場合は、対応する [アクセス ID] を選択します。サポートされているアクセス ID は、[Alibaba Cloud アカウント][RAM ユーザー]、および [RAM ロール] です。選択したアクセス ID に必要な OSS 権限があることを確認してください。そうでない場合、読み取りおよび書き込み権限が不十分なため、データ同期は失敗します。

重要

接続性テストでは、データの読み取りおよび書き込み権限は検証されません。

接続文字列モード

DLF 構成

Hive データソースが EMR からのもので、メタデータ管理に DLF を使用している場合は、[拡張パラメーター] フィールドに次の内容を追加する必要があります。

{"dlf.catalog.id" : "my_catalog_xxxx"}

コード内の my_catalog_xxxx は、EMR Hive 構成の dlf.catalog.id パラメーターに対応する名前です。

高可用性 (HA) 構成

同期したい EMR Hive クラスターで [高可用性] が有効になっている場合は、[高可用性モード] を有効にし、[拡張パラメーター] セクションに関連する HA 情報を次の形式で構成する必要があります。EMR コンソール に移動し、ターゲットクラスターを見つけて、[アクション] 列の [クラスターサービス] をクリックして、関連する構成値を取得できます。

{
// 次のコードは HA 構成の例です。
"dfs.nameservices":"testDfs",
"dfs.ha.namenodes.testDfs":"namenode1,namenode2",
"dfs.namenode.rpc-address.testDfs.namenode1": "",
"dfs.namenode.rpc-address.testDfs.namenode2": "",
"dfs.client.failover.proxy.provider.testDfs":"org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
// (オプション) 基盤となるストレージが OSS の場合、OSS サービスに接続するために拡張パラメーターで次のパラメーターを構成する必要があります。
"fs.oss.accessKeyId":"<yourAccessKeyId>",
"fs.oss.accessKeySecret":"<yourAccessKeySecret>",
"fs.oss.endpoint":"oss-cn-<yourRegion>-internal.aliyuncs.com"
}

OSS 外部テーブル構成

基盤となるストレージが OSS の場合は、次の点に注意してください。

  • [defaultFS] 構成には、oss://bucketName のように、[oss://] というプレフィックスを付ける必要があります。

  • 同期したいテーブルが OSS 外部テーブルである場合は、Hive データソースを構成するときに [拡張パラメーター] フィールドに OSS 関連の情報を入力する必要があります。

    {
        "fs.oss.accessKeyId":"<yourAccessKeyId>",
        "fs.oss.accessKeySecret":"<yourAccessKeySecret>",
        "fs.oss.endpoint":"oss-cn-<yourRegion>-internal.aliyuncs.com"
    }
  • 同期するテーブルが OSS-HDFS 外部テーブルである場合は、Hive データソースを構成するときに [拡張パラメーター] フィールドに関連する OSS-HDFS 情報を構成する必要があります。

    {
        "fs.oss.accessKeyId":"<yourAccessKeyId>",
        "fs.oss.accessKeySecret":"<yourAccessKeySecret>",
        "fs.oss.endpoint":"cn-<yourRegion>.oss-dls.aliyuncs.com"
    }

CDH モード

CDH モードを使用して Hive データソースを構成するには、CDH クラスターを DataWorks に登録する必要があります。

データソースの作成

データ同期タスクを開発するときは、DataWorks で対応するデータソースを作成する必要があります。手順の詳細については、「データソース管理」をご参照ください。構成パラメーターの詳細な説明については、構成ページの各パラメーターのテキストプロンプトをご参照ください

以下では、さまざまな [認証オプション] のパラメーターについて説明します。

Kerberos 認証

パラメーター

説明

keytab ファイル

Kerberos 環境でサービスプリンシパルが登録されたときに生成される .keytab ファイル。

conf ファイル

conf ファイルは Kerberos 構成ファイルです。Kerberos クライアントとサーバーのさまざまな設定を定義するために使用されます。主な構成ファイルは次のとおりです。

  • krb5.conf: クライアントとライブラリが使用する構成ファイル。グローバルなデフォルト設定、レルム構成、ドメイン名マッピング、アプリケーションのデフォルト設定、およびロギングオプションを定義します。

  • kdc.conf: キー配布センター (KDC) サーバーの構成ファイル。データベースの場所、ログファイルの場所、およびその他の KDC 固有の設定を定義します。

プリンシパル

ユーザーまたはサービスである ID エンティティ。一意の名前と関連付けられた暗号鍵を持ちます。

  • ユーザー プリンシパル 形式: username@REALM

  • サービス プリンシパル 形式: service/hostname@REALM

SSL 認証

パラメーター

説明

Truststore 証明書ファイル

SSL 認証が有効な場合に生成される Truststore 証明書ファイル (例: truststore.jks ファイル)。

Truststore パスワード

SSL 認証が有効な場合に Truststore 証明書ファイルに設定されるパスワード。

Keystore 証明書ファイル

SSL 認証が有効な場合に生成される Keystore 証明書ファイル (例: keystore.jks ファイル)。

Keystore パスワード

SSL 認証が有効な場合に Keystore 証明書ファイルに設定されるパスワード。

データ同期タスクの開発

同期タスクを構成するためのエントリポイントと手順については、次の構成ガイドをご参照ください。

単一テーブルのオフライン同期タスクの構成

データベース全体のオフライン読み取り同期タスクの構成

手順の詳細については、「データベース全体のオフライン同期タスク」をご参照ください。

付録: スクリプトデモとパラメーター

コードエディタを使用したバッチ同期タスクの構成

コードエディタを使用してバッチ同期タスクを構成する場合は、統一されたスクリプト形式の要件に基づいてスクリプト内の関連パラメーターを構成する必要があります。詳細については、「コードエディタでタスクを構成する」をご参照ください。以下では、コードエディタを使用してバッチ同期タスクを構成する際にデータソースに対して構成する必要があるパラメーターについて説明します。

Reader スクリプトデモ

HDFS ファイルまたは Hive JDBC を使用してデータを読み取ることができます。

  • HDFS ファイルを使用したデータの読み取り

    {
        "type": "job",
        "steps": [
            {
                "stepType": "hive",
                "parameter": {
                    "partition": "pt1=a,pt2=b,pt3=c", // パーティション情報
                    "datasource": "hive_not_ha_****", // データソース名
                    "column": [ // 読み取る列
                        "id",
                        "pt2",
                        "pt1"
                    ],
                    "readMode": "hdfs", // 読み取りモード
                    "table": "part_table_1",
                    "fileSystemUsername" : "hdfs",
                    "hivePartitionColumn": [
                        {
                          "type": "string",
                          "value": "partition name 1"
                        },
                        {
                          "type": "string",
                          "value": "partition name 2"
                         }
                     ],
                     "successOnNoFile":true
                },
                "name": "Reader",
                "category": "reader"
            },
            {
                "stepType": "hive",
                "parameter": {
                },
                "name": "Writer",
                "category": "writer"
            }
        ],
        "version": "2.0",
        "order": {
            "hops": [
                {
                    "from": "Reader",
                    "to": "Writer"
                }
            ]
        },
        "setting": {
            "errorLimit": {
                "record": "" // エラーレコード数
            },
            "speed": {
                "concurrent": 2, // ジョブの同時実行数
                "throttle": true,// throttle が false に設定されている場合、mbps パラメーターは効果がなく、トラフィックはスロットリングされません。throttle が true に設定されている場合、トラフィックはスロットリングされます。
                "mbps":"12"// スロットリング
            }
        }
    }
  • Hive JDBC を使用したデータの読み取り

    {
        "type": "job",
        "steps": [
            {
                "stepType": "hive",
                "parameter": {
                    "querySql": "select id,name,age from part_table_1 where pt2='B'",
                    "datasource": "hive_not_ha_****",  // データソース名
                     "session": [
                        "mapred.task.timeout=600000"
                    ],
                    "column": [ // 読み取る列
                        "id",
                        "name",
                        "age"
                    ],
                    "where": "",
                    "table": "part_table_1",
                    "readMode": "jdbc" // 読み取りモード
                },
                "name": "Reader",
                "category": "reader"
            },
            {
                "stepType": "hive",
                "parameter": {
                },
                "name": "Writer",
                "category": "writer"
            }
        ],
        "version": "2.0",
        "order": {
            "hops": [
                {
                    "from": "Reader",
                    "to": "Writer"
                }
            ]
        },
        "setting": {
            "errorLimit": {
                "record": ""
            },
            "speed": {
                "concurrent": 2,  // ジョブの同時実行数
                "throttle": true,// throttle が false に設定されている場合、mbps パラメーターは効果がなく、トラフィックはスロットリングされません。throttle が true に設定されている場合、トラフィックはスロットリングされます。
                "mbps":"12"// スロットリング            
                
            }
        }
    }

Reader スクリプトパラメーター

パラメーター

説明

必須

デフォルト値

datasource

データソースの名前。追加した名前と同じである必要があります。

はい

なし

table

同期するテーブルの名前。

説明

大文字と小文字が区別されます。

はい

なし

readMode

読み取りモード:

  • HDFS ファイルを使用してデータを読み取るには、このパラメーターを "readMode":"hdfs" に設定します。

  • Hive JDBC を使用してデータを読み取るには、このパラメーターを "readMode":"jdbc" に設定します。

説明
  • Hive JDBC を使用してデータを読み取る場合、Where 句を使用してデータをフィルタリングできます。ただし、このシナリオでは、Hive エンジンが基盤となるレイヤーで MapReduce タスクを生成する可能性があり、非効率的です。

  • HDFS ファイルを使用してデータを読み取る場合、Where 句を使用してデータをフィルタリングすることはできません。このシナリオでは、Hive テーブルのデータファイルに直接アクセスして読み取るため、より効率的です。

  • HDFS ファイルを使用する場合、ビューからのデータの読み取りはサポートされていません。

いいえ

なし

partition

Hive テーブルのパーティション情報:

  • Hive JDBC を使用してデータを読み取る場合、このパラメーターを構成する必要はありません。

  • パーティション化された Hive テーブルからデータを読み取る場合は、partition 情報を構成する必要があります。同期タスクは、partition パラメーターで指定されたパーティションからデータを読み取ります。

    Hive Reader プラグインは、単一レベルのパーティションに対してアスタリスク (*) をワイルドカード文字として使用することをサポートしていますが、複数レベルのパーティションではサポートしていません。

  • Hive テーブルが非パーティションテーブルである場合、partition パラメーターを構成する必要はありません。

いいえ

なし

session

Hive JDBC 読み取りのセッションレベルの構成。クライアントパラメーターを設定できます。例: SET hive.exec.parallel=true

いいえ

なし

column

読み取る列。例: "column": ["id", "name"]

  • 列のトリミングがサポートされています。列のサブセットをエクスポートできます。

  • 列の並べ替えがサポートされています。テーブルスキーマとは異なる順序で列をエクスポートできます。

  • パーティションキー列を指定できます。

  • 定数を指定できます。

  • column パラメーターは、同期する列のセットを明示的に指定する必要があります。空にすることはできません。

はい

なし

querySql

Hive JDBC を使用してデータを読み取る場合、querySql パラメーターを直接構成してデータを読み取ることができます。

いいえ

なし

where

Hive JDBC を使用してデータを読み取る場合、where パラメーターを設定してデータをフィルタリングできます。

いいえ

なし

fileSystemUsername

HDFS を使用してデータを読み取る場合、デフォルトでは Hive データソース ページで構成されたユーザーが使用されます。データソースページで匿名ログインが構成されている場合、デフォルトで admin アカウントが使用されます。同期タスク中に権限の問題が発生した場合は、コードエディタに切り替えて fileSystemUsername パラメーターを構成する必要があります。

いいえ

なし

hivePartitionColumn

パーティションフィールドの値をダウンストリームの宛先に同期する場合は、コードエディタに切り替えて hivePartitionColumn パラメーターを構成できます。

いいえ

なし

successOnNoFile

HDFS モードでデータを読み取る場合、このパラメーターは、ディレクトリが空の場合に同期タスクが正常に実行されるかどうかを指定します。

いいえ

なし

Writer スクリプトデモ

{
    "type": "job",
    "steps": [
        {
            "stepType": "hive",
            "parameter": {
            },
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "hive",
            "parameter": {
                "partition": "year=a,month=b,day=c", // パーティション構成
                "datasource": "hive_ha_shanghai", // データソース
                "table": "partitiontable2", // 宛先テーブル
                "column": [ // 列構成
                    "id",
                    "name",
                    "age"
                ],
                "writeMode": "append" ,// 書き込みモード
                "fileSystemUsername" : "hdfs"
            },
            "name": "Writer",
            "category": "writer"
        }
    ],
    "version": "2.0",
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    },
    "setting": {
        "errorLimit": {
            "record": ""
        },
        "speed": {
            "throttle":true,// throttle が false に設定されている場合、mbps パラメーターは効果がなく、トラフィックはスロットリングされません。throttle が true に設定されている場合、トラフィックはスロットリングされます。
            "concurrent":2, // ジョブの同時実行数。
            "mbps":"12"// スロットリング
        }
    }
}

Writer スクリプトパラメーター

パラメーター

説明

必須

デフォルト値

datasource

データソースの名前。追加した名前と同じである必要があります。

はい

なし

column

書き込む列。例: "column": ["id", "name"]

  • 列のトリミングがサポートされています。列のサブセットをエクスポートできます。

  • column パラメーターは、同期する列のセットを明示的に指定する必要があります。空にすることはできません。

  • 列の並べ替えはサポートされていません。

はい

なし

table

書き込み先の Hive テーブルの名前。

説明

大文字と小文字が区別されます。

はい

なし

partition

Hive テーブルのパーティション情報:

  • 書き込み先の Hive テーブルがパーティションテーブルである場合は、partition 情報を構成する必要があります。同期タスクは、partition 設定に対応するパーティションデータを書き込みます。

  • Hive テーブルが非パーティションテーブルである場合、partition パラメーターを構成する必要はありません。

いいえ

なし

writeMode

Hive テーブルにデータを書き込むモード。データが HDFS ファイルに書き込まれた後、Hive Writer プラグインは LOAD DATA INPATH (overwrite) INTO TABLE を実行して、データを Hive テーブルにロードします。

writeMode パラメーターは、データのロード動作を指定します。

  • writeModetruncate に設定されている場合、既存のデータは新しいデータがロードされる前にクリアされます。

  • writeModeappend に設定されている場合、既存のデータは保持されます。

  • writeMode が別の値に設定されている場合、データは HDFS ファイルに書き込まれ、Hive テーブルにはデータはロードされません。

説明

writeMode パラメーターはリスクの高いパラメーターです。誤ったデータ削除を防ぐために、書き込みディレクトリと writeMode パラメーターの動作に注意してください。

データのロード動作は hiveConfig パラメーターと併用する必要があります。構成に注意してください。

はい

なし

hiveConfig

hiveConfig で、hiveCommandjdbcUrlusernamepassword などの高度な Hive 拡張パラメーターを構成できます。

  • hiveCommand: Hive クライアントツールの完全なパス。hive -e が実行された後、writeMode に関連付けられた LOAD DATA INPATH データロード操作が実行されます。

    Hive アクセス情報は、hiveCommand に対応するクライアントによって保証されます。

  • jdbcUrlusername、および password は、Hive JDBC アクセス情報を指定します。HiveWriter プラグインは、Hive JDBC ドライバーを介して Hive にアクセスし、writeMode に関連付けられた LOAD DATA INPATH データロード操作を実行します。

    "hiveConfig": {
        "hiveCommand": "",
        "jdbcUrl": "",
        "username": "",
        "password": ""
            }
  • Hive Writer プラグインは、HDFS クライアントを使用して基盤となるレイヤーで HDFS ファイルにデータを書き込みます。hiveConfig で HDFS クライアントの高度なパラメーターを構成することもできます。

はい

なし

fileSystemUsername

Hive テーブルにデータを書き込む場合、デフォルトでは Hive データソース ページで構成されたユーザーが使用されます。データソースページで匿名ログインが構成されている場合、デフォルトで admin アカウントが使用されます。同期タスク中に権限の問題が発生した場合は、コードエディタに切り替えて fileSystemUsername パラメーターを構成する必要があります。

いいえ

なし

enableColumnExchange

このパラメーターが True に設定されている場合、列の並べ替えが有効になります。

説明

Text 形式のみがサポートされています。

いいえ

なし

nullFormat

Data Integration は、どの文字列を null として解釈できるかを定義するために nullFormat パラメーターを提供します。

たとえば、nullFormat:"null" と構成すると、Data Integration はソースデータの `null` を null フィールドとして扱います。

説明

文字列 "null" (n, u, l, l の 4 文字) は、実際の null 値とは異なります。

いいえ

なし