バルクロードを使用してApsaraDB for HBaseにデータをインポートするなど、一部のシナリオでは、ApsaraDB for HBaseクラスターのHDFSポートを有効にする必要があります。
注記: HDFSポートを有効にした場合、ユーザーのミスによってHDFSで発生したデータ損失について、Alibaba Cloudは責任を負いません。 HDFSの操作に精通していることを確認してください。
ApsaraDB for HBase Q&A
DingTalkグループに連絡して、HDFSをアクティブ化してください。 注意: HDFSをアクティブ化すると、クラスターが悪意のある攻撃にさらされ、パフォーマンスの不安定化やデータ損失につながる可能性があります。 データセキュリティを確保するために、必要に応じてHDFSをアクティブ化することは許可されていません。 ApsaraDB for HBase Q&A DingTalkグループに連絡して、HDFSをアクティブ化する必要があります。 タスクが完了したら、無効にします。HDFSクライアントを使用してApsaraDB for HBaseのHDFSクラスターに接続することで、HDFSポートをテストします。
confという名前のHadoopクライアント構成フォルダーを作成します。 フォルダーが既に存在する場合は、新しく作成する必要はありません。
次のHDFS構成ファイルをフォルダーに追加します。 ホスト {hbase-header-1-host} および {hbase-header-1-host} を設定する方法の詳細については、
ApsaraDB for HBase Q&A
DingTalkグループにお問い合わせください。core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hbase-cluster</value>
</property>
</configuration>
- hdfs-site.xml
<configuration>
<property>
<name>dfs.nameservices</name>
<value>hbase-cluster</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.hbase-cluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled.hbase-cluster</name>
<value>true</value>
</property>
<property>
<name>dfs.ha.namenodes.hbase-cluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.hbase-cluster.nn1</name>
<value>{hbase-header-1-host}:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.hbase-cluster.nn2</name>
<value>{hbase-header-2-host}:8020</value>
</property>
</configuration>
Hadoopクライアントのクラスパスに conf を追加します。
HDFSからデータを読み取り、HDFSにデータを書き込むことで、HDFSポートをテストします。
echo "hdfs port test" >/tmp/test
hadoop dfs -put /tmp/test /
hadoop dfs -cat /test