すべてのプロダクト
Search
ドキュメントセンター

ApsaraDB for HBase:ApsaraDB for HBase HDFSへのアクセス

最終更新日:Jan 16, 2025

バルクロードを使用してApsaraDB for HBaseにデータをインポートするなど、一部のシナリオでは、ApsaraDB for HBaseクラスターのHDFSポートを有効にする必要があります。

  • 注記: HDFSポートを有効にした場合、ユーザーのミスによってHDFSで発生したデータ損失について、Alibaba Cloudは責任を負いません。 HDFSの操作に精通していることを確認してください。

  • ApsaraDB for HBase Q&A DingTalkグループに連絡して、HDFSをアクティブ化してください。 注意: HDFSをアクティブ化すると、クラスターが悪意のある攻撃にさらされ、パフォーマンスの不安定化やデータ損失につながる可能性があります。 データセキュリティを確保するために、必要に応じてHDFSをアクティブ化することは許可されていません。 ApsaraDB for HBase Q&A DingTalkグループに連絡して、HDFSをアクティブ化する必要があります。 タスクが完了したら、無効にします。

  • HDFSクライアントを使用してApsaraDB for HBaseのHDFSクラスターに接続することで、HDFSポートをテストします。

  • confという名前のHadoopクライアント構成フォルダーを作成します。 フォルダーが既に存在する場合は、新しく作成する必要はありません。

  • 次のHDFS構成ファイルをフォルダーに追加します。 ホスト {hbase-header-1-host} および {hbase-header-1-host} を設定する方法の詳細については、ApsaraDB for HBase Q&A DingTalkグループにお問い合わせください。

    • core-site.xml

<configuration>
  <property>
     <name>fs.defaultFS</name>
     <value>hdfs://hbase-cluster</value>
  </property>
</configuration>
        

- hdfs-site.xml

<configuration>
<property>
        <name>dfs.nameservices</name>
        <value>hbase-cluster</value>
</property>
  <property>
 <name>dfs.client.failover.proxy.provider.hbase-cluster</name>
 <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
 <name>dfs.ha.automatic-failover.enabled.hbase-cluster</name>
 <value>true</value>
</property>
<property>
        <name>dfs.ha.namenodes.hbase-cluster</name>
        <value>nn1,nn2</value>
</property>
<property>
        <name>dfs.namenode.rpc-address.hbase-cluster.nn1</name>
        <value>{hbase-header-1-host}:8020</value>
</property>
<property>
        <name>dfs.namenode.rpc-address.hbase-cluster.nn2</name>
        <value>{hbase-header-2-host}:8020</value>
</property>
</configuration>
        
  • Hadoopクライアントのクラスパスに conf を追加します。

  • HDFSからデータを読み取り、HDFSにデータを書き込むことで、HDFSポートをテストします。

echo "hdfs port test"  >/tmp/test
hadoop dfs -put /tmp/test  /
hadoop dfs -cat /test