全部产品
Search
文档中心

对象存储 OSS:非EMR集群接入OSS-HDFS服务快速入门

更新时间:Dec 21, 2023

OSS-HDFS服务(JindoFS服务)完全兼容HDFS接口,同时支持目录层级的操作。JindoSDK为Apache Hadoop的计算分析应用(例如MapReduce、Hive、Spark、Flink等)提供了访问HDFS服务的能力。本文介绍如何通过在ECS实例中部署JindoSDK,然后完成OSS-HDFS服务快速入门相关操作。

前提条件

操作视频

观看以下视频了解如何通过非EMR集群快速接入OSS-HDFS服务并完成常见操作。

操作步骤

  1. 连接ECS实例。具体操作,请参见连接ECS实例

  2. 下载并解压JindoSDK JAR包。

    1. 执行以下命令,下载最新版本的JindoSDK JAR包。下载地址,请参见GitHub

      wget https://jindodata-binary.oss-cn-hangzhou.aliyuncs.com/release/x.x.x/jindosdk-x.x.x.tar.gz
      说明

      x.x.x表示JindoSDK JAR包版本号。

    2. 执行以下命令,解压JindoSDK JAR包。

      tar zxvf jindosdk-x.x.x.tar.gz
  3. 配置环境变量。

    1. 配置JINDOSDK_HOME

      以安装包内容解压在/usr/lib/jindosdk-x.x.x目录为例:

      export JINDOSDK_HOME=/usr/lib/jindosdk-x.x.x
    2. 配置HADOOP_CLASSPATH

      export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:${JINDOSDK_HOME}/lib/*
      重要

      请将安装目录和环境变量部署到所有所需节点上。

  4. 配置JindoFS服务实现类及AccessKey。

    1. 执行以下命令,进入Hadoop的core-site.xml配置文件。

      vim /usr/local/hadoop/etc/hadoop/core-site.xml
    2. 将JindoSDK DLS实现类配置到Hadoop的core-site.xml中。

      <configuration>
          <property>
              <name>fs.AbstractFileSystem.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOSS</value>
          </property>
      
          <property>
              <name>fs.oss.impl</name>
              <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
          </property>
      </configuration>
    3. 将已开启HDFS服务的Bucket对应的accessKeyId、accessKeySecret预先配置在Hadoop的core-site.xml中。

      <configuration>
          <property>
              <name>fs.oss.accessKeyId</name>
              <value>xxx</value>
          </property>
      
          <property>
              <name>fs.oss.accessKeySecret</name>
              <value>xxx</value>
          </property>
      </configuration>
  5. 配置JindoFS服务Endpoint。

    使用JindoFS服务访问OSS Bucket时需要配置Endpoint。推荐访问路径格式为oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK会根据访问路径中的Endpoint访问对应的JindoFS服务接口。

    您还可以通过其他方式配置JindoFS服务Endpoint,且不同方式配置的Endpoint存在生效优先级。更多信息,请参见附录一:配置Endpoint的其他方式

  6. 通过HDFS Shell命令执行OSS-HDFS服务快速入门常见操作。

    • 上传文件

      将本地根目录下的examplefile.txt文件上传至examplebucket,示例如下:

      hdfs dfs -put examplefile.txt oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/
    • 新建目录

      在examplebucket下创建名为dir/的目录,示例如下:

      hdfs dfs -mkdir oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/dir/
    • 查看文件或目录信息

      查看examplebucket下的文件或目录信息,示例如下:

      hdfs dfs -ls oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/
    • 获取文件或目录大小

      获取examplebucket下所有文件或目录的大小,示例如下:

      hdfs dfs -du oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/
    • 查看文件内容

      查看examplebucket下名为localfile.txt的文件内容,示例如下:

      hdfs dfs -cat oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/localfile.txt
      重要

      查看文件内容时,文件内容将以纯文本形式打印到屏幕上。如果文件内容进行了特定格式的编码,请使用HDFS的Java API读取并解码文件内容。

    • 拷贝目录或文件

      例如,将examplebucket下根目录subdir1拷贝到目录subdir2下,且根目录subdir1所在的位置、根目录下的文件和子目录结构和内容保持不变,示例如下:

      hdfs dfs -cp oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/subdir1  oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/subdir2/subdir1
    • 移动目录或文件

      例如,将examplebucket根目录srcdir及其包含的文件或者子目录移动至另一个根目录destdir下,示例如下:

      hdfs dfs -mv oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/srcdir  oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/destdir
    • 下载文件

      将examplebucket下的exampleobject.txt下载到本地根目录文件夹/tmp,示例如下:

      hdfs dfs -get oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/exampleobject.txt  /tmp/
    • 删除目录或文件

      删除examplebucket下destfolder/目录及其目录下的所有文件,示例如下:

      hdfs dfs -rm -r oss://examplebucket.cn-hangzhou.oss-dls.aliyuncs.com/destfolder/

附录一:配置Endpoint的其他方式

除上述提到的在访问路径中指定Endpoint的方式以外,您还可以通过以下两种方式配置JindoFS服务的Endpoint:

  • Bucket级别的Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,即访问路径中未设置Endpoint。此时,您可以在Hadoop的配置文件core-site.xml中设置Bucket级别的Endpoint,从而指向JindoFS服务的Endpoint。

    <configuration>
        <property>
            <!-- 以下examplebucket为开通HDFS服务的Bucket名称,其他Bucket请根据实际情况替换。 -->
            <name>fs.oss.bucket.examplebucket.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
  • 全局默认Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,且访问路径中未设置Bucket级别的Endpoint,则默认使用全局Endpoint的方式访问JindoFS服务。在Hadoop的配置文件core-site.xml中设置全局默认Endpoint的方式如下:

    <configuration>
        <property>
            <name>fs.oss.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
说明

通过不同方式配置Endpoint后,Endpoint生效优先级为访问路径中的Endpoint>Bucket级别的Endpoint>全局默认Endpoint

附录二:性能调优

您可以结合实际业务需求,将以下配置项添加到Hadoop的core-site.xml中。仅JindoSDK 4.0及以上版本支持以下配置项。

<configuration>

    <property>
          <!-- 客户端写入的临时文件目录,可配置多个,每个临时文件目录需以逗号隔开。多用户环境需配置可读写权限 -->
        <name>fs.oss.tmp.data.dirs</name>
        <value>/tmp/</value>
    </property>

    <property>
          <!-- 访问OSS失败重试次数 -->
        <name>fs.oss.retry.count</name>
        <value>5</value>
    </property>

    <property>
          <!-- 请求OSS超时时间(毫秒) -->
        <name>fs.oss.timeout.millisecond</name>
        <value>30000</value>
    </property>

    <property>
          <!-- 连接OSS超时时间(毫秒) -->
        <name>fs.oss.connection.timeout.millisecond</name>
        <value>3000</value>
    </property>

    <property>
          <!-- OSS单个文件并发上传线程数 -->
        <name>fs.oss.upload.thread.concurrency</name>
        <value>5</value>
    </property>

    <property>
          <!-- OSS并发上传任务队列大小 -->
        <name>fs.oss.upload.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发上传任务数 -->
        <name>fs.oss.upload.max.pending.tasks.per.stream</name>
        <value>16</value>
    </property>

    <property>
          <!-- OSS并发下载任务队列大小 -->
        <name>fs.oss.download.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发下载任务数 -->
        <name>fs.oss.download.thread.concurrency</name>
        <value>16</value>
    </property>

    <property>
          <!-- 预读OSS的buffer大小 -->
        <name>fs.oss.read.readahead.buffer.size</name>
        <value>1048576</value>
    </property>

    <property>
          <!-- 同时预读OSS的buffer个数 -->
        <name>fs.oss.read.readahead.buffer.count</name>
        <value>4</value>
    </property>

</configuration>