OSS-HDFS服务(JindoFS服务)完全兼容HDFS接口,同时支持目录层级的操作。JindoSDK为Apache Hadoop的计算分析应用(例如MapReduce、Hive、Spark、Flink等)提供了访问HDFS服务的能力。

前提条件

已在创建Bucket时开通HDFS服务。具体操作,请参见创建存储空间

步骤一:授权访问

  1. 授权服务端管理已开通HDFS服务的Bucket。
    首次使用HDFS功能时,需要先在RAM控制台完成以下授权,以便OSS服务账号能够管理Bucket中的数据。
    1. 创建名为AliyunOSSDlsDefaultRole的角色。
      1. 登录RAM控制台
      2. 在左侧导航栏,选择身份管理 > 角色
      3. 单击创建角色,选择可信实体类型为阿里云服务,单击下一步
      4. 角色类型选择普通服务角色角色名称填写为AliyunOSSDlsDefaultRole选择受信服务对象存储
      5. 单击完成。角色创建完成后,单击关闭
    2. 新建名为AliyunOSSDlsRolePolicy的自定义权限策略。
      1. 在左侧导航栏,选择权限管理 > 权限策略
      2. 单击创建权限策略
      3. 新建自定义权限策略页面,填写策略名称AliyunOSSDlsRolePolicy,配置模式选择脚本配置,并在策略内容中填写以下权限策略。
        {
          "Version": "1",
          "Statement": [
            {
              "Effect": "Allow",
              "Action": "oss:ListObjects",
              "Resource": [
                "acs:oss:*:*:*"
              ]
            },
            {
              "Effect": "Allow",
              "Action": "oss:*",
              "Resource": [
                "acs:oss:*:*:*/.dlsdata",
                "acs:oss:*:*:*/.dlsdata*"
              ]
            }
          ]
        }
                                                
      4. 单击确定
    3. 为角色授予自定义权限策略。
      1. 在左侧导航栏,选择身份管理 > 角色
      2. 单击RAM角色AliyunOSSDlsDefaultRole右侧的精确授权
      3. 添加权限页面,选择权限类型为自定义策略,输入已创建的自定义权限策略名称AliyunOSSDlsRolePolicy
      4. 单击确定
  2. 授权RAM用户访问已开通HDFS服务的Bucket。
    1. 创建RAM用户。具体操作,请参见创建RAM用户
    2. 创建自定义策略,策略内容如下:
      {
          "Statement": [
              {
                  "Effect": "Allow",
                  "Action": "oss:*",
                  "Resource": [
                      "acs:oss:*:*:*/.dlsdata",
                      "acs:oss:*:*:*/.dlsdata*"
                  ]
              },
              {
                  "Effect": "Allow",
                  "Action": [
                      "oss:GetBucketInfo",
                      "oss:PostDataLakeStorageFileOperation"
                  ],
                  "Resource": "*"
              }
          ],
          "Version": "1"
      }

      创建自定义策略的具体操作,请参见创建自定义权限策略

    3. 为RAM用户授权已创建的自定义策略。具体步骤,请参见为RAM用户授权
    如果您使用服务角色(例如EMR服务角色AliyunEMRDefaultRole)访问已开通HDFS服务的Bucket,请参见上述为RAM用户授权的步骤完成服务角色授权。

步骤二:下载和安装JAR包

下载最新版本的JindoSDK JAR包。下载地址,请参见GitHub

步骤三:配置环境变量

  1. 配置JINDOSDK_HOME
    解压下载的安装包,以安装包内容解压在/usr/lib/jindosdk-4.0.0目录为例:
    export JINDOSDK_HOME=/usr/lib/jindosdk-4.0.0
  2. 配置HADOOP_CLASSPATH
    执行以下命令配置HADOOP_CLASSPATH
    export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:${JINDOSDK_HOME}/lib/*
    注意 请将安装目录和环境变量部署到所有所需节点上。

步骤四:配置JindoFS服务实现类及AccessKey

  1. 将JindoSDK DLS实现类配置到Hadoop的core-site.xml中。
    <configuration>
        <property>
            <name>fs.AbstractFileSystem.oss.impl</name>
            <value>com.aliyun.jindodata.oss.JindoOSS</value>
        </property>
    
        <property>
            <name>fs.oss.impl</name>
            <value>com.aliyun.jindodata.oss.JindoOssFileSystem</value>
        </property>
    </configuration>
  2. 将已开启HDFS服务的Bucket对应的accessKeyId、accessKeySecret预先配置在Hadoop的core-site.xml中。
    <configuration>
        <property>
            <name>fs.oss.accessKeyId</name>
            <value>xxx</value>
        </property>
    
        <property>
            <name>fs.oss.accessKeySecret</name>
            <value>xxx</value>
        </property>
    </configuration>

步骤五:配置JindoFS服务Endpoint

使用JindoFS服务访问OSS Bucket时需要配置Endpoint。推荐访问路径格式为oss://<Bucket>.<Endpoint>/<Object>,例如oss://examplebucket.cn-shanghai.oss-dls.aliyuncs.com/exampleobject.txt。配置完成后,JindoSDK会根据访问路径中的Endpoint访问对应的JindoFS服务接口。

您还可以通过其他方式配置JindoFS服务Endpoint,且不同方式配置的Endpoint存在生效优先级。更多信息,请参见配置Endpoint的其他方式

步骤六:使用HDFS Shell访问OSS

以下列举了通过HDFS Shell命令对OSS执行的几种常见操作。

  • 上传文件

    将本地根目录下的examplefile.txt文件上传至目标存储空间examplebucket,示例如下:

    hdfs dfs -put examplefile.txt oss://examplebucket.<Endpoint>/
  • 新建目录

    在目标存储空间examplebucket下创建名为dir/的目录,示例如下:

    hdfs dfs -mkdir oss://examplebucket.<Endpoint>/dir/
  • 查看文件或目录信息

    查看目标存储空间examplebucket下的文件或目录信息,示例如下:

    hdfs dfs -ls oss://examplebucket.<Endpoint>/
  • 查看文件或目录大小

    查看目标存储空间examplebucket下所有文件或目录的大小,示例如下:

    hdfs dfs -du oss://examplebucket.<Endpoint>/
  • 查看文件内容

    例如,您需要查看examplebucket下名为localfile.txt的文件内容,示例如下:

    hdfs dfs -cat oss://examplebucket.<Endpoint>/localfile.txt
    注意 查看文件内容时,文件内容将以纯文本形式打印到屏幕上。如果文件内容进行了特定格式的编码,请使用HDFS的Java API读取并解码文件内容。
  • 拷贝目录或文件

    例如,将目标存储空间examplebucket下根目录subdir1拷贝到目录subdir2下,且根目录subdir1所在的位置、根目录下的文件和子目录结构和内容保持不变,示例如下:

    hdfs dfs -cp oss://examplebucket.<Endpoint>/subdir1  oss://examplebucket.<Endpoint>/subdir2/subdir2
  • 移动目录或文件

    例如,将目标存储空间根目录srcdir及其包含的文件或者子目录移动至另一个根目录destdir下,示例如下:

    hdfs dfs -mv oss://examplebucket.<Endpoint>/srcdir  oss://examplebucket.<Endpoint>/destdir
  • 下载文件

    例如,将目标存储空间examplebucket下的exampleobject.txt下载到本地根目录文件夹/tmp,示例如下:

    hdfs dfs -get oss://examplebucket.<Endpoint>/exampleobject.txt  /tmp/
  • 删除目录或文件

    hdfs dfs -rm oss://<bucket>.<Endpoint>/<path>

    例如,删除目标存储空间examplebucket下destfolder/目录及其目录下的所有文件,示例如下:

    hdfs dfs -rm oss://examplebucket.<Endpoint>/destfolder/

(可选)步骤七:性能调优

您可以结合实际业务需求,将以下配置项添加到Hadoop的core-site.xml中。仅JindoSDK 4.0及以上版本支持以下配置项。

<configuration>

    <property>
          <!-- 客户端写入的临时文件目录,可配置多个,每个临时文件目录需以逗号隔开。多用户环境需配置可读写权限 -->
        <name>fs.oss.tmp.data.dirs</name>
        <value>/tmp/</value>
    </property>

    <property>
          <!-- 访问OSS失败重试次数 -->
        <name>fs.oss.retry.count</name>
        <value>5</value>
    </property>

    <property>
          <!-- 请求OSS超时时间(毫秒) -->
        <name>fs.oss.timeout.millisecond</name>
        <value>30000</value>
    </property>

    <property>
          <!-- 连接OSS超时时间(毫秒) -->
        <name>fs.oss.connection.timeout.millisecond</name>
        <value>3000</value>
    </property>

    <property>
          <!-- OSS单个文件并发上传线程数 -->
        <name>fs.oss.upload.thread.concurrency</name>
        <value>5</value>
    </property>

    <property>
          <!-- OSS并发上传任务队列大小 -->
        <name>fs.oss.upload.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发上传任务数 -->
        <name>fs.oss.upload.max.pending.tasks.per.stream</name>
        <value>16</value>
    </property>

    <property>
          <!-- OSS并发下载任务队列大小 -->
        <name>fs.oss.download.queue.size</name>
        <value>5</value>
    </property>

    <property>
          <!-- 进程内OSS最大并发下载任务数 -->
        <name>fs.oss.download.thread.concurrency</name>
        <value>16</value>
    </property>

    <property>
          <!-- 预读OSS的buffer大小 -->
        <name>fs.oss.read.readahead.buffer.size</name>
        <value>1048576</value>
    </property>

    <property>
          <!-- 同时预读OSS的buffer个数 -->
        <name>fs.oss.read.readahead.buffer.count</name>
        <value>4</value>
    </property>

</configuration>

附录:配置Endpoint的其他方式

除上述提到的在访问路径中指定Endpoint的方式以外,您还可以通过以下两种方式配置JindoFS服务的Endpoint:

  • Bucket级别的Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,即访问路径中未设置Endpoint。此时,您可以在Hadoop的配置文件core-site.xml中设置Bucket级别的Endpoint,从而指向JindoFS服务的Endpoint。

    <configuration>
        <property>
            <!-- 以下examplebucket为开通HDFS服务的Bucket名称,其他Bucket请根据实际情况替换。 -->
            <name>fs.oss.bucket.examplebucket.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
  • 全局默认Endpoint

    如果使用oss://<Bucket>/<Object>格式的访问路径,且访问路径中未设置Bucket级别的Endpoint,则默认使用全局Endpoint的方式访问JindoFS服务。在Hadoop的配置文件core-site.xml中设置全局默认Endpoint的方式如下:

    <configuration>
        <property>
            <name>fs.oss.endpoint</name>
            <!-- 以下以杭州地域为例,其他地域请根据实际情况替换。 -->
            <value>cn-hangzhou.oss-dls.aliyuncs.com</value>
        </property>
    </configuration>
说明 通过不同方式配置Endpoint后,Endpoint生效优先级为访问路径中的Endpoint>Bucket级别的Endpoint>全局默认Endpoint