本文介绍如何配置Spark Shell类型的作业。
操作步骤
- 通过主账号登录阿里云E-MapReduce控制台。
- 在顶部菜单栏处,根据实际情况选择地域(Region)和资源组。
- 单击上方的数据开发页签。
- 在项目列表页面,单击待编辑项目所在行的作业编辑。
- 在作业编辑区域,在需要操作的文件夹上,右键选择新建作业。
- 输入作业名称和作业描述,在作业类型下拉列表中选择Spark Shell作业类型。
- 单击确定。
- 在作业内容中,输入Spark Shell命令后续的参数。
示例如下。
val count = sc.parallelize(1 to 100).filter { _ =>
val x = math.random
val y = math.random
x*x + y*y < 1
}.count()println(s"Pi is roughly ${4.0 * count / 100}")
- 单击保存,作业配置即定义完成。