文档中心
MaxCompute
大数据计算服务MaxCompute
新功能发布记录
公告
文档最新动态
发展历程
产品简介
什么是MaxCompute
使用须知
基本概念
MaxCompute术语表
项目
表
分区
生命周期
资源
函数
任务
任务实例
ACID语义
使用限制
存储性能
功能与可用区
产品定价
计费方式
存储费用(按量计费)
计算费用
下载费用(按量计费)
查看账单详情
转换计费方式
升级和降配
停服与欠费策略
续费管理
消费控制
规格类型
包年包月
按量计费
准备工作
准备阿里云账号
创建RAM用户
开通MaxCompute
创建项目空间
添加项目空间成员并设置角色
安装并配置客户端
配置Endpoint
管理用户及角色
快速入门
创建和查看表
导入数据
运行SQL语句和导出数据
编写MapReduce(可选)
开发Java UDF(可选)
编写Graph(可选)
使用临时查询运行SQL语句(可选)
使用教程
搭建互联网在线运营分析平台
业务场景与开发流程
环境准备
数据准备
数据建模与开发
新建数据表
设计工作流
节点配置
任务提交与测试
数据可视化展现
开发
数据类型
数据类型版本说明
1.0数据类型版本
2.0数据类型版本
Hive兼容数据类型版本
组件与数据类型的兼容
常用命令
常用命令列表
项目空间操作
SET操作
安全操作
用户和角色操作
授权操作
表操作
分区和列操作
实例操作
资源操作
函数操作
Tunnel操作
时区配置操作
其它操作
SQL及函数
SQL概述
与其他SQL语法的差异
SQL使用限制项
DDL语句
表操作
分区和列操作
生命周期操作
视图操作
INSERT语句
更新表数据(INSERT OVERWRITE and INSERT INTO)
更新动态分区数据(DYNAMIC PARTITION)
多路输出(MULTI INSERT)
VALUES
SELECT语句
SELECT语法介绍
SELECT语序
子查询
交集、并集和补集
JOIN
SEMI JOIN
MAPJOIN HINT
Lateral View
HAVING子句
GROUPING SETS
SELECT TRANSFORM语法
SQL增强操作
LOAD
EXPLAIN
COMMON TABLE EXPRESSION(CTE)
CLONE TABLE
参数化视图
内建函数
与MySQL、Oracle内建函数对照表
日期函数
数学函数
窗口函数
聚合函数
字符串函数
其他函数
UDF
概述
Java UDF
Python 2 UDF
Python 3 UDF
代码嵌入式UDF
SQL语言定义函数
开源地理空间UDF
Python UDF使用第三方包
UDTF使用说明
UDF示例程序
JSON字符串获取示例
JSON字符串值判断示例
不同类型数据转换JSON STRING类型示例
使用正则表达式替换字符串示例
JSON字符串增加键值示例
获取字符串(含有分隔符)Value示例
获取字符串(不含分隔符)Value示例
取余函数示例
获取指定日期格式的时间示例
获取URL中指定位置的字符示例
UDT
UDT概述
UDT示例
UDJ
脚本模式
附录
运算符
转义字符
LIKE字符匹配
正则表达式规范
保留字与关键字
数据类型映射表
类型转换
动态参数说明
PyODPS
快速入门
安装指南及使用限制
工具平台使用指南
工具平台使用概述
从平台到自行部署
在DataWorks上使用PyODPS
创建PyODPS 3节点
基本操作
基本操作概述
项目空间
表
SQL
任务实例
资源
函数
配置选项
DataFrame
DataFrame概述
快速入门
创建DataFrame
Sequence
Collection
执行
列运算
聚合操作
排序、去重、采样、数据变换
使用自定义函数及Python第三方库
MapReduce API
数据合并
窗口函数
绘图
调试指南
交互体验增强
命令行增强
IPython增强
Jupyter Notebook增强
API概述
示例程序
PyODPS使用第三方包
PyODPS条件查询
PyODPS参数传递
PyODPS读取分区表数据
PyODPS查看一级分区
PyODPS的Sequence及执行操作
PyODPS的聚合操作
PyODPS的列运算
PyDOPS的排序
PyODPS的去重
PyODPS的采样
PyODPS的数据缩放
PyODPS的空值处理
MapReduce
概要
MapReduce概述
扩展MapReduce
开源兼容MapReduce
MapReduce使用限制
功能介绍
基本概念
MapReduce作业提交
输入与输出
资源使用
本地运行
示例程序
WordCount示例
MapOnly示例
多路输入输出示例
多任务示例
二次排序示例
使用资源示例
使用Counter示例
Grep示例
Join示例
Sleep示例
Unique示例
Sort示例
分区表输入示例
Pipeline示例
Java SDK
原生SDK概述
兼容版本SDK概述
Java沙箱
数据科学(Mars)
版本更新记录
概述
准备工作
使用说明
Spark
MaxCompute Spark概述
搭建开发环境
运行模式
Java/Scala开发示例
Java和Scala开发示例概述
Spark-1.x示例
Spark-2.x示例
PySpark开发示例
Spark访问VPC实例
Spark访问OSS
作业诊断
查询加速(MCQA)
概述
使用说明
外部表
外部表概述
STS模式授权
OSS外部表
内置Extractor访问OSS
自定义Extractor访问OSS
处理OSS的开源格式数据
外部表的数据分区
输出到OSS的非结构化数据
访问OTS非结构化数据
交互式分析 (Lightning)
MaxCompute Lightning升级为MaxCompute交互式分析(Hologres)
概述
MaxCompute Lightning访问域名Endpoint
MaxCompute Lightning使用限制
通过第三方工具连接服务
使用说明
通过JDBC连接MaxCompute服务
JDBC驱动程序
配置JDBC连接
常见工具的连接
查询语法与内建函数
查看或取消查询作业
常见问题
图模型
概述
Aggregator机制
使用限制
Graph作业
SDK配置说明
开发和调试
示例程序
单源最短距离
PageRank
K-均值聚类
BiPartiteMatching
强连通分量
连通分量
拓扑排序
线性回归
三角形计数
输入点表
输入边表
Job运行信息查看
使用Logview查看Job信息
使用Logview 2.0查看Job运行信息
利用MaxCompute编译器的错误和告警
MaxCompute开源支持
数据迁移
数据上传下载
数据上传下载概述
数据通道服务连接
数据上云的工具选择
工具介绍
使用Tunnel命令上传下载数据
Tunnel命令参考
Tunnel命令使用说明
批量数据通道SDK介绍
批量数据通道概要
TableTunnel
InstanceTunnel
UploadSession
DownloadSession
TunnelBufferedWriter
批量数据通道SDK示例
示例概述
简单上传示例
简单下载示例
多线程上传示例
多线程下载示例
BufferedWriter上传示例
BufferedWriter多线程上传示例
复杂数据类型上传下载示例
数据集成导入导出数据
消息队列Kafka版数据导入MaxCompute
迁移示例
管理
安全管理基础
安全模型
管理角色
管理角色说明
为用户授权管理角色
通过DataWorks管理项目角色权限
MaxCompute和DataWorks权限关系
用户与权限管理
启用安全功能
安全管理详解
安全功能概述
快速开始
添加用户并授权
添加角色
开启项目空间数据保护
设置IP白名单
用户及授权管理
用户认证
用户管理
授权
角色管理
权限查看
列级别访问控制
Policy和Download权限控制
跨项目空间的资源分享
基于Package的跨项目空间资源访问
Package的使用方法
项目空间的安全配置
项目空间的数据保护
安全相关语句汇总
项目空间的安全配置
项目空间的权限管理
基于Package的资源分享
安全管理案例
创建项目
Package赋权
数据安全自查
子账号进行权限管理
行级别权限控制
安全白皮书
MaxCompute安全白皮书
资源和作业管理
MaxCompute管家
Information Schema
Information Schema概述
元数据视图列表
审计日志
数据加密
工具及下载
查询编辑器
客户端
MaxCompute Studio
认识MaxCompute Studio
工具安装与版本信息
安装IntelliJ IDEA
安装MaxCompute Studio
查看和更新版本
配置MaxCompute Studio
管理项目连接
管理数据和资源
管理项目数据
导入导出表数据
可视化管理表
开发SQL程序
创建MaxCompute Script Module
开发及提交SQL脚本
提交SQL脚本
开发Java程序
概述
创建MaxCompute Java Module
开发UDF
开发MapReduce
开发Graph
查询非结构化数据
打包、上传和注册
开发Python程序
配置Python开发环境
开发Python UDF
开发PyODPS脚本
管理MaxCompute作业
作业浏览
作业实例详情
工具集成
与MaxCompute客户端集成
常见问题(FAQ)
如何通过MaxCompute Studio开发Java UDF
如何通过Studio管理MaxCompute元数据
相关下载
SDK参考
Java SDK
版本更新记录
Java SDK介绍
Java SDK示例
运行安全命令
Instance Logview
输出错误日志
在SQL语句中设置Flag
SQLTask配合Tunnel实现大量数据导出
Python SDK
Python SDK概述
Python SDK方法说明
JDBC参考
版本更新记录
概述
使用说明
第三方工具集成
配置JDBC使用Tableau
配置JDBC使用SQL Workbench/J
最佳实践
SQL
MaxCompute SQL示例解析
不兼容SQL重写
导出SQL的运行结果
分区剪裁合理性评估
分组取出每组数据的前N条
多行数据合并为一行数据
MaxCompute SQL中的关联操作
数据迁移
数据迁移
MaxCompute跨项目迁移
Hadoop数据迁移MaxCompute最佳实践
迁移Oracle数据至MaxCompute最佳实践
Kafka数据迁移MaxCompute最佳实践
Elasticsearch数据迁移至MaxCompute
RDS迁移至MaxCompute实现动态分区
JSON数据从MongoDB迁移至MaxCompute
JSON数据从OSS迁移至MaxCompute
MaxCompute数据迁移至OTS
MaxCompute数据迁移至OSS
迁移ECS自建MySQL数据库至MaxCompute
Amazon Redshift数据迁移至MaxCompute
BigQuery数据迁移至MaxCompute
日志数据迁移至MaxCompute
概述
通过Tunnel迁移日志数据至MaxCompute
通过DataHub迁移日志数据至MaxCompute
通过DataWorks数据集成迁移日志数据至MaxCompute
数据开发
IntelliJ IDEA Java UDF开发最佳实践
使用MaxCompute分析IP来源最佳实践
解决DataWorks 10MB文件限制问题最佳实践
实现指定用户访问特定UDF最佳实践
PyODPS节点实现结巴中文分词
PyODPS节点实现避免将数据下载到本地
计算优化
SQL调优
JOIN长尾优化
其它计算长尾调优
长周期指标的计算优化方案
成本优化
成本优化概述
选择付费方式
计算成本优化
存储成本优化
数据上传下载成本优化
成本追踪
计费命令参考
MaxCompute账单分析最佳实践
安全管理
MaxCompute项目设置RAM子账号为超级管理员
错误码附录
常见错误概述
SQL常见错误
MapReduce常见错误
Tunnel常见错误
公开数据集
概述
相关协议
MaxCompute服务等级协议(SLA)
全部产品
Search
文档中心
MaxCompute
开发
PyODPS
API概述
all-products-head
搜索本产品
搜索本产品
全部产品
API概述
文档中心
产品详情
API概述
更新时间: 2020-09-24
本文为您提供了PyODPS API文档链接,其中包含各函数的参数说明及示例。
ODPS详解(Definitions)
PyODPS DataFrame指南(DataFrame Reference)
文章是否有用?
您觉得这篇文档的主要问题是哪些?
其他建议?
发送
谢谢!我们已经收到了您的反馈。
免费试用
免费试用