全部產品
Search
文件中心

AnalyticDB:2024年

更新時間:Apr 09, 2025

本文介紹AnalyticDB for MySQL的產品功能動態。

注意事項

版本升級期間,有以下注意事項需要您知曉。

  • 預留模式叢集版、彈性模式32核及以上規格:資料讀寫不中斷,距離升級完成5分鐘內查詢偶爾閃斷。

  • 彈性模式8核及16核規格:資料寫入會中斷大約30分鐘,距離升級完成5分鐘內查詢偶爾閃斷。

  • 叢集升級時間段內,資料庫的訪問、帳號管理、資料庫管理以及IP白名單設定預設不會受到影響。

  • 叢集升級時間段內,寫入和查詢類操作可能會產生小機率抖動,請確保應用程式具有重試機制。

  • 叢集升級時間段內,叢集可能會發生串連閃斷,請確保應用程式具有重連機制。

如果您的叢集不需要升級,或者升級過程有問題,可以取消版本升級計劃。當前僅小版本升級計劃事件可以取消。具體操作,請參見取消計劃配置

警告

當您的AnalyticDB for MySQL執行個體所使用的核心小版本低於最新核心小版本時,阿里雲會不定期推送升級通知給您,告知您執行個體需要升級至最新的穩定核心小版本。建議您在收到通知後儘快升級執行個體的核心小版本。如果收到通知後六個月內未升級到最新穩定版本,因此造成的業務中斷、資料丟失等損失和後果均由您承擔。

2024年12月

類別

名稱

說明

相關文檔

新增

跨帳號複製叢集

企業版、基礎版及湖倉版叢集支援將源叢集跨帳號複製至其他阿里雲帳號。

複製叢集

雲端硬碟加密

支援在控制台查看叢集是否開啟雲端硬碟加密功能,以及加密時使用的密鑰ID。

雲端硬碟加密

地區開服

支援在泰國(曼穀)和菲律賓(馬尼拉)地區購買企業版、基礎版及湖倉版叢集。

產品定價

2024年11月

類別

名稱

說明

相關文檔

新增

湖儲存加速

開通湖儲存加速(LakeCache)功能後,在讀取OSS資料時,能夠將OSS中的熱點檔案快取在NVMe SSD高效能儲存介質上,提高OSS資料的讀取效率。

湖儲存加速(LakeCache)

2024年10月

類別

名稱

說明

相關文檔

新增

備份恢複

支援通過控制台刪除資料備份集或關閉備份功能。

管理備份

無感Data Integration(Zero-ETL)

無感整合(Zero-ETL)支援Lindorm資料來源。您可以建立Lindorm同步鏈路,一站式完成Lindorm資料同步和管理,實現交易處理和資料分析一體化。

通過無感整合(Zero-ETL)同步Lindorm資料

2024年9月

類別

名稱

說明

相關文檔

新增

跨地區複製叢集

支援將源叢集跨地區複製至其它地區。

複製叢集

V3.2.2

類別

名稱

說明

相關文檔

新增

大量建立MaxCompute外表

支援大量建立MaxCompute外表。

IMPORT FOREIGN SCHEMA

增量重新整理物化視圖新增彙總函式

增量重新整理的物化視圖,QUERY BODY可以包含MAXMINAPPROX_DISTINCTCOUNT(DISTINCT)AVG彙總函式。

重新整理物化視圖

調用Arrow API問MaxCompute外表

支援使用Arrow API方式讀寫MaxCompute外表。與傳統的Tunnel方式相比,Arrow API方式可以提高資料訪問和處理的效率。

通過外表匯入至湖倉版

INSERT INTO

使用INSERT INTO語句插入資料時,支援嵌套TIMESTAMP函數。

INSERT INTO

新一代儲存引擎

AnalyticDB for MySQL研發了新一代儲存引擎XUANWU_V2,該引擎支援將冷資料緩衝到ESSD雲端硬碟,加快資料讀取的速度,同時新一代列式儲存讓I/O並發度更高記憶體佔用更少。也支援開啟Compaction Service,使用Compaction Service獨立資源集區遠程Build資料,從而降低對線上業務的資源佔用,提升穩定性。

XUANWU_V2引擎介紹

最佳化

FROM_UNIXTIME函數

FROM_UNIXTIME函數支援將INT類型的秒級時間戳記按照DATE_FORMAT格式化。

日期和時間函數

缺陷修複

變更資料類型

修複整數資料型別(TINYINT、SMALLINT、INT、BIGINT)變更為DECIMAL類型時報錯的問題。

2024年8月

類別

名稱

說明

相關文檔

新增

Interactive型資源群組支援選擇Spark引擎

湖倉版在建立Interactive型資源群組時支援選擇Spark引擎。選擇Spark引擎後,Interactive型資源群組只支援執行Spark作業,且Spark作業會以互動式方式進行處理。

建立和管理資源群組

無感Data Integration(Zero-ETL)限制同步鏈路數量

無感整合功能限制RDS for MySQLPolarDB for MySQLAnalyticDB for MySQL的Zero-ETL同步鏈路的數量。

2024年7月

V3.2.1

類別

名稱

說明

相關文檔

新增

增量重新整理多表物化視圖

支援將多張關聯表的增量資料定向更新至對應的物化視圖中,提升資料查詢效能與資料分析效率。

重新整理物化視圖

自訂函數UDF(REMOTE_CALL函數)

支援使用REMOTE_CALL函數遠程調用Function Compute (FC)中自訂的函數,滿足您在AnalyticDB for MySQL中使用UDF(使用者自訂函數)的需求。

自訂函數UDF

強制移除資料庫

支援在DROP DATABASE語句後增加CASCADE關鍵字,強制移除該資料庫(包含資料庫下的所有表)。

DROP DATABASE

寬表引擎

湖倉版叢集提供寬表引擎,相容了開源列式資料庫ClickHouse的能力和文法,能夠處理大量的列式資料,適用於欄位較多的表彙總查詢分析情境。

寬表引擎

路徑分析函數

支援通過SEQUENCE_MATCH和SEQUENCE_COUNT函數分析使用者行為路徑,檢查使用者的行為是否和輸入Pattern匹配。

路徑分析函數

設定SSL加密

SSL加密功能可以對數倉版叢集和用戶端之間傳輸的資料進行加密,防止資料被第三方監聽、截取和篡改。

SSL加密

MaxCompute外表欄位支援複雜資料類型

湖倉版MaxCompute外表支援複雜資料類型,包括Array、Map和Struct。

CREATE EXTERNAL TABLE

內表支援ROARING BITMAP資料類型

支援ROARING BITMAP資料類型。

圈人函數(Roaring Bitmap)

Flink訂閱AnalyticDB for MySQL Binlog

支援通過Flink即時消費AnalyticDB for MySQL的Binlog資料。

Flink訂閱Binlog

DTS訂閱AnalyticDB for MySQL Binlog

支援通過DTS即時消費AnalyticDB for MySQL的Binlog資料。

DTS訂閱Binlog

最佳化

LIFECYCLE關鍵字從必選改為可選

若在建表時未設定LIFECYCLE關鍵字,則表示分區資料持續保留,不會被清理。

CREATE TABLE

表級分區生命週期管理(LIFECYCLE)

3.2.1.1及以上核心版本,將分區的生命週期由分區級管理改為了表級管理,即建立表LIFECYCLE n表示每個表保留n個分區,不再是原來的每個分區保留n個分區。

CREATE TABLE

通過外表匯入OSS資料至AnalyticDB for MySQL

通過外表匯入OSS資料至AnalyticDB for MySQL時,Location參數中檔案名稱支援填寫檔案名稱首碼或檔案名稱萬用字元。

通過外表匯入至數倉版

建立表時自動檢查欄位名是否符合要求

使用CREATE TABLE語句建立表時,AnalyticDB for MySQL會自動檢查欄位名是否符合要求,若不符合要求,則直接報錯。欄位名的詳細規則,請參見使用限制

2024年5月

類別

名稱

說明

相關文檔

新增

跨帳號複製叢集

支援將源數倉版叢集跨帳號複製至其他阿里雲帳號。

複製叢集

2024年4月

類別

名稱

說明

相關文檔

新增

查詢改寫功能

支援物化視圖查詢改寫功能。開啟該功能後,在執行查詢時,最佳化器會判斷查詢是否可以利用預先計算並儲存的物化視圖結果,並將原始查詢部分或全部改寫為對物化視圖的查詢。

物化視圖的查詢改寫

通過資料同步功能同步SLS資料

通過資料同步功能,您可以將SLS中指定時間點之後產生的資料即時同步至AnalyticDB for MySQL叢集,以滿足日誌資料即時分析的需求。

無感Data Integration(Zero-ETL)

支援無感整合(Zero-ETL)功能,可建立RDS for MySQLPolarDB for MySQL的同步鏈路,可以協助您一站式完成資料同步和管理,實現交易處理和資料分析一體化。

通過無感整合(Zero-ETL)同步資料

建立叢集選擇時區

建立叢集時可以根據業務需求設定叢集時區,設定後會按照所選時區處理時間相關的資料寫入操作。

建立叢集

自助升級版本

數倉版叢集支援通過控制台查看和升級叢集核心版本。

升級版本

儲存預留資源規格縱向變更配置

湖倉版叢集支援在擴縮容時,縱向變更配置儲存預留規格。

湖倉版擴縮容

通過DataWorks使用Spark Distribution SQL Engine

在DataWorks中,通過註冊CDH叢集,可將湖倉版叢集提供的Spark Distribution SQL Engine配置為執行引擎,從而支援在DataWorks平台直接開發和執行Spark SQL任務。

通過DataWorks使用Spark Distribution SQL Engine

建立或變更配置叢集時顯示進度條

在建立或變更配置數倉版叢集時,您可以通過控制台顯示的進度條,直觀地查看建立或變更配置的任務進度。

建立叢集

2024年3月

類別

名稱

說明

相關文檔

新增

競價執行個體

湖倉版叢集支援為Job型資源群組開啟競價執行個體功能。開啟後,運行在Job型資源群組上的Spark作業會嘗試使用競價執行個體資源。競價執行個體資源費用比ACU彈性資源的費用低,可以協助您節省Spark作業的成本。

競價執行個體

2024年2月

類別

名稱

說明

相關文檔

新增

智能助手

控制台新增智能助手。智能助手會根據您提出的問題,提供相應的答案,協助您快速解決所遇到的問題。

說明

智能助手僅支援中文問答。

Spark Distribution SQL Engine

湖倉版叢集Spark提供Spark開源原生能力Distribution SQL Engine的託管服務,支援通過Spark Distribution SQL Engine開發Spark SQL作業,從而更方便地利用SQL分析、處理和查詢資料,提升SQL執行效率。

通過Spark Distribution SQL Engine開發Spark SQL作業

訪問OSS-HDFS資料來源

湖倉版支援通過Spark訪問OSS-HDFS資料來源。

訪問OSS-HDFS資料來源

空間總覽

支援在空間總覽頁面快速查看叢集層級和表層級的資料量。

儲存空間分析

V3.1.10

類別

名稱

說明

相關文檔

新增

主外鍵約束

支援使用主外鍵約束減少不必要的JOIN操作,可以減少查詢時間,提高資料庫效能。

通過主外鍵約束消除多餘的JOIN

資源彈性計劃支援按月變更配置

數倉版資源彈性計劃支援按月設定變更配置的周期。

建立資源彈性計劃

Multi-Cluster彈性模型

湖倉版資源群組支援開啟Multi-Cluster功能。開啟該功能後,Multi-Cluster彈性模型可根據業務負載自動對資源進行擴縮容,滿足資源群組內部的資源隔離和高並發情境。

Multi-Cluster彈性模型

可變長二進位函數

新增AES_DECRYPT_MY、AES_ENCRYPT_MY函數。

可變長二進位函數

JSON函數

新增JSON_REMOVE函數。

JSON函數

PlanCache

PlanCache功能可以緩衝SQL的執行計畫,執行相同SQL Pattern語句時會使用緩衝的執行計畫,從而減少SQL的編譯最佳化時間,提升系統的查詢效能。

PlanCache

彈性匯入

湖倉版叢集支援彈性匯入資料。彈性匯入可以大幅減少儲存資源的消耗,或者不消耗儲存資源和計算資源,降低了匯入處理程序中對線上讀寫業務的影響,提升資源隔離性。

彈性匯入

支援DMS非同步調度ETL任務

支援使用DMS的任務編排功能非同步調度ETL任務。

修改工作負載管理規則

支援使用WLM命令修改已建立的工作負載管理規則。

WLM

最佳化

基礎統計資訊

最佳化基礎統計資訊的收集策略。

列組統計資訊

最佳化列組統計資訊的收集策略。

Internal Error報錯資訊

最佳化Internal Error報錯資訊,協助使用者快速分析定位問題。

非同步產生Split

對於資料量大的外表,可以在產生執行計畫的階段,非同步產生Split,減少產生執行計畫耗時。

資料來源掃描的並發控制能力

最佳化掃描OSS外表和MaxCompute外表資料來源的並發控制能力(即Split流控)。

調用RC HTTP介面時的參數檢查策略

最佳化控制台調用RC HTTP組件時對傳參的檢查策略,防止SQL注入。

最佳化儲存節點的記憶體佔用

最佳化儲存節點的記憶體佔用,降低GC頻率,提升系統穩定性。

缺陷修複

物化視圖

修複通過CREATE VIEW語句建立視圖時,使用array_agg函數報錯的問題。

通過LOAD DATA匯入本機資料

修複通過LOAD DATA將本機資料匯入數倉版時,CSV格式檔案不相容、資料錯亂分割的問題。

冷資料存放區

修複冷資料存放區的問題,提升查詢的命中率及查詢效能。