本文介紹AnalyticDB for MySQL的產品功能動態。
注意事項
版本升級期間,有以下注意事項需要您知曉。
預留模式叢集版、彈性模式32核及以上規格:資料讀寫不中斷,距離升級完成5分鐘內查詢偶爾閃斷。
彈性模式8核及16核規格:資料寫入會中斷大約30分鐘,距離升級完成5分鐘內查詢偶爾閃斷。
叢集升級時間段內,資料庫的訪問、帳號管理、資料庫管理以及IP白名單設定預設不會受到影響。
叢集升級時間段內,寫入和查詢類操作可能會產生小機率抖動,請確保應用程式具有重試機制。
叢集升級時間段內,叢集可能會發生串連閃斷,請確保應用程式具有重連機制。
如果您的叢集不需要升級,或者升級過程有問題,可以取消版本升級計劃。當前僅小版本升級計劃事件可以取消。具體操作,請參見取消計劃配置。
當您的AnalyticDB for MySQL執行個體所使用的核心小版本低於最新核心小版本時,阿里雲會不定期推送升級通知給您,告知您執行個體需要升級至最新的穩定核心小版本。建議您在收到通知後儘快升級執行個體的核心小版本。如果收到通知後六個月內未升級到最新穩定版本,因此造成的業務中斷、資料丟失等損失和後果均由您承擔。
2024年12月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 跨帳號複製叢集 | 企業版、基礎版及湖倉版叢集支援將源叢集跨帳號複製至其他阿里雲帳號。 | |
雲端硬碟加密 | 支援在控制台查看叢集是否開啟雲端硬碟加密功能,以及加密時使用的密鑰ID。 | ||
地區開服 | 支援在泰國(曼穀)和菲律賓(馬尼拉)地區購買企業版、基礎版及湖倉版叢集。 |
2024年11月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 湖儲存加速 | 開通湖儲存加速(LakeCache)功能後,在讀取OSS資料時,能夠將OSS中的熱點檔案快取在NVMe SSD高效能儲存介質上,提高OSS資料的讀取效率。 |
2024年10月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 備份恢複 | 支援通過控制台刪除資料備份集或關閉備份功能。 | |
無感Data Integration(Zero-ETL) | 無感整合(Zero-ETL)支援Lindorm資料來源。您可以建立Lindorm同步鏈路,一站式完成Lindorm資料同步和管理,實現交易處理和資料分析一體化。 |
2024年9月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 跨地區複製叢集 | 支援將源叢集跨地區複製至其它地區。 |
V3.2.2
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 大量建立MaxCompute外表 | 支援大量建立MaxCompute外表。 | |
增量重新整理物化視圖新增彙總函式 | 增量重新整理的物化視圖,QUERY BODY可以包含 | ||
調用Arrow API問MaxCompute外表 | 支援使用Arrow API方式讀寫MaxCompute外表。與傳統的Tunnel方式相比,Arrow API方式可以提高資料訪問和處理的效率。 | ||
INSERT INTO | 使用INSERT INTO語句插入資料時,支援嵌套TIMESTAMP函數。 | ||
新一代儲存引擎 | AnalyticDB for MySQL研發了新一代儲存引擎 | ||
最佳化 | FROM_UNIXTIME函數 | FROM_UNIXTIME函數支援將INT類型的秒級時間戳記按照DATE_FORMAT格式化。 | |
缺陷修複 | 變更資料類型 | 修複整數資料型別(TINYINT、SMALLINT、INT、BIGINT)變更為DECIMAL類型時報錯的問題。 | 無 |
2024年8月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | Interactive型資源群組支援選擇Spark引擎 | 湖倉版在建立Interactive型資源群組時支援選擇Spark引擎。選擇Spark引擎後,Interactive型資源群組只支援執行Spark作業,且Spark作業會以互動式方式進行處理。 | |
無感Data Integration(Zero-ETL)限制同步鏈路數量 | 無感整合功能限制RDS for MySQL和PolarDB for MySQL到AnalyticDB for MySQL的Zero-ETL同步鏈路的數量。 |
2024年7月
V3.2.1
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 增量重新整理多表物化視圖 | 支援將多張關聯表的增量資料定向更新至對應的物化視圖中,提升資料查詢效能與資料分析效率。 | |
自訂函數UDF(REMOTE_CALL函數) | 支援使用REMOTE_CALL函數遠程調用Function Compute (FC)中自訂的函數,滿足您在AnalyticDB for MySQL中使用UDF(使用者自訂函數)的需求。 | ||
強制移除資料庫 | 支援在DROP DATABASE語句後增加CASCADE關鍵字,強制移除該資料庫(包含資料庫下的所有表)。 | ||
寬表引擎 | 湖倉版叢集提供寬表引擎,相容了開源列式資料庫ClickHouse的能力和文法,能夠處理大量的列式資料,適用於欄位較多的表彙總查詢分析情境。 | ||
路徑分析函數 | 支援通過SEQUENCE_MATCH和SEQUENCE_COUNT函數分析使用者行為路徑,檢查使用者的行為是否和輸入Pattern匹配。 | ||
設定SSL加密 | SSL加密功能可以對數倉版叢集和用戶端之間傳輸的資料進行加密,防止資料被第三方監聽、截取和篡改。 | ||
MaxCompute外表欄位支援複雜資料類型 | 湖倉版MaxCompute外表支援複雜資料類型,包括Array、Map和Struct。 | ||
內表支援ROARING BITMAP資料類型 | 支援ROARING BITMAP資料類型。 | ||
Flink訂閱AnalyticDB for MySQL Binlog | 支援通過Flink即時消費AnalyticDB for MySQL的Binlog資料。 | ||
DTS訂閱AnalyticDB for MySQL Binlog | 支援通過DTS即時消費AnalyticDB for MySQL的Binlog資料。 | ||
最佳化 | LIFECYCLE關鍵字從必選改為可選 | 若在建表時未設定LIFECYCLE關鍵字,則表示分區資料持續保留,不會被清理。 | |
表級分區生命週期管理(LIFECYCLE) | 3.2.1.1及以上核心版本,將分區的生命週期由分區級管理改為了表級管理,即建立表LIFECYCLE n表示每個表保留n個分區,不再是原來的每個分區保留n個分區。 | ||
通過外表匯入OSS資料至AnalyticDB for MySQL | 通過外表匯入OSS資料至AnalyticDB for MySQL時,Location參數中檔案名稱支援填寫檔案名稱首碼或檔案名稱萬用字元。 | ||
建立表時自動檢查欄位名是否符合要求 | 使用CREATE TABLE語句建立表時,AnalyticDB for MySQL會自動檢查欄位名是否符合要求,若不符合要求,則直接報錯。欄位名的詳細規則,請參見使用限制。 | 無 |
2024年5月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 跨帳號複製叢集 | 支援將源數倉版叢集跨帳號複製至其他阿里雲帳號。 |
2024年4月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 查詢改寫功能 | 支援物化視圖查詢改寫功能。開啟該功能後,在執行查詢時,最佳化器會判斷查詢是否可以利用預先計算並儲存的物化視圖結果,並將原始查詢部分或全部改寫為對物化視圖的查詢。 | |
通過資料同步功能同步SLS資料 | 通過資料同步功能,您可以將SLS中指定時間點之後產生的資料即時同步至AnalyticDB for MySQL叢集,以滿足日誌資料即時分析的需求。 | ||
無感Data Integration(Zero-ETL) | 支援無感整合(Zero-ETL)功能,可建立RDS for MySQL和PolarDB for MySQL的同步鏈路,可以協助您一站式完成資料同步和管理,實現交易處理和資料分析一體化。 | ||
建立叢集選擇時區 | 建立叢集時可以根據業務需求設定叢集時區,設定後會按照所選時區處理時間相關的資料寫入操作。 | ||
自助升級版本 | 數倉版叢集支援通過控制台查看和升級叢集核心版本。 | ||
儲存預留資源規格縱向變更配置 | 湖倉版叢集支援在擴縮容時,縱向變更配置儲存預留規格。 | ||
通過DataWorks使用Spark Distribution SQL Engine | 在DataWorks中,通過註冊CDH叢集,可將湖倉版叢集提供的Spark Distribution SQL Engine配置為執行引擎,從而支援在DataWorks平台直接開發和執行Spark SQL任務。 | ||
建立或變更配置叢集時顯示進度條 | 在建立或變更配置數倉版叢集時,您可以通過控制台顯示的進度條,直觀地查看建立或變更配置的任務進度。 |
2024年3月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 競價執行個體 | 湖倉版叢集支援為Job型資源群組開啟競價執行個體功能。開啟後,運行在Job型資源群組上的Spark作業會嘗試使用競價執行個體資源。競價執行個體資源費用比ACU彈性資源的費用低,可以協助您節省Spark作業的成本。 |
2024年2月
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 智能助手 | 控制台新增智能助手。智能助手會根據您提出的問題,提供相應的答案,協助您快速解決所遇到的問題。 說明 智能助手僅支援中文問答。 | 無 |
Spark Distribution SQL Engine | 湖倉版叢集Spark提供Spark開源原生能力Distribution SQL Engine的託管服務,支援通過Spark Distribution SQL Engine開發Spark SQL作業,從而更方便地利用SQL分析、處理和查詢資料,提升SQL執行效率。 | ||
訪問OSS-HDFS資料來源 | 湖倉版支援通過Spark訪問OSS-HDFS資料來源。 | ||
空間總覽 | 支援在空間總覽頁面快速查看叢集層級和表層級的資料量。 |
V3.1.10
類別 | 名稱 | 說明 | 相關文檔 |
新增 | 主外鍵約束 | 支援使用主外鍵約束減少不必要的JOIN操作,可以減少查詢時間,提高資料庫效能。 | |
資源彈性計劃支援按月變更配置 | 數倉版資源彈性計劃支援按月設定變更配置的周期。 | ||
Multi-Cluster彈性模型 | 湖倉版資源群組支援開啟Multi-Cluster功能。開啟該功能後,Multi-Cluster彈性模型可根據業務負載自動對資源進行擴縮容,滿足資源群組內部的資源隔離和高並發情境。 | ||
可變長二進位函數 | 新增AES_DECRYPT_MY、AES_ENCRYPT_MY函數。 | ||
JSON函數 | 新增JSON_REMOVE函數。 | ||
PlanCache | PlanCache功能可以緩衝SQL的執行計畫,執行相同SQL Pattern語句時會使用緩衝的執行計畫,從而減少SQL的編譯最佳化時間,提升系統的查詢效能。 | ||
彈性匯入 | 湖倉版叢集支援彈性匯入資料。彈性匯入可以大幅減少儲存資源的消耗,或者不消耗儲存資源和計算資源,降低了匯入處理程序中對線上讀寫業務的影響,提升資源隔離性。 | ||
支援DMS非同步調度ETL任務 | 支援使用DMS的任務編排功能非同步調度ETL任務。 | 無 | |
修改工作負載管理規則 | 支援使用WLM命令修改已建立的工作負載管理規則。 | ||
最佳化 | 基礎統計資訊 | 最佳化基礎統計資訊的收集策略。 | 無 |
列組統計資訊 | 最佳化列組統計資訊的收集策略。 | 無 | |
Internal Error報錯資訊 | 最佳化Internal Error報錯資訊,協助使用者快速分析定位問題。 | 無 | |
非同步產生Split | 對於資料量大的外表,可以在產生執行計畫的階段,非同步產生Split,減少產生執行計畫耗時。 | 無 | |
資料來源掃描的並發控制能力 | 最佳化掃描OSS外表和MaxCompute外表資料來源的並發控制能力(即Split流控)。 | 無 | |
調用RC HTTP介面時的參數檢查策略 | 最佳化控制台調用RC HTTP組件時對傳參的檢查策略,防止SQL注入。 | 無 | |
最佳化儲存節點的記憶體佔用 | 最佳化儲存節點的記憶體佔用,降低GC頻率,提升系統穩定性。 | 無 | |
缺陷修複 | 物化視圖 | 修複通過CREATE VIEW語句建立視圖時,使用array_agg函數報錯的問題。 | 無 |
通過LOAD DATA匯入本機資料 | 修複通過LOAD DATA將本機資料匯入數倉版時,CSV格式檔案不相容、資料錯亂分割的問題。 | 無 | |
冷資料存放區 | 修複冷資料存放區的問題,提升查詢的命中率及查詢效能。 | 無 |