全部產品
Search
文件中心

AnalyticDB:Spark SQL執行方式

更新時間:May 10, 2025

AnalyticDB for MySQL支援使用批處理和互動式兩種方法執行Spark SQL,兩種執行方式都直接與AnalyticDB for MySQL的中繼資料服務連通,可以讀寫AnalyticDB for MySQL的庫表。本文介紹批處理和互動式兩種執行方式的注意事項、適用情境、特點及啟動方法。

批處理

注意事項

  • 使用批處理方式執行SQL時,必須在SQL執行開始處使用USE <database_name>;文法選擇一個資料庫。

  • SQL語句中指定表時,必須為database_name.table_name格式。

  • 批處理方式執行DML、DDL或DQL等任何SQL語句時,只有返回執行成功或者失敗,不返回資料。執行成功的結果會抽樣一部分列印到日誌中。如需查看SQL語句返回的資料,詳情請參見查看Spark應用資訊

適用情境

  • 執行多條相互依賴的SQL語句。

  • SQL語句需要嚴格的資源隔離。

  • 需要處理較大規模的資料,例如使用SQL執行一次性的ETL。

  • 有複雜的第三方依賴包需要上傳,且這些包可能需要反覆測試和替換。

特點

  • 批處理方式提交的SQL運行在單獨的Spark應用中,可以保證穩定性。

  • 支援通過SQL語句描述獨立的配置,如SET spark.sql.adaptive.coalescePartitions.minPartitionSize = 2MB;

  • 批處理方式執行的SQL中如果包含SELECT語句,這些SELECT語句的執行結果會抽樣一部分列印到日誌中,您可以在日誌中查看。

啟動方法

SQLConsole視窗,選擇Job型資源群組和Spark引擎。輸入SQL語句後,單擊立即執行

互動式執行

注意事項

  • 互動式執行的DDL和DML語句的執行結果僅返回最多1000行資料。

  • 使用互動執行方式執行的DDL語句,只返回執行成功或者失敗,不返回資料。例如執行CREATE TABLE語句,只提示成功或失敗,不返回表中的資料,和開源社區保持一致。

  • Spark Interactive型資源群組啟動需要一定時間,如果出現啟動時失敗可以等待一定時間重試。

適用情境

  • 臨時進行資料計算,無需返回所有資料。

  • 需要執行大量的DDL語句。

  • 希望在提交DQL語句後,可以立即開始執行, 且對資源隔離不敏感,能允許一定的失敗。

特點

啟動方式

SQLConsole視窗,選擇Spark Interactive型資源群組和Spark引擎。輸入SQL語句後,單擊立即執行