Snowpark Migration Accelerator: 代码提取

Snowpark Migration Accelerator (SMA) 会处理指定目录中的所有文件。虽然它会为每个文件创建清单,但它仅针对具有特定扩展名的文件分析其中的 Spark API 引用。

有几种方法可以将文件添加到此目录。

先将所有相关的代码文件放置到一个目录中,再执行迁移过程。

要从现有环境(例如 Databricks)中提取笔记本,可以使用提取脚本来帮助完成迁移过程。

提取脚本

Snowflake 在 Snowflake Labs GitHub 页面 (https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main) 公开提供多种提取脚本。对于 Spark 迁移,这些脚本支持各种平台。

Databricks

对于在 Databricks 中运行的 Jupyter (.ipynb) 或 Databricks (.dbc) 笔记本,可直接将其放入目录供 SMA 分析,无需额外提取。要了解如何导出 Databricks 笔记本文件,请访问以下 Databricks 文档:https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks (https://docs.databricks.com/en/notebooks/notebook-export-import.html#export-notebooks)。

对于其他方法,您可以按照说明使用 SC.DDLExportScripts 存储库的 Databricks 文件夹中可用的脚本:https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks (https://github.com/Snowflake-Labs/SC.DDLExportScripts/tree/main/Databricks)

其他数据提取相关信息将后续补充。

语言: 中文