Python on MaxCompute之UDF操作命令行

简介: 语法: add py [comment 'cmt'][-f]; 说明:local_file.py:.py文件 注册函数 语法: CREATE FUNCTION AS USING ; 说明: function_name:UDF函数名,这个名字就是SQL中引用该函数所使用的名字。

添加函数

语法:

add py <local_file.py> [comment 'cmt'][-f];


说明:

local_file.py:.py文件

option:[-f] 强制更新

注册函数

语法:

CREATE FUNCTION <function_name> AS <package_to_class> USING <resource_list>;

说明:

  • function_name:UDF函数名,这个名字就是SQL中引用该函数所使用的名字。
  • package_to_class:python UDF,这个名字就是python脚本名.类名。这个名字必须用引号引起来。
  • resource_list:UDF所用到的资源列表,这个里面必须包括UDF代码所在的资源。如果用户代码中通过distributed cache接口读取资源文件,这个列表中还得包括udf所读取的资源文件列表。资源列表由多个资源名组成,资源名之间由逗号(”,”)分隔。资源列表必须用引号引起来。若需指定资源所在的 project,写法为:<project_name>/resources/<resource_name>
  • 使用示例:创建函数my_lower:

假设Python UDF MyLower在项目空间test_project的脚本pyudf_test.py中,创建函数my_lower:
create function my_lower as 'pyudf_test.MyLower'
    using 'test_project/resources/pyudf_test.py';


注解

  • 与资源文件一样,同名函数只能注册一次。
  • 一般情况下用户自建函数无法覆盖系统内建函数。只有项目空间的Owner才有权利覆盖内建函数。如果用户使用了覆盖内建函数的自定义函数,在SQL执行结束后,会在Summary中打印出warning信息。

注销函数

语法:

DROP FUNCTION <function_name>;


使用示例:

DROP FUNCTION my_lower;

查看函数清单

命令示例: 

list functions;                  --查看当前项目空间中的所有的自定义函数
ls functions -p my_project;      --查看指定项目空间my_project下的所有自定义函数


相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
14天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。
|
24天前
|
机器学习/深度学习 分布式计算 数据挖掘
阿里云 MaxCompute MaxFrame 开启免费邀测,统一 Python 开发生态
阿里云 MaxCompute MaxFrame 正式开启邀测,统一 Python 开发生态,打破大数据及 AI 开发使用边界。
302 1
|
28天前
|
机器学习/深度学习 人工智能 数据可视化
基于Python的数据可视化技术在大数据分析中的应用
传统的大数据分析往往注重数据处理和计算,然而数据可视化作为一种重要的技术手段,在大数据分析中扮演着至关重要的角色。本文将介绍如何利用Python语言中丰富的数据可视化工具,结合大数据分析,实现更直观、高效的数据展示与分析。
|
1月前
|
存储 程序员 Python
你的隐私堪忧!彻底清空磁盘,只需要1行Python代码
你的隐私堪忧!彻底清空磁盘,只需要1行Python代码
你的隐私堪忧!彻底清空磁盘,只需要1行Python代码
|
1月前
|
算法 大数据 数据挖掘
python数据分析——大数据伦理风险分析
大数据伦理风险分析在当前数字化快速发展的背景下显得尤为重要。随着大数据技术的广泛应用,企业、政府以及个人都在不断地产生、收集和分析海量数据。然而,这些数据的利用也带来了诸多伦理风险,如隐私泄露、数据滥用、算法偏见等。因此,对大数据伦理风险进行深入分析,并采取相应的防范措施,对于保障数据安全、维护社会公平正义具有重要意义。
51 0
|
1月前
|
存储 大数据 数据挖掘
python数据分析——大数据和云计算
大数据和云计算作为当代信息技术的两大核心驱动力,正在以前所未有的速度改变着我们的生活、工作和思维方式。它们不仅为各行各业的创新提供了强大的技术支持,更是推动了整个社会的数字化转型。 从大数据的角度来看,它的核心价值在于通过对海量数据的收集、存储、分析和挖掘,发现其中的关联性和趋势,从而为决策提供更为科学、精准的依据。无论是商业领域的市场预测、消费者行为分析,还是公共服务领域的城市规划、交通管理,大数据都发挥着不可或缺的作用。同时,随着物联网、传感器等技术的普及,大数据的来源和种类也在不断扩展,这使得我们能够更全面地认识世界,把握规律。
47 0
|
1月前
|
开发工具 Python
[oeasy]python0010_怎么用命令行保存文件
[oeasy]python0010_怎么用命令行保存文件
18 1
|
2月前
|
分布式计算 并行计算 大数据
Python多进程在数据处理和大数据分析中的应用
Python多进程在数据处理和大数据分析中的应用
|
2月前
|
Python
python删除仅由缺失值构成的行或列
python删除仅由缺失值构成的行或列
24 2
|
2月前
|
Python
python中删除含有缺失值的行
python中删除含有缺失值的行
59 2

相关产品

  • 云原生大数据计算服务 MaxCompute