UDF是SQL中很常見(jiàn)的功能,但在Spark-1.6及之前的版本,只能創(chuàng)建臨時(shí)UDF,不支持創(chuàng)建持久化的UDF,除非修改Spark源碼。從Spark-2.0開始,SparkSQL終于支持持久化的UDF。本文基于當(dāng)前最新的Spark-2.0.2版本,講解SparkSQL中使用UDF和底層實(shí)現(xiàn)的原理。
轉(zhuǎn)載注明原文http://www.cnblogs.com/shenh062326/p/6189672.html
1. 臨時(shí)UDF
創(chuàng)建和使用方法:
create temporary function tmp_trans_array as ''com.test.spark.udf.TransArray' using jar 'spark-test-udf-1.0.0.jar'; select tmp_trans_array (1, '\\|' , id, position) as (id0, position0) from test_udf limit 10;
實(shí)現(xiàn)原理,在org.apache.spark.sql.execution.command.CreateFunctionCommand類的run方法中,會(huì)判斷創(chuàng)建的Function是否是臨時(shí)方法,若是,則會(huì)創(chuàng)建一個(gè)臨時(shí)Function。從下面的代碼我可以看到,臨時(shí)函數(shù)直接注冊(cè)到functionRegistry(實(shí)現(xiàn)類是SimpleFunctionRegistry),即內(nèi)存中。
網(wǎng)友評(píng)論