package com.lmq.example.hive.udf;
/*
First, you need to create a new class that extends UDF, with one or more methods named evaluate.
 */
import org.apache.hadoop.hive.ql.exec.UDF;
import org.apache.hadoop.io.Text;

import java.util.Locale;
/*
How to use:
启动hive;
依次输入如下命令
// ADD JAR /home/iptv/lmqfile/hiveUdf/Hive_learning-1.0-SNAPSHOT.jar;
ADD JAR /AbsolutePath/fileName.jar;
// register your function

create temporary function my_lower as 'com.lmq.example.hive.udf.mylower';
然后你就可以使用my_lower()这个函数了。
参看 https://cwiki.apache.org/confluence/plugins/servlet/mobile?contentId=27362069#content/view/27362098
或者启动spark-sql
spark-sql --jars /path/filename.jar
然后在创建函数
或者启动完spark-sql之后再创建函数。
参考：https://www.linuxidc.com/Linux/2014-09/106617.htm
 */
public class mylower extends UDF {
    public Text evaluate(final Text s){
        if (s == null){return null;}
        return new Text(s.toString().toLowerCase());

    }


}
