某段SQL中需要去解析一个字段中的json字符串,然而,里边的汉字也是编码后的,存的格式类似
u6e38u620f
SQL语句理论上如下
get_json_object(extends,'$.cate')='u6e38u620f'
但是呢,实际系统执行中涉及到层层编译过程,反斜杠到底该写几个才能select出正确的结果呢?
实验结论如下:
在
spark-hive>
情况下,输入两个反斜杠即可
某段SQL中需要去解析一个字段中的json字符串,然而,里边的汉字也是编码后的,存的格式类似
u6e38u620f
SQL语句理论上如下
get_json_object(extends,'$.cate')='u6e38u620f'
但是呢,实际系统执行中涉及到层层编译过程,反斜杠到底该写几个才能select出正确的结果呢?
实验结论如下:
在
spark-hive>
情况下,输入两个反斜杠即可
从数据库里取N个字段,然后组合到一起用“,”分割显示,起初想到用CONCAT()来处理,好是麻烦,没想到在手册里居然有提到CONCAT_WS(),非常好用。
CONCAT_WS(separator, str1, str2,...)
它是一个特殊形式的 CONCAT(),第一个参数剩余参数间的分隔符,分隔符可以是与剩余参数一样的字符串,如果分隔符是 NULL,返回值也将为 NULL,这个函数会跳过分隔符参数后的任何 NULL 和空字符串,分隔符将被加到被连接的字符串之间。
简单例子如下: