SQL の特定の部分では、フィールド内の json 文字列を解析する必要がありますが、その中の中国語文字もエンコードされ、同様の形式で保存されます。

u6e38u620f

SQL ステートメントは理論的には次のとおりです

get_json_object(extends,'$.cate')='u6e38u620f'

ただし、実際のシステムの実行には、正しい結果を選択するために何層のコンパイル プロセスが含まれるでしょうか。

実験の結論は次のとおりです。

存在する

spark-hive>

この場合、バックスラッシュを 2 つ入力するだけです

spark-hive> ……get_json_object(extends,'$.cate')='\u6e38\u620f'……

使用する場合

spark-hive -e "" > out.txt

実行するには、4 つのバックスラッシュを入力する必要があります

spark-hive -e "……get_json_object(extends,'$.cate')='\\u6e38\\u620f'……" > out.txt


返信を残す