SQL の特定の部分では、フィールド内の json 文字列を解析する必要がありますが、その中の中国語文字もエンコードされ、同様の形式で保存されます。
u6e38u620f
SQL ステートメントは理論的には次のとおりです
get_json_object(extends,'$.cate')='u6e38u620f'
ただし、実際のシステムの実行には、正しい結果を選択するために何層のコンパイル プロセスが含まれるでしょうか。
実験の結論は次のとおりです。
存在する
spark-hive>
この場合、バックスラッシュを 2 つ入力するだけです
spark-hive> ……get_json_object(extends,'$.cate')='\u6e38\u620f'……
使用する場合
spark-hive -e "" > out.txt
実行するには、4 つのバックスラッシュを入力する必要があります
spark-hive -e "……get_json_object(extends,'$.cate')='\\u6e38\\u620f'……" > out.txt