#!/bin/bash

# 获取当前脚本的位置
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"

# 切换到脚本的位置
cd $shell_home

source /etc/profile

# 获取时间参数
ds=$1

# 在clickhouse中建表
clickhouse-client -h localhost \
--port 9001 \
--password 123456 \
--database=ads \
--query="CREATE TABLE IF NOT EXISTS ads.ads_stations_send_passengers_day_top \
(day Date32, \
short_stations String, \
count String \
) ENGINE = MergeTree() \
ORDER BY day";

# 将hive中的数据导入到ck中
hadoop fs -cat /daas/shujia/szt/ads/ads_stations_send_passengers_day_top/ds=${ds}/* | clickhouse-client -h localhost --port 9001 --password 123456 --database=ads --query="INSERT INTO ads_stations_send_passengers_day_top FORMAT CSV";