package org.crosswalkproject.iflytek.voicedemo;

import java.util.HashMap;
import java.util.LinkedHashMap;
import java.util.Timer;

import org.json.JSONException;
import org.json.JSONObject;

import android.annotation.SuppressLint;
import android.app.Activity;
import android.content.BroadcastReceiver;
import android.content.Context;
import android.content.Intent;
import android.content.IntentFilter;
import android.content.SharedPreferences;
import android.os.Bundle;
import android.os.Environment;
import android.text.TextUtils;
import android.util.Log;
import android.view.View;
import android.view.View.OnClickListener;
import android.view.Window;
import android.widget.EditText;
import android.widget.RadioGroup;
import android.widget.RadioGroup.OnCheckedChangeListener;
import android.widget.Toast;

import com.iflytek.cloud.ErrorCode;
import com.iflytek.cloud.InitListener;
import com.iflytek.cloud.LexiconListener;
import com.iflytek.cloud.RecognizerListener;
import com.iflytek.cloud.RecognizerResult;
import com.iflytek.cloud.SpeechConstant;
import com.iflytek.cloud.SpeechError;
import com.iflytek.cloud.SpeechRecognizer;
import com.iflytek.cloud.SpeechUtility;
import com.iflytek.cloud.ui.RecognizerDialog;
import com.iflytek.cloud.ui.RecognizerDialogListener;
import com.iflytek.cloud.util.ContactManager;
import com.iflytek.cloud.util.ContactManager.ContactListener;


import org.crosswalkproject.iflytek.speech.util.ApkInstaller;
import org.crosswalkproject.iflytek.speech.util.FucUtil;
import org.crosswalkproject.iflytek.speech.util.JsonParser;
import org.crosswalkproject.xwalkembed.MainActivity;
import org.crosswalkproject.xwalkembed.ScreenReceiver;


import com.iflytek.sunflower.FlowerCollector;
import org.crosswalkproject.iflytek.voicedemo.IatDemo;




public class IatDemo extends Activity
{

	private SpeechRecognizer mIat;
	private HashMap<String, String> mIatResults = new LinkedHashMap<String, String>();
	private Context pcontext;
	private Toast mToast;
    public int started=0;
 //   
    
	public IatDemo(Context context)
	{
		//SpeechUtility.createUtility(context, "appid=57540872");
		// Use this check to determine whether BLE is supported on the device.
		// Then you can
		// selectively disable BLE-related features.
		pcontext=context;
		mIat = SpeechRecognizer.createRecognizer(pcontext, mInitListener);
		mIatResults.clear();
		mToast = Toast.makeText(pcontext, "", Toast.LENGTH_SHORT);
		
	}
	
	public void Iat_start()
	{
		started=1;
		// 移动数据分析，收集开始听写事件
		FlowerCollector.onEvent(pcontext, "iat_recognize");		
		 
		mIatResults.clear();
		// 设置参数
		setParam();
		
		// 不显示听写对话框
		int ret = mIat.startListening(mRecognizerListener);
		if (ret != ErrorCode.SUCCESS) {
			showTip("听写失败,错误码：" + ret);
			started=0;
		} else {
			showTip("start");
			mToast.setText("start");
			mToast.show();
		}
		
	}
	/**
	 * 初始化监听器。
	 */
	private InitListener mInitListener = new InitListener() {

		@Override
		public void onInit(int code) {
			Log.d(getClass().getName(), "SpeechRecognizer init() code = " + code);
			if (code != ErrorCode.SUCCESS) {
				showTip("初始化失败，错误码：" + code);
			}
		}
	};

	/**
	 * 上传联系人/词表监听器。
	 */
	private LexiconListener mLexiconListener = new LexiconListener() {

		@Override
		public void onLexiconUpdated(String lexiconId, SpeechError error) {
			if (error != null) {
				showTip(error.toString());
			} else {
			//	showTip(getString(R.string.text_upload_success));
			}
		}
	};

	/**
	 * 听写监听器。
	 */
	private RecognizerListener mRecognizerListener = new RecognizerListener() {

		@Override
		public void onBeginOfSpeech() {
			// 此回调表示：sdk内部录音机已经准备好了，用户可以开始语音输入
			showTip("开始说话");
		}

		@Override
		public void onError(SpeechError error) {
			// Tips：
			// 错误码：10118(您没有说话)，可能是录音机权限被禁，需要提示用户打开应用的录音权限。
			// 如果使用本地功能（语记）需要提示用户开启语记的录音权限。
			started=0;
			//showTip(error.getPlainDescription(true));
			
		}

		@Override
		public void onEndOfSpeech() {
			// 此回调表示：检测到了语音的尾端点，已经进入识别过程，不再接受语音输入
			started=0;
			//showTip("结束说话");
		//	started=0;
		}

		@Override
		public void onResult(RecognizerResult results, boolean isLast) {
			Log.d(getClass().getName(), results.getResultString());
			if(!isLast)
				 printResult(results);
			else
				started=0;	
			if (isLast) {
				// TODO 最后的结果
			}
		}

		@Override
		public void onVolumeChanged(int volume, byte[] data) {
			showTip("volume：" + volume);
			Log.d(getClass().getName(), "返回音频数据："+data.length);
		}

		@Override
		public void onEvent(int eventType, int arg1, int arg2, Bundle obj) {
			// 以下代码用于获取与云端的会话id，当业务出错时将会话id提供给技术支持人员，可用于查询会话日志，定位出错原因
			// 若使用本地能力，会话id为null
			//	if (SpeechEvent.EVENT_SESSION_ID == eventType) {
			//		String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);
			//		Log.d(TAG, "session id =" + sid);
			//	}
		}
	};

	private void printResult(RecognizerResult results) {
		String text = JsonParser.parseIatResult(results.getResultString());

		String sn = null;
		// 读取json结果中的sn字段
		try {
			JSONObject resultJson = new JSONObject(results.getResultString());
			sn = resultJson.optString("sn");
		} catch (JSONException e) {
			e.printStackTrace();
		}

		mIatResults.put(sn, text);

		StringBuffer resultBuffer = new StringBuffer();
		for (String key : mIatResults.keySet()) {
			resultBuffer.append(mIatResults.get(key));
		}
		String result_str=resultBuffer.toString();
		showTip(result_str);
		MainActivity ta=(MainActivity)pcontext;
		ta.mXWalkView.evaluateJavascript("javascript:JavacallJS('voice_result:"+result_str+"')",null);
		//mResultText.setText(resultBuffer.toString());
		//mResultText.setSelection(mResultText.length());
	}

	/**
	 * 听写UI监听器
	 */
	private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() {
		public void onResult(RecognizerResult results, boolean isLast) {
			if(isLast)
				printResult(results);
			Log.e(getClass().getName(), "voice_luojin："+isLast);
			
		}

		/**
		 * 识别回调错误.
		 */
		public void onError(SpeechError error) {
			started=0;
			MainActivity ta=(MainActivity)pcontext;
			ta.mXWalkView.evaluateJavascript("javascript:JavacallJS('voice_error:')",null);
			
			//showTip(error.getPlainDescription(true));
		}

	};

	

	private void showTip(final String str) {
		//mToast.setText(str);
		//mToast.show();
		//Toast.makeText(pcontext, str, Toast.LENGTH_SHORT).show();
		
	}

	/**
	 * 参数设置
	 * 
	 * @param param
	 * @return
	 */
	public void setParam() {
		// 清空参数
		mIat.setParameter(SpeechConstant.PARAMS, null);

		// 设置听写引擎
		mIat.setParameter(SpeechConstant.ENGINE_TYPE, "cloud");//"local"
		// 设置返回结果格式
		mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");

		String lag = "mandarin";
		if (lag.equals("en_us")) {
			// 设置语言
			mIat.setParameter(SpeechConstant.LANGUAGE, "en_us");
		} else {
			// 设置语言
			mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
			// 设置语言区域
			mIat.setParameter(SpeechConstant.ACCENT, lag);
		}

		// 设置语音前端点:静音超时时间，即用户多长时间不说话则当做超时处理
		mIat.setParameter(SpeechConstant.VAD_BOS, "4000");
		
		// 设置语音后端点:后端点静音检测时间，即用户停止说话多长时间内即认为不再输入， 自动停止录音
		mIat.setParameter(SpeechConstant.VAD_EOS,  "1000");
		
		// 设置标点符号,设置为"0"返回结果无标点,设置为"1"返回结果有标点
		mIat.setParameter(SpeechConstant.ASR_PTT,  "1");
		
		// 设置音频保存路径，保存音频格式支持pcm、wav，设置路径为sd卡请注意WRITE_EXTERNAL_STORAGE权限
		// 注：AUDIO_FORMAT参数语记需要更新版本才能生效
		mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav");
		mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav");
	}

	public void onDestroy() {
		//super.onDestroy();
		// 退出时释放连接
		mIat.cancel();
		mIat.destroy();
	}

	public void onResume() {
		// 开放统计 移动数据统计分析
		FlowerCollector.onResume(IatDemo.this);
		FlowerCollector.onPageStart(getClass().getName());
		//super.onResume();
	}

	public void onPause() {
		// 开放统计 移动数据统计分析
		FlowerCollector.onPageEnd(getClass().getName());
		FlowerCollector.onPause(IatDemo.this);
		//super.onPause();
	}

}
