package com.jiuzhou.crawlers.taobao.util;

import java.io.BufferedReader;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.net.InetSocketAddress;
import java.net.Proxy;
import java.net.URL;
import java.net.URLConnection;
import java.util.ArrayList;
import java.util.List;

import org.apache.commons.io.IOUtils;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

	/**
	 * 项目名称：大数据爬虫
	 * @author yanganzhen
	 * version-code：1.0
     * 类说明：动态代理获取
     * 创建时间：2016年12月8日
	 */
public class ProxyManagerUtil {

public static List<String[]>  getProxyList() {
	List<String[]> proxyList = new ArrayList<>();
	
	 FileInputStream fis = null;
	  InputStreamReader isr = null;
	  BufferedReader br = null; //用于包装InputStreamReader,提高处理性能。因为BufferedReader有缓冲的，而InputStreamReader没有。
	  try {
	   String str = "";
	   String str1 = "";
	   fis = new FileInputStream("E://workspace//webmagic//src//main//java//dynamic.proxy");// FileInputStream
	   // 从文件系统中的某个文件中获取字节
	    isr = new InputStreamReader(fis);// InputStreamReader 是字节流通向字符流的桥梁,
	    br = new BufferedReader(isr);// 从字符输入流中读取文件中的内容,封装了一个new InputStreamReader的对象
	   while ((str = br.readLine()) != null) {
		   String[] proxy = str.split(":");
		   proxyList.add(proxy);
	    str1 += str + "\n";
	   }
	   // 当读取的一行不为空时,把读到的str的值赋给str1
	  

	  } catch (FileNotFoundException e) {
	   System.out.println("找不到指定文件");
	  } catch (IOException e) {
	   System.out.println("读取文件失败");
	  } finally {
	   try {
	     br.close();
	     isr.close();
	     fis.close();
	    // 关闭的时候最好按照先后顺序关闭最后开的先关闭所以先关s,再关n,最后关m
	   } catch (IOException e) {
	    e.printStackTrace();
	   }
	  }
	return proxyList;
}


}
