const Crawler = require('crawler');

// 获取文件内容
export const getPageData = () =>{
  return new Promise((resolve,reject) => {
    fs.readFile(filePath,encoding,function (err,data) {
      if (err) {
        resolve(err); 
      } else {
        resolve(data);
      }
    })
  })
}


let my_Crawler = {
  c: null,
  init: function(){
    this.c = new Crawler({
      maxConnections : 10,  // 最大链接数 10
      retries: 5,  // 失败重连5次
      callback : function (error, res, done) { // 执行下面的回调，这个回调不会执行
        if(error){
          console.log(error);
        }else{
          var $ = res.$;
          console.log($("title").text());
        }
        done();
      }
    });
  },
  getPageData: function(){
    if (!this.c) {
      this.init();
    }
    return new Promise((resolve,reject) => {
      c.queue([{
        uri: 'https://www.tupianzj.com/meinv/xinggan/',
        jQuery: true,
        callback: function (error, res, done) {
          if(error){
            resolve(error);
          }else{
            var $ = res.$;   // 这就可以想使用jQuery一个解析DOM了
            resolve($);
          }
          done();
        }
      }]);
    })
  }
}

export default my_Crawler;