package main

import (
	"cd-crawler/scheduler"
	"fmt"
	"time"
)

func main() {

	bT := time.Now() // 开始时间

	////获取需爬取的url
	//crawlConf := config.GetCrawlerConf()
	//url := crawlConf.Crawl_url
	//funcName := crawlConf.Crawl_func
	//
	//request := types.UrlRequest{
	//	Url:      url,
	//	ParseFuc: funcName,
	//}

	// 调度器开始工作
	scheduler.Run()

	////放进url管理器中
	//urlManager := url_manager.UrlQueue{}
	//urlManager.RunUrlQueue()
	//urlManager.UrlPush(request)

	////调度器开始工作
	//scheduler.Work(urlManager)

	//time.Sleep(time.Second * 10)

	eT := time.Since(bT) // 从开始到当前所消耗的时间
	fmt.Println("Run time: ", eT)
}
