package com.sn.test;

import com.sn.utils.NS_Str;
import com.sn.utils.PoolingHttpClient;
import org.apache.commons.lang3.StringUtils;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class NS_demo {
    //南师大学
    //获取新闻概要,链接等
    public static void main(String[] args) {
        //使用工具类获取client连接池,获取client对象来请求网页
        PoolingHttpClient httpClient=new PoolingHttpClient();
        String uri = "http://www.njnu.edu.cn/index/nsxw.htm";
//        String baseUri="http://www.njupt.edu.cn";
        String content = httpClient.doGetHtml(uri);

        //直接使用jsoup解析content
        Document doc = Jsoup.parse(content);
        //首先获取南师大学新闻的分类
        String category = doc.getElementsByClass("page-name").text();
        System.out.println("分类------------"+category);
        //经过分析 得知南师大学的首页新闻是包裹在h3标签(class=single-line)里面的a标签
        //第一步先获取h3标签集合
        Elements h3list = doc.getElementsByClass("single-line");
        //第二步，解析h3里面的a标签
        for (Element element : h3list) {
            //第三步,由于从这里面直接获取到的href链接不能直接由client访问,所以需要对链接做解析
            // "http://news.njnu.edu.cn/../info/1107/96470.htm"-->"http://news.njnu.edu.cn/info/1107/96470.htm"
            Elements a = element.getElementsByTag("a");
            String href = a.attr("href");//得到链接
            String realHref = NS_Str.getStr(href);
            String[] split = href.split("/");
            for (String s : split) {

            }
            String text = a.text();//得到标题
            System.out.println("标题:"+text+"  链接"+realHref);
        }

    }
}
