package 爬虫;

import java.io.BufferedInputStream;
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.MalformedURLException;
import java.net.URL;
import java.net.URLConnection;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

public class 网络爬虫 {
    public static void main(String[] args) throws IOException {
        /*
        需求：
            把连接:https://m.sengzan.com/jiaoyu/29104.html?ivk sa=1025883i中所有的身份证号码都爬取出来。
         */
        //创建一个URL的对象
        URL url=new URL("https://m.sengzan.com/jiaoyu/29104.html?ivk sa=1025883i");
        //连接上这个网址
        //细节:保证网络畅通
        URLConnection conn= url.openConnection();
        //创建一个对象去读取网络中的数据
        BufferedReader br=new BufferedReader(new InputStreamReader(conn.getInputStream()));
        String line;
        //获取正则表达式的对象
         String regex="[1-9]\\d{17}";
        Pattern p=Pattern.compile(regex);
        //在读取的时候每次读取一行
        while ((line=br.readLine())!=null){
            //拿着文本匹配器的对象去和正则规则必读,读取当前信息
            Matcher m=p.matcher(line);
            String s = m.group();
            while(m.find()){
                System.out.println(m.group());
            }
        }
        br.close();
    }
}
