//package hadoop_1;
//
//import java.io.InputStream;
//import java.net.URI;
//import org.apache.hadoop.conf.Configuration;
//import org.apache.hadoop.fs.FSDataOutputStream;
//import org.apache.hadoop.fs.FileSystem;
//import org.apache.hadoop.fs.Path;
//import org.apache.hadoop.io.IOUtils;
//
//public class Test1 {
//	public static void main(String[] args) throws Exception {
//		//createFile();
//		readFile();
//	}
//
//	public static void readFile()throws  Exception {
//		Configuration  conf=new Configuration();
//		//1.配置类(hadoop配置文件作用，把配置文件的信息读出来赋值给conf对象)
//
//		String uri="hdfs://master:9000/hdfs/hello.txt";
//		FileSystem fs=FileSystem.get(URI.create(uri),conf);
//		//2.文件系统(HDFS分布式文件系统，给HDFS保存，HDFS删除文件，HDFS移动文件，HDFS下载文件)
//
//		InputStream in=fs.open(new Path(uri));
//		//3. 数据输出流对象(作用：将电脑内存中的"hello yanzhi"输出写出到HDFS文件系统的hello.txt)
//
//		IOUtils.copyBytes(in, System.out, 4096,false);
//		IOUtils.closeStream(in);
//	}
//
//
//
//	public static void createFile()throws  Exception {
//		Configuration  conf=new Configuration();
//		//1.配置类(hadoop配置文件作用，把配置文件的信息读出来赋值给conf对象)
//		conf.set("fs.defaultFS","hdfs://master:9000");
//		conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
//
//		String dst="hdfs://master:9000/hdfs/hello.txt";
//		FileSystem fs=FileSystem.get(URI.create(dst),conf);
//		//2.文件系统(HDFS分布式文件系统，给HDFS保存，HDFS删除文件，HDFS移动文件，HDFS下载文件)
//
//		FSDataOutputStream out=fs.create(new Path(dst));
//		//3. 数据输出流对象(作用：将电脑内存中的"hello yanzhi"输出写出到HDFS文件系统的hello.txt)
//
//		byte[]  buff="理论联系实际，不断开拓创新".getBytes();
//		out.write(buff,0,buff.length);//4.将buff数组中的第0位到最后一位的字节数组写出到dst位置
//		System.out.println("写出成功");
//		out.close();
//	}
//
//
//}
//
//
//
//
//
//
