实验项目三:java api访问hdfs
Skyen Lv4

实验内容与步骤

1. 从linux拷贝整个hadoop压缩jar包

使用ForkLift将hadoop文件全部拷出来。
在这里插入图片描述
将需要用到的jar包放在一起。(需要的是share/hadoop/common下的三个包,share/hadoop/common/lib文件下全部的包,以及share/hadoop/hdfs下的三个包,以及share/hadoop/hdfs/lib中的包)
在这里插入图片描述

2. 从linux拷出配置文件可以访问hdfs

core-site.xmlhdfs-site.xml``log4j.properties文件拷出来:
在这里插入图片描述
core-site.xml文件需要更改一下:
将黄线的部分改成自己的IP,然后再加上后面的配置就可以。
在这里插入图片描述

3. 使用java开发工具编写java代码

简单的配置idea:
将第二步导出的文件放到src内,第一步导出的hadoop文件夹直接add as library
在这里插入图片描述
简单测试一下:
在这里插入图片描述
可以看到,在hadoop上成功创建了文件夹。
在这里插入图片描述

4. 使用Configuration 类,Path,FileSystem对象完成上传代码

在这里插入图片描述

5. 上传文件测试50070测试

成功上传文件。
在这里插入图片描述

6. 使用Configuration 类,Path,FileSystem对象完成下载代码

在这里插入图片描述

7. 查看下载文件是否存在

可以看到文件也成功下载了。
在这里插入图片描述
以下为本次的实验代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
package com.itshixun.hdfs;

import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
class DownLoad {

public static void main(String[] args) {
uploadFile();
downloadFile();
}
public static void uploadFile() {
Configuration conf = new Configuration();
try {
FileSystem fs = FileSystem.get(conf);
//定义文件的路径和上传的路径
Path src = new Path("/Users/sunyumeng/readme.txt");
Path dest = new Path("/ss/README.txt");
//从本地上传文件到服务器
fs.copyFromLocalFile(src, dest);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
public static void downloadFile() {
Configuration conf = new Configuration();
try {
FileSystem fs = FileSystem.get(conf);
//定义下载文件的路径和本地下载路径
Path src = new Path("/ss/README.txt");
Path dest = new Path("/Users/sunyumeng/READMEtest.txt");
//从服务器下载文件到本地
fs.copyToLocalFile(src, dest);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}



}