博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
HTTPFS: 基于HTTP操作hadoop hdfs文件系统
阅读量:7014 次
发布时间:2019-06-28

本文共 1247 字,大约阅读时间需要 4 分钟。

一、HTTPFS简介

    1:httpfs是cloudera公司提供的一个hadoop hdfs的一个http接口,通过WebHDFS REST API 可以对hdfs进行读写等访问

 
    2:与WebHDFS的区别是不需要客户端可以访问hadoop集群的每一个节点,通过httpfs可以访问放置在防火墙后面的hadoop集群
 
    3:httpfs是一个Web应用,部署在内嵌的tomcat中
 
    用这种方式在数据共享给其他系统时,网络安全上更容易实现,使用请参考:
 

二、启动服务(针对使用cloudera manager安装了CDH4或CDH5) 

    在cm控制台,打开hdfs实例页面,添加httpfs服务,然后启动即可。

三、安装可参考(手工安装)

       

  

四、curl操作命令示例(需要将host替换为实际部署httpfs的服务器IP)

    curl -c ~/.httpsauth "http://host:14000/webhdfs/v1?op=gethomedirectory&user.name=hdfs"

    curl -b ~/.httpsauth "http://host:14000/webhdfs/v1?op=gethomedirectory"
    curl -b ~/.httpsauth "http://host:14000/webhdfs/v1/test/data1.txt?op=OPEN"
    curl -b ~/.httpsauth -X DELETE "http://host:14000/webhdfs/v1/test/data1.txt?op=DELETE"
    创建和追加都是分为两步,测试都没有成功(注意,一定要追加--header参数,否则创建会失败)
    curl -b ~/.httpsauth -i -X PUT "http://172.168.63.221:14000/webhdfs/v1/test2?op=CREATE&buffersize=1000"
    curl -b ~/.httpsauth -i -X PUT -T data2.txt --header "Content-Type: application/octet-stream" "http://172.168.63.221:14000/webhdfs/v1/test2/data.txt?op=CREATE&user.name=hdfs&buffersize=1000&data=true"

五、基于JAVA操作httpfs的开源代码

    开源项目地址,有什么问题可以直接反馈给我

    

   说明

   1  包com.catt.httpfs.client.httpclient是采用commons-httpclient.jar,

    基于http请求实现的,没有使用到hadoop相关的jar
    2  包org.apache.hadoop.fs.http.client根据httpfs项目的源代码,
    根据需要修改了一下,使用了hadoop相关的jar

转载地址:http://alhtl.baihongyu.com/

你可能感兴趣的文章
虚拟键码对照表
查看>>
mysqld_multi多实例配置
查看>>
Tomcat安全加固
查看>>
更改win7 & Linuxmint双系统安装后更改默认启动顺序
查看>>
使用OpenSSL生成证书-nginx
查看>>
Unity3d之Mecanim(新版动画系统)
查看>>
Rsync原理详解及部署
查看>>
Spring事务传播
查看>>
使用Spark分析拉勾网招聘信息(三): BMR 入门
查看>>
我的友情链接
查看>>
如何通过面试来考核一位前端工程师
查看>>
事件查看器ID 1041
查看>>
HSRP在交换机上实现网关冗余
查看>>
Docker 安装 之 toolbox在Windows下安装Docker)
查看>>
我的友情链接
查看>>
H3C设备之单区域OSPF增强配置
查看>>
使用U盘安装Fedora系统
查看>>
项目:对于windows server R2 (inter)双网卡绑定
查看>>
Linux文件系统修复
查看>>
Struts1.x系列教程(17):使用IncludeAction和ForwardAction类包含和转入Web资源
查看>>