首页 > 代码库 > 第二次调用 Hadoop Java API
第二次调用 Hadoop Java API
环境:Hadoop1.2.
例2. 读取HDSF中的一个约200k大小的文件,并将其第101-120字节的内容写入本地文件系统
例1:读取一个大约200k大小的本地文件,并将其第101-120字节的内容写入HDFS成为一个新文
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; import org.apache.hadoop.util.Progressable; import java.io.BufferedInputStream; import java.io.FileInputStream; import java.io.InputStream; import java.io.OutputStream; import java.net.URI; public class InputTest { public static void main(String[] args) throws Exception { String localSrc = http://www.mamicode.com/args[0];"."); } }); in.read(new byte[100], 0, 100); IOUtils.copyBytes(in, out, 20, 20, true); } }
例2. 读取HDSF中的一个约200k大小的文件,并将其第101-120字节的内容写入本地文件系统
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; import java.io.BufferedOutputStream; import java.io.File; import java.io.FileOutputStream; import java.io.InputStream; import java.io.OutputStream; import java.net.URI; public class OutputTest { public static void main(String[] args) { try { String dst = args[0]; String localSrc = http://www.mamicode.com/args[1];>
第二次调用 Hadoop Java API
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。