分享

关于hadoop block问题

fylanyu 发表于 2013-10-25 10:45:15 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 5 6526
如果设置一个block为64M,实际写入每个block的文件大小只有2M,实际给hadoop的HDFS分配的硬盘空间有10G,
请问当前能分配多少个block吗?是10G/64M还是10G/2M吗?

已有(5)人评论

跳转到指定楼层
ruanhero 发表于 2013-10-25 10:45:15
10G/2M
回复

使用道具 举报

lxs_huntingjob 发表于 2013-10-25 10:45:15
谢谢,已经测试过是后者,多谢
回复

使用道具 举报

RnD_Alex 发表于 2013-10-25 10:45:15
小文件,不是1个block里可以有很多个文件吗吗?那应该是10G/64M个block才对呀。
回复

使用道具 举报

atsky123 发表于 2013-10-25 10:45:15
后者,64M的block中,只填了2M的实际数据
回复

使用道具 举报

lijian123841314 发表于 2013-10-25 10:45:15
楼主说,一个block为64M,实际写入每个block的文件大小为2M。一个文件是怎样分配到数据块中的,每个block写入的文件的大小是不同的啊!这样的话,怎么来计算分配多少个数据块呢吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条