java - 读取大于内存的大文件怎么读?
问题描述
参考: 有一个1G大小的一个文件,内存限制大小是10M,有序返回频数最高的50个词,该怎么做?
网上有很多该问题的解决方案,都是用分而治之的思想,提到了遍历整个文件。
那么我的问题是:如果单纯地逐行读取大文件,算是把1G文件全都加载进内存吗?或者说是读取大于内存的文件应该怎么读?
问题解答
回答1:在这里内存就像一条管道,逐行读是把1G文件在内存里过一遍而已,10M表示管道的粗细。所以,逐行读是把1G文件加载进去过内存。
回答2:try (BufferedReader in = new BufferedReader(new FileReader(file))) { String line; while ((line = in.readLine()) != null) {// parse line }}
file再大,只要每一行的长度有限,整个文件读完会需要不少的时间,但不会占用太大的内存。
回答3:分块读,每读一个块一个结果集,最后对结果集聚合处理文本的话,知道行数会更好
回答4:linux上面有个指令叫做split可以并发快速把大文本分割成小的文件,然后处理就方便了呀,这种算法叫做外排序
回答5:内存就好比草稿纸,写满一篇就翻篇。 用过、没用的数据就扔掉了。
简单举例,创建一个变量 buff,设定好它的大小,打开文件流往里填,填满以后查你要的内容,查到就统计到另外一个变量里计数。 然后清空buff,继续之前读取的位置再次装载内容…… 直到读取完毕,统计也就完成了。
回答6:针对不同的系统,都会提供一个API来操作大于内存的文件,也就是将文件当做内存来处理:
内存映射
mmap
CreateFileMapping
相关文章:
1. mysql - 分库分表、分区、读写分离 这些都是用在什么场景下 ,会带来哪些效率或者其他方面的好处2. 图片链接的地址怎么获得的3. python - oslo_config4. mysql - 如何减少使用或者不用LEFT JOIN查询?5. mysql - jdbc的问题6. mysql - eclispe无法打开数据库连接7. mysql 5个left关键 然后再用搜索条件 几千条数据就会卡,如何解决呢8. 视频文件不能播放,怎么办?9. mysql - 千万级数据的表,添加unique约束,insert会不会很慢?10. html5 - H5 audio 微信端 在IOS上不能播放音乐
