您现在的位置:首页 --> 查看专题: 大文件
查找大于200M的文件
find / -type f -size +200M
查看当前目录占磁盘空间
du -h --max-depth=1
目录按照占用空间大小排序
du -h --max-depth=2 | sort -n
误删文本文件的话可以尝试用 grep 恢复,误删 exe/doc/png/jpg/gif 之类的文件的话,可以用第三方 ext2/ext3 文件恢复工具 TestDisk, PhotoRec 等帮助恢复文件。
Q. 如何在目录中找出所有大文件?
A.
1) 句法 for RedHat / CentOS / Fedora Linux
find {/path/to/directory/} -type f -size +{size-in-kb}k -exec ls -lh {} \; | awk ‘{ print $9 “: ” $5 }’
当你要两台机器之间拷贝一些大文件的时候,把nc(netcat)和pigz(parallel gzip)组合起来会是一个简单和高效的选择。不过,如果要把这些文件同时分发到多台机器,有什么好法子吗?在Tumblr,这还算蛮常见的需求,比如我们要快速的同时增加几台MySQL Slave的时候。 你可以从源机器逐个拷贝到逐台目标机器,但是往往时间也是成倍的。或者你也可以同时从源机器同时拷贝到多个...
朋友需要将一个有170w行的txt文件.按行把数据导入到数据库中..
每次用的时候就找不见,记录到这里~
[ 共6篇文章 ][ 第1页/共1页 ][ 1 ]
近3天十大热文
-
[64] memory prefetch浅析
-
[53] 转载:cassandra读写性能原理分析
-
[49] 深入浅出cassandra 4 数据一致性问
-
[40] JS中如何判断字符串类型的数字
-
[40] 获取Dom元素的X/Y坐标
-
[39] 字符引用和空白字符
-
[39] 《web前端最佳实践》—高维护性css
-
[39] MySQL半同步存在的问题
-
[38] 基本排序算法的PHP实现
-
[38] javascript插入样式
赞助商广告