我的去重是经常乱放文件导致的,我希望能够把这些文件整理一下,比如我现在有一个备份的文件 photo
我的核心诉求是前三条
感谢 v 友
![]() | 1 bzw875 114 天前 我一般是这么做的,把诉求丢给 chatGPT ,写我看懂的语言,比如 node.js 。 然后自己先调试。免得 AI 幻觉把我文件删除了。 你可以让他写 Python ,或者 shell |
![]() | 2 Cu635 114 天前 dupegure 试一试? 这个在 GUI 操作上可能还是有提升空间,不过我用了一阵子了感觉功能上没啥大毛病。 它默认情况是普通模式,对文件是看内容完全一致进行判断;可以设置为“图片”模式,这样它对图片文件就是看图像内容判断一致性的(视频不行)。 不过 2 那个它倒是没有,因为这种时候 dupegure 会认为文件不一致,不会出现在结果当中。当然设置了“图片”的话就是看图像内容了。 4 、5 、6 、7 这些应该说是开发需求,而不是使用需求了…… |
3 NoOneNoBody 114 天前 windows:clonespy 免费不开源 1/3/4/6/7 它主要是根据 size+crc32 的,好像也有 name 或 name+size 的,就是你说的 2 ,但我基本没用过这种方式 5 即使其他工具应该没有,除非自己写 其他平台不知道 |
![]() | 4 sunnyadamm 114 天前 duplicate cleaner pro 貌似比较符合你,windows 的 |
6 276562578 OP @NoOneNoBody 2 主要是遇到重复的文件后的处理方式,一个一个选就很麻烦,我去试试看这个软件 |
7 276562578 OP @sunnyadamm 好的,这个我也试试看 |
8 NoOneNoBody 114 天前 自己写我也写了,python 1. 两组 dataframe 'fullpath' df1/df2 ,各自求 size ,假如要删除 df1 中的 2.df3=df1.merge(df2, on='size', how='left', suffix=('_1', '_2')),然后 df3 去掉'fullpath_2'为 nan 的行 3.再 df3 用 fullpath_1/fullpath_2 求 crc32 或其他 hash ,再根据这个 hash 在匹配一次 如果所有文件之前已经 hash 过,有保留数据,可以直接第 3 步,on=['size', hash]就行 还有其他以此扩展的思路(匹配的不止是文件 hash ,而是图像内容),就不细说了 图片去重我每天都在做,但不是 file hash ,file hash 我反而懒得搞,扔给 clonspy 完成 |
9 dcsuibian 114 天前 用 zfs 文件系统,开启去重,这样只占一份的空间。甚至不是文件级而是块级。 |
![]() | 10 avenger 114 天前 Eagle 有去重功能,看是不是适合你 |
11 NoOneNoBody 114 天前 @276562578 #6 有的,面板 1|2(就是你的第一条需求),文件新 | 旧、字节数大 | 小、文件名长 | 短 8 种方式自动删除 |