可能比较倒霉,用坏的硬盘已经 20T 了,丢过相当多的资料。自己几十年积累的文档、录像、照片想要有个几 T 空间的网络备份。
迫于某些云服务具有以下问题:
- 喜欢根据 content 甚至 fileName 删东西。
- 下载回来的东西的 hash 甚至会变;
- 有些文件甚至下载几十遍都是失败。
以下为解决方案。除本地 NAS 备份外,归档到网盘的文件会做以下处理:
- 按照归档标准规范名称;
- 将路径、文件名、SHA256 、更新时间、压缩包密码等信息加密后以 JSON 格式写到 ZIP 文件的 comment 中;
- office 和工程文档生成基本信息、图片生成缩略图、视频生成 shapshot,保存在 OneDrive 上;
- 加密解密 PKI 备份在 OneDrive 的 PersonalVault 里;
- 生成 PKI 的 passphrase 记载脑子里和一个物理介质中。
目前已经用这种方法备份了 3T 数据,长期来看这种方法是否可持续?会不会中间哪一个环节出问题导致文件取不回来?
