V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
请不要把任何和邀请码有关的内容发到 NAS 节点。

邀请码相关的内容请使用 /go/in 节点。

如果没有发送到 /go/in,那么会被移动到 /go/pointless 同时账号会被降权。如果持续触发这样的移动,会导致账号被禁用。
changdy
V2EX  ›  NAS

如何在不使用 raid 的情况下, 备份数据?

  •  
  •   changdy · 39 天前 · 1729 次点击
    这是一个创建于 39 天前的主题,其中的信息可能已经有所发展或是发生改变。
    感觉 raid 有些浪费空间 , 而且我大部分也都是一些临时下载的电影.
    比较重要的文件可能才三四百 G .
    能否在群晖上进行设置, 把 A 硬盘的上的某些文件夹自动同步到 B 硬盘上?
    这样能够最大化利用两个硬盘的空间 , 并且即便空间不同也不会产生浪费的情况.
    27 条回复    2024-11-22 17:40:40 +08:00
    coderth
        1
    coderth  
       39 天前
    几百个 G ,我直接备份到百度云盘里面了
    MagmaBlock
        2
    MagmaBlock  
       39 天前 via Android   ❤️ 1
    我是用 rclone 弄个脚本跑定时任务,从一个存储器复制到另一个存储器
    changdy
        3
    changdy  
    OP
       39 天前
    @coderth 我也看到过类似方案 . 加密后存云盘.但是感觉还是不太放心. 毕竟云盘的内容谁也不敢保证一定能保留

    @MagmaBlock 是的我也在想这种方案 也是比较适合小容量的用户.
    yidev
        4
    yidev  
       39 天前
    FreeFileSync , 我正在用.
    dilu
        5
    dilu  
       39 天前
    群晖自带 rsync,你可以搜一下这个命令的用法,然后加个定时任务就可以,每次做增量备份到另一个盘里,但是这种备份意义不大,防止的更多的是硬盘故障。

    建议开一个 365 带 1T 的 onedrive ,可以直接备份到 onedrive 上,非常好用,能跑满带宽,一年才 40 还能有 5 台设备激活 office
    dcsuibian
        6
    dcsuibian  
       39 天前
    你这种做法只能防单个硬盘故障,万一碰到火灾地震失窃等(虽然几率不大)整个 NAS 都没了的情况就不行了

    我比较同意楼上说的,把数据存在云盘里。这样就满足了两份数据,一份异地的条件了。相当于 321 原则你做到了一半。

    借楼。
    我最近在找这样的工具:能把我指定的多个目录下的数据同步到百度网盘和 onedrive 的,支持单向同步。(群晖 cloud sync 好像可以,但是得都在一个文件夹里)
    百度网盘的话是国内最大的了,onedrive 的话,数据在海外,更加“异地”,而且我本来也有 Microsoft 365 会员。
    ddczl
        7
    ddczl  
       39 天前
    重要数据定时同步云盘,其他数据冷备,有一个专门的 16T 二手盘,每月我同步一次
    caviar
        8
    caviar  
       39 天前
    群晖的 Hyper Backup 挺好的
    gongquanlin
        9
    gongquanlin  
       39 天前
    ceph
    git00ll
        10
    git00ll  
       39 天前
    rsync ,10 分钟一次增量备份
    idrunk
        11
    idrunk  
       39 天前
    rsync, 但是会有一个问题,如果 A 盘 的某个文件损坏了,会被同步到 B 盘 去,造成备份污染。
    想到的一个方案是,用 perforce 做版本化备份,这样若损坏了,同步到 B 盘上也是一个新文件,不会覆盖污染备份
    lyc8503
        12
    lyc8503  
       39 天前   ❤️ 3
    纠正一下问题,RAID 不是备份
    tomczhen
        13
    tomczhen  
       39 天前
    snapraid ,记得群晖上有类似的功能。
    loading
        14
    loading  
       39 天前
    如楼上所说,Raid 是高可用技术,不是备份技术。就是允许运行期间硬盘故障而不停机。
    falcon05
        15
    falcon05  
       39 天前 via iPhone
    raid 也不保险,肯定要异地,万一家里失火了,失窃了,地震了数据也没有了。百度云不保险就再加一个别的云,双重备份。
    MeteorVIP
        16
    MeteorVIP  
       39 天前 via iPhone
    @loading #14 原来如此,那我可以放心大胆的用 raid0 了
    NoInternet
        17
    NoInternet  
       39 天前
    重要文件压缩包加密几个网盘都扔进去。
    或者用 Cryptomator 同步,我没用过,不过也是在这里看到的。
    MADBOB
        18
    MADBOB  
       39 天前
    自带套件的 Hyper Backup 最合适,可以把本地文件夹备份到别的共享文件夹下,你设置好不同的存储空间就行
    objectgiga
        19
    objectgiga  
       39 天前
    rclone 传多个网盘备份呗,爱折腾的去玩 ceph 集群
    happyxhw101
        20
    happyxhw101  
       39 天前
    raid 不是备份
    cmdOptionKana
        21
    cmdOptionKana  
       39 天前
    一定要注意:raid 不是备份
    yyyb
        22
    yyyb  
       39 天前
    经历过 raid1 两块盘同时坏的路过
    chpw98hv
        23
    chpw98hv  
       38 天前
    重要数据,本地单硬盘的情况可能发生 bit rot ,然后污染备份数据,无法恢复。可以使用 Btrfs raid 1 这种有 checksum 的机制保护
    ottoli
        24
    ottoli  
       38 天前
    首先 raid 不是备份,主要目的还是提升性能和可用性,raid 掉盘后重建失败概率还是挺高的

    备份还是用好 321 原则,举个例子,你本地备份一份,再在网盘备份一份,就满足了 321

    至于方法,我目前在用的是 rclone sync 命令,单向增量同步,做个定时脚本就好,如果想保留已删文件,可以用 rclone
    copy ,也是增量的
    jybox
        25
    jybox  
       38 天前
    https://restic.net
    基于 rclone 的增量备份工具
    xiaozhubin
        26
    xiaozhubin  
       38 天前
    看前面也有推荐群晖的 hyper backup 的,可以设置定时备份,指定不同的硬盘就行。我最近换 nas 硬盘,就是用 HyperBackup ,挺好用的。
    CodeAllen
        27
    CodeAllen  
       38 天前
    一般来说,热备份、云盘、冷备份,至少有两种机制,丢数据的概率都很小,百度云盘我下过很多资源,下载不了的资源只遇到过一次,如果不放心云盘,可以百度云和阿里云同时传一份,互为云盘备份,如果再加一个机械硬盘进行冷备,那这数据想消失都难。为什么推荐用云盘备份,因为作为个人来说,自己很难做异地灾备策略,成本高维护麻烦,云盘提供的存储服务,异地灾备是基本功能。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1114 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 39ms · UTC 18:49 · PVG 02:49 · LAX 10:49 · JFK 13:49
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.