MENU

将网站备份数据丢进 AWS S3 Glacier Deep Archive

May 4, 2022 • Nico的日常生活阅读设置

前两天果果的服务器炸了 所以咱把网站挪到了图床这台上面来 虽然这台有IPMI 坏了也好修但是万一是硬件坏了那就挺无奈的

之前大概了解过AWS的深度存储服务 昨天看了下 定价也不贵 部分区域每月只要每 GB 0.00099 USD(重要提示:这个不适用于经常读取的东西 而且提取也有收费 比较适用于归档且难得看一次的东西)

所以 开工!

理一下思路 首先需要自动定时把网站目录/数据库导出打包 使用AWS cli来进行数据同步两件事都可以做成计划任务自动实现

我用的是宝塔面板(别喷)自动备份打包功能是有的了 只需要来操作一下AWS cli

awscli需要手动安装 这个就不提了 安装完成后请主动添加你账户的授权信息 这里提一句 AWSCLI这个授权看上去是绑定用户的?咱在普通用户里面配置好了换了root用户需要手动重新添加

之后是核心部分 就是这个
咱的是这个 您要用的话需要对照下面提示自行修改

aws s3 sync --exclude "panel/*" --exclude "file_history/*" /www/backup s3://niconiconi --storage-class DEEP_ARCHIVE

aws s3 调用awscli里面的S3模块
sync 同步模式(你要只上传可以修改这里)
--exclude "panel/*" 排除掉选定文件夹中的panel/文件夹
/www/backup 你要同步的文件夹 是递归的
s3://niconiconi 你要同步到的S3存储桶
--storage-class DEEP_ARCHIVE 你选择的存储模式(这个请根据自我选择来 不同选项定价不同)
定价在这里查 https://aws.amazon.com/cn/s3/pricing/

然后写好后先试验一下 如果没有问题就可以加进计划任务里了 有问题的话可以试试加个sudo看看

(跑

Archives QR Code
QR Code for this page
Tipping QR Code