从Linux上载10,000,000个文件到Azure blob存储
发布时间:2020-11-17 08:10:54 所属栏目:Linux 来源:互联网
导读:我有一些S3的经验,并且在过去使用过s3-parallel-put来放置许多(数百万)个小文件.与Azure相比,S3的PUT价格昂贵,所以我想切换到Azure. 但是,我似乎无法弄清楚如何使用azure cli将本地目录同步到远程容器.特别是,我有以下问题: 1- aws客户端提供同步选项.天蓝有
我有一些S3的经验,并且在过去使用过s3-parallel-put来放置许多(数百万)个小文件.与Azure相比,S3的PUT价格昂贵,所以我想切换到Azure. 但是,我似乎无法弄清楚如何使用azure cli将本地目录同步到远程容器.特别是,我有以下问题: 1- aws客户端提供同步选项.天蓝有这样的选择吗? 2-我可以使用cli同时将多个文件上传到Azure存储吗?我注意到有一个-concurrenttaskcount标志用于azure存储blob上传,所以我认为原则上它必须是可能的. 解决方法如果您更喜欢命令行并拥有最近的 Python解释器,那么Azure批处理和HPC团队已经发布了一个代码示例,其中包含一些 AzCopy-like functionality on Python called blobxfer.这允许完整的递归目录进入Azure存储以及完整的容器副本返回到本地存储. [完全披露:我是此代码的撰稿人]回答你的问题: > blobxfer支持使用MD5校验和比较入口和出口的类似rsync的操作> blobxfer在单个文件和多个文件中执行并发操作.但是,您可能希望在多个目录和容器之间拆分输入,这不仅有助于减少脚本中的内存使用量,而且还可以更好地划分负载 (编辑:4S站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- BEA-141150 - An error occurred while preparing applicat
- 使用OS X上的cgo到linux和windows进行1.5交叉编译
- linux – 如何从“grep”中排除所有“权限被拒绝”的结果行
- kernel-module – 内核之间的Linux内核模块(* .ko)兼容性
- Linux – 按名称的一部分对文件进行排序(无分隔符)
- linux-device-driver – add_disk()在insmod上挂起
- linux – 库部署与未使用的直接依赖关系
- linux – EXT4上的时间戳精度(亚毫秒)
- linux – 用于MongoDB分片的mongos和配置服务器的Init脚本
- linux – 按日期字段在bash中排序日志