对象存储

#对象存储#

已有1人关注此标签

内容分类

株莉

业内超火的企业数据无缝上云攻略!还不赶紧火速围观?

(2014-2021 期间,美国企业在混合云上的支出将翻两番,数据来源:Statistica) 早在2008年,Netflix就开始抛弃业界最高端的Oracle数据库和最顶级的硬件设备,转而迁移至亚马逊AWS,从而支撑起此后十年千倍以上的增速。 据德意志银行分析报告,中国现在有84%的企业有意愿要上云,认为云是未来。 企业数据中心发展的趋势• 云计算的兴起给企业数据中心带来了深刻的变化• 快速变化的市场和业务需求使混合云成为了企业用户IT架构的新常态• 越来越多的企业客户开始使用混合云架构• 实现业务弹性和满足不同应用的需求 随着迁移上云的解决方案变得简单可行、迁移过程的安全保障提高,企业All in Cloud在全球范围内是既成事实。然而在企业真正实施数据上云的时候,却发现在通用场景下数据扩容时会存在诸多困难,如成本昂贵、门槛高(需要进行程序改造)、过程繁琐等困难。云存储网关针对这一痛点提出了自己的解决方案,以阿里云上的OSS作为后端存储,可在企业的内部IT环境和基于云的存储基础设施之间提供无缝、安全的集成。 本次发布会介绍如何利用云存储网关实现客户应用与对象存储OSS的无缝对接,满足业务弹性和不同的应用对存储性能和空间扩展的需求,实现数据在客户数据中心和阿里云OSS之间的流动。主要内容包括: •云存储网关的方案架构•云存储网关的技术特点•产品规格和部署模式•典型使用场景和用户案例 了解详情,点击【产品活动页】参与直播,点击【直播间传送门】更多信息,点击【产品详情】 参与话题,赢取限量奖品:1.OSS如何通过云存储网关为企业应用提供块存储服务和文件存储服务?2、混合云架构被超过80%的企业用户所接受,如何通过云存储网关实现企业混合云架构?3、公司使用传统企业备份软件来实现数据备份保护,备份存储空间能否即买即用和无限扩容?4、OSS里存放的数据很重要,怎么通过云存储网关和HBR集成实现OSS数据备份?5、如何通过云存储网关实现跨地域的数据共享和分发?

china丶moli

求助php生成InitiateMultipartUpload中的SignatureValue

最近在研究web前端分片上传文件到oss,前面自己通过查阅资料成功写出过一个web前端上传到oss不是分片。是利用OSS的api PostObject 上传到oss 这个api 提交的时候需要提交policy和Signature这两个参数,我都通过php成功计算出来了但是分片上传的 api InitiateMultipartUpload 里面提到的 Authorization: SignatureValue 出现的这个SignatureValue我不知道该怎么通过PHP算出来InitiateMultipartUpload操作文档:https://help.aliyun.com/document_detail/31992.htmlAuthorization字段计算的方法:https://help.aliyun.com/document_detail/31951.html才接触到OSS,所以有点不懂,麻烦大家提供一下php计算Authorization字段计算的方法,或者指点一二谢谢大家了

株莉

大佬们都在学习的数据上云必备攻略,你还在观望什么?!

数据是什么?数据就是核心资产在经历大型灾难而导致系统停运的公司中有40%倒闭,剩下的公司中也有33%在两年内破产。———— Gartner Group调查1小时的业务中断/数据丢失,金融机构将损失约:280万美元!—— Horison Information Strategies 企业上云时代,从数据采集、数据整合、数据挖掘、数据分析、数据智能处理,已成为数据上云的完整链条。在这一链条中,数据可能会丢失、泄露、被越权访问、被篡改,甚至涉及用户隐私和企业机密等问题,云上数据安全已成为企业上云最为重要的因素。 数据保护是企业级存储必备的能力。用户针对自身的数据有各种不同等级的保护要求。大型企业以前均采用传统备份一体机/备份软件方式进行数据保护。随着“企业上云”的计划的实施,越来越多的企业将业务系统、数据库等服务搬移到“云上”。 阿里云正在逐步替代传统厂商的解决办法,为用户提供云原生的数据保护方案。 7月3日,阿里云云上存储数据保护新品发布会,与大家分享必备的“企业上云攻略”: 数字化浪潮下的数据安全重要性; 云上应用级同城容灾——快照服务(功能、特性及应用场景); 云上数据级同城容灾——同城冗余存储(功能、特性及最佳实践); 了解详情,点击【产品活动页】参与直播,点击【直播间传送门】更多信息,点击【产品详情】 参与话题,赢取限量奖品: 当前对象存储的存储类型不是已经很安全了吗,为什么还要推出同城冗余存储这样的存储类型服务? 听说传统数据中心建容灾中心、双活中心成本很高,同城冗余存储会不会很贵啊? 看云存储的“两地三中心”是如何炼成的 云上无代理的数据保护方式是否是未来行业发展趋势? 您是否有针对整个ECS实例进行数据保护的需求?

时序数据库

TSDB在控制台上好像没有直接导出到对象存储的工具吧

后面时空数据库商业化的时候会提供自动备份到oss的功能

游客qbpdmxrjywbno

请问对象存储怎么接入阿里云

请问对象存储怎么接入阿里云

terry.zhouh

什么?有几十种数据库类型~!数据存储管理怎么选,阿里自研NoSQL数据库与你聊一聊

你的业务数据如何存储管理? 大家对此最直观的理解可能会想非结构化数据如视频、图片等放在NAS,对象存储,块存储中,结构化的数据如用户信息、订单信息放在数据库如MySQL中。但随互联网业务的发展,现有数据类型的丰富程度远超过大家的想象,比如: 关系数据(ERP、CRM、电商、金融) 用户行为数据(推荐、风控) 日志数据(运维) 时序数据(监控、大盘、报表) 轨迹数据(快递包裹) 溯源数据(药品监管码) 消息数据(即时通讯、Feeds流)... ... 尤其是后者——各类半结构化与非结构化的数据,由于业务场景的需求对于存储模型提出了更多更丰富的要求。 在1998年传统的关系型数据库发展30年后,出于对PB级别海量数据存储、低延时、低成本的业务需求,“NoSQL”依赖分布式系统架构,在功能上做出一定取舍后,带着互联网时代的使命诞生。 从最早的“Bigtable”,到后来的Dynamodb、HBase、Cassandra、Redis、MongoDB、Janus Graph等,发展出了不同类型,适用于不同场景的多种NoSQL数据库,每一种NoSQL数据库都有各自适合的场景,不管是适应于何种场景,这批相继前后诞生的“NoSQL 兄妹”都在快速成长。 在阿里云在成立之初就投入资源研发,经过9年的打磨和多轮迭代演变成了今天的阿里云表格存储TableStore,迎来全新升级。为大家的在线业务数据的存储提供了更优的体验与选择,发布支持:• 更加灵活功能强大的查询能力,支持多元索引与二级索引• 数据实时消费通道,无缝与业务应用,流式技术、大数据分析平台打通。 表格存储全新升级发布会 3月6日 15:00--16:00 :https://yq.aliyun.com/live/872 这里大家互相探讨下各种业务场景中数据存储技术选型与问题: 1.当前你数据存储主要是什么场景,在数据管理中面临了哪些挑战?2.是否在特定场景中,已经选择使用了NoSQL数据库?3.你期望当前使用的NoSQL产品具备哪些额外的能力? 比如:数据规模问题,服务高可用,需要高并发低延迟读写,需要海量数据多维查询和检索,需要交互式分析

k8s小能手

在我的本地计算机上安装GCE永久磁盘

我正在尝试将由Kubernetes PersistentVolumeClaim资源(在GKE上)创建的GCE持久性磁盘挂载到我的本地计算机。 我创建了一个PersistentVolumeClaim(在GCE中创建一个持久卷): apiVersion: v1kind: PersistentVolumeClaimmetadata: name: profiler-diskspec: accessModes: - ReadWriteOnce resources: requests: storage: 2Gi 我尝试使用gcsfuse来安装磁盘,如文档中所写: 您可以使用Google Cloud Storage FUSE工具将云存储桶安装到Compute Engine实例。即使云存储桶是对象存储,挂载的存储桶也会表现得与持久性磁盘类似。 使用命令: gcsfuse profiler-disk hello但我得到了: daemonize.Run:readFromProcess:sub-process:mountWithArgs:mountWithConn:setUpBucket:OpenBucket:Unknown bucket“profiler-disk” 我能够加载一个实际的存储桶,因此这不是授权/身份验证问题。 有谁知道如何实现这一目标?

lyrewu

数据千万条,备份第一条,数据找不回,老板两行泪

直接入题,带着你的回忆看下文,想想你这些年删过的库,被删过的库。。。数据库备份是个老生常谈的话题,看似很简单,但在实际操作过程中,运维人员往往会遇到这样或那样的“坑”。数据库为什么要备份?时至今日,我认为这个问题已经不再是问题了,换个角度来看,数据库备份能规避哪些风险?其实从数据诞生时起就伴随着丢失风险,比如,自然灾难、电力故障、网络故障、硬件故障、软件故障、人为故障等。上面列举了一大串风险,其现实意义是,你今天躲过了硬件bug,明天避开了雷劈,后天绕开了断电,大后天还是可能会“手滑”碰到误删除。 随着DT时代的到来,企业对数据的依赖程度与日俱增,数据保护早已成为企业的一门必修课。只有拥有先知先觉的防范意识和充分的技术准备,才能“覆巢之下,亦有完卵”。 与其承受天灾人祸的担忧,为何不选择一个专业的数据库备份方案: 阿里云数据库备份DBS已经商用,作为数据库备份通道,与对象存储OSS一起构建无门槛的云数据库备份解决方案,整个配置过程只需5分钟,就可以实现秒级RPO(Recovery Point Objective恢复点目标,通俗理解是当数据库故障时,允许丢失多长时间数据,RPO越小越好)的实时备份。除了为数据库提供连续数据保护、低成本的备份服务外,DBS还可在多种环境下提供强有力的数据保护,包括公共云、企业自建数据中心及其他云厂商。DBS具备低成本、高性能、零风险等优势,为用户提供理想的云数据库备份解决方案。 新用户新春享好礼: 通过此活动页面下单,新用户独享1元体验2个月!!! 前所未有的无门槛,数据库实时备份上云,点击体验 到这里,回忆该结束了,说说:1、这些年,你删过的库,产生怎样的事件塌陷?(不要逞强说没有……)2、在你遇到的删库和被删时,数据恢复是否顺利?3、拥有数据库备份DBS,从此开车会更稳,老板更安心,你说对么?

1759348224609398

如何把百度网盘上内容上传到对象存储oss上

如何把百度网盘上内容上传到对象存储oss上

会写诗的黍

云非也非云

oss ppt 展示第一页缩略图,有类似视频截帧的API ???

有用到oss对象存储上传的PPT,需要展示PPT第一页缩略图,有类似视频截帧的API接口,请告知一下,暂时不考虑IMM 去进行文档转换,

小菜新手

本地IDC数据备份到oss对象存储有什么方案可以解决???

想将数据备份到oss里,本地IDC能不能直接联通oss作数据备份???如果不能有什么办法去解决???求解

社区小助手

Spark写入流到IBM Cloud对象存储失败,“Access KEY为空。请提供有效的访问密钥“

我目前正在使用Apache Spark 2.3.2并创建一个管道来从文件系统中读取流csv文件,然后将其写入IBM Cloud对象存储。 我正在使用Stocator连接器。通过以下配置,对IBM COS的常规读取和写入工作正常。但是,读写流操作会抛出错误: com.ibm.stocator.fs.common.exception.ConfigurationParseException:配置解析异常:Access KEY为空。请提供有效的访问密钥 stocator配置: sc.hadoopConfiguration.set("fs.cos.impl","com.ibm.stocator.fs.ObjectStoreFileSystem") sc.hadoopConfiguration.set("fs.stocator.scheme.list","cos") sc.hadoopConfiguration.set("fs.stocator.cos.impl","com.ibm.stocator.fs.cos.COSAPIClient") sc.hadoopConfiguration.set("fs.stocator.cos.scheme", "cos") sc.hadoopConfiguration.set("fs.cos.service_name.endpoint", "{url}") sc.hadoopConfiguration.set("fs.cos.service_name.access.key", "{access_key}") sc.hadoopConfiguration.set("fs.cos.service_name.secret.key", {secret_key})读取流: val csvDF = sqlContext.readStream.option("sep", ",").schema(fschema).csv({path})写入流: val query = csvDF.writeStream.outputMode(OutputMode.Append()).format("parquet").option("checkpointLocation", "cos://bucket.service_name/").option("path", "cos://bucket.service_name/").start()错误日志: "2018-12-17 16:51:14 WARN FileStreamSinkLog:66 - Could not use FileContext API for managing metadata log files at path cos://bucket.service_name/_spark_metadata. Using FileSystem API instead for managing log files. The log may be inconsistent under failures.2018-12-17 16:51:14 INFO ObjectStoreVisitor:110 - Stocator registered as cos for cos://bucket.service_name/_spark_metadata2018-12-17 16:51:14 INFO COSAPIClient:251 - Init : cos://bucket.service_name/_spark_metadataException in thread "main" com.ibm.stocator.fs.common.exception.ConfigurationParseException: Configuration parse exception: Access KEY is empty. Please provide valid access key" 有没有办法解决此错误或其他替代方案以达成解决方案 更新了更多日志: scala> val csvDF = spark.readStream.option("sep", ",").schema(fschema).csv("C:\Users\abc\Desktop\stream")csvDF: org.apache.spark.sql.DataFrame = [EMP_NO: string, EMP_SALARY: string ... 2 more fields] scala> val query = csvDF.writeStream.outputMode(OutputMode.Append()).format("csv").option("checkpointLocation", "cos://stream-csv.Cloud Object Storage-POCDL/").option("path", "cos://stream-csv.Cloud Object Storage-POCDL/").start()18/12/18 10:47:40 WARN FileStreamSinkLog: Could not use FileContext API for managing metadata log files at path cos://stream-csv.Cloud%20Object%20Storage-POCDL/_spark_metadata. Using FileSystem API instead for managing log files. The log may be inconsistent under failures.18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Stocator schema space : cos, provided cos. Implementation com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 INFO ObjectStoreVisitor: Stocator registered as cos for cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Load implementation class com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Load direct init for COSAPIClient. Overwrite com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 INFO COSAPIClient: Init : cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ConfigurationHandler: COS driver: initialize start for cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ConfigurationHandler: extracted host name from cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata is stream-csv.Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG ConfigurationHandler: Initiaize for bucket: stream-csv, service: Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG ConfigurationHandler: Filesystem cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata, using conf keys for fs.cos.Cloud%20Object%20Storage-POCDL. Alternative list [fs.s3a.Cloud%20Object%20Storage-POCDL, fs.s3d.Cloud%20Object%20Storage-POCDL]18/12/18 10:47:40 DEBUG ConfigurationHandler: Initialize completed successfully for bucket stream-csv service Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG MemoryCache: Guava initiated with size 2000 expiration 30 seconds18/12/18 10:47:40 ERROR ObjectStoreVisitor: Configuration parse exception: Access KEY is empty. Please provide valid access keycom.ibm.stocator.fs.common.exception.ConfigurationParseException: Configuration parse exception: Access KEY is empty. Please provide valid access keyat com.ibm.stocator.fs.cos.COSAPIClient.initiate(COSAPIClient.java:276)at com.ibm.stocator.fs.ObjectStoreVisitor.getStoreClient(ObjectStoreVisitor.java:130)at com.ibm.stocator.fs.ObjectStoreFileSystem.initialize(ObjectStoreFileSystem.java:105)at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2669)at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:94)at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2703)at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2685)at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:373)at org.apache.hadoop.fs.Path.getFileSystem(Path.java:295)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog$FileSystemManager.(HDFSMetadataLog.scala:409)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog.createFileManager(HDFSMetadataLog.scala:292)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog.(HDFSMetadataLog.scala:63)at org.apache.spark.sql.execution.streaming.CompactibleFileStreamLog.(CompactibleFileStreamLog.scala:46)at org.apache.spark.sql.execution.streaming.FileStreamSinkLog.(FileStreamSinkLog.scala:85)at org.apache.spark.sql.execution.streaming.FileStreamSink.(FileStreamSink.scala:98)at org.apache.spark.sql.execution.datasources.DataSource.createSink(DataSource.scala:317)at org.apache.spark.sql.streaming.DataStreamWriter.start(DataStreamWriter.scala:293)... 49 elided

社区小助手

当数据存储在对象存储中时,从Spark SQL访问Hive表

我使用spark数据帧编写器在IBM Cloud Object Storage中以parquet 格式在内部hive表中编写数据。所以,我的hive Metastore在HDP集群中,我从HDP集群运行spark作业。此spark作业将数据以parquet 格式写入IBM COS。这就是我开始saprk session的方式 SparkSession session = SparkSession.builder().appName("ParquetReadWrite") .config("hive.metastore.uris", "<thrift_url>") .config("spark.sql.sources.bucketing.enabled", true) .enableHiveSupport() .master("yarn").getOrCreate(); session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.iam.api.key",credentials.get(ConnectionConstants.COS_APIKEY));session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.iam.service.id",credentials.get(ConnectionConstants.COS_SERVICE_ID));session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.endpoint",credentials.get(ConnectionConstants.COS_ENDPOINT));我面临的问题是,当我分区数据并存储它(通过partitionBy)时,我无法直接从spark sql访问数据 spark.sql("select * from partitioned_table").show要从分区表中获取数据,我必须加载数据帧并将其注册为临时表,然后进行查询。表未分区时,不会发生上述问题。写这些数据的代码是这样的 dfWithSchema.orderBy(sortKey).write() .partitionBy("somekey") .mode("append") .format("parquet") .option("path",PARQUET_PATH+tableName ) .saveAsTable(tableName); 知道为什么直接查询方法不适用于COS / Parquet中的分区表吗?

flink小助手

OrcTableSource是否支持S3文件系统?

我使用OrcTableSource从云对象存储(IBM COS)获取Orc文件时遇到了一些麻烦,代码片段如下所示: OrcTableSource soORCTableSource = OrcTableSource.builder() // path to ORC .path("s3://orders/so.orc") // s3://orders/so.csv // schema of ORC files .forOrcSchema(OrderHeaderORCSchema) .withConfiguration(orcconfig) .build(); 似乎这条道路不正确 引起:java.io.FileNotFoundException:org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:611)org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem)中不存在文件/so.orc .java:824)org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:601)位于org.apache.hadoop的org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:428)。 fs.ChecksumFileSystem $ ChecksumFSInputChecker。(ChecksumFileSystem.java:142)org.apache.hadoop.fs.ChecksumFileSystem.open(ChecksumFileSystem.java:346)org.apache.hadoop.fs.FileSystem.open(FileSystem.java:768) )org.apache.orc.impl.ReaderImpl.extractFileTail(ReaderImpl.java:528)位于org.apache的org.apache.orc.impl.ReaderImpl。(ReaderImpl.java:370)。orc.OacheFile.createReader(OrcFile.java:342)org.apache.flink.orc.OrcRowInputFormat.open(OrcRowInputFormat.java:225)org.apache.flink.orc.OrcRowInputFormat.open(OrcRowInputFormat.java:63) at org.apache.flink.runtime.operators.DataSourceTask.invoke(DataSourceTask.java:170)at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)at java.lang.Thread.run (Thread.java:748) 顺便说一句,我已经设置了flink-s3-fs-presto-1.6.2,并且正确运行了以下代码。问题仅限于OrcTableSource。 DataSet> orderinfoSet = env.readCsvFile("s3://orders/so.csv") .types(String.class, String.class, String.class ,String.class, String.class);

吴到兵

对象存储 用户是不是只要知道 秘钥 就可以上传文件

对象存储 用户是不是只要知道 秘钥 就可以上传文件例如:Endpoint,accessKeyId,accessKeySecret 知道这三个参数就可以访问了对吧

1140333470517162

如何让我对象存储oss跟esc走内网下载不收费用?我看不懂文档,可否帮操作

如何让我对象存储oss跟esc走内网下载不收费用?我看不懂文档,可否帮操作

grantji

请问阿里云机器学习PAI平台如何使用对象存储里面的数据

谢谢,可否使用对象存储里面的数据,还是必须手动上传数据

云大屎22

你被阿里云大使气吐血了吗?

用户体验最核心的是什么?你可以不满足你的用户,但绝对不能伤害你的用户。 最近才发现阿里云推荐有返利,于是感叹了一下:之前错过了多少钱啊~~阿里果然是大气,于是兴致勃勃的替阿里云推广了3个账号(作为互联网从业人员其实以前推荐了很多)。有个账号成交金额5W多,然而我却没有得到一分钱的返利,经过沟通只怪自己跟不上阿里的思想啊,毕竟咱是做产品的,人家是做生意的。就当和大家唠唠吧。 1、我替我的一个客户负责系统搭建的全部工作,当然包括服务器相关。于是我替客户去注册账号,联系人手机号我当时为了整个操作的便捷,就填写的自己。做过推广的一定知道,这个单子费了。因为:(同一用户是指:包含但不仅限于根据不同阿里云账号在注册、登录、使用中的关联信息,阿里云判断其实际为同一用户。关联信息举例:同一证件、同一手机号、同一支付账号、同一设备、同一地址等。) 2、3天后,其中一个客户买了5W多,我登陆一看,我的乖乖,在我的推广客户里这个用户的记录都没有了!!别说返利了,记录都没有了,就是偷偷的没有了,没有任何提醒(这个产品设计得不好点评啊)~~原因嘛就猜喽,肯定就在上面那个括号里了,当看到这个信息以后我就知道这个事不用做了。虽然其2个用户是他们自己的账号,推广的时候也在我的推广客户里,但‘同一支付账号’这个事就有点扯淡了。一般的客户基本上不懂互联网,所以要么委托我们替他全部完成工作再转交给他们,要么他们也有研发人员。试问搞研发的有几个没买个阿里云服务器的?阿里上买东西支付方式难道用得微信支付不成? 事是这么个事,怪谁?肯定怪自己,谁叫你不看清楚的,对吧!毕竟月饼可不是那么好吃的。但我的整个体验实在是非常差,感觉自己就像个小傻子似地:想占便宜,年轻人啊~~ 之前不知道有推荐返利,也是给客户推荐阿里云,心无波澜。现在……另外两个用户,肯定得改改方案嘛。服务器由于备案问题不好弄,但其他都可以换啊,比如对象存储啥的,云视频之类的肯定不会用阿里云了。之前我们一直用阿里云是因为他们产品好吗?更多是习惯而已,对接熟悉。但这点门槛闭着眼睛也能迈过去吧。

哈哈1876

对象存储 OSS-上传文件名最长多少限制

档案存储,需要有目录划分。不知道支持最多多少级目录。