对象存储

#对象存储#

已有1人关注此标签

内容分类

terry.zhouh

什么?有几十种数据库类型~!数据存储管理怎么选,阿里自研NoSQL数据库与你聊一聊

你的业务数据如何存储管理? 大家对此最直观的理解可能会想非结构化数据如视频、图片等放在NAS,对象存储,块存储中,结构化的数据如用户信息、订单信息放在数据库如MySQL中。但随互联网业务的发展,现有数据类型的丰富程度远超过大家的想象,比如: 关系数据(ERP、CRM、电商、金融) 用户行为数据(推荐、风控) 日志数据(运维) 时序数据(监控、大盘、报表) 轨迹数据(快递包裹) 溯源数据(药品监管码) 消息数据(即时通讯、Feeds流)... ... 尤其是后者——各类半结构化与非结构化的数据,由于业务场景的需求对于存储模型提出了更多更丰富的要求。 在1998年传统的关系型数据库发展30年后,出于对PB级别海量数据存储、低延时、低成本的业务需求,“NoSQL”依赖分布式系统架构,在功能上做出一定取舍后,带着互联网时代的使命诞生。 从最早的“Bigtable”,到后来的Dynamodb、HBase、Cassandra、Redis、MongoDB、Janus Graph等,发展出了不同类型,适用于不同场景的多种NoSQL数据库,每一种NoSQL数据库都有各自适合的场景,不管是适应于何种场景,这批相继前后诞生的“NoSQL 兄妹”都在快速成长。 在阿里云在成立之初就投入资源研发,经过9年的打磨和多轮迭代演变成了今天的阿里云表格存储TableStore,迎来全新升级。为大家的在线业务数据的存储提供了更优的体验与选择,发布支持:• 更加灵活功能强大的查询能力,支持多元索引与二级索引• 数据实时消费通道,无缝与业务应用,流式技术、大数据分析平台打通。 表格存储全新升级发布会 3月6日 15:00--16:00 :https://yq.aliyun.com/live/872 这里大家互相探讨下各种业务场景中数据存储技术选型与问题: 1.当前你数据存储主要是什么场景,在数据管理中面临了哪些挑战?2.是否在特定场景中,已经选择使用了NoSQL数据库?3.你期望当前使用的NoSQL产品具备哪些额外的能力? 比如:数据规模问题,服务高可用,需要高并发低延迟读写,需要海量数据多维查询和检索,需要交互式分析

k8s小能手

在我的本地计算机上安装GCE永久磁盘

我正在尝试将由Kubernetes PersistentVolumeClaim资源(在GKE上)创建的GCE持久性磁盘挂载到我的本地计算机。 我创建了一个PersistentVolumeClaim(在GCE中创建一个持久卷): apiVersion: v1kind: PersistentVolumeClaimmetadata: name: profiler-diskspec: accessModes: - ReadWriteOnce resources: requests: storage: 2Gi 我尝试使用gcsfuse来安装磁盘,如文档中所写: 您可以使用Google Cloud Storage FUSE工具将云存储桶安装到Compute Engine实例。即使云存储桶是对象存储,挂载的存储桶也会表现得与持久性磁盘类似。 使用命令: gcsfuse profiler-disk hello但我得到了: daemonize.Run:readFromProcess:sub-process:mountWithArgs:mountWithConn:setUpBucket:OpenBucket:Unknown bucket“profiler-disk” 我能够加载一个实际的存储桶,因此这不是授权/身份验证问题。 有谁知道如何实现这一目标?

lyrewu

数据千万条,备份第一条,数据找不回,老板两行泪

直接入题,带着你的回忆看下文,想想你这些年删过的库,被删过的库。。。数据库备份是个老生常谈的话题,看似很简单,但在实际操作过程中,运维人员往往会遇到这样或那样的“坑”。数据库为什么要备份?时至今日,我认为这个问题已经不再是问题了,换个角度来看,数据库备份能规避哪些风险?其实从数据诞生时起就伴随着丢失风险,比如,自然灾难、电力故障、网络故障、硬件故障、软件故障、人为故障等。上面列举了一大串风险,其现实意义是,你今天躲过了硬件bug,明天避开了雷劈,后天绕开了断电,大后天还是可能会“手滑”碰到误删除。 随着DT时代的到来,企业对数据的依赖程度与日俱增,数据保护早已成为企业的一门必修课。只有拥有先知先觉的防范意识和充分的技术准备,才能“覆巢之下,亦有完卵”。 与其承受天灾人祸的担忧,为何不选择一个专业的数据库备份方案: 阿里云数据库备份DBS已经商用,作为数据库备份通道,与对象存储OSS一起构建无门槛的云数据库备份解决方案,整个配置过程只需5分钟,就可以实现秒级RPO(Recovery Point Objective恢复点目标,通俗理解是当数据库故障时,允许丢失多长时间数据,RPO越小越好)的实时备份。除了为数据库提供连续数据保护、低成本的备份服务外,DBS还可在多种环境下提供强有力的数据保护,包括公共云、企业自建数据中心及其他云厂商。DBS具备低成本、高性能、零风险等优势,为用户提供理想的云数据库备份解决方案。 新用户新春享好礼: 通过此活动页面下单,新用户独享1元体验2个月!!! 前所未有的无门槛,数据库实时备份上云,点击体验 到这里,回忆该结束了,说说:1、这些年,你删过的库,产生怎样的事件塌陷?(不要逞强说没有……)2、在你遇到的删库和被删时,数据恢复是否顺利?3、拥有数据库备份DBS,从此开车会更稳,老板更安心,你说对么?

1759348224609398

如何把百度网盘上内容上传到对象存储oss上

如何把百度网盘上内容上传到对象存储oss上

会写诗的黍

云非也非云

oss ppt 展示第一页缩略图,有类似视频截帧的API ???

有用到oss对象存储上传的PPT,需要展示PPT第一页缩略图,有类似视频截帧的API接口,请告知一下,暂时不考虑IMM 去进行文档转换,

小菜新手

本地IDC数据备份到oss对象存储有什么方案可以解决???

想将数据备份到oss里,本地IDC能不能直接联通oss作数据备份???如果不能有什么办法去解决???求解

社区小助手

Spark写入流到IBM Cloud对象存储失败,“Access KEY为空。请提供有效的访问密钥“

我目前正在使用Apache Spark 2.3.2并创建一个管道来从文件系统中读取流csv文件,然后将其写入IBM Cloud对象存储。 我正在使用Stocator连接器。通过以下配置,对IBM COS的常规读取和写入工作正常。但是,读写流操作会抛出错误: com.ibm.stocator.fs.common.exception.ConfigurationParseException:配置解析异常:Access KEY为空。请提供有效的访问密钥 stocator配置: sc.hadoopConfiguration.set("fs.cos.impl","com.ibm.stocator.fs.ObjectStoreFileSystem") sc.hadoopConfiguration.set("fs.stocator.scheme.list","cos") sc.hadoopConfiguration.set("fs.stocator.cos.impl","com.ibm.stocator.fs.cos.COSAPIClient") sc.hadoopConfiguration.set("fs.stocator.cos.scheme", "cos") sc.hadoopConfiguration.set("fs.cos.service_name.endpoint", "{url}") sc.hadoopConfiguration.set("fs.cos.service_name.access.key", "{access_key}") sc.hadoopConfiguration.set("fs.cos.service_name.secret.key", {secret_key})读取流: val csvDF = sqlContext.readStream.option("sep", ",").schema(fschema).csv({path})写入流: val query = csvDF.writeStream.outputMode(OutputMode.Append()).format("parquet").option("checkpointLocation", "cos://bucket.service_name/").option("path", "cos://bucket.service_name/").start()错误日志: "2018-12-17 16:51:14 WARN FileStreamSinkLog:66 - Could not use FileContext API for managing metadata log files at path cos://bucket.service_name/_spark_metadata. Using FileSystem API instead for managing log files. The log may be inconsistent under failures.2018-12-17 16:51:14 INFO ObjectStoreVisitor:110 - Stocator registered as cos for cos://bucket.service_name/_spark_metadata2018-12-17 16:51:14 INFO COSAPIClient:251 - Init : cos://bucket.service_name/_spark_metadataException in thread "main" com.ibm.stocator.fs.common.exception.ConfigurationParseException: Configuration parse exception: Access KEY is empty. Please provide valid access key" 有没有办法解决此错误或其他替代方案以达成解决方案 更新了更多日志: scala> val csvDF = spark.readStream.option("sep", ",").schema(fschema).csv("C:\Users\abc\Desktop\stream")csvDF: org.apache.spark.sql.DataFrame = [EMP_NO: string, EMP_SALARY: string ... 2 more fields] scala> val query = csvDF.writeStream.outputMode(OutputMode.Append()).format("csv").option("checkpointLocation", "cos://stream-csv.Cloud Object Storage-POCDL/").option("path", "cos://stream-csv.Cloud Object Storage-POCDL/").start()18/12/18 10:47:40 WARN FileStreamSinkLog: Could not use FileContext API for managing metadata log files at path cos://stream-csv.Cloud%20Object%20Storage-POCDL/_spark_metadata. Using FileSystem API instead for managing log files. The log may be inconsistent under failures.18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Stocator schema space : cos, provided cos. Implementation com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 INFO ObjectStoreVisitor: Stocator registered as cos for cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Load implementation class com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 DEBUG ObjectStoreVisitor: Load direct init for COSAPIClient. Overwrite com.ibm.stocator.fs.cos.COSAPIClient18/12/18 10:47:40 INFO COSAPIClient: Init : cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ConfigurationHandler: COS driver: initialize start for cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata18/12/18 10:47:40 DEBUG ConfigurationHandler: extracted host name from cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata is stream-csv.Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG ConfigurationHandler: Initiaize for bucket: stream-csv, service: Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG ConfigurationHandler: Filesystem cos://stream-csv.Cloud%2520Object%2520Storage-POCDL/_spark_metadata, using conf keys for fs.cos.Cloud%20Object%20Storage-POCDL. Alternative list [fs.s3a.Cloud%20Object%20Storage-POCDL, fs.s3d.Cloud%20Object%20Storage-POCDL]18/12/18 10:47:40 DEBUG ConfigurationHandler: Initialize completed successfully for bucket stream-csv service Cloud%20Object%20Storage-POCDL18/12/18 10:47:40 DEBUG MemoryCache: Guava initiated with size 2000 expiration 30 seconds18/12/18 10:47:40 ERROR ObjectStoreVisitor: Configuration parse exception: Access KEY is empty. Please provide valid access keycom.ibm.stocator.fs.common.exception.ConfigurationParseException: Configuration parse exception: Access KEY is empty. Please provide valid access keyat com.ibm.stocator.fs.cos.COSAPIClient.initiate(COSAPIClient.java:276)at com.ibm.stocator.fs.ObjectStoreVisitor.getStoreClient(ObjectStoreVisitor.java:130)at com.ibm.stocator.fs.ObjectStoreFileSystem.initialize(ObjectStoreFileSystem.java:105)at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2669)at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:94)at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2703)at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2685)at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:373)at org.apache.hadoop.fs.Path.getFileSystem(Path.java:295)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog$FileSystemManager.(HDFSMetadataLog.scala:409)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog.createFileManager(HDFSMetadataLog.scala:292)at org.apache.spark.sql.execution.streaming.HDFSMetadataLog.(HDFSMetadataLog.scala:63)at org.apache.spark.sql.execution.streaming.CompactibleFileStreamLog.(CompactibleFileStreamLog.scala:46)at org.apache.spark.sql.execution.streaming.FileStreamSinkLog.(FileStreamSinkLog.scala:85)at org.apache.spark.sql.execution.streaming.FileStreamSink.(FileStreamSink.scala:98)at org.apache.spark.sql.execution.datasources.DataSource.createSink(DataSource.scala:317)at org.apache.spark.sql.streaming.DataStreamWriter.start(DataStreamWriter.scala:293)... 49 elided

社区小助手

当数据存储在对象存储中时,从Spark SQL访问Hive表

我使用spark数据帧编写器在IBM Cloud Object Storage中以parquet 格式在内部hive表中编写数据。所以,我的hive Metastore在HDP集群中,我从HDP集群运行spark作业。此spark作业将数据以parquet 格式写入IBM COS。这就是我开始saprk session的方式 SparkSession session = SparkSession.builder().appName("ParquetReadWrite") .config("hive.metastore.uris", "<thrift_url>") .config("spark.sql.sources.bucketing.enabled", true) .enableHiveSupport() .master("yarn").getOrCreate(); session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.iam.api.key",credentials.get(ConnectionConstants.COS_APIKEY));session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.iam.service.id",credentials.get(ConnectionConstants.COS_SERVICE_ID));session.sparkContext().hadoopConfiguration().set("fs.cos.mpcos.endpoint",credentials.get(ConnectionConstants.COS_ENDPOINT));我面临的问题是,当我分区数据并存储它(通过partitionBy)时,我无法直接从spark sql访问数据 spark.sql("select * from partitioned_table").show要从分区表中获取数据,我必须加载数据帧并将其注册为临时表,然后进行查询。表未分区时,不会发生上述问题。写这些数据的代码是这样的 dfWithSchema.orderBy(sortKey).write() .partitionBy("somekey") .mode("append") .format("parquet") .option("path",PARQUET_PATH+tableName ) .saveAsTable(tableName); 知道为什么直接查询方法不适用于COS / Parquet中的分区表吗?

flink小助手

OrcTableSource是否支持S3文件系统?

我使用OrcTableSource从云对象存储(IBM COS)获取Orc文件时遇到了一些麻烦,代码片段如下所示: OrcTableSource soORCTableSource = OrcTableSource.builder() // path to ORC .path("s3://orders/so.orc") // s3://orders/so.csv // schema of ORC files .forOrcSchema(OrderHeaderORCSchema) .withConfiguration(orcconfig) .build(); 似乎这条道路不正确 引起:java.io.FileNotFoundException:org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:611)org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem)中不存在文件/so.orc .java:824)org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:601)位于org.apache.hadoop的org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:428)。 fs.ChecksumFileSystem $ ChecksumFSInputChecker。(ChecksumFileSystem.java:142)org.apache.hadoop.fs.ChecksumFileSystem.open(ChecksumFileSystem.java:346)org.apache.hadoop.fs.FileSystem.open(FileSystem.java:768) )org.apache.orc.impl.ReaderImpl.extractFileTail(ReaderImpl.java:528)位于org.apache的org.apache.orc.impl.ReaderImpl。(ReaderImpl.java:370)。orc.OacheFile.createReader(OrcFile.java:342)org.apache.flink.orc.OrcRowInputFormat.open(OrcRowInputFormat.java:225)org.apache.flink.orc.OrcRowInputFormat.open(OrcRowInputFormat.java:63) at org.apache.flink.runtime.operators.DataSourceTask.invoke(DataSourceTask.java:170)at org.apache.flink.runtime.taskmanager.Task.run(Task.java:711)at java.lang.Thread.run (Thread.java:748) 顺便说一句,我已经设置了flink-s3-fs-presto-1.6.2,并且正确运行了以下代码。问题仅限于OrcTableSource。 DataSet> orderinfoSet = env.readCsvFile("s3://orders/so.csv") .types(String.class, String.class, String.class ,String.class, String.class);

吴到兵

对象存储 用户是不是只要知道 秘钥 就可以上传文件

对象存储 用户是不是只要知道 秘钥 就可以上传文件例如:Endpoint,accessKeyId,accessKeySecret 知道这三个参数就可以访问了对吧

1140333470517162

如何让我对象存储oss跟esc走内网下载不收费用?我看不懂文档,可否帮操作

如何让我对象存储oss跟esc走内网下载不收费用?我看不懂文档,可否帮操作

grantji

请问阿里云机器学习PAI平台如何使用对象存储里面的数据

谢谢,可否使用对象存储里面的数据,还是必须手动上传数据

云大屎22

你被阿里云大使气吐血了吗?

用户体验最核心的是什么?你可以不满足你的用户,但绝对不能伤害你的用户。 最近才发现阿里云推荐有返利,于是感叹了一下:之前错过了多少钱啊~~阿里果然是大气,于是兴致勃勃的替阿里云推广了3个账号(作为互联网从业人员其实以前推荐了很多)。有个账号成交金额5W多,然而我却没有得到一分钱的返利,经过沟通只怪自己跟不上阿里的思想啊,毕竟咱是做产品的,人家是做生意的。就当和大家唠唠吧。 1、我替我的一个客户负责系统搭建的全部工作,当然包括服务器相关。于是我替客户去注册账号,联系人手机号我当时为了整个操作的便捷,就填写的自己。做过推广的一定知道,这个单子费了。因为:(同一用户是指:包含但不仅限于根据不同阿里云账号在注册、登录、使用中的关联信息,阿里云判断其实际为同一用户。关联信息举例:同一证件、同一手机号、同一支付账号、同一设备、同一地址等。) 2、3天后,其中一个客户买了5W多,我登陆一看,我的乖乖,在我的推广客户里这个用户的记录都没有了!!别说返利了,记录都没有了,就是偷偷的没有了,没有任何提醒(这个产品设计得不好点评啊)~~原因嘛就猜喽,肯定就在上面那个括号里了,当看到这个信息以后我就知道这个事不用做了。虽然其2个用户是他们自己的账号,推广的时候也在我的推广客户里,但‘同一支付账号’这个事就有点扯淡了。一般的客户基本上不懂互联网,所以要么委托我们替他全部完成工作再转交给他们,要么他们也有研发人员。试问搞研发的有几个没买个阿里云服务器的?阿里上买东西支付方式难道用得微信支付不成? 事是这么个事,怪谁?肯定怪自己,谁叫你不看清楚的,对吧!毕竟月饼可不是那么好吃的。但我的整个体验实在是非常差,感觉自己就像个小傻子似地:想占便宜,年轻人啊~~ 之前不知道有推荐返利,也是给客户推荐阿里云,心无波澜。现在……另外两个用户,肯定得改改方案嘛。服务器由于备案问题不好弄,但其他都可以换啊,比如对象存储啥的,云视频之类的肯定不会用阿里云了。之前我们一直用阿里云是因为他们产品好吗?更多是习惯而已,对接熟悉。但这点门槛闭着眼睛也能迈过去吧。

哈哈1876

对象存储 OSS-上传文件名最长多少限制

档案存储,需要有目录划分。不知道支持最多多少级目录。

马铭芳

网络加速CDN【问答合集】

cdn和.htaccess 301跳转能同时使用吗https://yq.aliyun.com/ask/213743网站用oss做图床,cdn想加速网站+oss两个,有无必要?https://yq.aliyun.com/ask/169089高防cdn防御ddos应该做哪些部署https://yq.aliyun.com/ask/190262CDN节点的好处?https://yq.aliyun.com/ask/190219高防cdn能够防御主流的ddos攻击吗https://yq.aliyun.com/ask/190241用cdn加速 是不是ecs 就没必要开很大带宽https://yq.aliyun.com/ask/178826如何让CDN 缓存动态页面https://yq.aliyun.com/ask/190231oss外网域名 需要开通cdn吗https://yq.aliyun.com/ask/183802服务器加上高防CDN是不是可以防打!https://yq.aliyun.com/ask/190118cdn使用的网络节点本质上是什么东西?比如数据中心本质上就是一个大机房,那么网络节点的本质是什么?https://yq.aliyun.com/ask/125356关于cdn怎么收费的阿里云帮助中心问题解答https://yq.aliyun.com/ask/190199CDN回源、网站解析 是什么意思https://yq.aliyun.com/ask/190211IDC到底是什么,和CDN啥关系?https://yq.aliyun.com/ask/125224nginx 在使用cdn的情况下怎么根据真实ip做ip hash 负载均衡https://yq.aliyun.com/ask/190079对象存储OSS和CDN是什么意思https://yq.aliyun.com/ask/183423CDN带宽和IDC带宽有什么区别,为什么价格差距这https://yq.aliyun.com/ask/190089Web应用防火墙服务怎样结合第3方CDN共同服务云主机https://yq.aliyun.com/ask/191769以下哪个软件可以用于cdn服务器 a,apache b,varnish c,tomcat d,dockerhttps://yq.aliyun.com/ask/188726cdn加速器的缓存一般设置多长时间https://yq.aliyun.com/ask/190178阿里云cdn回源对域名有什么好处https://yq.aliyun.com/ask/190058CDN加速和防护是针对网站所在服务器做加速和防护,还是针对的域名做加速防护?https://yq.aliyun.com/ask/188972浅析网站更换ip或使用CDN会不会影响SEO排名https://yq.aliyun.com/ask/190067网站防护可以采用高防CDN吗?https://yq.aliyun.com/ask/193467网站系统怎么用高防CDN去防御DDOS攻击https://yq.aliyun.com/ask/190291CDN的目录刷新是把文件删除了,还是置过期?https://yq.aliyun.com/ask/119757oss cdn 加速域名 什么意思https://yq.aliyun.com/ask/183395高防cdn防御ddos应该做哪些部署https://yq.aliyun.com/ask/190301解析CDN后网站主页打不开了https://yq.aliyun.com/ask/119096cdn加速原理是什么,正常1m宽带服务器能提升多少速度https://yq.aliyun.com/ask/119177cdn加速器的缓存一般设置多长时间https://yq.aliyun.com/ask/190143cdn支持多少并发https://yq.aliyun.com/ask/67133网站做了CDN对于有多个域名的网站改如何优化https://yq.aliyun.com/ask/190090微擎怎么使用cdn加速呢https://yq.aliyun.com/ask/190132网站使用CDN加速,是否CDN消耗多少流量虚拟主机也消耗同样的流量?https://yq.aliyun.com/ask/190062兄弟hl-4050cdn怎么恢复出厂设置https://yq.aliyun.com/ask/190209高防cdn能够彻底抵御ddos攻击吗https://yq.aliyun.com/ask/190239如何正确看待CDN节点https://yq.aliyun.com/ask/190221经常听到CDN,请问网站如何使用CDN?https://yq.aliyun.com/ask/190140如何禁止CDN加速域名直接访问,不产生镜像站https://yq.aliyun.com/ask/190160高防CDN能防御DDOS攻击吗https://yq.aliyun.com/ask/190248如何通过CDN技术来解决黑客入侵,DDoS问题https://yq.aliyun.com/ask/190121什么是CDN镜像https://yq.aliyun.com/ask/193435开租用的香港服务器使用cdn对网站优化有帮助吗https://yq.aliyun.com/ask/190109Bootstrap免费 CDN 加速服务/Bootstrap文件怎么引入https://yq.aliyun.com/ask/190055CDN加速对网站有什么好处https://yq.aliyun.com/ask/190137什么是网站CDN服务,CDN加速原理https://yq.aliyun.com/ask/190223cdn加速靠谱吗?到底能不能提高网站访问速度?https://yq.aliyun.com/ask/190084如何使用cdn节点隐藏ip地址https://yq.aliyun.com/ask/190124为什么我的 wordpress 开启了 wp super cache 中的 CDN 功能后 网站就乱码了呢?访问CDN 域名是正常的https://yq.aliyun.com/ask/193483如何让CDN 缓存动态页面https://yq.aliyun.com/ask/190194带问号 文件链接如何 cdn 加速https://yq.aliyun.com/ask/193443网站做了CDN对于有多个域名的网站改如何优化https://yq.aliyun.com/ask/190131CDN数据解包失败是什么意思https://yq.aliyun.com/ask/193450cdn源服务器带宽不够会影响下载吗https://yq.aliyun.com/ask/193453

马铭芳

对象存储oss【问答合集】

关于对象存储oss计费方式https://yq.aliyun.com/ask/235751对象存储oss怎么切换云服务器https://yq.aliyun.com/ask/183444对象存储oss和redis的区别https://yq.aliyun.com/ask/183426对象存储OSS和CDN是什么意思https://yq.aliyun.com/ask/183423阿里云对象存储oss bucket 存放wmv可以吗https://yq.aliyun.com/ask/183534对象存储OSS和CDN是什么意思https://yq.aliyun.com/ask/183391阿里云对象存储oss 里面js怎么读取https://yq.aliyun.com/ask/183461对象存储OSS续费问题?https://yq.aliyun.com/ask/119455阿里云对象存储 oss可以在线播放吗https://yq.aliyun.com/ask/183678对象存储OSS到ECS服务器的最大传输速度是多少https://yq.aliyun.com/ask/183821请问如何能实现服务器上的网站能链接到oss上访问或下载mp3文件?https://yq.aliyun.com/ask/120984OSS对象存储 .Net sdk中Endpoint一致性问题的疑惑https://yq.aliyun.com/ask/121835对象存储 OSS 如何通过sdk删除整个目录/文件夹?https://yq.aliyun.com/ask/66163对象存储OSS服务快欠费了,怎么从40g升级到100ghttps://yq.aliyun.com/ask/61302阿里云oss对象存储怎么收费?https://yq.aliyun.com/ask/183394快照商业化之后,我希望继续使用,需要购买哪个产品,云盘还是对象存储OSS资源包?https://yq.aliyun.com/ask/62002有了ECS的数据盘,那对象存储OSS有什么作用?https://yq.aliyun.com/ask/61569对象存储OSS问题 Can't get a federation tokenhttps://yq.aliyun.com/ask/61082对象存储 OSS包年包月的话流量有没有要求?https://yq.aliyun.com/ask/42265对象存储OSS 的Bucket绑定域名httpshttps://yq.aliyun.com/ask/37330新用户未免费资源而购买“对象存储oss资源包”的问题https://yq.aliyun.com/ask/46484对象存储oss上面是不是没办法部署jsp文件?https://yq.aliyun.com/ask/38644对象存储 OSS 可否获得备案服务号?https://yq.aliyun.com/ask/55119请问下对象存储OSS支持WORM特性吗?https://yq.aliyun.com/ask/56599苹果审核ipv6访问不了对象存储oss的内容https://yq.aliyun.com/ask/46362对象存储OSS上传成功后能否再进行数据二次处理https://yq.aliyun.com/ask/161阿里云对象存储OSS怎么将长方形图片补白成正方形https://yq.aliyun.com/ask/36285请问怎样开通对象存储OSS免费试用版https://yq.aliyun.com/ask/41814OSS对象存储能上传网络图片吗?(转存)https://yq.aliyun.com/ask/62704请问我在oss存储的视频,能同时支持大概多少人在线观看呢?https://yq.aliyun.com/ask/56855?

哈哈尔滨

对象存储OSS

对象存储OSS购买了存储包后还需要购买下行流量包吗?这两个是必须一起购买的吗?

1287633098158745

关于对象存储oss计费方式

如果包年1T,是这一年内在阿里云有1T的存储空间可以用,还是这一年内在阿里云一共可以读写1T的文件?

爱莫能助01

OSS对象存储 .Net sdk中Endpoint一致性问题的疑惑

代码中创建OSSClinet对象,赋值Endpoint为华东1,创建bucket的时候,Endpoint传值华北1,然后再调用OssClient的ListBuckets方法会出错,代码中将OssClient的Endpoint设置为华北1则可以执行Listbuckets操作。 OssClient的Endpoint感觉和Bucket中的Endpoint是一个东东。有知道的吗,任何帮助都不胜感激