云上 AI
依托大模型与云计算的协同发展,阿里云帮助企业和开发者以最快速度实现生成式和判别式的创新应用,拥抱 AI 时代
立即认证阿里云人工智能助理工程师ACA认证面向人工智能技术爱好者、入门学习者的专业技术认证,主要涉及人工智能概论、深度学习神经网络及TensorFlow基础、阿里云机器学习与深度学习开发平台PAI、阿里云人工智能API等,是对学员入门人工智能基础,以及掌握阿里云人工智能产品技能水平的全面检验和能力认证。阿里云人工智能...
来自: 解决方案
向量检索服务 Milvus 版
阿里云向量检索服务Milvus版是一款云原生开源向量检索引擎,为用户提供多模态检索服务和高效稳定的向量数据检索能力,与云计算等产品集成对接,为AI应用场景的数据工程提供便利。
它完全兼容开源Milvus API,可以从访问控制、网络存储、操作审计等方面,提供全面的安全加固功能来保障您的数据安全。数据安全系统数据安全:管控服务通过HTTPS化确保了请求访问链路的安全,同时对产品服务数据实施多备份存储策略,以增强数据传输和存储的安全性。通过这些措施,管控服务不仅确保了数据在传输过程中的...
来自: 云产品
SLS数据入湖Kafka最佳实践
SLS数据入湖Kafka最佳实践
应用和数据分散在多云或混合云,在面对多云/混合云这样大的趋势下,数据无法进行统一的聚合、分析处理和导出等,本方案给出了在多云/混合云场景下,构建通过标准的Kafka协议和托管服务,SLS可以连接Kafka数据入湖导入,然后进行统一的海量数据的集中存储、智能转储、聚合分析查询等。
SLS 数据入湖 Kafka 最佳实践 业务架构 场景描述 应用和数据分散在多云或混合云,在面对多云/混合云这样大的趋势下,数据无法进行统一的 聚合、分析处理和导出等,本方案给出了在多 云/混合云场景下,构建通过标准的Kafka协议 和托管服务,SLS可以连接Kafka数据入湖导 入,然后进行统一的海量数据的集中存储、智 能转储、...
来自: 最佳实践 | 相关产品:云服务器ECS,日志服务(SLS),Serverless 应用引擎,消息队列 Kafka 版
阿里云日志服务SLS多云统一日志方案之腾讯云日志采集最佳实践
阿里云日志服务SLS多云统一日志方案之腾讯云日志采集最佳实践
使用日志服务SLS统一采集、存储、查询和分析阿里云、腾讯云等不同云厂商上的业务日志、系统日志和云产品日志,实现在一个平台上管理多云架构下的所有日志。
阿里云 SLS多云日志统一管理方案-腾讯云日志采集 最佳实践 业务架构 场景描述 使用日志服务 SLS统一采集、存储、查询和分析 阿里云、腾讯云等不同云厂商上的业务日志、系 统日志和云产品日志,实现在一个平台上管理多 云架构下的所有日志。产品列表 方案适用的场景和优势 阿里云 多云:使用多云架构的用户都需要有一个统一...
来自: 最佳实践 | 相关产品:日志服务(SLS),云速搭
可观测链路 OpenTelemetry版结合日志服务SLS关联分析最佳实践
可观测链路 OpenTelemetry版结合日志服务SLS关联分析最佳实践
可观测链路 OpenTelemetry 版为分布式应用的开发者提供了完整的调用链路还原、调用请求量统计、链路拓扑、应用依赖分析等工具,可以帮助开发者快速分析和诊断分布式应用架构下的性能瓶颈,当应用出现业务异常问题时,您可以在可观测链路 OpenTelemetry 版控制台关联查看日志进行分析,精准定位业务异常。
ACK 整合了阿里 云的虚拟化、存储网络和安全能力,助力企业高效运行云端 Kubernetes 容器化 应用。可观测链路 OpenTelemetry 版:可观测链路 OpenTelemetry 版为分布式应用的 开发者提供了完整的调用链路还原、调用请求量统计、链路拓扑、应用依赖分析等 工具,可以帮助开发者快速分析和诊断分布式应用架构下的性能瓶颈,...
来自: 最佳实践 | 相关产品:日志服务(SLS),云速搭
基于函数计算FC实现阿里云Kafka消息轻量级ETL处理
基于函数计算FC实现阿里云Kafka消息轻量级ETL处理
在大数据ETL场景,Kafka是数据的流转中心,Kafka中的数据一般是原始数据,可能存在多种数据混杂的情况,需要进一步做数据清洗后才能进行下一步的处理或者保存。利用函数计算FC,可以快速高效的搭建数据处理链路,用户只需要关注数据处理的逻辑,数据的触发,弹性伸缩,运维监控等阿里云函数计算都已经做了集成,函数计算FC也支持多种下游,OSS/数据库/消息队列/ES等都可以自定义的对接
专有网络 VPC 阿里云交换机 解决问题 阿里云安全组•快速搭建起数据处理全链路 阿里云函数计算(FC)•全链路自适应弹性,无需为流量峰谷做频繁 对象存储 OSS 的手工处理 阿里云云消息队列 Kafka 版•内置 CICD平台能力,灰度,回滚,监控开箱 云速搭 CADT 即用•按量付费,没有资源闲置费用 最佳实 践频道 ...
来自: 最佳实践 | 相关产品:对象存储 OSS,函数计算,消息队列 Kafka 版
基于FC实现的Web端视频录制最佳实践
基于FC实现的Web端视频录制最佳实践
场景描述在很多互娱场景,在线教育领域会有直播视频录制的需求,但是往往一个页面上的内容是多种多样的,不止有直播流,可能还有白板,评论等其他元素,如果只是录直播流,那内容是不完整的,所以需要将整个屏幕的内容录制为视频。该最佳实践可以有效解决这个场景。
容器镜像服务 ACR(Alibaba Cloud Container Registry):是面向容器镜像、Helm Chart等符合 OCI标准的云原生制品安全托管及高效分发平台。ACR企业版支 持全球同步加速、大规模和大镜像分发加速、多代码源构建加速等全链路加速能 力,与容器服务 ACK无缝集成,帮助企业降低交付复杂度,打造云原生应用一 站式解决方案。文档...
来自: 最佳实践 | 相关产品:对象存储 OSS,函数计算
RTC
实时音视频(RTC)依托基于阿里云全球3200+节点及多年的音视频技术积累,提供高可用、高品质、超低延时的音视频通信服务。主要适用于直播互动、社交语聊、多人通话等场景。
产品控制台 产品文档 产品价格SDK下载产品优势产品架构产品功能应用场景更多产品与服务文档与工具产品优势多合一 依托阿里云 GRTN 品牌网络,全球覆盖 3200+节点,可以支持直播网络和 WebRTC 网络资源复用,保证弱网下的用户体验,实现全球高可靠服务。实时互动 基于 WebRTC 链路可提供延时 300ms 以内的实时音视频互动,...
来自: 云产品
容器多云统一监控日志
容器多云统一监控日志
多云、混合云成为常态,Forrester 报告中指出,未来 89% 的企业至少使用两个云,74% 的企业至少使用三个甚至更多公有云,在面对多云/混合云这样大的趋势下,Gartner报告指出,安全、运维复杂性、财务复杂性是多云架构的主要挑战,本方案给出了在多云/混合云场景下,构建基于容器环境下的统一管理、统一监控和统一日志方案,解决多云、混合云场景下,运维复杂性问题。 应用场景 客户在阿里云以外的其他云服务商(AWS、Azure、GCP、TencentCloud、HuaweiCloud等)或者IDC基于容器(Kubernetes)运行业务系统,希望构建容器场景下的统一监控日志系统,方便做不同大屏和问题分析定位。 解决问题 •构建容器多云统一监控和日志系统,在一个平台可以看到不同环境系统的运行情况。
 分布式云容器平台ACKOne:是阿里云面向混合云、多集群、分布式计算、容 灾等场景推出的企业级云原生平台,ACKOne可以连接并管理您任何地域、任 何基础设施上的Kubernetes集群,并提供一致的管理和社区兼容的API,支持 对计算、网络存储、安全、监控、日志、作业、应用、流量等进行统一运维管 控。 日志服务SLS:是云...
来自: 最佳实践 | 相关产品:专有网络 VPC,容器服务 ACK,日志服务(SLS),应用实时监控服务 ARMS ,微服务引擎
多媒体数据存储与分发
以搭建一个多媒体数据存储与分发服务为例,搭建一个多媒体数据存储与分发服务。
产品解决方案文档与社区权益中心定价云市场合作伙伴支持与服务了解阿里云AI 助理备案控制台多媒体数据存储与分发方案介绍方案优势应用场景方案部署方案权益多媒体数据存储与分发视频、图文类多媒体数据量快速增长,内容不断丰富,多媒体数据存储与分发解决方案融合对象存储 OSS、内容分发 CDN、智能媒体管理 IMM 等产品能力...
来自: 解决方案
对象存储 OSS
阿里云对象存储 OSS(Object Storage Service)是一款海量、安全、低成本、高可靠的云备份服务,提供最高可达 99.995 % 的服务可用性。多种存储类型供选择,全面优化存储成本。
立即购买存储降价对象存储价格下调,最高 55%2024.02.29精选特惠“”享优惠,新老用户同享,新购、续费同价2023.11.01新功能OSS Bucket 存储冗余类型转换发布2023.06.28新功能OSS 归档直读发布2023.06.30新手引导新手入门,如何使用对象存储 OSS2023.11.27精彩回顾阿里云存储·2023 云栖精彩回顾2023.12.01云存储 Clouder...
来自: 云产品
密评咨询服务
密评咨询服务是阿里云依托云平台密评经验和云密码产品优势,提供全流程密评咨询服务,助力企业快速完成密评合规
身份鉴别、通信过程中数据的完整性、通信过程中重要数据的机密性、网络边界访问控制信息的完整性.身份鉴别、远程管理通道安全、系统资源访问控制信息完整性、日志记录完整性.身份鉴别、访问控制信息完整性、重要数据传输机密性、重要数据存储机密性、重要数据传输完整性、重要数据存储完整性、数据原发和接受的不可否认性....
来自: 云产品
混合云存储
阿里云混合云存储包括混合云存储阵列、混合云CPFS存储、混合云分布式存储等多种产品类型。本地存储可以通过云缓存、云同步、云备份等方式无缝连通云存储,轻松实现云端一体。
计算、网络存储集成的超融合产品,和阿里云公共云,专有云组成云边一体的混合云解决方案.并行文件存储CPFS.高性能、高可扩展性、低时延的存储服务,支持多种交付形态。广泛应用在AIGC、自动驾驶、金融量化等场景中.图文卡片(支持一行2、3、4).靖鑫,也树,徐衡,别针.云定义存储PanguStor.基于公共云盘古架构,和阿里云...
来自: 云产品
飞天企业版
阿里云飞天企业版是基于阿里云飞天云计算操作系统,为政企客户专属构建的资源和云管完全独立的企业级云平台,阿里云专有云与公共云同根同源,支持私有化部署。
阿里云混合云全面领先2024.03.26新进展阿里云斩获中国电子学会科技进步一等奖2024.03.25产品简介通过本地部署,飞天企业版提供专有的计算、存储网络等资源,满足政企客户资产自持、安全合规、自主运维运营需求,其弹性、灵活的云平台能力同时满足客户资源高效利用、产品快速部署的需求。产品优势稳定支持关键应用在云上...
来自: 云产品
云Clickhouse冷热数据分层存储
云Clickhouse冷热数据分层<em>存储</em>
基于云ClickHouse可以给电商、游戏、互联网以及其他行业提供高性能、高稳定性、低维护成本、高性价比的实时数据分析、精准营销、业务运营、业务分析、业务预警、业务营销、数仓加速等场景化方案,本实践会向客户提供数据库低维护成本、数据库链路构建、冷热分层存储、快熟分析等操作实践。 解决问题 1. 维护成本低不用建设维护体系,稳定性高,数据倾斜自动均衡。 2. 完善的数据同步链路,可以平滑将业务库、大数据、日志服务的数据同步到Clickhouse,降低研发成本。 3. 平滑升级版本,业务中断小。 冷热分层后透明读取,帮客户节约整体数据存储成本。
设置云 ClickHouse冷热分层存储 通过该章节了解如何开启冷热分层存储,云 ClickHouse可以支持数据冷热分层存储,节 约 整 体 成 本。数 据 冷 热 分 层 参 考:https://help.aliyun.com/document_detail/202879.html 背景信息 通过该步骤设置 ClickHouse冷热分层存储,冷热数据分层存储需要主动开启。冷热分层...
来自: 最佳实践 | 相关产品:云数据库RDS MySQL 版,数据传输,日志服务(SLS),云数据库 ClickHouse
存储网关CSG
阿里云云存储网关CSG是一款数据存储管理工具,以对象存储为后端存储。为企业应用提供文件挂载和数据共享服务。可灵活部署,无缝对接企业应用,并支持数据海量拓展和冷热分层。
存储网关 CSG.云存储网关 CSG(Cloud Storage Gateway)以阿里云OSS为后端存储,为企业应用提供行业标准的文件存储和块存储服务。云存储网关可以部署在客户数据中心或阿里云上,帮助客户简化存储管理,实现企业应用和阿里云存储服务的无缝对接.频道页banner.谢赟辉,靖鑫,也树.孙慧颖,靖鑫,也树.MySQL低至1折起,前往限时...
来自: 云产品
表格存储Tablestore
表格存储Tablestore是阿里云自研的面向海量结构化数据存储的Serverless分布式数据库,它可提供低成本、高性能的存储方案,同时也可提供稳定与极致的数据服务。
表格存储 Tablestore.表格存储(Tablestore)面向海量结构化数据提供 Serverless 表存储服务,同时针对物联网场景深度优化提供一站式的 IoTstore 解决方案。适用于海量账单、IM 消息、物联网、车联网、风控、推荐等场景中的结构化数据存储,提供海量数据低成本存储、毫秒级的在线数据查询和检索以及灵活的数据分析能力.点击...
来自: 云产品
高性能计算存储解决方案
基于阿里云强大的存储产品能力,助力AI、基因、自动驾驶、天文和能源等行业打造高性能计算平台。
直播行业竞争日趋白热化,为实现差异化体验,该企业在内容审核和内容增强等业务中引入AI能力,借助阿里云计算和存储能力搭建AI训练平台,且结合使用OSS、NAS和CPFS,其中CPFS用作训练一级存储,为AI平台提供高性能存储,NAS和OSS作为二级存储存结果数据,整体上实现了分布式训练、数据分层存储和资源弹性伸缩,提升推理和...
来自: 解决方案
基于函数计算FC实现阿里云Kafka消息内容控制MongoDB DML操作
基于函数计算FC实现阿里云Kafka消息内容控制MongoDB DML操作
在大数据ETL场景,将Kafka中的消息流转到其他下游服务是很常见的场景,除了常规的消息流转外,很多场景还需要基于消息体内容做判断,然后决定下游服务做何种操作。 该方案实现了通过Kafka中消息Key的内容来判断应该对MongoDB做增、删、改的哪种DML操作。 当Kafka收到消息后,会自动触发函数计算中的函数,接收到消息,对消息内容做判断,然后再操作MongoDB。用户可以对提供的默认函数代码做修改,来满足更复杂的逻辑。 整体方案通过CADT可以一键拉起依赖的产品,并完成了大多数的配置,用户只需要到函数计算和MongoDB控制台做少量配置即可。
(函数中业务代码的执行时长,可根据函数承载的业 务自行设置其他时间,最大支持 24 小时)l 请求处理程序:index.handler(函数的入口函数名称,index 为文件名,handler 为 函数名)l 环境变量:默认设置连接 MongoDB 需要的属性,但具体的值需要后续在函数控制 编辑。n mongodb_endpoint:MongoDB 连接地址 n mongodb_...
来自: 最佳实践 | 相关产品:函数计算,消息队列 Kafka 版,云数据库 MongoDB版
< 1 2 3 4 ... 23 >
共有23页 跳转至: GO
产品推荐
这些文档可能帮助您

新品推荐

切换为电脑版

新人特惠 爆款特惠 最新活动 免费试用