北京Workshop准备条件:《云数据·大计算:快速搭建互联网在线运营分析平台》

简介: 本手册为云栖大会Workshop之《云计算·大数据:海量日志数据分析与应用》场的前提准备条件所需。主要为保障各位学员在workshop当天能够顺畅进行动手实操,那么本场需要各位学员再参加之前确保自己云账号已免费开通表格存储TableStore、大数据计算服务MaxCompute、DataWorks和Quick BI。

实验背景介绍

了解更多2017云栖大会·北京峰会 TechInsight & Workshop.

本手册为云栖大会Workshop之《云计算·大数据:海量日志数据分析与应用》场的前提准备条件所需。主要为保障各位学员在workshop当天能够顺畅进行动手实操,那么本场需要各位学员再参加之前确保自己云账号已免费开通表格存储TableStore、大数据计算服务MaxCompute、DataWorks和Quick BI。

实验涉及大数据产品

其中表格存储TableStore、大数据计算服务MaxCompute的服务Region都选择华北2.

实验环境准备

必备条件:首先需要确保自己有阿里云云账号并已实名认证。详细点击:

开通表格存储TableStore

若已经开通和购买了TableStore,可以忽略此步骤,直接进入开通MaxCompute步骤。

  • step1:进入阿里云官网并点击右上角登录阿里云账号。
    登录
  • step2:点击进入表格存储TableStore详情页,点击立即开通
    OTS详情页
  • step3:进入开通页面,点击立即开通
    OTS详情页
  • step4:随之点击进入管理控制台
    OTS详情页
  • step5:创建实例,选择华北2,点击创建实例,选择容量型实例
    OTS详情页

OTS详情页

注意:实例名称在TableStore中,同一个Region下是全局唯一,建议大家选用自己可辨识且符合规则的名称即可。在MaxCompute数据处理中也会用到此实例名称。

OTS详情页

至此,北京云栖大会workshop所需的表格存储TableStore服务已经开通好。

关于如何选择实例,详见实例

开通大数据计算服务MaxCompute

若已经开通和购买了MaxCompute,请忽略次步骤直接进入创建DataWorks项目空间。

  • step1:点击进入大数据计算服务产品MaxCompute详情页,点击立即购买
    立即开通
  • step2:选择按量付费并点击立即购买
    立即购买

注意:选择华北2(北京)Region进行按量付费服务的开通。

创建DataWorks项目空间

确保阿里云账号处于登录状态。

  • step1:点击进入大数据(数加)管理控制台>大数据开发套件tab页面下。
  • step2:点击右上角创建项目,跳出创建项目对话框。
    创建项目
  • step3:勾选付费方式为I/O后付费,填写项目名称及相关信息,点击确定,直至返回创建成功状态。
    配置项目

项目名需要字母或下划线开头,只能包含字母下划线和数字。

【注意】项目名称全局唯一,建议大家采用自己容易区分的名称来作为本次workshop的项目空间名称。

0元购开通Quick BI

确保阿里云账号处于登录状态。

  • step1: 点击进入产品-大数据分析及展现-Quick BI详情页,点击管理控制台
    1
  • step2:进入控制台页面,点击高级版30天试用申请
    2
  • step3:弹出高级版协议,先勾选同意Quick BI服务协议,再点击开通试用
    3

4

  • step5:成功开通Quick BI如下图所示,点击进入Quick BI高级版 开始分析。
    5

通过以上的步骤就可以完成北京workshop《云数据·大计算:快速搭建互联网在线运营分析平台》场的实验环境配置。

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
存储 数据采集 数据可视化
Open3d系列 | 1. Open3d实现点云数据读写、点云配准、点云法向量计算
Open3d系列 | 1. Open3d实现点云数据读写、点云配准、点云法向量计算
10099 1
Open3d系列 | 1. Open3d实现点云数据读写、点云配准、点云法向量计算
|
4月前
|
存储 关系型数据库 MySQL
云数据仓库ADB的 热数据存储空间 在哪里看?热数据存储空间 的计费是怎么计算的?
云数据仓库ADB的 热数据存储空间 在哪里看?热数据存储空间 的计费是怎么计算的?
37 0
|
存储 消息中间件 缓存
云数据仓库的未来趋势:计算存储分离
随着云时代的到来,数据库也开始拥抱云数据库时代,各类数据库系统在各内外云平台百花齐放,有开源的MySQL、PostgreSQL、MongoDB,传统数据库厂商的SQLServer、Oracle,云厂商自研的Aurora、Redshift、PolarDB、AnalyticDB、AzureSQL等。
云数据仓库的未来趋势:计算存储分离
|
监控 大数据 数据挖掘
阿里云MVP Meetup 《云数据·大计算:海量日志数据分析与应用》之《数据应用:数据服务》篇
本文主要阐述在使用DataWorks(数据工场)的过程中如何使用数据服务模块,快速将已生成的数据给用起来。此功能可用于快速将数仓中的结果表生成API,通过API给下游应用使用,或者通过API服务完成数据共享等。
1358 0
|
人工智能 分布式计算 安全
大数据计算杭州高端峰会—探寻真正的“云数据,大计算”
你的业务数据还在沉睡吗? 如何让数据发挥更大的价值? 数据是企业无价之宝,上云真能保证安全吗? 如何省去自建环境、省去运维,快速实现大数据平台落地,更多聚焦于业务? 我的业务离数据智能有多远?
2816 0
|
数据采集 监控 大数据
阿里云MVP Meetup 《云数据·大计算:海量日志数据分析与应用》之《数据质量监控》篇
本手册为阿里云MVP Meetup Workshop《云计算·大数据:海量日志数据分析与应用》的《数据质量监控》篇而准备。主要阐述在使用大数据开发套件过程中如何将已经采集至MaxCompute上的日志数据质量进行监控,学员可以根据本实验手册,去学习如何创建表的监控规则,如何去订阅表等。
3836 0
|
存储 NoSQL 物联网
北京云栖大会 Tech Insight 爆场论坛-云数据·大计算:快速搭建互联网在线运营分析平台
2月19日上午9点,Tech Insight·北京峰会,在2017北京云栖大会国家会议中心准时拉开帷幕。做为年内压轴之作, 吸引了大量技术决策者,和一线的工程师、运维工程师等前来交流学习。
2279 0
|
存储 大数据
北京:《云数据·大计算:快速搭建互联网在线运营分析平台》Workshop-入口
该课程是基于大数据时代APP日志分析的基础需求的基础上,给开发者从数据高并发写入及实时在线访问存储到便捷高效的数据加工处理最终再到数据分析与展示的完整链路解决方案。不仅可以了解并实操到阿里云的产品,同时可以自己可以跟着讲师动手完成在线运营分析平台的搭建。
4700 0
|
分布式计算 监控 大数据
【转载】大数据workshop:《云数据·大计算:海量日志数据分析与应用》
本手册为云栖大会Workshop之《云计算·大数据:海量日志数据分析与应用》场的前提准备条件所需。主要为保障各位学员在workshop当天能够顺畅进行动手实操,那么本场需要各位学员再参加之前确保自己云账号已免费开通MaxCompute、Data IDE和Quick BI。
2167 0
|
1月前
|
弹性计算 关系型数据库 MySQL
阿里云MySQL云数据库优惠价格、购买和使用教程分享!
阿里云数据库使用流程包括购买和管理。首先,选购支持MySQL、SQL Server、PostgreSQL等的RDS实例,如选择2核2GB的MySQL,设定地域和可用区。购买后,等待实例创建。接着,创建数据库和账号,设置DB名称、字符集及账号权限。最后,通过DMS登录数据库,填写账号和密码。若ECS在同一地域和VPC内,可内网连接,记得将ECS IP加入白名单。
440 2