spark sql交互式查询

_相关内容

为RAM用户授权

为确保RAM用户能正常使用Databricks 数据洞察控制台的功能,您需要使用云账号登录访问控制RAM(Resource Access Management),授予RAM用户相应的权限。背景信息 访问控制RAM是阿里云提供的资源访问控制服务,更多详情请参见 什么是访问...

Notebook

Python package 需要通过Databricks数据洞察控制页面选择相应的python包。Q:如何配置Spark Application 资源 通过以下属性配置driver的资源:spark.driver.memory spark.driver.cores 通过以下属性配置executor的资源:spark.executor....

阿里云Databricks数据洞察云产品服务协议

阿里云Databricks数据洞察云产品服务协议,请参见 阿里云产品服务协议(通用)。

PySpark及Python库使用

本文介绍如何使用阿里云 Databricks数据洞察 Notebook 进行 PySpark 开发。重要 若要使用其他数据源进行数据开发,需开通相应服务。本示例采用OSS数据源。步骤一:创建 Databricks数据洞察集群 登录 阿里云Databricks数据洞察控制台。创建...

MongoDB

Torcuato"),Student("3142","Rosalinda"))))/数据写入到mongodb df.write.format("com.mongodb.spark.sql").mode("append").saveAsTable("mongodb_test")SQL查询%sql select*from mongodb_test limit 2;读写MongoDB数据源(开启SSL)...

管理项目告警

添加联系人 登录阿里云 Databricks 数据洞察控制台 在左侧导航栏单击 项目空间 单击 项目空间 中的 告警 在 联系人 区域,单击 添加;在 联系人 对话框中,输入 姓名、手机号码 和 Email 信息。分别单击 手机号码 和 Email 所在行的 获取...

到期与欠费

本文介绍Databricks数据洞察的停服欠费策略。停服欠费说明 计费方式 停服或欠费说明 包年包月 购买的集群资源到期后立即停机。停机后168小时(7天),集群资源会被释放。按量计费 暂不支持

数据

本文将解答与数据源相关的问题。Q:Databricks数据洞察的支持哪些数据源?目前支持读写阿里云对象存储(OSS)的数据。Q:是否支持当前的DDI集群访问其他集群的HDFS数据?支持访问同账号下的EMR Hadoop集群上的HDFS数据。

集群扩容

Databricks 数据洞察集群计算资源或存储资源不足时,您可以对集群进行水平扩展。目前支持Worker 实例的扩容。扩容操作步骤 登录阿里云 Databricks 数据洞察控制台。在左侧导航栏的菜单下,单击 集群管理。选择想要扩容的集群,单击 集群...

设置安全组白名单

属性 说明 规则方向 仅支持网络连接的 入方向 授权策略 仅支持 允许策略 协议类型 仅支持 TCP协议 端口范围 8443(knox)、10001(Spark Thrift Server)优先级 无 授权对象 IP地址 操作步骤 登录阿里云 Databricks 数据洞察控制台。...

产品性能

本文介绍Databricks数据洞察采用的企业版Spark引擎性能对比数据,Databricks Runtime(简写dbr)的性能及Delta Lake功能是本产品的核心优势。Databricks Runtime完全兼容开源版本Spark,并且相对开源Spark引擎TPC-DS平均性能有 3~5倍提升,...

Delta Lake 快速开始一

delta=spark.read.format("delta").load(deltaPath)events_delta.printSchema()重置数据库%pyspark spark.sql("DROP DATABASE IF EXISTS {} CASCADE".format(database))#注意{}是在pyspark里spark.sql()中使用的变量,参数在.format中指定...

续费流程

本文为您介绍如何手动和自动续费Databricks数据洞察(DDI)集群,以及取消自动续费。背景信息 只有包年包月集群才需要进行续费操作,按量集群是实时结算的。DDI续费方式包括手动续费和自动续费两种。前提条件 请确认包年包月集群还未到期。您...

动态文件剪枝

动态文件剪枝(Dynamic File...使用案例 测试数据生成:在本节中我们使用TPCDS数据集作为测试数据,主要使用到store_sales和item表,下载包请联系Databricks运维,并上传到您的OSS中,然后再DDI的项目空间中创建Spark作业生成测试数据:class ...

用户管理

本文介绍如何通过Databricks 数据洞察的用户管理功能,管理集群DDI用户。DDI用户信息存储在集群自带的OpenLDAP中,主要用于在DDI集群内的身份认证。DDI用户可以用于访问链接与端口,查看组件Web UI时的用户身份认证,也可以在开启组件LDAP...

CreateClusterV2

调用CreateClusterV2,创建一个Databricks 数据洞察集群。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action...

按负载伸缩规则配置

在使用Databricks数据洞察集群时,如果您无法准确的预估大数据计算的波峰和波谷,则可以使用按负载伸缩配置的策略。在Databricks数据洞察中开启弹性伸缩时,如果选择按负载配置伸缩规则,则根据以下说明配置相关参数即可。详细配置步骤请...

包年包月

本文主要介绍Databricks数据洞察产品使用包年包月的付费方式时计算资源的费用参考(不包含块存储的价格)。说明 公测期间创建的按量付费集群,在公测结束后,将被释放。请您提前做好作业备份。使用对象存储OSS产生的费用需要另行计算,不...

集群运维与监控

本文主要介绍Databricks数据洞察在集群维度的监控与告警能力。背景信息 目前Databricks数据洞察主要采用 阿里云监控 服务,完整对接DBR指标体系,实现多维度、多实例、多时段的指标图表监控,用户可以根据业务情况,灵活自定义告警规则,...

CSV文件

1,a,10000,11-03-2019,pune 2,b,10020,14-03-2019,pune 3,a,34567,15-03-2019,pune tyui,a,fgh-03-2019,pune 4,b,10020,14-03-2019,pune%spark import org.apache.spark.sql.types._val path="oss:/databricks-data-source/datas/dataTest....

迁移指南

说明 详情可参考Databricks官网文章:迁移指南 将工作负载迁移到Delta Lake 当您将工作负载迁移到Delta-Lake时,您应该注意到以下简化和与apachespark和apachehive提供的数据源相比的区别。Delta Lake自动处理以下操作,您永远不要手动执行...

JSON文件

false false 允许数字中存在前导零(例如,00012)Read allowBackslashEscAPIngAny true,false false 允许反斜杠机制接受所有字符 Read columnNameOfCorruptRecord Any String Spark.sql.column&NameOfCorruptRecord 允许重命名,...

管理作业

Databricks数据洞察控制台页面,选择所在的地域(Region)。创建的集群将会在对应的地域内,一旦创建后不能修改。在左侧导航栏,单击 项目空间。在 项目空间 页面,单击待操作项目所在行的 作业编辑。在 作业编辑 区域,在需要操作的文件...

MaxCompute

本文介绍如何使用Databricks 读写MaxCompute数据。前提条件 已创建 MaxCompute实例,具体参见 快速体验MaxCompute 通过主账号登录 阿里云 Databricks控制台。已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。...

Databricks Runtime

Databricks-Regeneron开源库Glow的优化版本,具有所有功能以及:Spark SQL支持读取和写入变量数据 通用工作流程元素的功能 常见查询模式的优化 与Apache Spark并行的Turn-key pipelines:DNA序列 RNA序列 肿瘤正常测序(MutSeq)联合基因...

Delta Lake 快速开始二

spark.sql("DROP DATABASE IF EXISTS {} CASCADE".format(database))spark.sql("CREATE DATABASE {} location 'oss:/dome-test/case6/'".format(database))spark.sql("USE {}".format(database))说明 您可以在 Databricks数据洞察控制台中...

作业日期设置

Databricks数据洞察控制台页面,选择所在的地域(Region)。创建的集群将会在对应的地域内,一旦创建后不能修改。在左侧导航栏,单击 项目空间。在项目空间页面,单击待操作项目所在行的 作业编辑。进行作业设置。在作业编辑页面,选择...

Delta Lake 快速入门

创建表 若要创建一个delta表,可以使用现有的Apache Spark SQL代码,也可以将parquet、csv、json等数据格式转换为delta。对于所有文件类型,您将文件读入DataFrame并将格式转为delta:Python%pyspark events=spark.read.json("/xz/events_...

按量付费

本文主要介绍Databricks数据洞察产品使用 按量付费 的付费方式时计算资源的费用参考(不包含块存储的价格)。中国站支持的区域,包括华东1(杭州)、华东2(上海)、华南1(深圳)、华北2(北京)、华北5(呼和浩特)美国(弗吉尼亚)。下...

表删除,更新和合并

val deltaTable=DeltaTable.forPath(spark,"/data/events/")deltaTable.delete("date)/predicate using SQL formatted string import org.apache.spark.sql.functions._import spark.implicits._deltaTable.delete(col("date"))/predicate ...

Tablestore

order_source")/数据查询 spark.table("delta_order_source").where("user_id='1086'").show()说明 结果已经写入Tablestore 说明 Tablestore结合spark 参考文档:Tablestore结合spark的流批一体SQL实战 Jar包Java方式参考文档:...

使用OPTIMIZE和Z-ORDER优化商品库存查询性能

查看当前Parquet表的数据%spark.sql-查看某个StockCode下的数据 SELECT*FROM current_inventory WHERE StockCode IN('21877','21876')步骤1:向Parquet表中插入记录%pyspark#创建2条记录,准备插入到表中并转换为DataFrame items=[('...

Parquet(推荐)

read/write Key 取值范围 默认值 说明 Write compression None,Uncompressed,bzip2,defalte,gzip,lz4,snappy None 声明Spark应该使用什么样的压缩编码器来读取或写入文件 Read Merge Schema true,false 配置值spark.sql.parquet....

通过缓存优化性能

每个节点为缓存的元数据保留的磁盘空间(以字节为单位)spark.databricks.io.cache.compression.enabled-缓存的数据是否应以压缩格式存储 INI spark.databricks.io.cache.maxDiskUsage 50g spark.databricks.io.cache.maxMetaDataCache 1g ...

项目空间运维与监控

本文主要介绍Databricks数据洞察中项目空间具有的运维与监控能力。背景信息 项目空间的运维能力主要辅助作业开发和工作流生产,前者提供作业开发过程中的日志监控、版本监控和操作审计监控;后者兼容前者的功能,更提供针对调度场景下的...

表批读写

通过使用按时间顺序查看,您可以修复多次调用的DataFrame返回的数据:Python%pyspark latest_version=spark.sql("SELECT max(version)FROM(DESCRIBE HISTORY delta.`/mnt/delta/events`)").collect()df=spark.read.format("delta").option...

OSS数据权限隔离

},{"Effect":"Allow","Action":["oss:Listobjects","oss:GetObject","oss:PutObject"],"Resource":["acs:oss:*:*:prod-bucket","acs:oss:*:*:prod-bucket/*"]}]} 按上述脚本示例进行权限隔离后,RAM用户在Databricks 数据洞察控制台...

自动优化

自动优化是Delta Engine一组可选特性,当开启该组特性后,Delta Engine会自动合并对Delta表的多次写入产生的小文件,以牺牲部分写性能为代价,大幅提升查询性能。自动优化在这些场景下尤其有用:1)能接受分钟级时延的流式数据入湖;2)常...

开启并配置弹性伸缩

当您的业务量需求不断波动时,建议您开启弹性伸缩功能并配置相应的伸缩规则,以使Databricks数据洞察可按业务量波动来增加和减少Task节点。操作步骤 登录 阿里云Databricks控制台。在顶部菜单栏处,根据实际情况选择地域(Region)和资源组...

机器学习开发示例

本文介绍如何使用阿里云 Databricks 数据洞察的Notebook进行机器学习开发。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建集群,具体请参见 创建集群。已使用OSS管理控制台创建 非系统目录存储空间,详情请参见 控制台创建存储...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用