spark sql交互式查询

_相关内容

Notebook-航空公司数据分析示例

读取OSS数据、打印schema,创建TempView Load OSS data%spark val sparkDF=spark.read.format("csv").option("header","true").option("inferSchema","true").load("oss:/databricks-demo-hangzhou/airline_statistic_usa.csv")Print ...

项目管理

创建Databricks 数据洞察集群后,您可以在数据开发中创建项目,并在项目中进行作业的编辑和工作流的调度。新建项目之后,您可以对项目进行管理,为项目关联集群资源、添加项目成员以及设置全局变量。前提条件 已创建集群,详情请参见 集群...

按时间伸缩规则配置

配置伸缩规则 在Databricks数据洞察中开启弹性伸缩时,如果选择按时间配置伸缩规则,则根据以下说明配置相关参数即可 伸缩规则分为扩容规则和缩容规则。集群关闭弹性伸缩功能后,所有规则会被清空,再次开启弹性伸缩功能时,需要重新配置...

表实用程序命令

如果您确定在此表上执行的操作没有超过计划指定的保留时间间隔,你可以通过设置ApacheSpark属性spark.databricks.delta.retentionDurationCheck.enabled设置为false来关闭此安全检查。选择的时间间隔,必须比最长的并发事务长,也必须比...

通过文件管理优化性能

提高交互式查询性能 Delta Engine提供了一些其他机制来提高查询性能。管理数据实效性 在每个查询开始时,Delta表会自动更新到表的最新版本。当命令状态报告:Updating the Delta table's state时,可以在笔记本中观察到这个过程。但是,在...

通过JDBC连接Spark Thrift Server提交Spark作业

Enter username for jdbc:hive2:/ip:10001/beijing_dlf_db_test:username Enter password for jdbc:hive2:/ip:10001/beijing_dlf_db_test:*查询数据,返回结果如下:0:jdbc:hive2:/ip:10001/beijing_d>select*from table_name limit 10;...

ORC文件

读取orc数据%spark val inputPath="oss:/databricks-data-source/datas/orc_data"val dataDF=spark.read.format("orc").option("header","true").option("inferSchema","true").option("mode","FAILFAST").load(inputPath)dataDF.show(3)...

表流读写

说明 详细内容请参考Databricks官网文章:表流读写 有关演示这些功能的Databricks笔记本,请参阅 入门笔记本二。Delta Lake通过readStream和writeStream与Spark结构化流式处理深度集成。Delta Lake克服了许多流式处理系统和文件相关的常见...

表版本控制

您还可以通过设置SQL配置来设置默认协议版本:spark.databricks.delta.protocol.minWriterVersion=2(default)spark.databricks.delta.protocol.minReaderVersion=1(default)要将表升级到较新的协议版本,请使用以下DeltaTable....

约束条件

说明 详细内容请参考Databricks官网文章:约束条件 注意 在Databricks Runtime 7.4及更高版本中可用。Delta表支持标准的SQL约束管理子句,以确保自动验证添加到表中的数据的质量和完整性。当违反约束时,Delta Lake会抛出一个...

入门笔记本

Note 链接地址:Databricks Delta Quickstart(Python)Delta Lake Quickstart Scala笔记本 Note 链接地址:Databricks Delta Quickstart(Scala)Delta Lake快速入门SQL笔记本 Note 链接地址:Databricks Delta Quickstart(SQL)说明 ...

并发控制

说明 详情请参考Databricks官网文章:并发控制。Delta Lake在读取和写入之间提供ACID事务保证。这意味着:跨多个集群的多个编写器可以同时修改表分区,并查看表的一致性快照视图,并且这些写入操作将具有序列顺序。即使在作业过程中修改了...

查询节点实例详情

调用DescribeFlowNodeInstance接口,查询节点实例(工作流节点实例和作业运行节点实例)详情。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 ...

Bloom过滤器索引

布隆过滤器是一项非常有用的Data-skipping技术。...禁用布隆过滤器索引 Databricks默认启用布隆过滤器索引,如果需要禁用布隆过滤器索引,可以通过设置配置项spark.databricks.io.skipping.bloomFilter.enabled 为false实现。

查询工作流列表

调用ListFlow接口,查询工作流列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ListFlow ...

隔离等级

Databricks上的Delta Lake支持两种隔离级别:Serializable和WriteSerializable。说明 详细内容可参考Databricks官网文章:隔离等级 Serializable:最强的隔离级别。它确保提交的写入操作和所有读取都是可序列化。只要有一个串行序列一次...

最佳实践

说明 详情请参考Databricks官网文章:最佳实践 本文介绍了使用Delta Lake时的最佳做法。提供数据位置提示 如果您通常希望在查询谓词中使用一个列,并且该列具有较高的基数(即,大量不同的值),则使用Z-ORDER-BY。Delta-Lake根据列值自动...

API概览

删除数据开发项目 调用 DeleteFlowProject接口,删除数据开发项目 查询工作流信息 调用DescribeFlow接口,查询工作流信息。查询作业信息 调用DescribeFlowJob接口,查询作业信息。查询项目详情 调用 DescribeFlowProject 接口,查询项目...

查询数据开发中可用的集群列表

调用ListFlowClusterAll接口,查询数据开发可用的集群列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 ...

EMR HDFS

本文介绍如何使用Databricks 读写EMR HDFS文件系统数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建 EMR集群,具体参见 EMR集群创建 已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问Notebook。接入EMR ...

查询项目中可用的集群列表

调用ListFlowCluster接口,查询项目中可用的集群列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action ...

获取目录树

Keyword String 否 SQL 检索关键字 CategoryId String 否 FC-5BD9575E3462*STEP模式下:上级目录id,获取根目录id时不设置 LOCATION模式下:需要定位的目录id 返回数据 名称 类型 示例值 描述 Data String {"node":{"categoryType":"FOLDER...

Java库管理

使用NoteBook引入Java依赖的三种方式 spark.jars spark.jars.packages spark.files 说明 用户做好配置之后,在启动spark任务之前(即第一次运行spark、pyspark、sparkR或者sparkSQL相关代码之前)运行spark.conf段落即可对将要启动的spark...

OSS

本文介绍如何使用Databricks 读写 OSS文件系统数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建集群,具体请参见 创建集群。已使用OSS管理控制台创建 非系统目录存储空间,详情请参见 创建存储空间。警告 首次使用DDI产品...

查询工作流列表

调用ListFlows接口,查询工作流列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ...

JindoFS

本文介绍如何使用Databricks 读写JindoFS数据数据。前提条件 通过主账号登录 阿里云 Databricks控制台。已创建 EMR集群,具体参见 EMR集群创建 已创建DDI集群,具体请参见 DDI集群创建。创建集群并通过knox账号访问NoteBook。重要 版本...

查询作业列表

调用ListFlowJobs接口查询作业列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String 是 ...

文本文件

1,a,10000,11-03-2019,pune 2,b,10020,14-03-2019,pune 3,a,34567,15-03-2019,pune tyui,a,fgh-03-2019,pune 4,b,10020,14-03-2019,pune%spark val path="oss:/databricks-data-source/datas/dataTest.csv"val dtDF=spark.read.textFile...

创建数据开发作业

Type String 是 SPARK 作业类型,取值如下:SPARKspark作业,使用spark-submit提交 ZEPPELIN:提交zeppelin notebook,使用该作业类型,作业的params参数为notebook id SPARK_STREAMING:提交spark流处理作业 FailAct String 否 STOP ...

查询作业运行实例列表

调用ListFlowJobHistory接口,查询作业的运行实例列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action ...

优化链接性能

Delta Lake on Databricks可优化范围和skew连接。Range连接优化需要根据您的查询模式进行调整,Skew连接可以通过skew提示变得高效。请参阅以下文章以了解如何充分利用这些连接优化:Range Join optimization Skew Join optimization 说明 ...

工作流调度Zeppelin Notebook

Databricks数据开发中,您可以在项目空间的作业编辑中创建一组有依赖的 Zeppelin 作业,然后创建工作流,按照依赖次序定义执行顺序,Databricks工作流支持基于有向无环(DAG)并行执行大数据作业。前提条件 通过主账号登录 阿里云 ...

查询作业信息

返回数据 名称 类型 示例值 描述 Type String SPARK 作业的类型,可能的取值有:SPARKSPARK_STREAMING,ZEPPELIN LastInstanceId String FJI-0BA97D0BB8F3*最后一次执行的实例ID。EnvConf String {"key":"value"} 环境变量设置。...

查询资源标签

调用ListTagResources,查询一个或多个Databricks集群已绑定的标签列表,或者根据一组标签查询被改组标签绑定的资源。调用该接口时注意以下信息:请求中至少指定一个参数:ResourceId.N、Tag.N(Tag.N.Key与Tag.N.Value),以确定查询对象...

查询工作流实例列表

调用ListFlowInstance接口,查询工作流实例列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String ...

修改工作流

返回数据 名称 类型 示例值 描述 Data Boolean true 返回执行结果,包含如下:true:成功 false:失败 RequestId String 243D5A48-96A5-4C0C-8966-93CBF65635ED 请求ID。示例 请求示例 http(s):/[Endpoint]/?Action=ModifyFlowForWeb&...

查询项目详情

调用 DescribeFlowProject 接口,查询项目详情。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String ...

查询项目用户信息

调用ListFlowProjectUser接口,查询项目用户列表。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 名称 类型 是否必选 示例值 描述 Action String...

工作流使用案例

Databricks数据开发中,您可以在项目空间的作业编辑中创建一组有依赖的作业,然后创建工作流,按照依赖次序定义执行顺序,Databricks工作流支持基于有向无环(DAG)并行执行大数据作业。前提条件 通过主账号登录 阿里云 Databricks控制台...

DescribeClusterV2

调用 DescribeClusterV2接口,查询集群的基本信息,包括:付费、ECS机器概况和DDI服务列表等。调试 您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。请求参数 ...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用