SQL

#SQL#

已有10人关注此标签

内容分类

游客d5qj4ay326xoo

数据库不能附加怎么办

SQL2005数据库附加不成功

1279197839238012

如何可以设置 不被人入侵SQL数据库

发现游戏老是被人删数据库 又被入侵

游客3lwcf4wf7v7iq

阿里云mongodb字符串的数字求和sql怎么写?

阿里云mongodb字符串的数字求和sql怎么写?对refundAmount进行求和{ "_id" : "fde917136e0413ce17220cf0f1bb615465", "transactionId" : "4ab94f611ec45640f89a161e3738b537f1", "uniqueId" : "60002019322713511032171", "refundId" : "126", "merchantRefundId" : null, "tradeTime" : "2019-03-07 13:51:10", "refundTime" : "2019-03-08 10:03:13", "currency" : "JPY", "amount" : "16244", "refundAmount" : "16244", "tradeStatus" : "SUCCESS", "refundStatus" : "3", "chargebackStatus" : "UNFACHARGEBACK", "remark" : null, "port_status" : "refund", "merchantNo" : "0021020", "update_time" : "2019-06-17 21:51:03" },...

游客izljdlkgbdwfc

flink sql 支持checkpoints吗?

使用flink sql进行实时计算(部署模式是on yarn)。想用到checkpoint,在flink-conf.yaml配置了: state.backend: filesystemstate.checkpoints.dir: hdfs:///flink/flink-checkpointsstate.savepoints.dir: hdfs:///flink/flink-savepointsstate.checkpoints.num-retained: 10 现在有两个问题:1.checkpoint在hdfs只在初始的时候生成了一个文件夹2.使用savepoint无法记录数据状态:如:简单的wordcount无法记录累加值。 想请问大神sqlclient的checkpoints是不是没有像代码那些完全开放。如果想实现这个功能是不是要进行二次开发。感谢

游客iwhrjhvjoyqts

通过spark-thriftserver读取hive表执行sql时,tasks 数量怎么设置

我在使用spark-thriftserver的方式,通过beeline执行sql的时候,thriftserver会扫描所查询hive表的所有分区(hdfs上面的路径)然后有多少个路径,就会自动生成多少个task,这个task的数量可以调整吗?或者这个流程怎么优化?

小文文文

请教一个范围查询的问题

表结构 CREATE TABLE IF NOT EXISTS api_stats ( app_name text, -- 目标应用 -- 被其它应用访问数据 count int, -- 被访问次数 err_count int, -- 被访问错误数 duration int, -- 被访问总耗时 max_duration int, -- 最大访问耗时 min_duration int, -- 最小访问耗时 satisfaction int, -- 满意 tolerate int, -- 可容忍 api text, -- 目标应用被访问的api input_date bigint, PRIMARY KEY (app_name, api, input_date) ) WITH gc_grace_seconds = 10800 AND default_time_to_live = 2592000; CREATE CUSTOM INDEX IF NOT EXISTS ON api_stats (input_date) USING 'org.apache.cassandra.index.sasi.SASIIndex' WITH OPTIONS = {'mode': 'SPARSE'}; 查询语句 select * from api_stats where app_name='tsp' and input_date> 1560215045 and input_date<1560474245; 问题:有时候可以查到,有时候查不到。

社区小助手

spark Sql都是client模式,而有时driver需要较多的资源,多用户共享一台机器时,client物理机资源可能会成为瓶颈,这个你们有什么解决方案吗

spark Sql都是client模式,而有时driver需要较多的资源,多用户共享一台机器时,client物理机资源可能会成为瓶颈,这个你们有什么解决方案吗

游客v5iscfxtv4tju

在使用大数据开发套件中odps_sql,怎么实现一个任务,比如从原始表抽取12月份的数据,插入到新的表分区12月

才使用odps,之前一直用pyspark做数据清洗,之前的做法,就是利用一层循环,依次读取数据,在依次写入分区表,但是这里,只能写sql进行操作,只能一个分区一个分区的执行,有没有类似于循环结构体的这种写法,求教

李博 bluemind

求助,springboot中使用配置可以在创建data-source时读取resources下的sql脚本文件,但是 我在代码中需要动态创建数据库并创建data source 怎么样才能够在每次创建data-source

时也读取脚本在对应的库中创建表呢这里的setSchema.sql只能设置Schema的名字 但是并不会运行脚本文件有人知道怎么回事吗? 本问题来自云栖社区【阿里Java技术进阶2群】。https://yq.aliyun.com/articles/690084 点击链接欢迎加入社区大社群。

游客886

各位谁知道 \d+ tablename 命令的Partitions:部分用SQL语句怎么查

各位谁知道 d+ tablename 命令的Partitions:部分用SQL语句怎么查本问题来自云栖社区【PostgreSQL技术进阶社群】。https://yq.aliyun.com/articles/690084 点击链接欢迎加入社区大社群。

真费劲tmj

ADS数据库 WHERE语句问题

问题描述: SQL: select t.a,t.b from table t where t.c; 今天在开发过程中,在ADS执行了这条SQL, ①在c为某几列时可执行,可以执行返回 a,b两列数据, c不是布尔类型。 ②c为其余列时报错。 ③使用mpp引擎时提示 where clause must evaluate to a boolean actual type varchar。 想咨询一下有没有大佬了解造成这种现象的原因?

游客lplm6xso3kx3e

使用spark streaming连接loghub报错,是什么问题

"main" java.lang.ClassNotFoundException: Failed to find data source: loghub. Please find packages at http://spark.apache.org/third-party-projects.html at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:652) at org.apache.spark.sql.streaming.DataStreamReader.load(DataStreamReader.scala:159) at com.aliyun.emr.examples.sql.streaming.RealtimeComputation.main(RealtimeComputation.java:51) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.spark.deploy.JavaMainApplication.start(SparkApplication.scala:52) at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:896) at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:198) at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:228) at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:137) at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) Caused by: java.lang.ClassNotFoundException: loghub.DefaultSource at java.net.URLClassLoader.findClass(URLClassLoader.java:381) at java.lang.ClassLoader.loadClass(ClassLoader.java:424) at java.lang.ClassLoader.loadClass(ClassLoader.java:357) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$27$$anonfun$apply$15.apply(DataSource.scala:635) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$27$$anonfun$apply$15.apply(DataSource.scala:635) at scala.util.Try$.apply(Try.scala:192) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$27.apply(DataSource.scala:635) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$27.apply(DataSource.scala:635) at scala.util.Try.orElse(Try.scala:84) at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:635)

云攻略小攻

2倍以上性能提升!史上最适合企业应用场景的开源关系型数据库MySQL8.0重磅袭来,还等什么?

MySQL是开源生态最流行的数据库之一,MySQL 8.0是近几年MySQL最重要的升级。 阿里云一直紧跟MySQL开源社区的发展,5月29日将在国内首家提供MySQL 8.0云数据库服务,全球同步发售。此次阿里云数据库团队推出的MySQL 8.0版本是SQL开源数据库产品史上的里程碑,预示着开源数据库更多的朝企业级需求与功能上的演进,也表明阿里云数据库团队保证企业级数据库的服务与体验均业内领先的决心与行动。 除了官方在 MySQL 8.0 推出的全新功能外,AliSQL 沉淀了许多在 Alibaba 集团电商业务和云上几十万客户在使用 MySQL 过程中遇到的问题和需求,以此来加固AliSQL, 提升 AliSQL 的性能和稳定性。 从MySQL 5.7 到 8.0,官方跳跃了 Major Version 版本号,在 MySQL 8.0 上做了许多重大更新,在企业级数据库的路上大步前行,全新 Data Dictionary 设计,支持 Atomic DDL,全新的版本升级策略,安全和账号管理加强,InnoDB 功能增强等。 目前已经有大量用户开始使用了阿里云RDS MySQL8.0服务,这次发布将会推进业界MySQL技术加快升级到MySQL 8.0。 MySQL 8.0 升级发布会:持续报名中快速查看:2倍以上性能提升,SQL窗口函数、JSON扩展语法等企业级新功能震撼上市! 快来参与话题,各种奖品等你拿~ 1、您对于新上线的MySQL 8.0,最期待的新功能是什么?2、您在使用阿里云RDS for MySQL作为您数据库的时候,最大的运维痛点是什么?如果您还没有使用过阿里云数据库,您希望在使用中别出现什么类型的运维问题?3、 您希望阿里云RDS for MySQL数据库能提供什么现在没有的功能,满足您最重要的需求?

bug_developer

阿里云ECS学生服务器上tomcat与MySQL的连接

这是一个毕业设计项目,我在tomcat中使用servlet去读写同一台ecs服务器上的数据库MySQL 。我使用了tomcat内置的DBCP连接池,在项目的META-INF下配置context.xml配置文件,然后在WEB-INF下的web.xml中进行了配置。context.xml的配置如下:<?xml version="1.0" encoding="UTF-8"?> <Resource name="jdbc/huoyundataSource" auth="Container" type="javax.sql.DataSource" username="root" password="856368" maxIdle="30" maxWaitMillis="1000" maxTotal="100" driverClassName="com.mysql.jdbc.Driver" url="jdbc:mysql://localhost:3306/huoyundatabase?useServerPrepStmts=true&cachePrepStmts=true" /> web.xml的配置如下: <?xml version="1.0" encoding="UTF-8"?> xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://xmlns.jcp.org/xml/ns/javaee http://xmlns.jcp.org/xml/ns/javaee/web-app_3_1.xsd" version="3.1" metadata-complete="true"> Tomcat Test <description>DB Connection</description> <res-ref-name>jdbc/huoyundataSource</res-ref-name> <res-type>javax.sql.DataSource</res-type> <res-auth>Container</res-auth> 然后读写数据库的servlet代码如下: package myservlet; import java.io.IOException;import java.io.PrintWriter;import java.sql.Connection;import java.sql.DriverManager;import java.sql.PreparedStatement;import java.sql.ResultSet;import java.sql.Statement; import javax.naming.Context;import javax.naming.InitialContext;import javax.servlet.ServletException;import javax.servlet.annotation.WebServlet;import javax.servlet.http.HttpServlet;import javax.servlet.http.HttpServletRequest;import javax.servlet.http.HttpServletResponse;import javax.sql.DataSource; /** Servlet implementation class orderInServletTest*/ @WebServlet("/orderInServletTest")public class orderInServletTest extends HttpServlet { private static final long serialVersionUID = 1L; /** * @see HttpServlet#HttpServlet() */ public orderInServletTest() { super(); // TODO Auto-generated constructor stub } /** * @see HttpServlet#doGet(HttpServletRequest request, HttpServletResponse response) */ protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { // TODO Auto-generated method stub //response.getWriter().append("Served at: ").append(request.getContextPath()); request.setCharacterEncoding("utf-8"); response.setCharacterEncoding("utf-8"); PrintWriter out = response.getWriter(); try { Context ctx=new InitialContext(); DataSource ds=(DataSource)ctx.lookup("java:comp/env/jdbc/huoyundataSource"); Connection con=ds.getConnection(); String sql="insert into ordertest(USERID,USERPHONE,FIRSTADDR)values(?,?,?)"; PreparedStatement sta = (PreparedStatement)con.prepareStatement(sql); sta.setString(1, "chen"); sta.setString(2, "15980590666"); sta.setString(3, "zhenzhou"); sta.executeUpdate(sql); sta.close(); con.close(); } catch (Exception e) { } } /** * @see HttpServlet#doPost(HttpServletRequest request, HttpServletResponse response) */ protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { // TODO Auto-generated method stub doGet(request, response); } } tomcat使用的版本为9.0,MySQL用的是8.0的版本,servlet可以通过外网正常的访问到,但就是无法将数据插入到MySQL数据库中。 请问,这是哪里可能出现了问题?

游客ezva5j2mt7ino

geomesa 没走id索引直接走了z3

在做geomesa-hbase-spark的时候使用简单的sql查询对id进行查询发现并没有走我创建的id索引表而是直接走了z3然后我的查询语句是__fid__ = 1277

社区小助手

请教一下,spark sql 执行比如select * from table where day >='2018-05-04' 后面限定过滤后的具体partition访问 源码里是在哪个阶段哪个函数获取的

请教一下,spark sql 执行比如select * from table where day >='2018-05-04' 后面限定过滤后的具体partition访问 源码里是在哪个阶段哪个函数获取的

游客886

怎么知道当前执行得存储过程中,目前正在执行的SQL语句? 从pg_stat_activity中只能查到 类似 call sp_procedure() 的 调用语句,无法看到其中当前正在执行的语句?

怎么知道当前执行得存储过程中,目前正在执行的SQL语句?从pg_stat_activity中只能查到 类似 call sp_procedure() 的 调用语句,无法看到其中当前正在执行的语句?本问题来自云栖社区【PostgreSQL技术进阶社群】。https://yq.aliyun.com/articles/690084 点击链接欢迎加入社区大社群。