idea生成jar包

_相关内容

量化使用

resource_reference{"proxima-ce-aliyun-1.0.2.jar"}-引用上传的 proxima-ce jar ,在左侧「业务流程——MaxCompute——资源」,右击刚刚上传的 jar ,选择「引用资源」即可生成该行注释 jar-resources proxima-ce-aliyun-1.0.2.jar-...

使用API在K8s集群中单批发布应用

本文介绍如何使用EDAS提供的Java SDK调用API在K8s集群中单批发布应用(JAR包、WAR包和镜像)。准备工作 单批发布应用前,您必须提前完成以下准备工作:确定应用部署地域,假设为 cn-hangzhou 。在EDAS K8s环境中创建应用。目前支持多种创建...

部署Java应用

您可以将Java应用打包成JAR包或WAR包,然后部署到SAE。操作步骤 在 SAE应用列表 中,在顶部选择目标地域和命名空间,点击 创建应用。选择应用版本。重要 轻量版 和 专业版 目前处于邀约测试阶段。未参与邀约测试的用户,创建的应用为 标准...

通过Spark-Submit命令行工具开发Spark应用

ossKeyId 否 Spark Jar应用需要的JAR包存储在本地路径时,需要配置ossKeyId、ossSecretId、ossUploadPath。ossKeyId、ossSecretId为阿里云账号或RAM用户的AccessKey ID和AccessKey Secret。RAM用户需具备AliyunOSSFullAccess权限。...

分布式部署

tar-zxvf ossimport-2.3.7.tar.gz-C$HOME/ossimport 解压后的文件结构如下:ossimport├─bin│├─console.jar#Console模块jar包│├─master.jar#Master模块jar包│├─tracker.jar#Tracker模块jar包│└─worker.jar#Worker模块jar包├...

CDH MR节点

创建CDH JAR资源 您可将任务JAR包上传至DataWorks,后续可通过CDH Spark任务实现对该JAR包的周期性调度。详情请参见 资源管理。可将JAR包通过本地上传的方式上传到JAR资源的存放目录下。单击 点击上传 按钮,上传JAR资源。选择 存储路径、...

创建和发布应用

在本地执行 mvn clean package 或者 mvn clean install 命令,在工程根目录下的 target 下打包生成一个 fat JAR 在 SOFAStack 控制台左侧导航栏,选择 经典应用服务 应用发布 发布包管理。找到步骤 1 创建的应用,然后单击右侧的 管理。...

创建和发布应用

在本地执行 mvn clean package 或者 mvn clean install 命令,在工程根目录下的 target 下打包生成一个 fat JAR 在 SOFAStack 控制台左侧导航栏,选择 经典应用服务 应用发布 发布包管理。找到步骤 1 创建的应用,然后单击右侧的 管理。...

Dataphin中代码任务运行jar包报错“Java heap space”

问题描述 代码任务中运行JAR包报错“Java heap space”,本地运行正常。Exception in thread"main"java.lang.OutOfMemoryError:Java heap space at org.apache.http.util.CharArrayBuffer. init (CharArrayBuffer.java:56)at org.apache....

ADB Spark节点

ADB Spark节点内容配置说明(Java/Scala语言类型)准备待执行文件(Jar)您需将示例Jar包上传至OSS中,以供后续在节点配置中执行该Jar包文件。准备示例Jar包。您可直接下载 spark-examples_2.12-3.2.0.jar 该示例Jar包,用于后续ADB Spark...

Spark Streaming作业配置

client-driver-memory 7G-executor-memory 5G-executor-cores 1-num-executors 32-class com.aliyun.emr.checklist.benchmark.SlsStreaming emr-checklist_2.10-0.1.0.jar project logstore accessKey secretKey 注意 如果作业JAR包保存在...

自定义标量函数(UDSF)

Flink运行环境仅支持JDK 8和JDK 11,如果Python作业中依赖第三方JAR包,请确保JAR包兼容。仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDSF开发 说明 Flink为您提供了Python...

常见问题排查

例如:执行 hadoop 命令或者任务出现如下错误时,表明 org/apache/hadoop/fs/PathFilter 相关的类不在Hadoop的运行环境中,该类所属的Jar包为 hadoop-common-x.x.x.jar,需要您下载该Jar包的正确版本,并将其置于所有Hadoop环境下的...

Hive内置函数

根据VVR版本选择兼容的Hive连接器JAR包(例如VVR 8.0.11版本和Hive 2.3.x版本对应的Hive连接器是flink-sql-connector-hive-2.3.9_2.12-1.17.2.jar),您可以前往Maven中央仓库下载 flink-sql-connector-hive-2.3.9_2.12/1.17.2、flink-sql-...

HBase使用OSS-HDFS服务作为底层存储

以下以解压 jindosdk-x.x.x-linux.tar.gz 为例,如使用其他版本的JindoSDK,请替换为对应的JAR包名称。tar-zxvf jindosdk-x.x.x-linux.tar.gz-C/usr/lib 说明 x.x.x表示JindoSDK JAR包版本号。配置 JINDOSDK_HOME。export JINDOSDK_HOME=...

配置Tomcat

在容器服务K8s集群或Serverless K8s集群中以WAR包或JAR包方式创建或部署应用时,您可以配置应用端口、应用访问路径以及最大线程数等参数信息。在创建应用时配置Tomcat 登录 EDAS控制台,在左侧导航栏,单击 应用管理 应用列表,在顶部菜单...

自定义表值函数(UDTF)

仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDTF开发 说明 Flink为您提供了Python UDX示例,便于您快速开发UDX。Flink Python UDX示例中包含了Python UDF、Python UDAF和Python ...

Tunnel SDK常见问题

使用Tunnel SDK上传数据时,编写完UDF打成JAR包后上传,对JAR包大小有要求吗?使用Tunnel SDK上传数据时,是否有分区数量限制?使用Tunnel SDK上传数据时,报错StatusConflict,如何解决?使用Tunnel SDK上传数据时,报错Blocks Not Match...

创建CDH Spark节点

准备工作:开发Spark任务并获取JAR包 在使用DataWorks调度CDH Spark任务前,您需要先在CDH中开发Spark任务代码并完成任务代码的编译,生成编译后的任务JAR包,CDH Spark任务的开发指导详情请参见 Spark概述。说明 后续您需要将任务JAR包...

开发ODPS MR任务

说明 关于mapreduce example.jar包内部的实现逻辑请参见 WordCount示例。在ODPS MR节点输入以下代码后运行。创建输入表。CREATE TABLE if not exists wc_in(key STRING,value STRING);创建输出表。CREATE TABLE if not exists wc_out(key ...

资源管理

MaxCompute Jar 编译好的Java JAR包,用于运行Java程序。后缀为.jar。MaxCompute Archive 仅支持将.zip、.tgz、.tar.gz 或.tar 为后缀的压缩文件上传为资源,通过资源名称的后缀区分压缩类型。MaxCompute File 支持将任意类型文件上传为...

自定义聚合函数(UDAF)

Flink运行环境仅支持JDK 8和JDK 11,如果Python作业中依赖第三方JAR包,请确保JAR包兼容。仅支持开源Scala V2.11版本,如果Python作业中依赖第三方JAR包,请确保使用Scala V2.11对应的JAR包依赖。UDAF开发 说明 Flink为您提供了Python UDX...

SAE支持安装字体吗?

方式二:在WAR包或JAR包中,将字体文件打包到Resource资源中加载。具体配置方法如下所示。配置指引 本文只介绍方式二。加载文件字体文件/指定字体类型为TrueType(适用于.ttf文件)/指定字体文件路径:/Font/simfang.ttf font=Font....

开发ODPS MR任务

说明 关于mapreduce example.jar包内部的实现逻辑请参见 WordCount示例。在ODPS MR节点输入以下代码后运行。创建输入表。CREATE TABLE if not exists wc_in(key STRING,value STRING);创建输出表。CREATE TABLE if not exists wc_out(key ...

如何进行WebSocket协议的压测

通过Apache JMeter和对应的插件编写脚本,并在PTS中上传这些脚本、插件JAR包和其他相关文件,即可发起压测。本文以JMeter WebSocket Samplers插件为例,主要介绍如何在本地使用Apache JMeter编写、调试压测脚本,以实现WebSocket协议的业务...

管理自定义连接器

为了避免JAR包依赖冲突,您还需要注意以下几点:Flink镜像和Pom依赖的Flink版本请保持一致。请不要上传Runtime层的JAR包,即在依赖中添加 scope provided/scope。其他第三方依赖请采用Shade方式打包,Shade打包详情参见 Apache Maven Shade...

在文件存储 HDFS 版上使用Presto

Presto使用maven-shade-plugin插件打包,对引入的Hadoop依赖进行了重命名,文件存储 HDFS 版 Java SDK和Hadoop共用了protobuf-xxx.jar包,Presto通过Hive Metastore读取 文件存储 HDFS 版 上的数据时,文件存储 HDFS 版 获取不到Presto重...

服务限流常见问题

本文汇总梳理了限流功能使用过程中遇到的常见问题。为什么服务限流配置后没有效果?排查步骤如下:确认 SOFA 的版本大于 3.3.0,如果低于这个版本,请升级版本。...解决方案:在进行打包业务程序时,确保引入 Guardian 的 JAR

如何使用Java SDK快速删除存储空间及其中的历史版本

本文是基于OSS的Java SDK来实现直接完全删除存储空间,您可以直接通过代码进行删除,也可以直接运行JAR包来删除存储空间,同时该代码也实现了只删除旧版本数据保留最新版本数据的功能。详细信息 说明 如果您对实例或数据有修改、变更等风险...

SDK概述

emr-tablestore:支持Hadoop、Hive、Spark与TableStore数据源的交互,使用时需要打进作业JAR包。emr-mns_2.11:支持Spark读MNS数据源,使用时需要打进作业JAR包。emr-ons_2.11:支持Spark读ONS数据源,使用时需要打进作业JAR包。emr-...

MaxCompute UDF(Java)常见问题

解决措施:原因一的解决措施:检查JAR包的正确性,并确认JAR包中已经包含需要的类,重新打包并上传至MaxCompute项目。更多打包上传操作,请参见 打包、上传及注册。原因二的解决措施:将MaxCompute UDF依赖的第三方包作为资源上传至...

pom.xml配置

打包部署说明 SOFABoot Web 工程在 Web 模块中配置 构建(build),使用 spring-boot-maven-plugin 作为构建工具并在工程根目录的 target 下生成一个 fat JAR(.jar。该 fat JAR 是一个可部署单元,有本地和云端 2 种部署方式:本地...

MaxCompute MR节点

说明 关于 mapreduce example.jar 内部的实现逻辑请参见 WordCount示例。在MaxCompute MR节点输入以下示例代码。创建输入表。CREATE TABLE IF NOT EXISTS wc_in(key STRING,VALUE STRING);创建输出表。CREATE TABLE IF NOT EXISTS wc_out...

制作 SOFABoot 应用的 Docker 镜像

编写 Dockerfile 文件 Docker 提供了 Dockerfile 格式的文件来构建应用镜像,创建一个 Spring Boot 应用的 Dockerfile:FROM openjdk:8-jdk-alpine VOLUME/tmp/应用 JAR 的名称必须遵循 artifactId-version 的格式 COPY sofaboot-docker-...

通过Spark Streaming作业处理Kafka数据

步骤二:获取JAR包并上传到DataLake集群 获取JAR包(spark-streaming-demo-1.0.jar)。上传JAR包至DataLake集群Master节点的/home/emr-user 路径下。步骤三:在DataFlow集群上创建Topic 本示例将创建一个名称为test的Topic。登录DataFlow...

单批发布应用

JAR包部署:重新上传JAR包或者输入新部署JAR包的地址,并完成相关环境和参数设置。ZIP包部署:重新上传ZIP包或者输入新部署ZIP包的地址,并完成相关环境和参数设置。镜像:在 配置镜像 区域,单击 修改镜像,在 修改镜像 面板,重新选择...

Flink Python参考

使用Python依赖 通过以下场景为您介绍如何使用Python依赖:使用自定义的Python虚拟环境 使用第三方Python包 使用JAR包 使用数据文件 使用自定义的Python虚拟环境 方式一:在DataFlow集群中的某个节点创建Python虚拟环境 在DataFlow集群的...

Spark常见报错

解决方法:检查作业配置的JAR包,需确保JAR包中有合适的JDBC驱动程序。同时访问多种JDBC数据源时,JAR包中需有所有数据源相关的JDBC驱动程序。例如:同时访问Hive和RDS MySQL数据源,JAR包中应包含Hive数据源和RDS MySQL数据源的JDBC驱动。...

社区版CDC

说明 您也可以前往 Maven中央仓库 下载对应的JAR包。登录 实时计算控制台。单击目标工作空间 操作 列下的 控制台。在左侧导航栏,单击 连接器。在 连接器 页面,单击 创建自定义连接器,并上传第2步中下载的JAR文件。详情请参见 管理自定义...

使用Python依赖

您可以在Flink Python作业中使用自定义的Python虚拟环境、第三方Python包、JAR包和数据文件等,本文为您介绍如何在Python作业中使用这些依赖。背景信息 本文通过以下场景为您介绍如何使用Python依赖:使用自定义的Python虚拟环境 使用第三...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用