场景描述 从第三方云平台或线下IDC服务器上采集 日志写入到阿里云日志服务,通过日志服务 进行数据分析,帮助提升运维、运营效率, 建立DT 时代海量日志处理能力。 针对未使用其他日志采集服务的用户,推荐 在他云或线下服务器安装logtail采集并使用 Https安全传输;针对已使用其他日志采集 工具并且已有日志服务需要继续服务的情 况,可以通过Log producer SDK写入日志 服务。 解决问题 1.第三方云平台或线下IDC客户需要使用 阿里云日志服务生态的用户。 2.第三方云平台或线下IDC服务器已有完 整日志采集、处理及分析的用户。 产品列表 E-MapReduce 专有网络VPC 云服务器ECS 日志服务LOG DCDN
编写完成 的代码从我提供的 git仓库中获取。步骤1 使用 git clone git@code.aliyun.com:best-practice/kafka-spark-sls.git 命令下载 作业源码(前面下载过略过这步)。步骤2 使用 IDE(本例采用 IDEA)打开源码,找到 SampleProducerWithCallback这个类(这个作业是基于 Log producer 的 sample code修改的)。步骤3 找到 ...