日志格式

_相关内容

CSV格式

日志服务将日志投递到OSS后,支持存储为不同的文件格式。本文介绍CSV格式。参数配置 在 创建OSS投递任务(新版)时,选择 存储格式 为 csv,对应的参数配置如下所示。参数说明如下所示。更多信息,请参见 CSV标准 和 postgresql CSV说明。...

上下文查询

功能优势 不侵入应用程序,无需改动日志文件格式。在日志服务控制台上查看任意服务器、文件的指定日志的上下文信息。无需登录服务器查看日志的上下文。结合事件发生的时间线索,在日志服务控制台指定时间段快速定位可疑日志后再进行上下文...

处理日期时间

如对于用户自定义的特殊日期格式,dt_parse 等智能转换函数无法自动解析日志,需要使用 dt_strptime 函数来进行解析指定格式。说明 了解更多日期时间处理和转换函数,请参见 日期时间函数 和 转换函数。日期时间对象和Unix时间戳的相互转换...

OSS访问日志

阿里云对象存储(OSS)联合日志服务推出OSS访问日志实时查询功能,帮助您完成OSS的操作审计、访问统计、异常事件回溯和问题定位等工作。本文介绍OSS日志实时查询功能相关的功能优势、资产...了解OSS访问日志数据格式请参考文档 日志字段详情。

时区格式

本文介绍定时SQL功能所涉及的时区格式。时区格式设置 定时SQL功能中的时区格式为 {±偏移小时数}{分钟数}。偏移小时数的取值范围:[-12,+14]。分钟数的取值范围:00、30、45。整体取值范围:[-1200,+1400]重要 小时和分钟都必须为两位数字...

数据模型

实际使用场景中,日志格式多样。为了帮助理解,以下以一条Nginx原始访问日志如何映射到日志服务中日志数据模型为例说明。假设用户Nginx服务器的IP地址为10.10.10.1,如下为其一条原始日志:10.1.1.1-[01/Mar/2012:16:12:07+0800]"GET/...

使用Java SDK写入日志

写入日志格式为 LogItem。source String 否 发送源。说明 如果留空或没有指定,该字段将被赋予producer所在宿主机的IP。shardHash String 否 日志写入位置的HashID。代码示例 import com.aliyun.openservices.log.Client;import ...

时区格式

本文介绍OSS投递(新版)所涉及的时区格式。该时区主要用于格式化时间。时区格式设置 OSS投递(新版)中的时区格式为 {±偏移小时数}{分钟数}。偏移小时数的取值范围:[-12,+14]。分钟数的取值范围:00、30、45。整体取值范围:[-1200,+...

什么是Logtail

由于日志服务中的日志数据模型要求每条日志必须有精确的时间戳信息,Logtail提供了自定义的日志时间格式,方便您从不同格式日志数据中提取必要的日志时间戳信息。自动同步Logtail采集配置 您在日志服务控制台上新建或更新Logtail采集配置...

使用Kafka协议上传日志

配置示例 示例中将日志输出格式(Format)设置为JSON,除此之外,还支持Command、Graphite类型。更多信息,请参见 Collectd配置文档。示例中用到的 SLS_开头的参数配置请参见 配置方式。LoadPlugin write_kafka Plugin write_kafka ...

索引模式查询与分析

格式为:查询语句,例如 status:200。查询条件可使用关键词、数值、数值范围、空格、*等。如果为空格或*,表示无过滤条件。更多信息,请参见 查询语法与功能。重要 查询语句中建议不超过30个条件。分析语句 如需使用分析功能,则必须将日志...

导入Amazon S3文件

压缩格式 待导入的S3文件的压缩格式日志服务根据对应格式进行解压并读取数据。编码格式 待导入的S3文件的编码格式。目前仅支持UTF-8和GBK。检查新文件周期 如果目标S3文件路径中不断有新文件产生,您可以根据需求设置 检查新文件周期。...

数据加工概述

具体说明如下:数据规整:针对混乱格式日志进行字段提取、格式转换,获取结构化数据以支持后续的流处理、数据仓库计算。数据富化:对日志(例如订单日志)和维表(例如用户信息表)进行字段连接(JOIN),为日志添加更多维度的信息,用于...

JSON格式

日志服务将数据投递到OSS后,支持存储为不同的文件格式。本文介绍JSON格式。参数配置 在 创建OSS投递任务(新版)时,如果选择 存储格式 为 json,对应的参数配置如下所示。参数 说明 是否投递tag 是否投递日志tag字段,例如_tag_:abc。OSS...

保留字段

日志内容中不存在该字段,无需设置索引。投递MaxCompute的日志分区时间列,由_time_计算得到。该字段可用于日志投递MaxCompute时设置日期格式分区列。更多信息,请参见 投递日志到MaxCompute(旧版)。extract_others_字符串格式,可反序列...

数据加工(新版)概述

数据规整与信息提取:针对混乱格式日志进行字段提取、格式转换,获取结构化数据以支持下游的流处理、数据仓库分析。数据流转与分发:不同类型的日志统一采集至一个Logstore,根据日志特征将来自不同服务模块或者业务组件的日志分发给对应...

查询和分析JSON日志

前提条件 为了进行后续的日志分析,您需要先 采集JSON格式文本日志。步骤一:创建索引 登录 日志服务控制台。在Project列表区域,单击目标Project。在 日志存储 日志库 页签中,单击目标Logstore。在Logstore的查询和分析页面的右上角,...

过滤VPC流日志公网流量

在专有网络VPC控制台上开通流日志功能后,流日志将被采集到日志服务中,您可以通过日志服务对流日志进行查询、分析和排查网络故障。本文介绍通过日志服务数据加工对流日志进行公网流量过滤的操作方法。前提条件 已开通VPC流日志功能。具体...

查看Trace数据详情

接入Trace数据后,您可以查看Trace数据详情,包括Trace轨迹图、Span数据详情等。操作步骤 登录 日志服务控制台。打开Trace分析页面。在 日志应用 区域,单击 Trace服务。在Trace实例列表中,单击目标实例。...日志:Span数据相关的日志内容。

使用SPL采集文本日志

输出结果预览 {"content":"this is a test log","service":"A"} Json解析+丢弃字段对比 日志样例:{"key1":123456,"key2":"abcd"} Json解析+丢弃字段 SPL 采集JSON格式文本日志。丢弃字段。SPL语句为:*|parse-json content|project-away ...

时间格式

在创建导入任务时,需设置对应时间字段的格式。本文介绍时间格式的语法和示例。时间格式语法 字符 说明 示例 G 纪元标记 AD y 年份 2001 M 月份 July、07 d 日期 10 h 小时,取值:1~12(AM、PM)12 H 一天中的小时,取值:0~23 22 m 分钟 ...

数据转换类插件

数据转换类插件用于将原始日志进行格式转换、IP地理化、日志转指标/链路等场景。数据安全插件概览 日志服务提供以下多种类型的数据转换类插件,请按需要进行选择。插件名称 类型 功能说明 转换IP地址 拓展 将IP转为地理位置(国家/省/市/...

UpdateLogtailPipelineConfig-更新Logtail流水线配置

AppendingLogPositionMeta bool 否 false false 是否在日志中添加该条日志所属文件的元信息,包括_tag_:_inode_字段和_file_offset_字段。AllowingIncludedByMultiConfigs bool 否 false false 是否允许当前配置采集其它配置已匹配的文件。...

CreateLogtailPipelineConfig-创建Logtail流水线配置

AppendingLogPositionMeta bool 否 false false 是否在日志中添加该条日志所属文件的元信息,包括_tag_:_inode_字段和_file_offset_字段。AllowingIncludedByMultiConfigs bool 否 false false 是否允许当前配置采集其它配置已匹配的文件。...

非定制的通知内容

日志服务在发送告警通知时,除了发送您配置的通知内容外,还会发送内置的通知内容(除Webhook外),该部分内容不可定制。短信 短信通知的非定制内容如下:日志服务告警:共有${count}条告警。告警详情为:${details} 例如您配置的短信通知...

字段处理类插件

key1":"xx""val_key2":"false""val_key3":"123.456""value_key4_inner1":"1""value_key4_inner2":"false"CSV模式 通过CSV模式解析CSV格式日志。表单配置方式 参数说明 配置 处理器类型 为 提取字段(CSV模式),相关参数说明如下表所示。...

添加表格值映射

效果概览 查询和分析:可以在控制台查询和分析日志,例如日志检索、日志聚合、日志统计等。添加统计图表:每个仪表盘由多个统计图表组成,每个图表实际是一个或多个查询分析语句。添加值映射:将表格中的字符串类型转换成数字。步骤一:...

网关服务端日志

日志路径:~/logs/gateway/gateway-threadpool.log 日志打印时间 线程名 活动线程数 当前线程池的线程数 创建过的最大线程数量 核心线程数 最大线程数 任务队列容量 剩余队列容量 格式:时间[线程名,ActiveCount,PoolSize,LargestPoolSize,...

开通日志分析功能

将短信服务的日志查询结果导出到本地,即支持下载本页日志(CSV格式)或全部日志(TXT格式)到本地,操作步骤请参见 导出日志。对于短信服务的日志,进行告警与通知、实时订阅与消费、数据投递、以及对接可视化服务等高级操作,操作步骤请...

如何在日志样例中设置不可见字符

背景信息 如果需要保留日志的原始格式,而且日志内容中本身存在逗号(,)、分号;等字符,使用这些字符作为 分隔符 或 引用符 可能导致解析混乱。而不可见字符在正常的文本内容中几乎不会出现,使用不可见字符作为 分隔符 或 引用符 可以...

SDK采集

实现日志服务日志的ProtoBuffer格式封装,让您在写入日志时不需要关心ProtoBuffer格式的具体细节。更多信息,请参见 ProtoBuffer格式。实现日志服务API中定义的压缩方法,让您不用关心压缩实现的细节。部分语言的SDK支持启用压缩模式写入...

SDK参考概述

实现日志服务日志的ProtoBuffer格式封装,让您在写入日志时不需要关心ProtoBuffer格式的具体细节。更多信息,请参见 ProtoBuffer格式。实现日志服务API中定义的压缩方法,让您不用关心压缩实现的细节。部分语言的SDK支持启用压缩模式写入...

日志字段

字段名称 字段值类型 字段说明_topic_string 日志主题,格式为 polardbx_sqlaudit。affect_rows int 若执行的是DML,表示受影响的行数。若执行的是查询语句,表示返回结果的行数。autocommit int SQL执行时 autocommit 是否打开,取值范围...

数据采集概述

主机/服务器中数据采集方案 当企业应用部署在阿里云ECS,自建服务器或其他云服务器等主机环境下,使用阿里云日志服务进行采集时请参考如下内容:主机文本日志采集:对于应用日志支持多种解析格式,如Nginx,JSON,Apache,IIS,分隔符等,需要...

阿里云SLS导入腾讯云CLS日志数据

数据格式:根据源日志的实际格式选择。此处以 JSON字符串 为例,导入任务会将数据解析为键值对格式,且只解析到第一层。编码格式:待导入数据的编码格式,选择 UTF-8。高级配置 通信协议:protocol:选择 sasl_plaintext。mechanism:选择 ...

阿里云SLS导入火山引擎TLS日志数据

数据格式:根据源日志的实际格式选择。此处以 JSON字符串 为例,导入任务会将数据解析为键值对格式,且只解析到第一层。编码格式:待导入数据的编码格式,选择 UTF-8。高级配置 通信协议:protocol:必须选择 sasl_ssl。mechanism:选择 ...

阿里云SLS导入华为云LTS日志数据

数据格式:根据源日志的实际格式选择。此处以 JSON字符串 为例,导入任务会将数据解析为键值对格式,只解析到第一层。编码格式:待导入数据的编码格式,选择 UTF-8。高级配置 通信协议:可选配置,华为云Kafka实例开启了sasl认证时需要 ...

日志字段详情

字段名称 字段说明_topic_日志主题,格式为 drds_audit_log_{instance_id}_{db_name},例如 drds_audit_log_drdsxyzabcd_demo_drds_db。autocommit SQL执行时 autocommit 是否打开,取值范围如下:0:未打开 1或NULL:打开 instance_id ...

更新Logtail采集配置

fileEncoding String 否 日志 文件编码 格式,取值为 utf8、gbk。maxDepth int 否 设置日志 最大目录监控深度。取值范围:0~1000,0代表只监控本层目录。preserve bool 否 如果一个日志文件在指定时间内没有任何更新,则认为该文件已超时。...

创建Logtail采集配置

fileEncoding String 否 日志 文件编码 格式,取值为 utf8、gbk。maxDepth int 否 设置日志 最大目录监控深度。取值范围:0~1000,0代表只监控本层目录。preserve bool 否 如果一个日志文件在指定时间内没有任何更新,则认为该文件已超时。...
< 1 2 3 4 ... 200 >
共有200页 跳转至: GO
新人特惠 爆款特惠 最新活动 免费试用