日志导出
日志引流功能可将Supabase堆栈的所有日志发送到一个或多个目标目的地。该功能仅面向团队版和企业版计划的客户开放。您可以在仪表板的项目设置 > 日志引流中找到此功能。
您可以通过这篇公告了解初始发布信息,并在此讨论中为您偏好的引流方式投票。
支持的目标
下表列出了支持的目标类型及其所需的配置参数:
目标类型 | 传输方式 | 配置参数 |
---|---|---|
通用HTTP端点 | HTTP | URL HTTP版本 Gzip 请求头 |
DataDog | HTTP | API密钥 区域 |
Loki | HTTP | URL 请求头 |
HTTP请求会以250条日志或1秒间隔为上限进行批量发送(以先达到的条件为准)。如果目标支持,日志会通过Gzip进行压缩传输。
通用HTTP端点
日志以POST请求形式发送,请求体为JSON格式。同时支持HTTP/1和HTTP/2协议。可以为所有请求可选地配置自定义头部。
请注意这些请求是未签名的。
当前对HTTP端点的未签名请求是临时方案,所有请求在不久的将来都会进行签名。
DataDog 日志
发送至 DataDog 的日志会在事件的 service
字段中设置日志源名称,并将来源(source)标记为 Supabase
。日志在发送至 DataDog 前会进行 gzip 压缩。
负载消息是原始日志事件的 JSON 字符串,前缀带有事件时间戳。
要设置 DataDog 日志接收器,请先在此处生成 DataDog API 密钥,并配置您的 DataDog 站点位置。
如果您对其他日志接收器感兴趣,请在此处投票
Loki
发送至Loki HTTP API的日志需严格按照HTTP API要求进行格式化。更多详情请参阅官方Loki HTTP API文档中的日志摄入部分。
事件采用批量传输机制,每个请求最多包含250个事件。
日志来源和产品名称将作为流标签(stream labels)使用。
为避免数据重复,事件中的event_message
和timestamp
字段将被丢弃。
Loki必须配置为接受结构化元数据,建议将默认的最大结构化元数字段数提升至至少500,以适应不同产品的大型日志事件负载。
计费
有关费用计算方式的详细说明,请参阅管理日志引流使用量指南。