统计分析
概述
Starnion 提供两类分析信息:
- 对话统计:聊天模式、按频道统计、月度趋势
- LLM 使用情况:Token 消耗、各模型调用次数、预估费用
这些数据帮助您了解您使用 AI 的活跃程度、最常用的频道,以及 LLM API 费用的大致情况。
对话统计
通过 设置 > 统计 或 API GET /api/v1/analytics?user_id=<id> 访问。
汇总统计
| 项目 | 描述 |
|---|---|
| 总消息数 | 历史上发送和接收的所有消息总数 |
| 本月消息数 | 当月的消息数量 |
| 用户消息 | 用户发送的消息数量 |
| AI消息 | AI回复的消息数量 |
| 总对话数 | 已创建的对话(线程)数量 |
| 日均消息数 | 基于过去30天的日均消息数 |
| 环比(MoM) | 与上月相比的消息数变化百分比(%) |
频道统计
显示按 Telegram 和网页聊天分类的使用情况。
Telegram消息: ████████████ 156 (62%)
网页聊天消息: ███████ 96 (38%)
每日消息趋势
以图表形式显示过去30天的每日消息数。您可以看到一周中哪些日期您使用 Starnion 最多,或在特定事件后使用量是否增加。
小时分布
显示您一天中哪些时段聊天最活跃。以24小时分布图显示,让您了解早晨、下午和晚上的使用模式。
每周模式
分析每星期各天的平均消息数量。您可以直观地比较工作日和周末的使用差异。
LLM 使用情况
通过 设置 > 用量 或 API GET /api/v1/usage?user_id=<id> 访问。
使用概览
记录所有 LLM 调用的 Token 使用情况。
| 项目 | 描述 |
|---|---|
| 总调用次数 | LLM API 调用总次数 |
| 总输入Token | 提示词消耗的Token总量 |
| 总输出Token | AI回复生成的Token总量 |
| 总Token | 输入+输出 |
| 预估总费用 | 按每Token定价计算的美元金额 |
按模型使用情况
比较各 LLM 模型的使用情况。
模型 调用次数 输入Token 输出Token 预估费用
──────────────────────────────────────────────────────────────────────
gemini-2.0-flash 1,234 2,345,678 456,789 $0.23
gpt-4o-mini 89 123,456 45,678 $0.18
claude-haiku-3-5 12 34,567 8,901 $0.04
每日使用趋势
显示过去30天的每日Token使用量。让您快速发现费用激增的日期。
按技能使用情况
分析哪些功能(技能)消耗的Token最多。
技能 调用次数 总Token数 占比
────────────────────────────────────────────────
普通聊天 892 1,234,567 54%
预算分析 234 456,789 20%
文档摘要 89 234,567 10%
网络搜索 56 123,456 5%
其他 ... ... 11%
降低费用的技巧
减少 LLM API 费用的实际方法。
1. 根据任务选择合适的模型
并非每次对话都需要使用最强大的模型。
| 任务类型 | 推荐模型 | 原因 |
|---|---|---|
| 简单问答 | Gemini 2.0 Flash | 速度快且价格低廉 |
| 日常对话 | GPT-4o-mini | 低成本且能力足够 |
| 长文档分析 | Gemini 1.5 Pro | 高效处理长上下文 |
| 复杂推理 | Claude Opus(仅在必要时使用) | 费用高——仅在必要时使用 |
2. 善用 Gemini 免费层
只要在 Gemini API 免费配额(每天1,500次调用)内,就不会产生费用。轻度个人使用可以完全免费运行。
3. 优化上下文长度
随着对话变长,每轮对话都会将整个对话历史作为Token消耗。开始新话题时,创建新对话更为经济高效。
4. 注意文档索引费用
上传文档会消耗生成嵌入的Token。频繁重新索引大型文件会增加费用。
数据保留
- 对话消息:永久保留
- LLM使用日志:永久保留
- 统计汇总:实时计算(无单独缓存)
API端点
对话统计
GET /api/v1/analytics?user_id=<uuid>
响应包含汇总统计、频道分布、每日趋势、小时分布和按星期模式。
LLM 使用情况
GET /api/v1/usage?user_id=<uuid>
响应包含总使用摘要、按模型分类、每日趋势和按技能分类。