检测各类 LLM API 可用性,支持流式输出和速度统计。
兼容 OpenAI、Anthropic、Google、Ollama 等常见格式。
内置 OpenAI、Anthropic、Google Gemini、DeepSeek、Ollama 等预设,同时支持任意兼容 API。
支持 SSE 流式输出,实时展示 Token 生成过程,统计 TTFT 和吐字速度。支持多模型并行测试对比。
一键获取 API 端点可用的模型列表,支持多选模型同时测试,快速对比不同模型表现。
支持通过查询参数直接预填配置,也兼容 settings JSON。
可用参数:preset, key, url, models, model, format, stream, systemPrompt, userPrompt, modelsEndpoint, chatEndpoint, thinkingBudget, temperature, topP, concurrency, requestTimeout, retryCount, retryDelay
示例:?preset=deepseek&key=sk-xxx&models=deepseek-v3&format=openai
说明:可直接填入参数复制分享链接生成,若手填,同名字段下传入字段会覆盖 preset 和 settings JSON。
预填行为:使用分享链接访问时本次配置不会自动写入 localStorage,只有改动配置后,才会持久化保存到 localStorage。
安全提示:所有请求均在浏览器中直接发起,API 端点、API Key 等所有信息仅保存在本地 localStorage 中,不会经过任何中间服务器。