关闭

小宿智能搜索

专为 Agent 设计的智能搜索与数据服务

小宿智能搜索

重新定义 Agent 时代的搜索服务

多语言
目前国内支持语种最多的AI搜索服务,支持包括西语、法语、日语在内的35+全球主流语种,并提供本地化、符合法规要求的数据服务
多模态
集成了“文搜图”“图搜图”“视频检索”功能,让多模态 Agent 在知识获取时更具灵活性与深度
长摘要
直接获取网页内容的完整正文,并支持Markdown、TEXT、HTML多种格式输出,无需二次访问
内容读取
支持动态页面渲染读取、PDF解析、图片&PDF源文件(base64)返回等能力
高可用 + 低延迟
多活部署与智能路由容灾机制可在节点故障时秒级切换,保障 Agent 在并发高峰或跨地域编排场景中的持续稳定运行
>1s
P99
<99.9%
SLA
>100
QPS

两行代码,一键接入

curl --location --request GET 'http://<域名>/<端点>/smart?q=lebron james' \

--header 'Authorization: Bearer <your ak>' \



行业领先的 高质量 数据服务

基于自建千亿级索引库,让您的AI Agent实时获取世界优质信息
SimpleQA测试集
Search Arena评测
自有测试集
中文

英文
SimpleQA测试集

SimpleQA是由OpenAI推出的一个开源基准测试集,主要用于评估大型语言模型在回答简短事实性问题上的能力。虽然其直接评估对象是语言模型,但其核心思想和方法对于评估搜索引擎返回答案的事实准确性和可靠性具有重要参考价值。该数据集数据集覆盖历史、科学、艺术、地理等多个主题,每个问题都经过精心设计,确保只有一个明确、客观的答案,并且答案不会随时间改变,这使得评估过程更加直接和可靠。

方法论

在评测过程中,SimpleQA 的问题首先通过不同搜索引擎进行检索,获取的搜索内容构成上下文信息;随后,问题和上下文被输入商用大型语言模型生成答案。最终,使用分类器对答案进行评分,以量化评估各搜索引擎在提供事实性信息上的准确性和可靠性。

Search Arena评测
方法论

Search Arena 由 LMSys.org 提出,旨在提供一个独立、公正的搜索引擎评测标准。该评测平台通过多引擎检索、全文获取和多维度评分,确保结果的客观性和可比性。评测过程由第三方商用大型语言模型执行,覆盖有用性、相关性、深度、引用可靠性、综合推理以及表达准确性等多个维度,同时采用双向对比机制,降低模型偏向性。 我们在完成一对一比较后,进一步应用 Bradley-Terry 模型将结果转化为横向排名,量化每个搜索引擎的整体表现(π值),排名基于π值降序排列,π值越高表示搜索引擎搜索质量越好

自有测试集

本搜索测试集的核心理念是确保评测结果能够真实、无偏地反映搜索系统在实际应用中的表现。为此,测试集中的查询用例基于生成式大模型技术,模拟真实用户的搜索意图和行为生成大量查询,并通过科学的随机抽样方法进行选取,从而全面、公正地衡量搜索系统处理各种真实查询的能力。

方法论 - 搜索质量评测

搜索质量评测通过专业人工模拟真实用户行为,对搜索引擎结果进行系统化量化分析,衡量其相关性、内容质量与信息价值,确保评测结果客观、公正、可信。评测采用 nDCG 等核心指标衡量排序效果,强调高度相关内容应出现在前列,为用户带来最大价值。
评测遵循客观性、准确性与公正性原则,通过统一标准对不同搜索引擎结果进行横向比较。

评价维度包括:

相关性
搜索结果与用户查询及意图匹配,内容直接解决问题

内容质量
信息真实可靠、回答完整且权威

内容价值
信息量丰富、具时效性,帮助用户快速获取所需信息并做出决策

多场景覆盖 AI Agent 数据需求

AI 陪伴
AI 陪伴
AI 分身
AI 分身
效率办公
效率办公
数据分析
数据分析
企业智能
企业智能
AI 陪伴
AI 陪伴
AI 分身
AI 分身
效率办公
效率办公
数据分析
数据分析
企业智能
企业智能
Agent 搭建
Agent 搭建
AI 搜索
AI 搜索
信息获取
信息获取
智能写作
智能写作
Agent OS
Agent OS
Agent 搭建
Agent 搭建
AI 搜索
AI 搜索
信息获取
信息获取
智能写作
智能写作
Agent OS
Agent OS

已上架全球各大智能体开发平台

1
2
3
4
5
6
1
2
3
4
5
6
您的 AI Agent 检索能力,从这里启航
作为 全球领先的 AI Agent 基础设施服务商,我们提供稳定、高效的全栈技术支撑 与专业指导,帮您轻松为 Agent 集成精准实时的搜索能力,加速业务落地。
您的 AI Agent 检索能力,从这里启航