ai
AI 安全与评估体系(2025)
AI 安全与评估体系(2025)AI 系统的安全与质量需要制度化治理。本文从指标、攻防与审计三个方面展开。一、评估指标准确性与一致性:针对任务定义标注集与评分标准。幻觉控制:回答需可追溯来源;无法回答时明确退路。鲁棒性:对对抗样本与异常输入进行压力评估。二、数据泄露与防护最小权限:隔离敏感数据,严格
vLLM与TGI推理框架对比:吞吐与兼容性
比较 vLLM 与 HuggingFace TGI 的架构与接口兼容性,理解批量与并发表现差异以优化部署选型。
Function Calling与JSON Schema约束:参数校验与安全
在函数调用中使用 JSON Schema 精确定义参数,保障输入校验与安全边界,提升自动化与可靠性。
LLM流式输出:SSE/WebSocket与续写策略
在大语言模型应用中,采用 SSE/WebSocket 提供流式输出与断点续写策略,优化用户体验与鲁棒性。
RAG评估指标:Faithfulness与Answer Relevance
通过忠实度与答案相关性指标评估 RAG 系统质量,结合上下文覆盖与召回构建可运行的评测体系。
LangGraph与可控代理:状态图与工具编排
基于状态图将代理的步骤与工具调用明确化,实现可控的执行、回退与错误处理,提升稳定性与可维护性。
向量数据库选型:pgvector/Milvus/Weaviate与内存索引治理
对比主流向量存储与索引(HNSW/IVF/Flat),结合内存占用与一致性需求,进行合理选型与治理。
