NIST PQC 标准化里程碑:FIPS 203/204/205 与 ML‑KEM/ML‑DSA 概述 NIST 发布的三项后量子密码标准(FIPS 203/204/205),说明 ML‑KEM/ML‑DSA/SLH‑DSA 的由来与差异,并给出工程替换建议。 数据科学与AI 2026年02月13日 0 点赞 0 评论 8 浏览
MongoDB TTL 索引与过期数据清理实践 使用 TTL 索引对基于时间的文档自动过期清理,示例包含索引创建、插入与行为说明。 数据科学与AI 2026年02月13日 0 点赞 0 评论 10 浏览
MLOps 模型监控与漂移检测(2025) MLOps 模型监控与漂移检测(2025)模型上线后需要持续观测与校正,防止性能劣化与风险。一、指标与采样指标:准确率、召回率与业务指标联合评估。采样:对在线数据进行代表性采样以支持评估。二、漂移检测分布漂移:监控输入与特征分布变化,预警异常。概念漂移:识别标签与场景变化导致的性能下降。三、反馈与再 数据科学与AI 2026年02月13日 0 点赞 0 评论 8 浏览
LLM输出防护:提示注入、敏感信息与事实核查 通过上下文隔离、输入/输出过滤与引用证据,实现对提示注入与敏感信息泄露的防护,并进行事实核查。 数据科学与AI 2026年02月13日 0 点赞 0 评论 9 浏览
LLM流式输出:SSE/WebSocket与续写策略 在大语言模型应用中,采用 SSE/WebSocket 提供流式输出与断点续写策略,优化用户体验与鲁棒性。 数据科学与AI 2026年02月13日 0 点赞 0 评论 10 浏览
LLM函数调用与JSON模式约束:结构化输出与工具编排 通过函数调用与 JSON Schema 约束实现结构化输出与工具编排,提升可控性与集成效率。 数据科学与AI 2026年02月13日 0 点赞 0 评论 12 浏览
LLM 输出去敏与审计流水(PII Redaction、审计与验证) 为LLM输出进行PII去敏与审计记录,通过规则与模型识别敏感信息并替换,保留审计流水与证据链,提供实现与验证方法。 数据科学与AI 2026年02月13日 0 点赞 0 评论 11 浏览
LLM 服务端流式传输与断点续传(SSE/WebSocket、分片与验证) 使用SSE或WebSocket提供LLM流式输出,并通过分片与游标实现断点续传与重试安全,给出服务端与客户端实现与验证方法。 数据科学与AI 2026年02月13日 0 点赞 0 评论 14 浏览
LLM 推理缓存与去重策略(Prompt Cache、Fingerprint 与验证) 通过Prompt缓存与请求指纹实现去重与命中,结合结果分片与Speculative策略降低延迟与成本,提供实现与验证方法。 数据科学与AI 2026年02月13日 0 点赞 0 评论 12 浏览
LLM 响应结构化与 Guardrails(JSON 模式、Schema 验证与安全) 将LLM输出结构化为JSON并通过Schema验证与安全过滤,结合PII检测与字段白名单,提供实现与验证方法以增强可靠性与合规。 数据科学与AI 2026年02月13日 0 点赞 0 评论 11 浏览