自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2017)
  • 收藏
  • 关注

原创 Python因果分析选哪个?六个贝叶斯推断库实测对比(含代码示例)

本文对比了Python中六大常用因果推断库:Bnlearn、Pgmpy、CausalNex、DoWhy、PyAgrum和CausalImpact,涵盖贝叶斯网络建模、因果结构学习与效应评估。基于Census Income数据集,分析各库在因果发现、可解释性与工程实践中的优劣,助你根据项目需求选择合适工具。

2025-11-06 22:09:43 340

原创 提升回归模型可信度:4种神经网络不确定性估计方法对比与代码实现

回归任务中,模型常只输出预测值而忽略不确定性,带来潜在风险。本文对比四种神经网络不确定性估计方法:均值+对数标准差、均值+对数方差、MC Dropout与简化PPO。实验表明,前两者在混凝土强度数据上表现最佳,能有效识别可靠预测,而PPO效果不佳。准确评估不确定性对医疗、自动驾驶等高风险领域至关重要。

2025-11-05 19:37:20 771

原创 从零实现3D Gaussian Splatting:完整渲染流程的PyTorch代码详解

3D高斯溅射(3DGS)正成为3D视觉新标准,广泛应用于AR/VR与实时渲染。本文用PyTorch在几百行代码内实现其核心渲染流程,涵盖投影、排序、分块与合成分步,效果媲美SOTA,助力快速理解与落地。

2025-11-04 20:54:26 567

原创 FastMCP 入门:用 Python 快速搭建 MCP 服务器接入 LLM

MCP协议为大语言模型连接外部工具与数据提供标准化方案,FastMCP是其Python最佳实践框架。本文详解MCP核心概念,演示如何用FastMCP快速搭建支持工具调用、资源访问与身份认证的MCP服务器,并集成至LLM应用,实现AI智能体与真实世界的高效交互。

2025-11-03 19:57:31 1171

原创 LangChain v1.0 中间件详解:彻底搞定 AI Agent 上下文控制

LangChain v1.0 引入中间件机制,系统化解决上下文管理难题。通过模块化中间件,实现输入预处理、敏感信息过滤、工具权限控制等,提升Agent在生产环境的稳定性与可维护性。

2025-11-02 18:28:48 1469

原创 解决GRPO优势归因错误,Chunk-GRPO让文生图模型更懂“节奏“

文本到图像模型飞速发展,但如何精准对齐人类偏好仍是难题。清华与快手提出Chunk-GRPO,通过“分块优化”替代逐步行更新,结合时间动态划分生成阶段,有效缓解优势归因错误,提升图像质量与训练稳定性,推动AI更懂审美与构图。

2025-11-01 18:52:20 821

原创 打造自己的 Claude Code:LangGraph + MCP 搭建一个极简的 AI 编码助手

我们的目标是,抛开 Claude Code 那些花里胡哨的功能,看看最基础的编码代理能做到什么程度。

2025-10-31 20:00:04 598

原创 sklearn 特征选择实战:用 RFE 找到最优特征组合

特征越多模型未必越好,过多特征易导致过拟合、训练慢、难解释。递归特征消除(RFE)通过反复训练与特征评分,逐步剔除不重要特征,提升模型泛化能力与效率。本文详解RFE原理,并用scikit-learn实战葡萄酒数据集,展示如何结合逻辑回归与随机森林进行特征选择,比较不同模型的筛选差异,并通过RFECV自动确定最优特征数量,辅以可视化分析,帮助构建更简洁、高效、可解释的模型。

2025-10-30 18:38:47 1066

原创 Optuna AutoSampler 更新:让多目标和约束优化不再需要手动选算法

AutoSampler 是 OptunaHub 热门智能采样器,下载量超 3 万/周。新版支持多目标与约束优化,自动选择 TPE、GPSampler、NSGA-II/III 等算法。基于搜索空间、目标数等特征动态切换,性能优于默认采样器。适配 Optuna v4.6,安装便捷,助力高效自动化调参。

2025-10-29 18:42:03 733

原创 构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例

本文介绍如何为AI Agent构建记忆系统,通过SQLite存储交互历史、向量数据库实现语义检索,结合LLM反思与总结,赋予Agent跨会话记忆、自我反思和目标追踪能力,使其从被动应答工具进化为可长期协作的智能伙伴。

2025-10-28 19:05:42 1108

原创 Pandas 缺失值最佳实践:用 pd.NA 解决缺失值的老大难问题

Pandas可空数据类型(如Int64、boolean、string)解决NaN导致的类型退化与逻辑混乱问题,统一用pd.NA表示缺失,支持三值逻辑,提升数据清洗可靠性与代码可读性。

2025-10-27 19:33:26 750

原创 大模型强化学习的熵控制:CE-GPPO、EPO与AsyPPO技术方案对比详解

近期LLM强化学习进展迅速,CE-GPPO、EPO与AsyPPO三篇论文从梯度恢复、时序平滑与非对称critic集成等角度,分别解决熵控难题,共同推动大规模推理模型训练方法革新。

2025-10-26 19:07:59 932

原创 LLM安全新威胁:为什么几百个毒样本就能破坏整个模型

数据投毒通过在训练数据中植入恶意样本,将后门永久嵌入大模型,仅需数百份毒样本即可触发数据泄露、越狱等行为,防御需结合溯源、聚类分析与自动化检测。

2025-10-25 19:00:44 647

原创 vLLM 性能优化实战:批处理、量化与缓存配置方案

本文深入解析vLLM高性能部署实践,揭秘如何通过continuous batching、PagedAttention与前缀缓存提升吞吐;详解批处理、量化、并发参数调优,助力实现高TPS与低延迟平衡,真正发挥vLLM生产级潜力。

2025-10-24 13:44:02 1476

原创 HNSW算法实战:用分层图索引替换k-NN暴力搜索

HNSW是一种高效向量检索算法,通过分层图结构实现近似最近邻的对数时间搜索,显著降低查询延迟。相比暴力搜索,它在保持高召回率的同时,将性能提升数十倍,广泛应用于大规模RAG系统。

2025-10-23 21:04:12 1023

原创 AutoGen框架入门:5个核心概念搭建智能体协作系统

AutoGen是微软开源的多智能体AI框架,支持多个AI智能体与人类协作,通过对话完成复杂任务。各智能体具备不同角色与能力,可调用工具、执行代码,并在群聊中辩论、推理、纠错,实现无需人工干预的自动化协作,适用于复杂问题求解与团队化AI应用开发。

2025-10-22 20:58:10 643

原创 深入BERT内核:用数学解密掩码语言模型的工作原理

BERT通过掩码语言建模(MLM)实现双向语言理解,随机遮蔽15%的词并预测,结合Transformer的自注意力与多头机制,利用上下文信息生成深层语义表示。其数学设计如√d_k缩放、80-10-10掩码策略和交叉熵优化,显著提升模型性能,奠定现代NLP基础。

2025-10-21 20:17:52 591 3

原创 LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

本文介绍基于LangGraph构建AI代理的双层记忆架构:短期记忆管理会话内上下文,长期记忆跨会话存储用户偏好与决策。通过InMemoryStore实现记忆持久化,结合提示工程与人机协作(HITL),代理可从用户反馈中动态更新行为规则,实现持续学习与个性化响应。

2025-10-20 21:28:43 1380

原创 我的创作纪念日

提示:你过去写得最好的一段代码是什么?提示:当前创作和你的工作、学习是什么样的关系。提示:可以和大家分享最初成为创作者的初心。提示:在创作的过程中都有哪些收获。提示:职业规划、创作规划等​​。

2025-10-19 18:55:50 407

原创 如何生成逼真的合成表格数据:独立采样与关联建模方法对比

本文介绍两种生成合成数据的实用方法:基于随机森林的逐列生成和高斯混合模型(GMM),旨在保持数据分布与列间关系的真实性,兼顾隐私与多样性,适用于测试、训练及敏感数据替代场景。

2025-10-19 18:53:24 1053

原创 开源嵌入模型对比:让你的RAG检索又快又准

嵌入是RAG系统的核心,将文本转化为语义向量,实现基于含义的检索。本文详解嵌入原理、关键参数及主流开源模型,助你根据分块大小、语言需求和性能约束,选择最合适的嵌入方案,提升RAG效果。

2025-10-18 21:30:45 995

原创 REFRAG技术详解:如何通过压缩让RAG处理速度提升30倍

REFRAG提出用轻量编码器将检索文本块压缩为单向量,再投影至LLM嵌入空间,结合强化学习策略选择性展开关键块。相比传统RAG,输入序列大幅缩短,首token速度提升达30倍,准确率几乎无损,显著降低计算开销。

2025-10-17 17:34:57 883

原创 RAG检索质量差?这5种分块策略帮你解决70%的问题

RAG效果关键在于文档分块:固定、递归、语义、结构化与延迟分块各有优劣。合理选择能显著提升检索质量,减少幻觉,增强上下文理解,是构建高效RAG系统的核心环节。

2025-10-16 18:15:01 681

原创 别再用均值填充了!MICE算法教你正确处理缺失数据

MICE是一种基于迭代链式方程的缺失值插补方法,通过构建后验分布并生成多个完整数据集,有效量化不确定性。相比简单填补,MICE利用变量间复杂关系,提升插补准确性,适用于多变量关联、缺失率高的场景。本文结合PMM与线性回归,详解其机制并对比效果,验证其在统计推断中的优势。

2025-10-15 20:42:22 756

原创 LlamaIndex检索调优实战:分块、HyDE、压缩等8个提效方法快速改善答案质量

本文总结提升RAG检索质量的八大实用技巧:语义分块、混合检索、重排序、HyDE查询生成、上下文压缩、元数据过滤、自适应k值等,结合LlamaIndex实践,有效解决幻觉、上下文错位等问题,显著提升准确率与可引用性。

2025-10-14 19:19:43 761

原创 斯坦福ACE框架:让AI自己学会写prompt,性能提升17%成本降87%

论文提出Agentic Context Engineering (ACE),一个通用框架用离线和在线上下文适应。ACE通过增量delta更新和grow-and-refine原则,构建全面、演化的上下文,避免简洁性偏差和上下文崩溃。在agent benchmark和领域特定任务上的评估显示ACE持续超过强baseline,同时显著降低适应成本和延迟。ACE让更小的开源模型达到顶级专有系统的性能,展示上下文工程作为模型适应强大替代方案的潜力。

2025-10-13 19:05:44 1158

原创 氛围编程陷阱:为什么AI生成代码正在制造大量“伪开发者“

AI兴起催生“氛围编程”——用自然语言生成代码,看似高效实则陷阱。它让人跳过编程基本功,沦为只会提示、不懂原理的“中间商”。真实案例显示,此类项目易崩溃、难维护,安全漏洞频出。AI是技能倍增器,非替代品;真正强大的开发者,永远是那些基础扎实、能独立解决问题的人。

2025-10-12 19:00:43 1494

原创 12 种 Pandas 测试技巧,让数据处理少踩坑

本文介绍12种实用的Pandas测试技巧,涵盖数据工厂、模式校验、属性测试、快照比对、边界用例、随机控制、NA处理、索引验证、双实现对照、性能监控、I/O往返和Join检查,帮助开发者提前发现隐藏bug,提升数据处理代码的可靠性与可维护性。

2025-10-11 21:14:29 807

原创 mmBERT:307M参数覆盖1800+语言,3万亿tokens训练

mmBERT是一个纯编码器架构的语言模型,在1800多种语言、3万亿tokens的文本上完成了预训练。

2025-10-10 21:30:57 573

原创 vLLM 吞吐量优化实战:10个KV-Cache调优方法让tokens/sec翻倍

十个经过实战检验的 vLLM KV-cache 优化方法 —— 量化、分块预填充、前缀重用、滑动窗口、ROPE 缩放、后端选择等等 —— 提升 tokens/sec。

2025-10-09 21:00:40 840

原创 vLLM推理加速指南:7个技巧让QPS提升30-60%

GPU资源有限,提升推理效率需多管齐下。本文分享vLLM实战调优七招:请求塑形、KV缓存复用、推测解码、量化、并行策略、准入控制与预热监控。结合代码与数据,助你最大化吞吐、降低延迟,实现高QPS稳定服务。

2025-10-08 21:27:03 1055

原创 打造自主学习的AI Agent:强化学习+LangGraph代码示例

本文会从RL的数学基础讲起,然后深入到知识图谱的多跳推理,最后在LangGraph框架里搭建一个RL驱动的智能系统。

2025-10-07 21:11:06 1089

原创 向量存储vs知识图谱:LLM记忆系统技术选型

本文探讨LLM长期记忆系统的构建难点与解决方案,对比向量检索与知识图谱架构优劣,分析Zep、Mem0、Letta等开源框架,并提供成本优化策略,助力开发者实现高效、可扩展的AI记忆系统。

2025-10-06 21:11:13 814

原创 NumPy广播:12个技巧替代循环,让数组计算快40倍

广播是NumPy里最让人恍然大悟的特性。掌握后能去掉大量循环,让代码意图更清晰,同时获得向量化带来的性能提升——而且不需要引入什么复杂工具。从形状对齐入手,合理使用keepdims,在维度不匹配时灵活运用None。练多了代码里的for循环自然就少了。

2025-10-05 21:08:13 836

原创 Google开源Tunix:JAX生态的LLM微调方案来了

**Tunix(Tune-in-JAX)**是一个**用于LLM后训练的JAX原生库**,旨在通过JAX的速度和可扩展性简化监督微调、强化学习和蒸馏,可以与Flax NNX无缝集成。

2025-10-04 20:37:46 1538 1

原创 从DQN到Double DQN:分离动作选择与价值评估,解决强化学习中的Q值过估计问题

2015年DQN在Atari游戏中突破,但Q值过估计问题浮现。因max操作放大噪声,智能体盲目自信“黄金动作”。根源在于动作选择与价值评估由同一网络完成,导致最大化偏差。

2025-10-03 21:49:56 855

原创 PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题

PINNs出了名的难训练。主要原因之一就是这个多目标优化问题。

2025-10-02 21:32:35 744

原创 Python离群值检测实战:使用distfit库实现基于分布拟合的异常检测

本文解析异常(anomaly)与新颖性(novelty)检测的本质差异,结合distfit库演示基于概率密度拟合的单变量无监督异常检测方法,涵盖全局、上下文与集体离群值识别,助力构建高可解释性模型。

2025-10-01 20:47:11 873

原创 Min-p采样:通过动态调整截断阈值让大模型文本生成兼顾创造力与逻辑性

相比前面提到的那些技术,Min-p 有几个明显优势。Min-p 根据模型对输出的置信度,在同一个生成序列的不同上下文中动态调整采样阈值。其他技术往往要么过于发散(不连贯),要么过于保守(重复乏味)。Min-p 按模型置信度比例缩放截断阈值,所以即便在高温度下也能维持输出连贯性。这对需要高创造性的任务特别有用,比如故事创作或内容生成。Min-p 的计算开销很小,可以轻松集成到现有 LLM 推理流水线中,不会带来明显的性能负担。Min-p 采样的出现为大语言模型文本生成领域带来了新的思路。

2025-09-30 20:58:40 956

原创 从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现

本文重点讨论Reflection和Reflexion,并用LangChain与LangGraph来实现完整的工作流程。

2025-09-29 20:44:36 1154

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除