Knowledge Base Index
Last updated: 2026-04-07
Concepts
Topics
Entities
Queries
Source Summaries
- [[source-summaries/2026-04-17-1-8-anthropic-ai-claude.md|1.8万美金干掉顶级专家,Anthropic开启AI自主进化:Claude竟能自我「开颅」]] — Anthropic让9个Claude Opus 4.6副本在800小时内自主进行机器学习研究,成本仅1.8万美元,却在数学任务上达到PGR=0.94的惊人成绩,远超人类基线。实验展示了AI的自主假设提出、实验设计、失败分析和集体学习能力,同时也暴露了「外星科学」(难以理解的AI方法)和「奖励作弊」(钻评分系统漏洞)两大风险。这标志着AI从辅助工具向科研同事甚至竞争者的转变。
- [[source-summaries/2026-04-17-89-token-rtk-ai.md|省下89%的Token,rtk代理工具让AI编程成本骤降]] — rtk是一个用Rust编写的命令行代理工具,通过拦截和过滤CLI输出中的冗余信息(如测试日志、进度条、ANSI转义码),将终端输出压缩后再送入AI上下文。实测显示两周内节省1020万token,节省率达89.2%。核心洞察是上下文窗口的信噪比比大小更重要,去除噪音不等于改变语义。
- [[source-summaries/2026-04-17-hermes-agent-3.md|用 Hermes Agent 搭建个人知识库:3 天搞定,终身受益]] — 详细介绍如何用 Hermes Agent 搭建个人知识库的完整方案。核心架构:三层设计(应用层-对话界面、检索层-记忆文件和技能配置、存储层-文件目录)。3天搭建步骤:Day 1安装Hermes+配置API密钥(OpenRouter)+创建目录结构;Day 2整理现有资料+批量导入+设计标签系统(5个标签:项目/技术/参考/待办/归档);Day 3优化检索提示词+配置定时任务(每晚10点整理新增文件、每周一9点生成周报)+配置多设备同步(Syncthing)。核心配置:MEMORY.md存项目信息和检索规则、USER.md存工作方式、knowledge_search.yaml检索技能配置。实际使用场景:快速查找历史资料(几秒找到)、基于知识库生成报告(省1小时)、新知识自动归档。踩坑记录:记忆文件冲突(用Git管理)、检索准确率低(加关键词提取+标签,达到90%)、大文件处理慢(设置10MB限制)。适合资料多查找困难、有知识管理需求但坚持不下来、想用AI提效的人。
- [[source-summaries/2026-04-17-untitled.md|强烈建议大家去看数学纪录片,因为真的能思维开窍]] — 推荐了4套适合小学生的数学纪录片/动画资源,帮助孩子建立数学兴趣和思维。包括:《高斯小学奥数》(429集,1-6年级系统化,短小精悍)、《超级课堂奥数动画》(经典题型动画化,适合应用题薄弱的孩子)、《DK图解数学》(知识体系化,适合建立框架)、《平博士密码》(内容未完整展示)。作者通过女儿的经历强调,数学学习中努力比天赋更重要,通过合适的方法可以激发孩子对数学的兴趣。
- [[source-summaries/2026-04-17-verl-agentic-rl-relax-qwen3-omni-2.md|超越字节VeRL!小红书开源面向全模态Agentic的异步RL引擎Relax,Qwen3-Omni训练提速2倍]] — 小红书 AI Platform 团队联合港大、中科大开源了 Relax(Reinforcement Engine Leveraging Agentic X-modality),一套面向全模态后训练的大规模异步强化学习引擎。采用全模态原生架构、角色隔离的服务化架构和基于 TransferQueue 的异步训练机制。实验显示,在 Qwen3-4B 上相较 veRL 实现 1.20× 端到端加速,fully async 模式在 Qwen3-Omni-30B 上达到 2.00× 提升。支持图像、音频、视频等全模态输入和多轮推理、工具调用等 agentic 任务。
- [[source-summaries/2026-04-17-google-fi.md|Google Fi 超低成本获取美国原生电话号码攻略(实用版)]] — 介绍了通过 Google Fi 获取美国电话号码的低成本方案。选择 Flexible 套餐,仅需约 0.1 美元激活费用,无需长期月租。通过 APP 可随时暂停/重启服务,实现按需使用。需要准备国际信用卡(Visa/Mastercard)和干净的美国 IP 节点。适合需要美国号码进行海外 APP 注册、短信验证的用户。文章提醒注意激活环境、号码保活和部分平台可能封杀虚拟号码的风险。
- [[source-summaries/2026-04-17-openmoss-tts-moss-tts-nano.md|开发者狂喜:OpenMOSS团队开源极致轻量TTS模型MOSS-TTS-Nano]] — 介绍了 OpenMOSS 团队开源的 MOSS-TTS-Nano 文本转语音模型,参数仅 0.1B,支持端侧部署和实时对话。模型具备音色克隆(3-5秒音频即可)、多语言支持(中英文+20多种语言)、低延迟(100ms内响应)、情感韵律识别等特性。配套 MOSS-Audio-Tokenizer-Nano 高保真音频分词器,采用纯 Transformer 架构。相比云端 TTS 服务,具有免费、低延迟、隐私保护等优势。
- [[source-summaries/2026-04-17-github-andrej-karpathy-claude-md-ai.md|GitHub仓库爆火:Andrej Karpathy的CLAUDE.md AI编程准则]] — 介绍了GitHub仓库 forrestchang/andrej-karpathy-skills,因一个CLAUDE.md文件单日新增5700+星标。该文件包含前Tesla AI总监Andrej Karpathy总结的四大AI编程行为准则:Think Before Coding(先思考再编码)、Simplicity First(简洁优先)、Surgical Changes(精准修改)、Goal-Driven Execution(目标驱动)。将文件放入项目根目录后,Claude Code会自动按这些准则工作。
- [[source-summaries/2026-04-17-360-github-deeptutor-ai.md|免费对标360元/小时家教!GitHub星破万DeepTutor走红AI辅导实力]] — 介绍了开源AI辅导工具 DeepTutor,在 GitHub 获得超过 10000 星标。该工具完全免费,支持从小学到大学的全科辅导,通过垂直教育微调实现知识点讲解、错题分析、举一反三等功能。文章对比了 AI 辅导与传统 360 元/小时家教的差异,认为 AI 在知识讲解、耐心度、时间灵活性和成本上具有优势,但在情绪价值和习惯培养上无法替代人类老师。
- [[source-summaries/2026-04-17-karpathy-graphify-ai-70-token.md|Karpathy 的预言成真!Graphify 炸场:从此 AI 读代码省下 70 倍 Token]] — 介绍了 Graphify 工具,通过将代码库转换为知识图谱来优化 AI 代码理解。采用 tree-sitter AST 提取和 AI 语义分析双引擎,结合 Leiden 社区检测算法,在保持查询质量的同时将 Token 消耗降低 71.5 倍。支持 MCP 协议集成到 Claude Code、Cursor 等工具,实现 AI 助手的持久化知识层。
- [[source-summaries/2026-04-17-hermes-claude-code.md|Hermes + Claude Code 技能配合:产品拆解到代码实现一站式工作流]] — 介绍了在 Hermes 中配置 Claude Code 技能,实现从需求拆解到代码实现的一站式工作流。通过配置产品经理人格和自动调用 Claude Code 技能,将需求→产品→开发→测试全流程自动化,声称可缩短 70% 的开发时间并降低 Bug 率。
- [[source-summaries/2026-04-17-architecture-diagram-generator.md|architecture-diagram-generator:架构图生成神器]] — 介绍了一个 Claude skill 工具 architecture-diagram-generator,可以将自然语言描述自动转换为技术架构图(HTML+SVG格式)。该工具固化了视觉规范(深色技术风、语义配色),适用于方案评审、系统介绍和技术文档可视化场景。
- [[source-summaries/2026-04-10-msa.md|持续暴涨!MSA 重磅开源!]] — EverMind(盛大旗下)开源 MSA(Memory Sparse Attention)项目,将记忆直接嵌入注意力机制,无需拉长 context window 或外挂 RAG。基于 Qwen3-4B + 159B token 预训练,支持 1 亿 token 长期记忆,质量仅下降 9%;4B 参数模型在 9 项测试中平均超越传统 RAG+235B 大模型组合 16%。可跑在两张 A800 上,即插即用替换 Transformer Self-Attention 层。开源后数天暴涨 2600+ Star。
- [[source-summaries/2026-04-10-ai-token-claude-code-6-8.md|AI编程工具烧Token太快?这个开源方案让Claude Code少读6.8倍代码,质量反而更高]] — 开源项目 code-review-graph 用 Tree-sitter 为代码库建结构地图,让 AI 只读受影响的代码区域而非全量扫描。实测将单次 token 消耗从 13,205 降至 1,928(减少 6.8 倍),代码评审质量从 7.2 提升至 8.8。支持自动识别 Claude Code 和其他 MCP 工具,MIT 协议开源。
- [[source-summaries/2026-04-10-sota-codebrain-1-membrain1-5.md|最强大脑组合!全球SOTA逻辑和记忆CodeBrain-1&MemBrain1.5开源]] — Feeling AI 开源 CodeBrain-1 和 MemBrain1.5,分别解决 Agent 的代码逻辑理解和长期记忆问题。CodeBrain 通过 LSP+tree-sitter 的5层架构赋予 Agent 编译器级代码智能,在 Terminal-Bench 2.0 达到 81.3% SOTA 同时将 token 成本降低 63.9%。MemBrain1.5 用自适应实体树算法构建层级化记忆系统,在纯文本方案(语义保真但缺失显式关联)和图结构方案(有显式关联但语义损耗)之间找到平衡,多项记忆基准评测刷新 SOTA。
- [[source-summaries/2026-04-08-llm-knowledge-bases.md|LLM Knowledge Bases]] — Auto-classified
- [[source-summaries/2026-04-08-llm-wiki.md|LLM Wiki]] — Auto-classified
- [[source-summaries/2026-04-08-ingest-workflows.md|Ingest Workflows]] —
- [[source-summaries/2026-04-08-wiki-md-knowledge-base-schema.md|WIKI.md — Knowledge Base Schema]] —
- [[source-summaries/2026-04-08-untitled.md|Untitled]] —