🔥实时更新 频道/群组搜索 登录
TG资源网
黑洞资源笔记---频道中心
黑洞资源笔记 01-08 19:41:18

预计下周四回来,如果没意外

[详情]

黑洞资源笔记 01-07 05:02:39

20260106上午11点 ChatGPT 美国军人认证实操记录 | JIKE社区

[详情]

黑洞资源笔记 01-05 00:10:01

接下来的一周要去外地看病了。回来继续更新。多谢守候

[详情]

黑洞资源笔记 01-05 00:05:13

价值20亿美元的AI Agent秘密:三个Markdown文件如何解决上下文漂移难题 Meta刚以20亿美元收购了Manus。一位开发者深入研究了其核心工作原理,并将关键模式开源分享。 AI Agent面临一个普遍困境:经过大量工具调用后,它们会逐渐迷失目标。上下文膨胀、错误被淹没、任务偏离轨道。 Manus的解决方案出奇简单——仅用三个Markdown文件: - task_plan.md:用复选框追踪进度 - notes.md:存储研究内容,避免塞满上下文 - deliverable.md:最终交付物 核心机制是:Agent在每次决策前都会重新读取计划文件,确保目标始终停留在注意力窗口内。 这个发现引发了社区热烈讨论,也暴露出一些关键洞见: 关于"这不是什么新东西"的质疑,确实如此。Claude Code本身就会自动创建plan.md文件,Spec-kit、APM等开源工具早已实现类似工作流。但这恰恰验证了这个模式的有效性——当多个独立开发者不约而同地收敛到同一解决方案时,说明它确实解决了真实问题。 关于"写入notes.md不也是在填充上下文吗"的技术追问,这是个精准的观察。写入操作确实会产生token消耗。但关键不在于减少token数量,而在于注意力操控。LLM存在"大海捞针"问题——随着上下文增长,它们会逐渐遗忘早期目标。通过在每次重大决策前重新读取计划文件,目标被强制拉回注意力窗口。 社区提出了更进阶的方案:使用子Agent处理上下文密集型任务。主Agent保持轻量,只负责追踪进度和协调;子Agent在独立上下文中完成繁重工作后汇报结果。这样既保持了主Agent上下文的清洁,又能处理复杂任务。 一位开发者分享了他的实战经验:将Claude视为员工,一次只分配一个任务,每完成一步就提交git,全程人工审核。这是8小时工作日的节奏,不是"设置后就忘"的自动化。 关于工作流设计的最佳实践:保持CLAUDE.md极度精简,只描述核心行为预期;将数据库、API等专项知识拆分到独立文件,仅在相关任务时加载;维护一个愿望清单,让未来功能不干扰当前工作。 有人一针见血地指出:20亿美元买的不是三个Markdown文件,而是一家6个月创造1亿美元收入的公司,以及其虚拟机能力、浏览器自动化和完整Agent平台。这个模式只是其中一块拼图。 这场讨论揭示了一个更深层的趋势:上下文工程正在成为一门独立学科。我们正在见证"Agent工程师"这个新角色的诞生——他们是软件工程师,但具备云服务、API和Agent能力的综合知识。 最实用的一句话总结来自社区:Claude是我的员工,我给它分配任务、检查每个任务、控制每个步骤。不要试图让Claude一次完成所有事情,那是不可能的。 reddit | 原始技能仓库 |Spec-kit |多Agent管理框架APM | Manus上下文工程博客

[详情]

附件:[图片]
黑洞资源笔记 01-04 23:44:22

当AI成为你的第二大脑管家:Obsidian + Claude Code 工作流全景 | 帖子 Obsidian创始人kepano在推特上发起了一个问题:你是怎么用Obsidian配合Claude Code的?评论区涌现出大量令人惊艳的实践案例,堪称一场关于"AI增强型知识管理"的集体智慧展示。 一、把AI变成你的"记忆唤醒器" 有用户分享了一个极具仪式感的习惯:每天打开电脑第一件事,就是问Claude Code"我们上次聊到哪了?帮我检查一下笔记库"。AI会自动回顾最近完成的工作,然后用户开始描述今天想做什么、想怎么组织思考——Claude Code成了指挥中心,Obsidian则是审阅和编辑的主战场。 这不是在用工具,而是在和工具对话。 二、知识库的深度整合 不少开发者已经把Claude Code直接嵌入Obsidian。有人开源了obsidian-claude-code插件,因为"受够了在Obsidian和终端之间来回切换"。还有人写了CLI脚本来追踪wiki链接,让常青笔记承担起向AI传递方法论、信念、偏好、项目背景的重任。 更有人用它来构建记忆图谱层,让AI写入的记忆更易读、更结构化。 三、批量操作与自动化 Claude Code在批量处理上展现出惊人效率:批量编辑复杂的bash命令、添加链接、修改属性、重命名笔记、格式化、添加反向链接、按文件夹整理。有用户建立了风格指南文件,让Claude按规范更新笔记后,再反过来询问是否需要更新指南本身——形成了一个自我进化的系统。 四、研究与思考的深度伙伴 有人每周用Granola转录心理治疗记录,导入Obsidian后让Claude每季度做一次大复盘,分析成长轨迹和盲区。有人用它处理GB级数据,提炼洞察写入笔记,再生成信息图。还有人把它当作"不太在意组织结构"的搜索引擎,直接问"我写过什么关于X的内容"。 五、个人操作系统的雏形 一位用户的思考尤其深刻:他正在构建一个"个人操作系统",希望Obsidian这样的开源工具能成为任何人都可以接入的知识库——信息、实体、技能都能在其中被组织、手动编辑或优雅浏览。"那些我们技术上可以在终端里做的事,但要有更漂亮的轨道。" 这或许指向了一个更大的愿景:当AI能够深度理解和操作你的知识库时,早期在个人知识管理上的投入,正在以复利的形式回报。

[详情]

附件:[图片]
黑洞资源笔记 01-04 23:35:18

hyprwhspr:Arch Linux 上的原生语音转文字工具 | #工具 用语音输入文字这件事,在 Linux 桌面上一直不太顺手。要么依赖云端服务有延迟,要么本地方案配置繁琐,Wayland 环境下更是各种兼容问题。 hyprwhspr 是一个专为 Arch Linux 和 Hyprland 打造的语音转文字工具,按下快捷键说话,松开后文字直接出现在光标位置,整个过程在本地完成。 项目默认使用 Whisper 模型实现离线识别,也支持最新的 Parakeet-v3 模型,有 NVIDIA 或 AMD 显卡还能启用 GPU 加速。除了本地模型,同样支持 OpenAI、Groq 等云端 API,甚至可以接入任意自定义后端。 主要特性: - 通过 AUR 一键安装,交互式配置向导自动完成设置; - 支持切换、按住说话、自动检测三种录音模式; - 可视化录音状态指示器,自动匹配 Omarchy 主题配色; - 内置词语替换功能,可自定义专业术语和标点符号转换; - Waybar 托盘集成,实时显示服务状态; - 支持多语言识别,可指定语言或自动检测。 安装后运行 hyprwhspr setup 即可完成配置,默认快捷键 Super+Alt+D 触发录音,文字自动粘贴到当前活动窗口。

[详情]

附件:[文件]
黑洞资源笔记 01-04 23:33:15

AI时代的编程圣经:Unix哲学的17条法则为何比以往更重要 | 帖子 Vercel CEO Guillermo Rauch 分享了一张图,将经典的Unix哲学重新定义为"成功进行Agentic编程的17条法则"。这些诞生于上世纪的设计原则,在AI Agent大行其道的今天,反而焕发出了新的生命力。 这17条法则分别是: 1. 模块化法则:编写简单的部件,用清晰的接口连接 2. 清晰法则:清晰胜于聪明 3. 组合法则:设计程序时要考虑与其他程序的连接 4. 分离法则:策略与机制分离,接口与引擎分离 5. 简洁法则:为简洁而设计,只在必要时增加复杂性 6. 节俭法则:只有当证明别无他法时,才写大型程序 7. 透明法则:为可见性而设计,让检查和调试更容易 8. 健壮法则:健壮性是透明性和简洁性的产物 9. 表示法则:将知识折叠进数据,让程序逻辑保持简单和健壮 10. 最小惊讶法则:在接口设计中,永远做最不令人惊讶的事 11. 沉默法则:当程序没有什么惊人的事要说时,就什么都不说 12. 修复法则:当必须失败时,要尽早失败,并大声报错 13. 经济法则:程序员的时间是昂贵的,优先节省它而非机器时间 14. 生成法则:避免手工编码,尽可能用程序来写程序 15. 优化法则:先做原型再打磨,先让它跑起来再优化 16. 多样性法则:不要相信任何"唯一正确方式"的说法 17. 扩展性法则:为未来而设计,因为它来得比你想象的更快 为什么这些老原则在Agent时代更加重要? 评论区的讨论揭示了深层原因。有人指出,"沉默法则"对Agent的意义已经发生了质变——Unix时代它意味着"不要打印不必要的输出",而在Agent时代它意味着"不要采取不必要的行动"。同样的哲学,但当程序可以批量修改你的代码库时,风险等级完全不同。 另一位开发者补充道:Unix哲学对Agent的价值被严重低估了——小型、可组合的工具,清晰的输入输出契约,幂等的步骤,可重放的日志。Agent越是可检查,你就越不需要盲目信任那些"魔法"。 还有人将Python之禅与这些法则对照: - "显式优于隐式"在调试非确定性系统时变得至关重要 - "可读性很重要"因为你会不断盯着traces、prompts和工具定义 - "错误永远不应该静默传递"映射为:永远要暴露LLM失败、工具失败、解析失败 关于第14条"生成法则",有人认为这是最重要的一条:如果某件事没有按计划进行,就相应地修改规格说明并重新生成,而不是手动修补。这恰恰是Agentic编程的精髓。 也有人提出了不同看法:这些法则在"提示生成代码"的范式下可以很好地应用,但在"提示行为"的范式下却难以一致地执行,因为后者从程序员手中拿走了太多控制权。 关于第14条"生成法则",有人认为这是最重要的一条:如果某件事没有按计划进行,就相应地修改规格说明并重新生成,而不是手动修补。这恰恰是Agentic编程的精髓。 也有人提出了不同看法:这些法则在"提示生成代码"的范式下可以很好地应用,但在"提示行为"的范式下却难以一致地执行,因为后者从程序员手中拿走了太多控制权。 当我们把编程的执行权交给AI Agent时,我们实际上是在把几十年积累的工程智慧编码进系统提示词里。Unix哲学不再只是程序员的行为准则,而是成为了约束AI行为的宪法。 清晰胜于聪明,简洁胜于复杂,可检查胜于黑箱——这些原则在人类程序员时代是美德,在Agent时代则是生存法则。

[详情]

黑洞资源笔记 01-03 13:54:50

Anthropic官方出品:Claude Code实战课程全解析 | reddit Anthropic悄悄放出了一门官方课程,专门教你如何把Claude Code用到极致。15节课,1小时视频,还有测验和证书,干货密度相当高。 有人学完后整理了核心要点,值得收藏: 快捷键与模式切换 - Shift + Tab 按两次进入规划模式 - Ctrl + V 可以直接插入截图(注意不是 Command + V) - 配合插件可以让Claude Code直接操作浏览器 控制推理深度的魔法词 在提示词中加入这些关键词,可以调节模型在任务上投入的token量: - "Think" — 基础推理 - "Think more" — 扩展推理 - "Think a lot" — 全面推理 - "Think longer" — 延长推理时间 - "Ultrathink" — 最大推理能力 上下文管理 - /clear 清空上下文 - /compact 压缩上下文,可释放80%以上空间 进阶扩展 - 使用MCP服务器可以扩展工具集 - 支持大量pre-hooks和post-hooks,在工具执行前后自动运行 社区讨论中有个观点很有价值:课程没教的真正技能,是知道什么时候该重置上下文。很多人卡在问题里挣扎几小时,其实是在和"上下文腐化"作斗争,不如在完成一个里程碑后果断清空重来。 还有人指出,/clear比/compact更彻底,该用哪个要看场景。 当然也有老手表示,如果你已经每天高强度使用Claude Code,这门课的增量信息有限。但对于想系统入门或查漏补缺的人来说,官方出品的体系化内容,依然是最稳妥的起点。

[详情]

附件:[图片]
黑洞资源笔记 01-02 21:52:09

课程查看地址 :@hodonote

[详情]

黑洞资源笔记 01-02 07:20:36

得到的电子书会员55天,1月10号截止

[详情]

附件:[图片]
黑洞资源笔记 01-01 00:00:35

新年快乐 没什么好送的,送钱又没钱,就送几个GLaDOS的套餐兑换码吧。 注册地址: glados.space 可兑换天数为30天,给新用户的 FT4KK-W8YTQ-MNN2E-RQW5B EDFCA-DX44Z-0UEPK-KF7EG 5U4LZ-JID0D-3DFK0-KPVYI 7NUZB-6HSKQ-WL1M6-84R0O 2563S-0I9BP-1JBX1-7CLUQ

[详情]

黑洞资源笔记 12-31 01:24:08

在使用 Claude Code 构建复杂的 AI 自动化任务时,通常需要手动编写大量的智能体定义和命令脚本,逻辑分支一旦增多,纯文本的维护和调试就会变得不够直观。| #编辑器 Claude Code Workflow Studio 是一款专为 Claude Code 设计的可视化工作流编辑器,它将复杂的 AI 编排过程转化为了直观的拖拽式操作。 通过该工具,用户可以像搭积木一样设计 AI 智能体的工作路径,不仅支持复杂的条件分支和子代理协作,还能通过自然语言对话让 AI 协助优化和调整工作流结构。

[详情]

附件:[图片]
黑洞资源笔记 12-31 01:05:20

AI/ML研究者如何追踪前沿论文?一场来自Reddit的讨论 在信息爆炸的时代,AI/ML从业者面临一个共同难题:如何高效追踪海量新论文?Reddit上的一场讨论揭示了业内人士的真实做法。 + 核心发现渠道 Google Scholar的作者追踪功能是最受欢迎的方式。关注领域内重要作者,当他们发表新作时自动收到通知。同时追踪领域奠基性论文的引用情况,新引用往往意味着相关新研究。 顶会论文仍是重要信息源。ICML、ICLR、NeurIPS等会议的录用论文,通过关键词搜索可快速定位相关工作。有人甚至会花整整一周时间,逐篇阅读NeurIPS所有论文的标题和摘要。 Twitter/X在学术圈的角色颇具争议。一方面,它是获取最新论文的最快渠道,算法会根据你的关注和点赞推送相关内容。另一方面,平台上充斥着对研究结果的夸大解读,真正有洞见的内容凤毛麟角。有人呼吁学术界尽快迁移到其他平台。 + 工具推荐 - Scholar-inbox (scholar-inbox.com):基于你的研究兴趣推送论文,附带相关性评分 - Semantic Scholar (semanticscholar.org):根据你收藏的论文进行语义搜索和推荐 - Paper Digest (paperdigest.org):每日邮件推送排序和摘要后的新论文 + 时间投入的残酷现实 一位博士三年级学生每周花10-12小时阅读论文。即便如此,积压的待读论文仍在不断增长。他开始尝试用LLM筛选值得阅读的论文,但效果仍在调试中。 2025年论文数量几乎翻倍,有人不得不先用关键词过滤到1000篇以下,再逐一浏览标题和摘要。 对于全职工作者,周末成了唯一的阅读时间。一位Google员工坦言,即便在Google这样拥有顶级数据和算力的公司,80%的团队做的也只是"名义上的ML工作"——大部分时间在做prompt engineering和RAG调优,真正训练模型的机会很少。 + 务实的生存策略 一个聪明的做法:只关注那些代码可复现、实验可重复的作者和实验室。与其追求全面覆盖,不如建立信任名单。 另一个策略:等待你信任的、有时间精力的同行先筛选和评论,再决定是否深入阅读。 最重要的心态转变是接受"不可能读完所有论文"这个事实。阅读摘要、快速浏览,至少知道某个方向存在什么工作,需要时再回头深挖——这可能是最现实的策略。 信息过载时代,选择不读什么,比选择读什么更重要。

[详情]

附件:[图片]
黑洞资源笔记 12-31 01:00:12

一位开发者分享了他在构建RAG系统时,如何将幻觉率从常见的两位数降到1-2%的实战经验。| reddit 核心问题很简单:大多数RAG系统失败,不是因为模型不够聪明,而是因为"垃圾进,垃圾出"。当PDF解析器把表格打散成碎片,产品名和价格的关联就丢失了,模型只能靠猜。 他的四层防线: 第一层:解析质量。使用IBM开源的Docling解析器,输出结构化的Markdown,保留表格、标题、列表的层级关系。这让LLM能"看懂"文档原本的结构,而不是面对一堆乱码。 第二层:混合检索。纯语义搜索擅长理解"意思",但对精确匹配很糟糕——搜"型号X-500"可能返回"型号X-400"。他用Dense向量(e5-base-v2 + RaBitQ量化)加BM25关键词匹配,确保产品编码、日期、SKU这类精确信息不会被漏掉。 第三层:激进重排序。向量数据库返回的50条结果里,可能只有3条真正相关。用BGE-Reranker筛选到Top-5,这一步就砍掉了约60%的错误上下文答案。那些"差不多但不对"的结果,正是幻觉的温床。 第四层:严格的系统提示。强制模型在回答前先列出相关事实、解释推理过程,最关键的是——给它一个明确的"退出通道":如果信息不在上下文里,就说"我不知道"。阻止模型"好心办坏事"地编造答案。 评论区有人用Gemini分析了这套架构,结论是"行业标准plus"级别。但也指出了两个盲区:这套方案解决的是检索问题(找对信息),不解决推理问题(理解对信息);另外对扫描PDF和图片的处理,作者坦承还没测试过。 一个值得思考的点:为什么开源组件能比云厂商的闭源方案更准确?作者的解释是,Vertex和Bedrock这类服务在简单查询上体验很好,但在企业级场景(定价表、合同、技术手册)下,既不够准确又贵得离谱。 这套方案的本质洞察:幻觉不是模型的问题,是数据管道的问题。你无法修复你无法测量的东西——用RAGAS框架量化Faithfulness和Answer Relevance,才能形成调优的反馈闭环。

[详情]

附件:[图片]
黑洞资源笔记 12-31 00:36:02

使用 Claude Code 进行开发时,虽然原生的命令行交互已经非常强大,但在处理特定业务逻辑或复杂工作流时,往往需要更具针对性的功能扩展。如果能有一套现成的工具库来增强其自动化能力,开发体验将更加顺滑。 Awesome Claude Code Plugins 是一个专门为 Claude Code 打造的资源汇总项目,收录了大量实用的斜杠命令、子代理、MCP 服务和钩子函数。 它不仅整合了官方提供的核心插件,还汇集了社区贡献的各种增强工具,涵盖了从代码质量检查、Git 工作流自动化到文档生成、安全审计等多个维度,让开发者能够根据项目需求定制专属的 AI 编程环境。 主要功能: - 提供丰富的斜杠命令,通过自定义快捷指令简化频繁的开发操作; - 集成多种专项子代理,能够独立处理特定的开发、测试或设计任务; - 支持 MCP 服务器接入,方便 Claude Code 实时调用外部工具和数据源; - 包含多种工作流钩子,可在提交代码或部署等关键节点自动触发逻辑; - 覆盖 DevOps、代码审查、API 测试及项目管理等全方位的插件分类; - 支持通过插件管理命令动态安装和切换,保持系统上下文的轻量与聚焦。 该项目为 Claude Code 用户提供了极大的灵活性,开发者可以通过这些现成的插件快速构建自动化工作流,非常适合追求极致效率的软件工程师和技术团队使用。

[详情]

附件:[图片]
黑洞资源笔记 12-31 00:32:13

开发者在使用 AI 编程助手时,往往需要管理多个平台的账号和 API 密钥。不同供应商的配额限制各不相同,手动监控使用情况并在额度耗尽时切换账号,极大地影响了开发效率。 Quotio 是一款专为 macOS 开发的原生菜单栏应用,旨在为 AI 编程工具提供统一的控制中心,解决多账号管理的繁琐问题。 它通过内置的本地代理服务,整合了 Claude、Gemini、OpenAI 以及通义千问等多种 AI 资源,并支持配额实时追踪与自动故障转移。

[详情]

附件:[图片]
黑洞资源笔记 12-31 00:29:40

重装 Linux 系统或配置新机器时,通常需要手动输入大量命令来安装常用软件,不仅要记忆繁琐的包名,还要针对不同发行版切换指令,过程既枯燥又容易出错。 TuxMate 是一个开源的 Linux 应用批量安装助手,旨在通过网页端交互生成定制化的 Shell 脚本,为用户提供最简便的系统初始化方案。 它不仅涵盖了主流发行版的原生包管理支持,还能智能处理第三方仓库和通用包格式,让原本复杂的软件部署工作变得一键化。 主要功能: - 广泛的发行版支持,涵盖 Ubuntu、Debian、Arch Linux、Fedora、openSUSE 及 Nix; - 内置 150 多种常用应用,分为开发工具、浏览器、办公、游戏等 15 个细分领域; - 智能脚本生成技术,可自动检测已安装包、处理 AUR 依赖并根据需要启用 RPM Fusion; - 支持 Flatpak 和 Snap 通用包安装,并具备并行下载、网络重试及进度条显示功能; - 完善的交互体验,支持全键盘导航(包括 Vim 键位)、实时搜索过滤及深色模式; - 提供详细的安装总结报告,并在脚本运行过程中提供清晰的彩色输出反馈。 该工具采用 Next.js 和 TypeScript 构建,用户只需在网页端勾选所需软件,即可直接复制命令或下载完整的安装脚本,非常适合 Linux 爱好者和需要快速搭建开发环境的技术人员使用。

[详情]

附件:[图片]
黑洞资源笔记 12-31 00:23:30

2025年,AI记忆研究迎来了一个关键转折点。 Turing Post整理了8份关于AI记忆的重磅资源,涵盖了从理论框架到系统实现的完整图景。这份清单值得每一位关注AI发展的人收藏。| 帖子 核心资源包括: - Memory in the Age of AI Agents - Pinecone创始人Edo Liberty访谈:When Will We Give AI True Memory? - Memories AI联合创始人访谈:Why AI Intelligence is Nothing Without Visual Memory - From Human Memory to AI Memory: A Survey on Memory Mechanisms in the Era of LLMs - Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions - Cognitive Memory in LLMs - MemOS: A Memory OS for AI System - MemEvolve: Meta-Evolution of Agent Memory Systems 讨论中涌现出几个深刻洞见: 第一,记忆正在从被动存储转变为主动系统层。它不再是功能特性,而是基础设施。正如有人指出:没有结构化记忆(情景记忆、潜在记忆、操作记忆),AI智能体只能是反应式系统。真正的飞跃不在于模型规模,而在于经验如何被存储、压缩和复用。 第二,统一的分类体系是关键突破。你无法在没有命名问题空间的情况下开始构建。这些研究完成了命名工作,真正的建设才能开始。 第三,无状态执行是架构死胡同。没有记忆,每次交互都是冷启动;有了记忆,才能实现复合智能的时间积累。一位开发者分享:他的智能体运行时保持完整会话状态——过去的邮件、信息流历史、用户模式,这才是让AI从基础任务走向复杂问题解决的关键。 第四,现在的核心问题已经不是如何存储,而是如何决定什么应该积累、什么应该遗忘。 当然也有冷静的声音提醒:在为这些进展欢呼之前,我们必须审慎评估这些洞见如何转化为实际应用。如果不解决伦理问题,不确保记忆系统是增强而非操纵人类体验,我们可能只是在增加复杂性,而非实现真正的进步。 2026年,混合方案(向量数据库+结构化记忆)很可能成为主流。记忆,正在成为AI智能体的真正分水岭。

[详情]

附件:[图片]
黑洞资源笔记 12-31 00:10:43

Vibe Coding:一份写给所有人的实践指南 | #指南 | 帖子 过去二十年,想做软件就得学编程。花几年时间啃框架、凌晨三点debug、反复怀疑人生——这是入场的代价。 但有些东西悄然改变了。 Andrej Karpathy(塑造了特斯拉AI的人)发了条推文:"有一种新的编程方式,我称之为'vibe coding'——你完全沉浸在感觉中,拥抱指数级增长,忘掉代码的存在。" 从想法到产品之间的壁垒正在坍塌。不是理论上的,是现在,是今天。你描述想要什么,AI就能写出代码。一天能做完过去需要几周的事。 这不是炒作,这是现实。理解如何使用它,你就领先了99%的人。

[详情]

附件:[图片]
黑洞资源笔记 12-30 23:53:28

通用提示词的时代结束了,上下文工程正在成为新的王者。 Anthropic、OpenAI、Google的工程师们写提示词的方式和普通人完全不同——他们不是在"写提示词",而是在"构建上下文"。 这个转变的本质是什么?不再问"如何写出更好的提示词",而是问"什么是驱动理想输出的最小高信号上下文"。 此处是8种专业级的上下文构建方法:见评论区 | 原贴

[详情]

附件:[图片]
黑洞资源笔记 12-30 23:46:44

一位数学教育者的理想主义实验:如何让高中生做到硕博级别的研究 Justin Skycak分享了他为美国最高阶高中数学/计算机科学课程编写的教材,现已免费公开。 这本书的背景是Math Academy的Eurisko项目(2020-2023年运行)。在这个项目中,他们做了一件看似不可能的事:让高中生完成硕士和博士级别的课程作业,复现人工智能领域的学术论文,并且用Python从零构建所有算法——不依赖任何现成的库和API。 费曼曾说:"我无法创造的东西,我就不理解。"这正是Eurisko的教学哲学。强迫学生从底层构建,而不是简单调用库函数,这是培养"程序员"和锻造"工程师"之间的本质区别。 项目在2023年因Justin搬迁而暂停,因为当地没有其他人具备教授这门课程的知识储备。但好消息是,Eurisko的所有数学前置课程已经在Math Academy系统上线,未来整个Eurisko课程体系都将被数字化。 虽然第一批Eurisko学生甚至还没大学毕业,但已经涌现出令人惊叹的成果:顶尖大学录取、加速研究生学位、学术论文发表、科学竞赛获奖。 这个故事让人思考:我们对"高中生能做什么"的认知边界,是否被严重低估了?当教育者愿意搭建足够高的脚手架,学生能攀登到的高度远超想象。 帖子 | 教材地址:PDF HTML

[详情]

附件:[图片]
黑洞资源笔记 12-30 23:42:49

Jarrod Watts最近公开了他的"氛围编程"工作流:OpenCode + Oh My OpenCode插件。这套方案的核心思路是让不同AI模型各司其职,发挥各自所长。 具体分工如下: Opus 4.5担任总指挥,负责任务拆解和调度。GPT 5.2专攻架构设计和代码审查,这类需要长时间深度思考的任务正是OpenAI模型的强项。Sonnet 4.5负责文档查阅,在上下文效率上表现出色。Grok Code用于快速探索代码库。Gemini 3 Pro处理前端UI/UX工作,Jarrod特别提到它在设计任务上明显优于Claude。Gemini 3 Flash则负责文档撰写和文件分析这类轻量级任务。 这套方案有几个值得关注的优势: 第一是token使用更智能。上传图片、读取文档、从GitHub加载代码这些操作不会消耗昂贵的Opus 4.5额度,而是交给更适合的模型处理。 第二是工作流更流畅。不同模型在同一终端内协作,不需要在多个工具间来回切换。 关于成本问题,Jarrod提到可以直接使用现有的Claude Code订阅或ChatGPT Plus账号进行认证,不一定需要单独购买API额度。对于已经订阅这些服务的开发者来说,额外成本很低。 不过也有用户提出质疑:这种多智能体架构是否真的比单一模型更有效?还是只是看起来很忙、很酷?Jarrod坦言确实有"新鲜感加成"的因素,但他之前就习惯在Cursor中用Opus处理逻辑、用Gemini处理设计,现在只是把这个流程整合得更顺畅了。 对于编程新手,Jarrod的建议是先用Cursor的Composer模式。更进阶的用法是先用Opus 4.5在计划模式下制定方案,再交给Composer执行。 整套配置大约需要5-10分钟。感兴趣的可以看看OpenCode(opencode.ai)和Oh My OpenCode插件 | github 让不同模型做各自擅长的事,这个思路本身就很有价值。工具在进化,工作流也该跟着进化。

[详情]

附件:[图片]
黑洞资源笔记 12-30 23:19:39

学习新知识时常常需要在多个工具间来回切换,看论文用一个软件,做笔记用另一个,遇到问题还得单独搜索,效率很低。 DeepTutor 是香港大学开源的 AI 学习助手,把文档问答、知识可视化、练习生成、深度研究等功能整合到一个平台。 上传教材或论文后,系统会构建知识库,支持多轮对话问答并给出带引用的分步解答。还能根据学习进度自动生成练习题,甚至模拟真实考试风格出题。 主要功能: - 大规模文档知识问答,支持教材、论文、技术手册等多种格式; - 多智能体协作解题,结合 RAG、网络搜索和代码执行给出分步解答; - 交互式知识可视化,将复杂概念转化为易懂的图解和演示; - 智能练习生成,根据学习水平定制题目,支持模拟真题风格; - 深度研究与文献综述,自动发现知识空白和研究方向; - 个人知识库和笔记本,追踪学习进度并保持上下文记忆。 支持 Web 界面使用,通过 Python 和 npm 安装依赖后即可本地运行,适合学生、研究人员和自学者使用。

[详情]

附件:[图片]
黑洞资源笔记 12-30 11:24:48

@piracy9 此群组要变私密群组了,垃圾广告号太他么多了,受不了了。虽然有建bot的bot,奈何人懒不想折腾。谁想进的就进,以后还开不开放,没准儿 晚上封群 补充:加入了比较棒的bot,暂不封群了 如有误伤,找 @ashbur_bot

[详情]

黑洞资源笔记 12-28 18:17:09

山水画风格邮票提示词 | 帖子

[详情]

附件:[图片]
黑洞资源笔记 12-27 08:56:39

跟小伙伴合作搞了个卖号的:账号星球 商品包含:苹果ID,手机卡,礼品卡,邮箱,影音流媒体,AI工具,办公,游戏账号等

[详情]

附件:[图片]
黑洞资源笔记 12-27 00:31:16

清华开源的视频生成加速神器项目: TurboDiffusion 该项目的核心目标是在保持视频质量的前提下,极大地提升视频扩散模型的生成速度。根据官方介绍,它可以在单张 RTX 5090 显卡上实现 100 到 200 倍 的端到端生成加速。使用 Wan-2.1-T2V-1.3B 模型生成 480P 视频,原始方法需要 184秒,而 TurboDiffusion 仅需 1.9秒。Wan-2.2-I2V-14B-720P 模型,能从 4549秒 缩减至 38秒。

[详情]

附件:[图片]
黑洞资源笔记 12-27 00:09:56

91数学:页面根据函数图像、随机数、趣味数学题、斐波那契数列、LaTEX、数学小工具等进行分类,还提供数学知识讲解、数学试题下载、数学计算器等。 数九网:提供了丰富的数学学习资源和数学学习工具,包括数学知识讲解、数学试题下载、在线测试等。内容全面、难度适中,适合中小学生进行自主学习和巩固复习。 Number Empire:通过数学游戏的方式更好地理解数学概念和提高数学能力。游戏包括数字拼图、数学接龙、数学迷宫等。

[详情]

黑洞资源笔记 12-26 23:54:32

个人知识管理往往面临记录容易、整理难的问题。笔记软件里堆满了零散的碎片,却很难转化为实际的行动。如果能把 Obsidian 的笔记功能与 Claude 的 AI 能力深度结合,就能让静态的知识库变成一个能够互动、辅助决策的智能系统。 Obsidian + Claude Code PKM 是一个开源的个人知识管理启动套件,它将目标管理、每日笔记与 Claude Code AI 助手无缝集成,帮助用户在短时间内搭建起一套完整的 PKM 体系。 这套方案不仅提供了从长期愿景到每日任务的层级管理逻辑,还引入了自动提交、自定义 AI 代理等进阶功能,甚至能让 AI 化身为生产力教练,通过对话引导用户克服拖延并聚焦核心目标。 主要功能: - 目标对齐系统,支持从三年愿景到每日任务的级联管理与追踪; - 结构化的每日笔记系统,内置模板方便进行每日计划与深度反思; - 深度集成 Claude Code,提供笔记整理、周报回顾、收件箱处理等 AI 代理; - 自动化工作流支持,包括保存时自动提交 Git,确保数据安全与多端同步; - 模块化规则配置,可针对不同路径定义 Markdown 标准和项目管理规范; - 生产力教练模式,由 AI 担任问责伙伴,通过提问引导用户明确意图。 该套件支持 Windows、macOS 和 Linux 平台使用,在安装 Obsidian 和 Claude Code CLI 后,通过运行内置的 setup 脚本即可完成环境部署。它非常适合希望通过 AI 提升笔记效率、构建系统化思维框架的深度学习者。

[详情]

附件:[图片]
黑洞资源笔记 12-26 23:53:07

AI编程助手的进化正在进入一个关键的转折点:从单纯的对话框转变为具备专业能力的智能体。Agent Skills Marketplace的出现,标志着开发者不再需要费力地引导AI如何执行复杂任务,而是可以直接赋予它成千上万种现成的专业技能。 这个平台目前汇聚了超过三万个源自GitHub的开源技能,构建起一个庞大的自动化生态。它不仅是一个搜索工具,更是一个基于SKILL.md开放标准的资源库。最核心的突破在于其通用性,这套标准同时被Anthropic的Claude Code和OpenAI的Codex CLI所采纳,打破了不同AI模型之间的能力壁垒。 技能的本质是模块化的指令与工具集。与传统的斜杠命令不同,斜杠命令依赖于用户的手动触发,而技能是模型调用的。这意味着AI能够根据当前的对话上下文、项目需求和任务目标,自主判断并在最合适的时机激活相应的技能。这种从被动响应到主动调用的转变,是智能体进化的重要标志。 在实际应用场景中,这些技能展现了极高的灵活性。开发者可以为AI集成钩子开发能力以监控危险命令,或者通过MCP协议连接外部服务。由于技能具有高度的模块化特征,用户可以将代码审查、Git自动化、单元测试等多个技能组合使用,将一个通用的语言模型定制成一位深谙项目规范的资深工程师。 为了确保开发者体验,平台的安装机制设计得非常简洁。通过将技能文件放入本地特定目录,AI即可自动识别并加载。而marketplace.json文件的引入,更是实现了类似插件管理器的便捷安装体验。这种设计极大地降低了技术门槛,让复杂的自动化流程能够迅速在不同团队间复用。 虽然SkillsMP通过星级过滤和质量扫描来筛选优质资源,但它本质上仍是一个充满活力的开源社区。作为独立于大模型厂商的第三方项目,它代表了社区驱动的技术共识。每一项技能的贡献和迭代,都在不断丰富AI处理现实世界复杂问题的手段。 当AI拥有了可扩展的技能库,编程的边界正在被重新定义。开发者不再仅仅是代码的编写者,更成为了AI能力的编排者。这种模块化、标准化的能力扩展方式,正在让AI助手从一个好用的工具,真正变成一个能够独立思考并解决问题的数字协作伙伴。

[详情]

附件:[图片]