AI
用 Claude Code 写代码写多了,偶尔会遇到这种情况:一个 bug 折腾了半小时,反复试了三个方案都不行,上下文越来越长,Token 越烧越多,但它就是卡在那了。这时候喷它它也只是一味的道歉,但是就是不改,开新窗口又怕浪费了之前的一些问答内容,如果这个时候能有个程序员鼓励师给予建议或者直接上手指导,那就巴适的很
正好这两天 OpenAI 官方出了个插件 codex-plugin-cc,干的就是这事——让 Claude Code 里可以直接使用 Codex,帮着审查代码、排查问题、在线 Battle,甚至接手干活。
这就相当于 OpenAI 出了一个官方的 Claude Code 的程序员鼓励师。
用 Claude Code 写代码的时候,我日常任务都是使用的 GLM Coding Plan,也算是支持国产了。用了 Coding Plan 就忍不住想看到每次消耗了多少 Token,每次想知道用量,都得打开浏览器,登录智谱的控制台,然后刷新,像是一个看着太阳不断落山的小丑。
所以我就想着把 GLM 的用量能不能直接搬到终端里——就在 Claude Code 的状态栏上,一眼就能看到。
用 Claude Code 写了一段时间代码之后,我发现一个问题:它很聪明,但有时候聪明的方向还是不太对。
很多时候它不会读现有代码,直接就开干,然后搞出一堆跟项目风格不搭的东西;也会幻觉掺屎,一个简单需求能搞出三层抽象;还会过度设计,一个计数器给我搞了个工厂模式加观察者模式,费我的 token。说好听点叫"过度热情",说难听点就是——没有组织纪律性。
因为我还使用着被背刺的 intel 的 Mac,使用 Cursor 这种 IDE 已经明显感觉有些卡顿,也尝试过 Zed 这种精简的软件,虽然改善了很多,但是还是有点差强人意。最终只能找寻 TUI 的方案。
经过一番查找,发现 Ghostty 是个不错的选择,在我使用了一段时间后,发现这才是 AI 时代免费 TUI 应该有的样子,而且我使用的过程中发现 TUI 的方式明显比 IDE 内置插件甚至 ACP 要省 Token。
Ghostty 是 Mitchell Hashimoto(HashiCorp 创始人)用 Zig 从零打造的 GPU 加速终端模拟器。它不是又一个 Electron 包装的终端,而是一个原生性能、现代架构的产品。
好消息!英伟达最近开始在其NVIDIA NIM Models 平台免费提供两个最新的国产大模型:GLM-4.7 和 MiniMax-M2.1。这波老黄是真的良心了一把,免费让大家体验最新的国产大模型,又能白嫖薅一把了。
🚀 快速开始 自己先注册一个,可以使用 86 手机号注册。
API 端点 https://integrate.api.nvidia.com/v1 推荐可用模型 模型名称 速度 适用场景 z-ai/glm4.7 ~40 tokens/s 编程、日常对话 minimaxai/minimax-m2.1 ~40 tokens/s 编程、日常对话
最近使用了很多 Vibe Coding 的开发工具,目前最常用的还是 Cursor。虽然它的吃相比较难看,但是他家的 Tab 功能确实太好用了,短期还是离不开。
既然选择了 Cursor 作为开发工具的基座,那么就想着找一些基于 Cursor 的插件,搭配起来使用更高效。
现在很多 Vibe Coding 工具都支持插件模式,于是在 Cursor 里找一些辅助插件就成了目前较好的解决方案。
MCP 最近火的有点过分,但是实际上还是 API 的翻译,有点类似 AI 调用的 HTTP 协议。因为已经有了不少基于 Raycast 的工具,所以我日常使用 MCP 的概率没那么多。
但是作为有读书习惯的我,在查找自己读书笔记的时候目前只能用比较粗暴的搜索功能,想着如果能结合 AI 帮我总结就更好了,于是就找到了微信读书MCP这个仓库。
我是用 Cursor 接入的,其他应用接入的方法也类似。
一直在使用 Cursor,对开发效率的提升不是一点半点,现在写代码已经离不开 Cursor 了。
最近看到 MCP(Model Context Protocol) 这个功能,都吹的神乎其神,但是就像伟人说的
想知道梨子的味道,就要亲口尝一尝,没有调查就没有发言权
所以还是得亲自使用一下。
目前 Cursor Pool 方案已经不可用,仅 chengazhen/cursor-auto-free: auto sign cursor 存活 2025-03-27
PoolHub 这个方案还活着,挺好用。 2025-05-01
今天 Claude 推出了Claude 3.7 Sonnet and Claude Code,作为程序员自然是想要第一时间体验下。听说 Cursor 第一时间已经接入了,于是就打算用 Cursor 好好体验一下。
但是我打开 Cursor 发现之前 Pro 体验版本到期了,这就很难受,于是我就想能不能破解一下,无限试用。
之前知道这个工具 Cursor Pool,只是登录了一下,一直没有真正试用,这次刚好有机会实践下。
AI 技术发展的确实太快了,去年年底还跟小伙伴们分享如何利用在线的工具来提升自己的开发效率,现在又开始卷本地了。因为数据的安全性,私有化本地部署成了使用者更看重的方式。
虽然市面上有很多本地部署的工具,这里抛开其他,主要介绍下 Ollama 这个工具。
Ollama Ollama 官网的介绍很简单,就一句 Get up and running with large language models.(启动并运行大型语言模型)。logo 很可爱,无形中增加了不少的亲和力。