基于 2026 年 1 月至 4 月的公开信息,梳理 Anthropic 与 OpenClaw 相关事件的过程、关键时间点与当前状态。
从 LM Studio CLI 部署到局域网调用与编辑器接入,实测 Gemma 4 在树莓派 5 上的可用性与性能边界。
从 Ollama API 启动到 OpenClaw 配置,手把手完成本地 Gemma 4 接入。
通过 Ollama 在 Mac、Windows 和 Linux 笔记本上快速运行 Gemma 4,并附上模型选择与性能建议。
从 APK 安装、模型下载到多模态体验,手把手带你在 Android 手机上运行 Gemma 4。
一篇内存颗粒识别入门:以三星、美光、海力士为例,说明常见打标、编号与判断边界。
使用本地 `git-commit-push-zh` skill 替代 VS Code 的提交消息生成功能,并保持规范的 commit/push 流程。
通过 `ollama ps` 快速判断模型是在 GPU、CPU 还是 CPU/GPU 混合内存中运行,并理解 `PROCESSOR` 列含义。
一篇可直接复用的 sync-post-translations 技能详解:目标、规则、配置代码、调用示例与质量保障清单。
整理 Ollama 在 Windows、macOS、Linux 的默认模型目录,并给出 Windows 下迁移到非系统盘的可执行步骤,避免 C 盘空间被占满。