首页
AI 硬件
AI 算法
AI 技术文档
AI 工具
通义千问
关于我们
硅基核心 (Silicon Core)
行动起来,活在当下
累计撰写
31
篇文章
累计创建
1
个标签
累计收到
0
条评论
栏目
首页
AI 硬件
AI 算法
AI 技术文档
AI 工具
通义千问
关于我们
目 录
CONTENT
以下是
jackyezhang
的文章
2026-03-25
OpenClaw 本地模型最佳实践:Qwen2.5 + vLLM 部署全攻略
想让 OpenClaw 自动化任务告别云端 API 的延迟与高昂成本?本文将深度解析为何 vLLM 是目前单卡本地部署的最优解,并手把手教你在 Windows WSL2 环境下通过 Qwen2.5 打造极致流畅的 AI 智能体(Agent)体验。 为什么弃用 Ollama,转向 vLLM? 在 Op
2026-03-25
89
0
7
AI 技术文档
2026-03-19
极致协同设计的巅峰:英伟达 Vera Rubin 架构深度解析
在 CES 2026 上,英伟达正式揭开了 Rubin 平台 的神秘面纱。这不仅仅是又一次硬件迭代,更是英伟达从“芯片公司”全面进化为“系统架构公司”的里程碑。 通过 Rubin GPU、Vera CPU、NVLink 6 交换机、ConnectX-9 网卡、BlueField-4 DPU 以及 S
2026-03-19
24
0
0
AI 硬件
2026-03-11
解码 Google TPU 十年演进:从算力刺客到 TPUv7 的“硅基巅峰”
为什么大模型的未来在 TPU? 在 2026 年的今天,当你运行 OpenClaw(龙虾) 或是调取 Gemini 3 的 API 时,支撑这一切的底层心脏,极大概率不是传统的显卡,而是 Google 秘密研发十年的 TPU (Tensor Processing Unit)。 从最初应对 Googl
2026-03-11
19
0
0
AI 硬件
2026-03-11
从英伟达“神坛”到龙虾代理人:2026 算力大变局下的硅基生存法则
变压器工厂干冒烟了,但谁在买单? 2026 年初,AI 圈最火的词不是某个新模型,而是**“OpenClaw(龙虾)”**。这个让全球打工人集体“养虾”的代理人框架,标志着 AI 正式从“对话框”走进“操作系统”。 然而,当你感叹 OpenClaw 帮你处理邮件、操作电脑的神奇时,背后却是一场残酷的
2026-03-11
27
0
0
AI 硬件
2026-03-10
🚀 OpenClaw (龙虾) 新手全攻略:告别“人工智障”,解锁 AI Agent 浏览器自动化!
💡 为什么你的 OpenClaw 不好用? 相信很多小伙伴已经上手了 OpenClaw(龙虾),但反馈最多的问题就是:“感觉不够聪明”、“没法帮我操作浏览器”、“只会查旧资料”。 其实,OpenClaw 本身只是一个强大的“底座”,它好不好用,取决于两个核心:模型选对了吗?Skills(技能)装全
2026-03-10
43
0
0
AI 技术文档
2026-03-09
零成本构建 AI 爬虫:OpenClaw Zero Token 实战部署教程
在 AI Agent 时代,网页抓取的痛点不再是“怎么抓”,而是“Token 太贵”。OpenClaw Zero Token 是一个旨在通过优化 Context(上下文)和接入低成本/免费模型接口,实现高效率、低消耗甚至零 Token 消耗的自动化框架。 本教程将手把手带你完成从环境搭建到第一个自动
2026-03-09
138
0
0
AI 技术文档
2026-03-07
2026 AI Agent 分水岭:手把手教你用 GPT-5.4 + OpenClaw 实现全自动办公
就在昨晚凌晨两点,OpenAI 毫无预兆地发布了重磅更新——GPT-5.4。如果说过去的模型是在“纸上谈兵”,那么 GPT-5.4 则真正拿到了电脑的“方向盘”。 经过第一时间实测,我可以负责任地说:GPT-5.4 是目前最适合驱动 OpenClaw 的模型,没有之一。 1.原生操控:从“对话框”到
2026-03-07
25
0
0
AI 技术文档
2026-03-07
零成本拥抱 Qwen3:Ollama 本地部署 + 花生壳安全远程访问全攻略
阿里巴巴最新开源模型 Qwen3 正式发布!想要在自己的电脑上跑起来,又担心云端成本和隐私安全? 本文将手把手带你通过 Ollama + Open WebUI 实现 Qwen3 的本地私有化部署,并利用 贝锐花生壳内网穿透 技术,打破局域网限制,让你随时随地、安全地调取家中的 AI 大模型! 🚀
2026-03-07
47
0
0
AI 技术文档
2026-03-04
DIY AI 服务器的 Dell 电源改造指南
在 DIY AI 服务器圈子里,Dell 的服务器拆机电源(如著名的 1100W、1600W 甚至 2400W 铂金/钛金电源)因其极高的转化效率和低廉的价格被视为“神物”。但由于服务器电源采用的是金手指插槽而非标准 ATX 接口,且 AI 负载具有极高的瞬态功耗,直接乱接线往往会导致系统重启甚至硬
2026-03-04
44
0
0
AI 硬件
2026-02-28
【保姆级教程】千元预算组装双卡 V100 32G AI 推理服务器
在 2026 年的今天,虽然显卡市场迭代频繁,但 NVIDIA V100 32G 凭借 HBM2 高带宽显存和 32G 海量容量,在二手市场依然是性价比之王。如果你想在“千元级别”预算(指除显卡外的核心配置)内搞定一套双卡 V100 平台,实现 64G 显存的本地大模型自由,这篇教程将为你拆解最硬核
2026-02-28
112
0
0
AI 硬件
1
2
3
4