2026年笔记本上的本地AIAMD_Ryzen_AI_PRO_128GB深度体验
本期视频探索了2026年使用AMD Ryzen AI Pro笔记本(128GB内存)在离线状态下运行本地AI模型的可能性。测试使用Ollama运行各种模型:GPT OSS 20B通用对话达到40 tokens/秒,Quen 3 Coder 30B编程模型达到51 tokens/秒,Quen 3VL 8B视觉模型成功识别截图内容。视频还演示了开源版Cursor配合本地模型创建HTML页面和贪吃蛇游戏。主持人强调50 tokens/秒的编程速度已经完全足够,数据全程本地处理确保隐私安全,适合处理敏感代码和专有信息。