bitsandbytes LLM 量化指南:4位/8位模型内存优化,降低GPU需求 | SkillsMD