使用RTX3090的24G显存测试Gemma-4-31B: 1.环境是Window 11,使用lm studio最新版本,上下文默认4096,Q_4_M,在普通聊天对话中反应速度超级快,快的离谱,输出质量看上去不错。 2.在集成到openclaw里面操作的时候,设置上下文到6万多时候就开始炸了OOM,退出不工作了。一般来说3万多的上下文就撑不住了,所以目前来看不适合24G显存的3090显卡,得32G显存起步。 3.后面还是得靠社区去精简Gemma-4-31B的3090显卡负载容量 4.同Qwen3.5-27B相比,有些用户反映其实差不多,但是31B比27B体量大一点而已,所以Qwen3.5的27B还是很强的,至少3090可以跑得得动


