Team Qwen lại vừa thả xích dàn model 3.5 Small. Anh em dev máy yếu vào húp vội, còn dân nhiều VRAM thì tính bài spec-decoding. Hóng ngay!

Vừa mở mắt ra lướt Reddit đã thấy dân tình rần rần vụ Qwen 3.5 Small. Team Alibaba (Qwen) dạo này năng suất thực sự, code như máy khâu hay sao mà đẻ model sòn sòn.
Lần này không phải mấy con quái vật ngốn VRAM như nước lã, mà là hàng "nhỏ gọn" (Small models). Anh em dev nghèo vượt khó, máy yếu, GPU chạy bằng "cơm" bơi hết vào đây xem có xơ múi được gì không nhé.
Chuyện là trên r/LocalLLaMA vừa có tin breaking news: Qwen 3.5 Small chính thức lên sóng (hoặc đang được leak/tease cực mạnh).
Theo thông tin hành lang và mấy tấm ảnh leak, thì đợt này Qwen đánh mạnh vào phân khúc size nhỏ và vừa. Nhìn vào cái list size model mà thấy sướng cả mắt: đủ các thể loại kích cỡ để nhét vừa mọi loại phần cứng.
Điều này có nghĩa là gì? Là mấy ông đang dùng laptop gaming đời tống hay PC văn phòng cắm card on-board sắp có đồ chơi mới xịn xò để vọc vạch local LLM mà không lo máy bốc khói hay tràn RAM sập nguồn.
Dân tình trên Reddit thì khỏi nói, như nắng hạn gặp mưa rào. Tôi lượn một vòng comment thì thấy chia phe bàn tán xôm tụ lắm:
Thẳng thắn mà nói, cuộc đua AI bây giờ không chỉ là ai to hơn (nhiều tham số hơn), mà là ai tối ưu hơn.
Việc Qwen tung ra bản 3.5 Small cho thấy xu hướng đưa AI về Edge Device (thiết bị cá nhân, điện thoại, laptop cùi) đang cực nóng. Anh em dev mình được lợi gì?
Túm cái váy lại: Có đồ mới thì cứ pull về mà test. Ngon thì dùng, bug thì report, toang thì xóa. Đời dev mà, ngại gì vết bẩn!