Coding4Food LogoCoding4Food
Trang chủChuyên mụcArcadeĐã lưu
en
Coding4Food LogoCoding4Food
Trang chủChuyên mụcArcadeĐã lưu
Bảo mật|Điều khoản

© 2026 Coding4Food. Viết bởi dev, cho dev.

Tất cả tin tức
AI & AutomationCông nghệ

Ollama v0.19 'Bơm' MLX Cho Mac M-Series: Anh Em Chơi Local AI Mở Tiệc!

2 tháng 4, 20263 phút đọc

Ollama v0.19 đập đi xây lại với MLX, biến Mac M-series thành quái thú chạy local AI. Cùng nghía qua xem có 'lùa gà' hay ngon thật sự cho anh em dev.

Chia sẻ bài viết:
processor, micro, technology, microprocessor, laptop, pc, team, cpu, electronics, circuit, board, microchip, digital, computer, electric, core, device, circuits, microprocessor, microprocessor, cpu, cpu, cpu, microchip, microchip, microchip, microchip, microchip
Nguồn gốc: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Nội dung thuộc bản quyền Coding4Food. Original source: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Content is property of Coding4Food. This content was scraped without permission from https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-aiNguồn gốc: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Nội dung thuộc bản quyền Coding4Food. Original source: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Content is property of Coding4Food. This content was scraped without permission from https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai
Nguồn gốc: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Nội dung thuộc bản quyền Coding4Food. Original source: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Content is property of Coding4Food. This content was scraped without permission from https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-aiNguồn gốc: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Nội dung thuộc bản quyền Coding4Food. Original source: https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai. Content is property of Coding4Food. This content was scraped without permission from https://coding4food.com/post/ollama-v019-bom-mlx-cho-mac-m-series-local-ai
ollama v0.19mlxapple siliconlocal aimac m-seriesnvfp4kv cache
Chia sẻ bài viết:

Bình luận

Chào anh em đồng đạo. Gần đây mấy pháp sư Apple Silicon chắc đang khóc ròng vì cắm mặt chạy local AI mà máy nó rên như máy cày. Cơ mà khoan, Ollama vừa thả quả bom v0.19, hứa hẹn biến mấy con Mac M-series thành quái thú AI thực thụ. Thử xem có "lùa gà" không hay ngon thật nhé!

Tóm tắt vụ "độ xe" cho anh em lười đọc

Nói ngắn gọn thì bản update này tập trung bú liếm triệt để sức mạnh phần cứng nhà Táo. Cụ thể:

  • Chuyển khẩu sang MLX: Ollama v0.19 đập đi xây lại toàn bộ phần inference trên Apple Silicon, dọn nhà sang dùng framework "cây nhà lá vườn" của Apple là MLX. Tối ưu cực mạnh cho kiến trúc Unified Memory.
  • Hỗ trợ NVFP4: Giải thích nhanh cho anh em đỡ ngợp, cái này giúp chạy local inference mượt mà hơn, kéo chất lượng tiến sát với hàng production server.
  • Đại tu hệ thống KV cache: Giờ nó khôn hơn rồi. Biết giữ lại cache qua các đoạn hội thoại, lưu snapshot và dọn dẹp (eviction) chuẩn xác hơn. Đỡ hẳn cái cảnh anh em switch project bị cold-start chờ mốc mỏ.

Giang cư mận hóng hớt được gì?

Dạo một vòng Product Hunt với mấy ổ Reddit, thấy dân tình combat và test hiệu năng rôm rả phết. Có vài luồng quan điểm đang chiếm sóng:

  • Phe khen nức nở (Đa số): Toàn các thanh niên xài Mac M4 lên tiếng. Chạy con Qwen3.5 mà tốc độ "bàn thờ" luôn. Trích lời một pro ẩn danh: "So với cái backend GGML cũ thì bản MLX này đúng là một trời một vực".
  • Phe cày Agent (Claude Code, OpenClaw): Cái vụ tái sử dụng KV cache đúng là cứu tinh. Chạy multi-turn workflows bớt cắn RAM đi bao nhiêu, anh em dev làm agent bớt trầm cảm vì máy giật lag.
  • Phe thực dụng & rón rén: Mấy tay to dùng Mac 32GB RAM test ngay con Qwen3.5-35B-A3B NVFP4 và confirm là mượt. Nhưng mấy đồng đạo xài Mac Mini 16GB hay M2 Air thì đang vừa mừng vừa lo, vì bản cũ từng bóp nghẹt RAM của các pháp sư này, hi vọng bản mới quản lý bộ nhớ tốt hơn khi chạy kèm các process nặng khác.

Góc nhìn từ lão quái C4F: Chốt hạ là có thơm không?

Nói công bằng, quả update này của Ollama cực kỳ đáng đồng tiền bát gạo. Việc native với MLX là bước đi quá chí mạng, tận dụng triệt để cái unified memory ảo ma của bọn chip M. Anh em nào đang code dạo mà muốn xài AI local để tiết kiệm tiền API thì nâng cấp ngay và luôn đ*o phải nghĩ.

Bài học sinh tồn rút ra ở đây là gì? Đừng bao giờ khinh thường đồ "chính chủ". Framework native bao giờ cũng vắt kiệt phần cứng tốt hơn mấy bản port chắp vá từ các nền tảng khác. Thôi, chém gió thế đủ rồi, tôi đi pull con model mới về test đây, chúc anh em build agent không bị sập máy!


Nguồn tham khảo: Product Hunt

Bài viết liên quan

laptop, hands, gadgets, iphone, apple, lens, macbook, mobile phone, smartphone, typing, blogging, flat lay, workspace, laptop, laptop, typing, typing, typing, typing, typing, blogging, blogging, blogging
AI & AutomationChuyện Nghề

Bị sếp YC tế sống, dev cay cú quay xe code luôn DenchClaw: Bản ngã 'Next.js' của giới Local AI

Câu chuyện tấu hài từ YC rẽ nhánh ra một con AI CRM chạy local cực khét. Tạm biệt đám mây hút máu, anh em tải DenchClaw về xài thử xem ngon không.

26 thg 34 phút đọc
Đọc tiếp →
nvidia, gpu, electronics, pcb, board, processor, circuit, chip, computer, power, component, technology, hardware, macro, videocard, high-tech, nvidia, nvidia, nvidia, nvidia, nvidia, gpu
Công nghệĐồ Nghề & Tech Stack

Chạy AI Local: Khi con PC ghẻ của bạn kêu gào xin tha mạng

Anh em tò mò muốn kéo LLM về chạy offline cho ngầu? Check ngay con tool canirun.ai xem máy mình có đủ sức hay bốc khói nhé. Giang cư mận đang combat nảy lửa!

14 thg 33 phút đọc
Đọc tiếp →
ai generated, processor, cpu, chip, computer, technology, hardware, electronics, gpu, digital
AI & AutomationĐồ Nghề & Tech Stack

LTX Desktop: Edit video AI 'ngon, bổ, miễn phí' nhưng cấu hình đòi tới... 32GB VRAM?

LTX Desktop quảng cáo edit video AI local, open-source 100%. Nghe thì mượt đấy, nhưng đọc tới cấu hình tối thiểu chắc nhiều anh em tắt tab vội.

8 thg 33 phút đọc
Đọc tiếp →