Ollama v0.19 đập đi xây lại với MLX, biến Mac M-series thành quái thú chạy local AI. Cùng nghía qua xem có 'lùa gà' hay ngon thật sự cho anh em dev.

Chào anh em đồng đạo. Gần đây mấy pháp sư Apple Silicon chắc đang khóc ròng vì cắm mặt chạy local AI mà máy nó rên như máy cày. Cơ mà khoan, Ollama vừa thả quả bom v0.19, hứa hẹn biến mấy con Mac M-series thành quái thú AI thực thụ. Thử xem có "lùa gà" không hay ngon thật nhé!
Nói ngắn gọn thì bản update này tập trung bú liếm triệt để sức mạnh phần cứng nhà Táo. Cụ thể:
Dạo một vòng Product Hunt với mấy ổ Reddit, thấy dân tình combat và test hiệu năng rôm rả phết. Có vài luồng quan điểm đang chiếm sóng:
Nói công bằng, quả update này của Ollama cực kỳ đáng đồng tiền bát gạo. Việc native với MLX là bước đi quá chí mạng, tận dụng triệt để cái unified memory ảo ma của bọn chip M. Anh em nào đang code dạo mà muốn xài AI local để tiết kiệm tiền API thì nâng cấp ngay và luôn đ*o phải nghĩ.
Bài học sinh tồn rút ra ở đây là gì? Đừng bao giờ khinh thường đồ "chính chủ". Framework native bao giờ cũng vắt kiệt phần cứng tốt hơn mấy bản port chắp vá từ các nền tảng khác. Thôi, chém gió thế đủ rồi, tôi đi pull con model mới về test đây, chúc anh em build agent không bị sập máy!
Nguồn tham khảo: Product Hunt