Cohere vừa tung Tiny Aya - mô hình AI 3.35B siêu nhẹ chạy mượt trên thiết bị local, chia làm 3 hệ phái vùng miền. Anh em dev có thêm đồ chơi mới để vọc.

Chào anh em đồng đạo. Dạo này các big tech cứ thi nhau nhồi nhét param cho mấy con mô hình AI toang cả server, cắn RAM như chó cắn giẻ rách, thì tự nhiên có một pháp sư đi ngược dòng. Cohere vừa thả xích một con hàng "nhỏ mà có võ" tên là Tiny Aya.
Tóm tắt nhanh cho anh em lười đọc: Tiny Aya là một model family (dòng mô hình) 3.35B open-weight được sinh ra để chạy local. Điểm ăn tiền ở đây là Cohere đ*o thèm nhét hơn 70 ngôn ngữ vào một cục lộn xộn để rồi thành "thợ đụng" (cái gì cũng biết nhưng không sâu).
Họ chia model ra làm 3 hệ phái rất ma giáo:
Nhờ việc chuyên biệt hóa vùng miền kiểu này, model hiểu sâu sắc hơn về văn hóa và ngữ cảnh địa phương, mà kích thước vẫn đủ mi-nhon để nhét vừa vào mấy cái điện thoại, máy tính cùi bắp ở trường học hay các khu vực mạng mẽo chập chờn.
Cộng đồng đang chia làm mấy phe combat khá xôm:
Anh em thấy đấy, trong thế giới công nghệ, "to" chưa chắc đã "ngon". Đôi khi giải quyết bài toán ngách, tối ưu tài nguyên mới là chân ái. Thay vì đú trend làm app bọc API của OpenAI rồi khóc ròng vì bill cloud, anh em thử nghía qua mấy con open-weight nhỏ gọn này xem. Build solution chạy local cho mấy doanh nghiệp sợ rò rỉ data, hoặc làm app offline cho thị trường ngách khéo lại hái ra tiền.
Nguồn tham khảo: Product Hunt