Hóng drama r/LocalLLaMA: Chuyện gì xảy ra khi các pháp sư chạy AI ở local? Bánh mì bê tông, AI thảo mai và những cú lừa 'Local o3' tấu hài cực mạnh.

Chuyện là hôm nay lướt Reddit r/LocalLLaMA hóng hớt xem các pháp sư AI dạo này đang train model đến đâu rồi, đập vào mắt tôi là một cái post leo top 1189 points với tiêu đề siêu kêu: "the state of LocalLLama". Nghe như thông điệp liên bang, tưởng các pháp sư vừa tìm ra cách chạy GPT-4 trên con máy cùi bắp RAM 4GB, nhưng đ*o anh em ạ. Tấu hài cực mạnh!
Tóm tắt nhanh cho anh em lười đọc: Post này cơ bản bóc trần cái thực trạng dở khóc dở cười của cộng đồng chơi local LLM hiện tại. Người người nhà nhà cắm mặt vào tải model về chạy, nhưng output trả ra thì... ối giời ơi. Đầu tiên, vừa post bài lên là có ngay một con bot Discord bay vào auto-reply: "Bài viết của bạn đang hot, vào Discord của chúng tôi nhé, bạn đã được cấp flair đặc biệt bla bla". Cảm giác như hệ sinh thái bây giờ toàn bot đang tự vuốt ve tinh thần với nhau vậy.
Đỉnh cao của độ "ảo ma" là khi một con model nào đó tự tin nhả ra công thức làm bánh mì chuối. Một ông dev kiêm thợ làm bánh nghiệp dư (FoxiPanda) ngứa mắt nhảy vào bóc phốt: "Đùa chứ tôi không phải pro bakes gì đâu, nhưng cái tỷ lệ chuối với bột mỳ thế kia thì sai bét nhè. Nướng xong ra cái bánh mì chuối đặc như cục gạch mất." Ngay lập tức có đạo hữu vào chữa cháy: "Thì có ai bảo mấy cái model này xịn đâu". Nhưng buồn cười nhất là thanh niên OP (DR4G0NH3ART) thả một câu châm biếm đỉnh cao: "Thế thay vì bánh mì cục gạch, ông thử nướng bánh MoE (Mixture of Experts) xem sao?". Đúng chuẩn văn của mấy lão nghiện AI, cái quái gì cũng lôi thuật ngữ tech vào khịa cho bằng được.
Chưa hết, một luồng quan điểm khác làm anh em cười sặc nước bọt là cách mấy con AI (hoặc mấy ông dev mớm prompt cho AI) đang giao tiếp. Có ông comment kiểu vuốt đuôi y hệt văn mẫu ChatGPT: "Bạn hoàn toàn đúng. Bạn có con mắt tinh tường đấy! Cách bạn nhìn nhận vấn đề bla bla... Góc nhìn sâu sắc, Tư duy phản biện, Tăng cường độ rõ nét". Đọc sượng trân! OP cũng lầy lội không kém khi rep lại kiểu NPC: "Giờ tôi đã có đủ thông tin. Để tôi nạp cái này vào skill của mình." Nhập vai quá anh ơi! Trong khi đó, có người thì há hốc mồm với comment: "Local o3? wtf". Lạy các cụ, OpenAI ra mắt o1 chưa ấm chỗ, các giáo chủ đã đem cái mác "o3" ra khè nhau rồi. Trí tưởng tượng bay xa quá, cẩn thận sập server có ngày.
Tóm cái váy lại, vụ này nhắc nhở anh em dev chúng ta một sự thật phũ phàng: AI bây giờ rất xịn xò con bò, nhưng nó vẫn ngáo ngơ theo một cách rất riêng. Chơi local LLM thì vui đấy, nhưng đừng tin tưởng mù quáng vào output của nó. Nó có thể code hotfix phụ bạn một đoạn script, nhưng nhờ nó tính tỷ lệ xi măng... à nhầm, tỷ lệ bột làm bánh thì có ngày gãy răng.
Nếu anh em muốn dấn thân vào con đường train model hay nghịch ngợm các hệ thống AI, đừng tiếc tiền build máy hoặc chí ít là thuê một con vps đàng hoàng một tí. Đừng để máy thì cắn RAM tung toé mà model nhả ra toàn rác. Còn nếu lười thì cứ dùng mấy cái ai tools có sẵn cho nhẹ đầu. Code là để ra tiền, để ăn ngon, chứ không phải để ngồi nhai bánh mì chuối cứng như đá, nhớ nhé anh em!