Sáng nay bú cốc cafe lướt Reddit r/LocalLLaMA hóng biến, thấy một quả drama cười sái quai hàm. Anh em dạo này cứ chê user mù công nghệ, chứ tôi thấy dân dev mình nhiều khi cũng "ngáo" và dễ bị dắt mũi chả kém đâu.
Nguồn cơn drama: Ảo ma Canada từ một bức ảnh
Chuyện là hôm trước, có một thanh niên lên mạng gáy to với một post sặc mùi clickbait: "Qwen 3.5 4b thông minh đáng sợ anh em ạ!"
Thanh niên này tự tin khoe con AI nhận diện cảnh vật trong một bức ảnh cực kỳ chuẩn đét. Nhưng đời không như là mơ. Kết quả là:
- Con AI đó ảo giác (hallucinate) 100%. Nó tự vẽ ra một tòa nhà éo hề tồn tại trong bức hình đó.
- Đắng lòng ở chỗ, chủ thớt đách biết gì, cứ tưởng AI xịn nên mang lên khoe.
- Cú lừa này thế mà bú đẫm hơn 300 upvote (với tỷ lệ upvote lên tới 85%).
- Cay nhất là Top comment của bài post đã bóc phốt ngay sự thật phũ phàng này, nhưng các pháp sư online vẫn thả upvote như cái máy mà đéo thèm mở bài ra đọc xem thiên hạ đang bàn cái gì.
Giang hồ mạng Reddit thi nhau tế sống
Đọc comment mới thấy cộng đồng chia phe combat mặn chát, lòi ra đủ thứ thói hư tật xấu của anh em tech:
- Thím mckirkus phán một câu xanh rờn nhưng chí mạng: "Người ta chỉ upvote những gì củng cố niềm tin sẵn có của họ thôi. Sự thật đành ngậm ngùi xếp thứ hai". Quá chuẩn cho cái thời đại xem tiêu đề rồi tin sái cổ này.
- Một thanh niên lõi đời khác tên Vusiwe thì cười khẩy khịa nhẹ: "Dân chơi hệ LLM nhìn con 4B làm Vision Task thì biết thừa là mõm rồi, model 235B còn đang trầy trật chán. Tôi cứ tưởng bài này là parody (diễn hài) cơ".
- Về phần mod rm-rf-rm (ông này xài cái tên nick là thấy uy tín rồi), ổng bảo cay nổ dái, định xóa mẹ bài rồi. Nhưng nghĩ lại, ổng quyết định dán mác "Misleading" (Gây hiểu lầm) để làm cái gương tày liếp, kiểu "show, don't tell" cho anh em chừa cái thói lười check facts.
- Nhiều anh em như dieyoufool3 cũng ngậm ngùi thừa nhận: Rất nhiều dev đang "outsourcing" niềm tin của mình cho các group. Thấy post nhiều upvote là mặc định tin nó là chân lý mà lười tự verify.
Tóm cái váy lại cho anh em Dev
Tôi nói thật, AI sinh ra để giúp anh em nhàn hơn, nhưng dùng nó thì phải mang não theo.
Lỗi không hoàn toàn ở con LLM (bản chất của nó là đoán chữ và xạo l mà), lỗi ở cái sự lười của chúng ta. Đọc cái gì, thấy tools nào mới ra gáy to thì cũng phải tự test chán chê, bật websearch lên mà cross-check các nguồn.
Code có thể sinh ra bug, LLM thì sinh ra hallucination. Đừng biến mình thành mấy con bò để các pháp sư mõm lùa trên mạng. Hãy là người xài tool, đừng để tool nó dắt mũi mình đi.
Nguồn hóng: Reddit - PSA: Humans are scary stupid