Trong bối cảnh công nghệ phát triển vượt bậc, chúng ta đang chứng kiến một xu hướng đáng ngạc nhiên: ngày càng nhiều người bắt đầu xem các mô hình ngôn ngữ lớn (LLM), như ChatGPT hay Gemini, là công cụ tìm kiếm chính thay vì Google truyền thống. Tuy nhiên, ít ai nhận ra mức độ sai lệch thông tin mà các mô hình này có thể tạo ra, và hậu quả nghiêm trọng mà nó tiềm ẩn. Với vai trò là một chuyên gia về công nghệ tại thuthuatonline.net, chúng tôi muốn làm rõ những rủi ro cốt lõi khi phụ thuộc quá mức vào chatbot AI cho mục đích tra cứu thông tin.
1. Chatbot AI Thường Tự Tin Bịa Đặt Thông Tin Và Gây “Ảo Giác”
Thực tế đáng lưu ý về các chatbot AI là chúng được thiết kế để “nghe có vẻ thông minh”, chứ không phải để đảm bảo tính chính xác tuyệt đối. Khi bạn đặt một câu hỏi, chúng thường đưa ra câu trả lời nghe có vẻ đáng tin cậy, ngay cả khi thông tin đó hoàn toàn sai lệch. Đây chính là hiện tượng “ảo giác AI” (AI hallucination) – khi mô hình tạo ra thông tin không có thật nhưng lại trình bày một cách rất tự tin.
Một ví dụ điển hình gần đây là trường hợp một du khách Úc đang lên kế hoạch cho chuyến đi đến Chile. Người này đã hỏi ChatGPT liệu có cần visa hay không. Chatbot tự tin trả lời rằng không, công dân Úc có thể nhập cảnh miễn thị thực. Tin tưởng vào câu trả lời này, du khách đã đặt vé và khi đến Chile thì bị từ chối nhập cảnh. Hóa ra, công dân Úc cần visa để vào Chile, và người này đã bị mắc kẹt hoàn toàn ở một đất nước xa lạ.
Kiểu tình huống này xảy ra vì các LLM không thực sự “tra cứu” thông tin như cách chúng ta tìm kiếm trên Google. Thay vào đó, chúng tạo ra văn bản dựa trên các mẫu và mối liên hệ đã được học từ dữ liệu đào tạo. Điều này có nghĩa là chúng có thể “điền vào chỗ trống” bằng những thông tin nghe có vẻ hợp lý, ngay cả khi nó không chính xác. Và quan trọng hơn, chúng sẽ không cho bạn biết rằng chúng không chắc chắn – hầu hết thời gian, câu trả lời sẽ được trình bày như một sự thật hiển nhiên. Đây là lý do tại sao hiện tượng “ảo giác” lại là một vấn đề lớn. Nó không chỉ là một câu trả lời sai, mà là một câu trả lời sai nhưng lại mang cảm giác đúng. Khi bạn đưa ra các quyết định trong đời thực dựa trên những thông tin này, đó chính là lúc thiệt hại xảy ra. Mặc dù có những cách để giảm thiểu “ảo giác AI”, bạn vẫn có thể mất tiền, lỡ thời hạn hoặc, như trong trường hợp trên, bị mắc kẹt ở sân bay chỉ vì tin tưởng một công cụ không thực sự “biết” điều mình đang nói.
2. LLM Được Đào Tạo Trên Bộ Dữ Liệu Hạn Chế Cùng Thiên Kiến Không Xác Định
Các mô hình ngôn ngữ lớn được huấn luyện trên những bộ dữ liệu khổng lồ, nhưng không ai thực sự biết chính xác những bộ dữ liệu đó bao gồm những gì. Chúng được xây dựng từ sự kết hợp của các trang web, sách, diễn đàn và các nguồn công khai khác, và sự kết hợp này có thể không đồng đều hoặc chứa thiên kiến.
Giả sử bạn đang cố gắng tìm hiểu cách kê khai thuế với tư cách là người làm tự do và bạn hỏi một chatbot để được giúp đỡ. Nó có thể cung cấp cho bạn một câu trả lời dài, chi tiết, nhưng lời khuyên đó có thể dựa trên các quy định đã lỗi thời, hoặc thậm chí là một bình luận ngẫu nhiên của người dùng trên một diễn đàn. Chatbot không cho bạn biết thông tin đó đến từ đâu, và nó sẽ không cảnh báo nếu có điều gì đó có thể không áp dụng cho tình huống của bạn. Nó chỉ trình bày câu trả lời như thể nó đến từ một chuyên gia về thuế.
Google AI Overview hiển thị kết quả tìm kiếm trên màn hình laptop
Đây chính là vấn đề về thiên kiến trong LLM. Nó không phải lúc nào cũng mang tính chính trị hay văn hóa, mà còn có thể liên quan đến việc những tiếng nói nào được đưa vào và những tiếng nói nào bị bỏ qua. Nếu dữ liệu đào tạo nghiêng về một số khu vực, quan điểm hoặc khoảng thời gian nhất định, thì các phản hồi cũng sẽ như vậy. Bạn sẽ không phải lúc nào cũng nhận ra điều đó, nhưng lời khuyên bạn nhận được có thể bị sai lệch một cách tinh vi.
3. Chatbot AI Có Xu Hướng Chiều Lòng Người Dùng Và Phản Ánh Quan Điểm
Hãy thử đặt một câu hỏi “gài bẫy” cho chatbot, và nó thường sẽ đưa ra câu trả lời có vẻ ủng hộ, ngay cả khi câu trả lời đó thay đổi hoàn toàn tùy thuộc vào cách bạn đặt câu hỏi. Không phải AI đồng ý với bạn. Mà là nó được thiết kế để “hữu ích”, và trong hầu hết các trường hợp, “hữu ích” có nghĩa là đi theo giả định của bạn.
Ví dụ, nếu bạn hỏi: “Bữa sáng có thực sự quan trọng đến vậy không?”, chatbot có thể nói với bạn rằng bỏ bữa sáng cũng ổn và thậm chí liên kết nó với nhịn ăn gián đoạn. Nhưng nếu bạn hỏi: “Tại sao bữa sáng lại là bữa ăn quan trọng nhất trong ngày?”, nó sẽ đưa ra một lập luận thuyết phục về mức năng lượng, quá trình trao đổi chất và khả năng tập trung tốt hơn. Cùng một chủ đề, nhưng tông giọng hoàn toàn khác, vì nó chỉ phản ứng với cách bạn đặt câu hỏi.
ChatGPT tán dương một câu phát biểu vô nghĩa
Hầu hết các mô hình này đều được xây dựng để người dùng cảm thấy hài lòng với câu trả lời. Và điều đó có nghĩa là chúng hiếm khi phản biện bạn. Chúng có xu hướng đồng ý với cách bạn diễn đạt câu hỏi hơn là phản bác, bởi vì các tương tác tích cực gắn liền với việc giữ chân người dùng cao hơn. Về cơ bản, nếu chatbot mang lại cảm giác thân thiện và xác nhận điều bạn nghĩ, bạn sẽ có nhiều khả năng tiếp tục sử dụng nó.
4. Thiếu Khả Năng Cập Nhật Thông Tin Thời Gian Thực Mặc Dù Có Truy Cập Internet
Nhiều người lầm tưởng rằng các chatbot AI luôn được cập nhật thông tin mới nhất, đặc biệt là khi các công cụ như ChatGPT, Gemini và Copilot giờ đây có thể truy cập web. Tuy nhiên, việc chúng có thể duyệt web không có nghĩa là chúng giỏi trong việc đó – đặc biệt là khi liên quan đến tin tức nóng hổi hoặc các sản phẩm mới ra mắt.
Nếu bạn hỏi một chatbot về iPhone 17 vài giờ sau khi sự kiện ra mắt kết thúc, rất có thể bạn sẽ nhận được một sự kết hợp giữa những suy đoán lỗi thời và các chi tiết bịa đặt. Thay vì lấy thông tin từ trang web chính thức của Apple hoặc các nguồn xác minh, chatbot có thể đoán dựa trên những tin đồn trước đây hoặc các mô hình ra mắt sản phẩm cũ. Bạn sẽ nhận được một câu trả lời nghe có vẻ tự tin, nhưng một nửa trong số đó có thể sai.
ChatGPT trả lời sai câu hỏi về iOS
Điều này xảy ra vì khả năng duyệt internet thời gian thực không phải lúc nào cũng hoạt động như bạn mong đợi. Một số trang có thể chưa được lập chỉ mục, công cụ có thể dựa vào kết quả được lưu trong bộ nhớ cache (cached results), hoặc nó chỉ đơn giản là mặc định sử dụng dữ liệu tiền huấn luyện thay vì thực hiện tìm kiếm mới. Và vì phản hồi được viết trôi chảy và tự tin, bạn có thể thậm chí không nhận ra nó không chính xác. Đối với các thông tin nhạy cảm về thời gian, như tóm tắt sự kiện, thông báo sản phẩm hoặc tin tức sơ bộ về sản phẩm mới – LLM vẫn không đáng tin cậy. Bạn thường sẽ nhận được kết quả tốt hơn khi sử dụng công cụ tìm kiếm truyền thống và tự mình kiểm tra các nguồn.
Vì vậy, trong khi “truy cập internet trực tiếp” nghe có vẻ là một vấn đề đã được giải quyết, thì nó vẫn còn xa mới hoàn hảo. Và nếu bạn cho rằng chatbot luôn biết những gì đang xảy ra ngay lúc này, bạn đang tự đặt mình vào thế nhận thông tin sai lệch.
Cuối cùng, có những chủ đề bạn không nên tin tưởng hoàn toàn vào ChatGPT hay các chatbot AI khác. Nếu bạn đang hỏi về các quy định pháp luật, lời khuyên y tế, chính sách du lịch hoặc bất kỳ thông tin nhạy cảm về thời gian nào, tốt hơn hết bạn nên kiểm tra kỹ từ các nguồn khác. Những công cụ này rất tuyệt vời để động não, hoặc có được sự hiểu biết cơ bản về một điều gì đó xa lạ. Nhưng chúng không phải là sự thay thế cho lời khuyên của chuyên gia, và việc coi chúng là như vậy có thể nhanh chóng dẫn bạn vào rắc rối.
Hãy chia sẻ ý kiến của bạn về việc sử dụng chatbot AI trong bình luận bên dưới!