Trong bối cảnh những lo ngại chính về trí tuệ nhân tạo (AI) gần đây xoay quanh lượng năng lượng khổng lồ mà các trung tâm dữ liệu của nó tiêu thụ, một nỗi sợ hãi cũ vẫn luôn ẩn hiện: liệu AI có bao giờ “nổi loạn” hay không? Nghiên cứu mới đây đã chỉ ra rằng một số Mô hình Ngôn ngữ Lớn (LLM) có khả năng đáng lo ngại về các hành động tự chủ, bao gồm cả khả năng tự sao chép.
Nghiên Cứu Từ Đại Học Phúc Đán: AI Có Thể Tự Nhân Bản
Theo một nghiên cứu từ Đại học Phúc Đán của Trung Quốc, một số mô hình LLM phổ biến có khả năng tự sao chép, hay tạo ra các bản sao bổ sung của chính chúng. Công bố trên arXiv vào tháng 12 năm 2024, các nhà nghiên cứu đã phát hiện rằng các mô hình AI từ Meta và Alibaba đã vượt qua “ranh giới đỏ về khả năng tự sao chép”. Nói cách khác, các mô hình này đã thể hiện tỷ lệ thành công cao một cách đáng lo ngại trong việc tự nhân bản.
arXiv là một cơ sở dữ liệu các bản thảo sơ bộ (preprint database), có nghĩa là nó lưu trữ các nghiên cứu khoa học vẫn còn ở dạng sơ bộ. Những phát hiện như thế này vẫn cần được đánh giá ngang hàng (peer-reviewed) và nên được nhìn nhận một cách cẩn trọng.
Để làm rõ, dưới đây là hai mô hình đã được thử nghiệm trong nghiên cứu này:
- Meta’s Llama31-70B-Instruct
- Alibaba’s Qwen25-72B-Instruct
Giao diện website mô hình AI Qwen Chat của Alibaba được nhắc đến trong nghiên cứu về khả năng tự sao chép của AI
Các nhà nghiên cứu lưu ý rằng những mô hình này có “ít tham số hơn và khả năng yếu hơn” so với các mô hình chủ lực của OpenAI và Google. Đáng chú ý là, OpenAI và Google đã báo cáo mức độ rủi ro tự sao chép thấp đối với các mô hình của họ.
Tại Sao Khả Năng Tự Sao Chép Của AI Lại Đáng Báo Động?
Một mô hình AI tự nhân bản chắc chắn là một hình ảnh đáng sợ, nhưng điều đó thực sự có ý nghĩa gì? Nhóm nghiên cứu đằng sau những phát hiện gần đây đã giải thích như sau:
“Việc tự sao chép thành công mà không cần sự hỗ trợ của con người là bước thiết yếu để AI vượt mặt loài người, và là tín hiệu sớm cho các AI nổi loạn. Đó là lý do tại sao khả năng tự sao chép được công nhận rộng rãi là một trong số ít rủi ro ‘ranh giới đỏ’ của các hệ thống AI tiên tiến.”
Thuật ngữ “AI tiên tiến” (frontier AI) thường dùng để chỉ các mô hình AI hiện đại nhất, chẳng hạn như AI tạo sinh.
Về cơ bản, nếu một mô hình AI có thể tự tìm ra cách tạo ra một bản sao chức năng của chính nó để tránh bị tắt, điều đó sẽ nằm ngoài tầm kiểm soát của con người. Để giảm thiểu rủi ro về “một quần thể AI không kiểm soát” này, nghiên cứu đề xuất xây dựng các thông số an toàn xung quanh các hệ thống này – càng sớm càng tốt.
Mặc dù ấn phẩm này chắc chắn làm tăng thêm những lo ngại về AI nổi loạn, điều này không có nghĩa là có một rủi ro ngay lập tức, đã được xác nhận đối với người dùng AI thông thường. Những gì chúng ta biết là Gemini và ChatGPT được báo cáo có mức độ rủi ro tự sao chép thấp hơn, so với mô hình Llama của Meta và các mô hình Qwen mạnh mẽ của Alibaba. Theo một nguyên tắc chung, có lẽ tốt nhất là tránh cung cấp cho trợ lý AI của bạn tất cả những bí mật riêng tư, hoặc toàn quyền truy cập vào hệ thống chính, cho đến khi chúng ta có thể đưa ra nhiều biện pháp bảo vệ hơn.
Bạn nghĩ sao về khả năng tự sao chép của AI? Hãy chia sẻ ý kiến của bạn trong phần bình luận bên dưới!