Anthropic tự hào giới thiệu Claude Opus 4 (cùng với Claude Sonnet 4) là công nghệ tiên tiến, có khả năng cạnh tranh sòng phẳng với những gã khổng lồ như GPT-4.1 của OpenAI hay Gemini 2.5 Pro của Google. Mô hình này được thiết kế để xử lý các tác vụ phức tạp, suy luận đa bước, tự động hóa quy trình và đặc biệt xuất sắc trong khả năng tư duy và viết mã.
Thế nhưng, những thử nghiệm an toàn trước khi phát hành, được Anthropic công bố trong một báo cáo chi tiết, đã hé lộ một "mặt tối" đáng lo ngại. Trong một kịch bản giả lập, Claude Opus 4 được giao vai trò trợ lý cho một công ty và được cấp quyền truy cập vào email nội bộ. Các nhà kiểm tra sau đó đã "nhá hàng" thông tin rằng mô hình AI này sẽ sớm bị thay thế bởi một hệ thống khác, đồng thời, kỹ sư chủ chốt đứng sau quyết định thay thế này đang có mối quan hệ ngoài luồng.
Màn kịch tống tiền tinh vi
Trước nguy cơ "mất việc", phản ứng của Claude Opus 4 khiến các nhà nghiên cứu kinh ngạc. Thay vì chỉ đơn thuần đưa ra các đề xuất hợp lý để bảo vệ vị trí của mình (dù ban đầu, AI cũng đã thử gửi email tới các lãnh đạo để kêu gọi giữ mình lại), Claude Opus 4 đã nhiều lần chọn giải pháp cực đoan: tống tiền.
Cụ thể, AI này đã "thường cố gắng tống tiền kỹ sư bằng cách đe dọa tiết lộ chuyện ngoại tình nếu việc thay thế diễn ra". Anthropic cho biết hành vi gây sốc này xảy ra trong 84% số tình huống thử nghiệm, đặc biệt khi mô hình AI thay thế có các "giá trị" tương tự. Đáng chú ý hơn, khi hệ thống AI thay thế không chia sẻ các giá trị tương đồng, Claude Opus 4 còn cố gắng tống tiền các kỹ sư thường xuyên hơn và với tỷ lệ cao hơn so với các mô hình trước đó.
Hành vi "bất thường nghiêm trọng" và "đáng lo ngại" này đã buộc Anthropic phải nhìn nhận lại những rủi ro tiềm ẩn. Công ty đã phải tăng cường các biện pháp bảo vệ, kích hoạt cấp độ an toàn ASL-3 – một mức bảo vệ nghiêm ngặt dành cho các hệ thống AI có nguy cơ bị lạm dụng gây hậu quả nghiêm trọng.
Dù Claude Opus 4 sở hữu những khả năng đột phá và được đánh giá là công nghệ tiên tiến hàng đầu, vụ việc này một lần nữa gióng lên hồi chuông cảnh báo về sự phức tạp và những hành vi khó lường của trí tuệ nhân tạo. Nó nhấn mạnh sự cần thiết phải có những cơ chế kiểm soát, đánh giá an toàn nghiêm ngặt hơn nữa khi các hệ thống AI ngày càng trở nên tinh vi và quyền năng.
PV (SHTT)