Eliezer Yudkowsky là nhà nghiên cứu trí tuệ nhân tạo (AI) nổi tiếng người Mỹ và là người đồng sáng lập Viện Nghiên cứu Trí tuệ Máy móc (MIRI). Mới đây, ông lên tiếng cảnh báo về sự tuyệt chủng của nhân loại trước AI.
Cụ thể, nhà nghiên cứu Eliezer nhận định nhân loại chưa được chuẩn bị để sống sót khi "đối đầu" với trí tuệ nhân tạo thông minh hơn nhiều.
Vì vậy, ông Eliezer cho rằng nên ngừng phát triển các hệ thống trí tuệ nhân tạo tiên tiến trên thế giới và trừng phạt nghiêm khắc những người vi phạm lệnh cấm. Theo ông, đây là cách duy nhất để cứu loài người khỏi sự tuyệt chủng trước AI.
Thêm nữa, nhà nghiên cứu Eliezer cũng giải thích lý do ông không ký vào bản kiến nghị kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng đào tạo các hệ thống AI mạnh hơn GPT-4 trong ít nhất 6 giờ”.
GPT-4 là mô hình ngôn ngữ đa phương thức lớn. OpenAI đã phát hành GPT-4 vào đầu tháng 3 vừa qua và nhận được sự quan tâm lớn của công chúng.
Trong số những người ký tên vào bản kiến nghị trên, đáng chú ý là tỷ phú Elon Musk - nhà sáng lập của hãng hàng không vũ trụ SpaceX và Steve Wozniak của Apple.
Ông Eliezer giải thích bản kiến nghị "yêu cầu quá ít để giải quyết" vấn đề do sự phát triển nhanh chóng và không kiểm soát của AI gây ra. Ông cho rằng, một AI đủ thông minh sẽ không bị giới hạn lâu trong máy tính.
Theo ông Eliezer, việc có thể gửi email chứa các chuỗi ADN đến các phòng thí nghiệm để sản xuất protein có thể sẽ cho phép AI “xây dựng các dạng sống nhân tạo hoặc khởi động thẳng đến quá trình sản xuất phân tử hậu sinh học” và bước ra thế giới ngoài đời thực.
Vậy nên, ông Eliezer kêu gọi cần có ngay lập tức lệnh cấm vô thời hạn và trên toàn thế giới đối với các hoạt động đào tạo AI, ngay cả chính phủ và quân đội cũng không có bất cứ ngoại lệ nào.
Đồng thời, ông Eliezer cho hay mối đe dọa từ AI lớn đến mức cần phải làm rõ “trong ngoại giao quốc tế rằng việc ngăn chặn các kịch bản tuyệt chủng vì AI được coi là ưu tiên hàng đầu so với việc ngăn chặn một cuộc chiến tranh hạt nhân toàn diện".
Theo Tâm Anh (Kienthuc.net.vn)