Theo giáo sư Stuart Russell, một nhà khoa học máy tính tại Đại học California (Mỹ), các gia sư “kiểu ChatGPT” có khả năng làm nền giáo dục thêm phong phú, cũng như mở rộng khả năng tiếp cận toàn cầu bằng cách cung cấp giáo dục cho mọi nhà qua điện thoại thông minh. “Công nghệ này có thể cung cấp hầu hết tài liệu cho đến hết cấp ba”, ông nói.
“Giáo dục là lợi ích lớn nhất mà chúng ta có thể trông đợi trong vài năm tới. Có thể trong vài năm hoặc vào cuối thập kỷ này, việc cung cấp một nền giáo dục chất lượng cao cho mọi trẻ em trên thế giới là hoàn toàn khả thi. Điều này có thể thay đổi rất nhiều thứ”, giáo sư Russell cho biết vào ngày 6/7 tại Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo của Liên hợp quốc. Tuy nhiên, ông cũng cảnh báo rằng việc triển khai công nghệ AI trong lĩnh vực giáo dục cũng tiềm ẩn nhiều rủi ro, bao gồm cả khả năng “tẩy não”.
Giáo sư Russell đã trích dẫn các nghiên cứu cho thấy việc dạy “một kèm một” đem lại hiệu quả gấp hai đến ba lần so với các bài học truyền thống trên lớp. “Trường Oxford và Cambridge không thực sự sử dụng lớp học truyền thống… họ sử dụng gia sư có lẽ vì nó hiệu quả hơn. Chúng ta không thể làm điều tương tự cho mọi trẻ em trên thế giới, bởi vì không có đủ người lớn”, ông nói.
Công ty OpenAI đã đang khám phá mảng giáo dục sau khi công bố quan hệ đối tác vào tháng 3 với một tổ chức phi lợi nhuận Khan Academy (Học viện Khan) để tạo ra một gia sư ảo dựa trên ChatGPT-4. Dự án này có thể gây ra “nỗi lo lắng hợp lý” về việc “ngày càng ít giáo viên được tuyển dụng, thậm chí có thể là không ai nữa”, ông Russell nói. Giáo sư dự đoán, hiện diện của con người vẫn rất cần thiết, nhưng có thể sẽ khác hẳn với vai trò truyền thống của một giáo viên. Chẳng hạn, các trách nhiệm mới có thể kết hợp “giám sát sân chơi”, tổ chức các hoạt động tập thể và cung cấp giáo dục đạo đức.
“Bởi vì chưa thực hiện các thử nghiệm, chúng tôi không biết liệu một hệ thống AI có đủ cho một đứa trẻ hay không. Chúng sẽ được truyền động lực, học cách hợp tác, chứ không phải chỉ mỗi các phép toán cộng trừ, nhân chia. Điều cần thiết là đảm bảo rằng mọi khía cạnh xã hội của thời thơ ấu được bảo tồn và cải thiện”, giáo sư Russell nói.
Công nghệ này cũng sẽ cần được đánh giá rủi ro cẩn thận. “Tôi hy vọng rằng hệ thống, nếu được thiết kế phù hợp, sẽ không dạy một đứa trẻ cách chế tạo vũ khí sinh học. Tôi nghĩ chúng ta có thể quản lý điều đó”, ông Russell nói. Ông đã dành nhiều năm để nói về những rủi ro do AI gây ra và là người ký vào một bức thư ngỏ vào tháng Ba, cùng với tỷ phú Elon Musk và nhiều người khác, kêu gọi tạm dừng một “cuộc đua mất kiểm soát” trong ngành phát triển trí tuệ nhân tạo. Giáo sư cho biết, vấn đề trở nên cấp bách hơn. “Tôi nghĩ AI giống như một thỏi nam châm khổng lồ trong tương lai. Chúng ta càng đến gần nó thì lực kéo sẽ càng mạnh”, ông nói.
Ông Russell cho rằng, các chức trách đang tham gia vào vấn đề này một cách muộn màng. “Tôi nghĩ các chính phủ cuối cùng đã thức tỉnh… giờ họ đang loay hoay tìm xem phải làm gì. Đó là một điều tốt - ít nhất giờ mọi người bắt đầu để ý”, ông nói. Tuy nhiên, việc kiểm soát các hệ thống AI đặt ra những thách thức cả về quy định lẫn kỹ thuật, bởi vì chính các chuyên gia cũng không biết cách định lượng rủi ro khi mất kiểm soát hệ thống. OpenAI đã công bố vào thứ Năm (6/7) rằng, họ sẽ dành 20% sức mạnh hệ thống của mình để tìm kiếm giải pháp “kiểm soát một AI siêu thông minh và ngăn chặn nó trở nên nổi loạn”.
“Chúng ta không biết liệu chúng có khả năng suy luận hay lập kế hoạch hay không. Chúng có thể có những mục tiêu nội bộ mà chúng đang theo đuổi và chúng ta không hề hay biết”, ông Russell nói.
Ngoài những rủi ro trực tiếp, các hệ thống có thể gây ra nhiều hậu quả khó lường khác đối với mọi thứ, từ cách tiếp cận hiện tượng biến đổi khí hậu đến quan hệ giữa các quốc gia. “Hàng trăm triệu người, sắp tới là hàng tỷ người, sẽ luôn trò chuyện với những thứ này. Chúng tôi không biết chúng có thể thay đổi quan điểm toàn cầu và xu hướng chính trị như thế nào”, giáo sư nói. “Chúng ta có thể bước vào một cuộc khủng hoảng môi trường lớn hoặc chiến tranh hạt nhân và thậm chí không nhận ra tại sao nó lại xảy ra. Đó chỉ là hậu quả của việc cho dù AI di chuyển dư luận theo hướng nào, nó sẽ làm như vậy một cách tương quan trên toàn thế giới”, ông nói thêm.
Theo Hà My (Tiền Phong)