Thực hư thông tin Elon Musk kêu gọi tạm dừng phát triển AI?

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam
(PLO)- Theo Reuters, Elon Musk và một nhóm các chuyên gia AI (trí tuệ nhân tạo) đang kêu gọi tạm dừng phát triển AI nhằm giảm thiểu rủi ro tiềm ẩn với nhân loại.

Bức thư do tổ chức phi lợi nhuận Future of Life Institute phát hành và có chữ ký của hơn 1.000 người bao gồm Elon Musk, Giám đốc điều hành của Stability AI Emad Mostaque, các nhà nghiên cứu tại Google DeepMind, cũng như các chuyên gia về AI, bao gồm Yoshua Bengio và Stuart Russell… kêu gọi tạm dừng phát triển AI tiên tiến (mạnh hơn mô hình GPT-4 mới ra mắt) cho đến khi các giao thức an toàn được phát triển, triển khai và kiểm toán bởi các chuyên gia độc lập.

Bức thư kêu gọi tạm dừng phát triển AI tiên tiến. Ảnh: TIỂU MINH

Bức thư kêu gọi tạm dừng phát triển AI tiên tiến. Ảnh: TIỂU MINH

“Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng mang lại tác động tích cực và kiểm soát được các rủi ro”, bức thư viết.

Ngoài ra, nội dung bức thư cũng trình bày chi tiết những rủi ro tiềm tàng đối với xã hội và nền văn minh do các hệ thống AI gây ra dưới hình thức gián đoạn kinh tế và chính trị, đồng thời kêu gọi các nhà phát triển hợp tác với các nhà hoạch định chính sách về quản trị và cơ quan quản lý.

Bức thư được đưa ra chỉ vài ngày sau khi lực lượng cảnh sát EU (Europol) cảnh báo về khả năng lạm dụng các hệ thống AI tiên tiến như ChatGPT để lừa đảo, phát tán thông tin sai lệch và các hoạt động tội phạm trên Internet.

Kể từ khi được phát hành vào năm ngoái, ChatGPT của OpenAI do Microsoft hậu thuẫn đã thúc đẩy các công ty khác tăng tốc phát triển mô hình ngôn ngữ lớn, và tích hợp các mô hình AI tổng quát vào sản phẩm.

Sam Altman, giám đốc điều hành của OpenAI, đã không ký vào bức thư, một phát ngôn viên của Future of Life chia sẻ với Reuters.

Tạm dừng phát triển các công cụ AI tiên tiến khi chưa kiểm soát được rủi ro. Ảnh: RD/Getty Image

Tạm dừng phát triển các công cụ AI tiên tiến khi chưa kiểm soát được rủi ro. Ảnh: RD/Getty Image

Gary Marcus, giáo sư danh dự tại Đại học New York, người đã ký bức thư, nói rằng bức thư không hoàn hảo nhưng tinh thần là đúng. Chúng ta cần chậm lại cho đến khi hiểu rõ hơn về các hệ thống AI tiên tiến. Những công ty lớn đang ngày càng trở nên bí mật với những gì họ đang làm, điều này khiến xã hội khó có thể chống lại các tác hại có thể xảy ra.

Đọc thêm