Elon Musk và một nhóm chuyên gia cho rằng nên tạm dừng phát triển AI

Elon Musk và một nhóm chuyên gia cho rằng nên tạm dừng phát triển AI

Chia sẻ kiến thức 03/06/2023

Elon Musk và một nhóm chuyên gia về trí tuệ nhân tạo đang kêu gọi lập tức tạm dừng việc đào tạo các hệ thống AI mạnh mẽ do những nguy cơ tiềm ẩn với xã hội và nhân loại.

Ảnh: Internet

Cảnh báo về nguy cơ khó lường từ AI

Elon Musk và một nhóm chuyên gia AI đã cùng ký vào một bức thư cảnh báo về những rủi ro tiềm ẩn đối với xã hội và nền văn minh loài người bởi các hệ thống AI cạnh tranh với con người, gây ra các xáo trộn về kinh tế và chính trị.

Bức thư được đưa ra bởi tổ chức phi lợi nhuận Viện Tương lai Cuộc sống (Future of Life Institute) và có chữ ký của hơn 1000 người.

Bức thư cảnh báo rằng các phòng thí nghiệm AI đang “bị cuốn vào một cuộc đua nguy hiểm nhằm phát triển những bộ óc kỹ thuật số mạnh mẽ chưa từng có mà không ai – kể cả những người tạo ra chúng – có thể hiểu, dự đoán, hoặc kiểm soát một cách đáng tin cậy”.

“Các hệ thống AI với trí thông minh cạnh tranh với con người có thể gây ra những rủi ro lớn cho xã hội và nhân loại”.

“Các hệ thống AI mạnh mẽ chỉ nên được phát triển khi chúng ta tin tưởng rằng tác động chúng mang lại là tích cực và rủi ro do chúng gây ra sẽ có thể kiểm soát được.”

Nên tạm dừng cuộc đua AI trong 6 tháng

Nó kêu gọi tạm dừng trong sáu tháng cuộc đua phát triển các hệ thống mạnh hơn mô hình GPT-4 ngôn ngữ lớn (Large Language Model) mới ra mắt của OpenAI, nền tảng cho chatbot ChatGPT của nó. Kể từ khi ra mắt vào năm ngoái, ChatGPT của OpenAI đã thúc đẩy các đối thủ trong ngành đẩy nhanh quá trình phát triển các mô hình ngôn ngữ lớn tương tự và khuyến khích các công ty tích hợp các mô hình AI tạo sinh (Generative AI) vào sản phẩm của họ.

Nếu việc tạm dừng không thể được ban hành nhanh chóng, bức thư cho rằng các chính phủ nên có những hành động can thiệp và đưa ra lệnh cấm.

“Các phòng thí nghiệm AI và các chuyên gia độc lập nên dùng thời gian tạm dừng này để cùng phát triển và triển khai một bộ giao thức an toàn dùng chung cho việc thiết kế và phát triển AI tiên tiến, chịu sự kiểm tra và giám sát chặt chẽ bởi các chuyên gia độc lập bên ngoài”, bức thư viết.

“Các giao thức này cần đảm bảo rằng các hệ thống tuân thủ chúng an toàn một cách hợp lý.”

Bức thư cũng được ký bởi Steve Wozniak, người đồng sáng lập Apple ,Yoshua Benigo, thường được gọi là một trong những “bố già của AI” và Stuart Russell, nhà nghiên cứu AI tiên phong, cũng như các nhà nghiên cứu tại DeepMind thuộc sở hữu của công ty Alphabet.

Bức thư  trùng hợp với việc công bố một báo cáo từ ngân hàng Goldman Sachs, trong đó ước tính rằng 300 triệu công việc toàn thời gian trên thê giới có thể bị ảnh hưởng bởi AI tạo sinh .

Sự bùng nổ mối quan tâm đến AI được thúc đẩy bởi những ứng dụng như ChatGPT và chương trình tạo hình ảnh DALL-E, cũng đã đặt ra nhiều câu hỏi về đạo đức và tác động của các công cụ đáng kinh ngạc này.

Ngay cả CEO OpenAI Sam Altman cũng đã nhiều lần đưa cảnh báo về sự gia tăng đột ngột của AI, mới đây nhất đã tuyên bố rằng thế giới có thể không “xa một tương lai với các công cụ AI có khả năng đáng sợ”.

Đáp lại lời cảnh báo đó vào thời điểm đó, một số chuyên gia AI nói với Euronews Next rằng thay vì các ứng dụng “có khả năng đáng sợ” sắp xuất hiện, chúng ta hiện đang sống trong một “hiện tại loạn lạc” nhờ sự phổ biến của AI.

Sarah Myers West, Giám đốc điều hành của Viện AI Now, cho biết tương lai đó thực ra chính là thế giới chúng ta đang sống, với các hệ thống AI làm trầm trọng thêm sự bất bình đẳng vốn tồn tại trong xã hội, đặc biệt là trong các lĩnh vực như xin việc và giáo dục.

Nơi xuất bản lá thư, Viện Tương lai của Cuộc sống chủ yếu được tài trợ bởi Quỹ Musk, NGO có trụ sở tại London Founders Pledge và Quỹ Cộng đồng Thung lũng Silicon (Silicon Valley Community Foundation),

Bức thư xuất hiện vào thời điểm khi chính phủ Vương quốc Anh vừa công bố các đề xuất về khung pháp lý xung quanh AI.

Cách tiếp cận của chính phủ Anh sẽ phân chia trách nhiệm quản lý AI giữa các cơ quan quản lý về nhân quyền, sức khỏe, an toàn và cạnh tranh, thay vì tạo ra một cơ quan hoàn toàn mới dành riêng cho công nghệ này.

Trong khi đó, cục Cảnh sát châu Âu Europol đã bày tỏ mối lo ngại về đạo đức và pháp lý đối với các AI tiên tiến như ChatGPT, cảnh báo về khả năng nó bị lợi dụng trong các hoạt động lừa đảo, phát tán thông tin sai lệch và tội phạm mạng.

Đăng ký khóa học lập trình FUNiX tại đây:

Vân Nguyễn (Tổng hợp)

ĐĂNG KÝ TƯ VẤN HỌC LẬP TRÌNH TẠI FUNiX

Bình luận (
0
)

Bài liên quan

  • Tầng 0, tòa nhà FPT, 17 Duy Tân, Q. Cầu Giấy, Hà Nội
  • info@funix.edu.vn
  • 0782313602 (Zalo, Viber)        
Chat Button
Chat với FUNiX GPT ×

yêu cầu gọi lại

error: Content is protected !!