Tỉ phú Elon Musk kêu gọi tạm dừng ‘huấn luyện’ AI vì nguy cơ mất kiểm soát

Trước sự phát triển nhanh như vũ bão của công nghệ trí tuệ nhân tạo (AI), những chuyên gia công nghệ hàng đầu thế giới, bao gồm Elon Musk cùng nhiều chuyên gia trong ngành đã kêu gọi ‘giảm tốc’ để xem xét thêm về các vấn đề đạo đức và pháp lý. Và đã ký vào bức thư ngỏ kêu gọi ngừng đào tạo các hệ thống trí tuệ nhân tạo (AI) để tránh một “Ngày Tận Thế”. Các chuyên gia này đã giải thích thế nào?

Tỉ phú Elon Musk kêu gọi tạm dừng ‘huấn luyện’ AI vì nguy cơ mất kiểm soát – Ảnh: REUTERS

Theo Hãng tin Reuters, tỉ phú Elon Musk cùng một nhóm gồm các chuyên gia về trí tuệ nhân tạo (AI) và các giám đốc công nghệ cấp cao đã cùng ký tên vào một lá thư kêu gọi tạm dừng việc phát triển các hệ thống mạnh hơn bản nâng cấp GPT-4 mới nhất của ChatGPT, do lo ngại các nguy cơ có thể xảy ra cho xã hội và nhân loại.

Một nhóm các chuyên gia trong lĩnh vực công nghệ đã ký một bức thư ngỏ, yêu cầu ngừng các thí nghiệm lớn với AI ít nhất trong 6 tháng.

Lá thư là sáng kiến từ Future of Life Institute và đã nhận được hơn 1.000 chữ ký, trong đó có tỉ phú Elon Musk, Giám đốc điều hành Công ty Stability AI Emad Mostaque, cùng các nhà nghiên cứu từ DeepMind (thuộc tập đoàn mẹ Alphabet của Google), các chuyên gia về trí tuệ nhân tạo Yoshua Bengio và Stuart Russell…

Nội dung lá thư yêu cầu tạm dừng phát triển trí tuệ nhân tạo cho đến khi có các “giao thức an toàn” chung, được các chuyên gia độc lập thẩm định và giám sát. Bức thư viết, các công ty nghiên cứu AI đang “bị khóa chặt trong một cuộc đua ngoài tầm kiểm soát để phát triển và triển khai những trí tuệ kỹ thuật số mạnh hơn bao giờ hết, mà không một ai – ngay cả những người tạo ra chúng – có thể hiểu, dự báo và kiểm soát được”. Các chuyên gia công nghệ cũng viết rằng, nếu giai đoạn tạm ngừng này không được thực hiện nhanh chóng thì các chính phủ nên vào cuộc và ban hành lệnh cấm.

Những người này cũng cảnh báo về một viễn cảnh “tận thế”: “Liệu chúng ta có nên phát triển những trí tuệ không phải con người mà cuối cùng có thể đông hơn, thông minh hơn và thay thế chúng ta không? Liệu chúng ta có nên chịu rủi ro là không thể kiểm soát nền văn minh của chúng ta không?”.

Thực ra, những lo lắng về trí tuệ nhân tạo thông minh vượt trội và “làm phản”, quay lại kiểm soát con người đã có từ khá lâu, được thể hiện qua nhiều bộ phim. Và bây giờ chuyện đó không còn là phim nữa. Sự phát triển các công cụ AI đang diễn ra cực kỳ nhanh chóng trong thời gian gần đây, đến mức những người có nhiều hiểu biết về lĩnh vực này cũng phải ngạc nhiên. Chẳng hạn, ChatGPT có tốc độ “phủ sóng” nhanh khủng khiếp dù nhiều khi đưa ra những thông tin sai lệch, thậm chí nói những chuyện kỳ dị. Ngay sau khi ChatGPT của OpenAI trở nên phổ biến, những công ty như Google, Microsoft và Snapchat cũng vội vàng đưa công nghệ tương tự vào các nền tảng của mình.

“Các hệ thống AI chỉ nên được cải tiến một khi chúng ta tự tin rằng các tác động của chúng là tích cực và các rủi ro được kiểm soát”, lá thư đề xuất.

Lá thư cũng nhắc đến những rủi ro tiềm tàng với xã hội và nền văn minh khi AI cạnh tranh với con người, gây gián đoạn về kinh tế và chính trị. Lá thư kêu gọi các nhà phát triển AI cùng làm việc với các nhà hoạch định chính sách trong việc quản trị và quản lý AI.

Trước đó, ngày 27-3, Cơ quan cảnh sát Liên minh châu Âu (Europol) đã bày tỏ quan ngại về các vấn đề đạo đức và pháp lý đối với các hệ thống AI tiên tiến như ChatGPT. Cơ quan này cũng cảnh báo về khả năng AI bị lợi dụng để lừa đảo, lan truyền thông tin sai lệch, và tội phạm công nghệ cao.

lon Musk thậm chí chính là đồng sáng lập OpenAI – công ty đứng đằng sau ChatGPT, nhưng giờ cảnh báo rằng AI là “một trong những hiểm họa lớn nhất đối với nhân loại”. Ảnh: Nurphoto/ Getty.

Trong khi đó, Chính phủ Anh đã đề xuất khung pháp lý cho việc quản lý AI. Reuters dẫn lời một phát ngôn viên của Future of Life cho biết CEO của OpenAI, Sam Altman, đã không ký vào bức thư. OpenAI cũng không phản hồi khi được yêu cầu bình luận.

“Bức thư không hoàn hảo nhưng tinh thần của nó là đúng. Chúng ta cần phải chậm lại cho đến khi nắm được các hệ quả. Những ‘ông lớn’ đang phát triển công nghệ này có thể gây hậu quả nghiêm trọng khi ngày càng giữ bí mật về việc họ đang làm. Điều này khiến xã hội khó có thể chống lại những vấn đề có thể xảy ra”, Hãng tin Reuters dẫn lời Gary Marcus, giáo sư tại Đại học New York, người đã ký tên vào bức thư.

Kể từ khi được tung ra vào năm ngoái, ChatGPT của OpenAI do Microsoft hậu thuẫn đã gây áp lực lên các đối thủ cạnh tranh trong việc phát triển mô hình ngôn ngữ tương tự dựa trên AI. Future of Life Institute là tổ chức quan tâm về giảm thiểu các rủi ro hiện hữu toàn cầu, đặc biệt là rủi ro về trí tuệ nhân tạo. Theo sổ đăng ký của Liên minh châu Âu, Future of Life Institute được Quỹ Musk tài trợ chính, cùng một số quỹ khác. Tất nhiên, vẫn có không ít nhà khoa học bênh vực AI, nói rằng sự phát triển như vậy là thể hiện sự tiến bộ của công nghệ. Tuy nhiên, khi chính những người đã từng ủng hộ sự phát triển AI như Elon Musk phải đưa ra lời cảnh báo thì có lẽ cũng không thể xem nhẹ được đâu.

Huỳnh Anh tổng hợp