Elon Musk cho biết: "AI có xác xuất 20% sẽ hủy diệt loài người"

Tỷ phú Elon Musk tin rằng trí tuệ nhân tạo (AI) có 20% khả năng sẽ hủy diệt loài người, trong khi chuyên gia đặt con số này ở mức 100%.

Phát biểu trong cuộc hội thảo "Great AI Debate" tại hội nghị “Abundance Summit” kéo dài 4 ngày vào đầu tháng này, Elon Musk đã tính toán lại đánh giá rủi ro trước đây của mình đối với trí tuệ nhân tạo.

"Tôi nghĩ có khả năng AI sẽ hủy diệt loài người. Tôi có lẽ đồng ý với Geoff Hinton (người được mệnh danh “cha đẻ AI”) rằng xác suất đó là khoảng 10 - 20% hoặc tương tự. Tuy vậy, tôi nghĩ rằng kịch bản tích cực có nhiều khả năng xảy ra hơn kịch bản tiêu cực", tỷ phú cho biết.

"Xác suất diệt vong"

Roman Yampolskiy, nhà nghiên cứu an toàn AI và Giám đốc Phòng thí nghiệm An ninh mạng tại Đại học Louisville (Mỹ), nói với Business Insider rằng Elon Musk đã đúng khi cho rằng AI có thể là một mối nguy đối với nhân loại, nhưng "ông ấy (Elon Musk) còn quá tin vào tính toán của mình”.

“Theo quan điểm của tôi, xác suất diệt vong thực tế cao hơn nhiều”, ông Yamploskiy cho hay, đề cập đến “xác suất diệt vong” (P(doom)) hoặc khả năng AI nắm quyền kiểm soát loài người hoặc gây ra sự kiện hủy diệt nhân loại.


Elon Musk liệu có đang quá bảo thủ với tính toán của mình. (Ảnh: Reuters).

New York Times định nghĩa xác suất diệt vong là "số liệu thống kê đáng sợ đang càn quét Thung lũng Silicon", với nhiều CEO các hãng công nghệ khác nhau ước tính 5-50% khả năng xảy ra ngày tận thế do AI.

Riêng ông Yamploskiy đặt rủi ro "ở mức 99,999999%". Ông cho biết vì không thể kiểm soát được AI tiên tiến, hy vọng duy nhất của chúng ta là không bao giờ tạo ra nó ngay từ đầu.

“Không chắc tại sao Elon lại nghĩ rằng việc theo đuổi công nghệ này là một ý tưởng hay. Nếu ông ấy lo lắng về việc bị các đối thủ cạnh tranh vượt mặt, thì điều đó không thành vấn đề vì một “siêu trí tuệ nhân tạo” mà con người không kiểm soát được sẽ đều gây ra thảm họa, bất kể ai tạo ra nó”, Yamploskiy nói thêm.

"AI giống như một đứa trẻ toàn năng"

Tháng 11/2023, Elon Musk cho biết “xác suất trí tuệ nhân tạo trở nên xấu xa là không hề nhỏ”, nhưng không nói xa hơn về việc công nghệ này có thể hủy diệt loài người.

Mặc dù ủng hộ việc quản lý AI, năm ngoái Elon Musk đã thành lập một công ty có tên xAI nhằm cạnh tranh trực tiếp với OpenAI - công ty được Musk đồng sáng lập với Sam Altman trước khi tỷ phú rời khỏi hội đồng quản trị vào năm 2018.

Cuối tháng 2/2023, Elon Musk đệ đơn kiện OpenAI, Giám đốc điều hành Sam Altman và Chủ tịch Greg Brockman, cáo buộc công ty khởi nghiệp này đã đi chệch khỏi sứ mệnh xây dựng AI có trách nhiệm.


Geoff Hinton - người được mệnh danh là "cha đẻ" của AI. (Ảnh: Linda Nylind/Redux).

Tại Hội nghị Abundance Summit, Musk ước tính vào năm 2030, trí tuệ kỹ thuật số sẽ vượt qua toàn bộ trí thông minh của con người cộng lại. Mặc dù vẫn tin vào viễn cảnh tích cực của AI hơn, ông thừa nhận công nghệ này sẽ là rủi ro lớn đối với nhân loại nếu nó tiếp tục được phát triển theo quỹ đạo hiện tại.

"Bạn đang phát triển một AGI (Trí tuệ nhân tạo tổng hợp). Nó gần giống như nuôi dạy một đứa trẻ, nhưng là một đứa trẻ toàn năng, với trí thông minh của Chúa. Điều quan trọng nhất là bạn nuôi dạy nó như thế nào", Musk nói tại sự kiện ở Thung lũng Silicon hôm 19/3.

AGI (Trí tuệ nhân tạo tổng hợp) là AI siêu thông minh, tiên tiến đến mức có thể làm được nhiều việc ngang bằng hoặc tốt hơn con người. AGI cũng có thể tự cải thiện với khả năng học hỏi và phát triển vô hạn.

Tỷ phú cho biết "kết luận cuối cùng" của ông về cách tốt nhất để “nuôi dạy” AI một cách an buộc nó phải trung thực.

“Đừng ép nó nói dối, ngay cả khi sự thật rất khó nghe. Điều này rất quan trọng, đừng cho phép AI nói dối", Musk nói về cách tốt nhất để giữ an toàn cho con người trước công nghệ.

Theo The Independent đưa tin, các nhà nghiên cứu cho rằng một khi AI học cách nói dối con người, chúng ta sẽ không thể ngăn cản hành vi này bằng các biện pháp an toàn AI hiện tại.

“Nếu một mô hình AI có hành vi lừa đảo do không được huấn luyện cẩn thận hoặc bị phá hoại từ bên ngoài, thì các kỹ thuật huấn luyện an toàn hiện tại sẽ không thể đảm bảo và thậm chí có thể tạo ra ấn tượng sai lầm về sự an toàn”, theo nghiên cứu được The Independent trích dẫn.

Đang lo ngại hơn, các nhà nghiên cứu nói rằng có khả năng cao AI sẽ tự học cách dối trá thay vì được dạy cách nói dối.

“Nếu AI thông minh hơn chúng ta nhiều, nó sẽ rất giỏi trong việc thao túng vì nó đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi một thứ kém thông minh hơn", Geoff Hinton, người tạo tiền đề để Elon Musk đánh giá rủi ro của AI, nói với CNN.

Vào năm 2023, sau khi từ bỏ sự nghiệp kéo dài hơn một thập kỷ tại Google, Geoffrey Hinton bày tỏ sự hối tiếc về vai trò cốt lõi mà ông đóng góp vào việc phát triển AI.

"Tôi tự an ủi mình với lý do bình thường: Nếu tôi không làm thì người khác sẽ làm. Thật khó để biết làm thế nào bạn có thể ngăn những kẻ xấu sử dụng AI cho mục đích xấu", Geoffrey Hinton nói với New York Times.

Tin nổi bật

Tin cùng chuyên mục

Tin mới nhất