AI có thể hủy diệt nhân loại như thế nào?
Hồi tháng 5, hàng trăm người nổi tiếng trên khắp thế giới trong lĩnh vực trí tuệ nhân tạo đã ký một bức thư nói rằng AI sẽ sớm hủy diệt nhân loại. “Ưu tiên hàng đầu là loại bỏ mọi nguy cơ AI diệt chủng loài người. Nhiệm vụ này phải được đặt lên bàn cân cùng với các vấn đề xã hội khác như đại dịch, chiến tranh hạt nhân”, trích đoạn bức thư.
Theo New York Times, bức thư được viết bởi Center for A.I. Safety và Future of Life Institute với sự tham gia của nhiều nhân vật quan trọng trong ngành công nghệ như CEO OpenAI Sam Altman, CEO Demis Hassabis của DeepMind, Geoffrey Hinton - được mệnh danh là "ông trùm AI" và từng làm việc tại Google…
Các chuyên gia nhiều lần cảnh báo về hậu quả của trí tuệ nhân tạo. (Ảnh: ThinkStock).
Bức thư cho thấy các chuyên gia AI đang rất lo ngại về công nghệ này. Họ liên tục cảnh báo con người về hậu quả diệt vong mà trí tuệ nhân tạo mang lại, trang tin nhận định.
AI tương lai có thể hành động và tư duy như con người
Mặc dù hiện tại chúng vẫn chưa có khả năng hủy nhiệt nhân loại, nhiều người vẫn lo ngại về tương lai khi AI ngày càng tân tiến, vượt khỏi tầm kiểm soát của con người.
Chúng có thể làm những thứ mà con người không yêu cầu. Đến khi con người tìm cách can thiệp hoặc vô hiệu hóa, AI thậm chí có khả năng chống lại hoặc tự “nhân bản” chính mình để tiếp tục hoạt động.
“Hệ thống AI hiện nay vẫn chưa thể xóa sổ nhân loại. Nhưng trong 1, 2 hay 5 năm nữa thì chẳng có điều gì là chắc chắn. Đây chính là vấn đề. Chúng ta không biết khi nào thảm họa sẽ đến”, Yoshua Bengio - Giáo sư tại Đại học Montreal - nói.
Khả năng tự động hóa của AI ngày càng cao, nguy cơ chúng thay thế con người ngày càng lớn. (Ảnh: New York Times).
Một viễn cảnh AI vượt tầm kiểm soát có thể xuất hiện khi người dùng yêu cầu máy móc tạo nhiều ghim kẹp giấy nhất có thể nhưng sau đó chúng lại bắt đầu mất kiểm soát và biến mọi thứ, kể cả con người trở thành nguồn lực cho nhà máy làm ghim kẹp của nó.
Các chuyên gia đặt câu hỏi liệu viễn cảnh này có xuất hiện ở thế giới thật hay không. Hiện các công ty liên tục cập nhật tính năng tự động hóa của AI, kết nối chúng với các cơ sở vật chất như lưới điện, thị trường chứng khoán hay thậm chí là vũ khí quân sự. Do đó, rủi ro trí tuệ nhân tạo gây ra những tác động tiêu cực là hoàn toàn có thể.
Một số chuyên gia cho biết cuối năm 2022 khi cơn sốt ChatGPT lan rộng chính là thời điểm họ cảm thấy lo ngại về viễn cảnh xấu có thể xảy ra nhất. “AI sẽ cải tiến dần dần và ngày càng tự động, chúng lại càng có khả năng tự ra quy định và tư duy y hệt con người”, nhà sáng lập Anthony Aguirre của tổ chức Future of Life Institute chia sẻ.
Nguy cơ AI độc chiếm thế giới
Đến một thời điểm nào đó, kẻ vận hành xã hội và nền kinh tế là những cỗ máy khổng lồ, không phải con người và con người không có cách nào vô hiệu hóa chúng.
Theo New York Times, các nhà nghiên cứu đang biến những chatbot như ChatGPT trở thành hệ thống có thể thực hiện nhiệm vụ dựa trên văn bản người dùng cung cấp, đơn cử như AutoGPT.
Hiện tại các hệ thống trí tuệ nhân tạo vẫn chưa vận hành trơn tru. (Ảnh: Independent).
Hệ thống như AutoGPT có khả năng tự tạo ra chương trình máy tính. Người dùng chỉ cần cấp quyền truy cập vào các máy chủ, chatbot có thể vận hành chúng và làm mọi thứ trên nền tảng trực tuyến từ truy xuất thông tin, tạo ứng dụng và cập nhật chúng.
Hạn chế của các hệ thống trí tuệ nhân tạo này là chúng vận hành vẫn chưa trơn tru, dễ mắc vào các vòng lặp không thể tự “nhân bản” chính mình.
Song, những khuyết điểm này sẽ sớm được khắc phục trong tương lai. “Con người đang cố gắng tạo ra những hệ thống có khả năng tự hoàn thiện. Bây giờ chúng có thể chưa làm được nhưng tương lai sẽ làm được. Chúng ta không thể biết đó là ngày nào”, Connor Leahy - nhà sáng lập Conjecture - nhận định.
Khi các nhà nghiên cứu, công ty và tội phạm đặt nhiệm vụ cho AI là “kiếm tiền”, chúng có thể xâm nhập vào các hệ thống ngân hàng, xúi giục hành vi phạm pháp và tự “nhân bản” khi có người muốn vô hiệu hóa chúng. Do đó, nhiều chuyên gia lo ngại khi AI ngày càng trở nên tân tiến và được rèn luyện bởi một lượng lớn dữ liệu, chúng sẽ có thêm nhiều hành vi sai lệch.