Nếu thông minh như con người, AI có thể bị thôi miên
Nếu AI đạt đến trình độ suy nghĩ và tư duy như con người, chúng cũng có thể bị tin tặc thôi miên và lừa gạt như chính chúng ta.
Theo Greene, trí tuệ nhân tạo (AI) đã không còn là chuyện khoa học viễn tưởng. Năm này qua năm khác, chúng ta chứng kiến việc các thuật toán lý thuyết của ngày hôm qua trở thành ứng dụng thực tiễn cho hôm nay.
Greene cho rằng AI ngày nay đã khá thông minh nhưng vẫn chưa đạt đến sự tự chủ. Ví dụ là việc chưa thể có một robot có khả năng vào bếp và pha một tách cà phê mà không cần trợ giúp của con người.
Theo Greene, AI thật chất không có khả năng tự suy nghĩ, không có ký ức và động lực. Chúng chỉ có thể hành động theo những gì được lập trình sẵn.
Con người đang cố tạo ra một AI có thể hành động và tư duy như con người. (Ảnh: Business Insider).
Tuy nhiên, một số nhà nghiên cứu vẫn tin rằng vẫn có những phương pháp có thể áp dụng để làm ra một dạng trí tuệ nhân tạo “tự nhiên” hơn.
Một trong những cách phổ biến nhất là tạo ra một mạng lưới thần kinh nhân tạo bắt chước hoạt động não bộ của con người. Nếu điều đó xảy ra, điều quan trọng phải đảm bảo là những robot AI đó sẽ không dễ bị “thôi miên” như con người chúng ta.
Thuật thôi miên là lĩnh vực còn gây nhiều tranh cãi. Theo Greene, thôi miên tương tự trạng thái “tỉnh thức” trong tâm lý học hiện đại hay “chánh niệm” trong Phật giáo (Mindfullness), là sự tập trung toàn bộ sự nhận thức của một người vào một sự vật, sự việc, tại một thời điểm mà không để mọi thứ xung quanh tác động làm phân tâm.
Các nhà khoa học trong những nghiên cứu về thôi miên đã tìm ra một vài kỹ thuật để chứng minh giả thiết rằng một số người có thể bị đưa vào trạng thái ý thức khác thông qua việc lặp đi lặp lại một từ ngữ nào đó.
Vì vậy, Greene nghĩ rằng nếu con người có thể bị thôi miên, AI hay robot cũng có thể bị tương tự. Bởi vì, khi con người cung cấp hoặc gắn nhãn cho máy móc một lượng lớn dữ liệu, chúng cũng sẽ mang theo ít nhiều suy nghĩ của con người.
Đó là lý do tại sao GPT-3, một AI tạo văn bản, kỳ thị người Hồi giáo hoặc tại sao Đại học MIT có thể tạo ra một robot “tâm thần” Norman, bằng việc cố tình “dạy” nó những thông tin sai lệch lấy trên trang Reddit.
Chúng ta càng tiến gần đến việc mô phỏng cách con người học và tư duy cho hệ thống AI, khả năng những “bộ não nhân tạo” này bị lợi dụng càng cao.
Chúng ta cần phải chuẩn bị cho một kịch bản khi mà tin tặc có thể vượt qua hệ thống bảo mật bằng việc “thôi miên” AI, với những thủ thuật vốn không hiệu quả với máy tính truyền thống, chẳng hạn AI lắng nghe có thể bị lừa bằng âm thanh, AI nhìn cũng có thể bị qua mặt bằng hình ảnh…
Cuối bài phân tích của mình, Greene kết luận rằng về mặt lý thuyết, nếu AI xử lý được thông tin giống như cách con người tư duy, chúng hoàn toàn có khả năng bị thôi miên hoặc bị lừa gạt giống với con người chúng ta.