Điều gì sẽ xảy ra nếu con người không kiểm soát được AI?

Cách đây 10 năm, những người không thuộc giới nghiên cứu AI sẽ rất khó nghĩ tới viễn cảnh có một công cụ vượt qua khả năng con người, đạt đến những giới hạn khó tưởng.

Điều gì sẽ xáy ra nếu con người không kiểm soát được AI?

Tác giả: Nguyễn Xuân Phong, Tiến sĩ ngành trí tuệ nhân tạo ứng dụng tại ĐH Tokyo.

Trong một hội thảo định hướng nghề nghiệp cho sinh viên tại Singapore đầu năm nay, tôi nhận được nhiều câu hỏi về ứng dụng cũng như tác động của AI với các ngành nghề khác nhau.

Bên cạnh sự thích thú trước tiềm năng mà công nghệ này mang tới, không ít bạn trẻ lo ngại về ảnh hưởng tiêu cực với cuộc sống cũng như công việc của họ trong tương lai. Đây là tình huống thường xảy ra khi một điều diệu kỳ đến quá nhanh và bất ngờ, khiến chúng ta hứng thú nhưng đồng thời đầy sự nghi hoặc.

Cách đây 10 năm, những người không thuộc giới nghiên cứu AI sẽ rất khó nghĩ tới viễn cảnh có một công cụ vượt qua khả năng con người, đạt đến những giới hạn khó tưởng; chẳng hạn vẽ một bức tranh hay tóm tắt quyển sách 500 trang chỉ trong vài giây, giải đáp và tư vấn cho hàng triệu cuộc gọi chăm sóc khách hàng mỗi tháng.

Có một thực tế khó phủ nhận: AI là công cụ tuyệt vời, giúp giảm chi phí, hỗ trợ chăm sóc sức khỏe hay tăng năng suất lao động. AI lại dễ tiếp cận và sử dụng, không cần phải trải qua trường lớp đào tạo đáng kể nào. Google đã dùng AI để dự báo lũ lụt, hay những hình thái thời tiết khắc nghiệt khác do biến đổi khí hậu. Công cụ mà Google phát triển từng gửi 115 triệu thông báo cảnh báo lũ cho 23 triệu người qua Google Tìm kiếm và Maps, giúp cứu sống nhiều sinh mạng. Giá trị của AI, tùy vào khả năng khai thác của con người, sẽ không chỉ dừng lại ở đó.

Nhưng gần như ngay lập tức, người ta cũng nhận ra mối nguy của trí tuệ nhân tạo. Với bản chất là một công cụ khuếch đại, AI có thể làm cho cuộc sống tốt đẹp hơn nhưng đồng thời cũng có thể khiến nhân loại đi theo chiều hướng tiêu cực, một cách nhanh chóng và ở quy mô lớn.

Trước kia cần phải có kỹ năng về chỉnh sửa ảnh thì mới có thể tạo ra các bức ảnh giả. Ngày nay, AI giúp tạo ra ảnh giả chỉ với các mô tả gợi ý. Nếu không phải vì mục đích sáng tạo, những bức ảnh giả mạo có thể bị lợi dụng để thay đổi sự thật, lừa đảo, và nguy hiểm hơn là thao túng con người vì mục đích chính trị hoặc kinh tế. Mới đây, bức ảnh giả mạo Lầu Năm Góc bị cháy đã lập tức khiến sàn chứng khoán Mỹ giảm điểm và chỉ hồi phục sau khi ảnh được xác nhận là không có thật.

Trong quân sự, AI có thể được tích hợp vào máy bay không người lái, tiềm ẩn nguy cơ khôn lường khi một người có thể điều khiển hàng nghìn vũ khí tự động cùng lúc để tấn công.

Giáo sư Yoshua Bengio, một trong những nhà khoa học AI hàng đầu thế giới, lo lắng rằng AI có thể được sử dụng vào việc phát triển vũ khí hóa học mới. Ông khuyến cáo không nên trao quyền AI cho quân đội. “Đó có thể là quân đội, có thể là khủng bố, có thể là ai đó rất tức giận, bất ổn tâm lý. Nếu như AI dễ dàng tiếp cận để yêu cầu làm những điều xấu thì rất nguy hiểm”.

Ngoài việc được sử dụng như một công cụ tăng tính tự động hoá, khuếch đại năng suất, AI còn có khả năng tự học và ngày càng thông minh hơn. Những tiến bộ gần đây cho thấy, tương lai của những AI siêu thông minh (Superintelligent AI – AI thông minh hơn con người trên mọi phương diện) cũng đang ở gần hơn so với những gì chúng ta nghĩ chỉ một năm trước. AlphaFold, một hệ thống AI phát triển bởi DeepMind có thể dự đoán cấu trúc 3D của hơn 200 triệu protein chỉ từ trình tự axit amin 1D của protein. Đây được coi là bước tiến lớn đối với sự hiểu biết của con người về sinh học. Công nghệ sẽ giúp nhân loại điều chế các loại thuốc đặc hiệu mới, cũng có thể gợi ý ra thuốc độc làm vũ khí hủy diệt sự sống trên diện rộng. Nếu như AI có thể tự đưa ra quyết định và thông minh hơn phần lớn loài người, thì rủi ro “chúng” gây ra sẽ khó lường.

Hiểm họa có thể xảy ra khi mục tiêu của AI không trùng khít với mục tiêu của con người. Nếu các AI siêu thông minh được tạo ra quá nhanh trong khi chúng ta chưa sẵn sàng hoặc không kịp liên kết mục tiêu của AI với mục tiêu của con người, thế giới sẽ mất dần sự kiểm soát. Chính vì vậy, Liên kết mục tiêu (Alignment problem) trong AI là bài toán lớn và khó giải của ngành AI hiện nay.

Một vấn đề khác là sự khác biệt về mục tiêu sử dụng AI giữa các tổ chức, cá nhân. Bài toán này có thể giải quyết thông qua giải pháp về AI có trách nhiệm (Responsible AI), bằng cách thiết lập các quy định và kiểm soát rõ ràng việc sử dụng AI. Các quy định này xác định rõ những việc mà AI được phép thực hiện, đảm bảo tính minh bạch và trách nhiệm trong sử dụng trí tuệ nhân tạo. Chẳng hạn, chính phủ có thể yêu cầu phải hiển thị thông tin nội dung do AI viết hay do người viết, ảnh do AI sinh ra hay do người vẽ.

Bằng cách tuân thủ các nguyên tắc AI có trách nhiệm, các tổ chức và cá nhân có thể khai thác, tối đa hóa tác động tích cực của AI đồng thời giảm thiểu rủi ro tiềm ẩn. Sự cẩn trọng tất nhiên phải đi kèm với quá trình nghiên cứu liên tục về AI. Càng hiểu rõ AI, con người càng kiểm soát rủi ro tốt hơn.

Dù còn sơ khởi, tôi tin đã có đủ lý do để đầu tư mạnh mẽ vào việc xây dựng chính sách ở cả cấp quốc gia, quốc tế cho việc nghiên cứu các phương thức nhằm giảm thiểu khả năng xảy ra các kịch bản trên, trong đó, liên kết mục tiêu – hướng tới mục đích nhân văn và tiến bộ – là giá trị cốt lõi của mọi chính sách.

Theo VNEXPRESS

Tags: ,