Khi các công ty và quân đội rót hàng tỷ đô la vào việc phát triển trí tuệ nhân tạo AI, nhu cầu thiết lập các bộ luật sẽ trở nên rất quan trọng. Hãy tưởng tượng việc một AI tiên tiến tiếp cận các mã code hạt nhân và quyết định khai hỏa, thì sẽ nguy hiểm đến nhường nào.
Mặc dù nghe giống khoa học viễn tưởng, nhưng sự thật là tình huống này sẽ không còn quá khôi hài trong vài năm tiếp theo. Một số chính trị gia nói rằng họ có thể quản lý nghiêm ngặt AI bằng luật pháp. Nhưng trong dài hạn điều này có vẻ khá bất khả thi.
Đối mặt với các mối nguy hiểm từ AI
Yoshua Bengio, một trong những người sáng lập deep learning (một bộ phận của trí tuệ nhân tạo), đang lo lắng rằng các doanh nghiệp và chính phủ đang bắt đầu sử dụng AI một cách vô trách nhiệm. “Máy bay không người lái (drone) được trang bị vũ khí là một mối quan ngại lớn”, ông nói với thời báo Nature . Một AI đủ tiên tiến có thể tự động kích hoạt vũ khí, gây rạn nứt thị trường tài chính, và thao túng ý kiến người dùng mạng, tất cả chỉ vì nó cho rằng điều này là đúng. Tất nhiên, đúng hay sai đó cũng chỉ là những khái niệm được con người lập trình cho máy móc mà thôi.
Để kiểm soát những rủi ro này, các nhà lập pháp phải thiết lập các quy định cấm sử dụng AI trong các lĩnh vực được coi là “nhạy cảm”. Nhưng nói thì dễ, làm mới khó.
Hầu hết các quốc gia sở hữu lực lượng quân đội hùng mạnh đều đã có bộ phận AI. Vậy làm thế nào các nhà lập pháp có thể quản lý AI? Nếu một khu vực đang phát triển một hệ thống AI toàn quốc để “bảo vệ biên cương”, thì các chính trị gia rõ ràng không thể chặn đứng chương trình này.
Vì vậy, câu hỏi tiếp theo là – liệu các chính trị gia và quân đội có thể kiểm soát tốt AI và đảm bảo nó không mất kiểm soát không? Điều này nghe có vẻ khá bất khả thi. AI về bản chất vượt trội hơn rất nhiều so với con người về khả năng tính toán. Bất kể con người có thể tạo ra AI an toàn đến mức nào, một Trí tuệ nhân tạo thực sự tiên tiến sẽ có thể “vượt rào” và làm những gì nó cho là đúng.
Thật không may, dường như không có cách nào đảm bảo một hệ thống AI sẽ luôn nằm dưới sự kiểm soát của con người. Trong ngắn hạn, chúng ta sẽ có thể điều chỉnh nó. Nhưng theo thời gian, khi AI thu thập nhiều dữ liệu và phát triển hơn, chắc chắn nó sẽ bắt đầu tự mình đưa ra quyết định. Không lạ gì Elon Musk từng nói rằng AI nguy hiểm hơn nhiều so với vũ khí hạt nhân .
EU và những giải pháp banđầu
Tháng 4, Liên minh châu Âu đã thông qua một bộ luật và yêu cầu các công ty nghiên cứu AI phải tuân theo. Theo bộ quy tắc mới, các công ty phải xem xét 7 yếu tố sau khi phát triển hoặc triển khai AI – tính chắc chắn và an toàn, tính minh bạch, sự giám sát của con người, trách nhiệm, quyền riêng tư và quản trị dữ liệu, tính đa dạng và không phân biệt đối xử, khả năng mang lại lợi ích cho xã hội và môi trường.
“Ngày nay, chúng ta đang thực hiện một bước tiến quan trọng đối với việc thiết lập ngành AI có đạo đức và an toàn ở EU. Bây giờ chúng ta đã có một nền tảng vững chắc dựa trên các giá trị của EU, với sự tham gia sâu rộng và mang tính xây dựng từ nhiều bên liên quan, bao gồm giới doanh nghiệp, học thuật và tri thức. Bây giờ chúng ta sẽ triển khai các yêu cầu vào thực tiễn, đồng thời thúc đẩy một cuộc thảo luận quốc tế về AI lấy con người làm trung tâm”, ông Mar Mar Gabriel Gabriel, Ủy viên Ban Kinh tế và Xã hội Kỹ thuật số, cho biết trong một thông cáo báo chí.
Các nhà phê bình không quá hài lòng với bộ các quy tắc này, vì họ cảm thấy chúng không đủ toàn diện để giữ cho các hệ thống AI phù hợp với các giá trị của con người. Eline Chivot, một nhà phân tích chính sách cao cấp tại Viện nghiên cứu của Trung tâm Đổi mới Dữ liệu, nhận định EU không nên ở vị trí tiên phong trong lĩnh vực đạo đức AI vì khu vực này không dẫn đầu trong phát triển AI.