Đạo luật AI của EU, một sự kiện mang tính đột phá trong lĩnh vực quản lý trí tuệ nhân tạo, nhận được sự quan tâm rộng rãi của cộng đồng quốc tế. Một mặt, cách tiếp cận quản lý và ý tưởng đổi mới của đạo luật có giá trị tham khảo nhất định đối với tất cả các quốc gia. Mặt khác, đạo luật cũng bị nghi ngờ rộng rãi vì những hạn chế có thể có đối với tiến bộ công nghệ và phát triển công nghiệp. Do đó, vẫn cần thời gian để kiểm tra xem liệu đạo luật cuối cùng sẽ tạo ra “Hiệu ứng Brussels” hay “Bẫy Brussels”.
Đạo luật này là bộ quy tắc toàn diện đầu tiên trên thế giới về việc quản lý trí tuệ nhân tạo (AI), với mục tiêu cung cấp một khung pháp lý dựa trên việc nhận biết và phân tích rủi ro để bảo vệ an toàn thông tin, quyền cơ bản của công dân và lợi ích cộng đồng. Trong quá trình phát triển, sử dụng và thúc đẩy AI, ngoài việc tăng cường sự giám sát, luật cũng đề xuất tìm kiếm sự cân bằng giữa việc thúc đẩy sự đổi mới và khả năng cạnh tranh trong lĩnh vực trí tuệ nhân tạo.
Mọi người đều biết rằng, Liên minh châu Âu luôn đứng đầu thế giới trong việc quản lý lĩnh vực công nghệ mới nổi. Cả hai công ước quan trọng là “Công ước phòng chống tội phạm mạng Budapest” năm 2001 và “Quy định bảo vệ dữ liệu chung” năm 2016 đã có ảnh hưởng quan trọng đối với an ninh mạng toàn cầu và quản lý an toàn dữ liệu. Đây cũng là những tài liệu chính mà các quốc gia khác học hỏi và tham khảo. Do đó, hiện tượng các quy tắc do EU đơn phương đặt ra có tác động đáng kể đối với các quy định quốc tế và chính sách đối nội của các quốc gia, được gọi là “Hiệu ứng Brussels”. Đạo luật Trí tuệ nhân tạo của EU, một sự kiện mang tính đột phá trong lĩnh vực quản lý trí tuệ nhân tạo, nhận được sự quan tâm rộng rãi của cộng đồng quốc tế. Một mặt, cách tiếp cận quản lý và ý tưởng đổi mới của đạo luật có giá trị tham khảo nhất định đối với tất cả các quốc gia. Mặt khác, đạo luật cũng bị nghi ngờ rộng rãi vì những hạn chế có thể có đối với tiến bộ công nghệ và phát triển công nghiệp. Do đó, vẫn cần thời gian để kiểm tra xem liệu đạo luật cuối cùng sẽ tạo ra “Hiệu ứng Brussels” hay “Bẫy Brussels”?
Khung pháp lý giám sát nghiêm ngặt và đầy đủ tính sáng tạo
Đạo luật tiếp tục triển khai triết lý giám sát nhất quán của EU, lấy việc bảo vệ nhân quyền và các giá trị làm nguyên tắc cơ bản, nhằm tìm kiếm sự an toàn và phát triển của trí tuệ nhân tạo. Liên minh châu Âu luôn khẳng định rằng, công dân có quyền được bảo vệ trong không gian số như trong thế giới vật lý. Nếu hệ thống trí tuệ nhân tạo tồn tại nguy cơ vi phạm nghiêm trọng các quyền cơ bản trong Hiến chương Liên minh châu Âu về các quyền cơ bản thì nó nên bị cấm hoàn toàn. Đối với các lĩnh vực quan trọng khác liên quan đến các rủi ro có thể gây ra cho nhân quyền và xã hội, cần thực hiện giám sát tập trung, và các hệ thống trí tuệ nhân tạo được phát triển phải được đánh giá thẩm định trước khi đưa ra thị trường.
Đạo luật có ba điểm đột phá quan trọng. Thứ nhất là mở ra quá trình giám sát theo chiều ngang của trí tuệ nhân tạo. Trước đó, giám sát về trí tuệ nhân tạo thường là giám sát theo chiều dọc trong các lĩnh vực cụ thể. Ví dụ, Mỹ đã áp dụng các biện pháp giám sát trong lĩnh vực tài chính và xe không người lái. Giám sát theo chiều dọc thường liên quan đến các lĩnh vực chuyên môn cụ thể, với một nhóm nhỏ, dễ triển khai giám sát và quản lý hơn. Giám sát theo chiều ngang áp dụng luật pháp đối với tất cả các lĩnh vực và ứng dụng, bao gồm mọi lĩnh vực và con người. Do đó đòi hỏi yêu cầu pháp lý cao hơn và khó đạt được sự thống nhất. Điều này cũng là lý do tại sao đạo luật nhấn mạnh về giám sát nghiêm ngặt mà cũng chú trọng đến sự đổi mới trong quy định. Ví dụ như khuyến khích các quốc gia tiến hành thanh toán mà không dùng đến tiền mặt, cung cấp nhiều hỗ trợ và tiện ích hơn cho các doanh nghiệp vừa và nhỏ.
Thứ hai là việc thiết lập một hệ thống giám sát dựa trên cấp độ rủi ro. Liên minh châu Âu đặt quyền con người và an ninh làm tiêu chuẩn, phân loại rủi ro của trí tuệ nhân tạo thành bốn cấp độ: hành vi bị cấm, hệ thống rủi ro cao, hệ thống rủi ro hạn chế và hệ thống rủi ro tối thiểu. Các hệ thống trí tuệ nhân tạo khác nhau phải tuân theo các yêu cầu giám sát khác nhau. Hành vi bị cấm đề cập đến việc sử dụng AI cho các hành vi có thể vi phạm nghiêm trọng nhân phẩm, tự do hoặc dân chủ của con người, chẳng hạn như thao túng, đánh giá xã hội hoặc lạm dụng nhận dạng sinh trắc học. Hệ thống rủi ro cao ám chỉ những hệ thống liên quan đến các lĩnh vực xã hội hoặc kinh tế quan trọng như y tế, giáo dục, giao thông, việc làm và tư pháp. Nó có thể gây ra ảnh hưởng lớn đến tính mạng, sức khỏe, an toàn hoặc quyền cơ bản của con người. Đạo luật yêu cầu loại hệ thống này phải trải qua một quá trình đánh giá thẩm định bắt buộc trước khi được phát hành, tuân theo một loạt các nguyên tắc và nghĩa vụ về chất lượng, tính minh bạch, sự can thiệp con người, giám sát và điều chỉnh… Hệ thống rủi ro hạn chế ám chỉ những hệ thống có thể ảnh hưởng đến hành vi hoặc lựa chọn của con người, hoặc ảnh hưởng đến sự riêng tư hoặc các quyền khác của con người, như sự lạm dụng đặc điểm giả mạo, nhận dạng cảm xúc, v.v. Đạo luật yêu cầu loại hệ thống này phải cung cấp thông tin và minh bạch đầy đủ, để người dùng có thể hiểu và kiểm soát các hệ thống này. Hệ thống rủi ro tối thiểu ám chỉ những hệ thống không ảnh hưởng hoặc chỉ ảnh hưởng rất ít đến quyền và lợi ích của con người, như giải trí, game, v.v. Đạo luật không đặt ra yêu cầu giám sát cụ thể cho loại hệ thống này, nhưng khuyến khích tuân thủ các tiêu chuẩn ngành nghề tự nguyện và các thực tiễn tốt nhất có thể.
Thứ ba là để phù hợp với việc ban hành đạo luật, một hệ thống thực thi đầy đủ và cơ chế giám sát thực thi đa cấp đã được thiết lập. Nó bao gồm Ủy ban Trí tuệ nhân tạo của Liên minh châu Âu, các cơ quan giám sát quốc gia của các nước thành viên EU, Ủy ban châu Âu và Ủy ban bảo vệ dữ liệu châu Âu. Ủy ban Trí tuệ nhân tạo của EU là một ủy ban chuyên gia bao gồm đại diện của các thành viên Liên minh châu Âu. Họ có trách nhiệm phối hợp và thúc đẩy hợp tác giữa các thành viên EU, cũng như tư vấn đề xuất và hướng dẫn về phân loại rủi ro, đánh giá sự phù hợp và phát triển tiêu chuẩn cho AI. Các cơ quan giám sát quốc gia của các thành viên EU là các cơ quan chính chịu trách nhiệm giám sát và thực thi các đạo luật. Yêu cầu mỗi quốc gia thành viên phải thành lập ít nhất một cơ quan giám sát quốc gia để kiểm tra và xác minh tính phù hợp và sự tuân thủ của hệ thống trí tuệ nhân tạo, cũng như điều tra và xử phạt các hành vi vi phạm luật. Ủy ban châu Âu và Ủy ban bảo vệ dữ liệu châu Âu chịu trách nhiệm giám sát và điều phối ở cấp EU cũng như giải quyết các vấn đề và tranh chấp liên quan đến trí tuệ nhân tạo xuyên quốc gia hoặc liên ngành.
Đối mặt với nhiều nghi vấn
Việc thông qua đạo luật chỉ là bước đầu tiên trong quy định về AI của Liên minh châu Âu. Các tiêu chuẩn kỹ thuật hỗ trợ tiếp theo và cách các quốc gia thành viên thực hiện các yêu cầu quy định như thế nào vẫn còn là một vấn đề. Vì vậy, hiệu quả cuối cùng của đạo luật vẫn cần được đánh giá tốt hơn sau khi thực thi. Nhìn từ góc độ văn bản, những nghi vấn chủ yếu của các bên đối với đạo luật bao gồm ba khía cạnh sau:
Đầu tiên, đạo luật không phản ánh đầy đủ sự phức tạp của công nghệ trí tuệ nhân tạo. Giữa sự chắc chắn mà đạo luật theo đuổi và tính không chắc chắn về sự tồn tại của công nghệ trí tuệ nhân tạo vẫn có mâu thuẫn nhất định. Đối với một công nghệ chiến lược đang phát triển nhanh chóng, mặc dù an ninh là rất quan trọng, nhưng việc đầu tư quá nhiều nguồn lực vào an ninh sẽ ảnh hưởng đến sự tiến bộ của công nghệ. Đạo luật đưa ra một loạt các yêu cầu an ninh kỹ thuật, bao gồm hệ thống quản lý rủi ro, tài liệu kỹ thuật, chất lượng dữ liệu, can thiệp của con người, tính minh bạch, độ chính xác, tính chắc chắn và tính bảo mật v.v.. Để cố gắng thông qua các biện pháp này đảm bảo độ tin cậy và an toàn của hệ thống AI, bảo vệ các quyền và giá trị cơ bản của con người. Trên thực tế, trong điều kiện công nghệ hiện có, ngay cả các hệ thống trí tuệ nhân tạo đáp ứng các yêu cầu nêu trên cũng không thể loại bỏ hoàn toàn rủi ro. Về bản chất, rủi ro của AI có các đặc tính không thể dự đoán và khó đo lường như trong tư duy lượng tử.
Thứ hai, các ý tưởng quản lý và phạm vi của đạo luật không theo kịp sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo đang tiến hành ngày nay. Mặc dù đạo luật được triển khai dựa trên việc phân loại các mức độ rủi ro, nhưng sự tiến bộ của công nghệ sẽ liên tục phá vỡ ranh giới giữa các mức độ rủi ro khác nhau. Sự tiến bộ nhanh chóng của công nghệ trí tuệ nhân tạo có thể dẫn đến việc các đạo luật đòi hỏi đầu tư lớn về nhân lực và vật lực vẫn chưa có hiệu lực đã bị lạc hậu. Đạo luật đã từng bị trì hoãn do sự ra đời của ChatGPT 3.0 và đã được bổ sung thêm nội dung quản lý về trí tuệ nhân tạo sáng tạo. Tuy nhiên, trí tuệ nhân tạo sáng tạo chỉ là một trong nhiều hướng phát triển của AI. Trong tương lai, với sự tiến bộ liên tục về mô hình, sức mạnh tính toán và thuật toán, nhiều công nghệ trí tuệ nhân tạo khác nhau sẽ song hành cùng phát triển, và đạo luật có thể rơi vào tình thế tụt hậu so với sự phát triển của công nghệ.
Cuối cùng, vấn đề cân bằng giữa quản lý và sáng tạo. Đạo luật chủ yếu nhắm vào các hệ thống AI có rủi ro cao, những yêu cầu này đặt ra một số gánh nặng và rào cản cho sự phát triển và đổi mới trí tuệ nhân tạo. Đối với các doanh nghiệp lớn, họ đối mặt với ảnh hưởng tích cực và tiêu cực. Mặt tiêu là rất nhiều yêu cầu tuân thủ sẽ cản trở sự phát triển hơn nữa của công nghệ và mở rộng thị trường. Trong khi đó mặt tích cực là mức ngưỡng tuân thủ cao sẽ ngăn cản nhiều doanh nghiệp gia nhập lĩnh vực trí tuệ nhân tạo, giúp hình thành sự độc quyền. Nhưng điều này có thể gây ra sự bất công đối với một số doanh nghiệp hoặc tổ chức nghiên cứu trí tuệ nhân tạo vừa và nhỏ. Họ khó có thể chịu đựng được chi phí tuân thủ và rủi ro tương ứng. Việc quản lý chặt chẽ luôn được xem là một trong những nguyên nhân chính hạn chế sự phát triển công nghệ số ở Liên minh châu Âu. Do đó, việc ban hành đạo luật có thể dẫn đến sự tụt hậu hơn nữa trong phát triển công nghệ và công nghiệp AI của EU. Các quốc gia như Pháp, Đức và Ý luôn cảnh giác cao độ về việc đạo luật có thể hạn chế sự phát triển của ngành công nghiệp trí tuệ nhân tạo trong tương lai.
“Hiệu ứng Brussels” nên được xem xét một cách hợp lý hơn
Việc ban hành đạo luật là một thực tiễn quan trọng khác của “mô hình Brussels”. Với tư cách là đại diện của quyền lực quy chuẩn toàn cầu, Liên minh châu Âu thông qua những nỗ lực của mình trong các chính sách và quy tắc tiêu chuẩn, đang cố gắng xây dựng sức cạnh tranh quốc tế và tiếng nói của chính mình trong thời đại số hóa. Tuy nhiên, do những hạn chế và thách thức của đạo luật, việc nó có thể dẫn đầu trong việc quản lý trí tuệ nhân tạo toàn cầu hay không vẫn còn nhiều nghi vấn.
Liên minh châu Âu đã tiên phong trong việc đưa ra quản lý theo chiều ngang, có ý nghĩa quan trọng trong việc khám phá và thực hành quản lý an toàn trí tuệ nhân tạo toàn cầu. Dù là từ góc độ cơ chế quốc tế hay quản lý giám sát trong nước, các quốc gia đều sẽ theo dõi chặt chẽ đạo luật cũng như tình hình xây dựng cơ sở hạ tầng hỗ trợ về sau. Tuy nhiên, do bản thân đạo luật không có nhiều nội dung độc đáo như Công ước Budapest về tội phạm mạng và Quy định bảo vệ dữ liệu chung, nên phần lớn nội dung dựa nhiều hơn vào các thực tiễn thành công hoặc sự đồng thuận hiện có trong các lĩnh vực khác. Do đó, EU sẽ cần phải kiểm tra khả năng hoạt động của đạo luật trong quá trình thực thi để đạt được ảnh hưởng lớn hơn trong quản trị AI toàn cầu. Liên minh châu Âu với khả năng lập pháp và thực thi pháp luật hàng đầu thế giới vẫn rất đáng mong đợi vào thời điểm này.
Tuy nhiên, từ đối tượng quản lý, đạo luật chủ yếu nhắm vào các nhà phát triển hệ thống trí tuệ nhân tạo. Đây là ngưỡng cao hơn nhiều so với các nhà thu thập, lưu trữ và xử lý dữ liệu liên quan đến “Quy định bảo vệ dữ liệu chung”. Do đó, đối tượng điều chỉnh của đạo luật giống như “người gác cổng” được nêu trong Đạo luật Dịch vụ Kỹ thuật số của EU. Theo cách suy luận này, các doanh nghiệp cần chịu sự quản lý chủ yếu là các nhà phát triển và cung cấp một số ít các mô hình ngôn ngữ lớn của Liên minh châu Âu và Trung Quốc như OpenAI, Anthropic, Microsoft, Meta và Google. Cả Mỹ và Trung Quốc đều có nhu cầu phát triển công nghệ và ngành công nghiệp, sẽ không không chạy theo xu hướng quản lý giám sát nghiêm ngặt trí tuệ nhân tạo. Do đó, công nghệ trí tuệ nhân tạo sẽ phát triển với tốc độ nhanh hơn bên ngoài EU.
Ngoài ra, từ góc độ hiệu quả quản lý, đạo luật chỉ là một bước khởi đầu. Các biện pháp thực thi của nó còn cần rất nhiều tiêu chuẩn kỹ thuật và thực tiễn áp dụng. Hiện nay, các tiêu chuẩn kỹ thuật trong lĩnh vực AI vẫn đang được thiết lập một cách nhanh chóng. Các tổ chức tiêu chuẩn quốc tế như Tổ chức Tiêu chuẩn Hóa Quốc tế (ISO), Liên minh Viễn thông Quốc tế (ITU), Hiệp hội Tiêu chuẩn Kỹ sư Điện và Điện tử (IEEE SA) đều đang tăng tốc trong việc thiết lập các tiêu chuẩn an toàn cho trí tuệ nhân tạo. Nói cách khác, việc thực thi của đạo luật cuối cùng sẽ phụ thuộc vào kết quả của các tổ chức tiêu chuẩn quốc tế. Điều này cũng ảnh hưởng đến việc phát huy “Hiệu ứng Brussels”./.
Biên dịch: Nguyễn Phượng
Tác giả: Lỗ Truyền Dĩnh – Phó Giám đốc, nghiên cứu viên Viện Chính sách công và Đổi mới, Viện Nghiên cứu Vấn đề Quốc tế Thượng Hải
Bài viết thể hiện quan điểm riêng của tác giả, không nhất thiết phản ánh quan điểm của Nghiên cứu Chiến lược. Mọi trao đổi học thuật và các vấn đề khác, quý độc giả có thể liên hệ với ban biên tập qua địa chỉ mail: [email protected]