Năm 1984, bộ phim khoa học viễn tưởng nổi tiếng The Terminator đã kể về một hệ thống quân sự được hỗ trợ bởi AI do con người tạo ra. Hệ thống này sau đó đã vượt tầm kiểm soát và dẫn tới sự hủy diệt nhân loại. Tuy điều này là chưa từng xảy ra trên thực tế, song cũng không thể phủ nhận rằng các cuộc chiến tranh đã và đang dần thay đổi trong suốt 40 năm kể từ khi The Terminator ra rạp. Hiện nay, các vũ khí được hỗ trợ bởi AI đang được triển khai rất tích cực trên các chiến trường từ Ukraine đến Gaza, và chúng có thể sẽ đóng vai trò quyết định trong bất kỳ cuộc xung đột nào giữa Hoa Kỳ và Trung Quốc trong tương lai.
Lời cảnh báo của The Terminator rằng máy móc không đáng tin cậy trong những quyết định sống còn, chẳng hạn như nổ súng khi nào và nổ súng vào ai, vẫn tồn tại trong tâm lý chung của con người. Tuy nhiên, mối nguy hiểm thực sự không phải là việc con người có quá ít quyền kiểm soát các hệ thống này mà là sự ảo tưởng rằng con người có thể thực sự kiểm soát chúng. Các quan điểm phổ biến hiện nay vẫn là ủng hộ việc con người có càng nhiều sự kiểm soát các hệ thống vũ khí AI càng tốt, ví dụ như các chính sách của chính phủ Hoa Kỳ luôn yêu cầu rõ ràng rằng vũ khí tự động gây chết người phải được thiết kế với khả năng can thiệp phù hợp của con người. Vào cuối năm 2023, sau khi Bộ Quốc phòng khởi động Sáng kiến Replicator, một nỗ lực triển khai hàng nghìn hệ thống tự động cho các lực lượng quân sự vào tháng 8 năm 2025, Thứ trưởng Bộ Quốc phòng Kathleen Hicks đã khẳng định: “Sẽ luôn có một cá nhân chịu trách nhiệm về việc sử dụng vũ lực, chấm hết”. Bên cạnh đó, Liên hợp quốc cũng đang tìm cách cấm các loại vũ khí tự động hoàn toàn và đã đề xuất các quy tắc ràng buộc quốc tế yêu cầu các hệ thống như vậy phải có sự tham gia của con người. Nhiều tổ chức phi chính phủ, bao gồm Stop Killer Robots, Viện Tương lai của Cuộc sống và Tổ chức Ân xá Quốc tế, cũng hoàn toàn ủng hộ sự kiểm soát của con người với các loại vũ khí tự động này.
Mặc dù việc con người kiềm chế các thuật toán vô tri khỏi việc giết người không kiểm soát sẽ phần nào giúp cho ta cảm thấy an tâm, tuy nhiên điều này lại không phù hợp với thực tế phát triển công nghệ. Lý do là bởi các mô hình AI điều khiển vũ khí tự động hiện đại thường quá tinh vi đến mức ngay cả những người vận hành chúng cũng không thể giám sát. Hơn nữa, mọi mục đích sử dụng được đề xuất cho vũ khí tự động đều yêu cầu chúng hoạt động ở quy mô lớn với mức dữ liệu, tốc độ cùng với độ phức tạp cao, và sự can thiệp của con người do đó lại trở nên vô nghĩa. Trong điều kiện bình thường, việc mong đợi một cá nhân đánh giá ưu điểm từ các phân tích và đề xuất phương án bởi hệ thống AI sẽ là một thách thức. Đặc biệt hơn, trong điều kiện chiến đấu với thời gian và việc giao tiếp giữa các đơn vị với nhau bị hạn chế, thì điều này sẽ trở thành bất khả thi. Do đó, thay vì nuôi dưỡng ảo tưởng rằng con người có khả năng kiểm soát vũ khí tự động trong thời chiến, quân đội phải xây dựng lòng tin vào các mô hình vũ khí tự động của họ ngay trong điều kiện thời bình hiện nay, cũng như để chúng hoạt động mà không cần sự can thiệp quá mức của con người khi chiến tranh xảy ra.
CHIẾN TRANH TĂNG TỐC
Cạnh tranh quân sự giữa Hoa Kỳ và Trung Quốc khiến việc phát triển và triển khai các hệ thống vũ khí tự động gần như là điều không thể tránh khỏi, và cuộc chiến ở Ukraine đang cung cấp những bằng chứng ban đầu về điều này. Hiện nay, chính phủ Hoa Kỳ cũng đã đưa ra những cam kết triển khai trí tuệ nhân tạo một cách rộng rãi trong thời gian tới để phục vụ nhiều mục đích an ninh khác nhau, từ phân tích tình báo, an toàn sinh học cho tới an ninh mạng, v.v.
Trong nhiều năm qua, Bắc Kinh cũng đã đầu tư rất nhiều cho việc giảm thiểu sự triển khai sức mạnh của Hoa Kỳ ở Đông Á, từ đó, cho phép quốc gia này có lợi thế áp đặt một sự đã rồi đối với Đài Loan. Bên cạnh đó, việc Washington hiện nay vẫn đang duy trì một số lượng ít các loại vũ khí quân sự tinh vi như tàu sân bay, máy bay chiến đấu và máy bay ném bom đã không còn đạt được nhiều hiệu quả. Trung Quốc đã chế tạo và phân phối một số lượng lớn các hệ thống vũ khí tương đối rẻ, chẳng hạn như tên lửa đối hạm và tàu ngầm diesel-điện, có thể dễ dàng đánh bại các vũ khí tinh vi của quân đội Hoa Kỳ – được gọi là chiến lược “ngăn chặn”. Do đó, để khôi phục ảnh hưởng của mình ở Đông Á, mỗi nhánh của lực lượng Hoa Kỳ đang dần bắt tay vào việc triển khai các hệ thống không người lái với mục tiêu chống lại chiến lược “ngăn chặn” này của Bắc Kinh.
Tự động hóa, AI và máy bay không người lái với nhiều mức độ tự chủ khác nhau là những thành phần cơ bản của hầu hết mọi sáng kiến mới của quân đội Hoa Kỳ, chẳng hạn như Thiết kế lực lượng 2030 của Thủy quân lục chiến, Hoạt động hàng hải phân tán của hải quân, Hoạt động chiến đấu quy mô lớn của lục quân và Khái niệm hoạt động tương lai của không quân. Các sáng kiến này đều dựa vào một ý tưởng được triển khai từ năm 2022 có tên gọi Chỉ huy và kiểm soát chung toàn miền với chi phí 1,4 tỷ đô la riêng trong năm 2024. Theo Bộ Quốc phòng, chương trình này nhằm mục đích kết nối “mọi cảm biến, mọi tay súng” để “khám phá, thu thập, đối chiếu, tổng hợp, xử lý và khai thác dữ liệu từ mọi miền và nguồn” và từ đó tạo ra một “mạng lưới dữ liệu” thống nhất. Nói một cách đơn giản, bất cứ thứ gì có dữ liệu để thu thập như vệ tinh, máy bay không người lái trên biển cho đến một người lính trên chiến trường, đều có thể chia sẻ và sử dụng chung các dữ liệu với nhau.
Bên cạnh đó, hệ thống không người lái sẽ là trụ cột không thể thiếu của cấu trúc dữ liệu này. Trên đất liền, các hệ thống này sẽ giúp tăng cường khả năng gây sát thương, nhưng đồng thời cũng giảm thương vong cho đồng minh và dân thường bởi độ chính xác cao hơn. Trên không, máy bay không người lái sẽ có độ bền và khả năng cơ động cao, được triển khai với số lượng lớn mà vẫn có thể phối hợp để bao phủ các khu vực rộng cũng như gây khó khăn cho việc phản công của kẻ thù. Còn trên biển, các tàu không người lái sẽ có thể tiếp cận được vào các khu vực mà trước đây quân đội không thể.
Hoa Kỳ, Trung Quốc và Nga đều đã chi hàng tỷ đô la để chuyển đổi các cuộc chiến tranh theo hướng đó. Áp lực của các cuộc cạnh tranh an ninh chỉ hướng đến một mục đích: tăng tốc độ tự động hóa trong chiến tranh. Và xét về mặt chiến thuật và các hoạt động thuần túy, các cuộc chiến tranh tốc độ cao như vậy sẽ gặp nhiều bất lợi nếu như có sự can thiệp của con người, bởi nó sẽ gây ra một sự chậm trễ lớn.
CON NGƯỜI LÀ SAI LẦM
Tất nhiên, chiến thuật và hoạt động không phải là những thứ cần phải được cân nhắc duy nhất trong chiến tranh. Theo quan điểm đạo đức, nhiều nhà quan sát lo ngại rằng nếu không có sự giám sát, những cỗ máy thiếu suy nghĩ có thể trở nên mất kiểm soát, vi phạm các nguyên tắc lâu đời như tính tương xứng (quy định rằng thiệt hại mà một hành động quân sự gây ra không vượt quá lợi ích nó mang lại) và sự phân biệt (quy định rằng quân đội phải phân biệt giữa người tham chiến và dân thường). Nhiều người lo ngại rằng các hệ thống tự động có thể làm hại những nhóm người dân yếu thế do sự thiên vị trong dữ liệu đào tạo của chúng hoặc do các tác nhân phi nhà nước chiếm quyền kiểm soát hệ thống, đánh cắp các vũ khí tự động và sử dụng chúng cho mục đích xấu.
Theo quan điểm thực tế, việc nhấn mạnh một cách thiển cận vào hiệu quả của chiến thuật hoặc các hoạt động cũng có thể dẫn đến những kết quả không tốt, chẳng hạn như sự leo thang căng thẳng ngoài ý muốn. Những người chỉ trích vũ khí tự động đã lập luận rằng việc vận dụng ngữ cảnh vào các quyết định đã khiến cho con người xử lý các vấn đề một cách hiệu quả, trong khi máy móc thì chỉ luôn tuân theo quy trình đã được lập ra. Rất ít người hoàn toàn tin tưởng máy móc trong những quyết định lớn như giết người hoặc mở rộng phạm vi của một chiến dịch quân sự. Cho đến nay, hầu hết các giả định đều dựa vào những lỗi phổ biến như xe tự lái gặp tai nạn hoặc chatbot bị “ảo giác”.
Những lập luận về mặt đạo đức và thực tiễn này được củng cố bởi sự thật cơ bản rằng ngay cả những hệ thống tự động tiên tiến nhất có AI hỗ trợ cũng sẽ mắc lỗi. Tuy nhiên, AI thực sự đã tiến triển đến mức mà khả năng kiểm soát của con người giờ đây chỉ còn mang tính hình thức. Sự ảo tưởng về khả năng kiểm soát AI của con người có thể làm trầm trọng thêm những rủi ro mà những chúng ta đang lo sợ. Điều này do đó cũng đã khiến các nhà hoạch định chính sách, quân nhân và các nhà thiết kế hệ thống trở nên chủ quan và không chú tâm tới việc triển khai các thử nghiệm và đánh giá hệ thống tự động an toàn hiện nay.
Hơn nữa, việc con người can thiệp vào các quyết định chiến thuật cũng sẽ không khiến việc giết chóc tự động trở nên có đạo đức hơn trong các cuộc chiến tranh do AI hỗ trợ. Quân đội hiện đại từ lâu đã sử dụng các hệ thống với nhiều hình thức tự chủ theo cấp độ, chẳng hạn như Hệ thống chiến đấu Aegis của hải quân Mỹ, với các cấp độ thẩm quyền riêng biệt của từng cá nhân liên quan đến việc triển khai vũ khí. Tuy nhiên, các quyết định triển khai của người điều hành lại phụ thuộc vào một hệ thống máy tính phân tích dữ liệu giúp đưa ra một danh sách các phương án. Khi đó, sự lựa chọn của con người với phán đoán về đạo đức sẽ chỉ như một con dấu cao su thay vì là một quyết định sáng suốt, bởi họ đã đặt hết niềm tin vào các cảm biến thu thập dữ liệu và chỉ định mục tiêu bởi các hệ thống máy tính.
Không những vậy, chiến tranh trong tương lai sẽ còn diễn ra nhanh hơn và phụ thuộc nhiều hơn vào các dữ liệu, bởi các hệ thống vũ khí được hỗ trợ AI, chẳng hạn như một đội máy bay không người lái, có thể được triển khai nhanh chóng ở quy mô lớn. Tuy nhiên, con người khi đó sẽ không có đủ thời gian cũng như khả năng nhận thức để đánh giá được các dữ liệu đó một cách độc lập với máy móc. Ví dụ, trong cuộc chiến ở Gaza, Israel đã sử dụng hệ thống AI với hàng trăm nghìn các chi tiết nhỏ để xác định mục tiêu nào là kẻ địch, cho thấy một mức độ tinh vi quá cao để con người có thể kiểm tra kỹ lại, đặc biệt là khi các quyết định cần phải được đưa ra trong vài phút hoặc vài giây.
Ngoài ra, khả năng kiểm soát của con người cũng đã không còn hiệu quả bởi sự thiếu hụt ngữ cảnh nhiều hơn so với máy móc trong thời đại AI. Hãy xem xét trường hợp chỉ huy của một đội máy bay tự hành trên không, trên bộ và trên biển trong khái niệm “Hellscape” của quân đội Hoa Kỳ. Theo kế hoạch này, nếu Trung Quốc cố gắng tấn công Đài Loan, hải quân Hoa Kỳ sẽ triển khai hàng nghìn các tàu trên mặt nước, tàu ngầm và máy bay không người lái tại Eo biển Đài Loan nhằm kéo dài thời gian cho Hoa Kỳ huy động hạm đội tàu của mình. Tuy nhiên, nếu là con người thì sẽ không thể thu thập, phân tích một lượng dữ liệu khổng lồ như vậy để đưa ra quyết định hợp lý và nhanh chóng so với một hệ thống máy tính. Trong khi các hệ thống tự hành có thể được mở rộng quy mô để đáp ứng nhiều nhiệm vụ tương tác và phức tạp hơn, thì khả năng của con người là có giới hạn. Áp lực đẩy nhanh quá trình diễn giải và phân tích của con người sẽ dẫn đến các quyết định ít thấu đáo và dễ mắc lỗi hơn. Tuy nhiên, nếu không đẩy nhanh quá trình ra quyết định thì lựa chọn hành động đó sẽ trở nên lỗi thời trong một môi trường thay đổi rất nhanh hiện nay.
Trong các cuộc xung đột trong tương lai, với đặc trưng là sự gián đoạn hoặc không có thông tin liên lạc giữa các đơn vị quân sự (điều mà hầu hết các nhà nghiên cứu dự đoán sẽ xảy ra trong một cuộc chiến giữa Hoa Kỳ và Trung Quốc, khi các bên sẽ hack hoặc tấn công vào vệ tinh của nhau), các chỉ huy và binh lính trên chiến trường có thể sẽ mất kết nối với các cơ quan cấp cao hơn. Ví dụ, trong sáng kiến “lực lượng dự bị” của Thủy quân lục chiến Hoa Kỳ (quân đội được thiết kế thành các đơn vị chiến đấu nhỏ và có tính cơ động cao), các lực lượng này sẽ hoạt động như các nhóm nhân sự nhỏ phân tán trên các đảo và vùng lãnh thổ ở Thái Bình Dương, trong phạm vi tấn công của Trung Quốc. Để tránh bị phát hiện, họ sẽ cần giảm thiểu các thiết bị phát xạ tần số vô tuyến như radar hoặc thiết bị liên lạc, từ đó, buộc phải đưa ra quyết định thông qua các dữ liệu tự thu thập mà không có hỗ trợ từ bên ngoài, khiến cho ngữ cảnh của họ trở nên bị giới hạn hơn rất nhiều.
Hiện nay, các nhà hoạch định chính sách và lãnh đạo quân đội đã đề xuất giới hạn việc sử dụng và phát triển của các hệ thống tự động để phù hợp với khả năng của con người. Bên cạnh đó, những người ủng hộ việc kiểm soát của con người thì nhấn mạnh tầm quan trọng của việc đào tạo người vận hành tốt hơn. Dẫu vậy, những điều này sẽ chỉ mang lại lợi ích không đáng kể, vì các hệ thống AI đang ngày càng vượt lên trên giới hạn nhận thức của con người với lượng dữ liệu được tạo ra không ngừng theo cấp số nhân.
Trong các tuyên bố công khai của mình, các quan chức quốc phòng cấp cao của Hoa Kỳ đã lập luận rằng các hệ thống AI quân sự chỉ nên đưa ra các gợi ý thay vì hành động trực tiếp. Dù dễ để hình dung việc các phương tiện bay không người lái có thể tự động di chuyển đến mục tiêu và sau đó chỉ tham chiến nếu con người ra lệnh cho chúng, nhưng điều này sẽ là không đúng với cách mà các cuộc chiến tranh được hỗ trợ bởi AI thực sự hoạt động. Cuộc xung đột ở Ukraine đã chỉ ra rằng khi các phương tiện bay không người lái gia tăng, thì sẽ có các hệ thống gây nhiễu liên lạc giữa chúng với người điều khiển, buộc Ukraine phải chấp nhận gia tăng mức độ tự chủ của máy móc.
Ngoài ra, những quan điểm về việc tách biệt mục đích tấn công, phòng thủ hay chỉ cho phép quyền tự chủ để tự vệ cho các vũ khí tự động gây chết người là tương đối bất khả thi bởi chúng có quan hệ mật thiết với nhau. Như các nhà chiến lược quân sự Carl Von Clausewitz đã quan sát, phòng thủ chiến thuật có thể hỗ trợ tấn công tác chiến, và ngược lại, tấn công chiến thuật có thể hỗ trợ phòng thủ tác chiến.
XÂY DỰNG NIỀM TIN
Vì tất cả những lý do trên, các khuyến nghị chính sách về sự kiểm soát vũ khí tự động của con người đang không mang nhiều hiệu quả đáng kể. Chúng có thể khiến con người cảm thấy an toàn hơn khi vũ khí sẽ không bao giờ tự động khai hỏa, nhưng sẽ khiến lực lượng quân sự khó có thể giành chiến thắng và cũng đặt ra những câu hỏi lớn về đạo đức cũng như thực tiễn cho những chiến sĩ tiền tuyến có ít thời gian và nguồn lực để đưa ra quyết định. Thay vì nuôi dưỡng những ảo tưởng như vậy, các nhà hoạch định chính sách nên áp dụng một cách tiếp cận thực tế và có đạo đức hơn đối với các hệ thống vũ khí tự động.
Trước tiên, các chính phủ phải đảm bảo rằng các quyết định quan trọng của con người, chẳng hạn như tính tương xứng hay sự phân biệt, cần được đưa ra không phải trong thời chiến với ít thời gian để đánh giá tình hình, mà phải là trong thời bình với sự tham gia của chuyên gia trong các cuộc tranh luận dân chủ dưới sự giám sát cấp cao. Mục tiêu không phải là loại bỏ sự kiểm soát và trách nhiệm giải trình của con người mà là đảm bảo rằng chúng được thực hiện bằng đúng nguồn lực và vào thời điểm thích hợp, tránh gây tổn thất cho các trận chiến sau này.
Thứ hai, chính phủ cũng phải thừa nhận rằng ngay cả hệ thống AI tinh vi nhất cũng không phải lúc nào cũng đúng. Có thể giảm các hậu quả bằng cách phát hiện sớm và học hỏi từ những thất bại là điều rất quan trọng để phát triển hệ thống sao cho nó duy trì sự thực tế và tính đạo đức. Bên cạnh đó, vì con người không thể giám sát các hệ thống này trong thời chiến, nên quân đội cần các hệ thống cảnh sát phụ trợ nhanh, linh hoạt và đa dạng, giống như các hệ thống giúp phát hiện hành vi phạm luật của xe tự hành và ngôn từ kích động thù địch trong trình tạo văn bản hiện nay. Các nhà thầu quốc phòng và quân đội đều cần phải thiết lập các quy trình để học hỏi từ các thất bại, chẳng hạn như điều tra các sự cố, phân công trách nhiệm và hướng dẫn quá trình phát triển hệ thống.
Cuối cùng, cần phải xây dựng lòng tin của con người vào các hệ thống tự động ngay từ bây giờ. Bằng cách cung cấp bằng chứng cho thấy các hệ thống hiện tại đang hoạt động như mong đợi, ta có thể mở đường cho các cuộc chiến tranh diễn ra với tốc độ nhanh trong tương lai. Một hệ thống không đáng tin cậy sẽ đòi hỏi nhiều sự can thiệp của con người hơn, và điều này sẽ làm chậm nó lại. Trước đây, quân đội đã có các phương pháp kiểm tra và đánh giá hoàn thiện mức độ trưởng thành để xây dựng niềm tin với người dân vào các hệ thống quân sự truyền thống. Tuy nhiên, các hệ thống tự động được hỗ trợ bởi AI đang cho thấy những khác biệt đáng kể so với trước đây, do đó sẽ cần các phương pháp mới để làm được điều này. Ngoài ra, các hệ thống này không nên được phát triển bằng cách lập trình cho chúng các quy tắc quyết định hợp lý. Thay vào đó, cần đào tạo để chúng biết cách tự sắp xếp các dữ liệu đầu vào và đầu ra dự kiến trong một tập dữ liệu lớn. Hơn nữa, dữ liệu để đào tạo một mô hình AI cần phải phản ánh rõ hơn đầu vào về thế giới thực từ một nguồn đáng tin cậy và luôn được cập nhật mà mô hình đó sẽ tiếp nhận khi chiến đấu. Hệ thống sẽ phải vượt qua một loạt các kiểm tra chất lượng để đảm bảo rằng nó tuân thủ các mục tiêu thực tế và các nguyên tắc đạo đức. Cuối cùng, do sự hiểu biết của con người đối với các hệ thống này là còn hạn chế, chúng sẽ cần phải biết tự cung cấp bằng chứng giải thích cho những hành động của mình.
Lược dịch: Trần Anh Khôi
Các tác giả:
SEBASTIAN ELBAUM là Giáo sư Khoa học Máy tính tại Đại học Virginia, Chuyên gia Công nghệ tại Hội đồng Quan hệ Đối ngoại và là thành viên của Hiệp hội Máy tính và Viện Kỹ sư Điện – Điện tử.
JONATHAN PANTER là thành viên An ninh Hạt nhân Stanton tại Hội đồng Quan hệ Đối ngoại. Ông có bằng Tiến sĩ Khoa học Chính trị của Đại học Columbia và trước đây từng là sĩ quan trong Hải quân Hoa Kỳ.
Bài viết thể hiện quan điểm riêng của các tác giả, không nhất thiết phản ánh quan điểm của Nghiên cứu Chiến lược. Mọi trao đổi học thuật và các vấn đề khác, quý độc giả có thể liên hệ với ban biên tập qua địa chỉ mail: [email protected]