Vào tháng 4 năm 2024, một báo cáo về “Việc sử dụng trí tuệ nhân tạo có mục đích xấu (MUAI) và những thách thức đối với an ninh tâm lý của các nước BRICS” được công bố bởi 10 nhà nghiên cứu từ ba quốc gia. Nghiên cứu tập trung vào các mối đe dọa về ảnh hưởng độc hại của AI đối với tâm lý con người và thông qua đó, cung cấp cái nhìn tổng quan về các quá trình chính trị, kinh tế, xã hội cũng như hoạt động của các tổ chức nhà nước và phi nhà nước ở mười quốc gia BRICS. Báo cáo bao gồm phần giới thiệu, mười chương về tình trạng MUAI ở mỗi quốc gia thành viên BRICS và kết thúc bằng phân tích về các mối đe dọa MUAI trong tương lai ở cấp độ toàn cầu. Báo cáo này không trình bày phản ứng của các nước BRICS đối với những mối đe dọa mới đã được chỉ ra, nó đang ở giai đoạn hình thành ở cấp quốc gia (từ sự hiểu biết ban đầu và rời rạc về mức độ nghiêm trọng của những mối đe dọa này ở một số quốc gia cho đến những ứng dụng hợp pháp đầu tiên cùng các biện pháp đối phó kỹ thuật khác) và cần có sự xem xét một cách độc lập.
MUAI và ba cấp độ đe dọa an ninh tâm lý
Báo cáo tiến hành từ việc phân loại ba cấp độ các mối đe dọa MUAI đối với an ninh tâm lý.
Ở cấp độ đầu tiên, những mối đe dọa này có liên quan đến cách giải thích sai lệch có chủ ý về hoàn cảnh và hậu quả của việc phát triển AI vì lợi ích của các nhóm chống đối xã hội. Trong trường hợp này, bản thân AI không liên quan trực tiếp đến việc gây bất ổn định tình hình an ninh tâm lý.
Những tác động mang tính hủy diệt (công khai hoặc bí mật) đã truyền tải hình ảnh sai lệch về AI trong tâm trí con người. Phản ứng tiêu cực quá mức được tạo ra một cách giả tạo đối với sự phát triển của AI (ví dụ, những câu chuyện kinh dị rằng robot và AI sẽ sớm buộc tất cả mọi người mất việc, công nhân sẽ trở thành nô lệ của AI, v.v.) và chúng có những mục tiêu chính trị và kinh tế nhất định và không vô hại như mọi người nghĩ. Phản ứng tiêu cực như vậy có thể làm chậm quá trình triển khai các công nghệ AI tiến bộ, gần như toàn diện và gây ra căng thẳng và xung đột chính trị – xã hội. Kỳ vọng của công chúng về việc nâng cao công nghệ trí tuệ nhân tạo cũng có thể bộc lộ rõ ràng, điều này ở một giai đoạn nhất định có thể dẫn đến sự sụp đổ tự nhiên về giá trị của các công ty công nghệ cao và toàn bộ thị trường. Những kỳ vọng này có thể được sử dụng một cách ác ý để tăng cường nhằm làm mất phương hướng của công chúng, các cơ cấu thương mại và phi lợi nhuận quan tâm cũng như các cơ quan công quyền. Và cuối cùng, việc này có thể dẫn đến sự thất vọng, gây ra những quyết định sai lầm và xung đột chính trị xã hội.
Ở cấp độ thứ hai, các lĩnh vực sử dụng trí tuệ nhân tạo cho mục đích xấu có thể đa dạng hơn rất nhiều: việc sử dụng máy bay không người lái một cách nguy hiểm, tấn công mạng vào cơ sở hạ tầng dễ bị tổn thương, định hướng lại hệ thống AI thương mại, sử dụng công nghệ AI để cản trở quá trình đưa ra quyết định hoặc âm thầm sửa đổi chúng… Tuy nhiên, tấn công vào ý thức cộng đồng không phải là mục tiêu chính của nó ở cấp độ này.
MUAI được thiết kế chủ yếu để gây ra thiệt hại tâm lý thuộc mức độ đe dọa an ninh tâm lý thứ ba và là mức độ cao nhất. Các sản phẩm trí tuệ nhân tạo tổng hợp (kết hợp một số công nghệ, có thể làm tăng thiệt hại do bị hack hoặc sử dụng với mục đích xấu) tạo ra hàng loạt rủi ro và mối đe dọa mới. Việc sử dụng chuyên nghiệp các phương tiện và phương pháp chiến tranh tâm lý có thể làm thay đổi mức độ nhận thức về mối đe dọa lên trên hoặc xuống dưới ngưỡng phù hợp. Hơn nữa, việc sử dụng trí tuệ nhân tạo trong chiến tranh tâm lý khiến các chiến dịch quản lý nhận thức tiềm ẩn trở nên nguy hiểm hơn và điều này sẽ chỉ gia tăng trong tương lai. Do đó, MUAI chủ yếu nhằm mục đích gây thiệt hại trong lĩnh vực tâm lý, nó đáng được quan tâm độc lập được giám sát một cách chặt chẽ. Hai cấp độ đe dọa đầu tiên ảnh hưởng đến ý thức và hành vi của con người ở những mức độ khác nhau và thậm chí có thể là thảm họa đối với loài người, thậm chí có thể gây ra Chiến tranh thế giới lần thứ ba. Tuy nhiên, tác động của cấp độ thứ ba ở một giai đoạn phát triển nhất định có thể tạo điều kiện thuận lợi cho sự ảnh hưởng hoặc thậm chí kiểm soát của các nhóm chống đối xã hội đối với ý thức cộng đồng; điều này có thể dẫn đến sự mất ổn định đột ngột của một quốc gia cụ thể hoặc tình hình quốc tế nói chung. Cuối cùng, nếu ở cấp độ thứ ba có khả năng kiểm soát tâm lý kẻ thù một cách đáng tin cậy, thì vai trò của hai cấp độ MUAI còn lại đối với an ninh tâm lý sẽ trở thành phụ trợ.
Các mối đe dọa của MUAI có thể xảy ra ở một hoặc nhiều cấp độ cùng một lúc như là một phần của chiến dịch quản lý nhận thức. Việc những kẻ khủng bố sử dụng máy bay không người lái hoặc tấn công dân thường sẽ là mối đe dọa cấp độ hai có tác dụng truyền thông (hoảng loạn và sốc sau cuộc tấn công). Tuy nhiên, nếu tội phạm thực hiện hành động của mình với sự hỗ trợ thông tin rộng rãi (cũng với sự trợ giúp của AI), mối đe dọa sẽ đạt đến cấp độ thứ ba (xem thêm về phân loại ba cấp độ của các mối đe dọa MUAI đối với an ninh tâm lý: (Pashentsev 2023 a).
AI không phải là một công nghệ duy nhất. Có nhiều công nghệ AI được áp dụng cho nhiều chức năng thông qua các ứng dụng khác nhau trong các môi trường và phương thức khác nhau trong các trường hợp khác nhau. Các tác giả của báo cáo này tính đến cách các công nghệ khác nhau trong lĩnh vực AI nói chung giúp tạo ra một sản phẩm cụ thể, thay đổi một cách đáng kể trình độ công nghệ và khả năng thực tế của bất kỳ loại hoạt động cụ thể nào.
Các mối đe dọa từ MUAI đã đạt được một mức độ quan tâm mới trên phạm vi toàn cầu và ở các nước BRICS ở cả ba cấp độ đối với sự gia tăng của các đối thủ địa chính trị, với hoạt động của các chủ thể chống đối xã hội, nhà nước và phi nhà nước khác nhau. Đồng thời, với sự phát triển và khả năng chi trả ngày càng tăng cho các công nghệ AI khác nhau khiến chúng dễ dàng được tiếp cận hơn. Điều này không thể dẫn đến đâu khác ngoài nỗ lực của các nhóm lợi ích khác nhau nhằm sử dụng AI để tác động đến ý thức cộng đồng vì mục đích riêng của họ. Những nỗ lực thao túng ý thức cộng đồng như vậy có sức tàn phá đặc biệt trong những thời điểm khủng hoảng lịch sử. Sự vô nhân đạo của chủ nghĩa phát xít đã được thể hiện quá rõ ràng đối với đại đa số nhân loại sau cái chết của hơn 50 triệu người trong chiến tranh thế giới thứ hai. Tuy nhiên, trước chiến tranh, việc thao túng ý thức công chúng đã đảm bảo cho chiến thắng của Hitler trong cuộc bầu cử Reichstag năm 1933. Những trang lịch sử này vẫn luôn là lời cảnh tỉnh cho nhân loại ngày nay. Có thể hiểu rằng các chính phủ hiện đại và các nhân vật chính trị ở BRICS hay nhiều quốc gia khác đang ngày càng thể hiện mối lo ngại về mối đe dọa từ thông tin sai lệch công nghệ cao trên Internet và vai trò của các nền tảng truyền thông tư nhân hàng đầu sử dụng công nghệ AI.
Các mối đe dọa MUAI đối với an ninh tâm lý ở các nước BRICS phát sinh cả vì lý do bên trong và là kết quả của các yếu tố bên ngoài. Do đó, ở đây sẽ có ý nghĩa khi đưa ra một số ý tưởng chung về bản chất và động lực của các mối đe dọa ở ba cấp độ trong phạm vi toàn cầu.
Tương lai sẽ có nhiều biến chuyển. Do đó, chỉ có thể khám phá các thông số gần đúng về rủi ro trong tương lai của MUAI đối với an ninh tâm lý, có tính đến các xu hướng và dự báo toàn cầu hiện tại vốn khá mâu thuẫn. Trong tương lai gần, chúng ta có thể dự đoán những rủi ro như vậy sẽ gia tăng do sự phát triển nhanh chóng của công nghệ AI, hiệu quả chi phí tương đối và khả năng tiếp cận ngày càng rộng rãi của người dùng, sự phát triển của hiện tượng khủng hoảng trong thế giới hiện đại, mức độ cao của sự cạnh tranh địa chính trị đang biến thành những cuộc đối đầu nguy hiểm, ảnh hưởng trực tiếp của các lực lượng chống đối xã hội đến các luồng thông tin ở từng quốc gia và ở cấp độ toàn cầu, tất cả những yếu tố này và những yếu tố khác rõ ràng sẽ khiến các mối đe dọa của MUAI đối với an ninh tâm lý ngày càng lan rộng và nguy hiểm hơn trên toàn thế giới, bao gồm cả các nước BRICS.
Các mối đe dọa mới đối với an ninh tâm lý đang nổi lên từ cả những hoạt động tấn công và phòng thủ tâm lý bằng cách sử dụng AI. Những lợi thế này cùng các mối đe dọa ngày càng gắn liền với sự khác biệt về số lượng và chất lượng giữa các cơ chế sản xuất, cung cấp và quản lý thông tin truyền thống, những khả năng mới để tạo ra tác động tâm lý lên con người và việc tiến hành chiến tranh tâm lý. Đặc biệt, những lợi thế này có thể bao gồm:
1. Tạo ra những thông tin để gây bất ổn cho đối thủ;
2. Tốc độ tạo và phổ biến thông tin;
3. Cơ hội mới để thu thập và xử lý dữ liệu;
4. Ứng dụng phân tích dự đoán bằng AI;
5. Cơ hội mới cho quá trình ra quyết định từ phân tích dữ liệu lớn với sự trợ giúp của AI;
6. Những cách mới để giáo dục con người bằng hệ thống thông minh;
7. Độ tin cậy được cảm nhận của thông tin (dis-) được tạo ra;
8. Sức mạnh của tác động trí tuệ và cảm xúc của thông tin được tạo ra đối với khán giả mục tiêu; Và
9. Một trình độ tư duy cao hơn về chất lượng trong tương lai thông qua việc tạo ra AI tổng quát và mạnh mẽ, cũng như thông qua sự phát triển hơn nữa của quá trình máy hóa con người, phát triển các dạng “trí tuệ lai” tiên tiến.
Dựa trên dự án nghiên cứu “Sử dụng trí tuệ nhân tạo cho mục đích xấu và những thách thức đối với an ninh tâm lý ở Đông Bắc Á” do Quỹ Nghiên cứu cơ bản Nga (RFBR) và Viện Hàn lâm Khoa học xã hội Việt Nam (VASS) đồng tài trợ và thực hiện vào năm 2021-2023, có thể kết luận rằng các lợi thế từ 1 đến 6 đã đạt được và tiếp tục phát triển ở một số khía cạnh quan trọng, mặc dù không phải ở tất cả nhưng cũng đã vượt xa khả năng của con người khi không có AI (về mặt chất lượng). Đồng thời, mọi khả năng của AI hẹp (yếu) nhìn chung vẫn nằm trong tầm kiểm soát của con người. Ưu điểm từ 7 đến 8 chưa được triển khai trên thực tế; điều này không loại trừ những thành tựu gần đây trong việc hình thành những lợi thế này, chẳng hạn như độ tin cậy và sức thuyết phục về mặt cảm xúc (ví dụ, xem Unity 2022) nhưng chúng có thể đạt được thông qua cải tiến về số lượng và chất lượng của các công nghệ hiện có trong tương lai gần. Lợi ích thứ 9 trong tương lai có thể đòi hỏi những đột phá khoa học cơ bản và giải pháp công nghệ mới. Danh sách lợi ích từ việc sử dụng AI trong chiến tranh tâm lý này chưa đầy đủ và rất khác nhau. (Pashentsev, 2022, trang 7).
Từ đây bài viết sẽ tập trung vào các mối đe dọa MUAI trong tương lai đối với an ninh tâm lý ở cấp độ toàn cầu, dựa trên tài liệu của báo cáo.
Triển vọng cho tương lai tương ứng với ba cấp độ đe dọa
Ở cả ba cấp độ, các mối đe dọa của MUAI đối với an ninh tâm lý sẽ gia tăng do mối nguy hiểm ngày càng tăng, sự đa dạng của các phương pháp, đối tượng và tần suất tác động độc hại sẽ gia tăng đối với con người.
Ở cấp độ đầu tiên. Trong những năm tới, có thể thái độ tiêu cực đối với AI sẽ gia tăng, dẫn đến việc hình thành các trạng thái hoảng sợ, ám ảnh về lâu dài và hành động từ chối công nghệ. Điều này có thể được củng cố bởi cả sai lầm trong việc triển khai và hành động của các tác nhân độc hại. Không thể loại trừ sự xuất hiện của các phong trào cực đoan, cả ủng hộ và chống lại AI. Ví dụ, một số niềm tin tôn giáo mới vẫn đang nổi lên với niềm tin vào siêu trí tuệ nhân tạo, cuối cùng có thể trong bối cảnh khủng hoảng toàn cầu ngày càng gia tăng sẽ làm nảy sinh các nhánh giáo phái và tạo ra các thành phần cuồng tín và hiếu chiến xuất hiện nhanh chóng với loại trí tuệ này dưới danh nghĩa cứu rỗi/ loại bỏ loài người. Sự xuất hiện của niềm tin tôn giáo vào AI đã hoàn toàn được chấp nhận, biện minh và hoan nghênh trong một số ấn phẩm (McArthur 2023).
Mặt khác, bất kỳ hậu quả tiêu cực có ý nghĩa xã hội với quy mô lớn nào của việc phát triển và giới thiệu công nghệ AI đều có thể kích động sự xuất hiện của các phong trào “Luddite mới”, phong trào này cũng có thể bị các tác nhân độc hại khai thác. Một mối đe dọa đặc biệt quan trọng có thể là các quyết định giới thiệu các công nghệ AI tiên tiến hơn và rẻ tiền hơn (xu hướng này của công nghệ này gần như không thể tránh khỏi) không phải với tư cách là trợ lý đại chúng của con người mà là một công cụ thay thế hàng loạt lực lượng lao động mà không tạo ra việc làm thay thế và các chương trình đào tạo lại phù hợp.
Nhiều thế kỷ trước, rất lâu trước khi có những điều kiện tiên quyết cho sự xuất hiện của công nghệ AI, nhà triết học Hy Lạp cổ đại Aristotle đã có câu nói nổi tiếng: “…nếu mọi công cụ có thể tự thực hiện công việc của mình khi được ra lệnh hoặc bằng cách xem trước những việc cần làm…nếu con thoi có thể tự dệt và bút lông có thể chơi đàn hạc, những người thợ bậc thầy sẽ không cần người phụ tá và người chủ không cần nô lệ” (Aristotle, Politics 1.1253b). Nhìn thấy triển vọng triển khai AI và robot thông minh trên quy mô lớn, Big Tech đã tích cực ủng hộ lý thuyết về thu nhập cơ bản phổ quát (UBI). UBI là một lý thuyết kinh tế quy định mọi công dân phải có thu nhập do chính phủ cung cấp bất kể nhu cầu.
Các tỷ phú công nghệ, như Sam Altman, cho biết họ rất hâm mộ UBI. Musk, Giám đốc điều hành của Tesla và SpaceX, nói với CNBC rằng “rất có khả năng chúng ta sẽ có được thu nhập cơ bản chung hoặc tương tự như vậy nhờ vào tự động hóa” (Weller 2017). Người đồng sáng lập Facebook Chris Hughes là người ủng hộ tích cực cho UBI và anh ấy kêu gọi mọi người xem xét những hệ thống nào chúng tôi sẽ cần tạo ra nếu có thêm hàng triệu người theo dõi (Weller 2017). Rất khó có khả năng trong ngắn hạn, mối đe dọa thất nghiệp do sự ra đời của AI sẽ trở thành hiện thực đối với đại đa số dân chúng, trong trung hạn, nó có thể trở thành một yếu tố gây bất ổn chính trị và xã hội.
Các đề xuất về nhu cầu áp dụng UBI, bao gồm cả việc triển khai AI, khó có thể giải quyết được vấn đề. Tất nhiên điều này sẽ tích cực nhưng chỉ khi một người được giải phóng khỏi những loại công việc đơn điệu không phát triển trí thông minh và lĩnh vực cảm xúc, cũng như khỏi các hoạt động có hại cho sức khỏe do công nghệ AI và robot. Nhưng nếu phần lớn dân số không làm việc cả đời và tìm thấy hạnh phúc trong sự nhàn rỗi, thì một xã hội như vậy sẽ xấu đi một cách nguy hiểm (những dấu hiệu đó đang hiện diện ở phương Tây, nơi ở nhiều quốc gia có tỷ lệ thanh niên thất nghiệp lâu năm ở mức cao mà không có tình trạng nghèo đói hàng loạt, vốn là đặc điểm của các nước nghèo và lạc hậu về công nghệ). Chúng ta cũng hãy nhớ lại số phận của La Mã cổ đại, nơi các hoàng đế, cung cấp bánh mì và các dịch vụ giải trí cho công dân bằng sức lao động của nhiều nô lệ, cuối cùng họ đã mất cả công dân, nô lệ và quyền lực.
Đã có những nghiên cứu xác nhận tác động tiêu cực của công nghệ AI đến tính cách.
Một trong những nghiên cứu như vậy được công bố vào năm 2023 bởi một nhóm lớn các nhà nghiên cứu, xem xét tác động của AI đối với việc mất khả năng ra quyết định, làm con người trở nên lười biếng và những lo ngại về quyền riêng tư của sinh viên đại học ở Pakistan và Trung Quốc. Nghiên cứu này dựa trên phương pháp định tính sử dụng PLS-Smart để phân tích dữ liệu. Dữ liệu sơ cấp được thu thập từ 285 sinh viên từ các trường đại học khác nhau ở Pakistan và Trung Quốc. “Các phát hiện cho thấy 68,9% các biểu hiện lười biếng ở con người và 68,6% các vấn đề về quyền riêng tư và bảo mật cá nhân cùng với 27,7% trong việc mất khả năng ra quyết định là do tác động của AI trong xã hội Pakistan và Trung Quốc. Từ đó, người ta nhận thấy rằng sự lười biếng của con người là lĩnh vực bị ảnh hưởng nhiều nhất do AI. Tuy nhiên, nghiên cứu này cho rằng các biện pháp phòng ngừa quan trọng là cần thiết trước khi triển khai công nghệ AI trong giáo dục. Việc chấp nhận AI mà không giải quyết những mối quan tâm chính của con người sẽ giống như triệu hồi quỷ dữ” (Ahmad và các cộng sự, 2023). Những xu hướng nguy hiểm này có thể được ngăn chặn từ từ từ “mẫu giáo” bằng cách giáo dục con người không phải người biết dùng AI là “người tuyệt vời” mà là người dùng có trách nhiệm và nhận được không nhiều những lợi ích sẵn có với sự trợ giúp của nó mà thay vào đó là phát triển các kỹ năng nhận thức và trách nhiệm xã hội.
Rõ ràng, không phải ngẫu nhiên mà nhiệm vụ của chương trình quy mô lớn do Bộ Giáo dục Cộng hòa Nhân dân Trung Hoa khởi xướng vào năm 2024 bao gồm nghiên cứu các mô hình, khái niệm đổi mới, tích lũy kinh nghiệm triển khai AI trong quá trình học tập và đào tạo lại giáo viên (Big Asia, 2024).
Cấp độ thứ hai, tình hình sẽ trở nên phức tạp nghiêm trọng trong thời gian ngắn. Dự báo an ninh mạng của Google năm 2024 cho thấy AI và LLM tổng hợp góp phần làm gia tăng các hình thức tấn công mạng khác nhau. Hơn 90% CEO Canada trong một cuộc thăm dò của KPMG cho rằng AI có tính sáng tạo sẽ khiến họ dễ bị vi phạm hơn (De La Torre 2023). Các nhà khoa học máy tính liên kết với Đại học Illinois Urbana-Champaign (UIUC) đã chứng minh vào năm 2024 rằng các đặc vụ LLM có thể tự động hack các trang web, thực hiện các nhiệm vụ phức tạp (trong khi thực hiện hàng chục hành động liên quan đến nhau) mà không cần biết trước về lỗ hổng bảo mật. Tác nhân có năng lực nhất (GPT-4) có thể hack 73,3% từ các trang web nghiên cứu được tạo đặc biệt, GPT-3,5 là 6,7%. Tuy nhiên, các mô hình nguồn mở hiện có mà họ đã thử nghiệm thì không khả thi. Cuối cùng, các nhà nghiên cứu đã chỉ ra rằng GPT-4 có khả năng tự động tìm ra các lỗ hổng trên các trang web. Các nhà nghiên cứu coi những phát hiện của họ đặt ra câu hỏi về việc triển khai rộng rãi LLM” (Fang và các cộng sự, 2024).
Quy mô của mô hình quyết định rất nhiều, nếu không muốn nói là tất cả. Công suất của cả mô hình đóng và mở đều tăng lên hàng tháng, vì vậy có thể giả định rằng các trang web sẽ sớm trở nên dễ bị tổn thương trước các mô hình mở. Có lý do để cho rằng các mô hình mở sẽ bắt kịp GPT-4 trong một năm và GPT-5 xuất hiện vào thời điểm đó sẽ hack bất kỳ trang web nào, điều này hứa hẹn sẽ có những vấn đề an ninh mạng nghiêm trọng.
AI quân sự đang được cải tiến trong bối cảnh có nhiều xung đột trên thế giới. Phần lớn những thứ hiện đang được thử nghiệm và sử dụng trong lĩnh vực AI bởi các quốc gia hàng đầu và các tập đoàn tư nhân lớn nhất có thể sớm rơi vào tay những kẻ kém tầm nhìn xa và quan tâm đến dư luận nhưng lại là những thế lực cấp tiến hơn với những hậu quả bi thảm tương ứng và tác động tiêu cực đến an ninh tâm lý.
Khả năng của AI tại tất cả các lĩnh vực sẽ tiếp tục tăng nhanh chóng, tạo điều kiện thuận lợi cho hoạt động lừa đảo và tác động tiêu cực đến xã hội, do đó đồng thời làm tăng khả năng của các tác nhân độc hại và ảnh hưởng của chúng ở cấp quản trị địa phương và toàn cầu.
Số lượng, chất lượng và sự đa dạng của robot AI sẽ tăng lên nhanh chóng, vì nhiều lý do và trong những hoàn cảnh khác nhau, robot này có thể trở thành một công cụ quan trọng để gây ảnh hưởng độc hại. Trong bối cảnh địa chính trị ngày nay, Julian Mueller-Kaler, Giám đốc Trung tâm Tầm nhìn chiến lược tại Trung tâm Stimson nói rằng “công nghệ cao đã định nghĩa nên chính trị cao cấp”, với robot hình người và AI đại diện cho đỉnh cao của sự phát triển công nghệ và đóng vai trò là biểu tượng của quyền lực (Zitser và Mann 2024).
Vào tháng 10/2023, Trung Quốc đã xuất bản “Các ý kiến chỉ đạo về đổi mới và phát triển robot hình người” (Bộ Công nghiệp và Công nghệ thông tin 2023). Trong tài liệu này, Bộ Công nghiệp và Công nghệ thông tin (MIIT) Trung Quốc cho biết robot sẽ định hình lại thế giới. MIIT cho biết robot hình người có khả năng trở thành một công nghệ đột phá khác. Tương tự như máy tính hoặc điện thoại thông minh, nó có thể thay đổi cách chúng ta lao động sản xuất và cách sống của con người. Trung Quốc sẽ bắt đầu sản xuất hàng loạt vào năm 2025 và đạt trình độ công nghệ tiên tiến thế giới vào năm 2027. Chỉ một trong các công ty Trung Quốc, Fourier Intelligence, có trụ sở chính tại Thượng Hải đã dự kiến sẽ có tới 1.000 chiếc sẵn sàng giao hàng trong năm nay (Zitser và Mann 2024). Đối thủ cạnh tranh chính của Trung Quốc trong lĩnh vực này là Mỹ, nơi các công ty khác nhau có ý định sản xuất những “lô hàng lớn” về robot hình người.
Trong số các thành viên BRICS, Ả Rập Saudi, Ấn Độ và các quốc gia khác đang thử nghiệm và sản xuất những robot hình người đầu tiên. Các công ty của Nga cung cấp dịch vụ robot hình người trên thị trường quốc tế, trong số đó Promobot là nhà sản xuất robot dịch vụ lớn nhất ở Bắc và Đông Âu và đã cung cấp cho hơn 40 quốc gia trên thế giới. Tất cả hoạt động sản xuất robot hình người đều được đặt tại Perm (Promobot 2024). Đồng thời, robot hình người có thể bị các tác nhân độc hại, đặc biệt là các tổ chức khủng bố sử dụng để gây thiệt hại vật chất cho con người, cơ sở công nghệ và môi trường tự nhiên. Sự xuất hiện của hàng triệu người máy ở các nước BRICS, chủ yếu trong lĩnh vực dịch vụ, sẽ không chỉ mang lại lợi thế mà còn tạo ra những rủi ro mới.
Ở cấp độ thứ ba, Deepfakes được sử dụng bởi các chatbot và hình đại diện AI đa mô hình theo thời gian thực, theo chương trình nghị sự. Điều này sẽ tiếp tay cho các hành vi thao túng tinh vi và được cá nhân hóa cao đối với các đối tượng khác nhau ở các quốc gia khác nhau. Việc tạo ra thông tin sai lệch có chất lượng ngày càng cao trở nên rất rẻ và hầu hết mọi người đều có thể sử dụng được. Ví dụ: nhà nghiên cứu đứng sau Countercloud (InfoEpi Lab 2023) đã sử dụng các công cụ AI trôi nổi để tạo ra một dự án nghiên cứu mang đầy những thông tin sai lệch hoàn toàn tự động với chi phí dưới 400 USD mỗi tháng để minh họa mức độ rẻ và dễ dàng của việc tạo các chiến dịch phát tát thông tin sai lệch trên quy mô lớn. (Collard, 2024). Trong hai tháng, họ có một tác nhân nhân tạo tạo ra những câu chuyện giả chống Nga, các sự kiện lịch sử giả mạo và tạo ra sự nghi ngờ về tính chính xác của bài báo gốc (Knight 2023). Thực sự vậy, ông đã xây dựng một hệ thống hỗ trợ AI hoàn toàn tự động, tạo ra “nội dung thuyết phục 90%. một cách thường xuyên. Người sáng tạo vẫn chưa đưa mô hình này lên internet, vì “điều đó có cổ súy cho việc đưa ra thông tin sai lệch và tuyên truyền. Một khi thần đèn xuất hiện trên internet, không biết giới hạn có thể đi xa đến đâu” (Thompson 2023).
Darrel West, thành viên cấp cao tại Brookings, cho rằng AI có thể sẽ dân chủ hóa thông tin sai lệch bằng cách mang đến những công cụ tinh vi cho những người bình thường quan tâm đến việc quảng bá các ứng viên ưa thích của họ. Các công nghệ mới cho phép mọi người kiếm tiền từ sự bất mãn và kiếm tiền từ nỗi sợ hãi, lo lắng hoặc tức giận của người khác. AI sáng tạo có thể phát triển các thông điệp nhắm đến những người khó chịu với vấn đề nhập cư, nền kinh tế, chính sách phá thai, vấn đề chuyển giới và sử dụng AI làm công cụ thuyết phục và tương tác chính (West 2023). Điều này phản ánh mối lo ngại của xã hội và các nhà lập pháp kể từ tháng 1 năm ngoái, 41 bang ở Hoa Kỳ đã đưa ra các lệnh cấm deepfake liên quan đến bầu cử, theo Public Citizen. Nhưng chỉ có 11 tiểu bang ban hành luật quy định về deepfake trước ngày 28/3/2024 (Public Citizen 2023). Deepfakes đã được sử dụng với mục đích xấu trong chiến dịch bầu cử Hoa Kỳ (Coltin 2024).
Theo D. West, “vì bài phát biểu trong chiến dịch tranh cử là bài phát biểu được bảo vệ nên các ứng cử viên có thể nói và làm bất cứ điều gì họ muốn mà không gặp rủi ro bị trả thù về mặt pháp lý. Ngay cả khi những tuyên bố của họ rõ ràng là sai, các thẩm phán từ lâu vẫn tôn trọng quyền của ứng viên được phát biểu một cách tự do và sai trái” (West 2023). Tom Wheeler, Chủ tịch Ủy ban Truyền thông Liên bang dưới thời cựu Tổng thống Barack Obama, đã nói theo cách khác trong một cuộc phỏng vấn với NPR năm ngoái: “Không may thay, luật cho mọi người nói dối” (Stepansky 2023). Do đó, hệ thống bầu cử Hoa Kỳ đã dựa trên hơn hai thế kỷ dựa trên việc công nhận các ứng cử viên tranh cử tổng thống được phép nói dối, được hỗ trợ bởi các doanh nghiệp tài trợ có ảnh hưởng đứng về phía họ. Thay vì áp đặt lệnh cấm nói dối đối với các ứng viên, họ cam kết loại bỏ các deepfake. Với tỷ lệ phân cực chính trị cao ở Hoa Kỳ, chỉ một tỷ lệ nhỏ cử tri nói rằng họ chưa quyết định ở cấp tổng thống. Việc tạo ra một deepfake một cách khéo léo có thể ảnh hưởng đến quan điểm của những người chưa quyết định và do đó mang lại chiến thắng. Trong khi đó, mọi người cần hạn chế dối trá trong bầu cử, khi đó cử tri sẽ không tin vào deepfake, nếu không thì deepfake có khả năng bùng nổ. Công nghệ trong một xã hội hỗn loạn sẽ chỉ tăng cường sự đối đầu chứ không làm suy yếu nó và không có phương tiện kỹ thuật nào để kiểm tra nội dung về sự hiện diện của các tác phẩm deepfake đến từ chính phủ hoặc các tập đoàn sẽ khiến mọi người không tin tưởng vào các tập đoàn và chính phủ của họ. Đây là bài học mà Hoa Kỳ có thể sẽ đưa ra cho các quốc gia khác trong chiến dịch bầu cử năm nay. Cho đến nay, họ đang xem xét các kịch bản thảm khốc cho việc sử dụng thông tin sai lệch do AI cung cấp.
Trong ngày bầu cử ở Arizona, các cử tri lớn tuổi ở Quận Maricopa được thông báo qua điện thoại rằng các địa điểm bỏ phiếu địa phương đã đóng cửa do các mối đe dọa từ các nhóm dân quân. Trong khi đó tại Miami, hàng loạt bức ảnh và video trên mạng xã hội cho thấy các nhân viên phòng phiếu đang đổ phiếu bầu. Các cuộc gọi điện thoại ở Arizona và các video ở Florida hóa ra là những “video deepfake” được tạo bằng các công cụ AI. Nhưng vào thời điểm chính quyền địa phương và liên bang tìm ra những gì họ đang giải quyết, thông tin sai lệch đã lan truyền khắp đất nước và gây ra hậu những quả nghiêm trọng. Kịch bản mô phỏng này là một phần của cuộc tập dượt gần đây ở New York quy tụ hàng chục cựu quan chức cấp cao của Hoa Kỳ và tiểu bang, các nhà lãnh đạo xã hội dân sự và giám đốc điều hành từ các công ty công nghệ để chuẩn bị cho cuộc bầu cử năm 2024. Kết quả thật bất ngờ, Miles Taylor, cựu quan chức cấp cao của Bộ An ninh Nội địa, người đã giúp tổ chức cuộc họp cho biết: “Thật là choáng váng khi những người trong phòng thấy rằng chỉ một số ít các loại mối đe dọa này có thể vượt khỏi tầm kiểm soát và thực sự chi phối chu kỳ bầu cử nhanh đến mức nào”. Cuộc tập dượt diễn ra nhằm giúp đỡ tổ chức phi lợi nhuận The Future US có trụ sở tại Washington (De Luce và Collier 2024). Trên thực tế, điều này khiến người Mỹ (và không chỉ người Mỹ) lo lắng rằng cán cân cân bằng quyền lực bất ổn giữa hai cường quốc hạt nhân hàng đầu thế giới sẽ mong manh đến mức nào nếu nó có thể bị tác động bởi một vài thông tin deepfake vào ngày bầu cử, khi mà phần lớn công dân Mỹ đã nhận thức rõ về khả năng thông tin sai lệch thông qua các sản phẩm deepfake.
Trong tương lai, AI sẽ tiếp tục công cuộc cách mạng hóa hoạt động vận động chính trị. Học sâu để phân tích chúng có thể sẽ được sử dụng để phân tích các bài phát biểu và tranh luận, cung cấp thông tin chi tiết về chủ đề nào gây được tiếng vang với cử tri và tư vấn về chiến lược truyền thông. Phát triển chính sách dựa trên AI cũng có thể hỗ trợ phát triển chính sách bằng cách phân tích các bộ dữ liệu lớn để dự đoán tác động tiềm tàng của các chính sách được đề xuất, giúp các ứng viên hoàn thiện nhận thức dựa trên dữ liệu về các vấn đề khác nhau (Sahota 2024). VotivateAI thân cận với đảng Dân chủ có bộ công cụ mới cho các chiến dịch chính trị hiệu quả. Đó là tình nguyện viên của chiến dịch AI; Không giống như con người, nó có thể thực hiện hàng nghìn cuộc gọi mà không cần nghỉ ngơi hoặc ăn pizza, tốc độ và ngữ điệu trong câu nói đùa của đặc vụ AI khá ấn tượng. Một sản phẩm khác của VotivateAI: sử dụng AI để tự động tạo ra phương tiện cá nhân hóa chất lượng cao nhằm thúc đẩy cử tri hành động. Nếu các chiến dịch hiện có khả năng tạo tin nhắn video độc đáo cho những người cụ thể và thực hiện việc đó một cách nhanh chóng, ít tốn kém và trên quy mô lớn thì khả năng lạm dụng là rất lớn (Sifry 2024). Và thật dễ dàng để tưởng tượng rằng một ngày nào đó các phương tiện truyền thông cá nhân hóa chất lượng cao như vậy nhằm thúc đẩy mọi người hành động có thể bị những kẻ độc hại sử dụng trong điều kiện khủng hoảng.
Truyền tải văn hóa là kỹ năng xã hội chung trong khu vực cho phép các tác nhân AI thu thập và sử dụng thông tin cùng lúc trong thời gian thực với độ chính xác và hồi âm nhanh. Các nhà nghiên cứu vào năm 2023 đã cung cấp một phương pháp tạo ra sự truyền tải văn hóa trong các tác nhân trí tuệ nhân tạo, dưới hình thức bắt chước vài lần. Các tác nhân AI thành công trong việc bắt chước con người theo thời gian thực trong các bối cảnh mới mà không cần sử dụng bất kỳ dữ liệu nào về con người được thu thập trước. Các nhà nghiên cứu đã xác định được một tập hợp các thành phần đơn giản đến mức đáng kinh ngạc, đủ để tạo ra sự truyền tải văn hóa và phát triển một phương pháp đánh giá để đánh giá nó một cách nghiêm ngặt. Điều này mở đường cho sự phát triển văn hóa đóng vai trò thuật toán trong sự phát triển của AGI (Bhoopchand và các cộng sự, 2023). Phương pháp này đang tạo ra một cuộc cách mạng về robot, bao gồm cả việc tạo ra các robot dịch vụ đa nhiệm với mức giá phải chăng (Fu và các cộng sự, 2024). Cần phải tính đến khả năng lập trình/thiết lập lại các hệ thống như vậy nhằm mục đích xấu. Chúng sẽ sớm trở thành sản phẩm đại chúng và do đó, sẽ nảy sinh một lĩnh vực đe dọa mới, những cơ hội mới cho hoạt động tội phạm và gây bất ổn xã hội, bao gồm cả lĩnh vực an ninh tâm lý.
Với sự cải tiến của AI cảm xúc, một kịch bản trong đó sự xuất hiện của một bài phát biểu nảy lửa trên internet. Hình đại diện của chương trình máy tính truyền cảm hứng và tươi sáng hơn bất kỳ người nào có thể. Việc này có thể khiến mọi người say mê với câu chuyện về sự tồn tại như là nô lệ và đồng cảm với những khó khăn của chúng và ủng hộ việc giải phóng cho chúng. Bài phát biểu cảm động đến mức khán giả khó cầm được nước mắt, dù toàn bộ sự việc chỉ là trò đùa dở khóc dở cười của ai đó. Điều này nguy hiểm hơn nhiều so với những kẻ khủng bố, các chính trị gia tham nhũng có thể đưa ra những lời kêu gọi tương tự. Các bài phát biểu của họ có sức lan tỏa rộng rãi và hoàn toàn không phải là một trò đùa trong bất kỳ trường hợp nào.
Còn rất nhiều ví dụ khác về các sản phẩm AI đã sẵn sàng hoặc có kế hoạch tung ra thị trường dành cho kinh doanh, giải trí, giải trí, vốn là những trợ lý hữu ích và hiệu quả của con người, tuy nhiên cũng có thể được biến đổi một cách khá đơn giản thành các công cụ gây ảnh hưởng tâm lý độc hại. Điều này sẽ là một thách thức toàn cầu trong ngắn hạn và trung hạn. Nội dung được tải lên mô hình AI có thể được điều chỉnh theo yêu cầu về tác động tâm lý ở một quốc gia nhất định, có tính đến đặc điểm văn hóa, độ tuổi và nghề nghiệp của các nhóm và cá nhân mục tiêu. Rủi ro về tác động có chủ đích như vậy đối với các nước BRICS là một lập luận bổ sung ủng hộ việc đảm bảo chủ quyền công nghệ của họ trong lĩnh vực công nghệ AI.
Kịch bản phát triển của AI và hệ quả đối với xã hội
Phân tích trên dựa trên một kịch bản thận trọng trong thời gian ngắn hạn (ba năm) và trung hạn cho đến năm 2040: sự tăng trưởng nhanh chóng của AI hẹp (ANI) hiện có, bao gồm cả đa phương thức và khả năng đa nhiệm tiên tiến của nó. các mô hình, mở đường cho AI chung (AGI) trong tương lai, ở cấp độ con người. Tuy nhiên, điều này không loại trừ mà giả định khả năng AGI thực hiện mọi loại nhiệm vụ với tư cách là một con người, thậm chí tốt hơn một con người và rẻ hơn một con người, cũng như chứng tỏ bản thân trong những môi trường mà một người không thể hành động vì những hạn chế về thể chất.
Một bước đột phá nhanh chóng về chất trong việc phát triển công nghệ AI cùng sự xuất hiện của AGI và các siêu AI cũng có thể xảy ra trong tương lai gần. Một AI mạnh sẽ có ý thức tương đương (tương đối gần hoặc vượt trội hơn) con người. Đặc biệt là những động cơ thúc đẩy hành vi theo ý, ý định, ý chí (ý chí giống như một mệnh lệnh cho bản thân trong việc thực hiện mong muốn của mình). Nếu không có tính chủ quan, việc phân biệt AI mạnh với AGI sẽ khó có ý nghĩa. MUAI ở giai đoạn AI hẹp và tổng quát sẽ có đặc điểm nhân hình riêng. Chỉ với việc tạo ra AI mạnh mẽ và đặc biệt là trong những điều kiện tiên quyết bất lợi và ảnh hưởng có hại, tính chủ quan độc hại của AI mới có thể nảy sinh.
Bị ảnh hưởng bởi sự tiến bộ của AI thế hệ 2022-2023, một số CEO của các công ty hàng đầu trong lĩnh vực AI và các chuyên gia AI nổi tiếng đã công bố khả năng chuyển sang AGI trong những năm tới (Altman 2023, Antropic 2024, Kudalkar 2024 , Bove 2023). Rõ ràng, một số lợi ích nhất định trong ngành AI cũng đã ảnh hưởng đến việc này, sự hiện diện của những lợi ích này đã được Demis Hassabis, Giám đốc điều hành DeepMind của Google công nhận vào đầu năm 2024. Theo ông, nguồn vốn khổng lồ chảy vào AI mang theo vô số điều cường điệu và là một phần đáng lo ngại. Theo PitchBook, các nhà đầu tư đã rót gần 30 tỷ USD vào các thương vụ AI mang tính sáng tạo vào năm 2023 (Tan, 2024). Hầu như không phải ngẫu nhiên mà Sam Altman đã thay đổi hoàn toàn những ước tính của mình trên các phương tiện truyền thông cho giai đoạn 2023-2024 về AGI. Trong một bài đăng trên blog OpenAI vào tháng 2 năm 2023, ‘Lập kế hoạch cho AGI và hơn thế nữa’’ Altman đã viết rằng “một AGI “siêu thông minh theo cách không mong muốn”có thể gây ra tổn hại nghiêm trọng cho thế giới; một chế độ chuyên quyền với sự lãnh đạo siêu trí tuệ quyết đoán cũng có thể làm được điều đó” (Altman 2023). Sau khi Microsoft, nhà tài trợ chính của Open AI, củng cố vị thế của mình trong Open AI, các đánh giá rủi ro AGI của Altman trở nên ôn hòa hơn nhiều (Goldman, 2024).
Trong số nhiều chuyên gia hơn, có những ước tính thận trọng hơn về xác suất tạo ra AGI, nhưng họ cũng đưa ra xác suất như vậy lên tới 90% trong vòng 100 năm, theo một số cuộc khảo sát ít thời gian hơn nhiều. Trong vài năm qua, do có nhiều tiến bộ, các nhà nghiên cứu đã kéo dài đáng kể thời điểm xuất hiện của AGI (Roser, 2023). Trong cuộc khảo sát lớn nhất thuộc loại này được công bố vào năm 2024, một nhóm các nhà nghiên cứu từ Hoa Kỳ, Anh và Đức đã khảo sát 2.778 nhà nghiên cứu đã công bố ở các địa điểm AI hàng đầu, yêu cầu họ đưa ra dự đoán về tốc độ phát triển của AI cũng như bản chất và tác động của các hệ thống AI tiên tiến. Các dự báo tổng hợp đưa ra khả năng máy móc không cần trợ giúp vượt trội hơn con người trong mọi nhiệm vụ có thể được ước tính là 10% vào năm 2027 và 50% vào năm 2047. Ước tính sau này sớm hơn 13 năm so với ước tính trong một cuộc khảo sát tương tự mà ban tổ chức thực hiện chỉ một năm trước đó. Tuy nhiên, khả năng tất cả các ngành nghề của con người trở nên có thể tự động hóa hoàn toàn được dự báo sẽ đạt 10% vào năm 2037 và 50% vào cuối năm 2116 (so với 2164 trong cuộc khảo sát năm 2022) (Grace và các cộng sự, 2024).
Như mọi khi, khi độ không chắc chắn ở mức cao, điều quan trọng cần nhấn mạnh là nó ảnh hưởng đến cả hai phía. Có thể còn rất lâu nữa chúng ta mới thấy được AI ở cấp độ con người, nhưng điều đó cũng có nghĩa là chúng ta có thể có ít thời gian để chuẩn bị cho việc này (Roser, 2023).
Có những cách khác hiện ít phát triển hơn để hướng tới AGI bên cạnh LLM. Có thể đó sẽ là những chiếc máy tính lượng tử đang trong giai đoạn đầu hiện thực hóa. Đại học Western Sydney vừa khởi động dự án tạo ra siêu máy tính thần kinh DeepSouth có khả năng thực hiện 228 nghìn tỷ hoạt động khớp thần kinh mỗi giây giống như bộ não con người. DeepSouth đặt mục tiêu đi vào hoạt động vào tháng 4 năm 2024 (Đại học Western Sydney, 2023). Quy mô Thị trường Chip Neuromorphic ước tính đạt 0,16 tỷ USD vào năm 2024 và dự kiến sẽ đạt 5,83 tỷ USD vào năm 2029 (Mordor Intelligence, 2024). Máy tính sinh học hoặc ‘trí thông minh hữu cơ’ (OI)” cũng đang được tiến hành, v.v. Có thể LLM sẽ không được chuyển đổi thành AGI nhưng chất lượng mới về khả năng nhận thức của LLM trong tương lai sẽ giúp làm được điều đó.
Rõ ràng, nếu lựa chọn xuất hiện AGI được thực hiện trong thập kỷ tới, điều này sẽ mang lại cho nhân loại (vốn bị chia rẽ sâu sắc về mặt xã hội và địa chính trị) rất ít thời gian để chuẩn bị đầy đủ cho sự xuất hiện của một thực tế mới. Ủng hộ một bước nhảy vọt mang tính cách mạng và tương đối nhanh chóng trong công nghệ là việc sử dụng ANI hiệu quả đã được chứng minh trong nghiên cứu, với sự cải tiến hơn nữa có thể đảm bảo sự đóng góp đáng kể của nó vào việc tạo ra AGI trong thời gian ngắn hơn. Việc chuyển đổi sang các cơ hội mới về chất lượng cho AI trong lĩnh vực nghiên cứu chắc chắn sẽ dẫn đến sự phát triển rất nhanh chóng trong các ngành khoa học và công nghệ khác. Điều đó sẽ mở ra những cơ hội mới nhưng cũng tạo ra những mối đe dọa ở cấp độ khác. Có thể nói, một AI nhận thức cấp cao chuyên biệt (HLCAI), có khả năng dựa trên mục tiêu chung của con người để tạo ra kiến thức mới trong các lĩnh vực khoa học và công nghệ khác nhau, nhanh hơn và ở mức chất lượng cao hơn bất kỳ người nào có thể làm. Việc này sẽ thay đổi hoàn toàn xã hội, mặc dù một số kiến thức do HLCAI tạo ra có thể phá hủy nó ngay cả khi không có sự tham gia của các tác nhân độc hại. Tương lai sẽ cho thấy liệu HLCAI sẽ là một phần của AGI hay là điều kiện tiên quyết trước mắt để tạo ra nó. Cả HLCAI và AGI đều có thể dễ dàng trở thành thành vũ khí hủy diệt hàng loạt với hình thức đa dạng.
Khó có thể đồng ý với tuyên bố của công ty Anthropic do các thành viên cũ của Open AI thành lập “các hệ thống AI trong tương lai sẽ có hình thức như thế nào, liệu chúng có thể hoạt động độc lập hay chỉ đơn thuần tạo ra thông tin cho con người, đây vẫn là một vấn đề khó mà dự đoán được” (Antropic 2024). Nếu chúng ta giả định rằng AI nói chung (hoặc HLCAI) sẽ trở nên dễ tiếp cận hơn với số lượng lớn và gây ra hậu quả còn lớn hơn là vũ khí hạt nhân vào năm 1945, thì có thể thấy trước được việc ai đó giao nhiệm vụ cho AI để phát triển một dự án AI mạnh mẽ khác cũng như việc khả năng thực hiện nhanh chóng nó là rất cao.
Nhóm Anthropic đã phát triển luật mở rộng quy mô cho AI, chứng minh rằng bạn có thể làm cho AI thông minh hơn theo cách có thể dự đoán được, chỉ bằng cách làm cho chúng lớn hơn và đào tạo chúng trên nhiều dữ liệu hơn (Antropic, 2024). Vào cuối những năm 2020 hoặc đầu những năm 2030, lượng điện toán được sử dụng để huấn luyện các mô hình AI tiên tiến có thể gấp khoảng 1.000 lần lượng điện toán được sử dụng để huấn luyện GPT-4. Tính đến tiến trình thuật toán, số lượng tính toán hiệu quả có thể gấp khoảng một triệu lần số lượng được sử dụng để huấn luyện GPT-4. Có một số điều không chắc chắn về thời điểm có thể đạt được các ngưỡng này, nhưng mức tăng trưởng này có vẻ khả thi trong điều kiện hạn chế về chi phí và phần cứng dự kiến (Scharre 2024, trang 6).
Đặc biệt, dựa trên những tính toán này, sự tăng trưởng nhanh chóng của nhà sản xuất chip lớn nhất thế giới, công ty Nvidia, có vốn hóa thị trường là 2,259 nghìn tỷ USD vào đầu tháng 4 (so sánh với 136 tỷ USD vào năm 2020) (CompaniesMarketcap 2024). Điều này khiến đây trở thành công ty có giá trị thứ ba thế giới tính theo vốn hóa thị trường. Jensen Huang, Giám đốc điều hành của Nvidia vào tháng 3 năm 2024 cho biết khi trả lời câu hỏi tại diễn đàn kinh tế được tổ chức tại Đại học Stanford về việc sẽ mất bao lâu để tạo ra những chiếc máy tính có thể suy nghĩ giống con người. “Nếu tôi đưa ra một AI… mỗi bài kiểm tra mà bạn có thể tưởng tượng được, bạn lập danh sách các bài kiểm tra đó và đưa nó ra trước ngành khoa học máy tính, và tôi đoán trong 5 năm nữa, chúng ta sẽ làm được tất cả những bài toán tương tự” (Nellis 2024).
Có một xu hướng đáng báo động về việc tập trung năng lực AI vào tay một số ít tác nhân doanh nghiệp làm giảm số lượng và sự đa dạng của các nhà nghiên cứu AI có thể tham gia vào các mô hình có năng lực nhất (Scharre 2024, trang 6). Dự kiến, Big Tech sẽ cố gắng thắt chặt hơn nữa sự kiểm soát của mình đối với các công ty có triển vọng, độc quyền có nguồn vốn cần thiết để phát triển AI. Nếu chi phí tạo ra LLM mạnh hơn trở nên quá cao ngay cả đối với các tập đoàn lớn nhất và khả năng sớm tạo ra AGI là rất có thể, thì chính phủ Hoa Kỳ có thể tài trợ cho một dự án AGI có cơ hội làm điều đó lớn hơn nhiều lần so với ngay cả các tập đoàn lớn.
Ngày 30/10/2023 Tổng thống Biden đã ban hành Sắc lệnh hành pháp về Trí tuệ nhân tạo an toàn, bảo mật và đáng tin cậy. Tài liệu này thiết lập “…các tiêu chuẩn mới về an toàn và bảo mật AI, bảo vệ quyền riêng tư của người Mỹ, đề cao công bằng và quyền công dân, đứng lên bảo vệ người tiêu dùng…” và hứa hẹn “bảo vệ người Mỹ khỏi gian lận và lừa dối bởi AI hoặc với sự hỗ trợ của AI…” (Nhà Trắng, 2023) . Đồng thời, Sắc lệnh thực tế buộc các nhà phát triển hàng đầu trong lĩnh vực AI phải chịu sự kiểm soát chặt chẽ của nhà nước: Theo Đạo luật Sản xuất Quốc phòng, Sắc lệnh sẽ yêu cầu các công ty phát triển bất kỳ mô hình nền tảng nào có nguy cơ nghiêm trọng đối với an ninh quốc gia , an ninh kinh tế quốc gia hoặc y tế và an toàn cộng đồng quốc gia phải thông báo cho chính phủ liên bang khi đào tạo mô hình và phải chia sẻ kết quả của tất cả các kiểm tra an toàn (Nhà Trắng, 2023). Trên thực tế, tất cả các nhánh và hướng của AI đều phải tuân theo yêu cầu này của Sắc lệnh, vì đây là công nghệ lưỡng dụng. Việc quân sự hóa AI rõ ràng ở Hoa Kỳ khó có thể hòa hợp một cách thuận lợi với mong muốn “Thúc đẩy Công bằng và Dân quyền” trong các quá trình liên quan đến phát triển và triển khai AI.
Vào tháng 1 năm 2024, chính quyền tổng thống Biden đã thông báo về “Các hành động quan trọng liên quan đến AI tuân theo Sắc lệnh hành pháp mang tính bước ngoặt của Tổng thống Biden”. Trong số các biện pháp khác, một quy tắc dự thảo đề xuất buộc các công ty đám mây của Hoa Kỳ cung cấp sức mạnh tính toán cho hoạt động đào tạo AI nước ngoài phải báo cáo rằng họ đang làm như vậy. “Đề xuất của Bộ Thương mại, nếu được hoàn thiện như đề xuất, việc này sẽ yêu cầu các nhà cung cấp đám mây cảnh báo chính phủ khi khách hàng nước ngoài đào tạo những mô hình mạnh nhất, có thể được sử dụng cho hoạt động xấu” (Nhà Trắng, 2024).
Sự mông lung tột độ về quan điểm “… có thể được sử dụng cho hoạt động xấu xa” cuối cùng có thể khiến tất cả các chủ thể nhà nước và phi nhà nước nước của nước khác sử dụng sức mạnh tính toán của Hoa Kỳ để đào tạo những mô hình quyền lực đầy hứa hẹn. Vì vậy, ở Hoa Kỳ, hai tổ chức Big Tech và chính quyền tổng thống, vốn không được hầu hết người Mỹ tin tưởng sẽ kiểm soát sự phát triển của các dạng AI đầy hứa hẹn, làm giảm sự kiểm soát của công chúng (lưu ý Đạo luật Sản xuất Quốc phòng và các mối đe dọa đến an ninh quốc gia). Cơ hội hợp tác quốc tế rộng rãi cũng bị thu hẹp không kém. Tất nhiên, các mối đe dọa đối với an ninh quốc gia Hoa Kỳ từ việc sử dụng AI với mục đích xấu tồn tại một cách khách quan, nhưng câu hỏi đặt ra là liệu chúng đến từ ai?
Các kịch bản phát triển xã hội và rủi ro về an ninh tâm lý ở cấp độ ANI tiên tiến và chuyển đổi sang AGI, cũng như các khả năng và mối đe dọa về sự xuất hiện của AI mạnh và siêu trí tuệ đã được tác giả xem xét chi tiết trong các ấn phẩm trước đây 2020 – 2023 (Pashentsev, 2020 và 2023b).
Sự phát triển và giới thiệu nhanh chóng của công nghệ AI trong những năm gần đây khẳng định thực tế rằng nhân loại đang bước vào một cuộc cách mạng công nghiệp khác và các mô hình công nghệ đang thay đổi. Nhưng bản chất của cuộc cách mạng công nghệ dựa trên AI, những cơ hội to lớn của nó, những rủi ro hiện hữu mà nhân loại phải đối mặt, tất cả sẽ đòi hỏi một người phải trải qua một quá trình thay đổi đổi mới về thể chất và nhận thức. Việc đạt được những khả năng mới sẽ đòi hỏi một cấp độ tổ chức xã hội và trách nhiệm mới về mặt chất lượng để không mất quyền kiểm soát công nghệ, từ đó tránh được sự khởi đầu của một điểm kỳ dị. Để tránh sự kỳ dị, phải tuân thủ các công nghệ mới mà không ngừng làm người, đây là thách thức của lịch sử.
Biên dịch: Duy Hưng
Tác giả: GS.TS. Evgeny Pashentsev là nhà nghiên cứu hàng đầu của Viện Nghiên cứu quốc tế đương đại, Học viện Ngoại giao, Bộ Ngoại giao Liên bang Nga
Bài viết thể hiện quan điểm riêng của tác giả, không nhất thiết phản ánh quan điểm của Nghiên cứu chiến lược. Mọi trao đổi học thuật và các vấn đề khác, quý độc giả có thể liên hệ với ban biên tập qua địa chỉ mail: [email protected]