Ở góc độ quốc phòng và an ninh, AI dường như có thể thay đổi phương pháp các quốc gia vận hành chiến lược răn đe dựa trên quyền lực quân sự và phi quân sự, theo tạp chí National Interest.
Tận dụng AI đe dọa đối thủ
Bản chất của răn đe là dùng việc đe dọa sử dụng vũ lực nhằm ngăn đối thủ thực hiện một hành động nhất định. Đối tượng bị đe dọa, khi nhận thấy hành động của mình sẽ phải trả giá đắt nếu thực hiện, sẽ kiềm chế và từ bỏ. Khả năng răn đe càng hiệu quả khi đối thủ thực sự cảm nhận hậu quả có thể được hiện thực hóa. Điều này có thể đến từ tiềm lực quân sự, danh tiếng của quốc gia răn đe, cũng như yếu tố khách quan của thế giới thời điểm đó.
Phó giáo sư Alex Wilner (Đại học Carleton, Canada) hồi năm 2022 đã có bài luận nêu rõ AI có thể tác động đến khả năng răn đe của một quốc gia dưới góc độ quân sự, dễ thấy nhất là việc áp dụng AI vào hệ thống vũ khí tấn công. Chẳng hạn, tích hợp AI vào máy bay không người lái (UAV), cùng các cải tiến cho vũ khí truyền thống, có thể tạo thành sức mạnh răn đe khó bị đánh bại. Ngược lại, dùng vũ khí công nghệ AI cũng có thể tăng cường năng lực phòng thủ, từ đó làm nản lòng những bên có ý định gây sức ép.
Không chỉ dừng lại ở các loại vũ khí, một quốc gia có công nghệ AI hiện đại còn mang đến những lợi thế từ hậu phương, bao gồm hậu cần, thông tin liên lạc, huấn luyện và định vị, theo bài luận của ông Wilner được đăng trên website Trung tâm Sáng kiến quản trị quốc tế (CIGI, trụ sở tại Canada). Chẳng hạn, trong chiến tranh vùng Vịnh năm 1991, quân đội Mỹ đã áp dụng hệ thống AI công cụ phân tích và lên kế hoạch hành động (DART). Hệ thống đã cung cấp các đánh giá nhanh cho Bộ tư lệnh vận tải Mỹ với việc tính toán các phương án hậu cần tự động. DART đã khiến các nhà quân sự ngạc nhiên khi giúp Mỹ đưa ra quyết định hiệu quả và tiết kiệm hàng triệu USD chi phí hậu cần.
Những hệ thống AI cao cấp còn có khả năng đưa ra những phân tích cần thiết và dự đoán bước tiếp theo của đối thủ, đảm bảo lợi thế phủ đầu cho bên áp dụng răn đe. Trong lĩnh vực tác chiến thông tin, AI có thể được sử dụng như công cụ truyền bá thông tin sai lệch hoặc những hình ảnh sử dụng công nghệ làm giả (deep fake), nhằm chi phối các luồng thông tin gây hại cho bên bị đe dọa.
Không dễ vận hành
Mặt trái của sử dụng AI như công cụ hỗ trợ răn đe có thể tiềm ẩn nhiều nguy cơ nếu không cân nhắc kỹ lưỡng. Năng lực AI, vốn tồn tại dưới dạng thuật toán vô hình, khó mà giải thích minh bạch, so với quyền lực quân sự truyền thống thường dễ phân định. Điều này có thể gây hiểu lầm và leo thang căng thẳng, đặc biệt giữa một số quốc gia vốn mang tâm lý thù địch, trong bối cảnh thế giới biến động và không chắc chắn. Giải quyết tình trạng mơ hồ về những gì AI có thể mang lại trong chiến lược răn đe không phải điều dễ dàng.
Một quốc gia áp dụng AI để răn đe, đồng nghĩa với việc bên bị đe dọa cũng có thể đưa ra động thái tương tự, từ đó tạo thế lưỡng nan an ninh khi các quốc gia chạy đua phát triển AI, với tâm lý rằng công nghệ này có thể nâng cao vị thế của họ trên trường quốc tế. Theo ông Wilner, khi đã mang tâm thế chạy đua, tốc độ và khả năng "ai có thể tấn công trước" sẽ vượt lên những tính toán nhằm tránh nguy cơ leo thang.
Tiến bộ AI cũng đặt nhiều bài toán cho các liên minh, chẳng hạn Tổ chức Hiệp ước Bắc Đại Tây Dương (NATO), về tính đồng nhất. Các thành viên có tiềm lực, luật pháp và nguyên tắc khác nhau có thể ngăn cản liên minh đưa ra một lập trường răn đe thống nhất. Quan điểm không nhất quán, yếu tố đạo đức của từng nước cũng có thể kéo theo kịch bản áp dụng AI vào năng lực phòng thủ tập thể không hiệu quả.
AI thay đổi cuộc chơi của vũ khí hạt nhân ?
Trong một bài viết trên tạp chí NATO Review hồi tháng 4, tiến sĩ Steffan Puwal thuộc Khoa Vật lý, Đại học Oakland (Mỹ), cho rằng hệ thống AI mang đến cơ hội tăng cường răn đe hạt nhân bằng cách cung cấp năng lực phòng thủ hạt nhân chính xác và hiệu quả hơn. Việc phát triển vũ khí hạt nhân theo hướng này không nhằm thúc đẩy khả năng sử dụng chúng, mà phát huy tinh thần của học thuyết hạt nhân truyền thống, khi các cường quốc đều sở hữu vũ khí có khả năng hủy diệt sẽ giảm nguy cơ một bên muốn châm ngòi xung đột. Lúc này, AI đơn thuần là một công cụ chiến lược.
Theo ông Puwal, những rủi ro khi tích hợp công nghệ tự động vào vũ khí hạt nhân đã được nghiên cứu từ trước, song nên được đánh giá dựa trên cơ sở khoa học thay vì kịch bản viễn tưởng. Ông cho rằng tìm được sự cân bằng khi vận dụng AI vào khả năng răn đe hạt nhân không phải điều dễ, khi lĩnh vực này chỉ mới ở giai đoạn sơ khai, và cần có sự phối hợp từ các quan chức quân sự, kỹ sư và những nhân viên chuyên môn về công nghệ AI.
Bình luận (0)