Khi "nút bấm" không còn nằm trong tay con người
Trong suốt kỷ nguyên Chiến tranh lạnh, khái niệm "sự hủy diệt chắc chắn lẫn nhau" (MAD) đã đóng vai trò như một chiếc phanh tâm lý khổng lồ giữ cho thế giới không rơi vào vực thẳm hạt nhân. Học thuyết răn đe truyền thống dựa trên một giả định cốt lõi: Con người, với bản năng sinh tồn và khả năng suy xét đạo đức, sẽ là thực thể cuối cùng đưa ra quyết định nhấn nút.
Tuy nhiên, sự trỗi dậy của trí tuệ nhân tạo (AI) trong lĩnh vực quân sự đang tạo ra một bước ngoặt lịch sử, nơi các thuật toán phản ứng nhanh bắt đầu thay thế tư duy chính trị, đẩy nhân loại vào một trạng thái bất định mới, nơi ranh giới giữa phòng thủ và hủy diệt trở nên mong manh hơn bao giờ hết.
Bóng ma trên chiến trường hạt nhân tương lai
Sự chuyển dịch từ học thuyết răn đe hạt nhân truyền thống sang kỷ nguyên số không chỉ là sự thay đổi về vũ khí, mà là sự thay đổi về hệ quy chiếu thời gian. Trong quá khứ, các nhà lãnh đạo quốc gia có khoảng "cửa sổ thời gian" từ 15 đến 30 phút để xác minh khả năng một cuộc tấn công tên lửa thông qua các vệ tinh cảnh báo sớm và đưa ra quyết định đáp trả. Đó là khoảng thời gian quý giá dành cho ngoại giao con người, cho sự tỉnh táo và cả những nghi ngờ cần thiết để tránh những sai lầm chết người.

Ngày nay, sự xuất hiện của tên lửa siêu thanh với quỹ đạo bay khó lường và các hệ thống tấn công tự động đã rút ngắn thời gian phản hồi từ hàng chục phút xuống chỉ còn tính bằng giây. Trong bối cảnh đó, AI không còn là một công cụ hỗ trợ tùy chọn mà trở thành một yêu cầu kỹ thuật tất yếu để duy trì khả năng răn đe. Khi một hệ thống phòng thủ cần xử lý hàng triệu điểm dữ liệu từ cảm biến để phân biệt giữa một hiện tượng thiên văn lạ và một cuộc tấn công đa mũi nhọn trong mili giây, vai trò của con người dần bị đẩy ra ngoài rìa của “vòng lặp quyết định” (human-in-the-loop) vì sự hữu hạn của hệ thần kinh sinh học.
Sự phụ thuộc này dẫn đến một khái niệm mới đang được các chuyên gia an ninh quốc tế thảo luận: "Flash wars" (chiến tranh chớp nhoáng kỹ thuật số). Tương tự như hiện tượng "Flash crash" trên thị trường chứng khoán năm 2010, khi các thuật toán giao dịch tự động tương tác sai lệch dẫn đến sự sụp đổ tài chính trong chớp mắt trước khi con người kịp hiểu chuyện gì đang xảy ra, một cuộc chiến tranh AI có thể bùng phát mà không cần bất kỳ ý chí chính trị nào.
Nghịch lý nằm ở chỗ: Để răn đe đối phương hiệu quả trong thế kỷ 21, một quốc gia phải sở hữu hệ thống AI nhanh hơn, tự chủ hơn và quyết đoán hơn; nhưng chính tốc độ này lại làm tăng nguy cơ leo thang ngoài ý muốn. Khi hai hệ thống AI của hai phía đối địch tương tác với nhau, những sai số nhỏ trong thuật toán hoặc sự thiếu hụt dữ liệu thực tế có thể dẫn đến một vòng xoáy phản ứng dây chuyền. Trong kịch bản này, các biện pháp ngăn chặn khủng hoảng truyền thống như đường dây nóng hay các cuộc hội đàm cấp cao trở nên vô dụng, bởi cuộc chiến đã có thể đạt tới mức độ hủy diệt toàn diện trước khi các nhà ngoại giao kịp nhấc máy hay các nguyên thủ kịp triệu tập hội đồng an ninh.
Tư duy chiến lược và tốc độ thuật toán
Khi chúng ta bước sâu hơn vào kỷ nguyên của các thuật toán, bản chất của sự răn đe đang bị thay đổi từ gốc rễ. Răn đe, về mặt lý thuyết, là một quá trình truyền thông tin: Bên A gửi một thông điệp tới bên B rằng cái giá của việc tấn công sẽ lớn hơn lợi ích đạt được. Đây là một cuộc đấu trí giữa hai tâm trí con người. Tuy nhiên, khi AI tham gia vào, đối tượng của sự răn đe không còn là một bộ não chứa đựng cảm xúc và nỗi sợ, mà là một hệ thống logic khô khan. AI không biết sợ sự hủy diệt, nó chỉ tối ưu hóa các mục tiêu được lập trình sẵn. Điều này tạo ra một "hố đen" về mặt chiến lược: Làm thế nào để răn đe một thực thể không có nỗi sợ?

Hơn nữa, tốc độ của AI đang tạo ra một áp lực khổng lồ lên các nhà lãnh đạo. Nếu một quốc gia biết rằng đối phương đã kích hoạt hệ thống phản ứng tự động, họ sẽ cảm thấy buộc phải làm điều tương tự để không bị mất đi khả năng đáp trả. Đây chính là một "cuộc đua vũ trang về tốc độ" mới. Trong cuộc đua này, sự suy ngẫm bị coi là điểm yếu và sự chậm trễ của con người bị xem là lỗ hổng an ninh. Khi các quốc gia bắt đầu tin rằng họ phải "ủy quyền" quyết định phản kích cho AI để bảo đảm sự tồn tại, chúng ta đã vô hình tháo bỏ chốt an toàn quan trọng nhất của nền hòa bình thế giới. Nếu chúng ta nhớ lại câu chuyện về Stanislav Petrov (người Liên Xô cũ) năm 1983, người đã dùng trực giác để bác bỏ cảnh báo sai của máy tính về một cuộc tấn công hạt nhân từ Mỹ, thì giờ đây, khả năng con người có thể can thiệp để ngăn chặn một vụ phóng nhầm đang dần trở nên bất khả thi trong một môi trường mà mọi thứ diễn ra ở tốc độ mili giây.
Đạo đức và bóng ma của sự ủy quyền sinh tử
Việc chuyển giao quyền ra quyết định quân sự cho máy móc đặt ra những câu hỏi lớn về tính chính danh và trách nhiệm đạo đức mà nhân loại chưa từng phải đối mặt. Một thuật toán, dù thông minh và được huấn luyện trên bao nhiêu petabyte dữ liệu đi nữa, cũng chỉ hoạt động dựa trên logic tối ưu hóa xác suất. Nó không có khả năng thấu cảm, không hiểu về giá trị của lịch sử, văn hóa, hay nỗi đau khổ của sự hy sinh. Khi "nút bấm" không còn nằm trực tiếp trong tay con người, khái niệm về trách nhiệm giải trình cũng bị mờ đục một cách nguy hiểm. Nếu một hệ thống tự động khai hỏa nhầm do lỗi mã nguồn, do bị tấn công mạng (hacking) hay do hiện tượng "hallucination" (ảo giác) của AI, ai sẽ là người chịu trách nhiệm trước lịch sử?
Chúng ta đang chứng kiến sự hình thành của một "khoảng cách trách nhiệm". Các kỹ sư lập trình sẽ đổ lỗi cho dữ liệu đầu vào, các tướng lĩnh quân đội sẽ đổ lỗi cho sự cố kỹ thuật và các chính trị gia sẽ đổ lỗi cho tính cấp thiết của tình huống. Trong khi đó, hậu quả của một quyết định sai lầm từ thuật toán có thể là sinh mạng của hàng triệu người.
Thiết lập hàng rào cho một tương lai không chắc chắn
Để học thuyết răn đe không trở thành một cái bẫy tự sát tập thể, cộng đồng quốc tế cần phải hành động khẩn cấp để xây dựng những chuẩn mực mới. Chúng ta cần những hiệp ước quốc tế không chỉ về số lượng đầu đạn hạt nhân mà còn về mức độ tự chủ của các hệ thống AI trong chỉ huy và kiểm soát. Khái niệm "con người trong vòng lặp quyết định" phải được nâng tầm thành một nguyên tắc pháp lý quốc tế không thể xâm phạm đối với các vũ khí chiến lược. AI cần được định vị rõ ràng là công cụ để giảm thiểu sai sót, lọc nhiễu thông tin và hỗ trợ nhận thức, chứ không phải là thực thể thay thế sự minh triết và quyền quyết định tối cao của con người.
Các cường quốc quân sự, dù cạnh tranh gay gắt, vẫn có một lợi ích chung nhất: Tránh một cuộc chiến tranh tổng lực nổ ra do sự cố kỹ thuật. Việc chia sẻ các giao thức an toàn AI, thiết lập các trung tâm giảm nhẹ rủi ro hạt nhân dựa trên AI chung và minh bạch hóa các giới hạn của thuật toán là những bước đi thiết yếu. Chúng ta không thể ngăn cản sự tiến bộ của công nghệ, nhưng chúng ta có thể và phải kiểm soát cách thức công nghệ can thiệp vào những quyết định mang tính tồn vong. Tương lai của hòa bình quốc tế phụ thuộc vào việc chúng ta có đủ can đảm để chấp nhận sự "chậm chạp" của con người như một giá trị bảo hiểm cho sự sống hay không.
Sau cùng, công nghệ có thể thay đổi cách thức chúng ta tiến hành chiến tranh, biến những chiến trường trở nên vô hình và chớp nhoáng hơn, nhưng nó không bao giờ nên thay thế trách nhiệm của chúng ta trong việc giữ gìn hòa bình. Khả năng suy ngẫm, sự hoài nghi trước những con số và đặc biệt là lòng trắc ẩn của con người chính là chốt chặn cuối cùng ngăn chặn một thảm họa toàn cầu.
QĐND



