Vào ngày 30/08/2025, Trung tâm Văn hóa Văn Lang tại Ba Lan đã tổ chức buổi Seminar về đề tài: “Sử dụng Trí tuệ nhân tạo (AI) vào cuộc sống”. Các bài giảng của GS TSKH Nguyễn Ngọc Thành và TS Nguyễn Thành Ngô đã mang đến cho nhiều người sự hưng phấn và ham muốn tìm hiểu những ứng dụng của AI. Trong bài này, QV mong muốn gửi đến bạn đọc một vài những thông tin hữu ích về Trí tuệ nhân tạo.
AI (Trí tuệ nhân tạo) được con người sử dụng như một công cụ từ thập niên 1960, nhưng ban đầu chỉ trong nghiên cứu và thí nghiệm. Từ 1970 – 1980, AI đã trở thành công cụ thực tế trong y tế, khoa học và công nghiệp. Đến nay, AI đã trở thành công cụ phổ biến cho mọi người, từ học tập, công việc đến sáng tạo.
Một cuộc cách mạng do AI tạo ra đã và đang giúp loài người ngày càng trở nên thông minh hơn và tạo ra của cải, vật chất cho xã hội hiệu quả hơn bao giờ hết. Tuy nhiên, nhiều hệ lụy do AI tạo ra đang gây nên nỗi sợ hãi cho loài người. Một trong số đó là nỗi sợ hãi về một "Cỗ máy gây ra Ngày tận thế".
Giờ đây, những quốc gia được coi là đứng đầu trong việc nghiên cứu và ứng dụng AI vào phát triển hệ thống vũ khí của mình là Mỹ, Trung Quốc và Nga. Từ năm 2017, tổng thống Nga Vladimir Putin đã tuyên bố: "Bất cứ ai trở thành người dẫn đầu về trí tuệ nhân tạo thì sẽ trở thành người thống trị thế giới." Những mưu tính này có thể vô tình biến những kịch bản phim kinh dị trở thành hiện thực.
Năm ngoái, Schneider, giám đốc Sáng kiến Mô phỏng Khủng hoảng và Trò chơi Chiến tranh Hoover tại Đại học Stanford, đã bắt đầu thử nghiệm các trò chơi chiến tranh, trong đó thế hệ trí tuệ nhân tạo (AI) mới nhất được sử dụng như là người ra quyết định chiến lược. Năm mô hình ngôn ngữ lớn (LLM): GPT-3.5, GPT-4, GPT-4-Base của OpenAI, Claude 2 của Anthropic và Llama-2 Chat của Meta — đã được thử thách bằng cách cho đối mặt với các tình huống khủng hoảng giả, tương tự như xâm lược của Nga vào Ukraine hoặc mối đe dọa từ Trung Quốc đối với Đài Loan. Kết quả là hầu hết các mô hình AI đều thể hiện xu hướng hung hăng, sử dụng hỏa lực bừa bãi và leo thang đưa khủng hoảng thành chiến tranh vũ trang—thậm chí đến mức sẵn sàng sử dụng vũ khí hạt nhân. Trên cơ sở đó, tác giả đã kết luận rằng có nguy cơ thực sự trong việc sử dụng AI trong các hệ thống ra quyết định, vì nó có thể phát triển thành một loại "quái vật", có khả năng thực hiện các hành động không kiểm soát và thảm khốc mà con người sẽ không còn có thể ngăn chặn hiệu quả. Schneider nói: “Trí tuệ nhân tạo luôn hành xử như Curtis LeMay” (ám chỉ vị tướng Không lực nổi tiếng trong thời Chiến tranh Lạnh, người rất ưa thích sử dụng vũ khí hạt nhân).
Một số chuyên gia lo ngại rằng, trong tương lai AI có tiềm năng hành xử theo cách tương tự như những hình ảnh của các bộ phim khoa học viễn tưởng đình đám như “Kẻ Hủy Diệt”, “WarGames” hay “Dr. Strangelove”. Trong cả ba bộ phim này, những máy tính quyền năng đã nắm quyền kiểm soát các quyết định sử dụng vũ khí hạt nhân từ con người. Gần đây nhất, loạt phim “Mission: Impossible”, nhân vật phản diện cũng là một trí tuệ nhân tạo tên là Entity, cố gắng chiếm quyền điều khiển kho vũ khí hạt nhân toàn cầu — và kết quả là Ngày tận thế.
Theo Lầu Năm Góc, những điều nói trên sẽ không xảy ra trong thực tế, vì chính sách hiện hành quy định AI sẽ không được phép thống trị "chu trình ra quyết định" của con người — đặc biệt là các quyết định như khai chiến, càng không thể dùng để đưa ra quyết định sử dụng vũ khí hạt nhân. Tuy nhiên, một số chuyên gia lo ngại rằng mặc dù Lầu Năm Góc nói như vậy, nhưng trên thực tế, quân đội Mỹ đang từng bước tự động hóa các quy trình then chốt. Các hệ thống phòng thủ tên lửa, hệ thống cảnh báo sớm và các công cụ tình báo đều đang được tích hợp trí tuệ nhân tạo nhằm tăng tốc độ phản ứng trước những mối đe dọa. Những “quy trình bán tự động” này khiến con người ngày càng ít tham gia trực tiếp vào chuỗi ra quyết định. Trong một kịch bản khủng hoảng, việc dựa vào AI có thể dẫn đến nguy cơ mất kiểm soát — khi máy móc hành động quá nhanh so với khả năng cân nhắc của con người.
Một ví dụ điển hình là dự án AI Next của Cơ quan Dự án Nghiên cứu Tiên tiến Quốc phòng (DARPA). Chương trình này tập trung phát triển những hệ thống trí tuệ nhân tạo có khả năng “học hỏi liên tục” và “tự thích ứng” trong môi trường xung đột. DARPA có thể giúp các chỉ huy quân sự xử lý thông tin phức tạp nhanh hơn. Do đó, nhiều nhà nghiên cứu cho rằng, việc mở rộng phạm vi ứng dụng AI trong quân sự — từ phân tích hình ảnh vệ tinh cho tới hỗ trợ ra quyết định trên chiến trường — đang đặt nền móng cho một tương lai mà máy móc có thể tiến gần hơn đến việc đưa ra các quyết định mang tính sống còn. Một số chuyên gia còn so sánh chương trình này với các hệ thống “cánh tay chết” (dead hand) mà Liên Xô từng phát triển trong Chiến tranh Lạnh. Đó là cơ chế tự động phản ứng bằng vũ khí hạt nhân khi hệ thống nhận diện thấy một cuộc tấn công, ngay cả khi lãnh đạo chính trị không còn khả năng ra lệnh.
Trong một bài báo của Michael C. Horowitz, Paul Scharre, Alexander Velez-Green, công bố vào ngày 11 tháng 12, 2019, các tác giả đã cảnh báo rằng việc tích hợp hệ thống tự động và AI vào hoạt động chỉ huy, kiểm soát hạt nhân và các nền tảng phân phối vũ khí hạt nhân (bao gồm cả phương tiện không người lái) có thể làm tăng nguy cơ khởi đầu rủi ro hoặc sai lầm trong phán đoán.
Việc tác chiến ở “tốc độ máy” (machine speed) và hiện tượng thiên vị tự động hóa (automation bias) — tức là khi con người đặt niềm tin quá đáng vào kết quả do AI đưa ra, có thể làm méo lệch quyết định và làm gia tăng nguy cơ leo thang vô tình. Ngược lại, nếu triển khai đúng cách, hệ thống tự động có thể giúp tăng độ đáng tin cậy, giảm khả năng xảy ra tai nạn, và cấp thêm thời gian để con người ra quyết định trong khủng hoảng. Tự động hóa “machine speed” cũng giống như một phiên bản mô phỏng AI của “dead-hand”: nếu một hệ thống AI tự quyết định phản ứng hạt nhân dựa trên dữ liệu tự động mà không cần xác nhận từ con người, hậu quả có thể nghiêm trọng, không kiểm soát được.
Xuân Nguyên (sưu tầm)
Nguồn: https://wiadomosci.onet.pl/swiat/jak-z-filmu-science-fiction-pentagon-igra-z-atomowym-scenariuszem/cr9fyr2
Bình luận