Cảnh báo nguy cơ từ “vũ khí tự động”

TRẦN ANH (BIÊN DỊCH)

Thứ ba, 29/08/2017 - 09:37 AM (GMT+7)
Font Size   |         Print

Một chiến dịch phản đối vũ khí tự động tại Mỹ. Ảnh: GETTY IMAGES

Mới đây, vì lo ngại nguy cơ sản xuất ồ ạt “vũ khí tự động” trên toàn cầu sẽ gây tình trạng mất kiểm soát, hơn 100 chuyên gia hàng đầu thế giới về trí tuệ nhân tạo (AI) đã gửi kiến nghị kêu gọi LHQ ra lệnh cấm sử dụng loại vũ khí này. Lời kêu gọi từ những “đại gia” công nghệ cho thấy vấn đề kiểm soát “vũ khí tự động” đã ở mức đáng báo động.

Khả năng nổ ra “cuộc cách mạng vũ khí thứ ba”

Ngày 21-8 vừa qua, trong khuôn khổ Hội nghị Liên kết quốc tế về trí tuệ nhân tạo (IJCAI) 2017 diễn ra tại Melbourne (Australia), 116 nhà lãnh đạo hàng đầu trong lĩnh vực công nghệ đến từ 26 quốc gia đã cùng ký vào một bản kiến nghị đệ trình lên LHQ cảnh báo về sự nguy hiểm của vũ khí quân sự tự động, đồng thời kêu gọi cấm sử dụng loại vũ khí này trên phạm vi quốc tế. Trong số những lãnh đạo công nghệ ký vào bản kiến nghị có cả ông chủ hãng công nghệ Tesla, tỷ phú Elon Musk; ông Mustafa Seuleyman - đồng sáng lập công ty DeepMind của Google, …

Trong bản kiến nghị, các chuyên gia bày tỏ quan điểm cho rằng lĩnh vực AI và công nghệ robot đang có những phát triển vượt ngoài mong đợi. Chính những bước tiến quá nhanh sẽ khiến những vũ khí tự động được áp dụng AI vượt ra ngoài tầm kiểm soát của con người. Cụ thể, các loại vũ khí tự động, một khi được phát triển sẽ được phép tham gia các cuộc xung đột vũ trang. Loại vũ khí này có thể chiến đấu ở quy mô lớn chưa từng có, với sát thương gấp nhiều lần những vũ khí do con người điều khiển. Việc chạy đua phát triển vũ khí sát thương tự động giữa các cường quốc quân sự thế giới cũng bị cho là có thể dẫn đến “cuộc cách mạng vũ khí thứ ba”, sau khi con người phát minh ra thuốc súng và vũ khí hạt nhân.

Đến thời điểm này, hầu hết những công nghệ vũ khí tự động đều được sử dụng cho mục đích quốc phòng và có sự giám sát chặt chẽ. Dù vậy, các chuyên gia AI cho rằng, không loại trừ khả năng các tổ chức khủng bố cực đoan sẽ lợi dụng các loại vũ khí tự động để tiến công. Không chỉ vậy, trong thời đại internet, nguy cơ hệ thống điều khiển các loại vũ khí tự động bị tin tặc thâm nhập và chiếm quyền kiểm soát, sau đó sử dụng cho các mục đích sai trái là hoàn toàn có thể xảy ra. Bằng việc sử dụng vũ khí tự động, các hoạt động tiến công với ý đồ xấu sẽ gây ra những thiệt hại khôn lường.

Theo The Guardian, đây không phải là lần đầu các chuyên gia đưa ra quan điểm liên quan vấn đề vũ khí quân sự tự động. Trước đó, từ năm 2015, một nhóm các nhà khoa học, nhà nghiên cứu và học giả, trong đó có nhà vật lý lý thuyết người Anh Stephen Hawking và tỷ phú công nghệ người Nam Phi Elon Musk của hãng Tesla đã phản đối sự phát triển hệ thống vũ khí tự động. Thậm chí, Tổng Giám đốc điều hành (CEO) của hãng Tesla từng cảnh báo rằng, AI là một rủi ro căn bản đối với sự tồn tại của văn minh nhân loại. Vị doanh nhân này còn lo ngại AI nguy hiểm hơn cả vũ khí hạt nhân.

Dù vậy, đây là lần đầu đại diện của các công ty AI và robot hàng đầu thế giới đến từ 26 quốc gia cùng nhau cất lên lời cảnh báo. Bản kiến nghị của 116 chuyên gia về AI được đánh giá là đưa ra khá đúng thời điểm, trong bối cảnh LHQ đã bỏ phiếu đồng ý bắt đầu các cuộc thảo luận chính thức về vấn đề vũ khí tự động có khả năng gây sát thương, như thiết bị bay không người lái, xe tăng và súng máy tự động.

Còn nhiều tranh cãi

Reuters cho biết, trong ba năm qua, Chính phủ Mỹ đã chi hàng tỷ USD cho các dự án chế tạo vũ khí tự động. Các dòng vũ khí tiên tiến được Bộ Quốc phòng Mỹ chú trọng sản xuất gồm tên lửa có thể tự xác định mục tiêu tiến công, tàu truy lùng tàu ngầm và bám theo đối tượng trong phạm vi hàng nghìn km mà không cần sự hỗ trợ của con người…

Không chỉ Mỹ, Nga cũng đang ráo riết tham gia cuộc đua chế tạo vũ khí tự động. Những năm gần đây, Nga phát triển toàn diện các loại thiết bị tự động, từ tàu thuyền, máy bay không người lái, robot chiến binh, thiết bị chống khủng bố... Ngoài Mỹ và Nga, khoảng tám quốc gia khác trong đó có Trung Quốc, Israel, Hàn Quốc, Anh,… được cho là cũng đang phát triển các hệ thống vũ khí tự động.

Một mẫu robot chiến trường đa năng của quân đội Nga. Ảnh: DEFENCE BLOG

Theo nhiều chuyên gia về AI, việc chế tạo ồ ạt vũ khí tự động dựa trên AI và robot sẽ khiến các nước rơi vào tình trạng chạy đua, chú trọng vào việc tạo ra những robot và vũ khí tinh nhuệ nhất, có khả năng chiến đấu cao thay vì đề ra các giải pháp giải quyết các vấn đề kinh tế - xã hội, vốn là các mục đích ưu tiên của lĩnh vực ứng dụng AI. Điều này sẽ kéo theo sự mất kiểm soát trong việc sử dụng vũ khí tự động, gây ra những hậu quả không mong muốn. Do đó, nhiều chuyên gia cho rằng việc cấm sử dụng vũ khí tự động là hoàn toàn cần thiết.

Dù vậy, việc đề nghị cấm sử dụng vũ khí tự động cũng vấp phải không ít chỉ trích của giới chức nhiều nước. Theo một lãnh đạo cấp cao của Bộ Quốc phòng Nga, các loại vũ khí như súng phòng không tự động, máy bay không người lái,... thay thế con người ở những khu vực nguy hiểm. Kết hợp AI, nhiều robot thậm chí có thể tự đi tuần, đánh lạc hướng kẻ địch, thậm chí đảm nhận vai trò thay thế một binh sĩ trên chiến trường.

Trong khuôn khổ Hội nghị LHQ ở Geneva (Thụy Sĩ) tháng 4-2015 nhằm đánh giá sự phát triển trong tương lai của các hệ thống vũ khí sát thương tự động, Chính phủ Anh từng phản đối lệnh cấm quốc tế đối với hệ thống vũ khí sát thương tự động. Đại diện Bộ Quốc phòng Anh cho biết, không cần thiết phải cấm sử dụng vũ khí tự động vì Luật Nhân quyền quốc tế đã có quy định đầy đủ về cách sử dụng những vũ khí này.

Trong khi đó, nhà sáng lập Facebook, ông Mark Zuckerberg cũng cho rằng “những kịch bản về ngày tận thế” đều do “những người có cái nhìn tiêu cực” và “thiếu trách nhiệm” đưa ra. Nhà sáng lập Facebook coi việc ứng dụng AI là sự phát triển tất yếu, đồng thời đánh giá những người “có lương tâm” sẽ không kiềm chế sự phát triển của AI thông qua các quy chế giám sát. Facebook đang nỗ lực áp dụng AI vào quản lý mạng xã hội này nhằm nhanh chóng nắm bắt nhu cầu của người sử dụng cũng như tránh các rủi ro.

Không thể phủ nhận những hiệu ứng tích cực từ AI và robot trong đời sống xã hội và những lĩnh vực nhiều rủi ro như quân sự, quốc phòng. Dù vậy, làm thế nào để kiểm soát việc chế tạo và sử dụng đúng mực các loại vũ khí tự động hiện đại là vấn đề vẫn còn nhiều tranh cãi, bởi nó tiềm ẩn nhiều nguy cơ to lớn. Trước vấn đề này, giới chức các nước cần áp dụng các giải pháp linh hoạt hơn nữa.