Đó là cảnh báo của một cựu kỹ sư phần mềm hàng đầu của Google. Laura Nolan, người đã nghỉ việc ở Google năm ngoái để phản đối khi bị điều sang làm việc trong một dự án về "robot sát thủ" của quân đội Mỹ, kêu gọi cấm những cỗ máy giết người có trí thông minh nhân tạo trên toàn thế giới như cấm đối với vũ khí hóa học.
Không giống như máy bay dù được điều khiển từ xa ngàn dặm, robot sát thủ có khả năng gây ra những điều tai hại, mặc dù trước đó chúng không được lập trình cho việc đó.
Những vũ khí tự động đang được quân đội các nước sử dụng như tàu pháo Anaconda AN-2 của hải quân Mỹ, hoạt động như một thủy phi cơ hoàn toàn tự động và được trang bị với khả năng trí tuệ nhân tạo, có thể hoạt động trong thời gian dài mà không cần sự can thiệp của con người.
Mỹ cũng có tàu chiến Sea Hunter, được xem là một bước tiến lớn trong chiến tranh robot, có thể tác chiến ở ngoài biển liên tục hai đến ba tháng, và cũng không cần thủy thủ đoàn nào và hay lực lượng bên trong.
Không thua kém, Nga có vũ khí đáng sợ đối với lực lượng đối nghịch, đó là xe tăng Armata T-14, hoàn toàn tự động, có khả năng đáp trả hỏa lực mà không cần có người điều khiển bên trong.
Nolan hiện tham gia vào chương trình gọi là Chiến dịch ngăn chặn robot sát thủ. Trong các cuộc họp về những vũ khí nguy hiểm do Liên Hiệp Quốc tổ chức với sự tham dự của các nhà ngoại giao quốc tế ở New York và Geneva, cựu kỹ sư phần mềm của Google cho biết khả năng gây ra thảm họa của robot sát thủ tương đương với số lượng cỗ máy giết người này được sử dụng.
“Nguy cơ xảy ra thảm họa cho con người rất lớn theo cách không ngờ đến. Đó là lý do vì sao bất kỳ vũ khí tân tiến nào cũng phải chịu sự kiểm soát của con người, bởi chúng quá nguy hiểm và khó dự đoán”, Nolan phát biểu.
Google đã tuyển dụng Nolan, một sinh viên tốt nghiệp ngành khoa học máy tính từ Trinity College Dublin, để tham gia Dự án Maven vào năm 2017 và cô làm việc cho gã khổng lồ về công nghệ này bốn năm, trở thành một trong những kỹ sư phần mềm hàng đầu của Google ở Ireland.
Bình luận (0)