Robot Chiến đấu: Cấm Không được Phép

Mục lục:

Robot Chiến đấu: Cấm Không được Phép
Robot Chiến đấu: Cấm Không được Phép

Video: Robot Chiến đấu: Cấm Không được Phép

Video: Robot Chiến đấu: Cấm Không được Phép
Video: Robot SÁT THỦ Gây Ra Mối Đe Dọa Còn Lớn Hơn Cả VŨ KHÍ HẠT NHÂN Khiến Quốc Gia Nào Cũng Muốn Sở Hữu 2024, Có thể
Anonim

Các chuyên gia đã gặp nhau tại Geneva, nhưng không thể đạt được thỏa thuận nào: Hoa Kỳ và Nga đã chặn mọi công việc. Có lẽ đây là lần duy nhất những kẻ bá đạo làm việc hài hòa như vậy.

Robot chiến đấu: cấm không được phép
Robot chiến đấu: cấm không được phép

Các cuộc họp của các chuyên gia trong khuôn khổ của Công ước về vũ khí vô nhân đạo đã kết thúc tại Geneva để quyết định số phận của cái gọi là robot chiến đấu - vũ khí tự động sử dụng trí thông minh nhân tạo để đánh bại mục tiêu. Tuy nhiên, không có thỏa thuận nào có thể đạt được. Hoa Kỳ, Nga, Hàn Quốc, Israel và Úc là một trong những quốc gia thiểu số đã thành công trong việc ngăn chặn tình cảm đối với lệnh cấm hoàn toàn đối với robot giết người.

Vì vậy, mặc dù vẫn chưa có vũ khí tự hành nào trên thế giới, nhưng công nghệ này vẫn có thể nói là nhân đạo - nó có thể được phát triển và nghiên cứu. Điều thú vị là Hoa Kỳ và Nga, theo Viện Nghiên cứu Hòa bình Stockholm (SIPRI), đứng đầu danh sách các nhà xuất khẩu vũ khí lớn nhất. Hàn Quốc, Israel và Australia cũng không bị tụt lại phía sau trong bảng xếp hạng này - họ nằm trong số 20 công ty dẫn đầu thị trường.

Và mặc dù Trung Quốc (nước xuất khẩu vũ khí thứ 5 trên thế giới, một thành viên thường trực của Hội đồng Bảo an Liên hợp quốc ủng hộ lệnh cấm đối với robot chiến đấu, họ đã không quản lý để điều chỉnh quy mô theo hướng của mình trong các cuộc họp hôm nay, 26 quốc gia đã công khai ủng hộ. cấm sử dụng trí tuệ nhân tạo trong chiến tranh. Những người khác né tránh lập trường rõ ràng) Pháp và Đức (các nhà xuất khẩu vũ khí thứ ba và thứ tư) đề nghị ký một văn bản nhằm củng cố vị trí thống trị của con người so với trí tuệ nhân tạo, nhưng họ có nhiều khả năng về phía những người muốn phát triển các phương tiện chiến đấu tự hành.

Mary Verhem, điều phối viên của Chiến dịch ngăn chặn robot sát thủ, nhận xét về kết quả của các cuộc họp ở Geneva: “Thật đáng thất vọng khi một nhóm nhỏ những người khổng lồ quân sự có thể kìm hãm ý chí của đa số.

Thật vậy, tình hình trông giống như một âm mưu của các ông trùm độc quyền có vũ trang, vì Hoa Kỳ và Nga thường không thể đạt được ít nhất một số thỏa hiệp trong các vấn đề quan trọng. Lấy một vấn đề ở Syria: Washington và Moscow đã ngăn cản các nghị quyết của nhau sau khi sử dụng vũ khí hóa học ở Syria vào mùa xuân này. Nhân tiện, khí ngạt và các chất độc hại khác cho mục đích quân sự, trước đây đã bị cấm bởi Công ước về Vũ khí Inhumane.

Cuộc họp tiếp theo về số phận của những robot sát thủ sẽ diễn ra tại Geneva vào tháng 11.

Tại sao họ muốn cấm vũ khí tự động

Những người ủng hộ lệnh cấm chiến tranh bằng robot nhấn mạnh rằng chiến trường không phải là nơi dành cho trí tuệ nhân tạo. Theo ý kiến của họ, những công nghệ như vậy gây ra một mối đe dọa rất lớn. Ít nhất, ngày nay vẫn chưa rõ bằng cách nào cỗ máy sẽ phân biệt được giữa những người tham gia chiến đấu (những người trực tiếp tham gia vào chiến sự) với những người không tham chiến (những người phục vụ trong quân đội chỉ có thể sử dụng vũ khí để tự vệ) và dân thường nói chung. Có khả năng công việc này sẽ giết chết những người bị thương và những người đầu hàng, điều này bị cấm bởi các quy tắc chiến tranh hiện hành.

Điều gì ngăn cản công việc làm gián đoạn tất cả các bên trong cuộc xung đột, ngay cả chủ sở hữu của những vũ khí như vậy? Các yếu tố trí tuệ nhân tạo đã được sử dụng thành công trong các thiết bị quân sự, tên lửa; robot bị thu hút để do thám, nhưng lời cuối cùng vẫn thuộc về con người. Vũ khí tự trị sẽ không tuân theo mệnh lệnh của chỉ huy - đó là lý do tại sao chúng tự trị. Đó là lý do tại sao các tướng lĩnh quân đội các nước tỏ ra nghi ngờ về việc đưa máy móc vào hàng ngũ quân nhân.

Và một câu hỏi bỏ ngỏ nữa là chủ nghĩa khủng bố quốc tế. Công nghệ vũ khí tự hành có thể rơi vào tay kẻ xấu, và cuối cùng nó có thể bị tấn công. Một năm trước, Tổng thống Nga Vladimir Putin đã nói rằng người thống trị thế giới sẽ là người đi đầu trong sự phát triển của trí tuệ nhân tạo. Trong trường hợp vũ khí tự động, ai có quyền truy cập vào các công nghệ đó sẽ trở thành người thống trị thế giới. Và đối với điều này, trên thực tế, bạn chỉ cần một máy tính và một kẻ lừa đảo sẽ vượt qua hệ thống bảo mật. Nhân tiện, Lầu Năm Góc đã bị đột nhập hơn một lần. Do đó, không ai có thể đưa ra lời đảm bảo rằng vũ khí tự hành sẽ là bất khả xâm phạm.

Cũng không rõ ai sẽ chịu trách nhiệm pháp lý nếu một tội ác chiến tranh được thực hiện do hoạt động của hệ thống vũ khí tự trị. “Kỹ sư, lập trình viên, nhà sản xuất hay chỉ huy đã sử dụng vũ khí? Nếu không thể xác định trách nhiệm theo yêu cầu của luật nhân đạo quốc tế, liệu việc triển khai các hệ thống như vậy có thể được công nhận là hợp pháp hoặc hợp lý về mặt đạo đức không?”Ủy ban Chữ thập đỏ Quốc tế lưu ý.

Điều thú vị là các nhà khoa học cũng ủng hộ lệnh cấm robot chiến đấu. Vào tháng 7 năm nay, hơn 2.000 nhà khoa học, đặc biệt là người tạo ra Tesla và SpaceX Elon Musk và những người đồng sáng lập DeepMind, đã ký một văn bản rằng họ sẽ không phát triển vũ khí tự động gây chết người. Google cũng làm như vậy. Gã khổng lồ công nghệ đã từ bỏ dự án Maven của Lầu Năm Góc. Và vào năm 2017, một số nhà khoa học đã kêu gọi Liên Hợp Quốc cấm chế tạo robot giết người.

Nhân tiện, vấn đề trí tuệ nhân tạo trong chiến tranh đã xuất hiện trong chương trình nghị sự của Liên hợp quốc vào cuối năm 2013, nhưng thực tế không có gì thay đổi kể từ đó. Chỉ trong năm nay, các cuộc họp chuyên gia mới bắt đầu theo định dạng của Công ước về vũ khí vô nhân đạo. Có nghĩa là, phải mất hơn bốn năm để đi đến một khía cạnh thực tế nào đó.

Tại sao họ không muốn cấm vũ khí tự động

Dù nghe có vẻ sáo mòn đến đâu, cuộc chạy đua vũ trang là lý do chính khiến họ không muốn cấm các robot sát thủ. Putin đã đúng: ai có được vũ khí tự trị trước sẽ thống trị thế giới. Chính thức, lý do này được lên tiếng.

Lập luận chính của những người phản đối lệnh cấm là không thể tách trí thông minh nhân tạo dân sự khỏi quân đội. Giống như, chúng tôi sẽ không cấm dao làm bếp chỉ vì những kẻ khủng bố có thể sử dụng chúng. Trên thực tế, không thể tách rời sự phát triển dân sự của trí tuệ nhân tạo với quân sự. Nhưng bây giờ chúng ta đang nói về việc cấm loại vũ khí này, loại vũ khí này sẽ có thể xác định và tấn công mục tiêu một cách độc lập. Đây có thể là dự án Maven mà Bộ Quốc phòng Mỹ đang thực hiện kết hợp với Booz Allen Hamilton (Google đã từ chối hợp đồng).

Các nhà phát triển Maven muốn dạy máy bay không người lái phân tích hình ảnh, đặc biệt là từ vệ tinh và - có khả năng - xác định mục tiêu để tấn công. Lầu Năm Góc đã bắt đầu làm việc với dự án vào tháng 4 năm 2017 và hy vọng sẽ có được những thuật toán hoạt động đầu tiên vào cuối năm nay. Nhưng thông qua sự phân chia của các nhân viên Google, sự phát triển đã bị trì hoãn. Kể từ tháng 6 năm nay, theo Gizmodo, hệ thống có thể phân biệt giữa các vật thể cơ bản - ô tô, con người, nhưng hóa ra nó hoàn toàn không đáng kể trong các tình huống khó khăn. Tuy nhiên, nếu lệnh cấm vũ khí tự hành được thông qua ở cấp Liên Hợp Quốc, dự án sẽ phải bị hủy bỏ, trong khi Lầu Năm Góc tuyên bố rằng sự phát triển của họ có thể cứu sống nhiều người vì nó có thể được lập trình để hoạt động chính xác và đáng tin cậy hơn khi so sánh với con người.

"Bạn cần hiểu rằng chúng ta đang nói về công nghệ, rằng nó không có mẫu nào có thể hoạt động được. Ý tưởng về những hệ thống như vậy vẫn còn rất hời hợt", lưu ý trước cuộc họp tại Geneva tại Bộ Ngoại giao Nga. - Theo chúng tôi, luật pháp quốc tế, cụ thể là lĩnh vực nhân đạo, có thể được áp dụng cho vũ khí tự trị. Họ không cần hiện đại hóa hoặc thích ứng với các hệ thống chưa tồn tại”.

À, và một lý do nữa có thật, nhưng không được lồng tiếng, là tiền. Ngày nay, thị trường cho các công nghệ trí tuệ nhân tạo quân sự được ước tính lên tới hơn sáu tỷ đô la. Nhưng đến năm 2025, con số này sẽ tăng gấp ba lần - lên gần 19 tỷ, theo các nhà phân tích của công ty MarketsandMarkets của Mỹ. Đối với các nhà xuất khẩu vũ khí lớn nhất, đây là động lực tốt để chặn mọi hạn chế đối với sự phát triển của robot sát thủ.

Tiến trình không thể dừng lại

Những người ủng hộ lệnh cấm vũ khí tự động lưu ý rằng công nghệ đang phát triển rất nhanh và trí tuệ nhân tạo cuối cùng sẽ trở thành vũ khí - vấn đề thời gian. Có logic trong lời nói của họ. Trí tuệ nhân tạo là một phần không thể thiếu của cuộc cách mạng khoa học và công nghệ lần thứ tư, hiện đang tiếp tục diễn ra. Cần lưu ý rằng tiến bộ kỹ thuật theo cách này hay cách khác gắn liền với các hoạt động quân sự. Cuộc cách mạng khoa học và công nghệ lần thứ ba kéo dài đến giữa những năm 50 của thế kỷ XX, tức là đỉnh cao của nó rơi vào thời kỳ Chiến tranh thế giới thứ hai.

Năm 1949, Geneva thông qua Công ước Bảo vệ Dân thường trong Chiến tranh. Trong giai đoạn sau chiến tranh, họ cũng bổ sung Công ước IV La Hay năm 1907, trong đó xác định các quy tắc tiến hành chiến tranh. Đó là, nỗi kinh hoàng của Thế chiến II đã trở thành chất xúc tác cho quá trình này. Vì vậy, những người bảo vệ nhân quyền không muốn chờ đợi Chiến tranh thế giới thứ ba để bảo vệ nhân loại khỏi vũ khí tự trị. Đó là lý do tại sao việc quyết định số phận của những robot sát thủ là cần thiết lúc này, họ nhấn mạnh.

Theo các chuyên gia của Tổ chức Theo dõi Nhân quyền, việc sử dụng robot chiến đấu trái với Tuyên bố Martens - phần mở đầu của Công ước La Hay năm 1899 về Luật pháp và Phong tục Chiến tranh. Nói cách khác, robot giết người vi phạm luật lệ của loài người và các yêu cầu của ý thức cộng đồng (vị trí đã được xác nhận trong Công ước La Hay IV).

Bonnie Doherty, nhà nghiên cứu cấp cao của bộ phận vũ khí tại Tổ chức Theo dõi Nhân quyền cho biết: “Chúng ta phải làm việc cùng nhau để áp đặt một lệnh cấm phòng ngừa đối với các hệ thống vũ khí như vậy trước khi chúng lan rộng khắp thế giới.

Chà, lần này cấm rô bốt giết người không hiệu quả. Dự đoán, những cuộc gặp gỡ trong tháng 11 cũng sẽ không có kết quả. Đúng như vậy, hầu như tất cả các quốc gia đều đồng ý - công nghệ này không thể được phép chảy bởi trọng lực và các robot chiến đấu cần một cần cẩu dừng như vậy. Nhưng vẫn chưa rõ liệu nhân loại có đủ thời gian để kéo nó khi có nhu cầu hay không.

Đề xuất: