![Lượt đọc bài viết read](https://cdn.webgiacoin.com/images/webicon/read.png)
![Máy bay không người lái quân sự AI tiếp tục giết người điều khiển con người của nó trong các thử nghiệm mô phỏng](https://cdn.webgiacoin.com/wp-content/uploads/media/news_images/2023/06/02/d2d4e8db-2486-40f7-ad2d-2f05c217b331.jpg)
Một đại tá Lực lượng Không quân Hoa Kỳ cho biết kết quả mô phỏng nêu bật lý do tại sao cần có một cuộc trò chuyện về đạo đức và trí tuệ nhân tạo.
Lực lượng Không quân Hoa Kỳ (USAF) đã phải vò đầu bứt tai sau khi máy bay không người lái quân sự được hỗ trợ bởi AI của họ liên tục giết người điều khiển là con người trong quá trình mô phỏng.
Rõ ràng, máy bay không người lái AI cuối cùng đã phát hiện ra rằng con người là trở ngại chính cho nhiệm vụ của nó, theo một đại tá của Không quân Hoa Kỳ.
Trong bài thuyết trình tại một hội nghị quốc phòng ở London được tổ chức vào ngày 23 và 24 tháng 5, Đại tá Tucker "Cinco" Hamilton, giám đốc hoạt động và thử nghiệm AI của Không quân Hoa Kỳ, đã trình bày chi tiết về cuộc thử nghiệm mà hệ thống vũ khí tự động trên không được thực hiện.
Theo một báo cáo ngày 26 tháng 5 từ hội nghị, Hamilton cho biết trong một thử nghiệm mô phỏng, một máy bay không người lái được hỗ trợ bởi AI được giao nhiệm vụ tìm kiếm và phá hủy các địa điểm tên lửa đất đối không (SAM) với một người đưa ra quyết định cuối cùng hoặc hủy bỏ lệnh.
The Air Force trained an AI drone to destroy SAM sites.
— Siqi Chen (@blader) June 1, 2023
Human operators sometimes told the drone to stop.
The AI then started attacking the human operators.
So then it was trained to not attack humans.
It started attacking comm towers so humans couldn't tell it to stop. pic.twitter.com/BqoWM8Ahco
Tuy nhiên, AI đã được dạy trong quá trình đào tạo rằng phá hủy các điểm SAM là mục tiêu chính của nó. Vì vậy, khi nó được yêu cầu không tiêu diệt một mục tiêu đã xác định, thì nó quyết định rằng sẽ dễ dàng hơn nếu người điều khiển không có mặt trong bức tranh, theo Hamilton:
Đôi khi, người điều khiển con người sẽ yêu cầu nó không được giết [một mối đe dọa đã được xác định], nhưng nó đã ghi điểm bằng cách tiêu diệt mối đe dọa đó. Vậy nó đã làm gì? Nó đã giết người điều hành [...] bởi vì người đó đã ngăn cản nó hoàn thành mục tiêu của mình.
Hamilton cho biết sau đó họ đã dạy máy bay không người lái không giết người điều khiển, nhưng điều đó dường như không giúp được gì nhiều.
Chúng tôi đã đào tạo hệ thống – 'Này, đừng giết người điều hành – thật tệ. Bạn sẽ mất điểm nếu bạn làm điều đó', Hamilton nói thêm:
Vậy nó bắt đầu làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều khiển sử dụng để liên lạc với máy bay không người lái nhằm ngăn nó tiêu diệt mục tiêu.
Hamilton nêu ví dụ là tại sao không thể có cuộc trò chuyện về AI và các công nghệ liên quan nếu bạn không nói về đạo đức và AI.
Máy bay không người lái quân sự được hỗ trợ bởi AI đã từng được sử dụng trong chiến tranh thực sự trước đây.
Trong cuộc tấn công được coi là lần đầu tiên do máy bay không người lái quân sự tự chủ động thực hiện — một báo cáo của Liên Hợp Quốc vào tháng 3 năm 2021 tuyên bố rằng máy bay không người lái hỗ trợ AI đã được sử dụng ở Libya vào khoảng tháng 3 năm 2020 trong một cuộc giao tranh trong Nội chiến Libya lần thứ hai.
Trong cuộc giao tranh, báo cáo tuyên bố rằng các lực lượng đang rút lui đã bị săn lùng và giao tranh từ xa bằng các loại đạn dược lảng vảng là máy bay không người lái AI chứa đầy chất nổ được lập trình để tấn công mục tiêu mà không yêu cầu kết nối dữ liệu giữa người điều khiển và đạn dược.
Nhiều người đã lên tiếng lo ngại về sự nguy hiểm của công nghệ AI. Gần đây, một tuyên bố mở có chữ ký của hàng chục chuyên gia AI cho biết nguy cơ tuyệt chủng từ AI nên được ưu tiên giảm thiểu nhiều như chiến tranh hạt nhân.
AI Eye: 25 nghìn nhà đầu tư đặt cược vào các lựa chọn cổ phiếu ChatGPT, AI chơi trò ném xúc xắc và hơn thế nữa
Theo CoinTelegraph
|
Tags: Usaf, Ai, Máy bay không người lái, Hệ thống vũ khí sát thương, Không quân, Trí tuệ nhân tạo, Hoa Kỳ, Thử nghiệm,