킬러 로봇에 대한 펜타곤의 업데이트된 정책은 무엇입니까?

펜타곤이 발표한 지침 3000.09로 업데이트, 그들이 용어를 다루는 무기 시스템의 자율성 그리고 다른 사람들은 '킬러 로봇.' 공군 및 CIA와 같은 현재 드론 MQ-9 리퍼 원격 제어로 작동: 인간 비디오 화면 앞에 앉아 수천 마일 떨어진 지상의 목표물을 식별하고 십자선에 놓고 헬파이어 미사일 또는 다른 무기. 자율 무기는 다릅니다. 인간의 개입 없이 스스로 목표물을 선택합니다. 언제 어떻게 사용할 수 있는지에 대한 명확한 규칙이 필요하며 새로운 지침은 한 단계 더 가까워졌습니다.

3000.09년 전 XNUMX의 첫 번째 버전이 출시되었을 때 자율 무기는 공상 과학 소설처럼 보였습니다. 이제 그들은 매우 현실적입니다. 유엔은 이렇게 주장했다. 터키가 공급한 드론이 자율적으로 목표물을 공격했습니다. 2020년 리비아에서 러시아는 현재 우크라이나에 배회하는 탄약을 배치하고 있습니다. 자율 능력.

와 같은 많은 활동가들은 킬러 로봇을 멈추는 캠페인, 자율 무기에 대한 전면적인 금지를 원하며 모든 원격 무기가 아래에 남아 있다고 주장합니다. 의미있는 인간 통제 항상. 유엔은 어떻게 할 것인가에 대해 논의해왔다. 수년 동안 그러한 무기를 통제.

그러나 새로운 지시가 분명히 밝혔듯이 펜타곤은 다른 노선을 고수하고 있다.

"DoD는 자율 시스템과 AI 시스템 모두에 대해 '의미 있는 인간 제어'라는 정책 표준에 지속적으로 반대해 왔습니다." 그레고리 앨런, AI 거버넌스 프로젝트 책임자 전략 국제 연구 센터, 나에게 말했다. "DoD가 선호하는 예술 용어는 '적절한 수준의 인간 판단'이며, 이는 예를 들어 자율 감시 항공기 및 일부 종류의 자율 사이버 무기와 같은 경우에 적절한 수준의 인간 통제가 거의 또는 전혀 없을 수 있다는 사실을 반영합니다. .”

어떤 상황에서 어떤 자율 무기가 허용됩니까? Allen은 이전 버전의 지침이 너무 불분명해서 이 분야의 개발을 방해했다고 생각합니다.

Allen은 "일부 DoD 고위 지도자를 포함하여 혼란이 너무 광범위하여 관리들이 정책에서 허용할 뿐만 아니라 고위 검토 요구 사항에서 명시적으로 면제된 일부 시스템 개발을 자제하고 있었습니다."라고 말했습니다.

3000.09가 발행된 이후 XNUMX년 동안 원본 XNUMX에 제시된 자율 무기 검토 프로세스에 무기가 하나도 제출되지 않았습니다.

알렌은 이것에 대한 에세이 작년에 CSIS를 위해 작업이 필요한 네 가지 영역을 설명했습니다. 자율 무기 시스템을 공식적으로 정의하고, 정책에 "AI 지원"이 의미하는 바를 설명하고, 검토 프로세스에서 기계 학습 모델 재훈련을 처리하는 방법을 설명하고, 어떤 유형의 무기가 필요한지 명확히 했습니다. 까다로운 검토 과정을 거칩니다.

"DoD는 모든 것을 구현했습니다."라고 Allen은 말합니다.

원칙적으로 이것은 DoD 용어 "자율 시스템의 군사적 사용에 관한 책임 있는 정책을 수립하는 투명한 글로벌 리더가 되기 위한 강력하고 지속적인 약속"을 보장해야 합니다.

그러나 사람을 목표로 하지 않고('반물질 무기') 드론을 방어하는 자율 무기에 대한 고위 검토 면제와 같이 허점으로 보일 수 있는 몇 가지 추가 사항이 있지만 미사일, 다른 드론을 목표로 할 수 있습니다. 잠재적으로 다른 시스템.

"'방어'라는 단어는 엄청난 일을 하고 있습니다." 자크 칼렌본, George Mason University의 Schar 정책 및 정부 정책 연구원의 한 정책 펠로우가 말했습니다. "드론이 적의 영토에서 작동하는 경우 거의 모든 무기가 플랫폼을 '방어'하는 것으로 해석될 수 있습니다."

Kallenborn은 또한 지뢰와 같은 효과적인 자율 무기가 XNUMX년 이상 사용되어 왔지만 AI 및 특정 기계 학습의 발전으로 인해 지형이 빠르게 변화하고 있다고 지적합니다. 이것들은 매우 유능한 시스템을 낳았지만, 기술적으로 부서지기 쉬운 – 그들이 실패할 때, 그들은 예를 들어 어떤 인간도 할 수 없는 방식으로 극적으로 실패합니다. 거북이를 소총으로 착각하다.

Kallenborn은 "AI를 통한 자율성은 현재 지배적인 접근 방식의 취약성과 설명 가능성 부족을 고려할 때 확실히 더 많은 관심을 받을 만합니다."라고 말합니다.

업데이트는 큰 업데이트가 아닙니다. 그러나 그것은 효과적인 자율 무기 개발에 대한 펜타곤의 지속적인 노력과 그들이 준수할 수 있다는 믿음을 보여줍니다. 국제 인도주의 법 - 민간인과 군인을 구별하고, 민간인에게 피해를 주지 않도록 하며, 적절하고 필요한 무력만 사용합니다.

운동가들은 AI가 전쟁에서 도덕적 판단을 내리는 데 필요한 이해력을 갖지 못할 것이며 전쟁이 자동화되고 인간이 더 이상 통제할 수 없는 세상을 만들 위험이 있다고 믿습니다. 다른 사람들은 미군이 자율 무기를 가진 상대보다 AI가 전술적 수준에서 통합되지 않는 한, 그리고 너무 많은 인간 개입 군용 로봇의 속도를 늦추다.

자율 무기가 등장하기 시작하더라도 논쟁은 계속될 가능성이 높으며 그 결과를 면밀히 따를 것입니다. 어느 쪽이든 킬러 로봇이 오는 것 같습니다.

출처: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/