AI 기반 자율 무기 시스템의 맹렬한 원투 펀치와 악마처럼 무기화 된 AI 기반 자율 시스템의 악용으로 고투하는 AI 윤리

그 놀라운 춤을 추는 네 발 달린 로봇.

나는 당신이 겉보기에 유쾌하고 개처럼 사랑받는 방식으로 춤추고 뛰는 네 발 달린 로봇 시스템의 바이럴 비디오를 보았을 것이라고 확신합니다. 우리는 AI 구동 로봇이 장애물을 넘어 상자 위에 앉았을 때나 기울어진 캐비닛 꼭대기에 위태롭게 놓여진 후에 섬세한 발판을 얻는 것처럼 보이는 것을 좋아하는 것 같습니다. 그들의 인간 핸들러는 때때로 분주하게 움직이는 네 발 달린 로봇을 찌르거나 밀 것입니다. 이는 몹시 불공평해 보이며 그 주동 인간형 인간의 건방진 대우에 쉽게 분노를 일으킬 수 있습니다.

전혀 다른 구경의 바이러스가 아닌 비디오를 본 적이 있는지 궁금합니다.

자신을 준비하십시오.

같은 종류의 네발 달린 로봇에 이런저런 뚜렷한 무기를 장착한 모습을 보여주는 동영상이 널리 게시되어 있습니다.

예를 들어, 기관총이나 이와 유사한 화기는 달리 친숙한 춤추고 뛰는 로봇 위에 장착됩니다. 네 발 달린 로봇과 무기의 발사 메커니즘 사이에는 전자식 연결 장치가 있습니다. 이제 무기화된 컴퓨터 보행 장치가 불스아이 표적이 있는 곳으로 성큼성큼 걸어가는 것이 보여지며 기관총은 표적을 맹렬히 발사합니다. 부분적으로 파괴된 목표물에 못을 박은 후, 네 발 달린 로봇은 춤을 추고 근처 장애물 주위를 뛰어다니고 줄을 서서 다른 새로운 목표물에 대해 같은 동작을 반복해서 반복합니다.

당신이 볼 것으로 예상했던 것과는 다릅니다. 이것은 확실히 껴안고 싶은 네 발 달린 로봇이 그들의 일을 하는 것을 솔직하게 지켜보는 것에서 가벼움과 상대적인 기쁨을 없애줍니다. 겉보기의 가혹한 현실에 오신 것을 환영합니다. 무해한 자율 시스템이 급격하게 무기화되거나 전환되고 있습니다. 많은 노력을 기울이지 않으면 하룻밤 사이에 완전한 무기를 포함하도록 개조된 "무기화되지 않은" 자율 시스템을 가질 수 있습니다.

어떤 상황에서는 거의 쉽습니다.

저는 이 뜨겁게 논란이 되고 있는 주제에 대해 논의하고 발생하는 다소 무거운 AI 윤리 문제를 다룰 것입니다. 우리는 자율 시스템, AI, 자율 차량, 무기화 및 관련 윤리적 AI 전투 문제로 여행을 떠날 것입니다. AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

몇 가지 기본 키스톤부터 시작하겠습니다.

논의를 위해 무기로 무장한 자율 시스템을 분류하는 두 가지 주요 방법이 있음을 인정합니다.

1) 자율 무기 시스템 (디자인에 의해)

2) 무기화된 자율 시스템 (사후)

두 범주 사이에는 중요한 차이점이 있습니다.

첫 번째 예에서 우리는 정의할 것입니다 자율 무기 시스템 처음부터 의도적으로 무기가 될 수 있는 컴퓨터화된 창작물이 되는 것입니다. 개발자들은 무기를 고안하고 싶다는 생각을 가지고 있었습니다. 그들의 명백한 탐구는 무기를 생산하는 것입니다. 그들은 무기와 최신 자율 시스템 기술을 통합할 수 있다는 것을 알고 있었습니다. 이것은 자율적인 움직임과 자율적인 행동을 구현하는 첨단 기술의 물결을 타는 무기입니다.

대조적으로, 두 번째 경우에는 무기에 대해 특별히 기울어지지 않은 자율 시스템의 문제를 고려할 것입니다. 이들은 다른 목적을 위해 개발 중인 자율 시스템입니다. 모두를 위한 이동성을 제공하고 사람이 운전하는 자동차와 사람이 운전하는 자동차로 인해 발생하는 수천 명의 연간 사망자를 줄이는 데 도움이 되는 자율 주행 자동차와 같은 자율 차량을 상상하십시오(내 심층 보도 참조). ~에 여기 링크). 인간을 운전석에서 끌어내고 대신 AI를 운전석에 앉히려는 긍정적인 사회적 노력을 고려하는 무기는 없는 것 같습니다.

그러나 인간이 원한다면 그러한 무해한 자율 시스템을 무기화할 수 있습니다.

나는 이 두 번째 범주를 다음과 같이 언급한다. 무기화된 자율 시스템. 자율 시스템은 원래 무기가 아닌 것으로 추정되는 목적을 위해 경건하게 제작되었습니다. 그럼에도 불구하고 꿈꾸는 이타적 희망은 이 계획이 무기화될 수 있다는 설득력 있는 아이디어를 얻은 누군가에 의해 뒤집힙니다. 갑자기, 꼭 껴안고 싶은 자율 시스템은 무기 기능의 일부 형태(예: 기관총 또는 유사한 총기가 기능에 추가된 앞에서 언급한 XNUMX족 개 같은 로봇)에 태그를 지정하여 치명적인 무기가 되었습니다. .

슬프게도 두 범주는 잠재적으로 치명적인 기반으로 무기에 자율 시스템을 사용할 수 있는 능력을 제공한다는 점에서 다소 같은 위치에 있습니다.

해당 끝점에 도달하는 프로세스는 다를 수 있습니다.

무기로 고정된 완전한 무기화된 자율 시스템의 경우 무기 측면은 일반적으로 전면과 중앙에 있습니다. 자율 시스템의 측면은 고려 중인 모든 무기의 초석을 둘러싸고 있다고 말할 수 있습니다. 개발자의 사고 과정은 무기가 자율 시스템의 출현을 어떻게 악용할 수 있는지에 관한 것입니다.

다른 관점은 일반적으로 그런 사고방식이 아닙니다. 개발자들은 아마도 인류의 발전을 위해 최첨단 자율 시스템을 도출하기를 원합니다. 이 개발자들은 자율 시스템을 만들기 위해 온 정성을 다합니다. 이것이 그들의 발명의 핵심입니다. 그들은 누군가가 그들의 기적적으로 유익한 장치를 강탈하거나 전복시킬 것이라고 상상하지 못할 수도 있습니다. 그들은 자율 시스템이 형성되고 생산되는 것과 관련된 사회적 혜택에 열광합니다.

어느 시점에서 제XNUMX자가 자율 시스템이 무기화되도록 재조정될 수 있다는 것을 깨닫는다고 가정해 봅시다. 어쩌면 그들은 개발자를 속여 고귀한 목적을 위해 자율 시스템을 갖도록 할 수 있습니다. 닫힌 문 뒤에서 이 악당들은 은밀하게 자율 시스템에 무기화 능력을 추가하기로 선택합니다. 짜잔, 순수함이 무기로 변했습니다.

일이 그런 식으로 진행될 필요는 없습니다.

아마도 개발자들은 무고한 자율 시스템을 개발하고 있다고 들었지만 자금을 조달하거나 노력을 지시하는 사람들은 다른 목적을 염두에 두고 있었습니다. 아마도 자율 시스템 노력은 실제로 순진하게 시작되었지만 청구서를 지불해야 했을 때 지도부는 사악한 이유로 자율 시스템을 원하는 자금 출처와 거래를 중단했습니다. 또 다른 가능성은 개발자들이 나중에 무기화에 사용할 수 있다는 것을 알았지만 그것이 발생했을 때 또는 발생한다면 그 끔찍한 다리를 건너게 될 것이라고 생각했다는 것입니다. 등.

이 모든 것이 어떻게 진행되는지에 대한 수많은 다양한 경로가 있습니다.

내가 이전 칼럼에서 설명한 AI 윤리 의식에 대해 관심을 가질 수 있습니다. 이중 사용 현대 AI의 요소, 참조 여기 링크. 간략히 알려드리도록 하겠습니다.

선을 위해 구상된 AI 시스템은 때때로 약간의 단순한 변경을 통해 악의 직전에 있을 수 있으며, 그에 따라 이중 용도 특성으로 간주됩니다. 최근 뉴스에 킬러가 될 수 있는 화학 물질을 발견하기 위해 구축된 AI 시스템이 있었습니다. 개발자들은 이 시스템에 대해 우리가 그러한 잘못된 화학 물질을 피하거나 경계할 수 있기를 원했습니다. AI는 살인적인 화학 물질을 헌신적으로 밝히기 위해 다소 쉽게 조정될 수 있으며 잠재적으로 악당이 어떤 종류의 화학 물질이 그들의 심오한 사악한 계획을 위해 잠재적으로 요리할 수 있는지 알 수 있게 해줍니다.

자율 시스템은 이중 용도에 적합할 수 있습니다.

그것이 어느 정도 AI 윤리와 윤리적 AI가 중요한 주제인 이유입니다. AI 윤리의 교훈은 우리가 경계를 늦추지 않게 합니다. AI 기술자는 때때로 기술, 특히 하이테크 최적화에 몰두할 수 있습니다. 그들은 더 큰 사회적 파급효과를 반드시 고려하고 있지는 않습니다. AI 윤리 사고방식을 갖고 AI 개발 및 현장에 통합적으로 그렇게 하는 것은 AI 윤리가 기업에 어떻게 채택되는지에 대한 평가를 포함하여(놀랍거나 아이러니하게도) 적절한 AI를 생산하는 데 필수적입니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 사실, 그들은 우리가 이러한 AI 법률 중 일부를 제정할 경우 엄청난 사회적 이점을 제공하는 AI의 발전을 억제함으로써 황금 거위를 약화시킬 것이라고 미리 경고합니다.

두 가지 계율로서의 자율성과 무기

일부에서는 다음과 같이 집합적으로 만들어지고 있는 모든 종류의 무기화된 자율 시스템에 대해 미리 경고하기 위해 사용하는 캐치프레이즈가 있습니다. 도살 로봇.

이것은 우리가 숙고해야 할 추가적인 측면을 제시합니다.

자율 무기 시스템 및/또는 무기화된 자율 시스템은 치명적이거나 킬러 로봇이 우세해야 합니까?

어떤 사람들은 우리가 결정적으로 치명적이지 않은 무기화된 자율 시스템도 있습니다. 따라서 그런 관점에서 도살로봇이나 킬러 로봇과 같은 표현을 사용하는 것은 매우 부적절해 보입니다. 치명적이지 않은 변형은 아마도 치명적인 결과가 아닌 피해를 억제하거나 제정할 수 있을 것입니다. 그러한 시스템은 죽이는 것이 아니라 부상을 일으킬 수 있는 능력이 더 낮습니다. 우리가 노골적인 살인 기계 비유에 몰두할 필요가 없다고 주장하는 능력을 과장하지 마십시오.

따라서 다음을 가질 수 있습니다.

  • 치명적인 자율 무기 시스템
  • 무기화 ​​된 치명적인 자율 시스템
  • 치명적이지 않은 자율 무기 시스템
  • 무기화 ​​된 치명적이지 않은 자율 시스템

물론 반론은 무기화한 모든 자율 시스템이 치명적이지 않은 경우에만 사용할 수 있다고 가정하더라도 치명적 영역으로 미끄러질 가능성이 있는 것처럼 보인다는 것입니다. 치명적이지 않은 것에서 치명적인 것으로 가는 점진적인 XNUMX단계는 자율 시스템에서 이미 무기를 손에 넣으면 신속하게 수행될 것입니다. 치명적이지 않은 사람들이 치명적인 분야에 뛰어들지 않을 것이라는 강력한 보증을 제공하기는 어려울 것입니다(일부 사람들은 그렇게 하려고 노력하지만 수학적으로 유사함).

자율 시스템 및 무기화에 대한 전반적인 주제에 대해 더 자세히 알아보기 전에, 명백할 수도 있지만 반드시 눈에 띄게 떠오르는 것은 아닌 다른 것을 지적하는 것이 편리할 수 있습니다.

여기있다 :

  • 자율 시스템의 일부인 AI 측면이 있습니다.
  • 이 방정식의 무기 측면인 무기 측면이 있습니다.
  • AI는 무기와 상호 연결될 수도 있습니다.

포장을 풉니 다.

우리는 오늘날의 자율 시스템이 자율적 측면을 구현하기 위한 기본 컴퓨터 수단으로 AI를 필요로 한다고 가정합니다. 내가 이것을 언급하는 이유는 우리가 AI와 관련이 없는 기술과 기술을 사용하여 자율 시스템을 수행할 수 있다고 주장할 수 있기 때문입니다. 기본적으로 AI는 더 큰 수준의 자율성을 허용하는 경향이 있으며 대부분은 그에 따라 AI 하이테크를 활용하고 있습니다.

좋습니다. 자율 시스템 내에 어떻게든 주입되고 자율 시스템을 안내하고 제어하는 ​​역할을 하는 AI 기반 기능이 있습니다.

경험상 손끝에서 유지하십시오.

우리도 어떤 형태의 무기도 필요하다는 것은 명백해 보입니다. 그렇지 않으면 여기에서 자율 시스템에 대한 주제를 논의하는 이유가 무엇입니까? 무기. 예, 분명히, 한 종류 또는 다른 종류의 무기가 있습니다.

나는 사용될 수 있는 무기의 유형을 탐구하지 않을 것입니다. 생각나는 무기를 간단히 대체할 수 있습니다. 정확한 무기가 있을 수 있습니다. 대량 지향적인 파괴 무기가 있을 수 있습니다. 그것은 총알이나 발사체로 무언가가 될 수 있습니다. 화학 물질이나 원자 휘발성 성분이 있는 것일 수 있습니다. 목록은 끝이 없습니다.

추가 고려 사항은 AI가 무기와 상호 연결되어 있는지 여부입니다. AI는 단순히 무기를 타고 가는 것일 수도 있습니다. 총을 쏘고 있던 네 발 달린 로봇의 경우, 아마도 총은 무기의 방아쇠에 연결된 원격 제어를 가진 인간에 의해 발사되고 있을 것입니다. 개와 같은 로봇이 장면을 탐색한 다음 방아쇠를 당기는 것은 원격 인간에게 달려 있습니다.

반면에 AI는 말 그대로 방아쇠를 당기는 역할을 할 수 있습니다. AI는 탐색 및 기동뿐만 아니라 무기도 활성화하도록 고안되었을 수 있습니다. 그런 의미에서 AI는 A에서 Z까지 모든 것을 수행합니다. 사물의 무기 측면을 수행하기 위해 원격 인간에 의존하지 않습니다. AI는 대신 그렇게 하도록 프로그래밍되어 있습니다.

무기화된 자율 시스템의 이 특정 사용 사례를 명확히 하기 위해 다음과 같은 가능성이 있습니다.

  • 자율 시스템: AI는 자율 시스템을 완전히 자체적으로 실행합니다.
  • 자율 시스템: AI는 자율 시스템을 실행하지만 루프 내 인간(human-in-the-loop)도 개입할 수 있습니다.
  • 무기 장비 : 원격 인간이 무기를 실행합니다(AI는 실행하지 않음)
  • 무기 장비 : AI가 무기를 실행하지만 루프 내 인간(human-in-the-loop)도 개입할 수 있습니다.
  • 무기 장비 : AI는 전적으로 자체적으로 무기를 실행합니다.

나는 이전에 자율 시스템 및 자율 차량에 관한 휴먼 인 루프의 변형을 다루었습니다. 여기 링크.

춤추고 뛰는 네발 달린 로봇의 재미있는 비디오를 볼 때 일반적으로 AI가 배타적으로 조종하는 로봇으로 간주됩니다. 이러한 문제에). 그것이 당신이 정당하게 추측할 수도 있는 것입니다. 물론, 당신은 그것을 확실히 모릅니다. 원격 작업자가 로봇을 안내하고 있을 수 있습니다. AI가 안내의 일부를 수행할 가능성도 있고 원격 인간 운영자도 그렇게 할 가능성이 있습니다. 로봇이 어려운 위치에 있고 자유롭게 움직일 수 있는 실행 가능한 수단을 계산적으로 계산할 수 없는 경우 AI를 도울 수 있습니다.

여기서 요점은 AI와 자율 시스템 및 무기화가 어떻게 혼합될 수 있는지에 대한 다양한 풍미가 있다는 것입니다. 일부는 자율 시스템을 실행하지만 무기를 실행하지 않는 AI가 있습니다. 인간은 원격으로 무기를 운용할 수 있습니다. 또 다른 각도는 무기가 사전에 활성화될 수 있고 자율 시스템이 활성화된 무기를 전달하므로 AI가 무기 자체의 트리거에 직접 참여하지 않고 대신 전달 차량 역할을했다는 것입니다. 그리고 AI는 만능이라고 할 수 있으며 자율 시스템 측면의 전체 영역을 무기 활용에도 적용할 수 있습니다.

골라 봐.

한편, 인간-인-루프(human-in-loop)는 이 주제에 대한 토론과 관련하여 큰 요소임을 알아두십시오.

일부의 구분선은 AI가 조준 및 사격(또는 무기에 수반되는 모든 것)을 수행하는 경우 전체 키트와 카푸들이 금지된 땅으로 넘어갔다는 것입니다. 이것은 목표물에 발사할 준비가 된 미사일이 있는 순찰 드론과 같이 사전에 목표를 정하여 인간이 결정한 선택을 가진 기존의 화재 및 망각 무기와 겉보기에는 다릅니다. 이미 인간이 선택한.

어떤 사람들은 무기화된 자율 시스템이 자율 시스템이 활발히 진행 중인 상태에 있는 과정 전체에 걸쳐 항상 휴먼 인 더 루프를 포함하지 않는 이유를 궁금해합니다. 그러한 모든 무기화된 자율 시스템이 자율 시스템의 작동을 위해 또는 무기를 작동하기 위해(또는 둘 모두를 위해) 인간-인-루프(human-in-loop)를 가져야 한다는 엄격한 요구 사항이 있다면 우리가 더 나을 것 같습니다. . 이 AI 믹스에서 인간의 손을 확실하고 안정적으로 유지하는 것은 완전히 영리해 보일 수 있습니다.

이것이 반드시 실현 가능하지 않은 이유에 대한 긴 목록을 준비하십시오.

다음과 같은 어려움을 고려하십시오.

  • Human-in-loop가 적시에 응답할 만큼 빠르지 않을 수 있음
  • Human-in-loop에는 의무적으로 응답하기에 충분한 정보가 없을 수 있습니다.
  • 필요한 시간에 Human-in-loop을 사용하지 못할 수 있습니다.
  • Human-in-loop은 결정되지 않았을 수 있으며 필요할 때 행동하지 않을 수 있습니다.
  • Human-in-loop가 "잘못된" 결정을 내릴 수 있음(상대적으로)
  • 필요한 시간에 시스템에서 Human-in-the-loop에 액세스하지 못할 수 있습니다.
  • Human-in-loop은 혼란스러워하고 압도될 수 있습니다.
  • 등등

당신은 의심할 여지 없이 인간의 나약함과 한계에 대한 목록을 보고 나서 인간-인-더-루프를 제거하고 항상 대신 AI를 사용하는 것이 명백하다는 엄숙한 결론에 도달하게 될 것입니다. 이것은 인간-인-더-루프를 배제하거나 AI가 뿌리깊은 인간-인-더-루프 설계를 무시할 수 있게 하는 것일 수 있습니다. AI와 Human-in-loop 간의 불일치가 어떻게 위태로운 상황으로 이어질 수 있는지에 대한 내 분석을 참조하십시오. 여기 링크.

종종 이러한 종류의 실시간 인간 중심의 단점을 얕잡아보는 것은 자발적으로 남겨지고 AI가 어떻게든 루프에 참여하는 것보다 훨씬 더 현명한 선택이 되어야 한다는 인상을 오래 남습니다. . 그 위험한 함정에 빠지지 마십시오. 냉정한 절충안이 관련되어 있습니다.

AI의 다음과 같은 결과를 고려하십시오.

  • AI가 잘못될 수 있는 오류가 발생할 수 있음
  • AI가 압도되어 응답하지 않을 수 있습니다.
  • AI에는 비정상적인 동작을 유발하는 개발자 버그가 포함될 수 있습니다.
  • AI가 이식된 악당 바이러스로 손상되었을 수 있습니다.
  • AI는 실시간으로 사이버 해커에 의해 인수 될 수 있습니다
  • AI는 복잡성으로 인해 예측할 수 없는 것으로 간주될 수 있습니다.
  • AI는 계산적으로 "잘못된" 결정을 내릴 수 있습니다(상대적으로)
  • 등등

인간-인-루프(human-in-loop)를 사용하는 것과 AI에만 의존하는 것 사이에 절충점이 있음을 알 수 있다고 믿습니다. 준비된 솔루션이 두 가지를 모두 사용하는 것이라고 제안하고 싶은 경우 두 세계의 장점을 모두 얻을 수 있지만 두 세계 모두의 최악의 경우도 얻을 수 있다는 점을 강조하고 싶습니다. 항상 그리고 확실하게 두 세계 모두에서 최고일 것이라고 가정하지 마십시오.

위에 나열된 AI의 단점 중 하나, 특히 AI가 예측할 수. 우리는 AI가 엄격하게 논리적이고 수학적으로 정확해야 한다고 믿는 데 익숙합니다. 따라서 AI가 완전히 예측 가능하다고 기대할 수도 있습니다. 우리는 AI가 무엇을 할 것인지 정확히 알아야 합니다. 기간, 이야기의 끝.

그 풍선을 터트려서 미안하지만 예측 가능성에 대한 이 신화는 잘못된 이름입니다. 현대 AI의 크기와 복잡성은 종종 완벽하게 예측할 수 없는 황무지입니다. 이것은 오늘날의 일부 머신 러닝(ML) 및 딥 러닝(DL) 사용에 대한 윤리적 AI 소란에서 볼 수 있습니다. 잠시 더 설명하겠습니다.

또한 최신 AI 안전을 통해 검증 가능하고 수학적으로 증명 가능하게 올바른 AI 시스템을 보장하려는 경향에 대한 저의 최신 분석을 살펴보고 싶을 수도 있습니다. 여기 링크.

도로 규칙에 대한 반추

나는 표적과 표적의 개념에 대해 언급했는데, 이는 예리한 주의를 기울일 가치가 있는 다소 무거운 내용의 용어입니다.

우리는 다음과 같이 생각할 수 있습니다.

  • 인간인 표적
  • 인간이 아닌 생물을 대상으로
  • 속성으로 해석되는 대상

무기화된 자율 시스템이 있다고 가정합니다. AI는 자율 시스템을 안내하고 무기에 사용됩니다. AI는 A부터 Z까지 모든 것을 수행합니다. Human-in-the-loop에 대한 조항은 없습니다. 타겟팅 측면에서 AI는 타겟을 선택합니다. 인간이 설정한 사전 타겟팅은 없습니다. 대신 AI는 표적이 될 인간이 있는지 여부를 일반적으로 확인하도록 프로그래밍되었습니다(적대적인 행동, 특정 종류의 제복 등을 검색할 수 있음).

지금까지 나와 함께?

이 시나리오는 무기화된 자율 시스템에 대해 가장 큰 반발을 불러일으키는 시나리오입니다.

언급된 우려는 AI가 (적어도) 해서는 안 되는 세 가지 일을 하고 있다는 것입니다.

  • 인간을 표적으로 삼아
  • Human-in-the-loop를 사용하지 않고 타겟팅
  • 잠재적으로 예측할 수 없는 행동ly

AI가 예측할 수 없다는 우려에 대한 지적이 있음을 주목하십시오. AI가 특정 종류의 인간을 대상으로 하도록 프로그래밍되었지만 AI 프로그래밍은 우리가 생각했던 것과 다르며 AI가 "적대적인" 것으로 해석해야 하는 것에 추가하여 "아군"을 대상으로 하게 될 수도 있습니다. "(또는 아마도 대신). 게다가, 인간-인-루프(human-in-loop) 조항을 포함하기로 선택하더라도 AI의 예측 불가능성은 AI가 인간-인-루프와 협의해야 할 때 수행하지 못한다는 것을 의미할 수 있습니다. 그래서 인간의 개입 없이 행동합니다.

ICRC(International Committee of the Red Cross)가 자율 무기 시스템에 대해 다음과 같은 유형의 우려 사항을 자세히 설명하는 XNUMX가지 핵심적인 입장을 제안했다는 사실에 관심을 가질 수도 있습니다(ICRC 웹 사이트 기준).

1. “예측불가능한 자율무기체계는 명시적으로 다스려야 한다. 아웃, 특히 무차별적인 효과 때문입니다. 이는 그 효과를 충분히 이해, 예측 및 설명할 수 없는 방식으로 설계되거나 사용되는 자율 무기 시스템을 금지하는 것이 가장 좋습니다.”

2. “인류를 보호하고 민간인 및 전투원을 보호하기 위한 국제 인도법 규칙을 준수하기 위한 윤리적 고려 사항에 비추어, 인간을 표적으로 하는 자율 무기 시스템의 사용은 배제되어야 합니다.. 이것은 사람에게 무력을 가하도록 설계되거나 사용되는 자율 무기 시스템을 금지함으로써 가장 잘 달성될 것입니다.”

3. “민간인과 민간물자를 보호하고 국제인도법의 규칙을 준수하며 인류를 보호하기 위해 금지되지 않을 자율적 무기 체계의 설계 및 사용은 다음의 조합을 포함하여 규제되어야 합니다. 대상 유형에 대한 제한, 예를 들어 본질적으로 군사 목표인 물체에 제한하는 것과 같은 것입니다. 기간, 지리적 범위 및 사용 규모에 대한 제한, 특정 공격과 관련하여 인간의 판단과 통제를 가능하게 하는 것을 포함합니다. 사용 상황에 대한 제한, 예를 들어 민간인이나 민간인 물건이 없는 상황으로 그들을 제한하는 것; 아르 자형인간-기계 상호 작용을 위한 요구 사항, 특히 효과적인 인간 감독과 시기적절한 개입 및 비활성화를 보장합니다.”

이와 관련하여 유엔(UN)은 제네바의 특정 재래식 무기에 관한 협약(CCW)을 통해 온라인에 게시된 공식 보고서(관련 국제 인도주의에 대한 참조 포함 법률 또는 국제인도법 조항):

(a) 국제 인도법은 치명적인 자율 무기 시스템의 잠재적 개발 및 사용을 포함하여 모든 무기 시스템에 계속 완전히 적용됩니다.

(b) 책임은 기계에 이전될 수 없으므로 무기 시스템 사용에 대한 결정에 대한 인간의 책임은 유지되어야 합니다. 이것은 무기 시스템의 전체 수명 주기에 걸쳐 고려되어야 합니다.

(c) 다양한 형태를 취하고 무기 수명 주기의 다양한 단계에서 구현될 수 있는 인간-기계 상호 작용은 치명적인 자율 무기 시스템 영역에서 최신 기술을 기반으로 하는 무기 시스템의 잠재적 사용이 관련 국제법, 특히 국제인도법 준수. 인간-기계 상호작용의 품질과 범위를 결정할 때 작전 상황, 무기 시스템 전체의 특성 및 능력을 포함한 다양한 요소를 고려해야 합니다.

(d) CCW의 틀에서 새로운 무기 시스템을 개발, 배치 및 사용하는 것에 대한 책임은 인간 지휘 및 통제의 책임 있는 사슬 내에서 그러한 시스템의 운영을 포함하여 적용 가능한 국제법에 따라 보장되어야 합니다.

(e) 국제법에 따른 국가의 의무에 따라, 새로운 무기, 전쟁 수단 또는 방법의 연구, 개발, 획득 또는 채택에 있어 그 고용이 일부 또는 모든 상황에서 다음과 같은지 여부를 결정해야 합니다. 국제법에 의해 금지된;

(f) 치명적인 자율 무기 시스템, 물리적 보안, 적절한 비물리적 보호 장치(해킹 또는 데이터 스푸핑에 대한 사이버 보안 포함) 분야에서 신기술을 기반으로 한 새로운 무기 시스템을 개발하거나 획득할 때 테러리스트 그룹에 의한 획득 위험 확산 위험을 고려해야 합니다.

(g) 위험 평가 및 완화 조치는 모든 무기 시스템에서 새로운 기술의 설계, 개발, 테스트 및 배치 주기의 일부여야 합니다.

(h) 국제인도법 및 기타 적용 가능한 국제 법적 의무를 준수하기 위해 치명적인 자율 무기 시스템 분야에서 새로운 기술의 사용을 고려해야 합니다.

(i) 잠재적인 정책 조치를 수립할 때 치명적인 자율 무기 시스템 분야의 신기술을 의인화해서는 안 됩니다.

(j) CCW의 맥락에서 취해진 논의 및 잠재적인 정책 조치는 지능형 자율 기술의 평화로운 사용 또는 접근을 방해해서는 안 됩니다.

(k) CCW는 군사적 필요성과 인도적 고려 사항 사이의 균형을 맞추려는 협약의 목적과 목적의 맥락 내에서 치명적인 자율 무기 시스템 분야의 새로운 기술 문제를 다루기 위한 적절한 프레임워크를 제공합니다.

곤경에 처한 우리 자신

이러한 다양한 전쟁법, 무력충돌법 또는 국제인도법(IHL)은 핵심 설계에 의해 또는 무기화되는 자율 시스템의 도래에 대해 우리가 시도할 수 있는 작업을 고려하는 데 중요하고 항상 유망한 가이드 역할을 합니다. 사후 방법으로.

우리는 치명적인 무기화 된 자율 시스템에 대한 금지가 엄격하고 순종적으로 지켜지기를 진심으로 바랍니다. 문제는 가장 진지한 금지 조치 중 많은 부분이 교묘하게 발견될 수밖에 없다는 것입니다. 그들이 말했듯이, 규칙은 깨져야 합니다. 일이 느슨한 곳에서 riffraff는 간격을 좁히고 규칙을 우회하려고 윙크 윙크 할 것입니다.

다음은 고려할 가치가 있는 몇 가지 잠재적인 허점입니다.

  • 치명적이지 않은 주장. 하다 치명적이지 않은 자율 무기 시스템(금지 경계 밖에 있기 때문에 괜찮아 보이는 것 같음). 그러면 한푼도 지나지 않아 치명적이 될 수 있습니다(마지막 순간에 금지를 넘어서게 될 것입니다).
  • 자치 시스템의 주장만. 치명적인 중심의 자율 시스템을 만들지 않음으로써 금지를 유지하는 한편, (아직) 무기화되지는 않았지만 무기화될 수 있도록 한푼도 개조할 수 있는 일상적인 자율 시스템을 고안하는 데 많은 진전을 이루십시오.
  • 하나로 통합되지 않은 주장. 전혀 무기화되지 않은 자율 시스템을 만들고 때가 되면 무기화를 피기백하여 두 요소가 별개의 요소라고 격렬하게 주장할 수 있으므로 올인원의 범주에 속하지 않는다고 주장할 수 있습니다. 자율 무기 시스템 또는 그 사촌.
  • 자율적이지 않다는 주장. 자율 능력이 아닌 것처럼 보이는 무기 시스템을 만드십시오. AI 기반 자율성이 떨어질 가능성이 있는 이 자율성이 없는 시스템에 여지를 남겨 둡니다. 필요할 때 자율성을 연결하면 롤 준비가 됩니다(그때까지는 금지를 위반하지 않은 것 같습니다).
  • 기타

치명적인 자율 무기 시스템을 전면적으로 금지하려는 시도에는 다른 많은 표현된 어려움이 있습니다. 나는 그들 중 몇 가지를 더 다룰 것입니다.

일부 전문가들은 금지가 특히 유용하지 않으며 대신 규제 조항이 있어야 한다고 주장합니다. 아이디어는 이러한 장치가 허용되지만 엄격하게 단속된다는 것입니다. 적법한 표적화 방법, 적법한 유형의 능력, 적법한 비례 등과 함께 적법한 사용에 대한 목록이 나와 있습니다.

그들의 관점에서 바로 금지는 모래에 머리를 박고 방 안에 코끼리가 존재하지 않는 척하는 것과 같습니다. 그러나 이 논쟁은 금지령을 제정함으로써 이러한 종류의 시스템을 추구하려는 유혹을 극적으로 줄일 수 있다는 주장에 반대하는 사람들의 피를 끓게 합니다. 물론 일부는 금지를 과시하지만 적어도 대부분은 그렇지 않기를 바랍니다. 그런 다음 모든 사람에게 주의를 분산시킬 필요 없이 과시하는 사람에게 주의를 집중할 수 있습니다.

이러한 논쟁은 빙글빙글 돌고 있습니다.

자주 언급되는 또 다른 우려는 선이 금지를 준수하더라도 악은 그렇지 않다는 것입니다. 이것은 선을 나쁜 자세로 만듭니다. 나쁜 사람들은 이런 종류의 무기화된 자율 시스템을 가질 것이고 좋은 사람들은 그렇지 않을 것입니다. 일단 나쁜 것이 그것들을 가지고 있다는 것이 밝혀지면, 좋은 것이 따라잡기에는 너무 늦을 것입니다. 요컨대, 할 수 있는 유일한 기민한 일은 불로 불과 싸울 준비를 하는 것입니다.

고전적인 억제 논쟁도 있다. 선이 무기화된 자율 시스템을 만들기로 선택하면 악의가 싸움에 휘말리는 것을 억제하는 데 사용할 수 있습니다. 선한 사람이 더 잘 무장하여 악한 사람을 설득하거나, 악한 사람이 줄곧 비밀리에 그러한 시스템을 고안해 냈다는 사실이 드러날 때 선이 준비될 것입니다.

이러한 카운터에 대한 카운터는 무기화된 자율 시스템을 만들어 군비 경쟁을 벌이고 있다는 것입니다. 상대방도 같은 것을 얻으려고 할 것입니다. 그들이 기술적으로 그러한 시스템을 새로 만들 수 없더라도 이제 "좋은" 시스템의 계획을 훔치거나 하이테크 배짱을 리버스 엔지니어링하거나 검증된 것으로 보이는 모든 것을 모방할 수 있습니다. 작업을 완료하는 방법.

아하, 반박하자면 이 모든 것이 서로의 겉모습에 의해 갈등을 줄이는 결과로 이어질 수 있습니다. A 측이 B 측이 치명적인 자율 시스템 무기를 가지고 있다는 것을 알고 B 측이 A 측이 무기를 가지고 있다는 것을 알고 있다면, 그들은 단단히 앉아 타격을 받지 않을 수 있습니다. 이것은 MAD(상호확증파괴) 분위기의 독특한 분위기를 가지고 있습니다.

등등.

자율성 속의 AI

오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

오늘날의 AI를 의인화하는 데 매우 주의하십시오.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

기본 배경이 추가되어 다시 한 번 자율 시스템 및 무기화 주제로 넘어갑니다. 우리는 앞서 AI가 자율 시스템 구성 요소에 들어가고 무기화 구성 요소에도 들어갈 수 있음을 보았습니다. 오늘날의 AI는 지각이 없습니다. 이것은 반복할 가치가 있으며 이러한 문제에 대한 추가 통찰력을 위해 강조 표시하겠습니다.

이것이 어떻게 중요한 고려 사항인지 알아보기 위해 몇 가지 시나리오를 살펴보겠습니다. 나는 잠시 이 주제에 대한 전시 지향에서 벗어나 그것이 다른 많은 사회 환경에 어떻게 침투하는지 보여줄 것입니다. 그에 따라 안정을 취하십시오.

무기와 아무 관련이 없다고 말하게 될 자율주행 차량과 같은 AI 기반 자율 시스템이 일반 로케일을 통해 진행되고 있습니다. 인간이 자율주행차를 이용하기 위해 온다. 그 사람은 불길한 무기로 무장하고 있습니다. 이 특정 시나리오에서 논의를 위해 그 사람이 마음에 좋지 않은 것을 가지고 있다고 가정합니다. 그 사람은 자율 차량에 탑승합니다(숨겨지거나 숨겨지지 않은 무기를 들고).

자율주행차는 라이더가 요청한 목적지로 진행합니다. 이 경우 AI는 매일 수십 또는 수백 번의 여행을 했던 것처럼 이 승객을 한 픽업 위치에서 지정된 목적지까지 프로그래밍 방식으로 운송합니다.

이것이 인간 운전자와 인간이 운전하는 차량이었다면, 인간 운전자는 승객이 무장하고 있고 악의가 있는 것으로 보인다는 것을 깨달을 가능성이 어느 정도 있을 것입니다. 인간 운전자는 차량 운전을 거부할 수 있습니다. 아니면 인간 운전자가 경찰서로 운전할 수도 있습니다. 또는 인간 운전자가 무장한 승객을 제압하거나(보고된 사례가 있음) 승객이 무기를 사용하지 않도록 설득할 수도 있습니다. 매우 복잡하며 다양한 변형이 존재할 수 있습니다. 그러한 곤경을 해결하는 데 정답은 하나뿐이라고 주장하기 어려울 것입니다. 슬프게도 상황은 짜증나고 분명히 위험합니다.

이 경우 AI는 이러한 종류의 가능성에 대해 프로그래밍되지 않을 것입니다. 요컨대, 무장한 승객은 운전하는 동안 자율주행 차량 내에서 무기를 사용할 수 있습니다. AI 운전 시스템은 계속해서 이동하고 자율 차량은 승객의 명시된 지정을 계속 향할 것입니다(목적지가 다른 방식으로 경계를 벗어난 것으로 간주되지 않았다고 가정).

대부분의 현대 AI 운전 시스템은 라이더의 노력이 아닌 도로에만 계산적으로 초점을 맞춥니다.

상황이 이보다 더 나빠질 수 있습니다.

누군가가 가난한 사람들을 위해 여분의 음식을 필요로 하는 곳으로 많은 식료품을 운송하기를 원한다고 가정해 봅시다. 그 사람은 자율 주행 차량을 요청하고 식료품 가방을 차량 뒷좌석에 놓습니다. 그들은 함께 타고 가지 않고 자율 차량을 사용하여 음식 가방을 배달할 뿐입니다.

완벽하게 괜찮아 보입니다.

비열한 사람이 식료품 가방이라는 더 평화로운 개념보다 자율 차량에 어떤 형태의 무기화를 배치하는 대신 선택한다고 상상해보십시오. 무슨 일이 일어날지 짐작할 수 있을 것 같아요. 이것은 내가 내 칼럼에서 반복적으로 권면하고 더 늦기보다 빨리 대처해야 함을 미리 경고하는 우려입니다.

이러한 유형의 시나리오에 대한 한 가지 제안된 응답은 잠재적인 승객이 무장하고 사악한 의도를 가지고 있는지 여부를 감지하기 위해 카메라 및 기타 센서를 사용하도록 모든 자율 차량을 프로그래밍할 수 있다는 것입니다. 아마도 AI는 이것을 하도록 프로그래밍될 것입니다. 또는 AI는 원격 인간 조작자에게 전자식으로 조용히 경고하여 카메라를 통해 시각적으로 검사하고 승객과 상호 작용할 수 있습니다. 이는 모두 복잡하고 잠재적으로 다루기 힘든 웜 캔의 일부이므로 심각한 개인 정보 보호 문제와 기타 잠재적인 윤리적 AI 문제를 과도하게 제기합니다. 내 보장 보기 여기 링크.

또 다른 다소 유사한 대안은 AI가 일반적으로 인간 의사 결정권자를 위해 유보되어 있는 윤리적 또는 도덕적 판단을 내릴 수 있도록 하는 일종의 임베디드 윤리 프로그래밍이 포함되어 있다는 것입니다. 저는 이러한 양조 종류의 AI 내장 컴퓨터 윤리 예측자를 조사했습니다. 여기 링크여기 링크.

전장 시나리오로 돌아가서 치명적인 자율 무기 시스템이 전투 지역의 머리 위를 순항하고 있다고 상상해 보십시오. AI는 자율 시스템을 운영하고 있습니다. AI가 탑재된 무기를 운용하고 있습니다. 우리는 AI가 겉보기에 적대적인 움직임이나 유효한 전투원으로 간주되는 인간 표적의 기타 지표를 스캔하도록 프로그래밍될 가능성을 일찍이 생각했습니다.

이 동일한 AI에 Human-in-the-Loop가 수행하는 작업을 계산적으로 고려하여 Human-in-the-Loop 대신 어떤 의미에서 행동하는 윤리적 지향적 구성 요소가 있어야 합니까?

일부는 예, 이것을 추구합시다. 어떤 사람들은 공포에 움츠러들며 그것이 불가능하거나 그렇지 않으면 인간의 신성함을 침해한다고 말합니다.

또 다른 벌레 캔.

결론

이 주제에 관심이 있는 분들을 위해 더 논의할 내용이 있습니다.

나는 당신에게 잔소리하는 수수께끼의 한 가지를 빨리 맛보게 할 것입니다.

우리는 일반적으로 전시 중에 일어나는 모든 일에 대해 궁극적으로 인간이 책임을 져야 한다고 기대합니다. AI가 자율 무기 시스템을 제어하거나 무기화되었을 가능성이 있는 자율 시스템을 제어하고 이 시스템이 전장에서 비양심적이라고 여겨지는 일을 한다면 누구 또는 무엇을 비난해야 할까요?

AI가 책임을 져야 한다고 주장할 수도 있습니다. 그러나 그렇다면 정확히 무엇을 의미합니까? 우리는 아직 오늘날의 AI가 법인격의 구현이라고 생각하지 않습니다. 내 설명을 참조하십시오. 여기 링크. AI의 경우 당나귀에 꼬리를 고정하지 않습니다. 언젠가 AI가 지각력을 갖게 된다면 그렇게 해볼 수 있을 것입니다. 그때까지 이것은 약간의 도달 범위입니다(게다가 AI가 어떤 종류의 처벌이나 영향을 받을 수 있는지, 내 분석을 참조하십시오. 여기 링크여기 링크예를 들어,).

AI가 책임 있는 용의자가 아니라면 우리는 자연스럽게 AI가 고안한 것이 무엇이든 책임을 져야 한다고 말할 수 있습니다. AI가 단순히 자율 시스템을 실행하고 있고 일부 인간이 이를 무기화와 결합시킨 경우에 이를 수행할 수 있습니까? AI 개발자를 쫓나요? 아니면 AI를 배치한 사람들입니까? 아니면 그냥 무기화하는 배우?

내 진심 어린 토론에서 내가 빙산의 일각에 불과하다는 생각을 이해하셨으리라 믿습니다.

일단, 이 담론을 마치도록 하겠습니다. 당신은 John Lyly가 Euphues: 재치의 해부학 1578년에는 사랑과 전쟁에서 모든 것이 공평하다고 기억에 남습니다.

그는 자율 무기 시스템의 출현과 마찬가지로 무기화되는 자율 시스템의 출현을 염두에 두었을까?

우리는 이것을 즉시 마음의 맨 위에 놓아야 합니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- 무기 시스템과 AI 기반 자율 시스템 착취