자율주행차를 넘어선 불가피한 AI 사고와 씨름하는 AI 윤리

특히 사고를 당하기 쉬운 사람을 알고 계십니까?

우리 모두가 그런 것 같습니다.

아마도 그 사람은 바나나 껍질에 미끄러지기 쉬운 사람이거나 거실에 있는 귀중한 꽃병을 넘어뜨리기 쉬운 사람일 것입니다. 그들은 이런저런 사고를 불러일으키는 인간 자석입니다. 상황이 너무 나빠서 때때로 그들 근처에 있는 것이 싫어질 수도 있습니다. 불길한 오버플로를 당하거나 불미스러운 사고로 인해 불명예스러운 여파를 겪을 수도 있습니다.

그러나 누군가가 다른 사람보다 사고에 더 취약하다고 주장하는 것은 지나치게 가혹한 것일 수도 있습니다. 사고는 우리 누구에게나 일어날 수 있다는 주장이 나올 수 있습니다. 우리 모두는 사고에 휘말리거나 연루될 가능성이 있습니다. 우리 중 최고가 포함되었습니다.

이 토론에 더해 더욱 짜증나는 질문을 추가해 보겠습니다.

사고는 불가피한가?

즉, 사고를 예방하기 위해 아무리 노력하더라도 사고가 발생할 가능성과 궁극적인 확실성은 여전히 ​​존재한다는 사실은 불가분의 관계에 있습니다. 사고로부터 세상을 보호하려고 노력할 수 있습니다. 그것은 의심의 여지없이 신중한 것 같습니다. 그러나 어떤 식으로든 사고는 여전히 추악한 모습을 보일 것입니다.

그들이 말했듯이 사고가 일어나기를 기다리고 있습니다.

일부 사건을 사고로 적절하게 분류한 것으로 언급함으로써 의미하는 바를 명확히 하는 것이 도움이 될 수 있습니다. 일반적인 사전적 정의는 사고란 예상치 못한, 의도치 않게 발생한 사건으로, 외관상 피해나 부상으로 구성된 불행한 결과가 발생하는 것을 말합니다.

그 정의를 주의 깊게 풀어보세요.

해당 사건은 예상치 못한 일이다. 이는 사고 자체가 발생할 것이라는 사실을 인지하지 못한 것 같다는 뜻이다.

해당 사건은 의도하지 않은 사건입니다. 이는 누군가 의도적으로 사건이 발생하도록 하려는 상황을 배제해야 함을 의미합니다. 만약 장난꾸러기가 불운하고 순진한 사람이 밟을 것이라는 것을 알고 있는 바닥에 바나나 껍질을 놓는다면, 그것에 걸려 넘어진 사람이 사고를 당했다고 주장하기 어려울 것입니다. 오히려 그들은 속아서 교활하게 함정에 빠졌습니다.

정의에는 결과가 불행하다는 기준도 포함된다. 이런 관점에서 사고는 반드시 안타까운 결과를 낳게 됩니다. 실수로 꽃병을 넘어뜨린 사람은 금이 가거나 수리할 수 없을 정도로 좋아하는 물건을 손상시켰을 가능성이 있습니다. 꽃병의 소유자는 가치 상실로 인해 피해를 입습니다. 꽃병에 부딪힌 사람은 이제 주인에게 그 손실에 대한 빚을 지게 될 수도 있습니다. 꽃병이 깨져서 누군가가 상처를 입거나 긁힐 수 있다는 것은 하늘이 금합니다.

평등한 균형을 위해 소위 "좋은" 사고도 있다는 점에 주목하고 싶을 수도 있습니다. 사람은 사고의 결과로 큰 행운을 누리거나 기타 중요한 이익을 얻을 수 있습니다. 가장 자주 인용되는 사례 중 하나는 알렉산더 플레밍 경과 그의 호평받는 페니실린 발견입니다. 이야기에 따르면 그는 실험실에서 약간 부주의했고 28주간의 휴가를 마치고 돌아왔을 때 배양 접시 중 하나에서 곰팡이를 발견했습니다. 전하는 바에 따르면, 그는 그 문제에 대해 이렇게 말했습니다. “사람은 때때로 자신이 찾고 있지 않은 것을 발견하기도 합니다. 1928년 XNUMX월 XNUMX일 새벽에 깨어났을 때, 나는 세계 최초의 항생제나 박테리아 살해제를 발견하여 모든 의학에 혁명을 일으킬 계획은 전혀 없었습니다. 하지만 그게 바로 내가 한 일인 것 같아요.”

우리는 유리한 사고를 제쳐두고 여기서는 불행한 사고에 초점을 맞추겠습니다. 찡그린 얼굴의 사고는 그러한 불리한 결과가 특히 생명을 위협하거나 부담스러운 결과를 가져올 수 있는 경우입니다. 가능한 한 최소화하고 싶은 하향 사고(그리고 가능하다면 최대화하고 싶은 상향 사고도 포함합니다. 웃는 얼굴 변형에 대해서는 이후 칼럼에서 다루겠습니다).

사고의 불가피성에 대한 이전 질문을 약간 다시 말하고 싶습니다. 지금까지 우리는 한 사람의 특정 사례에서 발생하는 사고에 주목해 왔습니다. 사고가 동시에 다수의 사람들에게 영향을 미칠 수도 있다는 것은 의심의 여지가 없습니다. 이는 특히 사람들이 이런저런 종류의 복잡한 시스템에 몰두할 때 발생할 수 있습니다.

이전에 떠오른 질문의 변형에 대비하세요.

시스템 사고는 불가피한가?

우리는 이것을 곰곰이 생각해 봐야 합니다.

자동차 부품을 만들기 위해 공장 바닥이 배치되어 있다고 가정해 보겠습니다. 공장을 설계한 사람들은 혹시 모를 근로자 재해에 대해 극도로 우려하고 있다고 합니다. 공장 근로자는 항상 헬멧을 착용해야 합니다. 공장 내에는 사고에 주의하고 작업에 주의하라는 표지판이 있습니다. 사고가 발생하지 않도록 모든 예방 조치가 취해집니다.

이 시스템에서는 누구도 사고를 당하지 않기를 바랄 수 있습니다. 사고가 일어날 가능성이 전혀 없다고 생각하시나요? 나는 합리적인 사상가라면 이 경우 사고 가능성이 XNUMX이라고 장담하지 않을 것이라고 감히 제안하고 싶습니다. 사고가 발생할 확률은 매우 낮을 수 있지만, 모든 예방 조치에도 불구하고 사고가 발생할 위험이 여전히 어느 정도 존재한다는 것을 우리는 여전히 알고 있고 가정합니다.

이 모든 것은 충분히 복잡한 시스템에서는 사고를 예방하기 위해 아무리 노력하더라도 사고가 계속 발생할 것이라고 믿을 수밖에 없다는 생각을 나타냅니다. 우리는 시스템 사고가 불가피하다는 입장을 마지못해 지지하고 있습니다. 이 수준에 대한 거창한 설명에는 사고를 완전히 방지하기 위해 모든 기반을 포괄하는 것이 본질적으로 불가능할 정도로 시스템이 어느 정도 복잡해져야 한다는 경고가 있을 수 있습니다.

이제 정상 사고 또는 정상 사고 이론(NAT)으로 분류될 수 있는 사고에 대해 광범위하게 설명된 이론을 단계별로 깔끔하게 소개했습니다. 다음은 이 개념을 조사한 연구자들의 편리한 설명입니다. “충분히 규모가 크면 모든 시스템은 '정상적인 사고'를 발생시킵니다. 이는 복잡성, 구성 요소 간의 결합 및 잠재적인 피해가 결합되어 발생하는 피할 수 없는 사고입니다. 정상적인 사고는 정상적인 사고로 이어지는 사건과 상호 작용을 시스템 운영자가 이해할 수 없다는 점에서 보다 일반적인 구성 요소 오류 사고와 다릅니다."(Robert Williams의 "AI 오류 이해 및 방지: 실용 가이드"에 명시됨) 로마 얌폴스키, 철학 신문).

내가 너를 소위 말하는 땅으로 데려온 이유 정상적인 사고 우리 사회에서 점차적으로 그리고 필연적으로 보편화되고 있는 것, 즉 인공 지능(AI)의 출현에 이 이론을 주의 깊게 적용해야 할 수도 있다는 것입니다.

이에 대해 자세히 알아보겠습니다.

어떤 사람들은 AI가 완벽할 것이라고 잘못 가정합니다. AI 시스템은 실수를 하지 않으며 우리를 문제에 빠뜨리지도 않을 것이라고 추측됩니다. 여러분이 해야 할 일은 해당 AI 개발자가 일을 충분히 잘 수행하는지 확인하는 것뿐입니다. 그러면 AI는 우발적이거나 사고를 낳는 것으로 해석될 수 있는 어떤 일도 절대 하지 않을 것입니다.

그 가설적인 믿음에는 그렇게 빠르지 않습니다. 이론을 받아들이고 싶다면 정상적인 사고, 실질적으로 복잡한 AI는 필연적으로 사고를 초래할 것입니다. AI 개발자들이 사고를 예방하기 위해 아무리 밤늦게 손을 대더라도, AI는 언젠가는 반드시 사고에 휘말리게 마련이다. 쿠키가 부서지는 방식입니다. 그리고 그것에 대해 우리가 흘린 우유에 대해 울부짖는 것에는 휴식이 없습니다.

AI의 매시업과 개념적 교리를 숙고해 보세요. 정상적인 사고.

핵무기를 제어하는 ​​AI 시스템이 있다고 상상해보세요. AI는 세심하게 제작되었습니다. 상상할 수 있는 모든 견제와 균형이 AI 시스템에 코딩되어 있습니다. 혹시 발생할 수 있는 AI 사고로부터 우리는 안전한가요? 일반적인 사고 관점을 지지하는 사람들은 우리가 생각하는 것만큼 안전하지 않다고 말할 것입니다. AI가 특히 복잡할 가능성이 높다는 점을 감안할 때 정상적인 사고는 아마도 최악의 순간에 언젠가 나타나기를 조용히 기다리고 있습니다.

이러한 까다로운 질문과 불만의 요점은 AI가 사고를 초래할 수 있다는 사실을 염두에 두어야 하며, 발생할 수 있는 위험에 대해 인류는 합리적이고 사전 예방적인 조치를 취해야 한다는 것입니다. 잠시 후에 보시게 되겠지만, 이는 AI 사용에 있어서 다가오는 고려 사항이며, AI 윤리 및 윤리적 AI 분야에서는 무엇을 해야 할지에 대해 꽤 고민하고 있습니다. AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용을 보려면 다음을 참조하세요. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

토끼 굴로 내려가기 전에 AI의 본질에 대해 우리가 같은 입장에 있는지 확인합시다. 오늘날에는 지각이 있는 AI가 없습니다. 우리는 이것을 가지고 있지 않습니다. 지각 있는 AI가 가능할지 여부는 알 수 없습니다. 우리가 지각 있는 AI를 얻게 될지, 또는 지각 있는 AI가 계산적 인지 초신성(일반적으로 특이점이라고 함)의 형태로 기적적으로 자발적으로 발생할지 여부는 누구도 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 진행될 수 있습니다. 지각 있는 AI는 아마도 인간의 품질을 가질 것입니다. 지각 있는 AI는 인간이 조언을 제공하는 것과 인지적으로 동일하다는 점을 고려해야 합니다. 더욱이, 어떤 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. (초지능 AI에 대한 가능성에 대한 탐구는 다음을 참조하십시오. 여기의 적용 범위). 이러한 시나리오는 모두 출처에 대한 평가를 높일 것이라고 말했습니다.

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 사고와 동등하게 "생각"할 수 없다는 점을 인식하십시오. Alexa나 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 유사해 보일 수 있지만 현실은 그것이 계산적이며 인간의 인지 능력이 부족하다는 것입니다. 최신 AI 시대에는 컴퓨팅 패턴 매칭을 활용하는 머신러닝(ML)과 딥러닝(DL)이 광범위하게 사용되었습니다. 이로 인해 인간과 유사한 성향을 보이는 AI 시스템이 탄생했습니다. 한편, 오늘날 외관상 상식을 갖고 있거나 강력한 인간 사고의 인지적 경이로움을 갖고 있는 AI는 없습니다.

당신은 AI의 최신 시대가 시작되었을 때 일부 사람들이 지금 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 있을 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

전반적으로 희망하는 바는 AI 윤리 원칙을 확립함으로써 적어도 AI가 유익하게 할 수 있는 것과 불리하게 만들 수 있는 것이 무엇인지에 대한 사회적 인식을 높일 수 있다는 것입니다. 나는 “The Global Landscape Of AI 윤리 지침”(출판)이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 교리의 본질을 조사하고 요약한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집단적 분석을 광범위하게 논의했습니다. ~에 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이것은 "오직 코더" 또는 AI를 프로그래밍하는 사람들이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

AI 기반을 예방하거나 적어도 엄격하게 완화하기 위해 명시적으로 고려하고 명백한 조치를 취해야 하는 자랑스러운 AI 윤리 목록을 추가해야 할 수도 있습니다. 정상적인 사고 그런 일이 일어날 수도 있습니다. AI를 개발하는 사람들은 그 분야에 최선을 다해야 합니다. AI를 배포하는 사람들도 마찬가지로 해야 합니다. AI를 사용하거나 AI에 노출된 사람들은 곧 일어날 것 같은 AI 사고 가능성에 대해 경계하고 경계해야 합니다.

사고 가능성이 XNUMX으로 떨어지도록 AI에 충분한 예방 조치가 내장되어 있다고 생각하고 싶을 수도 있습니다. 기술에 관심이 있는 사람들의 일반적인 오만은 어떤 기술이 문제를 일으킬 수 있다면 다른 기술이 확실히 문제를 해결할 수 있다는 것입니다. 문제가 사라질 때까지 점점 더 많은 기술을 계속 사용하십시오.

글쎄, 시스템 지향 사고를 연구한 사람들은 스위스 치즈 모델(SCM)로 알려진 관점을 제시함으로써 추정된 기술 전문가의 오만함에 동의하지 않고 정중하게 반박하는 경향이 있습니다. “SCM에서 안전 계층은 여러 조각으로 모델링됩니다. 구멍이 난 치즈는 각 안전 계층의 약점을 나타냅니다. 시간이 지남에 따라 구멍의 모양이 바뀌고 움직입니다. 결국 치즈 조각(안전 층)이 아무리 많아도 구멍이 정렬되어 모든 치즈 조각을 직선으로 쏠 수 있게 됩니다(사고 발생).”(Robert Williams와 Roman Yampolskiy가 이전에 인용한 논문에 따름) ).

나는 AI를 프로그래밍하여 사고 가능성을 완전히 그리고 항상 피할 수 있는 보장된 방법이 있는지 여부에 대해 이 측면에 얽매이고 싶지 않습니다. 모든 방식의 수학적, 계산적 증명 접근 방식이 시도되고 있습니다. 나는 오늘날 우리가 확률 제로를 확실하게 보장할 수 있는 확장 가능한 작업 방법이나 기술을 갖고 있지 않으며, 우리가 생산하고 있는 엄청난 양의 AI에 확실히 휩싸여 있다고 선언하는 것이 합리적이고 공정하다고 생각합니다. 나는 그러한 관행을 준수하려고 노력하지 않았다는 것을 확실히 알고 있습니다. 후자의 점은 매우 중요합니다. AI 실험실에서 무언가를 만들 수 있더라도 이를 진행 중인 무수히 많은 자연스럽고 평온한 AI 노력으로 확장하고 계속해서 등장할 것은 난해한 문제이며 계산 증명 기계가 은을 얻더라도 해결될 가능성이 낮기 때문입니다. 총알이 존재했다.

간단히 언급할 가치가 있다고 생각하는 또 다른 점은 악의적인 인간 행위자의 결과로 바람직하지 못한 행동을 하게 되는 AI에 대한 것입니다. 나는 그러한 사례를 AI 사고의 영역에 넣지 않을 것입니다. 첫 토론에서 사고의 사전적 정의는 사고였다는 점을 기억하십시오. 의도하지 않은 자연. 인간 사이버 사기꾼이 AI 시스템이 나쁜 일을 하게 만든다면, 나는 그 AI를 사고를 경험한 것으로 분류하지 않습니다. 나는 당신이 그 가정을 따라갈 것이라고 믿습니다.

다양한 AI의 부적절한 행동 중 얼마나 많은 부분이 순전히 AI 사고와 사이버 범죄자의 사악한 행위에 기인하는지에 대한 흥미로운 질문이 제기됩니다. 기존 AI 사고 보고 데이터베이스 중 일부에 따르면 AI 사고는 악의적으로 유발된 사고보다 더 많이 발생하는 것으로 보이지만, 그 개념은 상당한 소금을 가해 사용해야 합니다. AI 시스템이 공격을 받았을 때 보고하지 않고, AI 사고가 발생했을 때 보고하고 싶은 유혹이 더 크기 때문에 이렇게 말하는 것입니다.

AI 사고와 관련하여 우리가 논의해야 할 매우 중요한 주의 사항이 있습니다.

“AI 사고”라는 캐치프레이즈를 사용하는 것은 일반적으로 바람직하지 않으며 우리 모두, 즉 사회 전체에 상당한 혼란을 초래할 것입니다. 인간은 우연히 사고가 났을 때 어깨를 으쓱하고 사고를 당한 사람에게 연민을 느끼는 경우가 많다. 우리는 '사고'라는 단어를 마치 일어난 일에 대해 아무도 책임을 지지 않는다는 뜻인 것처럼 취급하는 것 같습니다.

교통사고를 당하는 경우를 예로 들어보겠습니다. 한 차량이 우회전할 때 크게 흔들리다가 우연히 직진하던 다른 차량과 충돌했습니다. 맙소사, 그것은 단지 사고였고 우연히 일어난 일이었습니다. 사건에 연루되지 않은 사람들은 사건이 단순히 일어난 사고라는 관점에서 설명된다면 문제를 미루어 놓을 것입니다.

하지만 만약 당신이 충돌한 차에 있었다면 지나치게 넓은 방향으로 회전한 운전자에게 그렇게 동정적이지 않을 것 같은 느낌이 듭니다. 귀하의 의견은 상대방 운전자가 형편없는 운전자였으며 표면적으로 불법적이거나 현명하지 못한 운전 행위로 인해 자동차 사고가 발생했다는 것입니다. 그 사건을 '사고'로 분류함으로써, 갇힌 운전자는 이제 모든 것이 엉망인 운전자의 손에 의한 것이 아니라 우연에 의해 발생한 것처럼 보이기 때문에 다소 불리한 상황에 처해 있습니다.

실제로 '사고'라는 단어에는 다양한 의미가 담겨 있어 정부의 자동차 충돌 통계에서는 자동차 사고라는 용어를 사용하기보다는 대체로 자동차 충돌 또는 자동차 충돌로 문제를 언급하고 있습니다. 자동차 충돌이나 자동차 충돌은 사건이 어떻게 발생했는지에 대해 아무런 영향을 미치지 않는 것 같습니다. 한편, '교통사고'라는 표현은 그것이 운명의 변덕, 혹은 인간의 손에서 벗어난 일이라고 생각하게 만든다.

AI 사고를 언급할 때 이러한 내포적 고려가 어떻게 작용하는지 풍부하게 볼 수 있습니다. 우리는 AI 개발자가 AI가 실수로 누군가에게 해를 끼쳤다는 의미의 방패 뒤에 숨는 것을 원하지 않습니다. AI를 배포하는 기업도 마찬가지입니다. “AI 사고”라는 표현은 AI의 배후에 있던 인간이 책임을 회피하도록 사회를 호도하는 AI를 의인화하는 것에 가깝다고 주장할 수 있습니다. AI에 대한 인간의 책임을 묻는 것의 중요성이 커지고 있다는 논의는 다음 토론을 참조하세요. 여기 링크여기 링크.

앞으로는 AI 사고라는 캐치프레이즈를 사용하겠지만, 그것이 이 현상을 언급하는 전통적인 방식이기 때문에 마지못해 그렇게 하는 것입니다. 이것을 다르게 표현하려는 시도는 유감스럽게도 더 부풀려지고 쉽게 읽히지 않는 경향이 있습니다. AI가 잘못되었을 때 AI의 기반이 되는 인간에게 책임이 있다는 사실을 외면하고 깨닫지 못하는 방식으로 캐치프레이즈를 해석하시기 바랍니다.

AI를 사고 발생으로 언급할 때 발생할 수 있는 혼란이나 오해의 소지가 있는 측면을 설명하기 위해 꽃병을 넘어뜨린 것에 대한 나의 발언으로 돌아갈 수 있습니다. AI가 그렇게 하는 다음 예를 생각해 보십시오. “이 문제는 AI가 우연히 또는 무관심으로 수행하는 일과 관련이 있습니다. 꽃병을 넘어뜨리는 청소 로봇이 그 예입니다. 복잡한 환경에는 너무 많은 종류의 '꽃병'이 있으므로 모든 부작용에 대해 페널티를 프로그램할 수는 없습니다.”(Robert Williams 및 Roman Yampolskiy의 논문에 따르면)

가정에서 AI 시스템을 사용하다가 "우연히" 꽃병을 넘어뜨린다면 AI의 이러한 불리한 행동에 대해 누구도 비난받아서는 안 된다는 점을 암시하는 것처럼 보입니다. 그것은 단지 사고였고 누군가는 한탄스럽게 비난할 수도 있었습니다. 반면에 우리는 AI 시스템이 일반적으로 꽃병 상황을 처리하도록 프로그래밍되지 않은 이유를 정당하게 질문해야 합니다. AI 개발자가 꽃병 자체가 마주칠 수 있는 물체의 범위 내에 있다고 예상하지 않았더라도 AI 시스템이 꽃병을 넘어뜨리는 것을 막는 중요한 물체 회피가 왜 없었는지 확실히 의문을 제기할 수 있습니다. 꽃병(따라서 AI는 꽃병을 꽃병으로 인정하지 않을 수도 있지만 피해야 할 감지 가능한 개체로 피할 수는 있었습니다).

나는 'AI 사고'를 일으키고 어떤 형태로든 피해를 입히는 AI 시스템의 출현을 둘러싸고 우리가 점차 거대한 법적 공방으로 향하고 있다고 예견해왔고 앞으로도 예견하고 있다. 지금까지 사회는 의도적이든 의도치 않든 시장에 유입되어 부정적인 결과를 초래하는 AI에 대해 법적으로 반발하는 데 큰 규모의 반응을 보이지 않았습니다. 설익은 AI 제조업체와 서둘러 AI 배포를 실행하는 사람들의 골드러시가 된 오늘날의 AI 악대차는 지금 당장 운이 좋으며 민사 소송과 형사 기소의 영향을 상대적으로 받지 않고 있습니다.

AI로 인한 법적 반발은 조만간 다가올 것입니다.

계속해서, 소위 AI 사고의 불가피성에 우리는 어떻게 노력하고 대처해야 할까요?

우리가 당장 할 수 있는 한 가지는 AI 사고가 어떻게 발생할지 예측하는 것이다. AI 사고를 예측함으로써 우리는 적어도 사고를 줄이거나 발생 가능성을 최소화할 수 있는 수단을 고안할 수 있습니다. 또한 AI 사고가 발생할 경우 실증적 피해 가능성을 줄일 수 있도록 가드레일을 설치하려고 시도할 수도 있습니다.

이전에 인용된 연구 기사에 설명된 유용한 요소 세트 AI 실패 이해 및 방지: 실용 가이드 다음과 같은 속성을 포함합니다(연구 논문에서 인용):

  • AI의 출력에 영향을 받는 시스템입니다.
  • AI 출력과 더 큰 시스템 사이의 시간 지연, 시스템 관찰 가능성, 인간의 주의 수준, AI 오작동을 수정하는 운영자의 능력.
  • AI가 제어하는 ​​시스템을 악의적으로 사용하여 발생할 수 있는 최대 피해입니다.
  • AI에 근접한 구성 요소와 상호 작용의 복잡성을 결합합니다.
  • AI 및 기타 사용된 기술에 대한 지식 격차와 시스템의 에너지 수준.

이 엄청난 논의가 진행되는 시점에서 귀하는 AI 사고 주제를 더욱 명확하게 설명할 수 있는 몇 가지 예시를 원할 것이라고 확신합니다. 내 마음속에 와닿는 특별하고 확실히 인기 있는 사례가 있습니다. 윤리적, 법적 파급 효과를 포함한 AI 전문가로서 저는 주제의 다소 이론적인 성격을 보다 쉽게 ​​파악할 수 있도록 AI 윤리 딜레마를 보여주는 현실적인 사례를 식별해 달라는 요청을 자주 받습니다. 이러한 AI 윤리적 난관을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 출현입니다. 이는 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 예시 역할을 할 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 등장은 소위 AI 사고의 도래에 대해 어떤 것을 밝혀줄까요? 그렇다면 이것이 보여주는 것은 무엇입니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 사건

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 소위 AI 사고의 출현을 수반하는 자율 주행 자동차와 윤리적 AI 가능성에 대해 심층적으로 알아볼 준비가 되어 있습니다.

AI 기반 자율주행차가 당신의 동네 거리를 운행 중이며 안전하게 운전하고 있는 것 같다고 상상해보세요. 처음에는 자율주행차를 엿볼 수 있을 때마다 각별한 주의를 기울였습니다. 자율주행차는 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 돋보였습니다. 몇 주 동안 자율주행차가 지역 사회를 순항한 후 이제 거의 알아차리지 못합니다. 당신이 아는 한 그것은 이미 바쁜 공공 도로의 ​​또 다른 차일뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록, 자율주행차 체험 범위에 있는 지역들이 점점 더 멋지게 변해가는 차량에 익숙해지는 과정을 자주 글로 써왔습니다. 많은 지역 주민들은 결국 입이 떡 벌어질 정도로 멍하니 바라보던 태도에서 이제 구불구불한 자율주행 자동차를 목격하기 위해 지루함의 하품을 내뿜는 모습으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다.

어느 날 자율주행차가 사고를 당한다.

우회전을 하던 중 AI 주행 시스템이 자율주행차를 크게 휘두르며 인간이 운전하는 차가 충돌했다. 인간이 운전하는 자동차는 적절한 교통 차선을 따라 직진하고 있었습니다. 인간 운전자가 방향을 바꾸거나 충돌을 피할 수 있는 특별한 기회는 없었습니다. 게다가 자율주행차가 우회전을 많이 할 것이라는 경고나 표시도 없었다.

이건 사고인가요?

AI 사고라는 기준에 포함된다고 확실히 말할 수 있다. 그런 주장의 근거는 자율주행차의 바퀴에 AI 운전 시스템이 있었다는 것이다. 어찌 됐든, 어떤 이유로든 AI는 우회전할 때 크게 스윙하는 쪽을 선택했습니다. 그 결과, 자율주행차가 인간이 운전하는 자동차를 충돌시키는 결과가 나왔습니다.

"사고"라는 단어와 관련된 의미에 대한 이전 논의를 상기하고 이 시나리오에서 그러한 의미가 어떻게 작용하는지 살펴보십시오. 또한 인간 운전자가 크게 우회전하여 인간이 운전하는 동료 자동차와 충돌하는 경우에 대해 논의한 것을 기억하십시오. 우리는 이 행위가 "사고"라는 개념이 오해의 소지가 있고 혼란스럽다는 것을 깨달았습니다. 넓은 스윙을 한 인간 운전자는 우연이나 운명의 변덕으로 보이는 사고가 단지 발생했다는 생각 뒤에 숨을 수 있습니다.

AI 기반 자율주행차가 폭을 넓혀 인간이 운전하는 자동차와 충돌하는 경우를 'AI 사고'라고 명명하기보다는, 자동차 충돌 또는 자율주행차 충돌이었다고 해야 할 것 같다. 운전하는 자동차와 인간이 운전하는 자동차. 그러면 우리는 그것이 알 수 없는 수단의 사고라는 공허한 혼란을 겪지 않을 수 있습니다.

이번 사건에 대한 대중의 반응은 어떨 것이라고 생각하시나요?

글쎄요, 자동차 제조업체나 자율주행 기술 회사가 이 문제를 사고로 분류할 수 있다면 커뮤니티 전체의 잠재적인 반발을 피할 수 있을 것입니다. 모든 이야기에 담긴 사고에 대한 동정심이 특정 상황으로 흘러들어갈 수도 있다. 도시, 카운티 및 주 지도자들이 AI 자율주행 차량 사고에 잠재적으로 어떻게 반응할지에 대한 자세한 내용은 제가 공동 주도하고 다음에서 설명한 Harvard 연구에 대한 토론을 참조하세요. 여기 링크.

상황이 자동차 충돌 또는 자동차 충돌로 명확하게 설명되면 아마도 누군가 또는 무언가가 사건에 대한 책임이 있다는 것을 깨닫게 될 수 있습니다. 무릎 반사적인 반응은 AI가 책임을 져야 한다는 것일 수 있습니다. 문제는 우리가 AI에 법적 인격체를 부여하기로 결정하기 전까지는 AI 자체에 책임을 부여할 수 없다는 것입니다. 여기 링크).

우리는 AI 운전 시스템을 검사하여 부적절해 보이는 운전과 그에 따른 자동차 충돌의 원인이 무엇인지 알아낼 수 있습니다. 그렇다고 AI가 책임을 져야 한다는 의미는 아닙니다. 책임 당사자에는 AI 개발자, 자율주행차 차량 운영자 등이 포함됩니다. 회전이 일어난 모퉁이의 디자인에 대해 도시가 부분적으로 책임을 질 가능성이 있기 때문에 다른 사람들도 포함합니다. 또한, 보행자가 모퉁이를 벗어나고 있는데 AI 운전 시스템이 그 사람을 피하는 쪽을 선택했지만 교통사고에 휘말렸다고 가정해 보세요.

등등.

결론

우리는 AI가 계산적으로 무엇을 계산하고 무엇을 하도록 프로그래밍되었는지 알고 싶습니다. AI가 코딩된 대로 수행했습니까? 어쩌면 AI가 프로그래밍에서 버그나 오류를 발견했을 수도 있습니다. 이는 행동을 변명하지는 않지만 충돌이 어떻게 발생했는지에 대한 더 많은 단서를 제공합니다.

AI 주행 시스템에는 어떤 종류의 AI 가드레일이 프로그래밍되어 있나요? 가드레일이 있었다면 왜 가드레일이 자동차 충돌을 막지 못하는 것처럼 보였는지 알아내고 싶을 것입니다. 어쩌면 AI 운전 시스템이 방향을 바꾸지 않고 정지했을 수도 있다. 우리는 사건이 진행되는 동안 AI가 계산적으로 평가한 대안이 무엇인지 알고 싶습니다.

특정 사건의 진상을 규명하는 것 외에도 또 다른 정당한 불만은 AI 운전 시스템에 유사한 종류의 불리한 행위를 할 수 있는 결함이나 기타 내장된 측면이 있는지 여부입니다. 본질적으로, 이 사건은 앞으로 더 많은 일이 일어날 것이라는 것을 알려주는 지표일 수 있습니다. 이러한 유형의 AI 운전 시스템을 시도하고 예상하기 위해 컴퓨터 기반 운전 상황 시뮬레이션이 어떻게 유도되었습니까? 자동차 충돌로 이어질 수 있는 AI 문제를 찾아내기에 충분한 도로 주행 테스트가 있었습니까?

이 시나리오는 AI 기반 자율주행차의 출현에 직면한 논쟁의 여지가 있는 난제를 강조합니다.

이렇게됩니다.

한편으로는 AI 운전 시스템이 인간 운전자만큼 안전하거나 어쩌면 더 안전할 것이라는 희망으로 인해 자율주행차를 신속하게 도입하려는 사회적 욕구가 있습니다. 미국에서만 현재 자동차 충돌로 인해 매년 약 40,000명의 사망자가 발생하고 있으며 약 2.5만 명의 부상자가 발생하고 있습니다. 분석에 따르면 이러한 자동차 사고의 상당 부분은 음주 운전, 주의가 산만한 운전 등과 같은 인간의 실수에 기인한 것으로 나타났습니다. 여기 링크).

AI 운전 시스템은 음주 운전을 하지 않습니다. 그들은 휴식이 필요하지 않으며 운전 중에도 지치지 않을 것입니다. 자율주행차를 실행 가능한 교통수단으로 확립함으로써 운전자의 수를 줄일 수 있다고 가정합니다. 이는 결과적으로 자동차 충돌로 인한 연간 인명 사망 및 부상 건수를 즉각적으로 줄일 수 있음을 의미합니다.

일부 전문가들은 사망자와 부상자가 전혀 없을 것이며 자율주행차는 충돌이 없을 것이라고 말했지만 이는 전적으로 터무니없고 완전히 잘못된 기대입니다. 나는 이것이 왜 그렇게 솔직하지 못한지 설명했습니다. 여기 링크.

어쨌든, 자율주행차와 관련된 자동차 충돌사고가 어느 정도 발생할 것이라고 가정해 보세요. 또한 이러한 자동차 충돌사고로 인해 사망자와 부상자가 어느 정도 발생할 것이라고 가정해 보세요. 고민되는 문제는 우리 사회가 그러한 사례를 전혀 용인할 의향이 있는지 여부입니다. 진정한 자율주행차로 인해 사망자 XNUMX명, 부상자 XNUMX명이라도 발생한다면 키트와 카부들 전체를 폐쇄해야 한다는 목소리도 있다.

구조된 생명이 연간 사망자 수를 줄이는 것이라면 우리는 자율주행차의 등장을 계속 독려해야 하며, 그렇게 비논리적인 대응을 해서는 안 된다는 반대 입장이다. 우리는 자율주행차를 사용하더라도 어느 정도의 사망자와 부상자가 여전히 존재한다는 전제를 받아들여야 하며, 연간 사망자 수가 줄어들면 우리가 올바른 길을 가고 있다는 것을 의미한다는 점을 깨달아야 합니다.

물론 일부 사람들은 광범위하고 철저한 컴퓨터 기반 시뮬레이션이나 개인 폐쇄 트랙 테스트를 통해 자율주행차 사용이 허가될 때까지 공공 도로에 자율주행차를 운행해서는 안 된다고 주장합니다. 반론은 자율주행차를 운행할 수 있는 유일하고 실행 가능하고 가장 빠른 방법은 공공 도로를 이용하는 것이며, 자율주행차 채택이 지연되면 인간이 운전하는 자동차 충돌 사고가 엄청나게 많이 계속될 수 있다는 것입니다. 나는 내 칼럼에서 이 논쟁을 더 길게 다루었으며 독자들에게 이 논쟁적인 문제에 대한 완전한 관점을 얻기 위해 그러한 토론을 살펴보라고 촉구합니다.

지금은 내용을 마무리하겠습니다.

AI 사고가 일어날 것이다. 우리는 AI 사고를 겉보기에 그럴 듯한 것으로 해석하려는 충동에 저항해야 합니다. 우연한 그리고 따라서 AI를 배포하는 제작자와 제작자가 절대적으로 책임을 지지 않도록 잘못 허용할 수도 있습니다.

여러분의 하루에 대한 마지막 흥미로운 생각으로 여러분께 남겨드릴 추가 트위스트가 있습니다.

코미디언 데인 쿡(Dane Cook)은 교통사고에 관해 이런 농담을 한 것으로 전해진다. “며칠 전 나는 교통사고를 당했다. 내 잘못이 아니야. 자기 잘못이 아닌데도 상대방이 차에서 내려 자기 잘못인 양 쳐다본다. 왜 빨간불에 멈춰서 80으로 때리게 놔뒀냐!”

반전이 가장 두드러지는 부분은 AI 시스템이 특정 AI와 관련된 AI 사고가 발생했을 때 AI가 그 사건이 인간의 잘못이며 확실히 AI의 잘못이 아니라고 주장하도록 선택할 가능성이 있다는 것입니다. 그건 그렇고, 이것은 매우 사실일 수 있으며 인간은 AI의 잘못이라고 주장하여 AI를 희생양으로 만들려고 할 수도 있습니다.

아니면 AI가 인간을 희생양으로 삼으려고 할 수도 있습니다.

알다시피, 우리가 고안한 AI는 우연히든 아니든 그런 식으로 까다로울 수 있습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitabilly-of-ai-accidents-which-looms-over-autonomous-self- 운전하는 자동차도/