AI 제조업체가 생명을 결정하는 자율 시스템에 대한 책임을 회피하려는 것처럼 보이는 뜨거운 감자 증후군의 부상에 대한 AI 윤리

우리 모두는 속담에 나오는 뜨거운 감자로 끝나지 않도록 해야 한다는 것을 알고 있습니다.

뜨거운 감자 도박은 적어도 1800년대 후반에 촛불을 켜는 오락실 게임이 공을 들였을 때로 거슬러 올라갑니다. 사람들은 일반적으로 서로 상대적으로 인접한 일련의 나무 의자에 앉아 그 시대에 완전히 열광적인 게임을 했습니다. 켜진 양초는 플레이어가 사람에서 사람으로 건네고 나중에 우리가 전달하기로 선택한 것을 나타냅니다. 뜨거운 감자.

점차 타오르는 촛불을 따라 지나가기 전에 각 사람은 대중적인 운율을 큰 소리로 말해야 하는 것이 관례였습니다. 운율은 분명히 다음과 같이 진행되었습니다.

“잭은 살아 있고 살 가능성이 높습니다.

그가 당신의 손에서 죽으면 당신은 줄 것을 몰수당합니다.”

이 운율이 있는 리사이틀은 아마도 촛불이 최종 결론을 향해 계속 타오르도록 약간의 시간을 허용할 것입니다. 결국 자연적으로 꺼진 상태에서 손에 들고 있던 촛불에 갇힌 사람은 성냥에서 지는 사람이었습니다(말장난!).

운율에 표시된 단어에 따라 패자는 "몰수"를 지불해야 했으며 일반적으로 게임의 더 이상 라운드를 종료해야 했습니다. 그런 다음 이것은 오늘날 우리가 일상적인 음악 의자로 간주하는 것과 결합되어 라운드에서 패배한 사람이 더 이상 다음 라운드에 참여하지 않을 수 있습니다(음악이 중단되고 사용 가능한 좌석을 얻을 수 없는 것처럼). 결국 남은 사람은 촛불을 켜고 운율을 외친 두 사람만이 최후의 진압으로 최종 승자가 결정될 때까지였다.

왜 우리가 더 이상 촛불을 켜고 이 게임을 하지 않는지, 그리고 왜 이것을 "불이 켜진 촛불" 구성표로 묘사하기보다 일반적으로 뜨거운 감자라고 부르는지 궁금할 것입니다. 연구원들은 이것이 어떻게 점차적으로 발생했는지에 대한 많은 이론을 제시했습니다. 이 문제에서 상황이 어떻게 진화했는지에 대한 역사는 흐릿하고 결정되지 않은 것 같습니다. 불이 켜진 양초가 일반적으로 이렇게 사용되지 않는다는 사실에 안도할 수 있을 것 같습니다. 무언가 잘못될 가능성이 매우 우려되기 때문입니다(누군가 양초를 떨어뜨리고 불을 피우거나, 촛불을 건넬 때 누군가가 촛불에 화상을 입는 경우). 다른 플레이어 등).

불을 붙인 양초를 대체할 수 있는 잠재적인 뜨거운 감자의 관점에서 일반적으로 감자가 전반적으로 다소 안전할 것이라고 주장할 수 있습니다. 화염이 없습니다. 녹는 왁스가 없습니다. 이러한 맥락에서 감자를 사용하는 잠재적인 근거는 감자가 예열되면 쉽게 열을 유지하는 것으로 알려져 있다는 것입니다. 감자를 이리저리 돌리면 한동안 뜨거울 것입니다. 뜨거운 감자가 더 이상 뜨겁지 않고 대신 차가운 것으로 평가되는 시점을 결정하는 것은 열띤 논쟁의 여지가 있는 제안이 될 것이라고 가정합니다.

물론 요즘 속담에 나오는 뜨거운 감자의 개념은 더 독립적인 고려 사항입니다. 뜨거운 감자로 평가되거나 순위가 매겨진 모든 것은 일반적으로 진지하게 제거되는 품질입니다. 당신은 뜨거운 감자를 들고 싶지 않아요. 당신은 그것이 다른 곳으로 가고 있는지 확인하고 싶습니다. 어느 정도, 당신은 그것이 어디로 가는지에 대해 지나치게 신경 쓰지 않을 수도 있습니다. 단순히 그것이 더 이상 당신의 소유가 아니라는 것입니다.

사랑하는 친구나 비슷한 지인에게 뜨거운 감자를 건네는 것은 상당히 무뚝뚝해 보일 것입니다. 이것은 완전히 종류가 아닌 것처럼 보일 것입니다. 가능하다면 그 뜨거운 감자를 넣을 다른 사람이나 다른 장소를 찾으십시오. 절박한 움직임은 따뜻한 감자를 친절한 동료에게 강요하는 것일 수 있지만 이것은 최후의 수단으로만 수행되기를 바랍니다.

그 동전의 다른 면은 당신이 좋아하지 않거나 복수하려는 사람에게 뜨거운 감자를 건네는 것을 기뻐할 수 있다는 것입니다. 물론, 당신을 나쁘게 대하는 사람을 깎아내리려는 목적이라면 뜨거운 감자가 거의 영광스럽게도 유용할 수 있습니다. 그들이 뜨거운 감자에 대해 무엇을 해야 하는지 알아내게 하십시오. 당신이 태그를 붙인 사람에게는 행운의 감자와 최악의 행운이 있습니다.

단 두 사람이 관련된 뜨거운 감자 시나리오에서는 맛없고 달갑지 않은 물건을 들고 있는 사람이 누구인지에 대해 빠르게 앞뒤로 논쟁이 일어날 가능성이 있습니다. 예를 들어 내가 뜨거운 감자를 너에게 건네면 너는 서둘러 나에게 그것을 돌려준다. 각 핸드오프 사이에 동요를 발표할 필요가 없다고 가정하면, 우리는 팔이 허용하는 한 빨리 감자를 따라갈 수 있습니다.

내가 존경받고 자주 인용되는 뜨거운 감자에 대해 자세히 알아보기로 한 이유가 궁금할 것입니다.

이유가 여기 있습니다.

인공 지능(AI) 분야에서 뜨거운 감자의 모습이 점점 더 많이 사용되고 있는 것으로 나타났습니다.

대부분의 사람들은 그것에 대해 아무것도 모릅니다. 그들은 들어본 적이 없습니다. 그들은 그것이 무엇인지 완전히 알지 못합니다. 많은 AI 개발자들조차 이 문제를 인식하지 못하고 있습니다. 그럼에도 불구하고 그것은 존재하며 정말로 의심스러운 상황, 특히 생사가 걸린 상황에서 사용되는 것으로 보입니다.

나는 이것을 AI 뜨거운 감자 증후군.

이 증후군의 기저에는 심각한 영향이 많이 있으며 AI 윤리 사고 캡을 착용하고 해야 할 일을 고려해야 합니다. 냉철한 윤리적 고려 사항이 있습니다. 주목할만한 법적 의미도 있을 것입니다(아직 사회적 가시성에 도달하지 않았지만 곧 그렇게 될 것으로 예상합니다). AI 윤리, 윤리적 AI 및 법적 AI 문제에 대한 지속적이고 광범위한 범위를 보려면 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

포장을 풀자 AI 뜨거운 감자 증후군.

인간과 공동으로 작동하는 AI 시스템을 상상해 보십시오. AI와 인간은 어떤 때는 인간이 통제하고 다른 때는 AI가 통제하는 방식으로 진행 중인 활동에 대한 통제권을 넘겨주고 있습니다. 이것은 처음에는 예의 바르거나 합리적인 방법으로 수행될 수 있습니다. 잠시 후에 다루게 될 여러 가지 이유로 AI는 제어가 서둘러 인간에게 넘어갈 필요가 있음을 계산적으로 확인할 수 있습니다.

이것은 뜨거운 감자 이는 단순히 교훈적인 어린이용 게임이 아니라 현실 세계의 생명을 위험에 빠뜨리는 것입니다.

AI에서 인간으로 급히 제어권을 넘기는 문제는 이것이 합리적인 방식으로 수행될 수 있거나 다소 비합리적인 방식으로 수행될 수 있다는 것입니다. 인간이 특별히 핸드오버를 기대하지 않는다면 이것이 문제일 가능성이 높습니다. 인간이 일반적으로 통제권을 넘겨주는 데 괜찮다면 인간에게 충분한 시간이 주어지지 않거나 통제권이 인간의 손에 강제로 넘어가는 이유에 대한 인식이 충분하지 않을 때 핸드오버의 기본 상황이 위압적일 수 있습니다.

우리는 이것이 어떻게 인간과 주변에 있는 다른 인간에게 삶과 죽음의 위험을 초래할 수 있는지에 대한 예를 탐구할 것입니다. 심각한 내용입니다. 마침표, 마침표.

야성적이고 털털한 고려 사항에 대해 더 자세히 알아보기 전에 AI 뜨거운 감자 증후군, 근본적으로 필수적인 주제에 대한 몇 가지 추가 기본 사항을 살펴보겠습니다. AI 윤리, 특히 머신 러닝(ML) 및 딥 러닝(DL)의 출현에 대해 간략히 살펴보겠습니다.

요즘 AI 분야와 심지어 AI 분야 밖에서도 가장 크게 들리는 목소리 중 하나가 윤리적 AI의 더 큰 모습을 외치는 것으로 구성되어 있다는 것을 막연하게 인지하고 있을지도 모릅니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴보겠습니다. 그 위에 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 살펴보겠습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이것은 "오직 코더" 또는 AI를 프로그래밍하는 사람들이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

뜨거운 감자와 AI에서 잠재적으로 재앙적인 사용에 대한 초점으로 돌아가 보겠습니다. 뜨거운 감자 속임수에도 숨어 있을 수 있는 사악함이 있습니다.

뜨거운 감자 갬빗의 AI 표현에 대한 간략한 요약:

  • AI와 Human-in-the-Loop가 주어진 작업에서 공동으로 작업하고 있습니다.
  • AI가 일정 시간 제어
  • Human-in-loop가 일정 시간 제어
  • AI와 인간 사이에는 일종의 핸드오프 프로토콜이 있습니다.
  • 핸드오프는 눈에 잘 띄거나 미묘하고 거의 숨겨져 있을 수 있습니다.
  • 이것은 일반적으로 실시간 컨텍스트 내에서 이루어집니다(활동적으로 진행 중인 작업)

여기서 주요 초점은 핸드오프가 본질적으로 뜨거운 감자이고 AI가 갑자기 제어권을 인간에게 넘기기로 선택하는 경우입니다. 나는 또한 여기에서 다른 측면, 즉 뜨거운 감자로 AI에 대한 인간의 손 제어에 대해서도 나중에 다룰 것이라는 점에 유의하십시오.

먼저 AI가 HOT(Hot Potato)를 루프 내 인간에게 전달할 때 어떤 일이 일어날 수 있는지 생각해 보십시오.

나는 인간이 이미 진행 중인 작업 활동의 일부이자 소포라고 말하고 있기 때문에 인간을 루프 내 인간(human-in-the-loop)이라고 부를 것입니다. 우리는 활동에 특별히 관여하지 않은 인간, 아마도 전체 문제에 대해 모르는 사람이 AI에 의해 뜨거운 감자를 건네받는 다른 시나리오를 가질 수 있으므로 이 환경의 다른 풍미가 존재한다는 것을 명심하십시오.

내가 당신에게 뜨거운 감자를 건네고 합리적인 방식으로 그렇게 하고 싶다면 아마도 내가 당신에게 물건을 넘겨주겠다고 경고했을 것입니다. 게다가, 나는 당신이 뜨거운 감자를 소유하는 것이 내가 그것을 갖는 것보다 전반적으로 더 낫다고 진정으로 믿는다면 이것을 시도 할 것입니다. 나는 당신이 그것을 가져야할지 아니면 계속해야하는지 정신적으로 계산할 것입니다.

농구 경기를 상상해보세요. 당신과 나는 같은 팀에 있습니다. 우리는 게임에서 승리하기 위해 함께 노력하기를 바랍니다. 시간이 몇 초 밖에 남지 않았으며 우리는 필사적으로 득점해야 합니다. 그렇지 않으면 게임에서 지게 됩니다. 마지막 촬영을 하기 위한 자세를 취합니다. 그렇게 해야 할까요, 아니면 공을 당신에게 넘겨주고 당신이 마지막 샷을 하게 해야 할까요?

내가 농구를 더 잘하고 슛을 날릴 확률이 더 높다면 농구공을 잡고 슛을 시도해야 할 것이다. 당신이 나보다 농구를 더 잘한다면 아마도 당신에게 공을 넘겨주고 당신이 슛을 하게 해야 할 것입니다. 코트에서 우리 중 누가 슛을 하기에 더 좋은 위치에 있는지, 그리고 게임이 거의 끝나서 우리 중 한 명이 지쳤는지, 그리고 지쳐 갔는지 여부와 같은 다른 고려 사항이 있습니다. 그들의 촬영. 등.

힘든 순간에 이런 모든 요소를 ​​가지고 공을 유지할지, 아니면 당신에게 패스할지 결정해야 합니다.

이 시나리오에서 시계가 매우 중요하다는 것을 예리하게 깨달으십시오. 당신과 나는 둘 다 매우 시기적절한 대응에 직면해 있습니다. 이제 전체 게임이 진행 중입니다. 시간이 다 되면 우리 중 한 명이 슛을 해서 이겼거나, 우리가 골을 넣지 않아 졌습니다. 바구니를 가라앉히면 내가 영웅이 될 수도 있다. 아니면 내가 당신에게 공을 전달하고 당신이 그것을 가라 앉히는 경우 영웅이 될 수 있습니다.

이것의 염소 측면이나 단점도 있습니다. 내가 공을 유지하고 슛을 놓치면 모두가 나를 염소라고 비난하거나 전체 팀을 실망시킬 수 있습니다. 반면에 내가 공을 당신에게 패스하고 당신이 슛을 놓치면 글쎄, 당신은 염소가됩니다. 내가 당신을 마지막 슈터가되고 마지막 샷을 찍도록 강요했다는 점에서 이것은 당신에게 완전히 불공평 할 수 있습니다.

내가 당신을 그런 형편없는 위치에 두었다는 것을 당신은 확실히 알 것입니다. 그리고 모든 사람들이 내가 이 일을 하는 것을 볼 수 있었지만, 그들은 공을 가졌던 마지막 사람에게만 집중할 수밖에 없었습니다. 나는 아마도 무료로 스케이트를 탈 것이다. 내가 마지막 순간에 당신에게 공을 넘긴 것을 아무도 기억하지 못할 것입니다. 그들은 당신이 공을 가지고 있고 당신이 슛을 하지 않았기 때문에 게임에서 졌다는 것만 기억할 것입니다.

알겠습니다. 그래서 공을 당신에게 넘깁니다.

내가 왜 그랬지?

이것을 쉽게 결정할 수 있는 방법은 없습니다.

내 진짜 의도는 내가 염소가 되고 싶지 않아서 당신에게 모든 압력을 가하기로 결정한 것일 수도 있습니다. 내가 공을 패스한 이유를 물었을 때, 나는 당신이 나보다 더 나은 슈터라고 생각했기 때문에 그렇게 했다고 주장할 수 있었습니다(그러나 나는 그것을 전혀 믿지 않는 척합시다). 또는 당신이 나보다 더 나은 위치에 있다고 생각했습니다(나도 그렇게 생각하지 않는다고 가정합시다). 내가 실제로 뜨거운 감자에 갇히지 않으려고 노력하고 있었다는 것을 아무도 모를 것입니다.

사물의 외부적인 관점에서 볼 때, 아무도 당신에게 공을 전달하는 나의 진정한 근거를 쉽게 식별할 수 없었습니다. 당신이 더 나은 선수라고 믿었기 때문에 내가 순진하게 그렇게 한 것일 수도 있습니다. 한 각도입니다. 아마도 모든 사람들이 나를 패자라고 부르는 것을 원하지 않았기 때문에 그렇게 한 것일 수 있습니다. 그래서 당신에게 공을 받았고 그것이 나에게 큰 위안이 될 것이라고 생각했습니다. 내가 진정으로 당신을 걱정했는지 여부는 완전히 다른 문제입니다.

이제 AI 관련 핫 포테이토에 몇 가지 세부 정보를 추가할 수 있습니다.

  • AI는 마지막 순간에 루프에 있는 인간에게 제어권을 주기로 선택합니다.
  • 마지막 순간은 이미 인간이 할 수 있는 행동을 훨씬 뛰어넘는 것일 수 있습니다.
  • Human-in-loop가 제어하지만 핸드오버 타이밍으로 인해 다소 잘못되었습니다.

잠시 생각해 보세요.

AI 시스템과 Human-in-the-loop가 공장에서 대규모 기계를 실행하는 것과 관련된 실시간 작업에서 함께 작업한다고 가정합니다. AI는 기계가 엉망이 되고 있음을 감지합니다. AI가 계속해서 제어권을 유지하는 대신, AI는 갑자기 인간에게 제어권을 넘겨줍니다. 이 공장의 기계는 순수한 혼란을 향해 빠르게 가고 있으며 인간이 시정 조치를 취할 시간이 없습니다.

AI는 인간이 더 이상 감당할 수 없는 상황이 되도록 뜨거운 감자를 인간-인-더-루프에게 넘겨주고 진정한 뜨거운 감자로 인간을 막았습니다. Tag, you are it은 어렸을 때 태그 게임을 할 때 오래된 라인을 따릅니다. 인간은 엉망으로 태그가 붙어 있다고 말할 수 있습니다.

농구 경기에 대한 나의 예처럼.

AI는 왜 핸드오버를 했을까요?

글쎄, 인간이 갑자기 농구공을 건네준 다음 왜 그렇게 했는지에 대해 거칠게 손을 흔들 때와 달리, 우리는 일반적으로 AI 프로그래밍을 조사하고 AI가 이런 종류의 핫 포테이토 핸드오버를 하게 한 원인을 알아낼 수 있습니다.

AI 개발자는 AI가 정말 심각한 곤경에 빠졌을 때 AI가 계속해서 루프에 있는 인간에게 제어권을 넘겨야 한다고 미리 결정했을 수 있습니다. 이것은 완벽하게 합리적이고 합리적으로 보입니다. 인간은 필드에서 "더 나은 선수"일 수 있습니다. 인간은 자신의 인지 능력을 사용하여 당면한 문제를 잠재적으로 해결할 수 있습니다. AI는 프로그래밍의 한계에 도달했을 가능성이 있으며 상황에서 할 수 있는 건설적인 것은 없습니다.

기계가 kablam되기 전에 AI가 인계를 완료했다면 아마도 300분의 헤드업은 루프에 있는 인간이 상황을 수정할 수 있을 만큼 충분히 길 것입니다. AI가 XNUMX초 남았을 때 핸드오버를 수행했다고 가정합니다. 그 시간 안에 인간이 반응할 수 있다고 생각하십니까? 할 것 같지 않은. 어쨌든 상황을 덜 혼란스럽게 하기 위해 몇 나노초(나노초는 XNUMX억 분의 XNUMX초, 이에 비해 빠른 깜박임 눈은 느린 XNUMX밀리초 길이임).

AI가 명백한 조치를 취하기 위해 남은 시간이 겨우 몇 초밖에 남지 않은 상태에서 뜨거운 감자를 건네준 경우 루프에 있는 인간이 충분히 반응할 수 있을까요?

그렇지 않습니다.

핸드오프는 그렇지 않은 것처럼 보일 수 있는 것보다 더 많은 거짓입니다.

현실에서, 핸드오프는 심각한 곤경에 처했을 때 아무 소용이 없을 것입니다. AI는 인간을 꼬집어 염소가 되도록 만들었다.

일부 AI 개발자는 AI를 고안할 때 이에 대해 생각하지 않습니다. 그들은 (잘못) 다행스럽게도 시간이 중요한 요소라는 것을 고려하지 않습니다. 그들이 하는 일은 상황이 어려워지면 핸드오버를 프로그래밍하는 것뿐입니다. AI가 건설적으로 할 일이 남아 있지 않으면 인간 플레이어에게 공을 던지십시오.

AI 개발자는 AI를 코딩할 때 이에 대해 진지하게 생각하지 않을 수 있으며, 그 후 이를 밝히는 테스트를 수행하지 않아 이중 실패하는 경우가 많습니다. 그들의 테스트가 보여주는 모든 것은 AI가 AI의 한계에 도달했을 때 AI가 "의무"로 핸드오프를 수행했다는 것입니다. 짜잔, AI는 훌륭하고 사용할 준비가 된 것으로 추정됩니다. 테스트에는 그 부럽고 불가능한 위치에 놓인 실제 인간은 포함되지 않았습니다. 마지막 순간에 또는 실제로 마지막 순간을 넘어선 눈 깜박임이 거의 또는 전혀 도움이 되지 않았다고 항의할 수 있는 적절한 루프 내 테스트 프로세스가 없었습니다.

물론 일부 AI 개발자는 이러한 유형의 곤경을 현명하게 고려했을 것입니다.

수수께끼에 대해 숙고한 후 그들은 어쨌든 AI가 이런 식으로 행동하도록 프로그래밍할 것입니다.

이유는 무엇입니까?

적어도 그들의 마음에는 다른 할 일이 없기 때문입니다. 다른 모든 것이 실패하면 인간에게 통제권을 넘겨주십시오. 아마도 기적이 일어날 것입니다. 그러나 요점은 이것이 AI 개발자에게 관심이 없으며 인간에게 당면한 혼란에 대처할 마지막 기회를 제공한다는 것입니다. AI 개발자는 그 이후에 무슨 일이 일어나든 손을 씻습니다.

AI 개발자가 이러한 핫 포테이토 디자인의 유일한 고안자가 아니라는 점을 분명히 하고 싶습니다. 이를 위해 테이블에 오는 많은 다른 이해 관계자가 있습니다. 사양 및 요구 사항 분석을 수행한 시스템 분석가는 이것이 AI가 해야 할 일이라고 말했습니다. 관련된 AI 개발자는 그에 따라 AI를 제작했습니다. AI 프로젝트 관리자가 이것을 고안했을 수 있습니다. AI 개발을 감독하는 경영진과 경영진이 이것을 고안했을 수도 있습니다.

AI 개발 수명 주기 전체에 걸쳐 모든 사람이 동일한 디자인의 핫 포테이토를 수행했을 수 있습니다. 누군가 눈치챘는지 여부는 확실하게 말할 수 없습니다. 그들이 알아차렸다면, 그들은 반대론자로 분류되어 제쳐 놓았을 것입니다. 다른 사람들은 그 문제에 주의를 기울였을지 모르지만 그 결과를 이해하지 못했습니다. 그들은 자신의 범위에 속하지 않는 기술적인 세부 사항이라고 생각했습니다.

나는 이 비공식적인 "이유" 목록에 훨씬 더 사악한 가능성을 추가할 것입니다.

AI 핫 포테이토 신드롬은 때때로 AI를 만드는 사람들이 그럴듯한 부인 가능성에 대한 열정적인 주장을 하기를 원했기 때문에 의도적으로 사용되었습니다.

이야기의 이 부분을 준비하십시오.

엉망이 된 공장 기계의 경우 일어난 일에 대해 누가 책임이 있는지에 대해 많은 손가락질을 할 수밖에 없습니다. 기계를 작동하는 면에서 우리는 AI 시스템이 있었고 그렇게 하는 인간-인-루프(human-in-loop)가 있었습니다. 이것은 비유적으로 우리의 두 농구 선수입니다.

시계는 흐르고 있었고 기계는 카붐을 일으키기 직전이었습니다. 당신과 내가 AI가 인간-인-루프(human-in-loop)에게 인계를 했다는 것을 알고 있다고 가정해 봅시다. 인간이 재난을 수정하거나 피하기 위해 충분한 조치를 취하기에 충분한 시간이 남지 않았습니다. 다른 누구도 이것이 일어난 일이라는 것을 깨닫지 못합니다.

AI를 만드는 회사는 어떤 경우에도 즉시 인간이 통제했기 때문에 자신의 잘못이 아니라고 선언할 수 있습니다. 그들의 흠잡을 데 없는 기록에 따르면, AI는 카붐 시대에 통제할 수 없었습니다. 인간이었다. 그러므로 인간에게 잘못이 있다는 것은 명백히 명백합니다.

AI 회사가 이런 솔직한 주장을 할 때 기본적으로 거짓말을 하는 것일까요?

아니, 진실을 말하고 있는 것 같다.

AI가 통제하고 있지 않다고 확신하느냐는 질문에 회사는 AI가 전혀 통제하고 있지 않다고 큰 소리로 자랑스럽게 선언할 것입니다. 그들은 이 주장에 대한 증거를 문서화했습니다(AI가 사건 기록을 보관했다고 가정). 사실, AI 회사 임원들은 누구든지 이 점에서 자신의 청렴성에 도전하는 것에 혐오감에 눈썹을 치켜 올릴 수 있습니다. 그들은 AI가 지원 통제중. 인간-인-루프가 통제권을 가졌습니다.

이것이 얼마나 오해의 소지가 있는지 보셨으리라 믿습니다.

예, 인간이 통제권을 넘겨받았습니다. 이론상으로는 인간이 지배하고 있었다. AI는 더 이상 통제할 수 없었습니다. 그러나 사용 가능한 타이밍과 알림이 부족하기 때문에 이것은 매우 공허한 주장이 됩니다.

AI 제작자의 관점에서 볼 때 이것의 장점은 제안된 주장에 이의를 제기할 수 있는 사람이 거의 없다는 것입니다. AI 메이커는 사건의 로그를 공개하지 않을 수 있습니다. 그렇게 하면 조작된 상황을 벗어날 수 있습니다. 로그는 지적 재산권(IP) 또는 기타 독점 및 기밀 성격의 것으로 주장됩니다. 회사는 로그가 표시되면 AI의 비밀 소스가 표시되고 소중한 IP가 고갈될 것이라고 주장할 것입니다.

가난한 인간-인-루프의 곤경을 상상해 보십시오. 그들은 모든 사람들이 일이 손에 잡히지 않게 내버려 둔 것에 대해 자신을 비난하고 있다는 사실에 당황합니다. AI는 "올바른 일을 했고" 인간에게 통제권을 넘겼습니다. 이것은 사양이 말한 대로일 수 있습니다(다시 말하지만 사양은 타이밍 및 실행 가능성 요소를 고려하지 않은 태만이었습니다). 공개되지 않았지만 AI 제작자가 철갑이라고 주장하는 로그는 인간이 AI에 의해 제어되었다는 절대적인 사실을 증명합니다.

당신은 이것을 거의 확실히 넘어질 것 같은 당황한 인간에 대한 불쌍한 슬램덩크라고 선언할 수 있습니다.

이 일이 법원에 가야만 사건의 진실이 밝혀질 가능성이 있습니다. 슬기로운 합법적인 비글들이 이런 종류의 공연을 알고 있다면 합법적으로 통나무를 얻으려고 할 것입니다. 그들은 로그를 해독하기 위해 전문가 증인(내가 때때로 했던 일)을 얻어야 할 것입니다. 로그만으로는 충분하지 않을 수 있습니다. 로그는 조작되거나 변경되거나 세부 사항을 명확하게 표시하지 않도록 의도적으로 고안될 수 있습니다. 따라서 AI 코드도 깊이 파고들 필요가 있습니다.

한편, 이 힘들고 긴 법적 증거 자료 제출 과정 전체에서 Human-in-Loop는 정말 나빠 보일 것입니다. 언론은 그 사람을 무책임하고, 머리를 잃었고, 부지런하지 못했으며, 완전히 책임을 져야 한다고 묘사할 것입니다. 아마도 몇 달 또는 몇 년 동안, 이 과정에서 그 사람은 여전히 ​​모든 사람이 비난하는 손가락을 가리키는 사람일 것입니다. 악취는 절대 제거되지 않을 수 있습니다.

이와 같은 상황이 다시 쉽게 발생할 수 있음을 명심하십시오. 그리고 다시. AI 제작자가 AI를 변경하지 않았다고 가정하면 비슷한 막바지 상황이 발생할 때마다 AI는 시간이 남지 않는 핸드오프를 수행할 것입니다. 이러한 상황이 자주 발생하지 않기를 바랍니다. 드물게 발생하지만 루프에 있는 인간은 여전히 ​​편리한 가을 녀석입니다.

마귀의 속임수입니다.

AI 제작자가 아무 잘못도 하지 않았다고 주장하고 싶을 수도 있습니다. 그들은 진실을 말하고 있습니다. AI는 제어를 포기했습니다. 그런 다음 인간이 통제하는 것으로 간주되었습니다. 그것이 사실입니다. 이의를 제기하는 것은 의미가 없습니다.

현명하고 어려운 질문을 하는 사람이 있는지, 그리고 AI 제작자가 이러한 질문에 직관적으로 답하는지 여부는 거의 발생하지 않는 것 같습니다.

질문은 다음과 같습니다.

  • AI는 언제 HIL(human-in-the-loop)에게 핸드오버를 수행했습니까?
  • AI는 어떤 프로그래밍된 기반으로 핸드오버를 수행했습니까?
  • HIL(Human-in-Loop)에게 제어권을 인수할 충분한 시간이 주어졌습니까?
  • 이러한 난제를 해결하기 위해 AI는 어떻게 설계되고 고안되었습니까?
  • 등등.

그것이 어느 정도 AI 윤리와 윤리적 AI가 중요한 주제인 이유입니다. AI 윤리의 교훈은 우리가 경계를 늦추지 않게 합니다. AI 기술자는 때때로 기술, 특히 하이테크 최적화에 몰두할 수 있습니다. 그들은 더 큰 사회적 파급효과를 반드시 고려하고 있지는 않습니다. AI 윤리 사고방식을 갖고 AI 개발 및 현장에 통합적으로 그렇게 하는 것은 AI 윤리가 기업에 어떻게 채택되는지에 대한 평가를 포함하여(놀랍거나 아이러니하게도) 적절한 AI를 생산하는 데 필수적입니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 실제로, 그들은 우리가 이러한 AI 법률 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 AI의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이 중요한 토론의 이 시점에서 이 주제를 보여줄 수 있는 몇 가지 추가 예시를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적 및 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행 자동차의 출현입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 출현은 AI 핫 포테이토 증후군에 대해 무엇인가를 밝히고, 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 핫포테이토 신드롬

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

완전 자율 주행 차량의 경우 AI와 인간 사이에 핸드오프가 발생할 가능성이 없을 수도 있습니다. 처음부터 인간-인-더-루프(human-in-the-loop)가 없을 가능성이 있기 때문입니다. 오늘날 많은 자율 주행 자동차 제조업체의 열망은 운전 작업에서 인간 운전자를 완전히 제거하는 것입니다. 차량에는 사람이 접근할 수 있는 운전 제어 장치도 포함되어 있지 않습니다. 이 경우 인간 운전자는 운전 제어 장치에 접근할 수 없기 때문에 운전 작업에 참여할 수 없습니다.

일부 완전 자율 차량의 경우 일부 설계에서는 여전히 인간이 루프에 있을 수 있도록 허용하지만 인간이 운전 프로세스에 참여하거나 참여할 필요가 전혀 없습니다. 따라서 사람이 원하면 운전에 참여할 수 있습니다. 그러나 AI는 운전 작업을 수행하기 위해 인간에게 의존하지 않습니다.

반자율주행 차량의 경우 인간 운전자와 AI 사이에는 밀접한 관계가 있습니다. 일부 설계의 경우 인간 운전자가 운전 제어를 완전히 인수할 수 있으며 본질적으로 AI가 운전에 참여하는 것을 막을 수 있습니다. 인간 운전자가 AI를 운전 역할로 되돌리고자 한다면 그렇게 할 수 있지만 때로는 인간이 운전 제어를 포기해야 합니다.

반자율적 운영의 또 다른 형태는 인간 운전자와 AI가 팀을 이루어 함께 작동하는 것입니다. AI가 운전하고 사람이 운전합니다. 그들은 함께 운전하고 있습니다. AI는 인간에게 맡길 수 있습니다. 인간은 AI를 따를 수 있습니다.

어떤 시점에서 AI 운전 시스템은 자율주행차가 견딜 수 없는 상황에 처해 있고 자율주행차가 충돌할 것임을 계산적으로 확인할 수 있습니다.

제쳐두고, 일부 전문가들은 자율 주행 자동차가 충돌할 수 없다고 주장하고 있습니다. 여기 링크.

충돌이나 자동차 충돌로 향하는 자율 주행 자동차의 시나리오를 계속하면 AI 주행 시스템은 운전 제어를 인간 운전자에게 요약적으로 넘겨주도록 프로그래밍될 수 있습니다. 인간 운전자가 회피 조치를 취할 수 있는 충분한 시간이 있다면 이는 실제로 AI가 수행하는 합리적이고 적절한 일이 될 수 있습니다.

그러나 AI가 찰나의 순간을 남기고 핸드오버를 수행한다고 가정합니다. 인간 운전자의 반응 시간은 적절하게 반응할 만큼 빠르지 않습니다. 게다가, 기적적으로 인간이 충분히 빨랐다면, 충돌까지 남은 제한된 시간 동안 수행할 수 있는 실행 가능한 회피 조치가 없을 가능성이 있습니다. 이것은 두 가지입니다: (1) 인간 운전자가 조치를 취하기에 불충분한 시간, (2) 인간 운전자에 의해 조치가 가능하다면 제공된 시간 내에 조치를 수행할 수 있는 불충분한 시간.

대체로 이것은 농구 부저 상황과 광포한 시나리오가 된 공장 기계에 대한 나의 이전 논의와 유사합니다.

여기에 사악한 성분을 추가합시다.

자동차 제조업체 또는 자율 주행 기술 회사는 자신의 차량에서 발생한 다양한 자동차 충돌로 인해 꼬리표가 붙는 것을 원하지 않습니다. AI 운전 시스템은 인간 운전자가 곤경에 대해 조치를 취할 수 있는 충분한 시간이 있는지 여부에 관계없이 항상 인간 운전자에게 제어권을 넘겨주도록 프로그래밍되어 있습니다. 이런 종류의 자동차 충돌이 발생할 때마다 자동차 제조업체나 자율 주행 기술 회사는 AI가 제어하지 않는 동안 인간 운전자가 제어 장치에 있다고 음성적으로 주장할 수 있습니다.

AI 운전 시스템에 대한 그들의 실적은 훌륭해 보입니다.

AI 운전 시스템이 이러한 자동차 충돌의 "잘못"인 경우는 한 번도 없습니다. 항상 도로에서 눈을 떼지 않는 것처럼 보이는 것은 그 빌어먹을 인간 운전자들입니다. 우리는 이 뻔뻔함을 삼키고 모든 정밀 AI가 결코 틀리지 않을 것이라고 믿는 경향이 있습니다. 우리는 인간 운전자가 실수를 범하고 운전 실수를 많이 한다고 (경험으로 알기 때문에) 믿는 경향이 있습니다. 논리적인 결론은 인간 운전자가 책임을 져야 하고 AI 운전 시스템은 전적으로 결백하다는 것입니다.

일부 자율주행 옹호자들이 이러한 특성화에 대해 화를 내기 전에 인간 운전자가 잘못했을 수 있으며 AI로부터 운전 제어권을 인수하는 것과 같은 더 빠른 조치를 취했어야 한다는 점을 절대적으로 인정해야 합니다. AI가 운전 제어를 넘겼을 때 인간 운전자가 실질적인 일을 했을 가능성도 있습니다. 등.

여기서 초점은 AI가 차량의 운전자로 간주된 다음 갑자기 인간 운전자가 할 수 있는 일에 거의 관심을 두지 않고 인간 운전자에게 뜨거운 감자를 던진 상황에 있었습니다. 그래서 많은 사람들이 반자율주행차의 이중 운전 역할에 대해 우려하고 있습니다. 운전대에 너무 많은 운전자가 있다고 말할 수 있습니다. 목표는 사람이 운전할 필요가 없고 AI가 항상 차량을 운전하는 완전 자율주행 차량으로 문제를 해결하는 것 같습니다.

이것은 AI가 운전할 때 누가 또는 무엇을 책임져야 하는지에 대한 연합된 질문을 불러옵니다. 여기 링크여기 링크.

결론

우리는 반자율주행 차량과 관련된 교통사고에 대해 듣거나 읽을 때 주의해야 합니다. 그들의 AI 운전 시스템이 흠 잡을 데 없는 기록을 가지고 있다고 선언하여 우리를 속이려 하는 사람들을 조심하십시오. 교활한 계략 AI 뜨거운 감자 증후군 혼합에있을 수 있습니다.

이러한 문제를 까다롭게 다루려는 기업의 경우, 아마도 우리는 에이브러햄 링컨의 유명한 말을 마음에 간직할 수 있을 것입니다. 모든 사람들이 항상."

나는 여기에서 화면 뒤에 숨겨진 AI 마술을 공개하려고 노력했으며 때때로 후드 아래에 배치되어 더 많은 사람들이 습관 더 많은 시간을 속이십시오.

출처: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-Employeeed-by-ai-makers- 생명을 결정하는 책임을 회피하려는 것처럼 보이는 자율 시스템/