AI 윤리 및 자율 시스템 교훈 조종사와 부조종사가 이륙하기 전에 동의하지 않았고 갑자기 터미널로 돌아가서 각자의 길을 가기로 결정한 알래스카 항공의 최근 비행에서 얻은 교훈

항공사는 최근 뉴스에 꽤 자주 등장했습니다.

우리는 여름 비행의 위기에 처해 있습니다. 지치고 좌절한 승객들은 온갖 종류의 비행 중단과 항공사 일정 왜곡에 직면하게 됩니다. 항공편이 예기치 않게 취소됩니다. 항공편이 지연됩니다. 승객들이 연기를 뿜습니다. 불행히도 이러한 성가심의 폭발을 허용하는 승객의 사례가 많이 있었고 우리는 정면 대결과 때로는 주먹질을 하는 바이러스성 비디오를 너무 많이 보았습니다.

조종석에 있는 동안 발생할 수 있는 조종사와 부조종사 사이의 분쟁에 대해 더 드물게 알게 됩니다.

그것은 꽤 놀라운 일입니다.

실제로 우리는 조종사와 부조종사가 비행의 어느 단계에서든 심각한 불일치를 보일 것이라고 생각하면 자연스럽게 당황합니다. 의견 불일치가 어떤 브랜드의 커피가 가장 좋은지에 관한 것이라면 이것이 비행기 비행을 수반하는 작업에 방해가 되지 않을 것이라고 가정합니다. 두 사람은 겉보기에 비행과 관련이 없어 보이는 주제에 대해 눈을 마주치지 않았다는 점을 간단히 무시했습니다. 그들의 전문적인 태도와 오랜 조종사 훈련이 시작되어 비행 세부 사항에 다시 초점을 맞출 것입니다.

그러나 다음을 고려하십시오. 직업적 불일치 개입.

최근 미국에서 비행 중 조종석에서 제기된 전문가적 의견 불일치와 관련하여 발생한 사건에 대해 널리 게시된 뉴스 기사를 간략하게 공유해 드리겠습니다.

이것은 인공 지능(AI)의 도래에 매우 중요한 관련 주제를 탐색할 수 있도록 여기에 주로 인용되었습니다. 알다시피, 인간 대 인간의 불일치에서 인간 사이에 직업적 불일치의 형태가 있을 수 있지만 AI의 채택과 그 결과 인간 대 AI 직업적 불일치로 인해 유사한 일이 발생할 수도 있습니다. . 모든 종류의 AI 윤리 고려 사항이 발생합니다. AI 윤리 및 윤리적 AI 문제에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크여기 링크, 그냥 몇 이름을 지정합니다.

흥미진진한 이야기를 준비하세요.

최근 뉴스에서 보도된 바와 같이 워싱턴에서 샌프란시스코로 향하던 알래스카항공 여객기에서 '전문적인 의견 충돌' 사건이 발생한 것으로 보인다. 뉴스 보도에 따르면 비행기는 게이트에서 멀어져 활주로에서 택시와 비행 허가를 기다리고 있었다. 폭풍이 진행 중이었고 비행이 XNUMX시간 XNUMX분 이상 지연되었습니다. 비행기는 결국 방향을 돌려 게이트로 향했고, 일부 승객은 일반적으로 폭풍 관련 안전 예방 조치라고 생각했을 것입니다.

다양한 트윗에 따르면 조종사와 부조종사는 조종석에서 시간을 보내는 동안 일종의 시야 밖의 불화를 겪었고 어떻게 든 가장 신중한 접근 방식은 비행을 정리하고 터미널로 돌아가는 것이라는 결론에 도달한 것으로 보입니다. . 트윗은 기장과 부기장이 분명히 서로 사이가 좋지 않다고 제안했습니다. 항공사는 나중에 상황이 불행하다고 성명서를 발표했으며(상황 자체가 명시적으로 언급되거나 설명되지 않음), 두 명의 조종사가 경영진에 의해 평가되어 비행하기에 적합한 것으로 간주되었으며, 승무원이 교체되었으며 비행이 종료되었습니다. 그리고 나중에 샌프란시스코에 도착했습니다.

어떤 의미에서 실제로 조종사와 부조종사가 비행기가 이륙할 준비가 되었는지 또는 폭풍우를 뚫고 날아갈 위험이 적절한 안전 범위 내에 있는지 여부와 같은 전문적인 의견 차이가 있었다면 그 승객들은 안도해야 하고 비행기가 게이트로 돌아온 것에 감사합니다. 미안한 것보다 안전한 것이 낫다. 추가 지연을 갖는 것은 험난하거나 불리한 비행 여정과 관련된 위험을 예상되는 감소만큼 가치가 있습니다.

어떤 사람들은 그러한 전문적인 불일치가 발생할 수 있다는 사실에 놀랄 수 있습니다.

조종석에서 일어나는 모든 일이 완전히 정확하고 잘 짜여져 있다는 잘못된 인상을 가질 수 있습니다. 모든 형태의 인간 재량권이 그 과정에서 제외된 것 같습니다. 정확하고 철저하게 계산된 차트를 바탕으로 비행은 계속해도 되고 안 해도 됩니다. 전체 키트와 카푸들이 사실과 수치의 반박할 수 없는 미적분학을 기반으로 한다고 생각되면 이견이 있을 수 없습니다.

그것은 문제의 완전한 진실이 아닙니다. 물론 수많은 프로토콜과 모든 종류의 견제와 균형이 있지만 이것이 인간의 판단력을 모두 짜내는 것은 아닙니다. 조종사와 부조종사는 여전히 인간의 판단력을 행사합니다. 다행스럽게도 이 인간의 판단은 수년 간의 비행을 통해 연마되었습니다. 상용 여객기의 조종사와 부조종사는 비행 경험이 풍부하고 비행 통제와 관련된 수년간의 심층 추론과 판단을 쉽게 활용할 수 있습니다.

인간 판단의 주목할만한 역할을 감안할 때 우리는 조종사와 부조종사가 때때로 전문적인 의견 불일치를 가질 것이라고 논리적으로 예상할 수 있습니다. 대부분의 경우 그러한 불일치가 거의 없을 것입니다. 매일 비행하는 조종사와 부조종사는 시대의 우세를 잘 조율할 가능성이 높습니다. 비행 시나리오가 기존 경계를 벗어날 수 있는 경우에만 긴장 마찰이 발생할 것으로 예상합니다.

둘 사이에 큰 의견 차이가 있다면, 감히 그들이 그것을 해명하기를 원한다고 말하고 싶습니다.

조종사가 맹렬히 진행하기를 원하지만 부조종사는 위험이 너무 높다고 인식하는 상황을 상상해 보십시오. 부조종사가 조종사에게 고개를 숙이는 것만으로는 바람직하지 않은 것처럼 보일 것입니다. 부조종사는 조종사가 무엇을 하려고 생각하는지에 대한 견제와 균형입니다. 부조종사가 입을 다물고 조종사가 명령한 대로 아무 생각 없이 행동하기를 원하는 사람들에게는 글쎄, 그것은 별로 안심할 수 없습니다. 부조종사는 단순히 조종사가 완전히 무력화되었을 때만 등장하는 예비 "조종사"가 아닙니다. 그것은 조종석에 조종사와 부조종사를 두는 것의 가치에 대한 잘못된 이해입니다.

여기에는 다른 각도가 있습니다.

비행이 진행되어야 한다고 생각하지 않는 조종사의 경우를 생각해 보십시오. 한편 부기장은 공중에 뜨는 것에 대해 의아해합니다. 그럼? 예상되는 계층 구조에 따라 조종사는 일반적으로 부조종사보다 우선합니다. XNUMX차 책임자가 되는 지정된 역할은 조종사를 다른 어떤 것과 동등하게 만드는 것보다 더 크게 만듭니다. 일반적으로 조종사는 부조종사보다 전반적인 비행 시간을 더 많이 가지고 있으며 따라서 부조종사는 계층적으로 조종사의 희망에 따라야 합니다(합리적인 경우).

어쨌든, 나는 우리 모두가 비행하지 않기로 결정하는 것이 비행하기로 결정하는 것보다 덜 위험한 선택이라는 데 동의할 수 있다고 생각합니다. 비행기가 공중에 뜨면 일반적인 안정적인 지상에 있는 것과 비교할 때 위험 수준이 엄청납니다. 비행기를 타지 않고 터미널로 택시를 타고 돌아가는 관습적인 상업 비행은 비행에 대한 열띤 신랄한 논쟁에 대해 꽤 우호적인 해결책이 될 것입니다.

기어를 변경하고 이 멋진 뉴스 항목을 완전히 다르지만 관련성 있는 목적으로 사용합시다.

우리는 점차 AI 기반 자율 시스템을 보급하고 있습니다. 때로는 AI가 그대로 쇼를 진행합니다. AI는 A부터 Z까지 모든 작업을 수행하며 이를 완전히 자율적이거나 거의 유사한 AI로 해석할 수 있습니다. 다른 경우에 우리는 AI와 상호 작용하고 어느 정도는 인간 루프에 의존하도록 프로그래밍될 수 있습니다.

저는 처음부터 루프에 인간이 있는 AI 기반 자율 또는 반자율 시스템의 문제에 집중하고 싶습니다. AI와 인간은 의도적으로 함께 추진되고 서로 협력해야 합니다. 그들은 당면한 특정 작업을 수행하는 집단입니다. AI 단독으로 작업을 수행해서는 안 됩니다. AI는 지정된 Human-in-loop와 상호 작용해야 합니다.

나는 인간-인-더-루프(human-in-the-loop)가 선택적 측면으로 간주되는 상황과 구별하기 위해 이 특성화를 제기합니다. 본질적으로 AI는 자유로운 고삐를 받습니다. AI가 인간을 이용하기로 결정했다면 그렇게 해야 합니다. AI가 지정된 인간과 기지를 접촉하거나 협력해야 한다는 요구 사항은 없습니다. 내가 관련시키려는 분석은 확실히 그런 종류의 것과 관련이 있다. 선택 상호 작용 배열, 그러나 내가 이 특정 토론에서 구체적으로 추진하는 것은 아닙니다.

좋습니다. 그래서 우리는 인간과 AI가 서로 불가분의 관계로 함께 일하게 될 어떤 종류의 작업을 가지고 있습니다. 추상적인 의미에서 우리는 한 좌석에 사람이 앉아 있고 다른 좌석에는 AI 시스템이 앉아 있습니다. 예를 들어 실제로 좌석에 앉아 있을 수 있는 로봇에 대해 이 토론을 제한하지 않기 때문에 내가 건방진 말을 하는 것입니다. 나는 AI가 어딘가에 작업에 참여하고 있고 인간도 마찬가지라는 개념을 은유적으로 암시하고 있습니다. 물리적으로 그들의 소재는 토론에서 특별히 중요하지 않습니다.

그러한 상황이 언제 발생할지 확신할 수 없을 수도 있습니다.

쉬워요.

나중에 자율주행차와 자율주행차의 도래에 대해 이야기하겠습니다. 특정 수준의 자율성에서 AI와 인간은 함께 일해야 합니다. AI는 자동차를 운전하고 인간이 운전 제어를 인계받을 것을 요청할 수 있습니다. 사람이 차를 운전하고 AI를 활성화하여 제어를 인계받을 수 있습니다. 그들은 운전 통제에서 교대로 돌아가고 있습니다.

또한 일부 디자인에서는 AI가 항상 준비되어 있도록 AI가 항상(또는 꺼지지 않는 한) 본질적으로 활성화되도록 합니다. 또한, 전개되는 상황에 따라 사람이 묻지 않아도 AI가 직접 개입할 수도 있다. 예를 들어 인간이 바퀴 위에서 잠든 것처럼 보인다고 가정해 봅시다. 인간은 (사람이 자고 있기 때문에) AI를 활성화할 수 없는 것처럼 보이기 때문에 AI가 인간의 제어를 인계하도록 프로그래밍될 수 있습니다.

일부 디자인은 AI와 인간을 이중 운전 방식으로 가져옵니다. AI가 운전하고 사람이 운전합니다. 또는 원하는 경우 사람이 운전하고 AI도 운전합니다. 그들은 각각 차량을 운전하고 있습니다. 나는 이것을 운전 훈련을 받을 때 사용했던 특수 장비 차량에 비유합니다. 차량에는 학생 운전자용과 운전 강사용으로 두 세트의 운전 제어 장치가 있습니다.

이는 AI와 인간이 공동으로 작업을 수행할 수 있는 환경의 한 예일 뿐입니다. 모든 가능성이 존재합니다. 비행기, 무인 항공기, 잠수정, 수상 선박, 기차 등과 같은 다른 종류의 자율 차량도 유사하게 고안될 수 있습니다. 차량 및 교통 환경만 고려할 필요는 없습니다. 의사와 AI 시스템이 공동으로 수행하는 의료 영역 및 수술을 상상해보십시오. 목록은 끝이 없습니다.

인간과 AI가 함께 술집에 들어가는 것에 대한 고전적으로 떠들썩한 농담을 언급하는 것 같은 느낌이 듭니다. AI를 접하는 사람들에게는 꽤 큰 웃음거리입니다.

진지하게, 주어진 작업에서 함께 일하는 인간과 AI 시스템의 초점으로 돌아가자. 첫째, 저는 AI를 의인화하는 것을 피하고 싶습니다. 이는 제가 전체에서 강조할 것입니다. AI는 지각이 없습니다. 그 점을 염두에 두시기 바랍니다.

숙고해야 할 사항은 다음과 같습니다. 지정된 Human-in-the-loop가 항상 공동 팀 AI와 완전히 일치합니까?

복잡한 작업의 경우 인간과 AI가 완전히 그리고 항상 완전히 일치할 것 같지는 않습니다. 인간은 때때로 AI에 동의하지 않을 수 있습니다. 우리는 그 가정을 은행까지 가져갈 수 있습니다.

이 놀라운 가능성도 고려해 보시기 바랍니다. AI는 지정된 HIL과 항상 완전히 일치합니까?

다시 말하지만, 복잡한 작업의 경우 AI가 어떤 경우에는 인간과 동의하지 않을 것이라는 사실을 충분히 생각할 수 있을 것입니다. AI는 항상 틀려야 하고 인간은 항상 옳아야 한다는 생각으로 이미 기울고 있다면 성급한 결론을 재고하는 것이 현명할 것입니다. 인간과 AI가 함께 반자율주행 자동차를 운전하는 자동차를 상상해보세요. 인간은 벽돌 벽을 향해 조종합니다. 왜요? 우리는 인간이 술에 취했거나 잠이 들었을지 모르지만 벽돌 벽에 부딪히는 것은 좋은 생각이 아니며 다른 모든 것이 평등하다는 것을 압니다. AI는 다가오는 재앙을 감지하고 임박한 장벽에서 벗어나려고 할 수 있습니다.

모두 말해서, 우리는 AI와 인간이 서로 동의하지 않을 뚜렷한 가능성을 갖게 될 것입니다. 같은 말을 하는 다른 방법은 인간과 AI가 서로 의견이 맞지 않습니다. 나는 AI와 인간 대 인간과 AI의 순서가 불일치의 방향이나 가능성에 대해 암시하는 것을 원하지 않습니다.

인간과 AI라는 두 노동자는 서로 의견이 엇갈리고 있다.

우리는 주어진 AI와 주어진 인간 사이에 불일치가 발생할 때마다 사전에 인간이 AI보다 우선한다고 선언할 수 있습니다. 즉, 벽돌 벽으로 향하고 있는 자동차에 대한 나의 예시는 인간이 항상 반드시 옳을 것이라는 사실을 단념시키는 것처럼 보일 것입니다.

대조적으로 우리는 불일치가 발생할 때마다 AI가 옳고 인간이 그르다는 것을 사전에 확립할 것이라고 사전에 선언할 수 있습니다. 이것은 합리적으로 일반화할 수 있는 조항도 아닙니다. AI에 소프트웨어 오류나 버그가 내장되어 있고 AI가 차량을 도로에서 벗어나 도랑으로 몰고 가는 자동차를 상상해 보십시오. 다른 모든 것이 평등하다고 가정하면 인간은 이 AI 운전 행동을 극복하고 차량이 협곡에 착륙하는 것을 방지할 수 있어야 합니다.

이에 대해 간단히 요약해 보겠습니다.

  • 인간-인-루프(human-in-loop)는 항상 AI와 완전히 일치할까요? 답변 : 그렇지 않습니다.
  • AI는 항상 인간-인-더-루프(human-in-the-loop)와 완전히 일치할까요? 답변 : 아니.
  • 인간-인-루프(human-in-loop)가 AI와 비교했을 때 항상 옳을까요? 답변 : 꼭 그런 것은 아닙니다.
  • AI가 인간-인-더-루프와 비교했을 때 항상 옳을까요? 답변: 반드시 그렇지는 않습니다..

AI가 기본적으로 "잘못된" 또는 약한 당사자로 간주되도록 확실히 설정할 수 있으므로 불일치가 나타날 때마다 항상 인간에게 맡길 수 있습니다. 마찬가지로 사람이 AI에 동의하지 않을 때마다 AI가 "올바른" 것으로 간주되도록 AI를 설정할 수 있습니다. 우리가 원한다면 프로그래밍 방식으로 그렇게 할 수 있다는 점을 분명히 하고 싶습니다. 나는 일반적으로 이것이 항상 그런 것은 아니라고 주장하지만. 주어진 작업과 관련된 불일치에 대해 어느 한쪽을 선택하는 측면에서 AI가 "옳은"지 또는 인간이 "옳은"지 여부를 미리 알지 못하는 설정이 확실히 있습니다.

나는 당신을 매우 중요하고 매우 복잡한 질문으로 인도했습니다.

Human-in-the-loop와 AI 사이에 전문적인 불일치가 발생할 때 우리는 무엇을 해야 할까요?

질문을 피하려고 하지 마십시오.

어떤 사람들은 이런 일이 절대 일어나지 않을 것이라고 주장할 수도 있지만, 제가 차에 대한 예에서 설명한 것처럼 분명히 일어날 수 있습니다. 어떤 사람들은 인간이 분명히 우월하며 모든 의견 불일치에서 승자가 되어야 한다고 주장할 수 있습니다. 자동차와 벽돌 벽에 대한 나의 예는 그것을 무너뜨립니다. 표면적으로 인간의 감정을 극복하고 무모하게 생각하는 인간의 엉뚱한 생각 때문에 AI가 승자가 되어야 한다고 주장하는 AI 지지자들이 있습니다. 다시 한번, 도랑으로 향하는 자동차를 수반하는 나의 다른 예는 그 주장을 약화시킵니다.

현실 세계에서 AI와 인간은 의도적으로 공동으로 수행되는 작업을 수행하기 위해 팀을 구성하는 상황에 놓이더라도 동의하지 않을 것입니다. 그것은 일어날 것이다. 우리는 모래에 머리를 박고 일어나지 않을 척 할 수 없습니다.

우리는 비행기를 조종하는 인간들이 분명히 의견 불일치에 빠지는 것을 보았습니다. 고맙게도 그들은 동의하지 않기로 동의한 것 같습니다. 그들은 비행기를 터미널로 다시 가져왔다. 그들은 의견 불일치를 처리할 방법을 찾았습니다. 조종석에서 주먹질을 하거나 공중으로 날아가서 계속 전투를 벌이던 것과 비교했을 때, 의견 불일치에 대한 해결은 잘 이루어졌습니다. 참을 수 없는 슬픈 시나리오이고 일어나지 않은 것에 감사할 수 있습니다.

AI와 Human-in-the-loop(또는 Human-in-the-loop 및 AI) 불일치가 해결될 수 있는 다양한 방법의 목록을 제공하겠습니다.

  • AI와 인간이 협력하여 일을 처리합니다(우호적이든 아니든).
  • 인간은 기본적으로 AI보다 우위에 있습니다.
  • AI는 기본적으로 인간을 압도한다
  • 기본적으로 미리 결정된 다른 고정 해상도가 우선합니다.
  • 타사 사람이 루프 인되고 해당 표시가 당사자보다 우선합니다.
  • 타사 AI가 루프 인되고 해당 표시가 당사자보다 우선합니다.
  • 제XNUMX자 인간이 기존 인간을 대체하고 일이 새롭게 진행된다
  • 타사 AI가 기존 AI를 대체하고 상황이 새로워집니다.
  • 제XNUMX자 인간이 기존 AI를 대체하고 상황이 새롭게 진행됩니다(이제 인간 대 인간)
  • 타사 AI가 기존 인간을 대체하고 상황이 새로워집니다(현재 AI-to-AI)
  • 기타

그것들은 포장을 풀 가치가 충분합니다.

AI와 인간의 의견 불일치에 대처하는 방법의 근간이 되는 거칠고 엉성한 고려 사항에 대해 더 자세히 알아보기 전에 근본적으로 필수적인 주제에 대한 몇 가지 추가 기본 사항을 살펴보겠습니다. AI 윤리, 특히 머신 러닝(ML) 및 딥 러닝(DL)의 출현에 대해 간략히 살펴보겠습니다.

요즘 AI 분야와 심지어 AI 분야 밖에서도 가장 크게 들리는 목소리 중 하나가 윤리적 AI의 더 큰 모습을 외치는 것으로 구성되어 있다는 것을 막연하게 인지하고 있을지도 모릅니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴보겠습니다. 그 위에 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 살펴보겠습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

AI와 인간 사이의 불일치에 대한 초점으로 돌아가자.

나는 이전에 다음이 불일치 해결 전략 중 일부임을 지적했습니다.

  • AI와 인간이 협력하여 일을 처리합니다(우호적이든 아니든).
  • 인간은 기본적으로 AI보다 우위에 있습니다.
  • AI는 기본적으로 인간을 압도한다
  • 기본적으로 미리 결정된 다른 고정 해상도가 우선합니다.
  • 타사 사람이 루프 인되고 해당 표시가 당사자보다 우선합니다.
  • 타사 AI가 루프 인되고 해당 표시가 당사자보다 우선합니다.
  • 제XNUMX자 인간이 기존 인간을 대체하고 일이 새롭게 진행된다
  • 타사 AI가 기존 AI를 대체하고 상황이 새로워집니다.
  • 제XNUMX자 인간이 기존 AI를 대체하고 상황이 새롭게 진행됩니다(이제 인간 대 인간)
  • 타사 AI가 기존 인간을 대체하고 상황이 새로워집니다(현재 AI-to-AI)
  • 기타

이것들을 풀 시간입니다.

첫째, 이것이 모든 것에 관한 것임을 고려하십시오. 링크를 의견 불일치.

전문적인 불일치는 업무 관련 작업과 관련된 불일치로 느슨하게 정의됩니다.

예를 들어, 폭풍에 직면한 비행을 계속할지 여부에 대해 조종사와 부조종사 사이에 발생하는 불일치는 합리적으로 전문적 불일치로 분류될 수 있습니다. 대조적으로, 조종사가 옹호하는 커피 브랜드와 부조종사가 선호하는 브랜드에 대한 격렬한 불일치는 이 특정 맥락에서 비전문적 불일치로 쉽게 분류됩니다.

물론 비전문적인 의견 차이가 전문적인 의견 차이로 번지는 경우 궁극적으로 우리는 비전문적인 의견 차이에 관심을 가질 수 있습니다. 조종사와 부조종사가 어떤 브랜드의 커피가 가장 좋은지에 대해 격렬하게 논쟁을 벌이고 나서 유감스럽게도 이륙 여부와 같은 비행 관련 문제(말장난!)로 번졌다고 상상해 보십시오.

둘째, 우리는 직업적 불일치의 크기를 염두에 두어야 합니다.

아마도 조종사와 부조종사 또는 비행 진행에 대해 약간의 의견 차이가 있을 수 있습니다. 그들은 얼간이에 있지 않고 단지 이륙할지 여부에 대한 찬반 양론을 생각하고 있을 뿐입니다. 이것은 우리가 여기에서 관례적으로 고려하는 전문적인 불일치의 정도나 정도가 아닙니다. 문제는 전문적인 의견 차이가 일시적이고 양측이 다정하게 또는 최소한 적시에 해결 방법을 제시할 수 있다는 것입니다. 일반적으로 범위 내에서 전문적인 의견 불일치의 초점은 겉보기에는 다루기 힘든 것으로 보이며, 두 당사자는 의견 불일치에 변함이 없습니다.

셋째, 일반적으로 이러한 지침이 실행되기 위해서는 진지하게 무언가가 준비되어 있어야 합니다.

비행기가 폭풍으로 인해 위험에 처하거나 비행기가 그러한 여행에 대해 완전히 준비되지 않은 것으로 간주되는 경우 비행 여부는 결정적으로 생사를 결정하는 결정입니다. 이것은 심각한 사업입니다. 가치가 있는 것보다 더 귀찮을 수 있지만 영향력이 덜한 전문적 의견 불일치에 지침을 적용할 수 있습니다.

좋습니다. 우리의 고려 사항은 다음과 같습니다.

  • 의견 불일치는 비전문적인 것보다는 주로 전문적인 것입니다.
  • 의견 불일치는 일시적인 것이 아니라 지속적으로 발생하며 쉽게 해결되지 않습니다.
  • 불일치는 심각한 결과를 예고하며 일반적으로 영향력 있는 결과를 가져옵니다.
  • 당사자들은 곤경에 처해 있고 다루기 힘든 것처럼 보입니다.

이제 그러한 직업적 의견 불일치에 대처하는 방법에 관해 내가 제안한 각 지침 또는 접근 방식을 자세히 살펴보겠습니다.

AI와 인간이 협력하여 일을 처리합니다(우호적이든 아니든).

나는 AI와 인간 관계가 그들 사이의 전문적인 불일치를 해결할 수 있다는 직접적인 가능성으로 목록을 시작합니다. 아마도 조종사와 부조종사라는 두 사람의 사례가 이러한 상황을 보여주는 것 같습니다. 어떻게든 터미널로 돌아가 각자의 길을 가기로 했다. AI 시스템과 인간은 일반적으로 양측이 만족하는 해결 방법을 알아낼 수 있고 문제가 만족스럽게 결론지을 수 있습니다.

인간은 기본적으로 AI보다 우위에 있습니다.

AI를 설정할 때 전문적인 의견 불일치가 발생할 때마다 항상 인간-인-루프(human-in-loop)가 우선한다는 규칙을 프로그래밍할 수 있습니다. 이것은 명시적으로 코딩된 기본값입니다. 만일을 대비하여 어떤 형태의 재정의를 허용할 수도 있습니다. 단, 기본 원칙은 인간이 우선한다는 것입니다.

AI는 기본적으로 인간을 압도한다

AI를 설정할 때 전문적인 의견 불일치가 발생할 때마다 AI가 항상 Human-in-loop보다 우선한다는 규칙을 프로그래밍할 수 있습니다. 이것은 명시적으로 코딩된 기본값입니다. AI가 우선한다는 고정 규칙이더라도 만일을 대비하여 어떤 형태의 재정의를 허용할 수도 있습니다.

기본적으로 미리 결정된 다른 고정 해상도가 우선합니다.

AI를 설정할 때, 우리는 인간-인-루프(human-in-loop)와 전문적인 불일치가 발생할 때마다 미리 결정된 다른 고정 해상도가 우선한다는 규칙을 프로그래밍할 수 있습니다. Human-in-loop가 기본적으로 우선하지 않습니다. AI는 기본적으로 우선하지 않습니다. 미리 확인된 다른 해결 방법이 있습니다. 예를 들어, 두 당사자 중 어느 쪽이 올바른 길로 간주되는지 결정하는 데 사용할 동전 던지기가 있을 수 있습니다. 그것은 분명히 다소 임의적으로 보일 것입니다. 따라서 또 다른 예시적인 접근 방식은 두 당사자의 입력을 기반으로 값을 계산하고 결과에 동점자에 도달하는 특수 규칙이 시작되는 것입니다.

타사 사람이 루프 인되고 해당 표시가 당사자보다 우선합니다.

전문적인 의견 불일치가 있는 경우, 의견 불일치 해결에 대한 결정을 내리기 위해 사람인 제XNUMX자가 호출되고 설정에 반복되는 규칙이 있을 수 있습니다. AI는 제XNUMX자가 결정하는 모든 것을 따르도록 프로그래밍되어 있습니다. 이미 Human-in-loop에 있는 인간은 그러한 상황이 발생하면 제XNUMX자 인간에게 맡겨야 한다는 지시를 미리 받았습니다. 제 XNUMX자의 인간이 결정하는 것이 인간-인-루프 자세와 일치하지 않는 경우, 인간-인-더-루프가 그 결정에 동의하는 것에 대해 불안을 가질 수 있음을 예상할 수 있습니다.

타사 AI가 루프 인되고 해당 표시가 당사자보다 우선합니다.

전문가의 의견 불일치가 있을 경우, 다른 AI 시스템인 제XNUMX자가 호출되어 해당 설정에 반복되어 의견 불일치 해결에 대한 결정을 내리는 것이 규칙이 될 수 있습니다. 원래 AI는 타사 AI가 결정한 대로 따르도록 프로그래밍되었습니다. 이미 Human-in-loop에 있는 인간은 이러한 상황이 발생하면 타사 AI에 따라야 한다는 지시를 받았습니다. 제쳐두고, 결정이 HIL(Human-in-the-loop) 자세와 동의하지 않는 경우 타사 AI가 결정하는 모든 것에 대해 HIL(human-in-the-loop)이 수락하는 것에 대해 불안을 가질 수 있음을 예상할 수 있습니다.

제XNUMX자 인간이 기존 인간을 대체하고 일이 새롭게 진행된다

전문적인 의견 불일치가 있는 경우, Human-in-the-Loop는 인간이고 앞으로는 Human-in-the-Loop가 되는 제XNUMX자로 대체됩니다. 태스크에 대한 원래의 인간 루프(human-in-loop)였던 인간은 더 이상 당면한 태스크의 일부로 간주되지 않습니다. 현재 교체된 Human-in-loop로 인해 다른 방식으로 발생하는 일에 대한 열린 측면이지만, 우리는 그들이 작업 작업에서 더 이상 지속적인 역할을 하지 않는다는 것을 확실히 말하고 있습니다.

타사 AI가 기존 AI를 대체하고 상황이 새로워집니다.

전문가의 의견 차이가 있을 경우 AI는 제XNUMX자 AI로 대체되며 이는 앞으로 당면한 작업에 사용되는 AI가 됩니다. 원래 작업에 사용되었던 AI는 더 이상 현재 작업의 일부로 간주되지 않습니다. 현재 대체된 AI로 인해 어떤 일이 발생하는지에 대한 공개된 측면이지만 우리는 AI가 더 이상 작업 작업에서 더 이상 지속적인 역할을 하지 않는다고 말합니다.

제XNUMX자 인간이 기존 AI를 대체하고 상황이 새롭게 진행됩니다(이제 인간 대 인간)

전문가의 의견 차이가 있을 경우 AI는 제XNUMX자 인간으로 대체되며, 이 사람은 현재 당면한 작업에 사용할 공동 팀으로 간주됩니다. 원래 작업에 사용되었던 AI는 더 이상 현재 작업의 일부로 간주되지 않습니다. 현재 대체된 AI로 인해 어떤 일이 발생하는지에 대한 공개된 측면이지만 우리는 AI가 더 이상 작업 작업에서 더 이상 지속적인 역할을 하지 않는다고 말합니다. 간단히 말해서, 이것은 이제 인간 대 인간이 수행하는 쌍방향 작업이 됩니다.

타사 AI가 기존 인간을 대체하고 상황이 새로워집니다(현재 AI-to-AI)

전문적인 의견 불일치가 있을 경우, Human-in-the-loop는 타사 AI로 대체되고 이 AI는 앞으로 이전 Human-in-the-loop의 필인이 됩니다. 태스크에 대한 원래의 인간 루프(human-in-loop)였던 인간은 더 이상 당면한 태스크의 일부로 간주되지 않습니다. 현재 교체된 Human-in-loop로 인해 다른 방식으로 발생하는 일에 대한 열린 측면이지만, 우리는 그들이 작업 작업에서 더 이상 지속적인 역할을 하지 않는다는 것을 확실히 말하고 있습니다. 요컨대, 이것은 이제 작업을 수행하는 XNUMX자 AI-to-AI가 됩니다.

기타

전문적인 의견 불일치에 대처하기 위해 다른 변형을 고안할 수 있지만 여기서는 몇 가지 핵심 사항을 다뤘습니다.

이러한 접근 방식 중 주어진 상황에 적합한 접근 방식을 어떻게 결정할 수 있습니까?

그러한 선택을 하는 데에는 다양한 문제가 있습니다. 기술적 고려 사항이 있습니다. 비즈니스 고려 사항이 있습니다. 법적 및 윤리적 고려 사항이 있습니다.

그것이 어느 정도 AI 윤리와 윤리적 AI가 중요한 주제인 이유입니다. AI 윤리의 교훈은 우리가 경계를 늦추지 않게 합니다. AI 기술자는 때때로 기술, 특히 하이테크 최적화에 몰두할 수 있습니다. 그들은 더 큰 사회적 파급효과를 반드시 고려하고 있지는 않습니다. AI 윤리 사고방식을 갖고 AI 개발 및 현장에 통합적으로 그렇게 하는 것은 AI 윤리가 기업에 어떻게 채택되는지에 대한 평가를 포함하여(놀랍거나 아이러니하게도) 적절한 AI를 생산하는 데 필수적입니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 실제로, 그들은 우리가 이러한 AI 법률 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 AI의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이 중요한 토론의 이 시점에서 이 주제를 보여줄 수 있는 몇 가지 예시적인 예를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율 주행 자동차의 출현은 AI와 인간의 의견 불일치 해결에 대해 어떤 점을 밝혀줄 것이며, 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 대 인간의 불일치

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

완전 자율주행 차량의 경우 처음부터 인간-인-더-루프(human-in-the-loop)가 없을 가능성 때문에 인간과 AI 사이에 전문적인 의견 차이가 없을 수 있습니다. 오늘날 많은 자율 주행 자동차 제조업체의 열망은 운전 작업에서 인간 운전자를 완전히 제거하는 것입니다. 차량에는 사람이 접근할 수 있는 운전 제어 장치도 포함되어 있지 않습니다. 이 경우 인간 운전자는 운전 제어 장치에 접근할 수 없기 때문에 운전 작업에 참여할 수 없습니다.

일부 완전 자율 차량의 경우 일부 설계에서는 여전히 인간이 루프에 있을 수 있도록 허용하지만 인간이 운전 프로세스에 참여하거나 참여할 필요가 전혀 없습니다. 따라서 사람이 원하면 운전에 참여할 수 있습니다. 그러나 AI는 운전 작업을 수행하기 위해 인간에게 의존하지 않습니다.

반자율주행 차량의 경우 인간 운전자와 AI 사이에는 밀접한 관계가 있습니다. 인간 운전자는 운전 제어를 완전히 인수할 수 있으며 본질적으로 AI가 운전에 참여하는 것을 막을 수 있습니다. 인간 운전자가 AI를 운전 역할로 되돌리고자 한다면 그렇게 할 수 있지만 때로는 인간이 운전 제어를 포기해야 합니다.

반자율적 운영의 또 다른 형태는 인간 운전자와 AI가 팀을 이루어 함께 작동하는 것입니다. AI가 운전하고 사람이 운전합니다. 그들은 함께 운전하고 있습니다. AI는 인간에게 맡길 수 있습니다. 인간은 AI를 따를 수 있습니다.

어떤 시점에서 AI 운전 시스템과 루프의 인간 운전자는 당면한 운전 작업에 대해 "전문적인 불일치"의 지점에 도달할 수 있습니다.

앞서 언급한 직업적 의견 불일치를 처리하는 규칙 중 일부가 구현하기 어려울 수 있음을 설명하기 위해 제XNUMX자 사람을 불러 문제에 개입하고 해결되지 않은 문제를 해결하기 위한 결정을 제안하는 경우를 고려하십시오.

자동차 제조업체나 자율 주행 기술 회사가 원격 인간 운전자가 차량 내에서 차량의 운전 제어에 액세스할 수 있도록 준비했다고 가정해 보겠습니다. 교환원은 멀리 떨어진 사무실이나 비슷한 설정에 앉아 있습니다. 컴퓨터 시스템을 통해 자율주행차에 탑재된 카메라 및 기타 센서 장치에 액세스하여 운전 장면을 볼 수 있습니다. 그들에게 이것은 온라인 비디오 게임을 하는 것과 거의 같지만, 물론 실제 상황은 잠재적으로 끔찍한 결과를 초래할 수 있습니다.

AI 시스템과 차량 내부의 인간 운전자는 긴 고속도로를 반자율주행 차량을 운전하고 있습니다. 갑자기 AI가 도랑으로 방향을 틀고 싶어합니다. 인간 운전자는 이것을 원하지 않습니다. 두 사람은 운전석을 놓고 다투고 있다.

어떻게 해결될까요?

우리는 아마도 인간이 항상 이긴다는 것을 미리 설정할 수 있었을 것입니다. 우리가 그렇게하지 않기로 결정했다고 가정하십시오.

우리는 AI가 항상 이긴다는 것을 미리 설정할 수 있었습니다. 그렇게 하지 않기로 결정했다고 가정해 봅시다. 전반적으로 우리는 제XNUMX자가 개입하고 실질적인 성격의 전문적인 의견 불일치를 해결할 수 있도록 허용하기로 결정한 것 외에는 이러한 규칙을 채택하지 않았습니다.

이 사용 사례에서 AI와 운전석의 인간 운전자는 운전 제어를 위해 싸우고 있습니다. 이것은 원격 인간 오퍼레이터(우리의 제XNUMX자 인간)에게 전달된다고 가정해 봅시다. 원격 인간 오퍼레이터는 무슨 일이 일어나고 있는지 살펴보고 인공 지능이 하려는 것을 피하는 것처럼 보이는 도랑에서 멀어지기로 결정합니다. 동시에 원격 인간 오퍼레이터가 다가오는 차량으로 방향을 틀었다고 가정해 보십시오. 이는 아마도 AI나 차 안의 인간 운전자 모두 원하지 않았을 것입니다.

요점은 이 규칙이 구현된 방식은 타사 작업자가 AI와 Human-in-the-loop 모두를 완전히 무시할 수 있다는 것입니다. 이것이 좋은 결과를 가져올지 여부는 확실히 보장되지 않습니다.

이 예를 사용하여 이러한 문제에 대한 몇 가지 추가 통찰력을 강조하겠습니다.

이러한 규칙 중 하나가 적용된다고 해서 해결된 불일치의 결과가 반드시 좋은 결과를 보장한다고 뻔뻔한 가정을 할 수는 없습니다. 그렇지 않을 수도 있습니다. 선택할 수 있는 철칙처럼 항상 옳은 종류의 규칙은 없습니다.

다음으로 이러한 규칙 중 일부는 실행 가능하지 않을 수 있습니다.

AI와 인간 운전자가 운전 제어 장치를 놓고 말다툼을 할 때 원격 인간 조작자가 개입하는 예를 생각해 보십시오. 원격 작업자가 현재 상황을 파악하는 데 몇 초가 걸릴 수 있습니다. 그때쯤이면 차량이 이미 도랑에 빠지거나 다른 불리한 결과를 초래할 수 있습니다. 또한 차량의 위치로 인해 네트워크 전자 연결이 없는 장소와 같이 원격 액세스가 불가능하다고 가정합니다. 또는 차량의 네트워킹 기능이 특정 순간에 작동하지 않을 수 있습니다.

보시다시피, 규칙을 실제로 사용하는 것은 매우 어렵거나 매우 가능성이 높은 접근 방식일 수 있지만 문서에서는 규칙이 멋져 보일 수 있습니다. 자율주행차 및 자율주행차의 원격 운영자에 대한 나의 비판적 시야를 확인하세요. 여기 링크.

다음 분석에서 더 깊이 다루게 될 또 다른 관련 주제를 간략하게 다루고 싶습니다.

자율주행차와 반자율주행인 자율주행차에 대한 우려가 높아지고 있는 것 중 하나가 이른바 뜨거운 감자 증후군.

여기 거래가 있습니다.

AI 운전 시스템과 인간이 함께 운전하고 있습니다. 곤혹스러운 상황이 발생합니다. AI는 위험한 순간이 발생하면 운전을 그만두고 사람에게 일을 넘겨주도록 프로그래밍되었습니다. 이것은 우리가 잠재적인 직업적 의견 불일치에서 인간이 기본 "승자"라는 규칙을 주장하는 것처럼 보인다는 점에서 아마도 "합리적"인 것 같습니다.

그러나 AI 중퇴는 더 사악하거나 교활한 목적을 위한 것일 수 있습니다. 자동차 제조업체나 자율주행 기술 회사는 자동차 충돌이 발생했을 때 AI가 "잘못된 당사자"로 간주되는 것을 원하지 않을 수 있습니다. 그런 식으로 고정되는 것을 피하기 위해 AI는 갑자기 제어를 인간에게 넘깁니다. 짜잔, 이제 인간이 차량에 대해 전적으로 책임을 져야 합니다.

핵심은 AI가 충돌이 발생하기 전에 XNUMX초 남았다고 가정해 보겠습니다.

인간에게 정말로 충돌을 피할 시간이 있습니까?

그렇지 않을 가능성이 높습니다.

AI가 몇 밀리초 또는 나노초가 남은 상태에서 핸드오프를 수행한다고 가정합니다. 나는 감히 인간이 충돌을 피하기 위해 무엇이든 할 가능성이 본질적으로 XNUMX이라고 말할 수 있습니다.

자동차 제조사나 자율주행차 회사 입장에서는 이런 교통사고가 났을 때 손이 깨끗한 것처럼 행동하려고 할 수 있다. 그 차는 사람이 운전하고 있었다. AI는 차를 운전하지 않았습니다. 유일한 "논리적" 결론은 인간이 잘못해야 하고 AI는 완전히 흠이 없어야 한다는 것입니다.

그것은 그릇입니다.

이에 대해서는 다음 칼럼에서 더 자세히 다루겠습니다.

결론

전문적인 의견 충돌이 일어날 것입니다.

두 당사자가 함께 작업을 수행하고 전문적인 의견 차이가 발생하지 않는 복잡한 작업은 상상하기 어렵습니다. 이것은 환상의 나라 또는 적어도 엄청난 희귀성처럼 보입니다.

오늘날 우리는 일상적으로 어떤 식으로든 평화롭고 현명하게 해결되는 전문적인 의견 불일치의 인간 대 인간 사례를 많이 가지고 있습니다. 사실, 우리는 종종 전문적인 의견 불일치를 조장하고 표면화하기 위해 의도적으로 상황을 설정합니다. 이것은 때때로 두 개의 머리가 하나보다 낫다는 유명한 지혜를 보여준다고 주장할 수 있습니다.

AI가 보편화됨에 따라 많은 AI-인간 또는 인간-AI ​​쌍방 작업 수행자가 생겨날 것입니다. 전문적인 의견 불일치 그것은 일어날 것입니다. 게으른 접근 방식은 항상 인간에게 복종하는 것입니다. 이것은 가장 적합한 접근 방식이 아닐 수 있습니다. AI가 더 나은 선택일 수 있습니다. 또는 앞서 언급한 다른 규칙 중 하나가 더 건전한 접근 방식일 수 있습니다.

우리 모두는 일반적으로 동의할 수 없다는 데 동의할 수 있어야 한다고 자주 되풀이하는 현자가 있습니다. 그러나 문제가 발생하면 때로는 불일치가 명백하게 해결되어야 하며 그렇지 않으면 당면한 문제가 이루 말할 수 없는 재앙으로 이어질 것입니다. 우리는 의견 불일치가 포도나무에 시들게 놔둘 수 없습니다. 시간이 핵심일 수 있고 생명이 위태로울 수 있습니다.

AI와 인간관계(human-in-the-loop)가 눈을 마주치거나 바이트 단위로 보지 않는 경우를 포함하여 반드시 동의하지는 않더라도 불일치를 해결하기 위한 신중한 수단에 대한 명확한 요구 사항이 있습니다.

나는 당신이 그 전적으로 동의하는 논쟁에 동의하지 않을 것이라고 믿습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- 조종사와 부조종사는 이륙하기 전에 동의하지 않고 갑자기 택시를 선택하고 터미널로 돌아가서 각자의 길을 간다/