AI 윤리, 특히 다가오는 완전 자율 시스템을 통해 가속화되는 대규모 글로벌 규모의 AI 편견의 출현에 대한 경보 종소리

플라톤은 좋은 결정은 숫자가 아니라 지식에 기초한다고 유명하게 말했습니다.

이 예리한 통찰력은 오늘날의 인공 지능(AI)에 대해 놀랍도록 선견지명이 있는 것 같습니다.

AI가 어떻게든 지각에 도달했고 인간의 지식과 추론을 구현한다고 현재 선언하는 요란한 헤드라인에도 불구하고, 오늘날의 알고리즘 의사 결정(ADM)에서 우리는 여전히 숫자 크런칭에 의존하고 있기 때문에 이 과장된 AI 과장은 교활한 변명이라는 점에 유의하십시오. ) AI 시스템에 의해 수행됩니다. 자랑스러운 머신 러닝(ML)과 딥 러닝(DL)조차도 컴퓨팅 패턴 매칭으로 구성되어 있습니다. 즉, 숫자는 여전히 ML/DL 사용의 핵심입니다.

AI가 지각에 도달하는 것이 가능한지 우리는 모릅니다. 될 수도 있고 아닐 수도 있습니다. 이것이 어떻게 발생할 수 있는지 확실히 말할 수 있는 사람은 없습니다. 어떤 사람들은 지각의 형태가 자발적으로 발생하도록 컴퓨팅 AI 노력을 점진적으로 개선할 것이라고 믿습니다. 다른 사람들은 AI가 일종의 계산적 초신성으로 들어가 거의 저절로 지각에 도달할 수 있다고 생각합니다(일반적으로 특이점이라고 함). AI의 미래에 대한 이러한 이론에 대한 자세한 내용은 내 기사를 참조하십시오. 여기 링크.

따라서 현대 AI가 인간처럼 생각할 수 있다고 잘못 생각하지 맙시다. 그렇다면 우리가 지각 있는 AI가 아닌 컴퓨팅 AI를 기반으로 좋은 결정을 내릴 수 있는지에 대한 플라톤의 말에 대한 질문이 전면에 떠오를 것이라고 생각합니다. 일상적인 AI 시스템을 통해 우리가 실제로 좋은 결정을 내릴 수 있다고 주장한다는 사실을 알고 놀라실 수도 있습니다.

그 동전의 다른 면은 우리가 나쁜 결정을 내리는 일상적인 AI 시스템도 가질 수 있다는 것입니다. 썩은 결정. 부당한 편견과 불평등이 만연한 결정. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 말하는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

AI 윤리 및 윤리적 AI에 대한 광범위한 내용은 다음에서 찾을 수 있습니다. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

이 논의를 위해 저는 AI 윤리 분야에 있는 사람들이 합당하게 한탄하며 적절한 인식을 제고하려고 애쓰는 AI에 대해 특히 우려되는 측면을 언급하고 싶습니다. 냉정하고 당혹스러운 문제는 실제로 지적하기 매우 간단합니다.

여기있다 : AI는 놀라운 전 세계적인 규모로 AI에 치우친 편견을 퍼뜨릴 수 있는 현실 세계의 잠재력을 가지고 있습니다.

그리고 내가 "규모에서"라고 말할 때 이것은 명백하게 전 세계적인 대규모 규모를 의미합니다. 엄청난 규모. 스케일을 벗어나는 스케일.

AI에 치우친 편향의 확장이 어떻게 발생하는지 알아보기 전에 AI가 어떻게 과도한 편향과 불평등을 통합할 수 있는지 알아보도록 하겠습니다. 이것은 지각 있는 다양성이 아님을 다시 상기하십시오. 이것은 모두 계산 능력입니다.

AI가 인간이 하는 것과 같은 종류의 불리한 편견과 불평등을 어떻게 주입할 수 있는지 어리둥절할 수 있습니다. 우리는 AI를 완전히 중립적이고 편견이 없으며 인간이 가질 수 있는 감정적 동요와 나쁜 생각이 전혀 없는 단순한 기계라고 생각하는 경향이 있습니다. AI가 편견과 불평등에 빠지는 가장 일반적인 수단 중 하나는 기계 학습 및 딥 러닝을 사용할 때 발생하며, 부분적으로는 인간이 결정을 내리는 방식에 대해 수집된 데이터에 의존한 결과입니다.

자세히 설명해 드리겠습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴을 만들어 온 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 알고리즘 의사 결정 또는 ADM은 공리적으로 불평등하게 됩니다.

안좋다.

이것은 규모가 클 때 AI에 치우친 편향의 문제를 가져옵니다.

먼저, 인간의 편견이 어떻게 불평등을 만들 수 있는지 살펴보겠습니다. 모기지론을 제공하는 회사는 모기지론 에이전트를 고용하기로 결정합니다. 에이전트는 주택 융자를 받기 원하는 소비자의 요청을 검토해야 합니다. 신청서를 평가한 후 에이전트는 대출을 승인할지 또는 거부할지 결정합니다. 쉬워요.

논의를 위해 인간 대출 에이전트가 검토당 약 8시간이 소요되는 하루 40개의 대출을 분석할 수 있다고 가정해 보겠습니다. 주 2,000일 근무 중 에이전트는 약 XNUMX건의 대출 검토를 수행합니다. 연간 기준으로 에이전트는 일반적으로 약 XNUMX건의 대출 검토를 수행합니다.

회사는 대출 검토의 양을 늘리기를 원하므로 100명의 추가 대출 에이전트를 고용합니다. 이들 모두가 거의 동일한 생산성을 가지고 있고 이는 이제 우리가 연간 약 200,000건의 대출을 처리할 수 있음을 의미한다고 가정해 봅시다(에이전트당 연간 2,000건의 대출 검토 비율로). 우리가 대출 신청 처리를 정말 강화한 것 같습니다.

회사는 본질적으로 인간 에이전트와 동일한 대출 검토를 수행할 수 있는 AI 시스템을 고안했습니다. AI는 클라우드의 컴퓨터 서버에서 실행됩니다. 클라우드 인프라를 통해 회사는 필요할 수 있는 대출 검토를 수용하기 위해 더 많은 컴퓨팅 성능을 쉽게 추가할 수 있습니다.

기존 AI 구성으로 시간당 1,000건의 대출 검토를 수행할 수 있습니다. 이것은 또한 연중무휴로 발생할 수 있습니다. AI에게는 휴가가 필요하지 않습니다. 점심시간이 없습니다. AI는 과로에 대해 불평하지 않고 24시간 작동합니다. 대략적인 속도로 AI는 연간 거의 7만 건의 대출 신청을 처리할 수 있습니다.

연간 100건의 대출을 수행할 수 있는 200,000명의 상담원에서 AI 시스템을 통해 연간 9만 건의 리뷰 수로 여러 번 뛰어올랐습니다. 우리는 대출 요청 처리를 극적으로 확장했습니다. 의심의 여지가 없습니다.

의자에서 떨어질 수도 있는 키커를 준비하십시오.

우리 대리인 중 일부가 부당한 편견에 근거하여 대출 결정을 내리고 있다고 가정해 보겠습니다. 아마도 일부는 인종적 요인이 대출 결정에 중요한 역할을 하도록 하고 있습니다. 아마도 일부는 성별을 사용하고 있습니다. 다른 사람들은 나이를 사용하고 있습니다. 등등.

연간 200,000건의 대출 검토 중 얼마나 많은 것이 불리한 편견과 불평등의 잘못된 시선으로 이루어지고 있습니까? 아마도 대출 요청의 약 10건인 20,000%일 것입니다. 설상가상으로 대출 요청의 50%가 대출 요청의 100,000%라고 가정해 보겠습니다. 이 경우 연간 XNUMX건의 대출 결정이 잘못 결정되는 문제가 발생합니다.

그 나쁜. 그러나 우리는 아직 더 무서운 가능성을 고려하지 않았습니다.

AI에 인종, 성별, 나이 등의 요인으로 구성된 숨겨진 편견이 있다고 가정합니다. 연간 대출 분석의 10%가 이러한 불합리한 대상이 된다면 부적절하게 처리되고 있는 900,000건의 대출 요청이 있습니다. 이는 주로 단순히 볼륨 측면으로 인해 인간 에이전트가 할 수 있는 것보다 훨씬 많습니다. 100명의 에이전트가 모두 불공평한 검토를 수행하고 있다면 기껏해야 200,000건의 연간 대출 검토에서 이를 수행할 수 있습니다. AI는 9,000,000건의 연간 리뷰 중 훨씬 더 큰 규모로 동일한 작업을 수행할 수 있습니다.

Yikes!

이것은 엄청난 규모의 진정으로 AI에 치우친 편향입니다.

AI 시스템에 불리한 편향이 묻혀 있을 때 유리해 보였던 동일한 규모 조정이 이제 머리를 맞대고 무시무시하게 현혹되는(그리고 혼란스러운) 규모 조정 결과가 됩니다. 한편으로 AI는 주택 융자를 요청하는 더 많은 사람들을 처리하기 위해 유리하게 속도를 낼 수 있습니다. 겉으로 보기에는 어마어마한 좋은 AI. 아마도 인간이 필요한 대출을 받을 가능성을 확대하기 위해 등을 두드려야 합니다. 한편 AI에 편향이 내재되어 있다면 스케일링은 엄청나게 썩은 결과가 될 것이며 우리는 한탄스럽게도 나쁜 인공 지능, 정말 대규모로.

속담에 양날의 검.

AI는 원하는 서비스와 제품을 찾는 사람들의 의사 결정에 대한 접근성을 근본적으로 높일 수 있습니다. 더 이상 인간의 제약을 받는 노동 병목 현상이 없습니다. 뛰어난! 칼의 다른 쪽 가장자리는 AI에 숨겨진 불평등과 같은 악이 포함되어 있다면 바로 그 엄청난 규모가 상상할 수 없는 규모로 그러한 부적절한 행동을 퍼뜨릴 것이라는 점입니다. 분노하고, 잘못되고, 부끄럽고, 우리는 사회가 그런 추악한 심연에 빠지도록 허용할 수 없습니다.

왜 우리가 AI 윤리의 중요성을 강조해야 하는지에 대해 의아해했던 사람이라면 누구나 이제 AI 스케일링 현상이 윤리적 AI를 추구하는 가장 중요한 이유라는 것을 깨달아야 합니다. AI를 제작, 수비 또는 사용하는 모든 사람에게 중요한 초점이 되어야 하는 것이 무엇인지 설명하기 위해 윤리적 AI의 몇 가지 핵심 수칙을 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더군다나 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력 또한 깨기 힘든 너트입니다. AI 윤리 수칙이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만, AI 코딩이 길을 만나는 진정한 고무가 되어야 하는 것은 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 수명 주기 동안 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. AI를 고안하고 배치하는 데에는 마을이 필요하다는 점을 유의하십시오. 이를 위해 마을 전체가 AI 윤리에 대해 계속 긴장해야 합니다.

AI에 치우친 편향 확장의 작동 방식

이제 AI가 편향을 포함할 수 있다는 표를 얻었으므로 AI 스케일링이 왜 그렇게 방해가 되는지 몇 가지 이유를 조사할 준비가 되었습니다.

다음과 같은 XNUMX가지 근본적인 이유에 대한 핵심 목록을 고려하십시오.

  1. 쉽게 복제
  2. 확장 비용 최소화
  3. 엄청나게 일관적
  4. 자기 반성의 부족
  5. 맹목적인 순종
  6. 손을 기울이지 않는다.
  7. 받는 사람은 의심하지 않습니다
  8. 도발을 부추기지 않는 경향이 있다
  9. 공정함의 거짓 아우라
  10. 반박하기 어렵다

각각의 중요한 요점을 간략하게 살펴보겠습니다.

인간 노동으로 규모를 확장하려고 할 때 그렇게 하는 것이 엄청나게 복잡해질 가능성이 있습니다. 사람을 찾아 고용해야 합니다. 일을 하도록 훈련시켜야 합니다. 당신은 그들에게 돈을 지불하고 인간의 필요와 필요를 고려해야 합니다. 이것을 AI 시스템과 비교하십시오. 개발하여 사용하고 있습니다. AI를 지속적으로 유지하는 것 외에는 가만히 앉아서 끝없이 처리할 수 있습니다.

이것은 AI가 쉽게 복제된다는 것을 의미합니다. 작업 및 볼륨이 필요할 때 더 많은 컴퓨팅 성능을 추가할 수 있습니다(고용 또는 해고가 아님). 버튼 하나만 누르면 전 세계적으로 사용이 가능하며 전 세계적으로 인터넷을 사용할 수 있게 됩니다. 스케일 업은 인간의 노동과 마찬가지로 수행하는 것과 비교할 때 최소한의 비용입니다.

인간의 노동은 일관성이 없는 것으로 악명이 높습니다. 큰 팀이 있을 때 손에 무엇을 쥐고 있는지 전혀 알 수 없는 진정한 초콜릿 상자가 있습니다. AI 시스템은 매우 일관성이 있을 것입니다. 동일한 활동을 계속해서 반복하며 매번 본질적으로 마지막 활동과 동일합니다.

일반적으로 우리는 AI 일관성을 좋아할 것입니다. 인간이 편향되기 쉽다면 우리는 항상 인간 노동의 일부가 잘못된 방향으로 흘러가게 될 것입니다. AI의 구성 및 계산 노력이 순전히 편향되지 않는다면 훨씬 더 일관성이 있을 것입니다. 하지만 문제는 AI에 숨겨진 편견이 있다면 일관성이 이제 고통스러울 정도로 혐오스럽다는 것입니다. 편향된 행동이 계속해서 일관되게 수행될 가능성이 있습니다.

인간은 자기 성찰의 암시를 갖고 어쩌면 편향된 결정을 내리는 자신을 발견할 수 있기를 바랍니다. 모든 사람이 그렇게 할 것이라고 말하는 것은 아닙니다. 나는 또한 스스로를 잡는 사람들이 반드시 그들의 잘못을 바로잡을 것이라고 말하는 것이 아닙니다. 어쨌든 적어도 일부 인간은 때때로 스스로를 고칠 것입니다.

AI는 어떤 형태의 계산적 자기 성찰도 갖지 않을 것입니다. 이것은 AI가 하던 일을 계속한다는 것을 의미합니다. AI가 형평성에 어긋난다는 것을 감지할 가능성은 전혀 없어 보입니다. 즉, AI 내에서 AI 윤리 구성 요소를 구축하는 것과 같이 이를 처리하기 위한 몇 가지 노력에 대해 설명했습니다(참조 여기 링크) 비윤리적인 AI 활동을 식별하기 위해 다른 AI를 모니터링하는 AI 고안(참조 여기 링크).

어떤 종류의 자기 성찰도 결여되어 있는 AI는 지시받은 모든 것에 대해 본질적으로 맹목적인 복종을 할 가능성이 높습니다. 인간은 그렇게 순종적이지 않을 수 있습니다. 작업을 수행하는 일부 인간은 자신이 불평등 영역으로 인도되고 있는지 여부에 대해 의문을 제기할 가능성이 있습니다. 그들은 비윤리적인 명령을 거부하거나 내부 고발자의 길을 가는 경향이 있습니다. 여기 링크). 일상적인 현대 AI가 어떻게든 프로그래밍에 의문을 제기할 것이라고 기대하지 마십시오.

다음으로 AI를 사용하는 사람들에 대해 알아보겠습니다. 당신이 주택 융자를 찾고 있고 사람과 이야기를 나누었다면, 그 사람이 당신에게 공평한 동요를 주고 있는지에 대해 주의를 기울이고 있을지도 모릅니다. AI 시스템을 사용할 때 대부분의 사람들은 덜 의심스러워 보입니다. 그들은 종종 AI가 공정하고 에고가 그렇게 빨리 화를 내지 않는다고 가정합니다. AI는 사람들을 "단지 기계일 뿐"이라는 황홀경에 빠지게 하는 것처럼 보입니다. 게다가 AI를 시도하고 항의하는 것은 어려울 수 있습니다. 대조적으로, 인간 대리인이 당신을 어떻게 대했는지에 대해 항의하는 것이 훨씬 쉽고 훨씬 더 일반적으로 받아들여지고 실행 가능한 것으로 가정됩니다.

말하자면, 편견에 휩싸인 AI는 편견에 휩싸인 인간에 비해 불명예스러운 우위를 점하고 있습니다. 즉, AI가 이러한 편견을 거대한 규모로 대규모로 배포하도록 할 수 있다는 점에서 쉽게 잡히거나 소비자를 확보하지 않고도 그렇게 할 수 있습니다. 불안하게 일어나는 일을 깨닫습니다.

이 토론의 이 시점에서 대규모 AI 편향의 난제를 보여줄 수 있는 몇 가지 추가 예를 원할 것입니다.

물어봐서 다행입니다.

내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 출현은 AI에 대한 대규모 편견에 대해 무엇이든 밝혀줄 것입니다. 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면, 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

규모에 따른 자율 주행 자동차 및 AI 편향

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 대규모로 공표되는 AI에 치우친 편견에 대한 탐구를 수반하는 자율 주행 자동차와 윤리적 AI 가능성에 대해 자세히 알아볼 준비가 되었습니다.

간단하게 예를 들어보겠습니다. AI 기반 자율주행차가 우리 동네 거리를 달리고 있고, 안전하게 운전하고 있는 것 같다. 처음에는 자율주행차를 볼 때마다 각별한 주의를 기울였습니다. 자율 주행 차량은 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 눈에 띄었습니다. 몇 주 동안 지역 사회를 순회하는 자율 주행 자동차가 있지만 이제 거의 눈치 채지 못합니다. 당신이 염려하는 한 그것은 이미 붐비는 공공 도로의 ​​또 다른 차일 뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록 자율주행차 시승 범위에 있는 로케일이 차츰 차츰 차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 자율주행차까지, 내 분석 보기 여기 링크. 많은 지역 주민들은 결국 입을 벌리고 황홀한 갬성에서 이제 구불구불한 자율주행차를 목격하기 위해 지루함의 광활한 하품을 하는 것으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다.

일반적으로 무해하고 일반적으로 환영받는 AI 기반 자율주행 자동차에 대해 다음과 같은 두 가지 보기 흉한 우려가 발생하기 시작하는 것으로 나타났습니다.

ㅏ. AI가 자율주행차를 타고 로밍하는 곳이 우려의 목소리로 떠올랐다.

비. AI가 통행우선권이 없는 대기 보행자를 어떻게 대하는지가 시급한 이슈로 떠올랐다.

처음에는 AI가 도시 전체를 자율주행차로 배회하고 있었다. 자율주행차를 타고 싶어 하는 사람은 누구에게나 본질적으로 동등한 기회가 주어졌습니다. 점차적으로 AI는 주로 자율 주행 자동차가 도시의 한 구역에서만 로밍하도록 하기 시작했습니다. 이 섹션은 돈을 더 많이 벌었고 AI 시스템은 커뮤니티 사용의 일부로 수익을 극대화하도록 프로그래밍되었습니다.

마을의 빈곤한 지역 사회 구성원들은 자율주행차를 탈 가능성이 적었습니다. 자율주행차가 더 멀리 떨어져 있고 수익이 더 높은 지역을 돌아다니고 있기 때문입니다. 멀리 떨어진 마을에서 요청이 들어왔을 때, 마을의 "존경받는" 지역일 가능성이 높은 가까운 위치에서 요청한 것이 더 높은 우선 순위를 갖습니다. 결국, 도시의 부유한 지역이 아닌 다른 곳에서 자율주행 자동차를 얻는 것은 거의 불가능했고, 현재 자원이 부족한 지역에 살고 있는 사람들에게는 너무나 황당했습니다.

AI가 일종의 대리 차별(간접 차별이라고도 함)에 거의 영향을 미쳤다고 주장할 수 있습니다. AI는 가난한 이웃을 피하도록 프로그래밍되지 않았습니다. 대신 ML/DL을 사용하여 그렇게 하도록 "학습"했습니다.

문제는 승차 공유 인간 운전자가 같은 일을 하는 것으로 알려져 있었지만 반드시 돈을 버는 각도 때문만은 아닙니다. 마을의 특정 지역에서 라이더를 태우는 것에 대해 부당한 편견을 가진 승차 공유 인간 운전자가 있었습니다. 이것은 어느 정도 알려진 현상이며 시는 이러한 행위를 하는 인간 운전자를 적발하기 위해 모니터링 방식을 시행했습니다. 인간 운전자는 불미스러운 선택 관행을 수행하는 데 어려움을 겪을 수 있습니다.

AI는 결코 그런 종류의 늪에 빠지지 않을 것이라고 가정했습니다. AI 기반 자율주행차가 어디로 가고 있는지 추적하기 위한 전문 모니터링은 설정되지 않았다. 지역 사회 구성원들이 불평하기 시작한 후에야 도시 지도자들이 무슨 일이 일어나고 있는지 깨달았습니다. 자율주행차와 자율주행차가 제시할 이러한 유형의 도시 전체 문제에 대한 자세한 내용은 다음에서 내 보도를 참조하십시오. 여기 링크 그리고 그 주제에 대해 공동 저술한 하버드 주도의 연구를 설명합니다.

AI 기반 자율주행 자동차의 로밍 측면에 대한 이 예는 인간에게 불리한 편향이 수반되는 상황이 있을 수 있다는 초기 징후를 보여줍니다. 무료. 불행히도 AI는 유사한 편향에 점차 빠져들 수 있으며 충분한 가드레일 없이 그렇게 할 수 있습니다.

이것은 또한 규모 문제에서 AI의 편향을 보여줍니다.

인간 운전자의 경우 여기 저기에 어떤 형태의 불평등을 행사하는 사람이 몇 명 있었을 수 있습니다. AI 운전 시스템의 경우 일반적으로 전체 자율 주행 차량에 대한 통합 AI 중 하나입니다. 따라서 우리는 마을에서 500대의 자율주행 자동차(모두 동일한 AI 코드로 운영됨)로 시작하여 점차적으로 XNUMX대의 자율주행차(모두 동일한 AI 코드로 운영됨)로 증가했을 수 있습니다. 이 XNUMX대의 자율주행 자동차는 모두 동일한 AI에 의해 운영되기 때문에 AI에 내재된 동일한 파생 편견과 불평등의 대상이 됩니다.

그런 점에서 스케일링은 우리에게 상처를 줍니다.

두 번째 예는 길을 건널 권리가 없는 보행자를 기다리기 위해 AI가 정지할지 여부를 결정하는 것입니다.

당신은 의심할 여지 없이 운전을 하다가 길을 건너기 위해 기다리고 있는 보행자와 마주쳤지만 통행우선권이 없었습니다. 이것은 당신이 멈추고 그들을 건너게 할 것인지에 대한 재량권이 있음을 의미했습니다. 당신은 그들을 건너지 않고 계속 진행할 수 있으며 여전히 그렇게 하는 법적 운전 규칙을 완전히 준수합니다.

인간 운전자가 그러한 보행자를 위해 정지 또는 정지하지 않기로 결정하는 방법에 대한 연구에 따르면 때때로 인간 운전자는 부당한 편견에 기초하여 선택을 하는 것으로 나타났습니다. 인간 운전자는 보행자를 주시하고 보행자가 인종이나 성별에 따라 다르게 생겼다면 정지했을지라도 멈추지 않기로 선택할 수 있습니다. 나는 이것을 조사했다 여기 링크.

AI 기반 자율주행차가 통행우선권이 없는 보행자를 위해 정지할지 말지 문제를 처리하도록 프로그래밍됐다고 상상해보자. AI 개발자가 이 작업을 프로그래밍하기로 결정한 방법은 다음과 같습니다. 그들은 도시 곳곳에 설치된 도시의 비디오 카메라에서 데이터를 수집했습니다. 데이터는 우선 통행권이 없는 보행자를 위해 정지하는 인간 운전자와 멈추지 않는 인간 운전자를 보여줍니다. 그것은 모두 큰 데이터 세트로 수집됩니다.

머신 러닝과 딥 러닝을 사용하여 데이터를 계산적으로 모델링합니다. 그런 다음 AI 운전 시스템은 이 모델을 사용하여 정지할 것인지 여부를 결정합니다. 일반적으로 아이디어는 지역 관습이 무엇이든 AI가 자율주행차를 지시하는 방식이라는 것입니다.

놀랍게도 AI는 인종과 성별을 포함하여 보행자의 모습을 기반으로 정지하거나 정지하지 않기로 결정했습니다. 자율주행차의 센서는 대기 중인 보행자를 스캔하고 이 데이터를 ML/DL 모델에 입력하고 모델은 정지할지 계속할지 여부를 AI에 내보냅니다. 애석하게도 이 도시에는 이미 이와 관련하여 많은 인간 운전자 편견이 있었고 AI는 이제 이를 모방하고 있습니다.

이 예는 AI 시스템이 이미 존재하는 인간의 편향을 단순히 복제할 수 있음을 보여줍니다. 또한 규모에 따라 그렇게 합니다. 모든 인간 운전자는 때때로 이러한 부적절한 형태의 선택을 하도록 배웠거나 그렇게 하도록 개인적으로 선택되었을 수 있지만 대부분의 인간 운전자는 아마도 이 일을 일괄적으로 수행하지 않을 가능성이 있습니다.

대조적으로 자율주행차를 운전하는 데 사용되는 AI 운전 시스템은 가혹할 정도로 일관되고 확실하게 파생된 편향을 수행할 가능성이 높습니다.

결론

바람직하지 않은 편향이 있거나 시간이 지남에 따라 편향을 수집하는 AI를 고안하고 피하는 방법에는 여러 가지가 있습니다. 가능한 한 많은 아이디어는 높은 기어에 들어가기 전에 문제를 파악하고 확장을 위해 가속하는 것입니다. 바라건대, 편견이 문 밖으로 나오지 않기를 바랍니다.

AI에서 어떤 식으로든 편향이 발생할 것이라고 가정합니다. AI를 사용하여 대규모로 배포한 후에는 흔히 말하는 기술 전문가의 "발사 후 잊어버리기" 개념 중 하나를 수행할 수 없습니다. AI가 하는 일을 부지런히 파악하고 수정해야 하는 부당한 편향을 감지해야 합니다.

앞서 지적했듯이 한 가지 접근 방식은 AI 개발자가 AI 윤리를 인식하고 이러한 문제를 피하기 위해 AI를 프로그래밍하도록 자극하는 것입니다. 또 다른 방법은 AI가 비윤리적 행동에 대해 자체 모니터링하도록 하거나 잠재적으로 비윤리적 행동에 대해 다른 AI 시스템을 모니터링하는 또 다른 AI를 갖는 것으로 구성됩니다. 나는 내 글에서 수많은 다른 잠재적인 해결책을 다루었습니다.

현재로서는 마지막 생각입니다. 플라톤의 인용문으로 이 논의를 시작했다면, 플라톤의 또 다른 예리한 발언으로 담론을 마무리하는 것이 적절할 것입니다.

플라톤은 좋은 일을 반복하는 것은 해가 없다고 말했습니다.

AI와 함께 규모를 확장하는 용이함은 확실히 AI가 좋은 AI 다양성. 우리는 좋은 것을 반복하는 것을 즐깁니다. AI가 될 때 나쁜 인공 지능 그리고 부당한 편견과 불평등으로 가득 찬 우리는 플라톤의 말에 기대어 나쁜 일을 반복하는 것은 해악이 많다고 말할 수 있습니다.

플라톤의 현명한 말을 잘 듣고 그에 따라 인공지능을 고안해보자.

출처: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- 전 세계적 규모의 특히 연료 공급을 통한 어렴풋한 완전 자율 시스템/