AI는 인간의 편견이 많을 때 특히 배치되어야 한다고 말하는 AI 윤리

인간은 자신의 한계를 알아야 합니다.

1973년 영화 '더티 해리'에서 우리의 한계를 아는 것에 대해 껄끄럽게 말한 비슷한 유명한 대사를 기억할 것입니다. 매그넘 포스 (배우 클린트 이스트우드(Clint Eastwood)가 해리 캘러한 경위(Inspector Harry Callahan)로 기억에 남는 역할을 한 말에 따라. 전반적인 개념은 때때로 우리는 자신의 한계를 간과하고 그에 따라 뜨거운 물에 빠지는 경향이 있다는 것입니다. 오만 때문이든, 자기 중심적이기 때문이든, 단순히 우리 자신의 능력에 눈이 멀었든, 우리의 성향과 결점을 인식하고 명시적으로 고려하는 계율은 매우 합리적이고 도움이 됩니다.

현명한 조언에 새로운 반전을 추가합시다.

인공 지능(AI)은 한계를 알게 되었습니다.

존경받는 캐치프레이즈의 변형이란 무엇을 의미합니까?

현대 AI를 세계 문제의 희망적인 해결사로 사용하려는 초기의 서두름이 오늘날의 AI에 다소 심각한 한계가 있다는 인식으로 인해 무색해지고 완전히 흐려졌습니다. 우리는 좋은 AI 그리고 점점 더 자신을 발견했습니다. 나쁜 인공 지능. 알다시피, 많은 AI 시스템이 개발되고 온갖 종류의 부당한 인종 및 성별 편견과 그와 같은 무시무시한 불평등이 무수히 많습니다.

AI 윤리 및 윤리적 AI에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

이러한 AI 시스템에서 발견되는 편향은 인간 행동에 기인하는 "의도적" 유형이 아닙니다. 오늘날의 AI는 지각이 없다는 점을 강조하기 위해 언급한 것입니다. 그렇지 않다고 암시하는 그 요란한 헤드라인에도 불구하고 지각에 가까운 AI는 어디에도 없습니다. 게다가, 우리는 인공지능을 지각의 범주에 넣는 방법을 알지 못하며, 우리가 인공지능 지각에 도달할 수 있을지 아무도 장담할 수 없습니다. 언젠가는 일어날 수도 있고 아닐 수도 있습니다.

그래서 제 요점은 우리가 현재 보유하고 있는 AI의 종류에 특별히 의도를 부여할 수 없다는 것입니다. 즉, AI 시스템을 제작하는 사람들에게 의도를 충분히 할당할 수 있습니다. 일부 AI 개발자는 불쾌하고 불법적일 수 있는 편견이 포함된 AI 시스템을 고안했다는 사실을 인식하지 못합니다. 한편 다른 AI 개발자는 AI 시스템에 편견을 심어 잠재적으로 의도적인 잘못된 행동을 하고 있음을 깨닫습니다.

어느 쪽이든, 결과는 여전히 보기 흉하고 불법일 가능성이 높습니다.

AI 개발자를 계몽하고 AI 시스템에 내재된 편견을 없애기 위한 적절한 지침을 제공할 AI 윤리 원칙을 공표하기 위한 적극적인 노력이 진행 중입니다. 이것은 두 가지 방식으로 도움이 될 것입니다. 첫째, AI를 만드는 사람들은 더 이상 어떤 계율을 따라야 하는지 인식하지 못했다는 변명할 준비가 되어 있지 않을 것입니다. 둘째, 윤리적 AI 조건에서 벗어나는 사람들은 더 쉽게 포착되고 하지 말라고 미리 경고받은 것을 피하는 것으로 표시될 것입니다.

잠시 시간을 내어 AI 빌더가 AI 윤리 입장에서 생각하고 엄격하게 수행해야 하는 것을 설명하기 위해 몇 가지 주요 윤리적 AI 수칙을 간략하게 살펴보겠습니다.

바티칸에서 밝힌 바와 같이 AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더군다나 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력 또한 깨기 힘든 너트입니다. AI 윤리 수칙이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만, AI 코딩이 길을 만나는 진정한 고무가 되어야 하는 것은 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 수명 주기 동안 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. AI를 고안하고 배치하는 데에는 마을이 필요하다는 점을 유의하십시오. 이를 위해 마을 전체가 AI 윤리에 대해 계속 긴장해야 합니다.

어쨌든, 이제 AI가 편향을 포함할 수 있다는 표에 도달했으므로 우리는 다음 두 가지 명백한 사실에 모두 동의할 수 있습니다.

1. 인간은 수많은 불리한 편견을 가질 수 있으며 그에 따라 행동할 수 있습니다.

2. AI는 수많은 불리한 편향을 가질 수 있으며 그러한 편향에 따라 행동할 수 있습니다.

나는 AI가 인간과 동등한 지각 능력을 가지고 있음을 암시할 수 있기 때문에 그런 맥락에서 인간과 AI를 비교하는 것을 다소 싫어합니다. 이것은 확실히 그렇지 않습니다. 나는 이 논의의 조금 뒤에서 AI의 의인화에 대한 증가하는 우려로 잠시 되돌아갈 것입니다.

불리한 편향을 보이는 인간과 그렇게 하는 AI 중 어느 쪽이 더 나쁜가요?

나는 그 질문이 그 암울한 선택 중 하나를 제기한다고 감히 말할 수 있습니다. 그것은 두 가지 악 중 하나가 논쟁 할 수있는 속담입니다. 우리는 인간이 부당한 편견을 구현하지 않기를 바랍니다. 우리는 인간에게 불리한 편견이 있더라도 그러한 편견에 따라 행동하지 않기를 바랍니다. AI도 마찬가지라고 할 수 있습니다. 우리는 AI가 불리한 편향을 포함하지 않았으면 하고 내부적으로 코딩된 편향이 있더라도 AI가 최소한 그것에 대해 행동하지 않기를 바랍니다.

소원이 반드시 세상을 움직이는 것은 아니지만(소위 AI 소원성취 사회 전반적으로, 참조 여기 링크).

좋아요, 우리는 분명히 인간이 자신의 한계를 알기를 바랍니다. 자신에게 불리한 편견이 있을 때 이를 인식하는 것이 중요합니다. 그러한 부당한 편향이 당신의 행동과 결정에 주입되는 것을 방지하려는 노력도 똑같이 중요합니다. 오늘날 기업들은 직원들이 잘못된 편견에 빠지지 않도록 온갖 종류의 접근 방식을 시도하고 있습니다. 윤리적으로 건전하게 업무를 수행하는 방법에 대해 직원을 대상으로 전문 교육을 실시하고 있습니다. 프로세스는 직원들이 비윤리적인 관습을 보이는 것처럼 보일 때 경고하기 위해 구성됩니다. 등등.

인간과 인간의 부당한 편견에 대처하는 또 다른 수단은 인간 기반 작업을 자동화하는 것입니다. 예, 루프에서 인간을 제거하기만 하면 됩니다. 인간이 의사 결정 작업을 수행하도록 허용하지 마십시오. 그러면 당신은 아마도 더 이상 부당한 편견에 대한 인간의 태도에 대해 더 이상 고민하지 않을 것입니다. 사람이 관여하지 않아 잠재적인 사람의 편견 문제가 해결된 것 같습니다.

우리가 알고리즘 의사 결정(ADM) 방식으로 AI를 사용하는 방향으로 점진적이고 대규모의 변화를 목격하고 있기 때문에 이 문제를 제기합니다. 인간 노동자를 AI로 대체할 수 있다면 많은 이점이 생길 가능성이 큽니다. 이미 언급했듯이, 당신은 더 이상 그 인간 노동자(더 이상 그 일을 하지 않는 노동자)의 인간적 편견에 대해 초조해하지 않을 것입니다. 장기적으로 볼 때 AI가 전반적으로 비용이 덜 들 가능성이 있습니다. 당신은 인간 노동자와 함께 부분적으로 오는 다른 모든 다양한 어려움을 생략합니다. 등.

근거를 얻고 있는 제안은 다음과 같습니다. AI를 가장 잘 배치할 위치를 결정할 때 먼저 작업자의 인간적 편견에 대해 이미 수반되고 이러한 편견이 특정 의사 결정 작업을 축소하거나 과도하게 복잡하게 만드는 설정을 살펴보십시오.

결론은 바람직하지 않은 편향 주입 관점에서 제어하기 힘든 고도로 노출된 인간의 의사 결정 작업을 정면으로 목표로 하여 AI 투자 측면에서 가장 큰 돈을 버는 것이 현명해 보인다는 것입니다. 해당 역할의 작업자를 제거하십시오. AI로 교체하십시오. AI는 그러한 편향이 없을 것이라고 가정합니다. 그러므로 당신은 케이크를 가지고 그것을 먹을 수 있습니다. 즉, 결정 작업을 수행하고 그렇게 함으로써 부당한 편견의 윤리적, 법적 망령을 뺀 것입니다.

이를 자세히 설명하면 ROI(투자 수익률)가 AI를 선택하는 것이 당연할 것입니다.

다음은 일반적으로 실행되는 방식입니다.

회사 전체를 살펴보고 고객에게 영향을 미치는 의사 결정 작업을 식별하십시오. 이러한 작업 중에서 근로자가 부당한 편견을 구현하는 경우 부적절하게 좌우될 가능성이 가장 높은 작업은 무엇입니까? 당신이 이미 그러한 편견을 억제하려고 노력했다면, 아마도 당신은 상황을 있는 그대로 내버려 둘 것입니다. 반면에 편견이 계속해서 나타나고 이를 없애기 위한 노력이 번거롭다면 관련 AI를 해당 역할에 넣는 것을 고려하십시오. 작업자가 AI를 무시하거나 AI를 잘못된 편견의 나락으로 다시 밀어 넣을 수 있으므로 작업자를 혼합하지 마십시오. 또한 AI가 작업을 능숙하게 수행할 수 있고 작업을 수행하는 데 필요한 의사 결정 측면을 충분히 파악했는지 확인합니다.

린스하고 반복하십시오.

나는 그것이 간단한 개념처럼 보이지만 인간 노동자를 AI로 대체하는 것이 쉽게 실패할 수 있는 많은 방법이 있다는 것을 깨닫습니다. 많은 기업들이 그러한 조치를 취하기를 열망했고 그렇게 하는 방법을 신중하게 고려하지 않았습니다. 그 결과, 그들은 종종 처음부터 손에 쥐고 있던 것보다 훨씬 더 큰 혼란을 겪었습니다.

AI가 만병통치약이 아니라는 점을 명확히 하고 강조하고 싶습니다.

말하자면, 편향되지 않은 AI로 인간 편향된 의사 결정권자를 겉으로 보기에 내던지는 것의 깨끗함에 대해 한 가지 큰 문제가 있습니다. 문제는 한 세트의 불리한 편견을 다른 세트로 대체할 수 있다는 것입니다. 이전 표시에 따르면 AI는 바람직하지 않은 편향을 포함할 수 있으며 이러한 편향에 따라 행동할 수 있습니다. 편향된 인간을 편향되지 않은 AI로 바꾸는 것이 모든 것이 아니라는 뻔뻔한 가정을 하는 것입니다.

요컨대, 편향 요인에서 엄격하게 문제를 볼 때 거래는 다음과 같습니다.

  • AI에는 불리한 편향이 없으며 AI 기반 ADM은 배포하기 쉽습니다.
  • 인공지능은 대체되는 인간과 같은 불합리한 편향을 갖고 있어 인공지능 기반 ADM이 문제다.
  • AI는 대체되는 인간의 편향을 넘어 새로운 편향을 도입하고 그에 따라 상황을 악화시킬 가능성이 있습니다.
  • AI는 처음에는 괜찮아 보이다가 점차적으로 편향에 휘말리게 됩니다.
  • 기타

우리는 그 가능성을 간단히 풀 수 있습니다.

첫 번째는 일어날 수 있는 일의 이상화된 버전입니다. AI는 불리한 편향이 없습니다. AI를 제자리에 배치하면 훌륭하게 작업을 수행합니다. 잘 됐네요! 물론 AI 포함으로 인한 인간 노동자의 이동을 어떤 방식으로든 능숙하게 처리했기를 바랍니다.

두 번째 경우에는 AI를 배치하고 AI가 인간 노동자와 동일한 편향을 보이고 있음을 발견합니다. 어떻게 이럴 수있어? 이 함정에 빠지는 일반적인 방법은 해당 역할의 인간이 이전에 결정을 내리는 방식에 대한 수집된 데이터를 기반으로 머신 러닝(ML) 및 딥 러닝(DL)을 사용하는 것입니다.

잠시 설명하겠습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 수년 동안 작업을 수행해 온 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. 모델링 자체의 상식이나 다른 감각적 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. 신비한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 큽니다.

모두 말해서, 당신은 다시 XNUMX로 돌아갈 수 있습니다. 인간의 동일한 불리한 편향이 이제 AI 시스템에서 계산적으로 반영됩니다. 당신은 편견을 근절하지 않았습니다.

설상가상으로 AI에 편견이 있다는 사실을 깨닫지 못할 수도 있습니다. 인간의 경우 일반적으로 인간에게 불리한 편견이 있다는 것을 경계할 수 있습니다. 이것은 기본 기대치입니다. AI를 사용하면 리더가 자동화가 인간의 편견을 완전히 제거했다고 믿게 만들 수 있습니다. 따라서 그들은 발에 총을 쏜 것에 대해 스스로를 꾸미고 있습니다. 그들은 겉으로 보기에 불리한 편향이 있는 것으로 알려진 인간을 제거하고 그러한 편향이 없다고 생각된 AI로 대체되었지만 이미 존재하는 것으로 알려진 동일한 편향이 가득한 AI를 사용하고 있습니다.

이것은 정말 눈을 떼지 못하게 할 수 있습니다. 이미 예상된 인간 편향의 출현을 감지하고 방지하기 위해 설정된 인간 작업자와 함께 사용되는 다른 가드레일을 제거했을 수 있습니다. AI는 이제 자유로운 고삐를 가집니다. 행동하기 전에 잡을 수 있는 것은 아무 것도 없습니다. 그런 다음 AI는 편향된 행동의 광대한 축적의 음울한 길로 당신을 이끌 수 있습니다.

그리고, 당신은 한때 편견에 대해 알고 있었고 이제 그러한 편견이 혼란을 일으키도록 내버려 둔 어색하고 아마도 책임 있는 자세에 있습니다. 그러한 부당한 편향에 직면한 적이 없고 갑자기 AI가 그러한 편향을 불러일으키는 것은 아마도 한 가지 일 것입니다. "누가 추측했을지"와 같은 방해 요소로 이것을 변명하려고 할 수 있습니다(아마도 그다지 설득력이 없습니다). 그러나 이제 이전과 똑같은 부당한 편향된 행동을 하는 AI를 설정했기 때문에, 글쎄요, 당신의 핑계는 점점 가늘어지고 있습니다.

이것에 대한 왜곡은 AI가 인간이 작업을 수행할 때 이전에 마주치지 못한 편향을 나타내는 것을 수반합니다. 이것은 회사가 이전에 찾지 못했던 "새로운" 편견으로 구성되어 있기 때문에 예방하기가 더 어렵다고 말할 수 있습니다. 하지만 결국 핑계는 큰 위안이 되지 않을 수 있습니다. AI 시스템이 비윤리적이고 불법적인 영역으로 모험을 떠나면 당신의 거위가 요리될 수 있습니다.

염두에 두어야 할 또 다른 측면은 AI가 처음에는 순조롭게 시작하다가 점차 편향되어 갈 수 있다는 것입니다. AI를 최신 상태로 유지하기 위해 머신 러닝 또는 딥 러닝을 지속적으로 사용할 때 특히 그렇습니다. ML/DL이 실시간으로 작동하든 주기적으로 업데이트를 수행하든 상관없이 AI가 현재 편향을 포함하고 이전에는 존재하지 않았던 데이터를 수집할 가능성이 있는지 여부에 주의해야 합니다.

편향된 인간 노동자를 AI로 대체하기 위해 요술지팡이를 휘둘러 무료 점심을 먹고 있다고 생각하는 리더는 매우 무례한 각성을 하고 있습니다. AI 윤리 원칙으로 리더에게 권한을 부여하는 것의 중요성에 대한 내 토론을 참조하십시오. 여기 링크.

이 논의의 이 시점에서 나는 당신이 인간의 불리한 편향을 AI 기반의 편향으로 대체하는(또는 그렇지 않은) 수수께끼를 보여줄 수 있는 실제 사례를 원할 것이라고 확신합니다.

물어봐서 다행입니다.

내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 출현은 AI의 잘못된 편견에 대해 무엇이든 밝혀줄 것이며, 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면, 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

편향이 없는 자율주행 자동차와 AI

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 자율주행 자동차와 AI의 탐색과 편향을 수반하는 윤리적인 AI 가능성에 대해 자세히 알아볼 준비가 되었습니다.

간단하게 예를 들어보겠습니다. AI 기반 자율주행차가 우리 동네 거리를 달리고 있고, 안전하게 운전하고 있는 것 같다. 처음에는 자율주행차를 볼 때마다 각별한 주의를 기울였습니다. 자율 주행 차량은 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 눈에 띄었습니다. 몇 주 동안 지역 사회를 순회하는 자율 주행 자동차가 있지만 이제 거의 눈치 채지 못합니다. 당신이 염려하는 한 그것은 이미 붐비는 공공 도로의 ​​또 다른 차일 뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록 자율주행차 시승 범위에 있는 로케일이 차츰 차츰 차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 자율주행차까지, 내 분석 보기 여기 링크. 많은 지역 주민들은 결국 입을 벌리고 황홀한 갬성에서 이제 구불구불한 자율주행차를 목격하기 위해 지루함의 광활한 하품을 하는 것으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다.

일반적으로 무해하고 일반적으로 환영받는 AI 기반 자율주행 자동차에 대해 다음과 같은 두 가지 보기 흉한 우려가 발생하기 시작하는 것으로 나타났습니다.

ㅏ. AI가 자가 운전 차량을 로밍하는 곳에서 승차를 픽업하는 것이 커뮤니티 전반의 우려 사항이 되었습니다.

비. AI가 통행우선권이 없는 보행자를 어떻게 대하는지도 문제다.

처음에는 AI가 도시 전체를 자율주행차로 배회하고 있었다. 자율주행차를 타고 싶어 하는 사람은 누구에게나 본질적으로 동등한 기회가 주어졌습니다. 점차적으로 AI는 주로 자율 주행 자동차가 도시의 한 구역에서만 로밍하도록 하기 시작했습니다. 이 섹션은 돈을 더 많이 벌었고 AI 시스템은 커뮤니티 사용의 일부로 수익을 극대화하도록 프로그래밍되었습니다.

마을의 빈곤한 지역 사회 구성원들은 자율주행차를 탈 가능성이 적었습니다. 자율주행차가 더 멀리 떨어져 있고 수익이 더 높은 지역을 돌아다니고 있기 때문입니다. 멀리 떨어진 마을에서 요청이 들어왔을 때, 마을의 "존경받는" 지역일 가능성이 높은 가까운 위치에서 요청한 것이 더 높은 우선 순위를 갖습니다. 결국, 도시의 부유한 지역이 아닌 다른 곳에서 자율주행 자동차를 얻는 것은 거의 불가능했고, 현재 자원이 부족한 지역에 살고 있는 사람들에게는 너무나 황당했습니다.

AI가 일종의 대리 차별(간접 차별이라고도 함)에 거의 영향을 미쳤다고 주장할 수 있습니다. AI는 가난한 이웃을 피하도록 프로그래밍되지 않았습니다. 대신 ML/DL을 사용하여 그렇게 하도록 "학습"했습니다.

문제는 승차 공유 인간 운전자가 같은 일을 하는 것으로 알려져 있었지만 반드시 돈을 버는 각도 때문만은 아닙니다. 마을의 특정 지역에서 라이더를 태우는 것에 대해 부당한 편견을 가진 승차 공유 인간 운전자가 있었습니다. 이것은 어느 정도 알려진 현상이며 시는 이러한 행위를 하는 인간 운전자를 적발하기 위해 모니터링 방식을 시행했습니다. 인간 운전자는 불미스러운 선택 관행을 수행하는 데 어려움을 겪을 수 있습니다.

AI는 결코 그런 종류의 늪에 빠지지 않을 것이라고 가정했습니다. AI 기반 자율주행차가 어디로 가고 있는지 추적하기 위한 전문 모니터링은 설정되지 않았다. 지역 사회 구성원들이 불평하기 시작한 후에야 도시 지도자들이 무슨 일이 일어나고 있는지 깨달았습니다. 자율주행차와 자율주행차가 제시할 이러한 유형의 도시 전체 문제에 대한 자세한 내용은 다음에서 내 보도를 참조하십시오. 여기 링크 그리고 그 주제에 대해 공동 저술한 하버드 주도의 연구를 설명합니다.

AI 기반 자율주행 자동차의 로밍 측면에 대한 이 예는 인간에게 불리한 편향이 수반되는 상황이 있을 수 있다는 초기 징후를 보여줍니다. 무료. 불행히도 AI는 유사한 편향에 점차 빠져들 수 있으며 충분한 가드레일 없이 그렇게 할 수 있습니다.

두 번째 예는 길을 건널 권리가 없는 보행자를 기다리기 위해 AI가 정지할지 여부를 결정하는 것입니다.

당신은 의심할 여지 없이 운전을 하다가 길을 건너기 위해 기다리고 있는 보행자와 마주쳤지만 통행우선권이 없었습니다. 이것은 당신이 멈추고 그들을 건너게 할 것인지에 대한 재량권이 있음을 의미했습니다. 당신은 그들을 건너지 않고 계속 진행할 수 있으며 여전히 그렇게 하는 법적 운전 규칙을 완전히 준수합니다.

인간 운전자가 그러한 보행자를 위해 정지 또는 정지하지 않기로 결정하는 방법에 대한 연구에 따르면 때때로 인간 운전자는 부당한 편견에 기초하여 선택을 하는 것으로 나타났습니다. 인간 운전자는 보행자를 주시하고 보행자가 인종이나 성별에 따라 다르게 생겼다면 정지했을지라도 멈추지 않기로 선택할 수 있습니다. 나는 이것을 조사했다 여기 링크.

AI 기반 자율주행차가 통행우선권이 없는 보행자를 위해 정지할지 말지 문제를 처리하도록 프로그래밍됐다고 상상해보자. AI 개발자가 이 작업을 프로그래밍하기로 결정한 방법은 다음과 같습니다. 그들은 도시 곳곳에 설치된 도시의 비디오 카메라에서 데이터를 수집했습니다. 데이터는 우선 통행권이 없는 보행자를 위해 정지하는 인간 운전자와 멈추지 않는 인간 운전자를 보여줍니다. 그것은 모두 큰 데이터 세트로 수집됩니다.

머신 러닝과 딥 러닝을 사용하여 데이터를 계산적으로 모델링합니다. 그런 다음 AI 운전 시스템은 이 모델을 사용하여 정지할 것인지 여부를 결정합니다. 일반적으로 아이디어는 지역 관습이 무엇이든 AI가 자율주행차를 지시하는 방식이라는 것입니다.

놀랍게도 AI는 인종과 성별을 포함하여 보행자의 모습을 기반으로 정지하거나 정지하지 않기로 결정했습니다. 자율주행차의 센서는 대기 중인 보행자를 스캔하고 이 데이터를 ML/DL 모델에 입력하고 모델은 정지할지 계속할지 여부를 AI에 내보냅니다. 애석하게도 이 도시에는 이미 이와 관련하여 많은 인간 운전자 편견이 있었고 AI는 이제 이를 모방하고 있습니다.

좋은 소식은 이것이 이전에 거의 아무도 존재하지 않는 것으로 알려진 문제를 제기한다는 것입니다. 나쁜 소식은 AI가 이런 일을 하다가 잡혀서 대부분의 비난을 받았다는 것입니다. 이 예는 AI 시스템이 이미 존재하는 인간의 편향을 단순히 복제할 수 있음을 보여줍니다.

결론

게이트 밖으로 편향이 있거나 시간이 지남에 따라 편향을 수집하는 AI를 고안하지 않으려고 시도하고 피하는 방법은 여러 가지가 있습니다. 한 가지 접근 방식은 AI 개발자가 이러한 일이 일어나고 있음을 인지하도록 하여 문제를 피하기 위해 AI를 프로그래밍하도록 하는 것입니다. 또 다른 방법은 AI가 스스로 비윤리적인 행동을 모니터링하도록 하는 것입니다. 여기 링크) 및/또는 잠재적으로 비윤리적인 행동에 대해 다른 AI 시스템을 모니터링하는 다른 AI 여기 링크).

요약하자면, 우리는 인간이 불리한 편견을 가질 수 있으며 어떻게든 자신의 한계를 알아야 한다는 것을 깨달을 필요가 있습니다. 마찬가지로 AI는 불리한 편향을 가질 수 있으며 어떻게든 AI의 한계를 알아야 합니다.

AI 윤리를 열렬히 수용하고 있는 여러분을 위해 모두가 이미 알고 있어야 할 또 다른 유명한 대사로 지금 끝내고 싶습니다. 즉, 윤리적 AI의 중요성을 지속적으로 사용하고 공유하십시오. 그렇게 함으로써 나는 건방지게 이렇게 말할 것입니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/