인간에 대한 교활한 AI 기반 프록시 차별은 자율 AI 자율 주행 자동차의 경우에도 발생할 수 있는 AI 윤리를 심각하게 괴롭히고 있습니다.

현대 인공지능(AI)의 행위 속에서 나타나는 대리차별에 대해 논해보자.

AI 측면에 대해 알아보려면 먼저 차별의 전반적인 측면에 대한 무대를 마련한 다음 AI가 이 복잡하고 때로는 교활한 문제에 빠져드는 놀라운 방식을 조사해야 합니다. 또한, 자율주행차 등 AI가 탑재된 자율주행차의 경우에도 이러한 일이 발생할 수 있다는 점을 포함하여 AI 기반 대리 차별의 사례도 제시하겠습니다.

시작하자.

차별에 대한 사전적 정의는 일반적으로 인종, 성별, 연령 등과 같은 인지된 범주(이러한 기준은 보호 계층으로 구성되는 것으로 설명됨)에 따라 사람들을 다르게 대우하는 부당한 성격의 행위임을 나타냅니다. 차별의 한 형태로 알려진 곧장 차별은 차별의 근거로 인종이나 성별을 상대적으로 명확하게 강조하는 것과 같이 그러한 범주 중 하나에 명백하게 집착하는 것을 수반합니다(이들은 첫 번째 요인으로 해석될 것입니다). 이것은 아마도 가장 투명한 형태의 차별일 것입니다.

다소 덜 실현된 또 다른 가능성은 다음을 사용하는 것입니다. 간접적 인 차별. 이는 제거된 단계로 간주되어 찾아내기 어려울 수 있으므로 더 까다로운 형태의 차별이라고 제안할 수 있습니다. 간접 차별에는 일종의 하나 이상의 단계가 제거된 분류 선택이 포함됩니다. 기본적이고 연결 가능한 첫 번째 요소에 대한 프록시 또는 대리인 역할을 하는 중간 요소가 있기 때문에 이는 일반적으로 프록시 차별로 분류됩니다.

간접적 또는 대리 차별이라는 겉보기에 추상적인 개념을 명확히 하는 데 도움이 되도록 간단한 예를 고려해 볼 수 있습니다.

누군가 주택담보대출을 신청하고 있습니다. 신청서를 검토 중인 대출 대리인이 신청자의 인종을 기준으로 대출을 거절하기로 결정했다고 가정해 보겠습니다. 이는 직접적인 차별의 한 예라고 할 수 있습니다. 그러나 대신에 대출 대리인이 신청자의 우편번호를 사용하고 그 요인에 따라 대출을 거절하기로 결정했다고 가정해 보십시오. 얼핏 보면 우편번호는 일반적으로 차별적이거나 보호받는 계층으로 간주되는 요소 중 하나가 아닌 것처럼 보입니다. 따라서 대출 대리인은 차별이 담긴 결정을 피한 것으로 보입니다.

하지만 문제는 우편 번호가 실제로 보호되는 카테고리 또는 클래스와 같은 다른 것에 대한 프록시라는 것입니다. 아마도 이 특정 우편 번호는 주로 특정 인종이나 민족으로 구성되어 있으며 간접적 또는 대리 차별이 일어나고 있습니다. 일반적으로 레드라이닝이라는 캐치프레이즈로 이러한 유형의 예를 알 수 있습니다.

보시다시피, 이 사례에서 우편번호를 구성하는 요인과 인종의 차별적 요인 사이에는 분명히 일종의 연관성이 있습니다. 우편 번호는 이러한 상황에 직면했을 때 결백하거나 중립적인 요소로 보일 것입니다. 우편 번호는 우리 대부분에게 다소 무해한 항목처럼 보이며 알람 벨을 울리지 않을 것입니다.

당신은 다양한 요인들 사이에 발생할 수 있는 통계적 상관관계가 있다는 것을 통계학 과정을 수강한 날로부터 기억할 수 있을 것입니다. 우편번호와 인종 사이에 뚜렷한 상관관계가 있을 수 있습니다. 따라서 우편번호 선택은 언뜻 보기에는 온건해 보이지만 자세히 살펴보면 실제로는 차별적으로 보호되는 인종 계층의 대리자 또는 대리자입니다.

다음은 한 연구 논문에서 그러한 상관관계의 개념과 대리 차별의 발생을 설명하는 방법입니다. 학급 구성원은 결정에 참여하지 않을 수도 있습니다. 보호 클래스와 다른 속성 간의 상관 관계로 인해 차별이 발생할 수도 있습니다. 이질적인 영향의 법적 프레임워크는 결과가 어떻게 발생했는지에 관계없이 먼저 보호 계층에 대해 상당히 다른 결과를 요구함으로써 이러한 경우를 해결합니다. 인종과 관련된 지원자 주소 사용으로 인한 대출 결정과 인종 간의 연관성은 이러한 유형의 차별의 예입니다. 데이터 기반 시스템의 대리 차별: 기계 학습 프로그램을 사용한 이론 및 실험, Anupam Datta, Matt Fredrikson, Gihyuk Ko, Piotr Mardziel 및 Shayak Sen 작성).

이제 우리는 대리 차별의 기본 사항을 설정했으므로 AI가 기본적으로 컴퓨터로 렌더링된 대리 차별 버전을 내장할 수 있는 측면을 소개할 수 있습니다.

나는 오늘날의 AI에 초점을 맞추고 싶습니다. 지각이 있고 실존적 위험을 초래할 것이라고 말하는 미래형 AI가 아닙니다. 여기 링크). 현재 AI가 어떻게든 지각력에 도달했으며 인간의 지식과 추론을 구현한다고 선언하는 수많은 떠들썩한 헤드라인에도 불구하고, 이 과장된 AI 과장법은 오늘날의 알고리즘 의사 결정(ADM)에서 여전히 숫자 계산에 의존하고 있기 때문에 순수한 쓰레기라는 점에 유의하십시오. AI 시스템에 의해 수행됩니다.

자랑스러운 ML(머신 러닝)과 DL(딥 러닝)도 전산 패턴 매칭으로 구성되어 있습니다. 즉, 숫자는 여전히 ML/DL 사용의 핵심입니다. AI가 지각력에 도달하는 것이 가능한지 여부는 알 수 없습니다. 그럴 수도 있고 아닐 수도 있습니다. 아무도 이것이 어떻게 일어날 수 있는지 확실히 말할 수 없습니다. 어떤 사람들은 일종의 지각력이 자발적으로 발생하도록 계산 AI 노력을 점진적으로 개선할 것이라고 믿습니다. 다른 사람들은 AI가 일종의 계산 초신성으로 들어가 거의 자체적으로 지각력에 도달할 수 있다고 생각합니다(일반적으로 특이점이라고 함). AI의 미래에 대한 이러한 이론에 대한 자세한 내용은 여기 링크.

그러므로 현대의 AI가 인간처럼 생각할 수 있다고 속이거나 거짓으로 믿지 맙시다. 우리는 인간의 사고가 아마도 구성되어 있다고 믿는 것을 AI에서 모방하려고 노력할 수 있습니다. 지금까지 우리는 상식과 기타 인간 사고의 초석을 내장할 수 있는 AI 고안의 파악하기 어려운 요소를 해결하지 못했습니다.

당신은 AI의 최신 시대가 시작되었을 때 일부 사람들이 지금 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 있을 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

AI 윤리 및 윤리적 AI에 대한 광범위한 내용은 다음에서 찾을 수 있습니다. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

AI가 인간이 하는 것과 같은 종류의 불리한 편견과 불평등을 어떻게 주입할 수 있는지 어리둥절할 수 있습니다. 우리는 AI를 완전히 중립적이고 편견이 없으며 인간이 가질 수 있는 감정적 동요와 나쁜 생각이 전혀 없는 단순한 기계라고 생각하는 경향이 있습니다. AI가 편견과 불평등에 빠지는 가장 일반적인 수단 중 하나는 기계 학습 및 딥 러닝을 사용할 때 발생하며, 부분적으로는 인간이 결정을 내리는 방식에 대해 수집된 데이터에 의존한 결과입니다.

자세히 설명해 드리겠습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴을 만들어 온 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 알고리즘 의사 결정 또는 ADM은 공리적으로 불평등하게 됩니다.

안좋다.

직접 차별과 은밀한 간접 또는 대리 차별을 모두 포함하는 AI 시스템이 고안되고 있습니다. 이전에 언급한 연구 논문에서 언급한 바와 같이 “그러나 기계 학습 시스템은 많은 역사적 또는 제도적 편향이 있는 실제 세계의 관찰 데이터를 기반으로 구성됩니다. 결과적으로 그들은 데이터에 내재된 편견과 차별적 관행을 물려받습니다. 이러한 시스템을 채택하면 불공정한 결과와 편견이 지속됩니다. 예는 많습니다. 인종은 재범의 예측과 관련이 있습니다. 표시되는 직업 관련 광고에 영향을 미치는 성별 표시된 검색 광고에 영향을 미치는 인종; 보스턴의 Street Bump 앱은 부유한 지역의 패인 구멍 수리에 중점을 둡니다. 흑인 지역에서는 Amazon의 당일 배송이 불가능합니다. 그리고 페이스북은 "민족적 소속"에 따라 "백인" 또는 "흑인" 영화 예고편을 보여줍니다. 다양한 차별 사례는 법으로 금지되어 있습니다.”

임베디드에만 의존하는 AI가 있다면 곧장 차별 문제, 가능성은 우리가 그러한 컴퓨터 병폐를 찾아내는 더 높은 전투 기회를 가질 수 있다는 것입니다. 불행히도 세상은 그렇게 쉽지 않습니다. 오늘날의 AI는 아마도 대리 또는 간접 차별을 주입할 가능성이 더 높지는 않더라도 비슷할 것입니다. 슬픈 얼굴 시나리오입니다. 대리 차별을 뒷받침하는 더 깊은 계산상의 곤경은 깨지기 힘든 견과 중 하나일 수 있습니다.

FTC(Federal Trade Commission) 커미셔너는 다음과 같이 말했습니다. 특정 경제적, 사회적 및 시민적 기회에 대해 보호된 계층. 즉, 이러한 알고리즘은 보호 계층을 밀접하게 반영하는 그룹을 생성하기 위해 겉보기에 중립적인 특성을 식별하고 이러한 '프록시'는 포함 또는 제외에 사용됩니다. 연방통상위원회를 위한 진로” 예일 법률 및 기술 저널, Rebecca Kelly Slaughter 국장 작성, 2021년 XNUMX월).

명심해야 할 한 가지 측면은 AI가 대리 차별을 실행하는 데 혼자가 아니라는 것입니다. 대리 차별도 새로운 방식의 조합이 아닙니다. 우리는 AI가 출현하기 오래 전부터 오랫동안 대리 차별을 받아왔습니다. FTC 위원은 이와 동일한 중요한 깨달음을 반복했습니다. "대리 차별은 새로운 문제가 아닙니다. 차별적인 결과를 초래하는 겉으로 중립적인 요소를 사용하는 것은 사회와 민권법이 수십 년 동안 씨름해 온 문제입니다." 예일 법률 및 기술 저널).

AI 개발자는 대리 차별을 포함하도록 의도적으로 AI 시스템을 제작합니까?

글쎄요, AI 노력을 부주의하게 대리 차별에 의존하는 것과 의도적으로 그렇게 하는 것으로 나눌 수 있습니다. 나는 대체로 대부분의 AI 빌더가 우발적이거나 우발적인 행동으로 인해 대리 차별 계산의 늪에 빠지고 있다고 추측합니다. 하지만 이것이 그들이 하는 일에 대한 변명은 아닙니다. 그들은 여전히 ​​자신들이 고안한 AI에 대한 책임이 있으며 단순히 손을 흔들고 무슨 일이 일어나고 있는지 몰랐다고 선언할 수는 없습니다. AI에 의해 그러한 차별이 일어나지 않도록 노력하는 것은 그들의 어깨에 달려 있습니다. 한편, 대리 차별을 통해 기만적이고 고의적으로 AI를 구성하는 사람들은 그에 따른 책임을 져야 합니다.

나는 당신의 머리를 빙빙 돌게 할 트위스트를 추가하고 싶습니다.

어떤 사람들은 우리가 AI를 더 잘 고안할수록 대리 차별을 주입하는 AI 사례를 더 많이 목격할 가능성이 있다고 주장합니다. 왜 이런 일이 발생하는지 의아해 할 수 있습니다. 희망과 꿈은 AI의 발전이 부적절한 대리 차별의 물에 빠지는 컴퓨팅 악몽의 기회를 줄이는 것입니다.

다음과 같은 연구에서 흥미로운 각도가 확인되었습니다. 아이오와 법률 검토: “대신 AI는 훈련 데이터를 이용해 어떤 특성을 사용하여 목표 변수를 예측할 수 있는지 스스로 찾아냅니다. 이 프로세스는 인과관계를 완전히 무시하지만, 법적 금지로 인해 이러한 특성에 대한 데이터가 AI에 제공되지 않는 경우 AI는 직접 예측 특성에 대한 프록시를 필연적으로 '찾는' 결과를 낳습니다. 단순히 직접 예측 변수에 대한 가장 직관적인 프록시에 대한 AI의 액세스를 거부하는 것만으로는 이 프로세스를 방해할 수 없습니다. 대신 AI가 덜 직관적인 프록시에 의존하는 모델을 생성하게 됩니다. 따라서 이 기사의 핵심 주장은 AI가 더욱 똑똑해지고 빅 데이터가 더욱 커짐에 따라 대리 차별이 직접적으로 예측되는 특성에 기반한 차별을 금지하려는 차별 금지 체제에 점점 더 근본적인 도전이 될 것이라는 것입니다.”(기사에서 언급한 바와 같이) 자격이 있는 인공지능과 빅데이터 시대의 대리차별, Anya Prince 및 Daniel Schwarcz 작성).

이 소름끼치는 예측의 논리를 펼쳐보도록 하겠습니다.

AI 개발자가 기계 학습 및 딥 러닝 모델이 대리 차별을 지향하도록 허용하는 것을 피해야 한다는 점을 냉혹하게 인식한다고 가정해 보겠습니다(이미 직접적인 차별을 경계하고 있기를 바랍니다). 좋습니다. AI 빌더는 보호된 요소에 대한 계산적 래칭을 피하기 위해 최선을 다합니다. 그러나 이것이 XNUMX-XNUMX단계 유형의 프록시를 제한하는 등 다소 분명한 기준에 따라 수행된다고 가정해 보겠습니다.

계산 모델은 데이터에 더 깊이 들어가 대리 차별의 XNUMX단계 또는 XNUMX단계 제거 연결을 찾습니다. AI 개발자들은 XNUMX단계가 ML/DL 시스템의 일부가 아닌 것으로 표시될 수 있다는 사실에 기뻐하는 것 같습니다. 한편, 그들은 아마도 XNUMX단계나 XNUMX단계 또는 다른 수준의 은밀함이 수학적으로 발견되었다는 사실을 깨닫지 못할 것입니다. AI는 지각이 없으며 주의 깊게 이 작업을 수행하려고 시도하지 않는다는 점을 명심하세요. 우리는 여전히 무의식적이고 숫자와 계산을 기반으로 행동하는 AI를 언급하고 있습니다.

AI가 "진보"하고 있지만 우리가 더 우울한 상황으로 향하고 있는 것 같다는 불안한 사실은 다소 짜증나고 아마도 분노할 것입니다. 한편으로 우리는 대리 차별 방지에 대한 인식이 더 많은 관심을 받고 있다는 사실에 기뻐할 수도 있지만, 문제가 단순히 사라지지는 않을 것입니다. AI 기반 대리 차별을 피하려는 노력은 차별적인 컴퓨팅 발견이 인간에 의해 공개되거나 파악되는 것을 점점 더 깊게 만들 수 있습니다.

이것은 나에게 사람이 유사(流沙)에 빠졌을 때를 그린 옛날 만화를 생각나게 합니다. 그들이 더 많이 몸부림칠수록 상황은 더욱 악화됩니다. 어떤 의미에서 인간은 유사와 치열한 싸움을 벌임으로써 자신의 죽음을 초래합니다. 일반적으로 무언가에 맞서 싸우는 것이 탈출이나 석방으로 이어질 것이라고 기대하기 때문에 이것은 확실히 아이러니합니다.

반드시 그런 것은 아닙니다.

전문가들은 만약 당신이 유사(流沙)에 갇히게 된다면, 당신의 현명한 선택은 그 끔찍한 상황에서 벗어나기 위해 노력하고 긴장을 푸는 것이라고 말할 것입니다. 유사(流沙) 꼭대기에 떠 있으려고 노력해야 하며, 가능하면 뒤로 기대어 발을 머리와 수평으로 유지해야 합니다. 거칠게 몸부림치는 것은 바람직하지 않으며 의심할 여지 없이 탈출 가능성을 줄일 것입니다. 더 나은 가능성은 당신이 밖으로 나가기 위해 떠다니거나 가볍게 수영하려고 노력하거나 적어도 나뭇가지나 다른 것에 도달하여 더 멀리 빠져나갈 수 있는 유사의 위치에 도달하는 것입니다.

이러한 유형의 조언을 사용하여 대리 차별의 AI 주입에 대처할 수 있습니까?

거의.

첫째, 대리 차별이 발생할 수 있다는 사실을 아는 것이 AI 시스템을 고안하고 구현하는 사람들의 핵심 요소입니다. 모든 이해관계자들은 이에 대해 생각해 볼 필요가 있습니다. AI 프로젝트를 감독하는 경영진이 이 곤경에 처한 것은 "AI 코더"만이 아니기 때문에 이 문제의 맨 위에 있어야 합니다. 또한 차별적 관행이 내재된 AI를 줄이거 나 최소한 잡아내기 위해 새로운 법률을 제정하는 등 규제 당국도 개입하는 모습을 볼 수 있습니다. 등.

아이오와 법률 검토 연구를 통해 우리는 ML/DL에 활용되는 데이터를 공개할 의무를 부과하는 AI 법률 및 규정을 마련하기 위해 노력할 수 있습니다. 법적으로 보호되는 계층에 대한 개인의 잠재적 구성원. 어떤 경우에는 이 데이터를 규제 기관과 공유하거나 요약 형식으로 대중에게 공개해야 합니다. 이러한 데이터는 기업, 규제 기관, 소송 당사자 및 기타 사람들이 특정 AI가 실제로 대리 차별에 관여하고 있는지 여부를 테스트하는 데 필요합니다."(Anya Prince 및 Daniel Schwarcz의 기사 기준)

다른 가능성으로는 기계 학습 및 딥 러닝 모델을 고안할 때 더 다양한 데이터와 더 넓은 데이터 소스 세트를 사용하는 것이 있습니다. 또 다른 점은 AI 개발자가 AI 시스템이 대리 차별을 사용하지 않는다는 점을 입증해야 할 수도 있다는 것입니다. 이를 수학적으로 보여주거나 증명하려는 노력은 대리 차별의 부족 또는 부재가 눈에 띄게 어려울 것입니다.

이와 관련하여 저는 AI 문제에 대한 솔루션의 일부로 AI를 사용하려고 시도하고 그러한 사고 방식으로 불과 불을 싸우는 것을 옹호합니다. 예를 들어 윤리적 AI 구성 요소를 AI 시스템에 내장하여 나머지 AI가 작업을 수행하는 방식을 모니터링하고 잠재적으로 차별적인 노력을 실시간으로 포착할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 대리 차별 심연에 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

이 토론의 이 시점에서 나는 당신이 AI 기반 대리 차별의 수수께끼를 보여줄 수 있는 몇 가지 추가 예를 원한다고 확신합니다.

물어봐서 다행입니다.

내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 출현은 AI 기반 대리 차별에 대한 어떤 점을 밝혀주나요? 그렇다면 이것이 보여주는 것은 무엇입니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면, 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 기반 프록시 차별

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 자율주행차와 AI 기반 대리 차별의 탐구를 수반하는 윤리적 AI 가능성에 대해 깊이 파고들 준비가 되었습니다.

AI 기반 자율주행차가 당신의 동네 거리를 운행 중이며 안전하게 운전하고 있는 것 같다고 상상해보세요. 처음에는 자율주행차를 엿볼 수 있을 때마다 각별한 주의를 기울였습니다. 자율주행차는 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 돋보였습니다. 몇 주 동안 자율주행차가 지역 사회를 순항한 후 이제 거의 알아차리지 못합니다. 당신이 아는 한 그것은 이미 바쁜 공공 도로의 ​​또 다른 차일뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록 자율주행차 시승 범위에 있는 로케일이 차츰 차츰 차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 자율주행차까지, 내 분석 보기 여기 링크. 많은 지역 주민들은 결국 입을 벌리고 황홀한 갬성에서 이제 구불구불한 자율주행차를 목격하기 위해 지루함의 광활한 하품을 하는 것으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다.

일반적으로 무해하고 일반적으로 환영받는 AI 기반 자율주행 자동차에 대해 다음과 같은 두 가지 보기 흉한 우려가 발생하기 시작하는 것으로 나타났습니다.

ㅏ. AI가 자율주행차를 타고 로밍하는 곳이 우려의 목소리로 떠올랐다.

비. AI가 통행우선권이 없는 대기 보행자를 어떻게 대하는지가 시급한 이슈로 떠올랐다.

처음에는 AI가 도시 전체를 자율주행차로 배회하고 있었다. 자율주행차를 타고 싶어 하는 사람은 누구에게나 본질적으로 동등한 기회가 주어졌습니다. 점차적으로 AI는 주로 자율 주행 자동차가 도시의 한 구역에서만 로밍하도록 하기 시작했습니다. 이 섹션은 돈을 더 많이 벌었고 AI 시스템은 커뮤니티 사용의 일부로 수익을 극대화하도록 프로그래밍되었습니다.

마을의 빈곤한 지역 사회 구성원들은 자율주행차를 탈 가능성이 적었습니다. 자율주행차가 더 멀리 떨어져 있고 수익이 더 높은 지역을 돌아다니고 있기 때문입니다. 멀리 떨어진 마을에서 요청이 들어왔을 때, 마을의 "존경받는" 지역일 가능성이 높은 가까운 위치에서 요청한 것이 더 높은 우선 순위를 갖습니다. 결국, 도시의 부유한 지역이 아닌 다른 곳에서 자율주행 자동차를 얻는 것은 거의 불가능했고, 현재 자원이 부족한 지역에 살고 있는 사람들에게는 너무나 황당했습니다.

AI가 일종의 대리 차별(간접 차별이라고도 함)에 거의 영향을 미쳤다고 주장할 수 있습니다. AI는 가난한 이웃을 피하도록 프로그래밍되지 않았습니다. 대신 ML/DL을 사용하여 그렇게 하도록 "학습"했습니다.

문제는 승차 공유 인간 운전자가 같은 일을 하는 것으로 알려져 있었지만 반드시 돈을 버는 각도 때문만은 아닙니다. 마을의 특정 지역에서 라이더를 태우는 것에 대해 부당한 편견을 가진 승차 공유 인간 운전자가 있었습니다. 이것은 어느 정도 알려진 현상이며 시는 이러한 행위를 하는 인간 운전자를 적발하기 위해 모니터링 방식을 시행했습니다. 인간 운전자는 불미스러운 선택 관행을 수행하는 데 어려움을 겪을 수 있습니다.

AI는 결코 그런 종류의 늪에 빠지지 않을 것이라고 가정했습니다. AI 기반 자율주행차가 어디로 가고 있는지 추적하기 위한 전문 모니터링은 설정되지 않았다. 지역 사회 구성원들이 불평하기 시작한 후에야 도시 지도자들이 무슨 일이 일어나고 있는지 깨달았습니다. 자율주행차와 자율주행차가 제시할 이러한 유형의 도시 전체 문제에 대한 자세한 내용은 다음에서 내 보도를 참조하십시오. 여기 링크 그리고 그 주제에 대해 공동 저술한 하버드 주도의 연구를 설명합니다.

AI 기반 자율주행 자동차의 로밍 측면에 대한 이 예는 인간에게 불리한 편향이 수반되는 상황이 있을 수 있다는 초기 징후를 보여줍니다. 무료. 불행히도 AI는 유사한 편향에 점차 빠져들 수 있으며 충분한 가드레일 없이 그렇게 할 수 있습니다.

이것은 AI 기반 대리 차별이 어떻게 치명적으로 발생할 수 있는지 보여줍니다.

두 번째 예는 길을 건널 권리가 없는 보행자를 기다리기 위해 AI가 정지할지 여부를 결정하는 것입니다.

당신은 의심할 여지 없이 운전을 하다가 길을 건너기 위해 기다리고 있는 보행자와 마주쳤지만 통행우선권이 없었습니다. 이것은 당신이 멈추고 그들을 건너게 할 것인지에 대한 재량권이 있음을 의미했습니다. 당신은 그들을 건너지 않고 계속 진행할 수 있으며 여전히 그렇게 하는 법적 운전 규칙을 완전히 준수합니다.

인간 운전자가 그러한 보행자를 위해 정지 또는 정지하지 않기로 결정하는 방법에 대한 연구에 따르면 때때로 인간 운전자는 부당한 편견에 기초하여 선택을 하는 것으로 나타났습니다. 인간 운전자는 보행자를 주시하고 보행자가 인종이나 성별에 따라 다르게 생겼다면 정지했을지라도 멈추지 않기로 선택할 수 있습니다. 나는 이것을 조사했다 여기 링크.

AI 기반 자율주행차가 통행우선권이 없는 보행자를 위해 정지할지 말지 문제를 처리하도록 프로그래밍됐다고 상상해보자. AI 개발자가 이 작업을 프로그래밍하기로 결정한 방법은 다음과 같습니다. 그들은 도시 곳곳에 설치된 도시의 비디오 카메라에서 데이터를 수집했습니다. 데이터는 우선 통행권이 없는 보행자를 위해 정지하는 인간 운전자와 멈추지 않는 인간 운전자를 보여줍니다. 그것은 모두 큰 데이터 세트로 수집됩니다.

머신 러닝과 딥 러닝을 사용하여 데이터를 계산적으로 모델링합니다. 그런 다음 AI 운전 시스템은 이 모델을 사용하여 정지할 것인지 여부를 결정합니다. 일반적으로 아이디어는 지역 관습이 무엇이든 AI가 자율주행차를 지시하는 방식이라는 것입니다.

도시 지도자들과 주민들을 놀라게 한 것은 AI가 보행자의 나이에 따라 정지하거나 정지하지 않기로 결정한 것이 분명했습니다. 어떻게 그런 일이 일어날 수 있습니까?

인간의 운전자 재량에 대한 영상을 면밀히 검토한 결과, 정지하지 않은 사례의 대부분에는 노인의 지팡이를 들고 있는 보행자가 포함된 것으로 나타났습니다. 인간 운전자들은 아마도 누군가가 여행을 하는 데 걸릴 수 있는 시간이 추정되었기 때문에 멈춰서 노인이 길을 건너도록 내버려두는 것을 꺼려하는 것 같았습니다. 보행자가 신속하게 길을 건너고 운전자의 대기 시간을 최소화할 수 있는 것처럼 보이면 운전자는 사람이 건너도록 더 잘 받아들였습니다.

이것이 AI 운전 시스템에 깊숙이 묻혀버렸습니다. 자율주행차의 센서는 대기 중인 보행자를 스캔하고 이 데이터를 ML/DL 모델에 공급하며 모델은 정지할지 계속할지 여부를 AI에 보냅니다. 지팡이를 사용하는 등 보행자의 횡단 속도가 느릴 수 있다는 시각적 표시를 수학적으로 사용하여 AI 운전 시스템이 기다리고 있는 보행자가 횡단하도록 허용해야 하는지 여부를 결정했습니다. 이는 연령에 따른 대리 차별의 한 형태라고 주장할 수 있습니다.

결론

대리 차별이 포함되거나 시간이 지남에 따라 그러한 편향을 수집하는 AI를 고안하는 것을 시도하고 피하는 방법은 다양합니다. 가능한 한 많은 아이디어는 높은 수준의 장비를 사용하고 AI를 배포하기 전에 문제를 파악하는 것입니다. 말하자면 직접적인 차별이나 대리 차별이 사라지지 않기를 바랍니다.

앞서 지적한 바와 같이 한 가지 접근 방식은 AI 개발자 및 기타 이해 관계자가 AI 윤리를 인식하고 이러한 문제를 방지하기 위해 AI를 고안하는 데 박차를 가하도록 하는 것입니다. 또 다른 방법은 비윤리적 행동에 대해 AI 자체 모니터링을 하거나 잠재적으로 비윤리적 행동에 대해 다른 AI 시스템을 모니터링하는 또 다른 AI를 갖는 것입니다. 나는 내 글에서 수많은 다른 잠재적 솔루션을 다루었습니다.

지금은 마지막 생각입니다.

루게릭(Lou Gehrig)이 야구에는 차별이 있을 수 없다는 유명한 말을 한 것을 아실 겁니다. 같은 관점에서 보면, AI에는 차별의 여지가 없다고 과감하게 선언할 수 있습니다.

우리 모두는 AI 시스템에 차별이 유입되는 것을 방지하기 위한 방법을 찾아야 합니다. 우리 모두를 위해 우리는 이것을 야구장에서 성공시켜야 합니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/04/08/insidious-ai-based-proxy-discrimination-against-humans-is-dauntingly-vexing-for-ai-ethics-which- autonomous-ai-self-driving-cars/의 경우에도 발생할 수 있습니다.