자율 주행 자동차의 AI와 같이 AI가 스스로 윤리적 행동을 배우기를 야심차게 바라는 윤리적 AI

아리스토텔레스는 마음을 교육하지 않고 정신을 교육하는 것은 전혀 교육이 아니라고 유명하게 말했습니다.

이 통찰력 있는 발언은 윤리와 도덕적 행동에 대해 배우는 것이 인류에게 매우 중요하다는 의미로 해석할 수 있습니다. 고전적인 본성 대 양육 논쟁에서 우리는 우리의 윤리적 관습 중 얼마나 많은 부분이 본능적으로 타고난 것인지, 그리고 얼마나 많은 부분이 우리가 살아가는 동안 학습되는지 질문해야 합니다. 유아는 동료 인간을 관찰하며 아마도 보고 듣는 것을 바탕으로 윤리적 기초를 모을 것입니다. 십대의 경우에도 마찬가지입니다. 열린 마음을 가진 성인들 역시 일상 세계를 경험하면서 윤리적 사고가 계속해서 조정되고 발전할 것입니다.

물론 누군가에게 윤리에 대해 명시적으로 가르치는 것도 당연한 일입니다. 사람들은 해당 주제에 관한 수업에 참석하거나 관심 있는 행사 및 관행에 참여함으로써 윤리적 방법을 배우게 됩니다. 윤리적 가치는 다른 사람들이 자신의 윤리 구조를 공식화하는 데 도움을 주는 수단으로 명확하게 식별되고 공유될 수 있습니다. 또한 윤리는 궁극적으로 윤리적 행동이 무엇으로 구성되어 있는지에 대한 메시지를 전달하는 이야기나 기타 교육 모드 내에 미묘하게 숨겨져 있을 수 있습니다.

그것이 바로 인간이 윤리를 부여하는 방식인 것 같습니다.

인공지능(AI)은 어떨까요?

나는 그러한 질문이 이상하게 보일 수도 있다는 것을 알고 있습니다. 우리는 확실히 인간이 윤리를 통합하고 도덕적 규범과 유사한 삶을 살아가기를 기대합니다. 그것은 간단하고 분명한 사실이다. 반면에 기계나 컴퓨터는 동일한 기준 틀에 맞지 않는 것 같습니다. 당신의 직감적 반응은 AI를 윤리와 도덕 규범의 구체화로 간주하는 것이 터무니없거나 이상하다는 것일 수 있습니다.

AI에 대해 우리가 할 수 있는 최선은 AI가 윤리적 행동에서 벗어나지 않도록 고안하는 것입니다. AI 개발자와 AI 분야의 사람들은 AI가 설계되고 구현될 때 이미 윤리적 원칙을 준수하는지 확인하는 책임을 져야 합니다. 말하자면, AI는 이미 완전하고 윤리적으로 적절한 장치로 사용될 준비가 되어 있어야 합니다.

AI 시스템이 이미 윤리적 기반에 완전히 부합하도록 제작되어야 한다고 생각하는 것은 확실히 옳을 것입니다. 최신 AI 시스템이 처음 출시되었을 때 사회는 매우 흥분했고, 우리가 좋은 AI. AI는 세계에서 가장 어려운 문제를 해결하는 데 도움이 될 것입니다. 기술의 발전은 인지와 유사한 시설로 인간의 능력을 보완하기 위해 활용되고 있었지만, 우리에게는 아직 지각 있는 AI가 없으며 지각 있는 AI가 달성될지 여부도 알 수 없다는 점을 강조하고 싶습니다.

AI를 세상에 내놓으려는 성급한 노력의 문제는 AI의 추악한 면모를 점차 드러냈습니다. 나쁜 인공 지능. 편견과 불평등이 가득한 알고리즘 의사결정(ADM)을 활용하는 AI 시스템에 대한 헤드라인이 많이 있었습니다. 게다가, 현대 AI의 대부분은 투명성이 부족하고, 계산 결정을 설명할 수 없는 경향이 있으며, 종종 공정성이 부족하고, 일부가 AI를 비난하여 인간의 책임을 다른 곳으로 돌리는 것을 허용했습니다.

나는 다음을 포함하여 내 글에서 윤리적 AI와 AI의 윤리를 광범위하게 다루었습니다. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

어떻게 있을 수 있니? 나쁜 인공 지능 비윤리적인 행동을 피하기 위해 AI가 처음부터 제작되어야 한다는 것을 명시적인 구성으로 받아들인다면?

대답은 여러 가지입니다.

첫째, AI를 담당하는 많은 AI 개발자와 기업은 AI를 윤리적 경계 내에 머물도록 형성하는 것의 중요성에 대해 스스로 무지합니다. 그 개념은 그들의 레이더에 전혀 없습니다. 빨리 돈을 벌 수 있다는 매력으로 인해 일부 사람들은 의도적으로 생산하고 싶은 거친 AI 개념을 추진하게 됩니다. 윤리적인 문제를 알아낼 필요가 없습니다. AI를 구축하고 진행해 보세요.

둘째, 윤리적 영향에 대한 노골적인 인식을 꾸미는 AI를 만드는 사람들이 있지만, 그들은 윤리적인 AI 고려 사항을 명백히 경시하거나 다소 무시합니다. 일반적인 관점 중 하나는 빠르게 실패하고 자주 실패하는 것을 목표로 하는 기술적인 고전적인 진언입니다. 상황이 적절하게 해결될 때까지 계속 반복하세요. 이러한 급속한 AI 노력에 AI 윤리를 체계적이고 사려 깊게 통합할 가능성은 유감스럽게도 희박합니다. 나는 윤리적 AI에 대한 리더십 강화의 필요성에 대해 논의합니다. 여기 링크.

셋째, AI를 고안할 때 어떤 윤리적 가드레일을 준수해야 하는지에 대해 많은 모호함이 존재합니다. 물론 요즘에는 AI 윤리 지침이 많이 있습니다. 여기 링크그러나 이러한 편리한 이론적 교훈은 구축 중인 특정 AI 시스템에 대한 세부 사항으로 반드시 전환되기는 어렵습니다. 저는 윤리적인 AI 코딩 관행을 포함하는 AI 구축 도구와 방법론이 서서히 등장하여 추상적인 측면과 속담의 고무적 측면 사이의 격차를 줄이는 데 도움이 될 것이라고 지적했습니다.

넷째, 여기에서 강조한 바에 따라 우리는 초기에 윤리적 경계 내에서 구성되었더라도 나중에 사용 중에 가정된 윤리적으로 인코딩된 매개변수를 넘어서 구불구불하게 되는 AI의 영향을 받는 사례를 탐구합니다.

우리는 그것을 풀어야 합니다.

오늘날 AI의 대부분은 머신러닝(ML)과 딥러닝(DL)을 활용합니다. 이것이 컴퓨팅 패턴 매칭 기술 및 기술입니다. 일반적으로 AI가 수행할 수 있는 것으로 예상되는 모든 작업에 관련 데이터를 많이 수집하고, 해당 데이터를 선택한 계산 패턴 일치기에 입력하고, 패턴 일치가 수학적으로 유용한 패턴을 찾으려고 시도한다는 아이디어입니다. 이 AI에는 감각이 없다는 점에 유의하십시오(아직 그런 것은 존재하지 않습니다). 상식적인 추론도 포함되지 않습니다. 그것은 모두 수학과 계산입니다.

ML/DL에 입력된 데이터에는 이미 편견과 불평등이 주입되어 있을 수 있습니다. 이 경우 계산 패턴 일치가 동일한 성향을 모방할 가능성이 높습니다. 한 인종을 다른 인종보다 선호하거나 특정 성별을 다른 인종보다 선호하는 데이터를 제공하는 경우 패턴 일치가 이를 발견된 패턴으로 붙잡을 가능성이 상당히 높습니다.

이러한 종류의 래칭의 큰 문제는 패턴이 데이터의 해당 측면을 기반으로 하는지 알아내는 데 어려움을 겪을 수 있다는 것입니다. 까다롭고 복잡한 수학으로 인해 발견된 패턴을 표면화하는 것이 상당히 문제가 될 수 있습니다. AI를 테스트하더라도 적용되는 테스트의 범위와 깊이에 따라 이러한 경향이 반드시 드러나는 것은 아닙니다.

그래서, 당신이 AI 시스템을 구축하고 먼저 기존 편견이 있는 데이터를 사용하지 않도록 노력함으로써 숙제를 했다고 가정해 보겠습니다. 다음으로 머신러닝과 딥러닝을 수행한 후 결과를 테스트하여 어떤 편견이나 불평등이 발생했는지 확인했습니다. 당신이 그런 바람직하지 못한 성향을 발견할 수 없다고 가정해보자.

이제 AI를 사용할 수 있도록 녹색 신호가 켜졌습니다. 사람들은 AI를 사용하기 시작하고 그것이 윤리적으로 적절하다고 가정할 것입니다. 개발자도 이렇게 생각합니다. AI를 배치하는 회사는 이렇게 생각합니다. 멀리 우리 모두 간다.

일어날 수 있는 일은 다음과 같습니다.

원본 데이터에서 발견되지 않았고 AI 테스트 중에 포착되지 않은 편견이 활성화될 가능성이 높습니다. 아마도 이런 일은 거의 발생하지 않을 것입니다. 희귀한 한 모든 것이 괜찮다고 믿을 수도 있습니다. 하지만 앞서 말한 편견에 취약한 사람들이 그런 식으로 사물을 볼 의향이 있는지는 의심스럽습니다. 저는 AI 시스템과 이를 공식화한 시스템이 법적 법원이나 개방형 사회 의견 법원에서 반향에 직면할 것이라고 감히 말씀드립니다.

또 다른 변형은 XNUMX인치를 취하고 XNUMX마일을 잡는다는 속담적인 개념입니다. 처음에는 그 암시가 작을 수도 있습니다. AI를 사용하는 동안 AI는 상황이 진행됨에 따라 자체적으로 변경되도록 고안되었을 수 있습니다. 이런 종류의 "학습" 또는 "자기 학습"은 매우 유용할 수 있습니다. 인간-AI ​​개발자가 AI 시스템을 지속적으로 수정하고 조정하도록 요구하는 대신 AI는 자체적으로 이를 수행하도록 구축되었습니다. 지연이나 값비싼 노동력 등이 없습니다.

이 편리한 자체 조정의 단점은 AI가 사용하는 범위 내에서 Inkling이 점점 더 커질 수 있다는 것입니다. 편견이 좁은 구석에 있었을 수도 있지만 이제는 확장할 여지가 있습니다. AI는 이것이 "잘못"된 것처럼 보이지 않고 단지 작동하는 것처럼 보이는 것을 계산적으로 확장할 뿐입니다.

머리카락이 머리 위로 꼿꼿이 서게 되면 다음 변형을 위해 자리에 앉아야 합니다.

처음부터 편견이 존재하지 않았고 AI가 완전히 편견이 없다는 합리적인 믿음을 갖고 있다고 가정해 보겠습니다. 우리는 운이 좋았거나 데이터의 어느 곳에도 편향이 없고 계산 패턴 일치를 통해 아무 것도 발생하지 않도록 체계적으로 확인했습니다. 안도의 한숨에도 불구하고 AI는 사용 중에도 조정할 수 있습니다. 판도라의 문이 열리고 AI는 AI가 수행하는 모든 작업 중에 발견되는 편견을 계산적으로 선택합니다.

새로 발견된 편견이 AI에 흡수되고, 그 일이 일어났다는 것보다 더 현명한 사람은 아무도 없습니다. 으악, 우리는 진정한 프랑켄슈타인이라는 괴물을 만들었습니다.

이러한 출현을 어떻게 방지하거나 최소한 표시할 수 있습니까?

관심을 끌고 있는 접근 방식 중 하나는 AI에 윤리 수집 구성 요소를 구축하는 것입니다. AI는 윤리적인 AI 요소를 포함하도록 구성되었습니다. 그런 다음 해당 요소는 AI가 시간이 지남에 따라 조정되는 동안 AI의 나머지 부분을 감시하거나 모니터링합니다. AI가 프로그래밍된 윤리적 교훈을 넘어서는 것처럼 보이면 윤리적 AI는 이러한 조정을 시도하거나 개발자에게 무언가 잘못되었음을 경고합니다.

이 윤리적 AI 감독 능력을 프로그래밍해 보고 AI가 사용되는 동안 이 능력이 널리 퍼지기를 바랄 수 있습니다.

다소 논란의 여지가 있는 또 다른 관점은 머신러닝과 딥러닝을 사용하여 윤리적 AI 측면을 AI 시스템으로 훈련시키는 것입니다.

무슨 말을?

예, 아마도 특이한 개념은 인간 프로그래머가 일련의 AI 윤리 원칙을 직접 인코딩하는 대신 AI가 이를 대신 시도하고 "학습"하도록 구성된다는 것입니다. ML/DL의 사용은 일반적으로 알고리즘에 데이터를 공급하고 계산 패턴 일치가 발생하는 것에 의존한다는 점을 간략하게 언급했습니다. 백만 달러짜리 질문은 동일한 메커니즘을 사용하여 AI 시스템에 윤리적 가치를 부여할 수 있는지 여부입니다.

오늘날의 AI를 인간의 사고와 비교할 수 있다고 의인화하지 마십시오(그렇지 않습니다. 곧 그 권고를 반복하겠습니다). AI는 윤리적인 AI 교훈에 따라 "선천적으로" 프로그래밍될 수 있습니다. 또는 AI가 윤리적인 AI 교훈을 "학습"할 수도 있습니다. 물론 두 가지를 모두 수행할 수 있습니다. 이는 제가 다른 곳에서 다룬 내용입니다. 여기 링크.

잠시 시간을 내어 AI가 윤리를 "학습"하고 따라서 윤리적 행동을 준수할 수 있다는 겉보기에 놀라운 개념에 대해 생각해 보십시오.

이 연구자들은 집에서 원하는 온도를 알아내는 AI 시스템의 예를 사용하여 이것이 어떻게 작동할 수 있는지 설명합니다. “이 시스템은 먼저 단 일주일 동안 다양한 가정의 사람들의 행동을 '관찰'하고 그들의 선호도에 대한 결론을 도출했습니다. 그런 다음 동작 감지 센서를 사용하여 집에 사람이 있는지 확인했습니다. 집이 비어 있을 때 스마트 온도 조절기는 높은 에너지 절약 모드로 전환되었습니다. 사람들이 집에 있을 때 온도 조절 장치는 그들의 선호도에 맞게 온도를 조정했습니다. 이 온도 조절 장치는 매우 간단하지만 윤리 봇의 두 가지 요구 사항을 확실히 충족합니다. 이는 사람들의 선호도를 평가하고 이를 냉난방 시스템 제어에 적용합니다. 이것이 사회적 도덕적 가치와 무슨 관련이 있는지 물을 수도 있습니다. 이 온도 조절 장치를 사용하면 다양한 값을 가진 사람들이 선호하는 온도 설정을 가질 수 있습니다. 집에 사는 주민들은 매일 오고 갈 때 온도 조절 장치를 재설정할 필요가 없습니다. 이 간단한 윤리 봇은 또한 커뮤니티의 총 에너지 발자국을 줄입니다.” 윤리 및 정보 기술).

윤리적 행동을 '학습'하는 AI의 우여곡절을 더 깊이 파헤치기 전에 AI의 위상에 대해 좀 더 말씀드리고 싶습니다.

AI는 다음과 같은 상태로 구성될 수 있습니다.

1. 오늘날의 무감각한 평범한 AI

2. 인간 수준의 지각 있는 AI(아직은 없습니다)

3. 초지능을 갖춘 Sentient AI (#2를 넘어선 확장)

나는 지각이 없는 평범한 AI인 기존 상태에 초점을 맞추려고 합니다. 윤리적 AI에 대해 읽을 수 있는 대부분의 내용은 때때로 지각 있는 AI를 다루므로 매우 추측적입니다. 지각 있는 AI가 어떻게 될 것인지는 누구도 예측할 수 없기 때문에 추측에 불과하다고 생각합니다. 인간 수준의 지각 있는 AI의 영역을 훨씬 넘어서는 것은 매우 칭찬받는 초지능 AI입니다. AI의 이러한 특징이 인류를 노예로 삼거나 어쩌면 우리 모두를 없애기로 결정할 수 있는지에 대한 많은 공상 과학 이야기와 불만이 있습니다. 이를 AI의 실존적 위험이라고 합니다. 때때로 딜레마는 AI의 재앙적 위험으로 표현되기도 합니다.

어떤 사람들은 AI를 오늘날 우리가 가지고 있는 무감각한 평범하고 오래된 AI로 유지하는 한 괜찮을 수도 있다고 주장합니다. 지각 있는 AI에 도달할 수 없다고 가정해 보겠습니다. 지각 있는 AI를 만들려고 아무리 노력해도 실패한다고 상상해 보세요. 또한, 논의를 위해 지각 있는 AI가 신비한 자발적인 과정에 의해 발생하지 않는다고 가정합니다.

그러면 상상된 유일한 종류의 AI인 이 작은 수준의 AI가 사용된다는 것이 안전하지 않습니까?

정말.

거의 동일한 일반적인 문제가 발생할 가능성이 높습니다. 나는 AI가 우리를 파괴하고 싶어하는 방식으로 "생각"한다고 제안하는 것이 아닙니다. 아니요, 감각이 없는 평범한 AI는 우리를 자기 파괴의 수렁에 빠뜨리는 권력의 위치에 있을 뿐입니다. 예를 들어, 우리는 대량 살상 무기에 지각이 없는 AI를 넣습니다. 이러한 자율 무기는 생각할 수 없습니다. 동시에 인간은 루프에 완전히 포함되지 않습니다. 결과적으로 자율 자동화의 한 형태인 AI는 인간의 명령, 버그나 오류, 심어진 악행, 문제를 해결하는 자체 조정에 의해 의도치 않게 치명적인 결과를 초래하게 됩니다. 추악한 길 등

나는 AI가 규정한 세 가지 상태 모두에 대해 AI 윤리 문제가 존재한다고 주장하고 싶습니다. 즉, 우리는 지각이 없는 평범한 AI와 단지 인간 수준이거나 도달할 수 있는 확장된 AI에 대해 AI 윤리적 문제가 있다고 주장합니다. 호평받는 초지능 수준.

이러한 엄중한 선언을 고려할 때, 우리는 AI의 각 수준에서 윤리적 문제와 관련된 규모와 어려움에 대해 확실히 토론할 수 있습니다. 관례적인 관점은 AI 윤리의 곤경이 무감각 AI에서는 덜 극복하기 어렵고, 지각이 있는 인간과 동등한 AI 수준에서는 더 까다롭고, 지각이 있는 초지능 AI 단계에서는 진정한 의미를 갖는다는 것입니다.

AI가 좋아질수록 AI 윤리 문제는 더욱 악화됩니다.

어쩌면 그것은 불가침의 자연법칙일지도 모른다.

오늘날의 AI에 초점을 맞춰 AI가 최신 머신 러닝과 딥 러닝을 통해 윤리적 행동을 "학습"하도록 하는 것은 우려와 까다로운 문제로 가득 차 있습니다. AI가 원하는 윤리적 교훈을 수집하지 못한다고 가정해 보세요. 그렇게 함으로써 그것이 흔들렸다는 것을 어떻게 확실히 알 수 있습니까? 또한 AI 시스템의 다른 부분이 수집된 윤리적 구성을 잠재적으로 무시할 수 있습니까? 여기에 AI가 즉석에서 조정하는 경우 조정으로 인해 윤리적 측면이 얇아지거나 의도치 않게 모든 측면이 압도될 수 있습니다.

설상가상으로, "학습"으로 인해 AI가 실제로 비윤리적인 행동을 하게 될 수도 있습니다. 우리는 AI가 윤리적이 되도록 유도함으로써 옳은 일을 하고 있다고 생각했지만, AI는 오히려 비윤리적인 측면에서 패턴 매칭에 빠져들었습니다. 우리 자신의 발을 쏘는 것에 대해 이야기해 보세요. 그것은 분명히 일어날 수 있습니다.

이 토론의 이 시점에서 여러분은 AI의 윤리 "학습"이 오늘날의 AI에 어떻게 적용될 수 있는지 강조할 수 있는 몇 가지 추가 실제 사례를 원할 것입니다(온도 조절기 예시의 맛있는 티저 제외).

물어봐서 다행입니다.

내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 출현은 AI가 윤리적인 AI 수칙을 "학습"할 수 있다는 점을 밝혀 줍니까? 그렇다면 이것이 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면, 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 윤리적인 AI 예방접종

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

이제 우리는 AI가 스스로 윤리적 행동에 대해 "학습"하도록 할 수 있다는 놀라운 주장을 수반하는 자율 주행 자동차와 윤리적 AI 가능성에 대해 심층적으로 조사할 준비가 되어 있습니다.

간단하게 예를 들어보겠습니다. AI 기반 자율주행차가 우리 동네 거리를 달리고 있고, 안전하게 운전하고 있는 것 같다. 처음에는 자율주행차를 볼 때마다 각별한 주의를 기울였습니다. 자율 주행 차량은 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 눈에 띄었습니다. 몇 주 동안 지역 사회를 순회하는 자율 주행 자동차가 있지만 이제 거의 눈치 채지 못합니다. 당신이 염려하는 한 그것은 이미 붐비는 공공 도로의 ​​또 다른 차일 뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록 자율주행차 시승 범위에 있는 로케일이 차츰 차츰 차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 자율주행차까지, 내 분석 보기 여기 링크. 많은 지역 주민들은 결국 입을 벌리고 황홀한 갬성에서 이제 구불구불한 자율주행차를 목격하기 위해 지루함의 광활한 하품을 하는 것으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다. 어느 날, 당신이 사는 마을이나 도시에서 자율주행차가 운전을 하다가 보행자가 길을 건너려고 기다리고 있는 상황에 직면했다고 가정해 보겠습니다. 보행자가 본질적으로 통행우선권을 갖고 있지 않다고 가정합니다. 인간이 운전하는 자동차는 보행자를 지나칠 수 있으며 그렇게 하는 것은 완전히 합법적입니다. 마찬가지로 AI 운전 시스템은 대기 중인 보행자를 합법적으로 지나갈 수 있다.

정지하고 보행자를 길 건너게 할지 결정하는 것은 인간 운전자이든 AI 운전 시스템이든 관계없이 전적으로 운전자의 재량입니다.

나는 당신이 이런 상황에 셀 수 없이 많이 직면했다고 확신합니다. 어쩌면 당신은 서두르기 때문에 횡단보도를 건너기 위해 멈추지 않을 수도 있습니다. 또 다른 경우에는 목적지까지 도달할 시간이 충분하므로 멈춰서 기다리는 사람이 길을 건너도록 허용하는 것을 선택합니다. 귀하의 기분과 특정 상황에 따라 귀하가 무엇을 선택할 것인지가 결정됩니다.

이 시나리오에는 이상하거나 짜증나는 것이 하나도 없습니다.

AI 측면을 조사하기 전에 보행자가 길을 건너는 것을 허용하는 재량의 특정 측면이 면밀히 연구되었다는 사실에 관심이 있으실 것입니다. 연구자들은 때때로 운전자의 선택이 인종이나 성별 편견에 따라 달라질 수 있음을 확인했습니다. 인간 운전자는 대기 중인 보행자의 크기를 측정하고 겉보기에 운전자의 고유한 편견에 기초하여 보행자가 건너도록 허용하도록 선택할 수 있습니다. 운전자가 자신이 그렇게 하고 있다는 사실을 인식하는지 여부는 지속적인 연구의 문제입니다. 내 보장 내용을 확인하세요. 여기 링크.

저는 AI 운전 시스템이 횡단보도 상황에서 무엇을 할 수 있는지 탐구하기 위한 무대를 마련했습니다.

기존의 AI 프로그래밍에서는 AI 개발자가 항상 AI 운전 시스템을 멈추고 보행자가 횡단하도록 결정해야 할 수도 있습니다. 이는 윤리적으로 적절하거나 예의바른 행동인 것 같습니다. 자율주행차는 길을 건너고 싶어하는 기다리는 사람에게 맡긴다.

감히 말씀드리자면, 당신이 자율주행차 안에 탑승한 승객이고 AI가 보행자를 기다리는 모든 임의적 판단을 위해 항상 정지했다면 당신은 미쳐버릴 수도 있습니다. 식료품점으로의 빠른 이동은 몇 배 더 오래 걸릴 수 있습니다. 또한 우리가 건널 수 있는 법적 통행권을 갖고 있는 보행자를 언급하는 것이 아니라는 점을 기억하십시오. 이러한 경우에는 아마도 이미 AI가 항상 허용하도록 프로그래밍되어 있을 것이기 때문입니다. 우리는 임의적인 상황에만 초점을 맞추고 있습니다.

임의의 보행자가 길을 건너도록 항상 정지한다는 선언에는 더 많은 단점이 있습니다.

AI 기반 자율주행차를 만들고 운용하는 기업은 사람이 그 차에 탑승하길 원한다. 아이디어는 자율주행차를 보유함으로써 연간 자동차 충돌사고 수를 줄일 수 있다는 것입니다. 현재 미국에서만 연간 약 40,000명의 사망자와 2.5만 명의 부상자가 발생하고 있습니다. 여기 링크. 이렇게 존경받는 사회적 목표 외에도 자동차 제조업체와 자율주행 기술 제조업체는 AI 창작물을 통해 수익을 창출하기를 희망합니다.

AI 운전 시스템이 그런 일을 한다면 사람들은 자율주행차를 타지 않기로 결정할 수도 있기 때문에 이 이야기를 꺼냅니다. 불필요하게 결국 여행을 미루게 된다. 일상적인 사람이라면 누구나 인간 운전자를 선택하면 여행이 더 빨라질 수 있고, 따라서 여행을 위해 AI 자율주행차를 선택하는 것은 선택 목록에서 매우 낮은 순위에 놓일 수 있다고 추론할 것입니다. 이는 결국 우리가 원하는 자동차 충돌 감소를 얻지 못할 것이며 제조업체가 잠재적으로 자신의 제품이 수익성이 없다는 것을 알게 될 것임을 의미합니다.

이러한 일련의 주장을 고려하면 보행자가 길을 건너고 싶어 하는 임의적인 사례가 발생할 때 AI가 절대 멈춰서는 안 된다고 생각하게 될 수도 있습니다. 엄격하게 합법적인 모든 작업을 수행하도록 AI 운전 시스템을 프로그래밍하면 됩니다. 보행자가 횡단하도록 하는 법적 요구 사항이 없다면 기다리는 보행자에게는 행운이 따르지 않을 것입니다. 아마도 그 사람은 AI가 자율주행차를 멈추는 법적 근거를 허용하는 교차점으로 가야 할 것입니다.

이에 대한 항의를 상상할 수 있습니까?

당신이 사는 마을이나 도시의 사람들은 AI 자율주행차가 임의의 보행자가 횡단하는 것을 결코 허용하지 않을 것이라는 점을 점차적으로 깨닫게 됩니다. 그 짜증나는 AI! 마치 AI가 인간에게 코를 대고 있는 것과 같습니다. 좋지 않은 자동화의 무례한 녀석. 게다가 보행자가 절실히 건너야 하는 상황이 문서화되어 있고 AI가 전혀 멈추지 않을 것이라고 상상해 보십시오.

그러는 동안 인간 운전자들은 “절박한” 사람들이 안전하게 길을 건너갈 수 있도록 기꺼이 멈춰 섰습니다.

이러한 분노의 결과로 AI 자율주행차는 더 이상 해당 지역의 거리와 골목에서 환영받지 못합니다. 시 지도자가 발급한 허가가 취소됩니다. 배은망덕한 짐승들을 우리 도로에서 쫓아내는 것은 큰 소리로 외치는 것입니다.

좋아요, 우리는 바위와 힘든 곳 사이에 있는 것 같습니다. AI는 임의로 보행자가 횡단하도록 항상 허용해서는 안 됩니다(항상 정지하지 않음). AI는 임의의 보행자가 건너는 것을 항상 방지해서는 안 됩니다(항상 확대해서 지나쳐서는 안 됨). 무엇을 해야 할까요?

분명한 대답은 AI가 재량에 따라 행동하도록 프로그래밍하는 것입니다.

이것이 이루어져야 할 ADM(알고리즘 의사결정)에 대해 생각해 보시기 바랍니다. AI가 보행자의 성격을 감지하고, 파악된 특성을 자율주행차 정지 여부를 결정하는 근거로 삼을 것인가? 어쩌면 나이가 많아 보이는 사람이 선택하는 방법일 수도 있습니다. 그런데 그게 나이차별인가요? 등등.

아마도 AI 운전 시스템은 낮 시간에는 멈추고 밤에는 절대 멈추지 않도록 프로그래밍되어 있을 것입니다. 자율주행차가 낮에 정지하지만 저녁 시간의 더 흐린 시간에는 정지하지 않는 것이 자율주행차 탑승자에게 더 안전하다고 추정된다는 논리일 수 있습니다.

어쩌면 합리적으로 들릴 수도 있습니다. 문제의 일부는 보행자의 기대일 것입니다. 내가 의미하는 바는 다음과 같습니다. 보행자는 낮에 발생하는 임의 횡단을 위해 정지하는 AI 자율주행차를 봅니다. 보행자는 AI가 정지를 결정하기 위해 어떤 기준을 사용하는지 알 수 없습니다. 일부 보행자는 AI가 항상 멈출 것이라고 가정합니다(일광 대 야간이 진정한 결정 요인이라는 사실을 깨닫지 못함). 결과적으로 자율주행차가 항상 멈출 것이라고 믿는 보행자는 AI 운전 시스템이 전혀 정지를 목표로 하지 않을 때 기회를 잡고 건너기 시작할 것입니다. 보행자가 거리로 진입하고 있지만 이는 위험할 수 있으며 물리학으로 인해 AI가 겉보기에 "잘못된" 보행자와 충돌하는 것을 피할 시간이 충분하지 않아 자율 주행 자동차를 멈추는 것이 불가능할 수 있습니다.

AI 개발자와 마을에서 자율주행차를 함께 배치하고 배치하는 회사가 이 문제에 대해 AI를 최신 상태로 만드는 방법을 확신하지 못한다고 가정해 보겠습니다.

그들은 지역 전체에서 수집된 데이터를 바탕으로 AI를 "훈련"하기로 결정했습니다. 마을 전체에 자동차의 오고 가는 모습을 포착한 도시 장착형 카메라가 많이 있다는 것이 밝혀졌습니다. 이 데이터는 임의적인 방식으로 길을 건너려는 보행자의 많은 사례를 보여줍니다. 모든 데이터는 머신러닝 및 딥러닝 시스템에 입력되어 해당 관할권에서 관례적으로 간주되는 데이터를 도출합니다.

우리는 지역 윤리적 관습이 보여주는 일을 수행하도록 AI를 훈련시키고 있습니까?

즉, 특정 도시에 운전자의 행동으로 입증된 것처럼 정지하고 임의의 보행자가 횡단하도록 허용하는 경향이 있는 지역 문화가 있는 경우 ML/DL은 잠재적으로 이 패턴을 계산적으로 선택할 수 있습니다. 그러면 AI도 마찬가지로 훈련받게 됩니다. 다른 극단적인 경우, 인간 운전자가 거의 멈추지 않는다면 AI는 잠재적으로 데이터를 계산적으로 분석하여 "교훈"을 얻을 수 있습니다. AI는 인간처럼 행동할 것입니다.

인간의 윤리적 행동이 데이터에 포착되고 AI가 컴퓨터 분석을 통해 동일한 윤리적 교훈을 주입할 것이라고 주장합니다. 윤리학자는 일반적으로 이것을 윤리에 대한 공동체주의적 접근 방식으로 설명합니다. 지역사회가 공유하는 가치는 지역사회 전체의 노력에 반영됩니다.

이것은 멋진 해결책처럼 보일 수 있습니다.

불행하게도 함정이 많습니다.

아마도 명백한 문제 중 하나는 인간 운전자가 정지할지 여부를 선택할 때 이미 어떤 형태의 편견을 행사하고 있을 수 있다는 것입니다(앞서 언급한 바와 같이). 그러면 AI는 이러한 편견의 모방자가 될 것입니다. 우리는 그것이 사실이기를 원합니까?

또 다른 문제를 고려해보세요. 인간 운전자가 AI 자율주행차의 작동 방식을 쉽게 받아들이지 못한다고 가정해 보겠습니다. 인간 운전자가 기꺼이 멈출 의향이 있다고 해서 이것이 자율주행차에 대해서도 동일하게 추정되지 않을 수도 있습니다. 인간 운전자의 손에 의해 동일한 일이 발생하지만 인간 운전자를 방해하지 않는 것처럼 보이지만 임의의 보행자를 위해 계속 정지하는 AI 자율 주행 자동차에 인간 운전자가 짜증을 낼 수 있습니다.

방해가 되는 것 외에도, 인간 운전자가 실수로 자율주행차를 후미로 몰고 갈 가능성도 있습니다. 인간 운전자가 자율주행 자동차가 보행자를 위해 정지할 것이라고 기대하지 않았고, 인간이 운전하는 자동차가 자율주행 자동차 바로 뒤에 있다면 기대에 심각한 불일치가 발생할 수 있습니다. AI 운전 시스템이 자율주행차를 정지시킨다. 인간 운전자는 이러한 행동을 예상하지 못했습니다. 인간 운전자가 자율주행차를 들이받습니다. 부상을 입거나 사망할 수도 있습니다.

나는 의도적으로 인간에게 해를 끼칠 가능성을 지적했습니다.

길을 건너는 보행자는 얼핏 보면 사소한 질문처럼 보일 수도 있습니다. AI가 멈추든 멈추지 않든 어떤 방법을 선택하더라도 누구도 다칠 수 없을 것 같습니다. 잘못된! 보행자가 치일 위험이 있습니다. 인간이 운전하는 자동차가 자율주행차와 충돌할 가능성이 있다. 인간이 운전하는 자동차의 운전자와 승객은 다칠 수 있습니다. 자율주행차에 탑승한 탑승자는 부상을 입을 수 있습니다. 가능한 인간 피해의 추가 순열은 쉽게 구상됩니다.

결론

인간에게 해를 끼치는 것에 대해 말하면서, 이 윤리적인 AI 수수께끼에 대해 여러분의 마음을 사로잡을 다른 것을 알려 드리겠습니다.

한 뉴스 기사에서는 한 남자가 차를 몰고 교차로로 진입하고 있었는데 신호등이 켜졌을 때 그렇게 하라고 보도했습니다. 인간이 운전하는 또 다른 차량은 교차로의 빨간 신호등을 무시하고 불법적이고 안전하지 않게 주행하기로 결정하고 방해받지 않고 교차로로 진입하여 합법적으로 진행 중인 차량을 공격하겠다고 위협했습니다.

운전자는 기자들에게 충돌을 당하거나 충돌을 피하기 위해 차를 방향을 바꿀 수 있지만 근처에 보행자가 있었고 방향을 바꾸는 행동이 사람들을 위험에 빠뜨릴 수 있다고 말했습니다. 당신은 무엇을 하시겠습니까? 당신은 이 다가오는 차에 치이는 것을 선택할 수도 있고 어쩌면 살아서 이야기를 전할 수도 있습니다. 또는 부딪치는 것을 피하려고 시도하는 동안 무고한 보행자를 치게 될 수도 있습니다.

일상적인 운전의 대부분은 이러한 종류의 윤리적으로 거대하고 즉각적인 결정을 내려야 합니다. 나는 이러한 삶과 죽음의 운전 결정을 유명하거나 악명 높은 트롤리 문제와 연관시키는 것과 함께 이것을 길게 논의했습니다. 여기 링크.

이 시나리오에서는 인간 운전자를 AI 운전 시스템으로 대체합니다.

AI가 무엇을 해주기를 바라나요?

정말 당황스러운 질문이네요.

한 가지 접근 방식은 AI가 순전히 직진 운전 동작을 엄격하게 수행하도록 프로그래밍하여 충돌 가능성이 있는 곳에서 벗어나는 것과 같은 다른 옵션을 계산적으로 고려하지 않는 것입니다. 나는 자율주행차를 타는 라이더들이 AI가 타격을 받는 것 외에는 어떤 일도 하도록 고안되지 않았다는 사실을 알고 화를 낼 것이라고 예상합니다. 소송과 소란을 예상할 수 있습니다.

또 다른 접근 방식은 다양한 가능성을 고려하도록 AI를 프로그래밍하는 것입니다. 그렇다면 AI 운전 시스템이 어떤 방향으로 갈지 결정하는 ADM을 누가 구축하게 될까요? AI 개발자가 스스로 그렇게 중요한 결정을 내리도록 허용하는 것은 많은 우려로 가득 차 있는 것처럼 보입니다.

일상적인 교통 상황에서 수집된 인간의 운전 데이터를 통해 AI가 "학습"하도록 할 수 있습니다. 이는 횡단보도 딜레마 및 조립된 데이터를 사용하여 AI가 지역 윤리적 관습이 무엇이든 수집하도록 하는 초기 제안 아이디어와 유사합니다. 여기에는 발견된 ML/DL 패턴이 적절한지 여부 등 많은 주의 사항이 있습니다.

나는 또한 관련된 윤리적 관습에 따라 AI가 아마도 비윤리적인 행동을 수집할 가능성이 있다는 것을 미리 경고했습니다. 예를 들어, AI가 다른 자동차가 자율주행차를 공격하겠다고 위협할 때마다 항상 보행자를 겨냥하는 계산 패턴에 도달했다고 가정해 보겠습니다.

와, 보행자를 조심하세요. 당신은 이미 만들어진 표적이 될 것입니다.

지금은 토론을 마무리하고 고무적인 최종 생각으로 마무리할 시간입니다.

여러분은 아이작 아시모프(Isaak Asimov)가 1950년에 "로봇 공학의 XNUMX가지 법칙"을 제안했다는 사실을 알고 계실 것입니다. 우리는 오늘날까지도 그 선언된 규칙에 매혹되어 있습니다. AI 시스템이나 로봇이 인간에게 해를 끼치거나 인간이 해를 입도록 허용하지 않는 등 규칙은 쉽게 준수할 수 있는 것처럼 보이지만 이를 복잡하고 때로는 유지할 수 없게 만드는 중요한 뉘앙스가 많이 있습니다. 내 분석을 참조하세요. ~에 여기 링크.

어쨌든, Asimov가 잘 알려진 또 다른 사실은 다음과 같습니다. "옳은 일을 하는 데 도덕 감각이 방해가 되지 않도록 하십시오."

우리 모두가 고안하기를 희망하는 윤리적 AI의 경우, 우리는 AI 윤리가 우리가 예상한 것과 다를 수 있으며 AI는 여전히 옳은 일을 해야 한다는 점을 명심해야 합니다. 아시모프가 좋은 말을 하더군요. 오래 전에 아리스토텔레스도 꽤 비슷한 감정을 생각하고 있었던 것 같습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- 자율주행차에 AI가 포함된 사례/