AI 윤리 및 AI 법률, 실제로 신뢰할 수 있는 AI가 무엇인지 명확히 함

신뢰가 전부입니다. 그래서 그들은 말합니다.

저명한 철학자 노자는 충분히 신뢰하지 않는 사람은 신뢰받지 못한다고 말했습니다. 존경받는 소설가인 어니스트 헤밍웨이(Ernest Hemingway)는 누군가를 믿을 수 있는지 알아보는 가장 좋은 방법은 그들을 신뢰하는 것이라고 말했습니다.

한편, 믿음은 소중하고도 깨지기 쉬운 것 같습니다. 한 사람의 신뢰가 카드 집처럼 무너질 수도 있고 터진 풍선처럼 갑자기 터질 수도 있습니다.

고대 그리스 비극 작가 소포클레스는 신뢰는 죽지만 불신은 피어난다고 주장했습니다. 프랑스 철학자이자 수학자 데카르트는 한 번이라도 우리를 속인 사람들을 전적으로 신뢰하지 않는 것이 현명하다고 주장했습니다. 억만장자 기업 투자가인 워렌 버핏은 신뢰할 수 있는 평판을 쌓는 데 XNUMX년이 걸리고 평판을 망치는 데 XNUMX분이 걸린다고 말했습니다.

신뢰에 대한 이러한 다양한 견해와 도발적인 의견이 모두 인공 지능(AI)의 도래에 결정적이라는 사실을 알고 놀라실 수도 있습니다.

예, 예리하게 언급되는 것이 있습니다. 신뢰할 수 있는 AI 그것은 AI 분야 내에서 손으로 꼬집는 캣콜과 AI 영역 외부에 있는 사람들의 거친 폭발을 포함하여 요즘 계속해서 많은 주목을 받고 있습니다. 전반적인 개념은 사회가 AI 시스템과 같은 것을 기꺼이 신뢰하는지 여부를 수반합니다.

아마도 사회가 AI를 신뢰하지 않거나 신뢰할 수 없다면 AI 시스템이 견인력을 얻지 못할 가능성이 있습니다. 우리가 현재 알고 있는 AI는 제쳐두고 먼지만 모을 것입니다. 놀랍게도 AI는 역사적으로 필사적으로 시도했지만 눈부시게 실패한 하이테크 실험에 불과한 쓰레기 더미에 남을 수 있습니다. AI를 활성화하려는 모든 노력은 잠재적으로 엄청난 힘든 싸움에 직면하게 될 것이며 모든 종류의 반대와 노골적인 항의로 중단될 것입니다. 표면적으로는 AI에 대한 신뢰 부족 때문입니다.

AI를 믿어야 합니까, AI를 믿지 말아야 합니까?

본질적으로 우리는 진정으로 신뢰할 수 있는 AI를 갖게 될까요?

그것들은 과거에 풀리지 않은 질문들입니다. 압축을 풀자.

AI 윤리와 신뢰할 수 있는 AI를 위한 투쟁

AI 내부의 많은 사람들은 AI 시스템 개발자가 신뢰할 수 있는 AI를 적절하게 고안함으로써 AI에 대한 신뢰를 얻을 수 있다고 믿습니다. 핵심은 AI가 처음부터 신뢰할 수 있는 것처럼 보이지 않는다면 신뢰를 얻을 수 없다는 것입니다. 신뢰할 수 있는 것으로 인식되는 방식으로 AI 시스템을 제작함으로써 사람들이 AI를 받아들이고 AI 사용을 채택할 확고한 기회가 있습니다.

이 신뢰할 수 있는 AI 고려 사항에 대해 이미 잔소리를 하는 한 가지 문제는 우리가 이미 공공 신뢰 적자 AI에 관해서. 우리가 이미 본 AI가 구멍을 파고 엄청난 양의 신뢰를 산산조각내고 있다고 말할 수 있습니다. 따라서 AI는 신뢰할 수 있는 충분한 기반에서 시작하기보다는 놀라울 정도로 적자에서 벗어나야 할 것이며, AI가 실제로 신뢰할 수 있다는 것을 사람들에게 확신시키는 데 필요할 추가 신뢰를 원하는 만큼 조금씩 깨물어야 할 것입니다.

이 도전에 AI 윤리와 AI 법이 등장합니다.

AI 윤리 및 AI 법률은 AI를 신뢰할 수 있게 만들기 위해 무엇이 필요한지 파악하기 위해 열심히 노력하고 있습니다. 일부에서는 AI를 신뢰할 수 있는 천국으로 끌어들이는 공식 또는 철통같은 법칙이 있다고 제안합니다. 다른 사람들은 사회의 자랑스러운 신뢰를 얻으려면 열심히 일하고 AI 윤리 및 AI 법률 원칙에 대한 일관되고 가차없는 준수가 필요할 것이라고 말합니다.

AI에 대한 신뢰에 대한 현대의 수수께끼는 그 자체로 특별히 새로운 것은 아닙니다.

쉽게 1990년대 후반으로 돌아가 그 당시부터 "신뢰할 수 있는 컴퓨팅"에 대한 열망의 출현을 추적할 수 있습니다. 이것은 모든 컴퓨터가 사회에서 신뢰할 수 있는 것으로 해석될 수 있는 방식으로 만들어질 수 있는지 식별하기 위한 대규모 기술 산업의 노력이었습니다.

주요 질문은 다음과 같이 구성되었습니다.

  • 컴퓨터 하드웨어를 신뢰할 수 있도록 만들 수 있습니까?
  • 소프트웨어가 신뢰할 수 있도록 제작될 수 있습니까?
  • 신뢰할 수 있는 글로벌 네트워크 컴퓨터를 배치할 수 있습니까?
  • 등등.

그 당시와 오늘날까지 계속되는 보편적인 정서는 신뢰할 수 있는 컴퓨팅이 유감스럽게도 아직 우리의 손이 닿지 않는 일종의 성배라는 것입니다. ACM의 커뮤니케이션). AI가 컴퓨팅 신뢰성의 또 다른 구성 요소라고 설득력 있게 주장할 수 있지만 AI는 신뢰 추구를 훨씬 더 어렵고 불확실하게 만듭니다. AI는 신뢰할 수 있는 컴퓨팅을 확보하기 위한 싸움에서 잠재적인 스포일러가 되었습니다. 말 그대로 사슬에서 가장 약한 고리일 것이다.

AI가 신뢰할 수 없는 존재에 대해 우리를 비웃게 한 이유를 간단히 살펴보겠습니다. 또한, 우리는 오늘날 AI에 대해 이미 반쯤 수중에서 인지된 신뢰(또는 부풀려지는 불신)를 지지하는 데 도움이 되기를 바라는 AI 윤리의 신조를 탐구할 것입니다. AI 윤리에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이것을 신뢰할 수 있는 AI에 대한 질문과 연결해 보겠습니다.

우리는 부정적인 편견과 차별적인 행동을 보여주는 AI를 기꺼이 신뢰하지 않는 것 같습니다. 그런 경우 우리는 그러한 AI가 확실히 신뢰할 수 없다고 믿고, 따라서 우리는 AI를 적극적으로 불신하는 쪽으로 기울게 될 것입니다. 의인화된 비교에 지나치게 뛰어들지 않고(AI에 대해 잠시 후에 의인화하는 것에 대해 더 말할 것입니다), 부당한 편향을 나타낸 인간도 특히 신뢰할 수 없는 것으로 평가될 수 있습니다.

신뢰와 신뢰성을 파고들다

아마도 우리는 우리가 누군가 또는 무언가를 신뢰하거나 신뢰하지 않는다고 주장할 때 우리가 의미하는 바를 살펴보아야 합니다. 먼저, 신뢰에 대한 몇 가지 일상적인 사전 정의를 고려하십시오.

신뢰가 정의적으로 의미하는 바의 예는 다음과 같습니다.

  • 사람이나 사물의 성격, 능력, 힘 또는 진실에 대한 확실한 의존 (Merriam-Webster 온라인 사전).
  • 사람이나 사물의 완전성, 힘, 능력, 보증인 등에 의지하다 (Dictionary.com)
  • 누군가 또는 어떤 것의 신뢰성, 진실, 능력 또는 힘에 대한 확고한 믿음 (Oxford Languages ​​온라인 사전).

저는 이러한 모든 정의가 "누군가"를 가리키고 마찬가지로 "무언가"를 잠재적으로 신뢰할 수 있는 것으로 언급한다는 점을 지적하고 싶습니다. 이것은 우리가 오직 인간만을 신뢰하고 신뢰하는 행위는 신뢰의 대상으로서 인간만을 위한 것이라고 주장하는 사람들이 있기 때문에 주목할 만합니다. 별로. 주방 토스터를 믿고 맡길 수 있습니다. 토스터가 안정적으로 만들어지고 일상적으로 작동한다면 토스터가 실제로 신뢰할 수 있는지 여부에 대해 확실히 신뢰하는 것처럼 보일 수 있습니다.

같은 생각에서 AI도 우리의 신뢰 관점의 주제가 될 수 있습니다. AI와 관련된 신뢰가 평범한 토스터라고 말하는 것보다 훨씬 더 복잡할 가능성이 있습니다. 토스터는 일반적으로 몇 가지 작업만 수행할 수 있습니다. AI 시스템은 훨씬 더 복잡하고 덜 투명하게 작동하는 것으로 보입니다. AI의 신뢰성을 평가하고 확인하는 우리의 능력은 훨씬 더 어렵고 뚜렷한 도전 과제를 제시할 수밖에 없습니다.

더 복잡하다는 것 외에도 일반적인 AI 시스템은 비결정적이며 잠재적으로 자체 조절 또는 자체 조정이 가능하다고 합니다. 우리는 그 개념을 간단히 살펴볼 수 있습니다.

결정론적 기계는 예측 가능하고 실행 가능한 식별 가능한 작동 방식 패턴으로 동일한 작업을 반복해서 수행하는 경향이 있습니다. 일반 토스터도 거의 같은 방식으로 토스트를 하고 토스터를 사용하는 사람이 일반적으로 예측할 수 있는 토스트를 조절하는 토스트 컨트롤이 있다고 말할 수 있습니다. 대조적으로, 복잡한 AI 시스템은 종종 비결정적(non-deterministic)으로 고안됩니다. 즉, 그렇지 않은 경우 예상했던 것보다 훨씬 다른 작업을 수행할 수 있습니다. 이는 AI가 자체 조정하도록 작성된 경우 부분적으로 더욱 증폭될 수 있습니다. 이는 ML/DL의 경우 AI가 유리하게 개선되도록 할 수 있는 측면이지만, AI가 불안정하게 흔들리거나 순위에 진입할 수도 있습니다. AI의 나쁜 점. AI의 행동에 완전히 방심한 탓에 무슨 말을 했는지 모를 수도 있습니다.

AI를 신뢰성에 더 가깝게 만들기 위해 우리는 무엇을 할 수 있습니까?

한 가지 접근 방식은 AI를 구축하고 배치하는 사람들이 일련의 AI 윤리 지침을 준수하도록 하는 것입니다. 이 AI 연구자들이 언급한 바와 같이, “신뢰는 에이전트가 예상대로 행동하고 목표를 달성하기 위해 신뢰할 수 있는 태도입니다. 에이전트와 신뢰하는 개인 간의 오류 또는 오해로 인해 신뢰가 무너집니다. AI에 대한 심리적 신뢰 상태는 일반적으로 설계, 교육, 배치, 성과 측정, 규제, 재설계 및 재교육의 많은 주기를 포함하는 복잡한 시스템의 새로운 속성입니다. ACM의 커뮤니케이션, Stuart Middleton, Emmanuel Letouze, Ali Hossaini 및 Adriane Chapman의 "유럽 지역 내 신뢰, 규제 및 루프 내 AI", 2022년 XNUMX월).

요점은 AI 개발자가 윤리적 AI를 준수하도록 할 수 있다면 결국 신뢰할 수 있는 AI를 생산하게 될 것이라는 것입니다. 이것은 모두 훌륭하고 훌륭하지만 실제로 추구할 가치가 있는 길이기는 하지만 현실 세계에서는 다소 비실용적입니다.

여기에 의미하는 바가 있습니다.

AI 개발자가 우리가 일반적으로 X라고 부르는 어떤 목적을 위해 AI 시스템을 만드는 부지런한 노력을 한다고 가정합니다. 그들은 AI가 AI 윤리의 투명성 수칙을 준수하는지 신중하게 확인합니다. 그들은 개인 정보가 AI에 적절하게 내장되어 있는지 예리하게 확인합니다. 거의 모든 일반적인 AI 윤리 원칙에 대해 AI 빌더는 AI가 주어진 교훈을 충족하도록 철저하게 보장합니다.

이제 그 AI를 믿어야 할까요?

그 개방형 질문에 대한 당신의 생각을 스며들도록 도와드리겠습니다.

사이버 사기꾼이 AI에 침투하여 몰래 AI가 X를 수행하도록 하는 동시에 AI가 수집하는 모든 데이터를 사이버 해커에 제공한 것으로 나타났습니다. 그렇게 함으로써 이 사악한 행위자들은 교활하게 사생활 보호 수칙을 훼손하고 있습니다. 당신은 이것이 AI의 후드 아래에서 일어나고 있다는 사실을 전혀 모르고 있습니다.

추가된 정보로 동일한 질문을 다시 드리겠습니다.

그 AI를 믿습니까?

나는 감히 대부분의 사람들이 그들이 확실히 할 것이라고 즉시 선언할 것이라고 말할 것입니다. 지원 이 특정 AI를 신뢰하십시오. 그들은 더 일찍 그것을 믿었을 수도 있습니다. 그들은 이제 더 이상 AI를 신뢰할 수 있다고 생각하지 않기로 선택합니다.

이 간단한 예를 기반으로 한 몇 가지 주요 통찰력은 고려해 볼 가치가 있습니다.

  • 신뢰의 역학. AI 윤리가 AI 시스템에 내장되어 있는지 확인하는 모든 기반을 다루려는 최선의 의도라도 AI가 어떻게 될 것인지를 보장할 수는 없습니다. AI가 사용되기 시작하면 외부인이 잠재적으로 윤리적 AI 축적을 훼손할 수 있습니다.
  • 내부로부터의 신뢰 약화. 신뢰성을 떨어뜨리는 행위가 반드시 외부인일 필요는 없습니다. AI 시스템을 정기적으로 유지 관리하는 내부자는 실수를 저지르고 AI를 덜 신뢰할 수 있게 약화시킬 수 있습니다. 이 AI 개발자는 자신이 한 일에 대해 무지할 수 있습니다.
  • 의도하지 않은 신뢰 손상. 스스로 조정하거나 스스로 조정하는 AI는 어느 시점에서 스스로 조정하고 신뢰할 수 없는 영역으로 방향을 틀 수 있습니다. 아마도 AI는 AI의 투명성을 강화하는 동시에 프라이버시 측면을 부적절하게 손상시키려고 시도할 것입니다.
  • 신뢰의 산란. 모든 AI 윤리 원칙을 최대한 동일한 수준의 신뢰성으로 달성하려는 시도는 일반적으로 교차 목적에 있거나 다른 고유한 잠재적 충돌이 있기 때문에 쉽게 실행 가능하지 않습니다. 윤리적 AI의 모든 교훈이 꿈처럼 정렬되어 있고 모두 동등하게 최대화할 수 있는 정도로 달성할 수 있다고 믿는 것은 다소 이상적인 관점입니다.
  • 신뢰를 얻으려면 비용이 많이 들 수 있습니다. 다양한 광범위하고 철저한 단계를 수행하고 AI 윤리 원칙을 준수하여 신뢰할 수 있는 AI의 최고 수준을 시도하고 달성하는 데 드는 비용은 상대적으로 높을 것입니다. AI가 신뢰에 대한 열망에서 이상적이지는 않지만 사회에 중요한 가치가 있는 일부 AI 시스템을 사용하는 데 드는 비용이 어마어마할 것이라고 쉽게 주장할 수 있습니다.
  • 등등.

신뢰할 수 있는 AI를 철저하게 구축하고 배치하려는 노력을 어떻게든 막아야 한다는 앞의 발언을 잘못 해석하지 마십시오. 말 그대로 목욕물과 함께 아기를 간단히 내던질 것입니다. 적절한 해석은 AI를 신뢰할 수 있는 고려 대상으로 만들기 위해 이러한 신뢰 활동을 수행해야 하지만 그것만으로는 만병통치약이나 은총알이 아니라는 것입니다.

신뢰할 수 있는 AI로 가는 다양한 경로

신뢰할 수 있는 AI를 위해 노력하기 위한 중요한 추가적인 다면적 방법이 있습니다.

예를 들어, 이전에 칼럼에서 다루었듯이 AI와 관련하여 새롭게 등장하는 수많은 법률과 규정은 AI 제조업체가 신뢰할 수 있는 AI를 고안하도록 유도하는 것을 목표로 합니다. 여기 링크 여기 링크.

이러한 법적 가드레일은 AI를 고안하는 사람들이 AI에 대해 완전히 책임을 지도록 하는 포괄적인 수단으로서 중요합니다. 그러한 잠재적인 법적 구제책과 적법한 처벌이 없다면 AI를 시장에 밀어넣는 사람들은 신뢰할 수 있는 AI 달성에 대한 진지한 고려 없이 계속 그렇게 할 것입니다. 이러한 법률과 규정이 제대로 고안되지 않거나 부적절하게 구현되면 유감스럽게도 신뢰할 수 있는 AI에 대한 추구가 약화될 수 있으며 아이러니하게도 이상하게도 신뢰할 수 있는 AI보다 신뢰할 수 없는 AI를 육성할 수 있다고 덧붙일 수 있습니다(자세한 설명은 내 칼럼 토론 참조).

나는 또한 내가 열렬히 언급한 것에 대한 확고한 옹호자였습니다. AI 수호 천사 봇 (내 커버리지 참조 여기 링크). 이것은 불로 불을 싸우려고 시도하는 다가오는 방법 또는 접근 방식입니다. 즉, AI를 사용하여 신뢰할 수 있거나 없을 수도 있는 다른 AI를 처리하는 데 도움이 됩니다.

첫째, 몇 가지 배경 컨텍스트가 유용할 것입니다.

신뢰성이 확실하지 않은 AI 시스템에 의존하기로 결정했다고 가정합니다. 주요 우려 사항은 AI를 신뢰할 수 있는지 여부를 결정하려는 시도에서 혼자라는 것일 수 있습니다. AI는 잠재적으로 당신보다 계산 속도가 빠르며 당신을 활용할 수 있습니다. 도움을 줄 사람이나 누군가가 필요합니다.

한 가지 관점은 AI 시스템을 사용할 때 도움을 줄 인간 루프가 항상 있어야 한다는 것입니다. 그러나 이것은 문제가 있는 솔루션입니다. AI 기반 자율주행 자동차의 도래와 관련하여 잠시 논의하게 될 AI가 실시간으로 작동하는 경우에는 인간이 루프(human-in-the-loop)하는 것만으로는 충분하지 않을 수 있습니다. AI는 실시간으로 작동할 수 있으며 지정된 인간 인 더 루프(Human-in-the-loop)가 AI가 제대로 작동하는지 파악하기 위해 사진에 들어갈 때 치명적인 결과가 이미 발생했을 수 있습니다.

제쳐두고, 이것은 신뢰에 대한 또 다른 요소를 불러옵니다. 우리는 일반적으로 우리가 직면한 맥락이나 상황에 따라 신뢰 수준을 할당합니다. 당신은 당신에게 충실한 어린 아들이나 딸을 전적으로 신뢰할 수 있지만, 당신이 하이킹을하고 절벽의 가장자리를 밟아도 안전한지 여부를 유아에게 의존하기로 결정했다면 현명할 것이라고 생각합니다. 유아가 그런 종류의 삶과 죽음에 관한 조언을 제공할 수 있는지 고려하십시오. 아이는 진지하고 진지하게 그렇게 할 수 있지만 그럼에도 불구하고 그러한 조언을 적절하게 제공하지 못할 수 있습니다.

AI와 관련하여 동일한 개념이 신뢰와 관련이 있습니다. 체커나 체스를 하는 데 사용하는 AI 시스템은 아마도 삶과 죽음에 대한 숙고에 관여하지 않을 것입니다. 당신은 당신의 신뢰 할당을 더 쉽게 할 수 있습니다. 고속으로 고속도로를 질주하는 AI 기반 자율주행차는 훨씬 더 엄격한 수준의 신뢰가 필요합니다. AI 운전 시스템의 사소한 실수는 당신과 다른 사람들의 죽음으로 직접 이어질 수 있습니다.

Global Deloitte AI Institute의 전무 이사이자 책의 저자인 Beena Ammanath의 출판된 인터뷰에서 신뢰할 수 있는 AI, AI 신뢰성이 작용하는 맥락적 측면을 고려하는 것과 유사하게 강조합니다. “환자 진단을 수행하는 AI 솔루션을 구축하는 경우 공정성과 편견이 매우 중요합니다. 그러나 제트 엔진 고장을 예측하는 알고리즘을 구축하는 경우 공정성과 편향은 그다지 중요하지 않습니다. 신뢰할 수 있는 AI는 실제로 조직 내 신뢰의 차원에 대해 생각하기 시작하는 구조입니다."(VentureBeat, 22년 2022월 XNUMX일).

신뢰할 수 있는 AI에 대해 논의할 때 이 주제를 다양한 방식으로 해석할 수 있습니다.

예를 들어, 신뢰할 수 있는 AI 그것은 우리 모두가 바람직하고 열망하는 목표, 즉 신뢰할 수 있는 AI를 고안하고 보급하기를 열망해야 한다고 생각하는 것입니다. 캐치프레이즈의 또 다른 사용법이 있습니다. 다소 대안적인 사용법은 신뢰할 수 있는 AI 누군가가 신뢰할 수 있는 AI의 인스턴스인 AI 시스템을 만들었다고 주장할 수 있는 조건 또는 측정 상태입니다. 구문을 사용할 수도 있습니다. 신뢰할 수 있는 AI AI 신뢰성을 확보하는 데 사용할 수 있는 방법 또는 접근 방식을 제안합니다. 등.

이와 관련하여 모든 AI가 같지는 않으며 모든 AI에 대해 포괄적인 진술을 하지 않도록 주의해야 한다는 점을 알고 계실 거라 믿습니다. 특정 AI 시스템은 다른 AI 시스템과 크게 다를 수 있습니다. 이러한 AI 시스템 중 하나는 매우 신뢰할 수 있고 다른 하나는 약간 신뢰할 수 있습니다. AI가 전적으로 신뢰할 수 있거나 전적으로 신뢰할 수 없는 단일체라고 가정할 때는 조심해야 합니다.

이것은 단순히 사실이 아닙니다.

다음으로 여러분이 관심을 가질 만한 신뢰할 수 있는 AI에 대한 현재 진행 중인 연구 중 일부를 간략하게 다루겠습니다. AI 수호 천사 봇.

방법은 다음과 같습니다.

다른 AI 시스템의 신뢰성을 측정하기 위해 고안된 AI 시스템(AI 수호 천사 봇)으로 무장할 것입니다. AI 수호 천사 봇은 당신의 안전에 가장 중점을 둡니다. 이를 실제 주머니에 다른 AI 시스템(아마도 스마트폰이나 기타 유사한 장치에서 실행)을 가지고 의존하고 있는 AI를 모니터링할 수 있는 수단이 있는 것처럼 생각하십시오. 당신의 AI 수호자는 당신이 의존하고 있는 AI도 하는 것을 기반으로 계산할 수 있으며, 빠른 속도로 작업하고 실시간으로 당면한 상황을 실시간으로 계산할 수 있습니다.

당신은 얼핏 보기에 당신이 이미 의존하고 있는 AI가 어느 정도 내부의 이와 같은 일을 하는 AI 가드레일은 별도로 계산하는 AI 수호천사봇. 예, 그것은 확실히 원할 것입니다. 한 가지 문제는 AI 시스템에 내장된 AI 가드레일이 AI 자체와 통합적으로 편견을 갖고 정렬될 수 있으므로 가정된 AI 가드레일이 더 이상 어떤 의미에서 독립적으로 AI를 검증하거나 검증할 수 없다는 것입니다.

대조되는 아이디어는 AI 수호 천사 봇이 의존하는 AI와 다른 독립 또는 타사 AI 메커니즘이라는 것입니다. 그것은 다른 AI 외부에 위치하며 모니터링되거나 평가되는 AI에 전념하지 않고 당신에게만 전념합니다.

이에 대한 간단한 사고 수단은 다음과 같은 단순화된 방정식과 같은 진술을 통해 표현할 수 있습니다. "P"는 "R"이 특정 작업 "X"를 수행하도록 잠재적으로 신뢰하기를 원한다고 말할 수 있습니다.

사람만 관련된 경우 다음과 같습니다.

  • 사람 P는 사람 R이 작업 X를 수행하도록 신뢰합니다.

우리가 AI에 의존하기로 결정하면 진술은 다음과 같이 재구성됩니다.

  • 사람 P는 작업 X를 수행하기 위해 AI instance-R을 신뢰합니다.

다음과 같이 말하여 AI 수호 천사 봇을 추가할 수 있습니다.

  • 사람 P는 AI 수호 천사 봇 instance-Z가 모니터링하는 작업 X를 수행하기 위해 AI instance-R을 신뢰합니다.

AI 수호천사 봇은 여러분이 의지하고 있는 AI를 지칠 줄 모르고 가차 없이 평가하고 있습니다. 따라서 편리한 AI 보호자는 이 다른 AI의 신뢰가 부당하다고 경고할 수 있습니다. 또는 AI 가디언은 다른 AI와 전자적으로 상호 작용하여 신뢰할 수 있는 것과 거리가 먼 모든 차이가 신속하게 수정되도록 하는 등의 작업을 수행할 수 있습니다. 여기 링크).

Trusty Trust Reservoir 은유

다양한 수준의 신뢰에 대해 논의하고 있으므로 신뢰를 일종의 저장소로 생각하면 신뢰성에 대한 편리한 비유를 사용할 수 있습니다.

특정 시점의 특정 상황에서 특정 사람이나 사물에 대해 어느 정도의 신뢰를 갖고 있습니다. 그 특정 사람이나 사물과 관련하여 어떤 일이 발생하는지에 따라 신뢰 수준이 오르거나 내릴 것입니다. 사람이나 사물에 대한 신뢰가 전혀 없을 때 신뢰는 XNUMX 수준일 수 있습니다. 그 사람이나 사물에 대한 불신을 감수할 때 신뢰가 부정적일 수 있습니다.

AI 시스템의 경우 특정 상황에서 의존하는 특정 AI에 대한 신뢰 저장소는 AI의 신뢰성 측정에 따라 오르거나 내릴 것입니다. 때때로 당신은 AI에 대한 이러한 다양한 신뢰 수준을 잘 알고 있을 수 있지만, 다른 경우에는 신뢰에 대한 판단을 직감으로 함으로써 덜 인식하고 더 많이 인식할 수 있습니다.

AI에 대한 신뢰 수준을 높이는 수단은 다음과 같습니다.

  • AI 윤리 준수. 당신이 의존하고 있는 AI가 적절한 AI 윤리 수칙을 준수하기 위해 고안된 것이라면, 아마도 이 이해를 사용하여 특정 AI 시스템에 대한 신뢰 저장소의 수준을 높일 것입니다. 부수적으로, 다른 AI 시스템의 신뢰성에 대해 일반화할 수도 있습니다. 마찬가지로 이것은 내가 호출하는 것의 잘못된 형태일 수 있습니다. AI 트러스트 아우라 확산 (이 작업을 수행할 때 주의하십시오!).
  • Human-In-The-Loop를 사용합니다. AI에 Human-in-loop가 있는 경우 AI에 대한 인식된 신뢰를 긍정적으로 높일 수 있습니다.
  • 법률 및 규정 수립. 이 특정 유형의 AI와 관련된 법률 및 규정이 있는 경우 마찬가지로 신뢰 수준을 높일 수 있습니다.
  • AI 수호 천사 봇 사용. AI 수호천사 봇이 준비되어 있다면 이것도 신뢰 수준을 더 높일 것입니다.

앞서 언급했듯이, 신뢰는 매우 부서지기 쉽고 순식간에 무너질 수 있습니다(즉, 신뢰 저장소는 신속하고 갑자기 모든 구축된 신뢰를 폐기함).

당신이 AI 기반 자율주행차 안에 있고 AI 운전이 갑자기 급진적 우회전을 하여 바퀴가 삐걱거리게 만들고 자율주행차가 위험한 전복에 빠질 뻔했다고 상상해 보십시오. 당신의 신뢰 수준은 어떻게 될까요? 이전에 AI를 높은 수준의 신뢰 수준으로 유지했더라도 신뢰 수준을 현명하게 급격하고 급격하게 떨어뜨릴 것 같습니다.

이 중요한 논의의 이 시점에서 신뢰할 수 있는 AI의 특성과 범위를 보여줄 수 있는 추가 예시를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적 및 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행 자동차의 출현입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 도래는 신뢰할 수 있는 AI의 추구에 대해 무엇인가를 밝히고, 그렇다면 이것이 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 신뢰할 수 있는 AI

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 자율주행 자동차와 신뢰할 수 있는 AI에 대해 자세히 알아볼 준비가 되었습니다.

특히 AI 기반 자율주행 자동차의 경우 신뢰가 모든 것입니다.

사회는 자율주행차의 등장을 경계하는 듯 보인다. 한편, 진정한 자율주행 자동차의 도래로 연간 자동차 관련 사망자가 눈에 띄게 줄어들 것이라는 큰 희망이 있습니다. 미국에서만 자동차 충돌로 인해 연간 약 40,000명이 사망하고 약 2.5만 명이 부상을 당합니다. 여기 링크. 인간은 술을 마시고 운전합니다. 인간은 산만하게 운전합니다. 자동차 운전의 임무는 반복적이고 실수 없이 운전에 집중하고 교통사고를 피하는 것으로 구성되어 있는 것 같습니다. 따라서 우리는 인공지능 운전 시스템이 자율주행차를 반복적으로 실수 없이 안내할 것이라는 꿈결 같은 희망을 가질 수 있습니다. 자율주행 자동차는 교통사고 사망자와 부상자 수를 줄이는 동시에 훨씬 더 광범위하고 접근 가능한 기반에서 이동성을 제공하는 두 가지 요소로 구성될 수 있습니다.

그러나 한편, 자율주행차가 우리의 공공도로에서 충분히 안전할 수 있는지에 대한 사회적 인식을 넘어서는 우려가 있습니다.

자율주행차 한 대가 충돌하거나 충돌해 XNUMX명이 사망하거나 중상을 입는다면 오늘날 AI 기반 자율주행차에 대한 어느 정도 쌓아온 신뢰가 급격히 떨어질 것이라고 예상할 수 있다. 우리는 현재 악명 높은 애리조나에서 보행자와 충돌하여 사망한 다소(실제로는 아니지만) 자율 주행 자동차와 관련된 사건이 ​​발생했을 때 이러한 일이 발생하는 것을 보았습니다(제 보도 내용 참조 여기 링크).

일부 전문가들은 AI 자율주행차에 대한 신뢰를 다음 번에 한 번만 사망에 이르게 하는 충돌이나 충돌이 이미 상대적으로 충돌이 없는 공공 도로 시험을 훼손할 수 있다는 측면에서 근거하는 것은 불공정하고 부적절하다고 지적합니다. 게다가 불공정한 근거로 특정 AI 자율주행차 브랜드나 모델이 어떤 비참한 사건에 휘말려도 사회는 의심할 여지 없이 모든 자율주행차 브랜드를 비난할 가능성이 있다.

자율 주행 자동차 전체가 즉석으로 번질 수 있고 업계 전체가 큰 반발에 부딪혀 모든 공공 도로 시험이 중단될 수 있습니다.

이러한 역풍의 원인은 모든 무인 자동차는 충돌이 불가능할 것이라는 솔직한 자율 주행 자동차 지지자들의 말도 안 되는 선언에서 찾을 수 있습니다. 깨지지 않는다는 이 생각은 완전히 잘못된 것이 아닙니다(참조 여기 링크), 완전히 터무니없는 기대치를 위해 자율주행 자동차 산업을 교활하게 설정하고 있습니다. 자율주행차로 인한 사망자가 XNUMX명이 될 것이라는 이 이상하고 달성할 수 없는 선언은 모든 무인 자동차 충돌이 전체 키트와 카푸들이 헛된 것이라는 확실한 신호라는 오해를 부채질하고 있습니다.

자율주행차로의 발전과 한순간에 쌓이는 사회적 신뢰가 한순간에 무너질 수 있다는 사실에 안타까움이 큽니다. 그것은 신뢰의 취약성에 대한 쇼케이스 중 하나가 될 것입니다.

결론

많은 자동차 제조업체와 자율 주행 기술 회사는 일반적으로 AI 윤리 원칙을 준수하여 안전하고 신뢰할 수 있는 AI 기반 자율 주행 자동차 측면에서 신뢰할 수 있는 AI를 구축 및 배치하려고 합니다. 이러한 기업 중 일부는 다른 기업보다 윤리적 AI 원칙에 더 강하고 헌신적이라는 사실을 알아두시기 바랍니다. 또한 AI 윤리의 초석을 상당 부분 버린 것처럼 보이는 자율주행차 관련 스타트업이 가끔 있습니다(제 리뷰 참조: 여기 링크).

다른 면에서는 자율주행차에 관한 새로운 법률과 규정이 점차 법률 서적에 등재되고 있습니다. 그들이 그것을 뒷받침하는 데 필요한 치아가 있는지 여부는 다른 문제이며, 마찬가지로 해당 법률의 시행이 심각하게 받아들여지고 있는지 또는 간과되고 있는지 여부도 다릅니다(이에 대한 분석은 제 칼럼 참조).

여기에도 하이테크 앵글이 있습니다. 자율주행차와 자율주행차 분야에서 전면에 등장할 AI 수호천사 봇의 변종이 점차 나타날 것이라고 예측했습니다. 우리는 아직 거기에 없습니다. 이는 자율주행차의 대중화가 본격화되면 더욱 확산될 것입니다.

이 마지막 요점은 의심할 여지 없이 이미 마음으로 알고 있는 신뢰에 관한 유명한 구절을 불러옵니다.

신뢰하되 확인하십시오.

우리는 신뢰를 확장할 수 있습니다. 아마도 관대하게 그렇게 될 것입니다. 한편, 우리가 쌓아온 신뢰가 말과 행동으로 검증될 수 있도록 매처럼 지켜봐야 합니다. AI에 약간의 신뢰를 두되, 우리가 눈을 크게 뜨고 적절하게 신뢰하고 있는지 끝없이 확인합시다.

당신은 그것에 대해 나를 신뢰할 수 있습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/