AI 윤리와 AI의 자기 인식 추구

당신은 자신을 알고 있습니까?

나는 당신이 당신을 믿습니다.

문제는 아마도 우리 중 특히 자기 인식을 잘하는 사람이 거의 없다는 것입니다. 자기 인식의 범위 또는 정도가 있으며 우리 모두는 우리가 얼마나 기민하게 자기 인식하는지에 따라 다릅니다. 당신은 당신이 완전히 자의식을 가지고 있다고 생각할 수도 있고 단지 아주 약간만 그렇게 생각할 수도 있습니다. 당신은 자의식을 가지고 있고 그것이 당신의 정신 상태임을 깨달을 수도 있습니다.

한편, 스펙트럼의 맨 위에 있는 부분에서 당신은 당신이 완전히 자의식을 갖고 있다고 믿을 수 있으며 실제로 그들이 오는 만큼 솔직하게 자의식을 갖고 있습니다. 잘 됐네요.

말하자면, 지나치게 자각하는 것이 무슨 소용이 있겠습니까?

연구 결과에 따르면 하버드 비즈니스 리뷰 (HBR) Tasha Eurich의 보고에 따르면, 당신은 더 나은 결정을 내릴 수 있고, 결정에 더 자신감이 있으며, 의사 소통 능력이 더 강하고 전반적으로 더 효과적입니다("자기 인식이 실제로 무엇인지(그리고 어떻게 가꾸기 위해).” 보너스 요인은 자의식이 강한 사람들은 속임수, 도둑질, 거짓말을 하는 경향이 적다는 것입니다. 더 나은 인간이 되기 위해 노력하고 인류를 아름답게 가꾸기 위해 노력합니다.

자기 인식에 대한 이 모든 이야기는 다소 분명한 질문을 제기합니다. 즉, 자기 인식이라는 문구가 실제로 무엇을 의미하는지입니다. 콤플렉스에 대한 다양한 정의와 해석을 쉽게 찾을 수 있으며 자의식을 수반하는 부드러운 구조라고 해야 합니다. 어떤 사람들은 자기 인식이 자기 자신을 모니터링하고 자신이 무엇을 하고 있는지 아는 것으로 구성되어 있다고 제안함으로써 문제를 단순화할 것입니다. 당신은 당신 자신의 생각과 행동을 예리하게 알고 있습니다.

아마도, 자기 인식이 없을 때, 사람은 자신이 무엇을 하는지, 왜 그런지 깨닫지 못할 것이며, 또한 다른 사람들이 그들에 대해 말하는 것을 인식하지 못할 것입니다. 나는 당신이 이런 사람들을 만났을 것이라고 확신합니다.

어떤 사람들은 자신이 무엇을 하고 있는지에 대한 단서 없이 이 땅을 걷는 것처럼 보이며, 다른 사람들이 그들에 대해 말하는 것 같지도 않습니다. 나는 그들이 섬세한 부서지기 쉬운 부티크에서 머리를 숙이고 돌진하는 황소와 같다고 주장할 수 있을 것 같습니다. 우리는 관습적으로 황소가 자신이 무엇을 하는지 알지 못하고 다른 사람들이 우둔한 생물을 물리적으로 조종하거나 가두려고 하지 않는 한 다른 사람들의 관점을 무시한다고 믿는 경향이 있습니다.

자기 인식은 어느 정도 재귀적일 수 있다고 합니다.

이 재귀를 설명하기 위해 예제를 스케치하겠습니다. 당신은 스마트폰으로 꽤 몰입도가 높은 고양이 동영상을 보고 있는 중입니다(모두가 그렇게 하는 것 같습니다). 어떤 사람들은 그 사랑스러운 고양이들의 경이롭고 가슴 훈훈해지는 익살 외에 다른 뚜렷한 생각이 없을 것입니다. 한편, 약간의 자의식이 있는 사람은 자신이 고양이 비디오를 보고 있다는 것을 알고 있습니다. 또한 주변 사람들이 고양이 비디오를 보고 있다는 사실을 알아차릴 수도 있습니다.

당신은 자기 인식을 할 수 있고 여전히 특정 주요 활동에 몰두할 수 있음을 주목하십시오. 이 경우의 주요 활동은 고양이 비디오를 보는 것입니다. 이차적으로, 동시에 실제로 고양이 비디오를보고 있다는 생각을 가질 수 있습니다. 당신은 또한 완전히 재미있는 고양이 비디오를 보면서 다른 사람들이 당신을 관찰하고 있다는 생각을 가질 수 있습니다. 고양이 비디오 시청을 중단하는 것과 같은 한 가지 활동을 반드시 중단할 필요는 없습니다. 그러면 고양이 비디오를 보고 있다는(또는 방금 보고 있었다) 별도로 생각해볼 수 있습니다. 이러한 생각은 겉보기에는 서로 병렬로 발생할 수 있습니다.

때때로, 우리의 자기 인식은 우리를 기본 정신 활동에서 쫓아내거나 최소한 방해할 수 있습니다. 고양이 비디오를 보고 있는 것을 생각하는 동안 비디오 자체에만 집중하는 것이 너무 늘어져 마음이 부분적으로 멍해질 수도 있습니다. 그런 다음 비디오를 되감기하여 보았지만 완전히 이해하는 데 정신적으로 산만했던 부분을 다시 방문하도록 선택합니다. 자기 인식이 주요 정신 활동을 방해했습니다.

자, 이제 재귀적 측면이 발생할 준비가 되었습니다.

준비되셨습니까?

고양이 동영상을 보고 있습니다. 당신의 자의식은 당신이 고양이 비디오를 보고 있고 당신이 비디오를 보고 있는 동안 다른 사람들도 당신을 보고 있다는 것을 알려줍니다. 그것이 현상태입니다.

다음으로 추가적인 정신적 도약을 합니다. 당신은 당신의 자기 인식에 대해 생각하기 시작합니다. 당신은 당신이 당신의 자기 인식에 관여하고 있다는 것을 스스로 인식합니다. 방법은 다음과 같습니다. 내가 고양이 비디오를 보는 것에 대해 너무 많이 생각하고 있는 걸까요? 절망적으로 스스로에게 질문하는 건가요? 이것은 자기 인식의 또 다른 층입니다. 다른 자기 인식 위에 자기 인식 순위.

밑바닥까지 거북이라는 옛말이 있다. 자기 인식 현상의 경우 다음과 같을 수 있습니다.

  • 자신을 알지 못함
  • 자신에 대해 자각
  • 자기 자신에 대한 자기 인식
  • 자신에 대해 스스로 자각하고 있음을 스스로 자각
  • Ad Infinitum(예: 등)

당신은 내가 이전에 자의식에 대한 두 가지 주요 범주가 있는 것 같다고 미묘하게 지적했다는 것을 깨달았을 것입니다. 한 특정 이론은 우리가 우리의 내부 상태에 초점을 맞춘 일종의 내부 자기 인식을 가지고 있으며 우리를 보고 있는 주변 사람들의 우리에 대한 인식을 측정하는 데 도움이 되는 외부 자기 인식을 가지고 있다고 가정합니다.

HBR 기사에 따르면 다음은 이론화된 두 가지 유형의 자기 인식에 대한 간략한 설명입니다. 내부 자기 인식, 우리가 우리 자신의 가치, 열정, 열망, 환경에 대한 적합성, 반응(생각, 감정, 행동, 강점 및 약점 포함) 및 다른 사람에 대한 영향을 얼마나 명확하게 보는지를 나타냅니다.” 한편 다른 하나는 "두 번째 범주, 외부 자기 인식, 위에 나열된 동일한 요소의 관점에서 다른 사람들이 우리를 어떻게 보는지 이해하는 것을 의미합니다. 우리 연구에 따르면 다른 사람들이 자신을 어떻게 보는지 아는 사람들이 공감을 나타내고 다른 사람들의 관점을 받아들이는 데 더 능숙합니다.”

내부 및 외부 자기 인식 범위가 모두 높음에서 낮음까지이며 두 범주를 서로 결합할 수 있다고 주장하여 편리한 XNUMXxXNUMX 행렬 또는 XNUMX제곱을 파생할 수 있습니다. HBR 연구에 따르면 당신은 다음 네 가지 자기 인식 원형 중 하나라고 합니다.

  • Introspector: 낮은 외부 자기 인식 + 높은 내부 자기 인식
  • 구도자: 낮은 외부 자의식 + 낮은 내부 자의식
  • 기쁨: 높은 외부 자기 인식 + 낮은 내부 자기 인식
  • 인식: 높은 외부 자기 인식 + 높은 내부 자기 인식

정점은 외부 자의식의 최상위에 있고 마찬가지로 내부 자의식의 최상위에 있는 "인식" 원형일 것입니다. 명확히 하자면, 이 자랑스러운 자세를 반드시 영구적인 방법으로 얻는 것은 아닙니다. 내부 및 외부 자기 인식 영역 사이에서 높고 낮음 사이를 왔다 갔다 할 수 있습니다. 그것은 하루 중 시간, 자신이 처한 상황 및 기타 여러 주요 요인에 따라 달라질 수 있습니다.

이제 우리는 자기 인식에 대한 몇 가지 기본 요소를 친절하게 다루었으므로 이것을 윤리적 행동의 주제와 연결하려고 할 수 있습니다.

자의식에 대한 일반적인 주장은 자의식이 있을 때 더 이상 선을 넘을 가능성이 높다는 것입니다. 이것은 이미 지적한 바와 같이 도둑질, 속임수 및 거짓말과 같은 불리한 윤리적 행동에 덜 취약하다는 것을 의미합니다. 이러한 경향의 근거는 자신의 적극적인 자각이 자신의 행동이 불미스럽거나 비윤리적임을 깨닫게 하기 때문입니다. 진흙 투성이의 비윤리적인 바다로 방향을 틀 때 자신을 잡을 수 있을 뿐만 아니라, 말 그대로 마른 땅(윤리적 영역의 신성함)으로 자신을 다시 몰아가는 경향이 있습니다.

자기 인식은 자제력을 발휘하는 데 도움이 됩니다.

대조는 아마도 자기 인식이 거의 또는 전혀 없을 때일 것입니다. 이는 누군가가 비윤리적인 행동에 대한 경향을 잊었을 수 있음을 시사합니다. 그러한 의식이 없는 사람은 자신이 불리한 성과를 내고 있다는 사실을 깨닫지 못할 수도 있다고 주장할 수 있습니다. 깨지기 쉬운 상점의 황소와 마찬가지로, 더 명백하게 주의를 끌기 전까지는 스스로 조절하지 않을 것입니다.

그건 그렇고, 모든 사람이 이것을 구입하는 것은 아닙니다. 어떤 사람들은 자기 인식이 윤리적인 것만큼이나 비윤리적인 것에도 쉽게 적용될 수 있다고 주장합니다. 예를 들어, 행악자는 자신이 범죄를 저지르고 있다는 사실을 완전히 자각하고 기뻐할 수 있습니다. 그들의 자각은 더 크고 더 큰 사악한 비행을 향해 더욱 강력하게 몰아붙입니다.

직접 눈으로 볼 수 있는 것보다 더 많은 흐림이 있습니다. 어떤 사람이 자기 자신을 예리하게 인식하지만 주어진 사회나 문화의 윤리적 관습에 대해서는 알지 못한다고 가정해 보겠습니다. 그런 식으로 그들은 자의식을 가지고 있음에도 불구하고 윤리적 지침이 없습니다. 또는 당신이 원한다면 그 사람은 윤리적 교훈에 대해 알고 있고 그것이 적용된다고 믿지 않을 수도 있습니다. 그들은 자신을 독특하거나 전통적인 윤리적 사고의 범위를 벗어났다고 생각합니다.

빙글빙글 돌아갑니다.

자의식은 양날의 윤리의 검으로 해석될 수 있으며, 일부에서는 열렬히 강조하기도 합니다.

일단은 우리를 윤리적인 행동으로 안내하거나 넛지하는 자의식으로 구성된 행복한 얼굴 버전으로 가자. 다른 모든 것이 평등하다면 우리는 자의식이 많을수록 윤리적으로 더 많이 기울게 될 것이라는 뻔뻔한 가정을 할 것입니다. 그렇게 되기를 바라는 것은 확실히 기쁘고 영감을 주는 것 같습니다.

기어를 전환하고 인공 지능(AI)을 그림에 도입합시다.

우리는 진행 중인 모든 얽힘을 AI의 윤리라고도 알려진 Ethical AI의 급성장하는 영역과 연결하는 이 논의의 기로에 서 있습니다. 지속적이고 광범위한 AI 윤리에 대한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

윤리적 AI의 개념은 AI의 도래와 함께 윤리 및 윤리적 행동 분야를 얽히게 함을 의미합니다. 불평등과 다양한 편견으로 가득 찬 AI에 대한 경종을 울리는 헤드라인을 본 적이 있을 것입니다. 예를 들어, AI 기반 얼굴 인식 시스템은 일반적으로 기본 머신 러닝(ML) 및 딥 러닝(DL) 시설이 훈련되고 배치된 방식의 결과로 때때로 인종 및 성 차별을 나타낼 수 있다는 우려가 있습니다(제 분석 참조). ~에 여기 링크).

시도하고 멈추거나 적어도 완화하기 위해 나쁜 인공 지능, 부주의로 또는 때때로 의도적으로 나쁜 행동을 하도록 형성되는 AI 시스템으로 구성된 AI의 개발 및 사용에 윤리 수칙을 적용하는 것이 최근 시급합니다. 진정한 목표는 AI 개발자와 AI를 구축하거나 배치하는 기업, AI 애플리케이션에 의존하는 기업에 윤리적 지침을 제공하는 것입니다. 윤리적 AI 원칙이 만들어지고 채택된 예는 다음에서 내 범위를 참조하십시오. 여기 링크.

다음 세 가지 매우 중요한 질문에 대해 곰곰이 생각해 보십시오.

  • AI 개발자가 윤리적 AI 원칙을 수용하고 이러한 지침을 실제 사용하도록 할 수 있습니까?
  • AI를 제작하거나 현장에 배치하는 회사가 이와 같이 하도록 할 수 있습니까?
  • AI를 사용하는 사람들이 윤리적 AI 측면을 유사하게 인식하도록 할 수 있습니까?

나는 이것을 부끄럽지 않게 말하고 싶습니다. 그것은 어려운 명령입니다.

AI를 만드는 스릴은 AI의 윤리에 대한 관심의 암시를 압도할 수 있습니다. 글쎄, 스릴뿐만 아니라 돈을 버는 것도 그 방정식에 필수적입니다. AI 영역의 일부가 AI 시스템을 출시하면 윤리적인 AI "물건"을 처리하게 될 것이라고 말하는 경향이 있다는 사실을 알고 놀랄 수도 있습니다. 이것은 빨리 실패하고 올바르게 될 때까지 자주 실패하도록 하는 전형적인 기술자의 만트라입니다.

물론, 윤리적으로 의심스러운 AI를 일반 대중에게 간단히 밀어 넣는 사람들은 말을 헛간에서 내보내고 있습니다. 그들의 선언된 확장된 아이디어는 나쁜 인공 지능 말이 이미 무자비하게 질주하고 있기 때문에 해로운 지각은 매일 사용하고 나면 고쳐질 것입니다. 피해를 입을 수 있습니다. AI가 사용되는 동안 아무것도 수정되거나 조정되지 않을 가능성이 높아집니다. 빈번한 변명은 그 시점에서 AI를 만지작거리면 이미 비윤리적인 ADM(알고리즘적 의사결정)이 완전히 빗나가고 있다는 점에서 AI를 더욱 악화시킬 수 있다는 것입니다.

AI를 구축하고 AI를 배치하고 AI를 사용하는 사람들의 마음에 윤리 AI를 밝게 빛나고 안내하는 빛으로 갖는 유용성과 활력을 얻기 위해 무엇을 할 수 있습니까?

답변 : 자기 인식.

예, 사람들이 AI를 사용하거나 상호 작용하는 방법에 대해 더 자각하면 윤리적 AI가 표준이 되기를 원하는 경향이 증가할 수 있습니다. AI 개발자와 AI 시스템 관련 기업들도 마찬가지다. 그들이 하고 있는 일에 대해 더 자각했다면 아마도 AI의 윤리를 더 많이 수용했을 것입니다.

이미 규정된 논리의 일부는 자기 인식이 윤리적으로 더 나은 사람이 되는 경향을 제공하고 윤리적으로 비열한 사람이 되는 것을 회피한다는 것입니다. 우리가 그 전제를 계속할 수 있다면, 자기 인식에 더 많은 경향이 있는 AI 개발자가 윤리적인 행동을 하는 경향이 있고 따라서 윤리적으로 건전한 AI를 생산하는 경향이 있음을 의미합니다.

그 다리는 당신에게 너무 먼가요?

어떤 사람들은 간접적인 것이 조금 많다고 말할 것입니다. 자기 인식, 윤리적으로 유덕함, 윤리적 교훈을 AI에 적용하는 것 사이의 엄청난 연결 고리는 삼키기 어려울 수 있습니다. 반론은 시도하는 것이 나쁠 수 없다는 것입니다.

회의론자들은 AI 개발자가 자의식이 강하고 윤리적으로 마음이 더 강할 수 있지만 윤리적인 AI의 관습에 그 정신적 야영지를 적용하는 방향으로 반드시 도약하지는 않을 것이라고 말합니다. 그 불안에 대한 대답은 우리가 윤리적 AI 문제를 홍보하고 대중화할 수 있다면 그렇지 않으면 희미해 보이는 연결이 더 분명하고 예상되며 AI 제작과 관련하여 작업을 수행하는 표준 방법이 될 수 있다는 것입니다.

이제 이 사가에 트위스트를 추가할 것입니다. 트위스트는 당신의 머리를 돌릴 수 있습니다. 자리에 잘 앉았는지 확인하고 제가 알려드릴 내용을 준비하시기 바랍니다.

일부에서는 윤리적 AI를 AI 자체에 직접 구축해야 한다고 지적합니다.

당신은 그 선언에 의아해 할 수 있습니다. 압축을 풀자.

프로그래머는 AI 시스템을 만들고 AI가 편견과 불평등을 구현하는 것을 방지하기 위해 자신의 프로그래밍 자기 인식으로 그렇게 할 수 있습니다. 개발자는 프로그래밍을 그냥 버리는 것이 아니라 자신이 수행하는 접근 방식이 AI에 불리한 요소가 필수적으로 없는지 여부를 스스로 확인하고 있습니다.

좋습니다. 충분히 자각하고 윤리적 행동을 포용하려고 노력했으며 AI 시스템을 만들 때 윤리적 교훈을 포함할 수 있는 빛을 본 AI 개발자가 있습니다.

윤리적 AI의 승리를 기록하십시오!

모든 것이 잘되고 훌륭하지만 나중에 일어날 수있는 것이 있습니다. AI는 현장에 배치되어 일상적으로 사용됩니다. AI의 일부에는 즉석에서 "학습"할 수 있는 구성 요소가 포함되었습니다. 이는 AI가 새로운 데이터와 원래 프로그래밍의 다른 측면을 기반으로 스스로 조정할 수 있음을 의미합니다. 간단히 말해서 AI가 지각이 있다는 것을 의미하지는 않습니다. 우리는 지각 있는 AI가 없습니다. 우리가 그렇게 말하는 멍청한 헤드라인을 무시하십시오. 우리가 지각 있는 AI를 갖게 될지 여부는 아무도 말할 수 없으며, 언제 일어날지 충분히 예측할 수 있는 사람도 없습니다.

우리 이야기로 돌아가서, AI는 진행되는 동안 스스로를 개선하기 위해 의도적으로 고안되었습니다. 꽤 편리한 개념입니다. 프로그래머가 지속적으로 개선해야 하는 대신 AI 프로그램이 스스로 개선할 수 있도록 합니다.

AI가 조금씩 스스로를 조정하는 동안, 다양한 추잡한 불평등과 편견이 자체적인 변경 행위를 통해 AI 시스템에 스며들고 있음이 밝혀졌습니다. 프로그래머는 원래 그런 엉성한 측면을 배제했지만 AI가 즉석에서 조정하기 때문에 이제 공식화되고 있습니다. 유감스럽게도 이것은 아무도 더 현명하지 않을 정도로 미묘하게 뒤에서 일어날 수 있습니다. 초기의 철저한 테스트 후에 AI에 승인을 줬을 수도 있는 사람들은 이제 AI가 썩은 길을 갔다는 것을 맹목적으로 인식하지 못합니다. 나쁜 인공 지능.

이 바람직하지 않은 출현을 방지하거나 적어도 포착하는 한 가지 방법은 AI에 일종의 윤리적 AI 이중 검사기를 구축하는 것입니다. AI 내의 구성 요소는 AI의 동작을 관찰하고 비윤리적인 ADM이 나타나기 시작하는지 여부를 감지하도록 프로그래밍됩니다. 그렇다면 구성 요소는 AI 개발자에게 경고를 보내거나 AI 시스템을 실행하는 회사에 경고를 보낼 수 있습니다.

이 구성 요소의 고급 버전은 AI를 복구하려고 할 수 있습니다. 이것은 조정을 조정하여 비윤리적으로 발생하는 측면을 적절한 윤리적 매개변수로 되돌리는 것입니다. 이러한 유형의 프로그래밍이 까다롭다고 상상할 수 있습니다. 길을 잃거나 비윤리적인 행위가 심각한 비윤리적인 행위로 변질될 가능성이 있습니다. 또한 오탐지가 구성 요소를 작동시키고 그에 따라 엉망이 될 가능성도 있습니다.

어쨌든 이 이중 검사기가 작동하는 방식에 대해 고민하지 않고 이에 대해 대담한 선언을 할 것입니다. 제한된 방식으로 AI가 자기 인식을 한다고 제안할 수 있습니다.

예, 그것은 많은 사람들에게 싸우는 단어입니다.

오늘날의 AI는 자의식이 없다는 것이 거의 모든 사람의 일반적인 믿음입니다. 완전 정지, 기간. 언제 일어날지 알 수 없는 지각 있는 AI에 도달할 때까지 자기 인식을 하는 AI는 없습니다. 적어도 인간 지향적 자기 인식의 의미에서는 아닙니다. 일어날 수 있다고 제안하지도 마십시오.

AI를 의인화하는 데 주의해야 한다는 점에는 확실히 동의합니다. 그 우려에 대해서는 잠시 후에 더 말씀드리겠습니다.

한편, 논의를 위해 느슨한 방식으로 "자기 인식" 단계를 기꺼이 사용한다면 AI가 전반적인 자기 인식 개념을 준수한다고 말하는 이유를 쉽게 알 수 있을 것입니다. 의식. 우리는 나머지 AI를 모니터링하는 AI의 일부를 가지고 있으며 나머지 AI가 무엇을 하는지에 대한 탭을 유지합니다. 나머지 AI가 오버보드를 시작하면 모니터링 부분이 이를 감지하려고 합니다. 또한 AI 모니터링 부분 또는 이중 검사기는 나머지 AI를 적절한 레인으로 되돌릴 수 있습니다.

그 고양이 영상을 보고 자기가 이러고 있다는 자각을 하는 행동 같지 않나요?

익숙한 반지가 있습니다.

우리는 이것을 더욱 확장할 수 있습니다. AI 이중 검사기 구성 요소는 나머지 AI의 동작을 관찰하도록 프로그래밍될 뿐만 아니라 AI를 사용하는 사람의 동작도 기록합니다. AI를 활용할 때 사용자는 어떻게 하고 있습니까? 일부 사용자가 AI가 자신을 차별하는 것 같아 분개한다고 가정해 보겠습니다. AI 이중 검사기는 이를 감지하여 나머지 AI가 길을 잃는 것에 대한 또 다른 위험 신호로 사용할 수 있습니다.

이것은 내부 자기 인식과 외부 자기 인식 범주화를 불러옵니다.

AI 이중 검사기는 나머지 AI가 문제의 바다로 향했는지 여부를 파악하기 위해 내부 및 외부를 스캔하고 있습니다. 감지하면 플래그가 발생하거나 자체 수정이 실행됩니다.

다소 놀라운 확장 기능을 추가해 보겠습니다. 핵심 AI 이중 검사기를 다시 확인하기 위한 또 다른 AI 이중 검사기를 구축합니다. 왜 그래? 글쎄, AI 이중 검사기가 흔들리거나 제 기능을 하지 못하는 것처럼 보인다고 가정해 봅시다. 이중 검사기의 AI 이중 검사기는 이 오작동을 감지하고 그에 따라 필요한 조치를 취합니다. 계산 AI 시스템에서 볼 수 있듯이 일부 사람들은 자랑스럽게 선언할 수도 있는 자기 인식의 재귀적 특성에 오신 것을 환영합니다.

이것에 대해 이미 의견이 분분한 분들을 위해 현재로서는 마지막 코멘트는 AI 시스템을 "자기 인식"으로 만들면 잠재적으로 윤리적 행동에 끌릴 것이라고 제안할 수 있다는 것입니다. 그들은 지각을 기반으로 이것을 하고 있습니까? 결정적으로, 아닙니다. 계산 기반으로 이 작업을 수행하고 있습니까? 그렇습니다. 우리는 그것이 인간 행동의 정도가 아니라는 점을 분명히 해야 합니다.

자기 인식의 개념이 계산 체계에 적합하도록 잘못 왜곡된 것이 불편하다면 이에 대한 우려가 잘 알려져 있습니다. 이 개념을 활용하는 진행중인 AI 노력을 중단해야 하는지 여부는 또 다른 미해결 문제입니다. 적어도 AI가 할 수 있는 일의 더 나은 결과로 우리를 이끄는 것 같다고 설득력 있게 주장할 수 있습니다. 그러나 우리는 이 일이 일어날 때 눈을 크게 뜨고 있어야 합니다.

이 모든 것이 어떻게 진행되는지 확인해야 할 것 같습니다. XNUMX년, XNUMX년, XNUMX년 후에 이 문제로 돌아와서 논란이 되는 문제에 대한 생각이 바뀌었는지 보십시오.

나는 이것이 주제에 대한 다소 성급한 검토였으며 귀하가 일상적인 예를 간절히 원할 수도 있다는 것을 알고 있습니다. 내 마음에 와 닿는 특별하고 확실히 인기 있는 사례가 있습니다. 윤리적 및 법적 파급 효과를 포함하여 AI 전문가로서 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 특성을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이러한 윤리적 AI 곤경을 생생하게 보여주는 가장 인상적인 영역 중 하나는 AI 기반의 진정한 자율주행차의 출현입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율 주행 자동차의 출현은 AI가 "자아 인식"과 유사한 모습을 하고 있다는 점을 조명하고 있다면 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면, 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율 주행 차가 없으며, 이것이 달성 될 수 있는지, 그리고 도착하는 데 걸리는 시간도 아직 알지 못합니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 이른바 자의식을 지닌 AI

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 인공 지능이 일종의 자기 인식을 가지고 있다는 놀라운 개념을 수반하는 자율 주행 자동차와 윤리적 인공 지능 질문에 대해 자세히 알아볼 준비가 되었습니다.

간단하게 예를 들어보겠습니다. AI 기반 자율주행차가 우리 동네 거리를 달리고 있고, 안전하게 운전하고 있는 것 같다. 처음에는 자율주행차를 볼 때마다 각별한 주의를 기울였습니다. 자율 주행 차량은 비디오 카메라, 레이더 장치, LIDAR 장치 등을 포함하는 전자 센서 랙으로 눈에 띄었습니다. 몇 주 동안 지역 사회를 순회하는 자율 주행 자동차가 있지만 이제 거의 눈치 채지 못합니다. 당신이 염려하는 한 그것은 이미 붐비는 공공 도로의 ​​또 다른 차일 뿐입니다.

자율주행차를 보는 ​​것이 불가능하거나 불가능하다고 생각하지 않도록 자율주행차 시승 범위에 있는 로케일이 차츰 차츰 차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 차츰차츰 자율주행차까지, 내 분석 보기 여기 링크. 많은 지역 주민들은 결국 입을 벌리고 황홀한 갬성에서 이제 구불구불한 자율주행차를 목격하기 위해 지루함의 광활한 하품을 하는 것으로 바뀌었습니다.

아마도 지금 그들이 자율주행차를 주목하게 된 가장 큰 이유는 짜증과 화를 내는 요인 때문일 것이다. 책 속의 AI 운전 시스템은 자동차가 모든 속도 제한과 도로 규칙을 준수하는지 확인합니다. 전통적인 사람이 운전하는 자동차를 타고 다니는 바쁜 인간 운전자의 경우 엄격하게 법규를 준수하는 AI 기반 자율 주행 자동차 뒤에 갇히면 짜증이 날 때가 있습니다.

그것은 우리 모두가 옳든 그르든 익숙해져야 할 필요가 있는 것입니다.

우리 이야기로 돌아갑니다. 어느 날, 당신이 사는 도시나 도시의 자율주행 자동차가 정지 신호에 접근했는데 속도를 줄이지 않는 것처럼 보인다고 가정해 보겠습니다. 천국, AI 운전 시스템이 자동 운전 자동차가 정지 신호를 지나갈 것 같습니다. 보행자나 자전거 타는 사람이 근처 어딘가에 있었는데 자율주행차가 제대로 정지하지 않을 것이라는 사실을 눈치채지 못했다고 상상해 보십시오. 부끄러운. 위험한!

그리고, 불법.

이제 AI 운전 시스템에서 일종의 자기 인식 이중 검사기 역할을 하는 AI 구성 요소를 살펴보겠습니다.

AI 운전 시스템 내부에서 어떤 일이 일어나고 있는지 자세히 알아보는 시간을 갖도록 하겠습니다. 자율주행 차량에 장착된 비디오 카메라가 정지 신호로 보이는 것을 감지한 것으로 나타났지만, 이 경우에는 너무 자란 나무가 정지 신호를 가립니다. 원래 정지 신호에 대해 훈련된 머신 러닝 및 딥 러닝 시스템은 일반적으로 제한이 없는 완전한 정지 신호의 패턴에 대해 고안되었습니다. 비디오 이미지를 계산적으로 조사한 결과, 그 특정 지점에 정지 신호가 존재할 가능성이 낮은 것으로 지정되었습니다(추가적인 합병증으로, 추가 설명으로, 이것은 사전 준비된 디지털 지도에 나타나지 않은 새로 게시된 정지 신호였습니다. AI 운전 시스템에 의존).

대체로 AI 운전 시스템은 정지 신호가 존재하지 않거나 정지 신호와 유사한 다른 종류의 신호인 것처럼 계산적으로 진행하기로 결정했습니다(일부 빈도로 발생할 수 있으며 발생합니다).

하지만 고맙게도 AI 자가인식 더블체커는 AI 운전 시스템의 활동을 모니터링하고 있었다. 나머지 AI의 데이터와 평가를 계산적으로 검토한 결과, 이 구성 요소는 정상적인 진행 과정을 무시하고 대신 AI 구동 시스템에 적절한 정지를 명령했습니다.

다친 사람은 없었고 불법 행위도 발생하지 않았습니다.

AI 자가인식 더블체커는 마치 내장된 법률 대리인처럼 행동하여 AI 운전 시스템이 법(이 경우 정지 신호)을 준수하는지 확인하려고 합니다. 물론 안전도 중요했다.

이 예는 고안된 AI 자가 인식 이중 검사기가 어떻게 작동하는지 잘 보여줍니다.

다음으로 AI 자가 인식 이중 확인이 윤리 AI 지향 임베디드 기능을 제공할 수 있는 방법을 보여주는 보다 두드러진 윤리적 AI 예를 간단히 고려할 수 있습니다.

첫째, 인공지능 기반 자율주행차의 도래를 배경으로 제기된 우려 중 하나는 자칫 무심코 차별적으로 이용될 수 있다는 점이다. 방법은 다음과 같습니다. 이러한 자율 주행 자동차가 수익 잠재력을 최대화하도록 설정되어 있다고 가정해 보겠습니다. 함대 소유자는 수익성 있는 작업을 원할 것입니다.

주어진 마을이나 도시에서 로밍 자율주행차가 점차 다른 지역이 아닌 커뮤니티의 일부에 서비스를 제공하기 시작할 수 있습니다. 그들은 돈을 버는 목표를 위해 그렇게 합니다. 가난한 지역은 그 지역의 부유한 지역만큼 수익을 내지 못할 수도 있습니다. 이것은 일부 영역에 봉사하고 다른 영역에는 봉사하지 않는다는 명시적인 열망이 아닙니다. 대신, 자율주행차의 AI가 지리적으로 더 높은 급여를 받는 지역에 집중함으로써 더 많은 돈을 벌 수 있다는 것을 계산적으로 "파악"하는 것과 관련하여 유기적으로 발생합니다. 나는 다음과 같은 내 칼럼에서 이 사회적 윤리적 문제에 대해 논의했습니다. 여기 링크.

AI 운전 시스템에 AI 자가 인식 이중 검사기를 추가했다고 가정합니다. 잠시 후 AI 구성 요소는 자율 주행 자동차가 로밍하는 위치의 패턴을 계산적으로 감지합니다. 특히, 일부 영역에서는 있지만 다른 영역에서는 그렇지 않습니다. 일부 윤리적 AI 지침으로 코딩된 것을 기반으로 AI 자가 인식 이중 검사기는 자가 운전 자동차를 다른 방식으로 무시되었던 도시의 다른 지역으로 안내하기 시작합니다.

이것은 AI 자기 인식 개념을 설명하고 윤리적 AI 요소와 결합하여 그렇게 합니다.

이러한 예를 하나 더 보면 이러한 윤리적 AI 고려 사항이 매우 냉정하고 심각한 삶과 죽음의 결과를 초래할 수 있다는 통찰력을 제공할 수 있습니다.

최근 자동차 사고에 대한 뉴스 보도를 생각해 보십시오. 보도에 따르면 사람 운전자가 번잡한 교차로에 오고 있었는데 직진 신호에 초록불이 들어왔습니다. 또 다른 운전자는 빨간불을 지나쳐서는 안 될 때 교차로에 진입했습니다. 초록불을 켠 운전자는 마지막 순간에 이 다른 차가 자신의 차에 심하게 부딪힐 것임을 깨달았습니다.

이 위태로운 운전자에 따르면, 그는 자신이 다른 차에 치일 것인지, 아니면 침입자를 피하기 위해 방향을 틀 수 있는지 신중하게 계산했습니다. 방향을 틀 때의 문제는 근처에 보행자가 있어 위험에 처할 수 있다는 것이었습니다.

어떤 선택을 하시겠습니까?

공격을 받을 준비를 하고 손상으로 인해 불구가 되거나 사망하지 않기를 바랄 수 있습니다. 반면에 방향을 완전히 틀 수는 있지만 심각한 위험에 처할 수 있으며 인근 보행자를 다치게 하거나 죽일 수도 있습니다. 이것은 도덕적 판단을 포함하는 어려운 문제이며 윤리적(및 법적) 의미에 완전히 빠져 있습니다.

이러한 종류의 딜레마를 다루는 보편적인 윤리적 곤경이 있습니다. 유명하거나 악명 높은 트롤리 문제라고 합니다. 여기 링크. 1900년대 초반으로 거슬러 올라가는 윤리적으로 자극적인 사고 실험임이 밝혀졌습니다. 이와 같이 이 주제는 꽤 오래전부터 존재해 왔으며 최근에는 일반적으로 AI 및 자율 주행 자동차의 출현과 관련이 있습니다.

인간 운전자를 자율주행차에 내장된 AI 운전 시스템으로 대체합니다.

AI 자율주행차가 교차로에 진입하는데 자율주행차의 센서가 갑자기 빨간불을 뚫고 위험하게 다가오는 사람이 운전하는 차를 감지해 무인차를 노린다고 상상해보자. 자율주행 자동차의 차량 내부에 일부 승객이 있다고 가정합니다.

AI가 무엇을 해주기를 바라나요?

AI 운전 시스템이 앞으로 나아가는 것을 선택하거나(차량 내부의 승객을 다치게 하거나 사망할 가능성이 있음) AI 운전 시스템이 기회를 잡고 방향을 틀기를 원하십니까? 방향 전환 작업이 자율 차량을 가져갈지라도 보행자에게 위험하게 다가가 보행자를 다치게 하거나 사망에 이르게 할 수 있습니다.

자율 주행 자동차의 많은 AI 제조업체는 이러한 윤리적 AI 맹렬한 곤경에 정면으로 접근하고 있습니다. 대체로 현재 프로그래밍된 AI는 단순히 앞으로 나아가고 다른 차에 격렬하게 부딪힐 것입니다. AI는 다른 회피 기동을 찾도록 프로그래밍되지 않았습니다.

나는 AI 자율주행차 제조사들의 이런 악의는 보지 말고 듣지도 듣지 말라는 입장은 결국 주변에 와서 물어뜯을 것이라고 반복해서 예고했다(내 분석은 여기 링크). AI가 무엇을 하도록 프로그래밍되었는지 알아내기 위해 자동차 충돌과 관련된 소송을 예상할 수 있습니다. AI를 개발하고 배치한 회사 또는 AI 개발자 또는 함대 운영자는 AI가 하거나 하지 않은 것에 대해 과실 또는 책임이 있습니까? 또한 이러한 종류의 사례가 발생하면 윤리적인 AI 인식에 대한 대중의 불의 폭풍이 일어날 것이라고 예상할 수 있습니다.

이 윤리적 AI 딜레마는 윤리 지향적인 AI 자기 인식 이중 검사기를 사용합니다. 아마도 이 특별한 AI 구성 요소는 이러한 종류의 상황에 참여할 수 있습니다. 나머지 AI 주행 시스템과 자율주행차의 상태를 모니터링하는 부분이다. 이와 같은 무서운 순간이 발생하면 AI 구성 요소가 트롤리 문제 해결사 역할을 하며 AI 구동 시스템이 수행해야 할 작업을 제안합니다.

코딩하기 쉬운 일이 아닙니다. 장담합니다.

결론

이 주제에 대한 마지막 생각을 알려 드리겠습니다.

당신은 그것을 흥미롭게 생각할 가능성이 큽니다.

에 대해 아십니까 미러 테스트?

그것은 자기 인식 연구에서 아주 잘 알려져 있습니다. 문제의 다른 이름은 거울 자기 인식 테스트, 붉은 반점 테스트, 루즈 테스트 및 관련 문구입니다. 기술과 접근 방식은 동물의 자기 인식을 평가하기 위해 1970년대 초반에 처음 만들어졌습니다. 보고에 따르면 테스트를 성공적으로 통과한 동물에는 유인원, 특정 유형의 코끼리, 돌고래, 까치 등이 있습니다. 테스트를 받았지만 테스트를 통과하지 못한 것으로 알려진 동물에는 자이언트 판다, 바다사자 등이 있습니다.

여기 거래가 있습니다.

동물이 거울에 비친 자신을 볼 때 그 동물은 자신의 모습이라는 것을 깨닫습니까, 아니면 다른 동물이라고 생각합니까?

아마도 동물은 같은 종류의 다른 동물을 보았을 때 자신의 종을 시각적으로 인식하고 따라서 거울에 보이는 동물이 사촌이거나 아마도 호전적인 경쟁자라고 생각할 수 있습니다(특히 동물이 거울 이미지를 보고 으르렁거리는 경우, 차례가 그들에게 으르렁거리는 것 같습니다). 아마도 집에서 키우는 고양이나 사랑하는 애완견이 처음으로 거울에 비친 자신을 볼 때 같은 행동을 하는 것을 본 적이 있을 것입니다.

어쨌든, 우리는 야생 동물이 전에 자신을 본 적이 없다고 가정할 것입니다. 글쎄, 이것은 아마도 동물이 잔잔한 웅덩이에서 또는 반짝이는 암석층을 통해 자신을 엿보았기 때문에 반드시 사실이 아닙니다. 그러나 그것들은 가능성이 적은 기회로 간주됩니다.

좋습니다. 우리는 동물이 실제로 거울에 보이는 동물인지 알아낼 수 있는지 여부를 어떻게든 평가하고 싶습니다. 그 겉보기에 단순한 행동을 숙고하십시오. 인간은 자신이 존재한다는 것과 자신의 존재가 거울에 비친 자신을 보고 있음을 어린 나이에 깨닫는다. 그들은 스스로를 자각하게 됩니다. 이론적으로 거울에 비친 자신을 보기 전까지는 자신이 자신임을 깨닫지 못할 수도 있습니다.

아마도 동물들은 같은 방식으로 인지적으로 자기 인식을 할 수 없을 것입니다. 동물이 거울에 비친 자신을 보고 계속해서 그것이 다른 동물이라고 믿을 수도 있습니다. 아무리 자신을 보아도 자신과 다른 동물이라고 생각할 것이다.

이것의 트릭 부분이 재생됩니다. 우리는 동물에 표시를 합니다. 이 표시는 동물이 거울에서 자신을 볼 때만 볼 수 있어야 합니다. 동물이 몸을 비틀거나 돌릴 수 있고 자체에 있는 표시를 볼 수 있다면(직접) 실험을 망칩니다. 또한 동물은 느낌, 냄새 또는 다른 방식으로 표시를 감지할 수 없습니다. 다시 한 번, 그렇게 하면 실험을 망칠 것입니다. 동물은 우리가 그것에 표시를 했다는 것을 알 수 없습니다. 왜냐하면 그것은 짐승에게 무언가가 있다는 단서가 될 것이기 때문입니다.

우리는 마크를 발견할 수 있는 유일한 가능한 이유가 거울에 비친 자신을 볼 수 있도록 범위를 좁히고자 합니다.

아, 이제 테스트가 준비되었습니다. 동물은 거울 앞에 놓이거나 거울 앞에서 방황합니다. 동물이 이후에 표시를 만지거나 파려고 하면 동물이 표시가 자체에 있다는 것을 깨달은 경우에만 이런 일이 발생할 수 있다고 합리적으로 결론을 내릴 것입니다. 극소수의 동물 종만이 이 테스트를 성공적으로 통과했습니다.

시험에 대한 비판이 많다. 사람 테스터가 근처에 있으면 표시를 응시하여 물건을 줄 수 있으며 동물이 이를 닦거나 느낄 수 있습니다. 또 다른 가능성은 그 동물이 여전히 거울에 다른 동물이 보인다고 믿고 있지만 같은 유형이므로 동물도 다른 동물에 있는 것과 같은 표시가 있는지 궁금해하는 것입니다.

계속해서 진행됩니다.

나는 당신이 이것을 알고 기뻐할 것이라고 확신하며, 동물에 점이나 이상한 표시가 있는 이유를 이해하게 될 것입니다. 그렇지 않으면 그런 표시가 없을 것입니다. 최근에 미러 테스트 실험을 마쳤을 수도 있습니다. 관대한 참가자가 된 동물을 안전하게 축하합니다.

AI 기반 자율주행 자동차와 어떤 관련이 있을까요?

이 부분이 마음에 드실 겁니다.

자율주행차가 긴 고속도로를 달리고 있다. AI 운전 시스템은 센서를 사용하여 다른 트래픽을 감지합니다. 이것은 차량이 한 차선에서는 북쪽으로, 다른 차선에서는 남쪽으로 가는 XNUMX차선 고속도로입니다. 경우에 따라 자동차와 트럭이 서로를 추월하려고 하며, 반대 차선으로 진입한 다음 적절한 주행 차선으로 다시 뛰어오도록 합니다.

당신은 이것을 보았고, 틀림없이 이것을 했을 것입니다.

이 다음 측면이 당신에게도 일어났습니다. 자율주행차 앞에는 상당한 규모의 탱커 트럭 중 하나가 있습니다. 반짝이는 금속으로 만들어졌습니다. 휘파람처럼 닦고 깨끗합니다. 이러한 트럭 뒤에 올 때 탱커의 뒤쪽 부분을 통해 자동차의 미러 이미지를 볼 수 있습니다. 이거 보신 분들은 이게 얼마나 매력적인지 아실겁니다. 유조선 뒤쪽의 거울처럼 반사된 당신과 당신의 차가 있습니다.

미친 트위스트를 위해 앉아.

유조선 뒤에 자율주행차가 등장한다. 카메라는 거울처럼 반사되는 자동차의 이미지를 감지합니다. AI가 평가하는 와우, 저게 자동차인가요? 자율주행차에 온다? 자율주행차가 탱커트럭에 점점 가까워질수록 자동차도 점점 더 가까워지는 것 같다.

예, AI는 이것이 위험한 상황이라고 계산적으로 계산할 수 있으며 AI는 이 미친 불량 차량으로부터 회피 조치를 취해야 합니다. 알다시피, AI는 거울에 비친 자신을 인식하지 못했습니다. 미러 테스트에 실패했습니다.

무엇을 할 것인가? 아마도 AI 자가 인식 이중 검사기가 문제에 뛰어들어 AI 운전 시스템의 나머지 부분을 안심시키는 것은 무해한 반사일 뿐입니다. 위험을 피할 수 있습니다. 세상이 구원받았습니다. AI 미러테스트 합격!

농담조로 결론을 내림으로써 때때로 AI가 평균적인 곰보다 더 똑똑하거나 적어도 자기 인식이 더 뛰어나다고 제안할 수도 있습니다. 물웅덩이에 반사되는 데 사용됨).

수정, AI는 자이언트 팬더와 바다사자보다 자의식이 강할 수 있지만 동물에게 AI 시스템을 부수거나 강타하려는 유혹을 받을 수 있다고 말하지 마십시오. 우리는 그것을 원하지 않습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/