책임 있는 AI를 위한 누락된 기반 요소로서의 AI 미덕은 AI 윤리 및 AI 법에 대해 말합니다.

당신은 덕이 있습니까?

그 질문에 대답하기 전에 미덕의 의미를 풀고 당신의 미덕을 설명하기 위해 일치된 찌르기를 할 수 있습니다.

또한 AI(인공 지능) 분야, 특히 AI 윤리 및 AI 법 영역에서 미덕이 떠오르는 주제라는 사실에 놀랄 것입니다. 먼저 미덕에 대한 몇 가지 기본 사항을 다룬 다음 최신 생각으로 넘어갈 것입니다. AI 미덕. 네, 간단히 말해서 AI 미덕은 윤리적 AI와 궁극적으로 AI 법의 일종의 선구자로 묶여 있습니다. AI 윤리 및 AI 법률에 대한 지속적이고 광범위한 전반적인 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

먼저 미덕과 덕성을 언급하는 것이 무엇을 의미하는지 숙고하십시오.

혹자는 미덕이 뛰어난 도덕성을 보여주는 자질이나 특징이라고 말할 것입니다. 유덕한 사람은 최고의 윤리적 또는 도덕적 기준을 준수합니다. 라틴어 단어 로마인들은 도덕적 정직과 특히 용감하거나 영웅적인 행동을 강조하기 위해 사용했다고 합니다. 이것들은 모두 고결한 것과 관련된 다소 고상한 개념과 중요한 의미입니다.

미덕의 핵심 또는 핵심을 구성하는 것이 무엇인지에 대해 역사를 통틀어 꽤 많은 손놀림이 있었습니다. XNUMX개의 쐐기돌, XNUMX개의 쐐기돌, XNUMX개의 쐐기돌이 있습니까? 아니면 정확히 몇 개입니까?

예를 들어, 소위 추기경 미덕은 다음과 같은 네 가지 계율이라고 합니다.

1) 신중함

2) 인내

3) 절제

4) 정의(공정성)

이 네 가지 쐐기돌을 바탕으로 진지한 자기 성찰을 통해 자신의 덕성을 고민해야 할 것입니다. 최고의 신중함을 보여주나요? 당신은 최고 수준의 인내심을 보여주나요? 당신은 최고 수준의 절제를 보여줍니까? 그리고 당신은 당신의 노력에서 최고 수준의 공정성(정의)을 보여주고 있습니까?

이러한 기본 조치를 "보여줘야" 한다고 계속 말하고 있음을 주목하십시오. 그것을 마음속에 품는 것과 그것을 실제 행동과 행동으로 불러일으키는 것은 완전히 다른 문제일 수 있습니다. 오직 당신의 마음 속에서만 덕이 될 가능성은 우리가 여기서 고려하고자 하는 것이 아닙니다. 머릿속에 있는 것을 현실로 가져와야 합니다.

말을 하고 진실로 말을 걸어야 합니다.

또 다른 측면은 아마도 다음을 준수해야 한다는 것입니다. 모든 진정으로 덕이 되기 위해 고려된 일련의 쐐기돌. 만일 당신이 신중함에서는 최고 수준이지만 불굴의 정신, 절제, 정의의 다른 세 가지 분야에서는 실패하거나 심지어 서투르다면, 당신은 실제로 덕이 있다고 권면할 수 없습니다. 당신은 부분적으로만 그렇습니다. 우리는 당신이 이러한 모든 계율을 준수해야만 덕의 깃발을 자랑스럽게 그리고 크게 휘날릴 수 있다고 주장할 것입니다. 따라서 이 네 가지 계율 중 하나, 둘, 셋을 만나는 것만으로는 충분하지 않습니다. 네 가지를 모두 달성할 수 있습니다.

나는 앤티를 올릴 것이므로 다음 트위스트를 위해 앉아있는 것이 좋습니다.

르네상스와 다른 역사적 시기에 다소 두드러진 것으로 보이는 미덕 목록을 조사한 연구자들은 당시에 XNUMX가지 미덕이 있었다고 주장하는 경향이 있습니다.

1) 겸손

2) 친절

3) 절제

4) 순결

5) 인내

6) 자선

7) 근면

만약 그 행운의 XNUMX가지가 사실이라면, 그리고 그것들을 덕의 명시된 기준으로 사용한다면, 유감스럽게도 이전의 XNUMX가지 필수 덕목 목록이 XNUMX가지로 확장되었음을 알려드립니다. 즉, 이전에는 준수해야 할 항목이 XNUMX개뿐이었지만 이제는 무려 XNUMX개와 싸워야 합니다.

다시 한 번, 이 일곱 가지 핵심 요소에 대해 자기 성찰을 시작하십시오.

나는 바가 상승하고 상승하는 것 같다고 감히 말할 수 있습니다. 처음에는 물론 자신이 유덕하다고 생각했을 수도 있지만, 이제 이 일곱 가지 핵심 요소에 대한 장애물이 계속 다가오면서 덕을 자랑하는 기량을 대담하게 선언하는 것이 훨씬 더 어려울 수 있습니다.

키스톤의 수는 상당히 높을 수 있습니다.

벤자민 프랭클린(Benjamin Franklin)은 유덕함을 위한 XNUMX가지 핵심 요소가 있다고 믿었습니다.

1) 절제

2) 침묵

3) 주문

4) 해상도

5) 검소함

6) 산업

7) 성실

8) 정의

9) 절제

10) 청결

11) 고요함

12) 순결

13) 겸손

예, 그것은 어려운 목록입니다.

우리는 당신이 그 모든 쐐기돌이 되어야 하고 그 중 어느 것에서도 이상적이라고 주장하는 도전 과제를 제시하고 있음을 명심하십시오. 그것은 전부 아니면 전무(all-or-nothing) 제안입니다. 우리는 당신이 될 수 있음을 인정할 수 있습니다 부분적으로 열세 가지 모두가 아니라 열세 가지 중 일부를 따름으로써 유덕합니다. 우리는 또한 당신이 때때로 그들 모두에 대해 완전히 덕이 있지만 다른 순간에는 그러한 완전함을 얻지 못한다면 당신이 부분적으로 유덕하다는 것을 기꺼이 인정할 수 있습니다.

골드 스타는 항상 모든 쐐기돌을 달성한 사람에게만 주어집니다.

우리 중 얼마나 많은 사람이 그 엄격한 정의를 충족할 수 있습니까?

당신이 이러한 수준의 깨달음을 얻기 위해 손을 들었다면 우리는 당신에게 따뜻한 축하의 말을 전해야 합니다. 회의론자와 냉소주의자는 당신의 주장의 진실성에 의문을 제기할 수밖에 없습니다. 그렇게 조언하십시오.

이제 우리는 미덕을 테이블 위에 올려놓았으므로 미덕이 윤리와 어떤 관련이 있는지 궁금할 것입니다.

물어봐주셔서 기쁩니다.

한 가지 열렬한 믿음은 미덕은 윤리를 찌르는 것입니다.

이 고려된 틀에서 당신의 미덕은 윤리적 노력을 일으킬 것입니다. Ergo, 누군가가 윤리적 원칙이나 규칙의 목록을 쫓아 내면 미덕에 뿌리를 둔 경우에만 진지하게 선발 된 것으로 평가됩니다. 당신의 미덕은 당신의 윤리적 모습을 향해 움직입니다.

편리한 비유가 도움이 될 것 같습니다.

우리는 꽃을 피우기 위해 몇 가지 씨앗을 심습니다. 토양은 그 꽃이 어떻게 자라는지에 필수적입니다. 흙은 덕의 집합이고, 씨앗과 꽃은 그 기반에서 흘러나오는 윤리라고 우리는 기꺼이 말할 수 있습니다. 적절한 침구가 없으면 다른 어떤 것도 견인력을 얻지 못할 것입니다. 당신은 그 꽃을 키우는 것에 대해 하루 종일 수다를 떨 수 있지만 토양이 나쁘거나 당면한 문제에 도움이되지 않으면 잘못된 개화 또는 기타 관련 질병이 뒤따를 것이라고 예상해야합니다.

조잡한 비유에 대해 이의를 제기할 수 있습니다. 이 미덕 대 윤리 문제에 대한 전반적인 감정을 이해하고 싶었습니다. 미덕과 윤리는 하나라고 말하는 사람도 있음을 유의하십시오. 다른 사람들은 다르다고 말할 것입니다. 다르다고 하는 진영 중 덕을 근간으로 하는 진영이 있고, 윤리가 노두라고 하는 진영이 있습니다(반면에 다른 진영도 존재합니다).

분명히 명백하게 하기 위해, 모든 사람이 이러한 문제를 보는 기반암과 노출 방식에 동의하는 것은 아닙니다. 그럼에도 불구하고 우리는 이 특정 논의에서 이를 기반으로 진행할 것입니다. 당신은 그러한 추측에 대해 길게 논쟁할 수 있지만 적어도 이것이 여기서의 가정이며 유익한 담론을 위해 수행되었다는 것을 인식하십시오.

줄임말로 이것을 미덕 윤리 설계.

약간의 기어 이동, 오늘날의 풍미있는 윤리 표현 및 성화의 추세에 대해 숙고하십시오.

오늘날 윤리에 관해 많은 논쟁이 벌어지고 있으며 우리가 준수해야 할 윤리적 규칙이나 원칙이 무엇인지 공개적으로 묻습니다. 이것은 사람들이 행동하는 방식에 대한 경우입니다. 또한 곧 보게 되겠지만 AI도 준수해야 하는 윤리적 규칙이나 원칙이 제안되어 있습니다.

윤리적 규칙과 윤리적 원칙에 대한 반추의 함정은 아마도 우리가 잘못된 것에 집중하고 있다는 것입니다. 덕 윤리 진영의 사람들은 끝없는 윤리 규칙 등의 목록에 빠지기보다는 덕에 집중하는 것이 더 현명할 것이라고 주장할 것입니다. 덕목을 먼저 바로잡아야 윤리적 규칙이 자연스럽게 흘러나올 것입니다.

내 비유로 돌아가서, 우리는 우리가 키우고 싶은 꽃에 대해 하루 종일 열띤 토론을 할 수 있지만, 먼저 적절한 토양이 있는지 조사하고 확인하지 않으면 꽃을 키우는 야망은 아무 소용이 없을 것입니다. 실용적으로 많이 사용됩니다. 당신이 꽤 매력적으로 보이는 꽃 다발을 결정했지만, 그 씨앗을 심을 때 토양이 먼저 교정되지 않았기 때문에 결코 열매를 맺지 못한다는 것이 밝혀졌다고 상상해 보십시오.

따라야 할 윤리적 규칙에 대한 끊임없는 소음이 지나친 강박관념이 되었다고 제안할 수도 있습니다. 점점 더 뜨거워지고 더 휘말리게 됩니다. 차례로 우리는 미덕을 먼저 봐야 한다는 내면의 진실에서 점점 더 멀어집니다.

제목의 통찰력 있는 논문에서 윤리와 미덕 연구원인 Manuel Velasquez, Claire Andre, Thomas Shanks, SJ, Michael J. Meyer는 우리가 이 완고함을 고칠 수 있다는 주목할만한 발언을 합니다. 원칙에 대한 강조가 윤리의 근본적인 요소를 무시한다고 주장하는 몇몇 윤리학자에 의해 — 미덕. 이들 윤리학자들은 '도덕 원칙 접근'이 사람들이 무엇을 해야 하는지 또는 어떻게 행동해야 하는지에 초점을 맞추면서 더 중요한 문제인 사람이 어떠해야 하는지를 간과한다고 지적합니다. 즉, 윤리의 근본적인 물음은 '나는 무엇을 해야 하는가?'가 아니다. 하지만 '나는 어떤 사람이 되어야 할까?' '덕 윤리'에 따르면, 공동선에 대한 탁월성 또는 헌신과 같은 특정 이상이 있으며, 이를 위해 노력해야 하고 인류의 완전한 발전을 허용합니다."(게시: Markkula Center for Applied Ethics, Santa Clara University ).

AI 영역에서 AI 윤리 원칙 및 규칙에 대한 제안이 많다는 사실을 막연하게 알고 있을 수 있습니다. 모든 방식과 다수의 발음된 윤리적 AI 계율을 쉽게 찾을 수 있습니다. 그들은 정말 십센트라고 말할 수 있습니다.

충격적인 것은 AI Virtues에 합당한 관심을 기울여야 한다는 최근의 버블링 논쟁으로 구성되어 있습니다. AI 윤리 규칙 및 원칙에 대해 미친 듯이 맹렬하게 손가락질하는 것을 중단하고 대신 AI Virtues에 대한 비전을 제시하십시오. AI Virtues를 파악할 수 있다면 나머지는 쉬울 것입니다.

AI Virtues 주제로 뛰어들기 전에 먼저 AI, 특히 AI 윤리 및 AI 법에 대한 몇 가지 필수 토대를 마련하여 논의가 맥락적으로 타당할 수 있도록 하고자 합니다.

윤리적 AI 및 AI 법률에 대한 인식 상승

최근 AI 시대는 처음에는 좋은 AI, 인류의 개선을 위해 AI를 사용할 수 있음을 의미합니다. 발 뒤꿈치에 좋은 AI 우리도 몰입하고 있다는 사실을 깨달았습니다. 나쁜 인공 지능. 여기에는 차별적이 되도록 고안되거나 자체 변형되고 과도한 편견을 주입하는 계산 선택을 하는 AI가 포함됩니다. 때로는 AI가 그런 식으로 구축되는 반면, 다른 경우에는 그 방향으로 방향을 틀게 됩니다.

나는 우리가 오늘날 AI의 본질에 대해 같은 페이지에 있다는 것을 충분히 확인하고 싶습니다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI로 구성되어 있습니다. 우리가 지각 있는 AI에 대해 격렬하게 추측하고 싶다면 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다(초지능 AI를 가능성으로 탐색하려면 다음을 참조하십시오. 여기의 적용 범위).

나는 우리가 모든 것을 진실로 유지하고 오늘날의 컴퓨팅 비 지각 AI를 고려할 것을 강력히 제안합니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

오늘날의 AI를 의인화하는 데 매우 주의하십시오.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 이제 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 큽니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이 모든 것은 특히 AI 윤리와 관련하여 AI를 입법화하려고 할 때 배운 교훈(모든 교훈이 일어나기 전에도)을 쉽게 볼 수 있는 창을 제공합니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 그들은 우리가 이러한 인공 지능 법 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 인공 지능의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이전 칼럼에서 저는 AI를 규제하는 법률을 만들고 제정하기 위한 다양한 국내 및 국제적 노력을 다루었습니다. 여기 링크, 예를 들어. 나는 또한 거의 200개국이 채택한 유네스코 AI 윤리 세트와 같은 유엔 노력을 포함하여 다양한 국가에서 확인하고 채택한 다양한 AI 윤리 원칙과 지침을 다루었습니다. 여기 링크.

다음은 이전에 자세히 조사한 AI 시스템과 관련된 윤리적 AI 기준 또는 특성의 유용한 핵심 목록입니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속가능성
  • 존엄
  • 연대

이러한 AI 윤리 원칙은 AI 개발 노력을 관리하는 AI 개발자와 함께 AI 개발자, 그리고 궁극적으로 AI 시스템을 현장에 배치하고 유지 관리하는 원칙과 함께 본격적으로 활용되어야 합니다.

개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 여기에서 앞서 강조했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며, 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

나는 또한 최근에 조사했다. AI 권리 장전 이는 미국 과학기술정책국(OSTP)의 XNUMX년 간의 노력의 결과인 "AI 권리장전 청사진: 미국인을 위한 자동화 시스템 작동"이라는 미국 정부 공식 문서의 공식 제목입니다. ). OSTP는 국가적으로 중요한 다양한 기술, 과학 및 엔지니어링 측면에 대해 미국 대통령과 미국 행정부에 자문을 제공하는 연방 기관입니다. 그런 의미에서 이 AI 권리장전은 기존의 미국 백악관에서 승인하고 승인한 문서라고 할 수 있습니다.

AI 권리장전에는 XNUMX가지 핵심 범주가 있습니다.

  • 안전하고 효과적인 시스템
  • 알고리즘 차별 보호
  • 데이터 개인 정보
  • 주의사항 및 설명
  • 인간의 대안, 고려 및 대체

나는 그 교훈을 주의 깊게 검토했습니다. 여기 링크.

이러한 관련 AI 윤리 및 AI 법 주제에 대한 유용한 토대를 마련했으므로 이제 AI Virtues라는 주제로 뛰어들 준비가 되었습니다.

윤리적 AI를 돕기 위해 조정되는 AI 미덕

제가 AI Virtues를 언급할 때 제가 지원 지각 있는 AI에 대해 이야기합니다.

만약 (혹은 어떤 사람들은 언제) 지각 있는 AI에 도달하면 지각 있는 AI는 일련의 미덕을 가질 수도 있고 없을 수도 있습니다. 우리는 소가 집에 돌아올 때까지 지각 있는 AI가 미덕의 모습을 포함할지 여부에 대해 논쟁할 수 있습니다. 일부 전문가들은 미덕이 지각 있는 AI에 완전히 그리고 의심할 여지 없이 결여된 인류만의 요소라고 주장할 것입니다.

다른 전문가들은 정반대라고 선언합니다. 즉 지각 AI는 물론 미덕을 가질 것입니다. 후자의 경우 지각 AI가 올바른 종류의 미덕을 갖도록 보장하는 방법에 대해 걱정해야 합니다. 아마도 우리는 지각력이 있는 AI에 우리의 미덕을 공급할 수 있을 것입니다. 그것이 작동하지 않는다면, 우리는 지각 있는 AI가 미덕의 중요성을 깨닫고 스스로의 의지로 그것을 신성화할 수 있을 만큼 충분히 영리하기를 바랄 것입니다.

회전목마가 빙글빙글 돌고 있습니다.

오늘날의 관점에서 저는 현대의 무감각 AI에 주목하고 싶습니다.

저자인 Thilo Hagendorff는 "AI 윤리를 실천에 옮기는 것을 지원하기 위한 미덕 기반 프레임워크"라는 도발적인 연구 논문에서 다음을 제안합니다. 미덕 윤리 그 결과 네 가지 근본적인 AI 미덕이 있다는 믿음에 도달할 수 있습니다.

1) 정의

2) 정직

3) 책임

4) 케어

논문은 “많은 윤리 이니셔티브가 AI 분야에서 좋은 기술 개발을 위한 일련의 원칙과 표준을 규정했습니다. 그러나 몇몇 인공지능 윤리 연구자들은 이러한 원칙의 실천적 실현이 부족하다는 점을 지적하고 있다. 이에 따라 AI 윤리학은 원칙적 접근 방식에서 벗어나지 않으면서 실질적인 전환을 맞았습니다. 이 논문은 덕 윤리에 기초한 원칙적 접근에 대한 보완을 제안한다. 그것은 정의, 정직, 책임 및 보살핌이라는 네 가지 "기본 AI 미덕"을 정의하며, 모두 AI 분야에서 윤리적 의사 결정을 위한 바로 전제 조건을 구성하는 특정 동기 부여 설정을 나타냅니다. 철학 및 기술, 2022월 XNUMX일).

XNUMX가지 AI Virtues는 어떻게 파생되었나요?

연구원에 따르면, 수많은 AI 윤리 지침을 검토하고 기본 핵심인 AI 미덕이 무엇인지에 대해 거의 후퇴하는 것이 가능합니다. 당신이해야 할 일은 약간의 신중한 분석이며 늪을 멋지고 깔끔한 것으로 바꿀 수 있습니다. 언급된 바와 같이: "이 모든 원칙을 검토할 때 환원주의적 접근을 사용하고 그룹으로 묶음으로써 모든 것을 포괄하는 네 가지 기본 미덕을 추출할 수 있습니다"(ibid).

다양한 차트와 그림이 포함되어 있으며 AI 윤리 원칙 또는 규칙과 관련하여 네 가지 AI 덕목을 다음과 같은 구현으로 구성하는 것으로 해석할 수 있음을 제안합니다.

  • AI 정의의 미덕: AI 윤리 원칙에는 알고리즘 공정성, 비차별, 편향 완화, 포용, 평등, 다양성 등이 포함됩니다.
  • AI Virtue of Honesty: AI 윤리 원칙에는 투명성, 개방성, 설명 가능성, 해석 가능성, 기술 공개, 오픈 소스, 오류 및 실수 인정 등이 포함됩니다.
  • AI Virtue of Responsibility: AI 윤리 원칙에는 책임, 책임, 책임, 복제 가능성, 합법성, 정확성, 장기적인 기술적 결과 고려 등이 포함됩니다.
  • AI Virtue of Care: AI 윤리 수칙에는 무해성, 위해성, 안전, 개인 정보 보호, 보호, 예방, 숨겨진 비용, 선행, 웰빙, 지속 가능성, 평화, 공동선, 연대, 사회적 응집력, 자유, 자율성, 자유, 동의 등

이러한 종류의 리버스 엔지니어링을 수행해야 하는 입장에 서게 되면 연구 논문에서 제안한 내용은 다음과 같습니다. 무엇보다도 그들의 행동의 결과가 원칙 X가 지정하는 요구 사항을 충족하는 기술적 인공물로 귀결되도록 '자동으로' 보장하거나 가능성을 높이는 방법? 또는 간단히 말해서 미덕 A는 원칙 X의 요구 사항에 해당하는 결과를 초래할 가능성이 있는 행동으로 해석됩니까?” (ibid).

우리 모두가 같은 결론에 도달하지 못할 수도 있다고 말하는 것이 안전할 것입니다.

특정 AI 윤리 계율이 특정 AI 덕목에 속하거나 다른 덕목에 합리적으로 배치되거나 둘 이상에 속할 수 있다고 주장할 여지가 충분히 있는 것 같습니다. 이렇게 하면 쉽게 앞뒤로 갈 수 있습니다. 문명화되고 예의 바른 어조로(화난 양극화 불안으로 전환할 필요 없음).

언급된 XNUMX가지 이상의 AI 미덕을 추가로 제시하고 더 많은 AI 미덕이 필요하다고 합당한 주장을 하면 이 슬라이싱 및 다이싱에 대해 더 깊이 들어갈 수 있습니다. 어떤 사람은 AI 미덕을 XNUMX~XNUMX개만 말하도록 개수를 줄이려고 할 수도 있다고 가정합니다. 하지만 그렇게 하면 다소 흔들리는 철학적이고 반비실용적인 근거에 놓이게 될 것입니다.

네 가지 AI 덕목을 과도하게 분석하기 전에 연구 논문에 두 가지 추가 두 번째 순서 믹스에 들어오는 AI 미덕. 추가된 두 가지 XNUMX차 AI 장점은 다음과 같습니다.

그것들은 다음으로 구성되어 있는 것 같습니다:

  • AI Virtue of Prudence: 시스템 1 사고, 암묵적 편향, 집단 내 편애, 이기적 편향, 가치 행동 격차, 도덕적 이탈 등을 수반하는 AI 윤리 지침
  • AI Virtue of Fortitude: AI 윤리는 상황적 힘, 동료 영향력, 권위 등을 수반합니다.

이 두 가지 XNUMX차 AI 덕목의 이론적 근거 또는 근거는 다음과 같은 개념에 부분적으로 기반합니다. 개인의 심리적 편향과 상황적 힘이 공정하고 정직하며 책임감 있고 배려심 있게 행동하는 데 방해가 될 수 있습니다. 신중함과 꿋꿋함은 기본적인 AI 미덕을 제한할 수 있는 많은 힘에 대한 해답입니다. 여기서 신중함은 주로 개별 요인을 목표로 하는 반면, 꿋꿋함은 AI 연구 및 개발에서 윤리적 의사 결정을 손상시킬 수 있는 초개인적 문제를 해결합니다.”(ibid)

제가 제안한 AI 미덕 세트를 요약하자면 다음과 같습니다.

  • 정의
  • 정직
  • 책임
  • 케어
  • 주의 (두 번째 순서)
  • 꿋꿋함 (두 번째 순서)

일반적으로 다음과 같은 AI 윤리 규칙 또는 원칙과의 결합으로 구성되는 경향이 있습니다.

  • AI 정의의 미덕: AI 윤리강령에는 알고리즘적 공정성, 비차별, 편향 완화, 포용, 평등, 다양성 등이 포함됩니다.
  • AI 정직의 미덕: AI 윤리강령은 투명성, 개방성, 설명가능성, 해석가능성, 기술적 공개, 오픈소스, 오류 및 실수 인정 등을 포함한다.
  • AI의 책임감: AI 윤리 수칙에는 책임, 책임, 책임, 복제 가능성, 적법성, 정확성, 장기적인 기술적 결과 고려 등이 포함됩니다.
  • AI의 배려: 인공지능 윤리강령에는 무해성, 위해성, 안전, 프라이버시, 보호, 예방, 숨겨진 비용, 선행, 웰빙, 지속가능성, 평화, 공동선, 연대, 사회적 결속, 자유, 자율성, 자유, 동의 등이 포함됩니다.
  • AI 신중함의 미덕 (1차): 시스템 XNUMX 사고, 암묵적 편향, 집단 내 편애, 이기적 편향, 가치 행동 격차, 도덕적 이탈 등을 수반하는 AI 윤리 지침
  • 인내의 AI 미덕 (XNUMX차): 상황적 힘, 동료 영향, 권위 등을 수반하는 AI 윤리 수칙

이 모든 것에 대한 열띤 토론은 행동으로 옮기기 쉽습니다.

저는 여러분 중 일부가 이미 제안된 AI 미덕 중 하나 또는 다른 것에 대해 이미 광적으로 가고 있다고 확신합니다. 그것은 미덕이 아니며, 일부는 소리를 지르기도 합니다. 당신 중 일부는 울부 짖을 수 있습니다 적절하게 표현되지 않았습니다. 꽤 고함치는 경기가 일어날 수 있었다.

이 연구가 탐구하는 다양한 예상되는 비판과 불만 가운데 특히 주목할만한 것은 관련된 고전적인 에이전트 중심 대 행위 중심 문제와 관련이 있습니다. 에이전트 중심 관점은 기본적으로 에이전트나 행위자가 특정 마음을 갖기를 원하지만 행위 중심 관점은 수행되는 작업에 초점을 맞추는 경향이 있습니다.

아마도 어떤 사람들은 AI Virtues가 에이전시 또는 에이전트 중심적 측면에 더 가깝고 AI Ethics는 행동 중심적 구성 요소에 더 가깝다고 말할 것입니다. 우리는 AI 개발자와 AI 시스템이 일종의 "사고 방식"(AI의 경우 프로그래밍)으로서 AI Virtues에 뿌리를 내리기를 원하며 AI 개발자의 행위와 AI의 행위는 Ethical AI 계율을 통해 표현됩니다. .

또한 AI Virtues의 사용이 AI가 결코 잘못을 저지르지 않을 것이라는 것을 의미하는 것처럼 일부 사람들이 이를 잘못 전달할 위험도 있습니다. 아니면 우리는 AI 미덕을 고안하는 데 몰두하면서 AI 윤리 원칙이나 규칙을 간과하게 될 수도 있습니다. 그다지 좋은 일을 하지 않거나 더 나쁜 일을 하여 실향된 해설자가 실제로 대신 수행해야 할 작업을 산만하게 하고 혼란스럽게 하는 프레임워크로서 AI 미덕을 약화시키기 위해 많은 동기를 부여할 수 있습니다.

결론

AI Virtues가 필요한가요?

그리고 만약 그렇다면 AI 윤리학에 이미 깊이 빠져 있는 사람들에게 유용하고 따뜻하게 받아들여질 것인가, 아니면 AI 미덕이 복제, 거짓 미끼, 성가신 주의 산만함으로 보일지, 아니면 다른 방식으로 유혹적이지만 부적합한 것으로 묘사될 것인가? AI를 고안하고 사용하는 회사의 마음과 손에 윤리적 AI를 도입하려는 압도적인 노력.

많은 AI 윤리 옹호자들은 이미 비즈니스 리더들이 경청하고 AI 채택자들이 윤리적 AI 교훈을 진지하게 고려하도록 하는 데 과도한 부담을 느끼고 있습니다. 여기 링크, 그리고 윤리적 AI의 깃발을 들고 있는 사람들을 위한 근로자 소진에 대한 분석은 다음을 참조하십시오. 여기 링크). AI Virtues에 대한 일반적인 반응은 판이 이미 AI 윤리 규칙으로 가득 차 있다는 것입니다.

반론은 우리가 무심코 건너뛰었거나 기본으로 가는 것을 소홀히 했다는 것입니다. AI Virtues는 오래 전에 배치되었어야 합니다. 시계를 되돌릴 수는 없지만 잃어버린 시간을 만회할 수는 있습니다. AI Ethics에 대한 동일한 강력한 기계화는 AI Virtues의 뒤늦은 포함을 확실히 흡수할 수 있습니다.

그것에 도착, 불평을 중지합니다.

Friedrich Nietzsche는 "우리는 상대에게 미덕이 전혀 없다는 것을 알기 전까지는 미덕을 소유하는 것에 특별한 가치를 두지 않습니다."라고 말했습니다. 그러면 다음의 출현에 동의할 수 있습니다. 나쁜 인공 지능 AI 윤리의 필요성에 대한 우리의 인식을 촉발시켰을 뿐만 아니라 마찬가지로 AI Virtues에 대한 우리의 욕구와 수용 가능성도 불러일으켰습니다.

이에 대한 마지막 말은 로마 정치가인 마르쿠스 툴리우스 키케로(Marcus Tullius Cicero)에게 갑니다. 그는 이에 대해 이렇게 외쳤습니다. “적이 성문 안에 있습니다. 우리가 싸워야 하는 것은 우리 자신의 사치, 어리석음, 범죄 행위입니다.” 알다시피, 악덕은 이미 AI의 문 안에 있으며, 우리는 악의 물결에 맞서기 위해 미덕에 주의를 기울여야 할 수도 있습니다.

AI Virtues는 참을성 있게 그러나 끈질기게 문 앞에서 기다리고 있습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/11/15/ai-virtues-as-missing-bedrock-ingredient-for-responsible-ai-says-ai-ethics-and-ai- 법/