자율 주행 자동차를 포함하여 AI가 유독하거나 편향되도록 훈련하는 것이 유익할 수 있다는 AI 윤리 충격적인 계시

여기 여러분이 전에 들어본 적이 있을 것이라고 확신하는 오래된 대사가 있습니다.

하나를 알기 위해서는 하나가 필요합니다.

이 표현이 1900년대 초반까지 거슬러 올라갈 수 있고 일반적으로 범죄자를 언급할 때 사용되었다는 사실을 깨닫지 못할 수도 있습니다(캐치프레이즈의 다른 변형은 1600년대와 같이 더 거슬러 올라갑니다). 이 발화를 사용하는 방법의 예는 도둑을 잡으려면 도둑을 사용해야 한다는 개념을 수반합니다. 이것은 하나를 알기 위해서는 하나가 필요하다는 주장을 보여줍니다. 많은 영화와 TV 프로그램에서 이 편리한 현자의 지혜를 활용했으며, 종종 사기꾼을 잡을 수 있는 유일한 실행 가능한 수단은 똑같이 부패한 사기꾼을 고용하여 범죄자를 쫓는 것이라고 묘사했습니다.

기어를 바꾸면 일부 사람들은 누군가가 과도한 편견과 차별적 신념을 구현하고 있는지 식별하는 적절한 방법은 이미 그러한 경향을 품고 있는 사람을 찾는 것이라고 주장하기 위해 이와 동일한 논리를 활용할 수 있습니다. 아마도 이미 편견으로 가득 찬 사람은 이 다른 사람도 독성으로 가득 차 있다는 것을 더 쉽게 감지할 수 있을 것입니다. 다시 말하지만, 하나가 공언된 만트라임을 알기 위해서는 하나가 필요합니다.

편향된 사람을 이용하여 다른 편향된 사람을 고발할 가능성에 대한 귀하의 초기 반응은 회의론과 불신 중 하나일 수 있습니다. 비슷한 성격의 다른 사람을 찾는 데 의존하지 않고 단순히 검사하여 누군가가 부적절한 편견을 가지고 있는지 알아낼 수 없습니까? 유독하게 편향된 다른 사람을 밝히기 위해 의도적으로 편향된 사람을 찾으려는 것은 이상하게 보일 것입니다.

나는 그것이 부분적으로 당신이 하나를 아는 데 필요하다는 추정 후렴구를 기꺼이 받아들일 것인지에 달려 있다고 생각합니다. 이것은 도둑을 잡는 유일한 방법이 당신이 독점적으로 그리고 항상 도둑을 이용하는 것을 요구한다는 것을 암시하지 않는다는 점에 유의하십시오. 이것은 충분히 고려할 수 있는 추가된 경로일 뿐이라고 합리적으로 주장하는 것처럼 보일 수 있습니다. 때때로 당신은 도둑을 잡기 위해 도둑을 사용할 가능성을 기꺼이 즐길 수 있지만 다른 상황에서는 이것을 헤아릴 수 없는 전술로 만들 수 있습니다.

그들이 말하는 것처럼 올바른 설정을 위해 올바른 도구를 사용하십시오.

이제 이러한 기본 사항을 설명했으므로 이 이야기의 불안하고 표면적으로는 충격적인 부분으로 진행할 수 있습니다.

준비되셨습니까?

AI 분야는 특히 편향되거나 차별적으로 행동하는 AI를 찾아내려는 경우, 하나를 알아야 한다는 동일한 원칙을 적극적으로 추구하고 있습니다. 예, 마음을 구부리는 아이디어는 우리가 의도적으로 완전하고 부끄럽지 않게 편향되고 차별적인 AI를 고안하여 동일한 독성을 가진 다른 AI를 발견하고 발견하는 수단으로 사용하기를 원할 수 있다는 것입니다. 곧 알게 되겠지만 이 문제의 근간에는 성가신 AI 윤리 문제가 다양하게 존재합니다. AI 윤리 및 윤리적 AI에 대한 전반적인 지속적이고 광범위한 범위는 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

나는 당신이 다른 독성 AI를 쫓기 위해 독성 AI를 사용하는 것을 불로 불을 붙인 격투 개념으로 표현할 수 있다고 생각합니다(우리는 이 상황을 묘사하기 위해 많은 완곡어법과 예시적인 은유를 불러올 수 있습니다). 또는 이미 강조한 바와 같이 하나를 알기 위해서는 하나가 필요하다는 주장을 인색하게 언급할 수도 있습니다.

가장 중요한 개념은 기존의 방법을 사용하여 주어진 AI 시스템에 과도한 편견이 포함되어 있는지 여부를 파악하려고 시도하는 것보다 덜 전통적인 방법을 사용하는 방법도 모색해야 한다는 것입니다. 그러한 비전통적인 수단 중 하나는 최악의 편견과 사회적으로 용납할 수 없는 독성을 모두 포함하는 AI를 고안한 다음 이 AI를 사용하여 동일한 나쁜 성향을 가진 다른 AI를 제거하는 데 도움을 주는 것입니다.

이것을 빠르게 생각하면 확실히 완벽하게 합리적인 것처럼 보입니다. 우리는 최대한 독성이 있는 AI를 구축하는 것을 목표로 할 수 있습니다. 그런 다음 이 독성 AI는 독성이 있는 다른 AI를 찾아내는 데 사용됩니다. 당시 공개된 "나쁜" AI의 경우 독성을 해제하거나 AI를 완전히 버림으로써 처리할 수 있습니다. 여기 링크), 또는 AI 감금 여기 링크), 또는 적용 가능한 것으로 보이는 다른 작업을 수행합니다.

반론은 우리가 의도적으로 의도적으로 독성이 있고 편향으로 가득 찬 AI를 고안하고 있는지 머리를 검사해야 한다는 것입니다. 이것은 우리가 마지막으로 고려해야 할 사항입니다. 어떤 사람들은 권고합니다. 온전한 선으로만 이루어진 AI를 만드는 데 집중하라. 부당한 편견의 악과 찌꺼기가 있는 AI를 고안하는 데 집중하지 마십시오. 그러한 추구라는 바로 그 개념이 어떤 사람들에게는 역겹게 보입니다.

이 논란이 많은 퀘스트에 대해 더 많은 우려가 있습니다.

독성 AI를 고안하는 임무는 사회를 약화시킬 수 있는 AI를 만들고자 하는 사람들을 대담하게 만드는 것일 수도 있습니다. 마치 부적절하고 불미스러운 편견을 가진 AI를 만드는 것이 완벽하게 괜찮다고 말하는 것과 같습니다. 걱정도, 망설임도 없습니다. 독성 AI를 마음대로 고안해내어 전 세계 AI 빌더들에게 큰 소리로 전하고 있습니다. 그것은 (윙크-윙크) 모두 선함의 이름입니다.

게다가, 이 유독한 AI 종류가 유행한다고 가정해 봅시다. AI가 다른 많은 AI 빌더에 의해 사용되고 재사용될 수 있습니다. 결국 독성 AI는 모든 방식의 AI 시스템에 숨겨집니다. 아마도 밀폐된 실험실에서 탈출하여 인간을 훼손하는 바이러스를 고안하는 것에 비유할 수 있습니다. 다음으로 알고 있는 것은, 그 빌어먹을 것은 어디에나 있고 우리는 우리 자신을 지워버렸다는 것입니다.

잠시만요, 그 반론에 대한 반론은, 당신은 모든 종류의 말도 안되고 뒷받침되지 않는 가정으로 날뛰고 있다는 것입니다. 심호흡을 하세요. 진정하다.

독성이 있는 AI를 안전하게 만들고 가두어 둘 수 있습니다. 우리는 유독한 AI를 사용하여 불행히도 과도한 편견을 가지고 있는 AI의 증가하는 확산을 줄이고 줄이는 데 도움을 줄 수 있습니다. 이 터무니없이 거칠고 입증되지 않은 눈덩이 같은 외침은 순전히 반사적인 반응이며 유감스럽게도 어리석고 노골적으로 무모합니다. 목욕물과 함께 아기를 버리려고 하지 마십시오. 미리 경고합니다.

지지자들은 이렇게 주장합니다. 연구, 평가 및 사회적으로 공격적인 다른 AI를 발견하기 위한 탐정처럼 행동하기 위한 목적으로 독성 AI를 적절하게 구축하고 사용하는 것은 가치 있는 접근 방식이며 추구하는 데 공정한 흔들림을 얻어야 합니다. 발진 반응을 제쳐두십시오. 지구로 내려와서 냉정하게 보세요. 즉, 편향된 AI 시스템의 과잉을 노출 및 해제하고 사회로서 우리가 유독한 AI로 넘쳐나지 않도록 하는 것입니다.

기간. 마침표.

유익한 목적을 위해 유독하거나 편향된 AI를 활용하는 이러한 개념을 탐구하는 다양한 핵심 방법이 있습니다.

  • 하지 말아야 할 것 및/또는 관찰해야 할 것과 관련하여 AI를 교육하는 데 사용할 수 있는 편향되고 완전히 독성이 있는 데이터를 의도적으로 포함하는 설정 데이터 세트
  • 이러한 데이터 세트를 사용하여 편향을 감지하고 사회적 독성을 수반하는 계산 패턴을 파악하는 기계 학습(ML) 및 딥 러닝(DL) 모델을 교육합니다.
  • 독성 훈련된 ML/DL을 다른 AI에 적용하여 대상 AI가 잠재적으로 편향되고 독성이 있는지 확인합니다.
  • 독성 훈련된 ML/DL을 사용하여 AI 빌더에게 주의해야 할 사항을 보여줌으로써 모델을 쉽게 검사하여 알고리즘적으로 주입된 편향이 어떻게 발생하는지 확인할 수 있도록 합니다.
  • AI 윤리 및 윤리적 AI 인식의 일부로 독성 AI의 위험을 예시하십시오
  • 기타

이러한 여러 경로의 핵심에 들어가기 전에 몇 가지 추가 기본 사항을 설정하겠습니다.

오늘날 AI 분야와 AI 분야 밖에서도 가장 큰 목소리 중 하나가 더 큰 윤리적 AI에 대한 외침으로 구성되어 있다는 것을 막연하게 알고 계실 것입니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴 보겠습니다. 또한 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 탐구함으로써 무대를 설정할 수 있습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이것은 "오직 코더" 또는 AI를 프로그래밍하는 사람들이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이 모든 것에 대해 또 무엇을 할 수 있습니까?

다소 색다른 "하나를 알기 위해서는 하나가 필요하다"는 접근 방식을 사용하여 AI 편향 또는 독성 AI에 대처하는 방법에 대한 이전에 제시된 목록으로 돌아가 보겠습니다. 목록이 다음과 같은 필수 사항으로 구성되어 있음을 상기하십시오.

  • 하지 말아야 할 것 및/또는 관찰해야 할 것과 관련하여 AI를 교육하는 데 사용할 수 있는 편향되고 완전히 독성이 있는 데이터를 의도적으로 포함하는 설정 데이터 세트
  • 이러한 데이터 세트를 사용하여 편향을 감지하고 사회적 독성을 수반하는 계산 패턴을 파악하는 기계 학습(ML) 및 딥 러닝(DL) 모델을 교육합니다.
  • 독성 훈련된 ML/DL을 다른 AI에 적용하여 대상 AI가 잠재적으로 편향되고 독성이 있는지 확인합니다.
  • 독성 훈련된 ML/DL을 사용하여 AI 빌더에게 주의해야 할 사항을 보여줌으로써 모델을 쉽게 검사하여 알고리즘적으로 주입된 편향이 어떻게 발생하는지 확인할 수 있도록 합니다.
  • AI 윤리 및 윤리적 AI 인식의 일부로 독성 AI의 위험을 예증합니다.
  • 기타

그 첫 번째 중요한 점을 자세히 살펴보겠습니다.

독성 데이터의 데이터 세트 설정

불미스러운 사회적 편견이 포함된 데이터 세트를 구축하려는 시도의 통찰력 있는 예는 WILDS 큐레이팅 컬렉션의 CivilComments 데이터 세트입니다.

먼저 간단한 배경 지식입니다.

WILDS는 ML/DL 교육에 사용할 수 있는 오픈 소스 데이터 세트 모음입니다. WILDS의 주요 명시된 목적은 AI 개발자가 다음을 나타내는 데이터에 즉시 액세스할 수 있도록 하는 것입니다. 유통 이동 다양한 특정 도메인에서. 현재 사용 가능한 도메인 중 일부는 동물 종, 살아있는 조직의 종양, 밀 이삭 밀도 및 잠시 설명할 CivilComments와 같은 기타 도메인과 같은 영역을 포함합니다.

배포 변화를 처리하는 것은 AI ML/DL 시스템을 적절하게 제작하는 데 중요한 부분입니다. 여기 거래가 있습니다. 때로는 교육에 사용하는 데이터가 테스트 또는 "실제" 데이터와 상당히 다른 것으로 판명되어 아마도 교육된 ML/DL이 실제 세계와 다를 수 있습니다. 기민한 AI 빌더는 이러한 배포 변화에 대처하기 위해 ML/DL을 교육해야 합니다. 이것은 사전에 수행되어야 하며 나중에 ML/DL 자체를 개편해야 하는 것은 놀라운 일이 아닙니다.

WILDS를 소개한 논문에서 설명된 바와 같이: “훈련 분포가 테스트 분포와 다른 분포 이동은 야생에 배포된 기계 학습(ML) 시스템의 정확도를 크게 저하시킬 수 있습니다. 실제 배포에서의 편재성에도 불구하고 이러한 분포 변화는 오늘날 ML 커뮤니티에서 널리 사용되는 데이터 세트에서 과소 표현됩니다. 이 차이를 해결하기 위해 우리는 종양 식별을 위한 병원 간 이동과 같이 실제 응용 프로그램에서 자연스럽게 발생하는 다양한 범위의 분포 이동을 반영하는 10개 데이터 세트의 선별된 벤치마크인 WILDS를 제시합니다. 야생 동물 모니터링을 위한 카메라 트랩 건너편; 그리고 위성 영상과 빈곤 매핑의 시간과 위치에 걸쳐"(Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani의 "WILDS: A Benchmark of in-the-Wild Distribution Shifts"라는 제목의 논문에서 , Weihua Hu 등).

이러한 WILDS 데이터세트의 수는 계속해서 증가하고 있으며 데이터세트의 특성은 일반적으로 ML/DL 훈련에 데이터를 사용하는 가치를 강화하기 위해 향상되고 있습니다.

CivilComments 데이터 세트는 다음과 같이 설명됩니다. 불행하게도, 이전 작업에서는 이러한 독성 분류기가 훈련 데이터의 편향을 포착하고 독성을 특정 인구 통계에 대한 언급과 거짓으로 연관시키는 것으로 나타났습니다. 이러한 유형의 가짜 상관 관계는 특정 하위 모집단에서 모델 성능을 크게 저하시킬 수 있습니다. 우리는 CivilComments 데이터 세트의 수정된 변형을 통해 이 문제를 연구합니다”(WILDS 웹 사이트에 게시됨).

부적절한 온라인 게시물의 뉘앙스를 고려하십시오.

거의 모든 종류의 소셜 미디어를 사용할 때 의심할 여지 없이 유해한 댓글을 접하게 됩니다. 요즈음 만연한 것처럼 보이는 매캐하고 심연의 콘텐츠를 보는 것을 마술처럼 피하는 것은 거의 불가능해 보일 것입니다. 때로는 저속한 내용이 미묘하여 편향되거나 차별적인 어조나 의미의 요점을 파악하기 위해 줄 사이를 읽어야 할 수도 있습니다. 다른 경우에는 단어가 노골적으로 유독하며 구절이 수반하는 내용을 파악하기 위해 현미경이나 특수 디코더 링이 필요하지 않습니다.

CivilComments는 독성 콘텐츠를 계산적으로 감지할 수 있는 AI ML/DL을 시도하고 고안하기 위해 결합된 데이터 세트입니다. 연구원들이 집중한 내용은 다음과 같습니다. 이 백서에서는 분류기의 점수 분포가 지정된 그룹 간에 다를 수 있는 다양한 방식을 고려하여 이러한 의도하지 않은 편향에 대한 미묘한 관점을 제공하는 임계값에 구애받지 않는 메트릭 모음을 소개합니다. 또한 신원 참조를 위한 크라우드 소싱 주석이 포함된 온라인 댓글의 대규모 새 테스트 집합을 소개합니다. 우리는 이것을 사용하여 기존 공개 모델에서 새롭고 잠재적으로 미묘한 의도하지 않은 편향을 찾는 데 우리의 메트릭이 어떻게 사용될 수 있는지 보여줍니다.”(Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

이 문제에 대해 좀 더 폭넓은 명상적 사고를 하게 되면 어떤 것이 유독한 댓글인지 아닌지를 도대체 어떻게 분별할 수 있는지 궁금해지기 시작할 것입니다. 인간은 노골적인 독성 문구로 해석하는 것과 관련하여 근본적으로 다를 수 있습니다. 누군가는 소셜 미디어에 게시된 특정 온라인 발언이나 댓글에 분노할 수 있지만 다른 누군가는 전혀 동요하지 않을 수 있습니다. 독성 논평의 개념이 완전히 모호한 교훈이라는 주장이 자주 제기됩니다. 예술은 관례적으로 보는 사람의 눈에서만 이해된다고 말하는 예술과 마찬가지로 편향되거나 유독한 발언도 보는 사람의 눈에만 해당됩니다.

Balderdash, 일부 반박. 합리적인 생각을 가진 사람이라면 누구나 온라인 발언이 유독한지 여부를 알아낼 수 있습니다. 게시된 가성 모욕이 편견과 증오로 가득 차 있다는 것을 깨닫기 위해 로켓 과학자가 될 필요는 없습니다.

물론 사회적 관습은 시간이 지남에 따라 바뀌고 바뀝니다. 얼마 전까지만 해도 불쾌한 것으로 인식되지 않았을 수 있는 것이 오늘날에는 끔찍하게 잘못된 것으로 보일 수 있습니다. 게다가, 한때 과도하게 편향된 것으로 여겨졌던 몇 년 전에 말한 것들이 의미의 변화에 ​​비추어 재해석될 수 있습니다. 한편, 다른 사람들은 독성 논평이 언제 처음 공포되었는지에 관계없이 항상 독성이 있다고 주장합니다. 독성은 상대적인 것이 아니라 절대적인 것이라고 주장할 수 있습니다.

그럼에도 불구하고 독성이 무엇인지 확인하려는 문제는 상당히 어려운 수수께끼가 될 수 있습니다. 우리는 어느 것이 무엇인지 확인할 수 있는 알고리즘이나 AI를 고안하는 것과 관련하여 이 번거로운 문제를 두 배로 늘릴 수 있습니다. 인간이 그러한 평가를 하는 데 어려움을 겪는다면 컴퓨터 프로그래밍도 동등하거나 그 이상의 문제가 있을 수 있다고 일부 사람들은 말합니다.

독성 콘텐츠가 포함된 데이터 세트를 설정하는 한 가지 접근 방식은 콘텐츠를 평가하거나 평가하기 위해 크라우드 소싱 방법을 사용하는 것입니다. 따라서 무엇이 부적절하다고 판단하고 데이터 세트 자체에 레이블을 지정하는 인간 기반 수단을 제공합니다. 그런 다음 AI ML/DL은 인간 평가자가 표시한 데이터 및 관련 레이블을 검사할 수 있습니다. 이는 잠재적으로 근본적인 수학적 패턴을 계산적으로 찾는 수단으로 사용될 수 있습니다. Voila, ML/DL은 주어진 댓글이 유독할 가능성이 있는지 여부를 예측하거나 계산적으로 평가할 수 있습니다.

미묘한 지표에 대한 인용된 논문에서 언급한 바와 같이: “이 라벨링은 평가자에게 '매우 독성', '독성', '말하기 어려움', '독성 없음' 중에서 선택하여 댓글의 독성을 평가하도록 요청합니다. 평가자들은 또한 독성의 몇 가지 하위 유형에 대해 질문을 받았지만 이 작업에서는 이러한 레이블이 분석에 사용되지 않았습니다. 이러한 평가 기술을 사용하여 독성 및 정체성에 대한 레이블이 포함된 온라인 댓글 포럼에서 가져온 1.8만 개의 댓글 데이터 세트를 만들었습니다. 모든 댓글에는 독성 라벨이 지정되었고 450,000개 댓글의 하위 집합에는 정체성 라벨이 지정되었습니다. 군중 평가자가 신원 콘텐츠를 자주 볼 수 있도록 하기 위해 신원 레이블이 지정된 일부 댓글은 이전 신원 레이블 지정 반복에서 구축된 모델을 사용하여 미리 선택되었습니다”(Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman이 인용한 논문에서).

예시적인 독성 콘텐츠가 포함된 데이터 세트를 확보하려는 또 다른 예는 AI 기반 자연어 처리(NLP) 대화형 시스템을 교육하려는 노력과 관련이 있습니다. Alexa 및 Siri와 같은 NLP 시스템과 상호 작용했을 것입니다. Alexa가 어린이에게 부적절하고 위험한 조언을 제공했을 때 발생한 특히 불안한 사례를 포함하여 오늘날 NLP의 어려움과 한계 중 일부를 다루었습니다. 여기 링크.

최근 연구에서는 일반적으로 연령, 성별, 국적, 외모, 인종 또는 민족, 종교, 장애 상태, 성적 취향 및 사회 경제적 지위를 포함하여 보호되는 인구통계학적 특성의 EEOC(Equal Employment Opportunities Commission) 목록을 기반으로 하는 사회적 편견의 XNUMX가지 범주를 사용하려고 했습니다. 연구원에 따르면 "NLP 모델이 사회적 편향을 학습한다는 것은 잘 문서화되어 있지만 질문 답변(QA)과 같은 응용 작업에 대한 모델 출력에서 ​​이러한 편향이 어떻게 나타나는지에 대한 작업은 거의 수행되지 않았습니다. QA(BBQ)에 대한 바이어스 벤치마크를 소개합니다. 이 데이터 세트는 보호 계층에 속한 사람들에 대해 미국 영어 사용 컨텍스트와 관련된 XNUMX가지 사회적 차원에 따라 입증된 사회적 편견을 강조하는 저자가 구성한 질문 세트입니다. .보우먼).

편향되고 전적으로 독성이 있는 데이터를 의도적으로 포함하는 데이터 세트의 설정은 AI에서 증가하는 추세이며 특히 AI 윤리의 출현과 윤리적 AI를 생성하려는 욕구에 의해 촉진되었습니다. 이러한 데이터 세트는 기계 학습(ML) 및 딥 러닝(DL) 모델을 교육하여 편견을 감지하고 사회적 독성을 수반하는 계산 패턴을 파악하는 데 사용할 수 있습니다. 결과적으로 독성 훈련된 ML/DL은 다른 AI를 신중하게 겨냥하여 대상 AI가 잠재적으로 편향되고 독성이 있는지 여부를 확인할 수 있습니다.

또한 사용 가능한 독성 훈련 ML/DL 시스템을 사용하여 AI 빌더에게 주의해야 할 사항을 보여주어 모델을 쉽게 검사하여 알고리즘적으로 주입된 편향이 어떻게 발생하는지 확인할 수 있습니다. 전반적으로 이러한 노력은 AI 윤리 및 윤리적 AI 인식의 일부로 독성 AI의 위험을 예시할 수 있습니다.

이 중요한 토론의 시점에서 이 주제를 보여줄 수 있는 몇 가지 추가 예시를 원할 것입니다. 내 마음에 와 닿는 특별하고 확실히 인기 있는 사례가 있습니다. 윤리적 및 법적 파급 효과를 포함하여 AI 전문가로서 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 특성을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이러한 윤리적 AI 곤경을 생생하게 보여주는 가장 인상적인 영역 중 하나는 AI 기반의 진정한 자율주행차의 출현입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 출현은 독성 AI를 고안하기 위한 데이터 세트의 유용성에 대해 무엇을 밝혀 줍니까? 그렇다면 이 쇼케이스는 무엇입니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

독성 AI를 제거한 자율 주행 자동차 및 조향 장치

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

자율주행차와 자율주행차의 출현에 맞서게 될 수많은 잠재력과 언젠가 실현될 가능성이 있는 AI 주입 편향이 있습니다. 여기 링크여기 링크. 우리는 아직 자율주행차 출시 초기 단계에 있습니다. 채택이 충분한 규모와 가시성에 도달할 때까지 궁극적으로 발생할 것으로 예측한 독성 AI 측면의 대부분은 아직 쉽게 드러나지 않으며 대중의 광범위한 관심을 받지 못했습니다.

처음에는 전혀 무해해 보일 수 있는 간단해 보이는 운전 관련 문제를 생각해 보십시오. 구체적으로, 길을 건너기 위한 우선권이 없는 "방황하는" 보행자를 기다리기 위해 정지할지 여부를 적절하게 결정하는 방법을 살펴보겠습니다.

당신은 의심할 여지 없이 운전을 하다가 길을 건너기 위해 기다리고 있는 보행자와 마주쳤지만 통행우선권이 없었습니다. 이것은 당신이 멈추고 그들을 건너게 할 것인지에 대한 재량권이 있음을 의미했습니다. 당신은 그들을 건너지 않고 계속 진행할 수 있으며 여전히 그렇게 하는 법적 운전 규칙을 완전히 준수합니다.

인간 운전자가 그러한 보행자를 위해 정지 또는 정지하지 않기로 결정하는 방법에 대한 연구에 따르면 때때로 인간 운전자는 부당한 편견에 기초하여 선택을 하는 것으로 나타났습니다. 인간 운전자는 보행자를 주시하고 보행자가 인종이나 성별에 따라 다르게 생겼다면 정지했을지라도 멈추지 않기로 선택할 수 있습니다. 나는 이것을 조사했다 여기 링크.

AI 운전 시스템은 같은 종류의 중지 또는 이동 결정을 내리도록 어떻게 프로그래밍됩니까?

모든 AI 운전 시스템은 대기 중인 보행자를 위해 항상 정지하도록 프로그래밍되어야 한다고 선언할 수 있습니다. 이것은 문제를 크게 단순화합니다. 결단코 내리는 결정은 정말 없습니다. 보행자가 길을 건너기 위해 기다리고 있으면 우선권 유무와 상관없이 AI 자율주행차가 정지해 보행자가 건널 수 있도록 한다.

쉬워요.

인생은 결코 쉬운 일이 아닌 것 같습니다. 모든 자율주행차가 이 규칙을 따른다고 상상해보세요. 보행자는 AI 운전 시스템이 푸시오버라는 것을 필연적으로 깨닫게 될 것입니다. 길을 건너고자 하는 모든 보행자는 원할 때와 장소에 상관없이 그렇게 할 것입니다.

자율주행차가 시속 45마일의 제한 속도로 빠른 도로를 따라오고 있다고 가정해 봅시다. 보행자는 AI가 자율주행차를 정지시킬 것임을 "알고" 있습니다. 그래서 보행자는 거리로 돌진합니다. 불행히도 물리학이 AI를 이깁니다. AI 운전 시스템은 자율주행차를 정지시키려 하지만 자율주행차의 추진력은 수톤짜리 장치를 앞으로 옮긴 후 제멋대로인 보행자를 들이받을 것입니다. 결과는 부상을 입거나 사망을 초래합니다.

보행자는 일반적으로 사람이 운전할 때 이러한 유형의 행동을 시도하지 않습니다. 물론 일부 지역에서는 눈싸움이 벌어지기도 합니다. 보행자가 운전자를 주시합니다. 운전자는 보행자를 주시합니다. 상황에 따라 운전자는 정지하거나 도로에 대한 소유권 주장을 주장하고 표면적으로는 보행자가 경로를 방해하도록 감히 감히 할 수 있습니다.

우리는 아마도 AI가 유사한 안구 전쟁에 참여하는 것을 원하지 않을 것입니다. 이는 자율 주행 자동차의 운전대에 사람이나 로봇이 없기 때문에 어쨌든 약간 도전적입니다(로봇의 미래 가능성에 대해 논의했습니다. 그 드라이브, 참조 여기 링크). 그러나 우리는 또한 보행자가 항상 총을 쏘도록 허용할 수 없습니다. 결과는 관련된 모든 사람에게 재앙이 될 수 있습니다.

그런 다음 이 동전의 반대편으로 돌아가 AI 구동 시스템이 그러한 상황에서 절대 멈추지 않아야 한다고 선언하고 싶은 유혹을 느낄 수 있습니다. 즉, 보행자가 길을 건널 적절한 권리가 없는 경우 AI는 항상 자율주행차가 줄어들지 않고 진행해야 한다고 가정해야 합니다. 그 보행자들에게 불행한 행운을 빕니다.

이러한 엄격하고 단순한 규칙은 일반 대중에게 잘 받아들여지지 않을 것입니다. 사람은 사람이며 다양한 상황에서 길을 건널 수 있는 권리가 법적으로 부족함에도 불구하고 길을 건너는 것이 완전히 차단되는 것을 좋아하지 않을 것입니다. 대중의 상당한 소란을 쉽게 예상할 수 있고 자율 주행 자동차의 지속적인 채택에 대해 반발이 일어나는 것을 볼 수 있습니다.

우리가 해도 저주를 받고, 우리가 하지 않으면 저주를 받습니다.

이것이 이 운전 문제를 처리하는 방법에 대한 의사 결정과 유사하게 AI를 프로그래밍해야 한다는 합리적인 대안으로 이어졌기를 바랍니다. 절대 멈추지 않는다는 엄격한 규칙은 지지할 수 없으며 마찬가지로 항상 멈추라는 엄격하고 빠른 규칙도 지지할 수 없습니다. AI는 문제를 처리하기 위해 일부 알고리즘 의사 결정 또는 ADM으로 고안되어야 합니다.

ML/DL 접근 방식과 결합된 데이터 세트를 사용해 볼 수 있습니다.

다음은 AI 개발자가 이 작업을 프로그래밍하기로 결정할 수 있는 방법입니다. 자율주행차가 운행될 특정 도시 곳곳에 설치된 비디오 카메라에서 데이터를 수집한다. 인간 운전자가 우선권이 없는 보행자를 위해 정지하기로 선택한 경우 데이터가 표시됩니다. 모두 데이터 세트로 수집됩니다. 머신 러닝과 딥 러닝을 사용하여 데이터를 계산적으로 모델링합니다. 그런 다음 AI 구동 시스템은 이 모델을 사용하여 언제 정지할지 또는 정지하지 않을지 결정합니다.

일반적으로 아이디어는 지역 관습이 무엇이든 AI가 자율 주행 자동차를 지시하는 방식입니다. 문제 해결됨!

그런데 과연 해결이 될까요?

인간 운전자가 보행자를 위해 멈출 때를 선택하는 데 편향될 수 있음을 보여주는 연구 조사가 있음을 이미 지적한 것을 기억하십시오. 특정 도시에 대해 수집된 데이터에는 아마도 이러한 편견이 포함될 것입니다. 해당 데이터를 기반으로 하는 AI ML/DL은 동일한 편향을 모델링하고 반영할 가능성이 높습니다. AI 구동 시스템은 기존의 동일한 편향을 수행할 뿐입니다.

이 문제를 해결하기 위해 실제로 그러한 편향이 있는 데이터 세트를 구성할 수 있습니다. 우리는 그러한 데이터 세트를 찾은 다음 편견에 레이블을 지정하거나 문제를 설명하는 데 도움이 되는 데이터 세트를 종합적으로 생성합니다.

다음을 포함하여 이전에 식별된 모든 단계가 수행됩니다.

  • 이 특정 편향을 의도적으로 포함하는 데이터 세트 설정
  • 데이터 세트를 사용하여 이 특정 편향을 감지하는 방법에 대해 머신 러닝(ML) 및 딥 러닝(DL) 모델을 교육합니다.
  • 편향 훈련된 ML/DL을 다른 AI에 적용하여 대상 AI가 잠재적으로 유사한 방식으로 편향되어 있는지 확인합니다.
  • 편향 훈련된 ML/DL을 사용하여 AI 빌더에게 주의해야 할 사항을 보여줌으로써 그들이 모델을 쉽게 검사하여 알고리즘적으로 주입된 편향이 어떻게 발생하는지 확인할 수 있도록 합니다.
  • 이 추가된 특정 예를 통해 AI 윤리 및 윤리적 AI 인식의 일부로 편향된 AI의 위험을 예시합니다.
  • 기타

결론

오프닝 라인을 다시 살펴보겠습니다.

하나를 알기 위해서는 하나가 필요합니다.

어떤 사람들은 이 믿을 수 없을 정도로 널리 퍼진 속담이 독성 AI를 찾아낼 때 다른 독성 AI를 발견하고 처리하기 위해 독성 AI를 구축하고 사용하는 것에 정당한 신뢰를 주어야 한다는 것을 의미한다고 해석합니다. 결론: 때로는 다른 도둑을 잡으려면 도둑이 필요합니다.

우려의 목소리는 우리가 도둑을 만들기 시작하는 길을 가고 있을지도 모른다는 것입니다. 독성이 있는 AI를 고안하고 싶습니까? 미친 생각 같지 않아? 어떤 사람들은 영웅적이거나 용감한 사람을 위해 고의로 만들어진 AI를 포함하여 모든 독성 AI를 금지해야 한다고 격렬하게 주장합니다. 좋은 AI 목적.

발생할 수 있는 영리하거나 교활한 모습으로 독성 AI를 억제하십시오.

지금은 이 주제에 대한 마지막 반전입니다. 우리는 일반적으로 이 유명한 대사가 나쁜 행동을 하는 사람이나 사물과 관련이 있다고 가정합니다. 그것이 우리가 도둑을 잡으려면 도둑이 필요하다는 개념에 도달하는 방법입니다. 아마도 우리는 이 말을 뒤집어서 슬픈 얼굴보다 행복한 얼굴로 만들어야 할 것입니다.

방법은 다음과 같습니다.

편파적이지 않고 독성이 없는 AI를 원한다면 하나를 알기 위해 하나가 필요하다고 생각할 수 있습니다. 더 큰 위대함과 선함을 인식하고 낳으려면 아마도 가장 위대하고 최고가 필요할 것입니다. 이 현명한 지혜의 변형에서 우리는 행복한 얼굴에 시선을 고정하고 고안에 집중하는 것을 목표로 합니다. AI를 위한 AI.

내가 의미하는 바를 안다면 하나를 알기 위해서는 하나가 필요하다는 점에서 더 낙관적이고 만족스럽게 쾌활한 관점이 될 것입니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be-beneficial-inclusive-for-those-autonomous-self-driving-cars/