인공 지능 윤리 및 법적 인공 지능은 자율 주행 자동차를 포함하여 윤리적 인 AI를 준수한다는 거짓 주장인 AI 윤리 세척으로 알려진 기만적인 가식으로 당황합니다.

다양한 지혜의 진주를 전달하기 위해 "세척"과 "세척"이라는 단어가 확장되고 활용될 수 있는 수많은 방법을 살펴보겠습니다.

예를 들어 사람들은 더러운 세탁물을 공공장소에서 세탁해서는 안 된다고 미리 경고하는 경우가 있습니다. 나는 어렸을 때 어른들이 부적절하게 말한 발언으로 인해 비누로 입을 씻어낼 수 있다고 종종 경고했던 것을 기억합니다. 자주 인용되는 또 다른 표현은 모든 것이 궁극적으로 씻겨 나가는 것 같다는 것입니다.

연관되고 싶지 않은 것에 대해 걱정이 된다면, 손을 씻어도 되는지 알아보는 것이 좋습니다. 즉석 세탁 또는 세탁을 포함하여 모든 종류의 세탁 관련 고려 사항이 일반적으로 뒤섞여 있습니다. 얼굴에 묻은 계란을 씻어내는 것은 아직도 가끔 대화에 등장하는 오래된 격언입니다.

세탁의 변형을 표현하기 위해 색상을 사용하는 것도 비교적 잘 알려져 있습니다. 화이트워싱의 개념은 적어도 1500년대까지 거슬러 올라간다고 합니다. 레드워싱, 퍼플워싱 등에 대한 우려의 목소리도 나오고 있다. 나는 Greenwashing이 요즘 가장 자주 사용되는 캐치프레이즈 중 하나라고 감히 말하고 싶습니다. 표면적으로는 지속 가능성을 홍보할 때 공허한 행위를 언급하면서도 주장된 대화를 실제적인 백본으로 뒷받침하지 않는 것입니다.

최신 버전의 세탁 중 하나인 AI 윤리 세탁에 대해 모르실 수도 있습니다.

어떤 사람들은 문구를 윤리적 세탁으로 단축하는 것을 선호하지만, 이 대체 문구가 거의 모든 종류의 윤리 중심 세탁을 나타낼 수 있기 때문에 혼란을 야기할 수 있습니다. 여기서 논의할 윤리 세척의 특정 형태는 AI 중심 윤리 및 관련된 모든 윤리적 고려 사항으로 구성됩니다. 명확성을 위해 윤리 세척은 AI 자체와 거의 또는 전혀 관련이 없을 수 있는 다양한 윤리 세척을 다룬다고 제안하고 싶습니다. 그리고 AI 윤리 워싱은 특히 AI 영역을 목표로 하는 특별한 종류의 윤리 워싱입니다.

AI 윤리 세척이 정확히 무엇으로 구성되어 있는지 궁금하실 것입니다.

나의 전반적인 정의는 AI 윤리 세척을 다음과 같이 정의할 수 있다는 것입니다.

  • AI 윤리 세척에는 때로는 윤리적 AI 접근 방식을 특별히 준수하지 못할 뿐만 아니라 심지어 AI 윤리 접근 방식을 전복하거나 약화시키는 경우까지 포함하여 AI 윤리 계율에 대해 주장하는 배려적인 우려에 대해 립서비스나 겉치레를 하는 것이 수반됩니다.

AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

AI 윤리 세척의 간단한 예가 도움이 될 수 있습니다.

AI 시스템을 제작하는 회사가 AI가 얼마나 뛰어난지 세상에 알리고 싶어한다고 가정해 보겠습니다. 회사는 AI에 대해 많은 긍정적인 언론과 소셜 미디어의 관심을 끌 수 있는 방법 중 하나가 AI가 작동하는 방식에 있어 전적으로 공정하고 균형을 이루도록 고안되었음을 알리는 것이라고 결정했습니다. AI는 전적으로 신뢰할 수 있습니다. 회사는 소위 창조의 원칙을 엄격히 고수했습니다. 책임감있는 AI, 내 보장 범위를 확인하세요. 여기 링크. 주장은 모든 지배적인 AI 윤리 원칙이 AI 시스템에 통합적으로 얽혀 있다는 것입니다.

큰 소리!

작은 문제가 하나 있습니다.

그 회사는 그런 일을 전혀 하지 않은 것으로 밝혀졌습니다.

그들은 AI 윤리 규정을 준수하지 않았습니다. 그들은 그렇게 했다고 말했지만 그렇게 하지 않았습니다. 회사의 리더와 마케팅 팀은 윤리적 AI 고려 사항을 엄격히 준수했다고 주장하는 것이 아마도 비즈니스에 좋을 것이라고 결정했습니다. 성가신 AI 윤리 지침을 다루기 위해 실제로 노력할 필요는 없으며, 대신에 그렇게 했다고만 말하면 됩니다.

짜잔, 그들은 AI 윤리의 악대차에 뛰어들어 즉시 AI를 홍보할 수 있습니다.

쉬워요.

그러나 이는 위험한 길이며 실제로 잠재적으로 큰 문제를 일으킬 수 있는 길입니다.

윤리적 AI를 준수하기 위해 거의 노력하지 않았음에도 불구하고 AI 윤리를 잘못 언급하기로 결정한 기업과 리더는 잠재적으로 많은 결과를 초래할 수 있습니다. 첫째, 언젠가 AI 윤리에 대한 허위 사실이 노출된다면 평판에 심각한 반발을 초래할 위험이 있습니다. 그들은 AI 윤리를 염두에 두고 있다고 거짓말을 했습니다. 게다가 거짓말에 휘말리면 AI 윤리와 상관없이 뜨거운 물에 빠진다. 그것은 거짓말의 두 가지입니다.

둘째, 수많은 법적 파급효과가 그들과 그들의 회사를 물릴 수 있습니다. 하나는 그들이 말한 대로 하지 않았으며 허위 주장에 대해 잠재적으로 법적 책임을 질 수 있다는 것입니다. 또 다른 점은 그들의 AI가 과도한 편견을 보이고 차별적인 방식으로 행동하는 등 사회적으로 민감한 영역과 관련된 법률을 위반하게 될 가능성이 있다는 것입니다. 법적 문제의 목록은 길고 결국 회사를 값비싼 법적 싸움에 몰아넣고 배 전체를 침몰시킬 수도 있습니다.

도대체 왜 회사와 그 리더는 AI 윤리 세척을 사용하기로 선택합니까?

글쎄요, 윤리적인 AI 관행을 통합하는 데 다소 비용이 많이 들 수 있지만, 결국 AI 윤리 접근 방식을 준수하는 데 있어 진정한 AI를 보유하는 것의 이점으로 인해 비용이 쉽게 초과될 것이라는 반론이 있습니다. 그럼에도 불구하고 일부 회사는 AI를 최대한 빨리 출시하기를 원하며 나중에 개발 과정에서 윤리적 AI를 고려하지 않아 발생할 수 있는 결과에 대해 걱정할 것이라고 생각합니다.

지금 지불하거나 나중에 지불하는 기존 노선이 적용되는 것 같습니다. 일부 리더와 기업은 주사위를 굴릴 가치가 있다고 생각하며 지금 지불 방식을 피하기로 결정하면 나중에 지불할 필요가 없기를 바라고 있습니다. 저는 AI 윤리에 있어서 공짜 점심은 없다고 주장하고 싶습니다. 당신은 당신의 역할을 수행하거나 그 결과를 감수합니다.

그렇다고 이 모든 것에서 흔들릴 여지가 많지 않다는 것은 아닙니다.

기업은 AI 윤리에 발을 담근 다음 자신이 얼마나 많은 일을 했는지 과장하려고 노력할 수 있습니다. 그들의 잠재적인 가정은 AI 윤리를 전혀 포함하지 않았다는 비난에 대응할 수 있는 충분한 방어력을 가질 것이라는 것입니다. 그들은 그들을 곤경에서 벗어날 수 있는 어떤 형태의 냉담한 AI 윤리 활동을 지적할 수 있습니다. 따라서 논쟁은 AI 윤리에 대한 노력을 전혀 하지 않은 것에서 대신에 그들이 충분히 했는지 여부로 옮겨갑니다.

이것은 거의 끝없이 진행될 수 있는 주장이며 AI 윤리 세척 공급업체가 조작할 수 있는 많은 여지를 허용합니다.

느슨하고 끈적한 측면 중 하나는 AI 윤리에 관해 보편적이고 명확하게 구현 가능한 표준이 아직 합의되지 않았다는 것입니다. 일관되고 포괄적인 측정 기준이 없으면 AI 윤리가 적절하게 준수되고 있는지에 대한 논의가 약하고 혼란스러울 것입니다. 회사는 그들이 충분히 했다고 주장할 것이다. 회사가 충분히 하지 못했다고 주장하는 외부인이나 다른 사람들은 그러한 반론을 보여주는 힘든 싸움을 벌일 것입니다. 모호함이 지배할 수 있습니다.

AI 윤리 세척의 근간을 이루는 거칠고 엉뚱한 고려 사항에 대해 더 자세히 알아보기 전에 심오하게 필수적인 주제에 대한 몇 가지 추가 기본 사항을 설정해 보겠습니다. AI 윤리, 특히 머신러닝(ML)과 딥러닝(DL)의 출현에 대해 간략하게 살펴보겠습니다.

요즘 AI 분야와 심지어 AI 분야 밖에서도 가장 크게 들리는 목소리 중 하나가 윤리적 AI의 더 큰 모습을 외치는 것으로 구성되어 있다는 것을 막연하게 인지하고 있을지도 모릅니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴보겠습니다. 그 위에 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 살펴보겠습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이제 AI 윤리 세척 주제로 돌아가 보겠습니다.

일반적으로 발생하는 AI 윤리 세척에는 네 가지 주요 변형이 있습니다(이에 대해서는 잠시 후에 설명하겠습니다).

1) 자신이 누구인지 모르는 AI 윤리 세탁기: AI 및/또는 AI 윤리에 대한 무지 또는 문맹으로 인한 AI 윤리 세척

2) 그것에 빠지는 AI 윤리 세탁기: AI 윤리 및 AI에 대한 진실성에도 불구하고 의도하지 않은 미끄러짐으로 인한 AI 윤리 세척

3) 얇게 늘어나는 AI 윤리 세탁기: 비록 아주 작은 일이지만 때로는 거의 변명할 수 있는(또는 그렇지 않은) AI 윤리가 의도적인 의도로 세척됩니다.

4) 그것을 알고 뻔뻔하게 행상하는 AI 윤리 세탁기: AI 윤리는 교활하고 종종 터무니없는 디자인으로 전면적으로 세척됩니다.

나는 일반적으로 AI 윤리 세척이 무엇인지에 대한 인식과 관련하여 가장 무고한 사람부터 가장 유죄인 사람까지 네 가지 변형이 있다고 제안합니다. 첫 번째 항목부터 시작하여 다소 부끄러운 네 번째 항목까지 XNUMX개 항목을 하나씩 살펴보겠습니다.

첫째, AI 윤리가 무엇인지, AI 윤리 세척이 무엇인지 모르고 AI에 대해서도 잘 알지 못한다는 점에서 다소 덜 세척된 사람들이 있습니다. 당신은 그들이 그 주제에 대해 무지하거나 문맹이라고 말할 수 있습니다. 그들에게는 아마도 AI 윤리를 세척하고 맹목적으로 그리고 행복하게 자신이 그렇게 하고 있다는 사실을 깨닫지 못하고 있을 것입니다.

이거 슬프네.

주요 통신사 또는 유명 소셜 미디어 영향력자가 AI 윤리를 세척하는 경우 특히 나쁠 수 있습니다. 그들은 거짓말의 침대를 먹었을 수도 있고 그러한 거짓을 조사하지 않았습니다. 한편 그들은 AI 윤리 세척 주장을 영속시키기 위해 자신의 영향력과 영향력을 사용합니다. 슬프고 더 나쁜 것은 그것이 사회에 해를 끼친다는 것입니다. 자신을 속이는 사람들은 부끄러운 일입니다. 그들은 현명해져야 합니다. 속는 것과 어리석게 보이는 것은 가까운 사촌 관계라는 것을 기억하십시오.

다음 순서는 실수인 AI 윤리 세척이다. 한 회사가 AI 윤리 지침을 준수하는 데 꽤 좋은 성과를 거두고 있다고 상상해 보십시오. 우리는 그들이 이렇게 한 것을 축하할 수 있습니다. 불행하게도 어떤 시점에서 AI 윤리 관점에서 잘 뒷받침되지 않는 AI에 대한 발표를 한다고 가정해 보겠습니다. 이것이 상대적으로 무해한 진술이거나 의도하지 않은 오류인 경우, 우리는 그들에게 어느 정도 자유를 부여할 수 있습니다. 물론, 그들이 제시한 요점이 심각하게 선을 넘어선 경우 미끄러짐을 쉽게 간과할 수는 없습니다. 명성을 쌓는 데는 오랜 시간이 걸리지만 그것을 완전히 무너뜨리는 데는 짧은 순간밖에 걸리지 않는다는 유명한 말이 있습니다.

다음으로 네 가지 범주 중 마지막 두 가지로 들어갑니다.

이들은 AI 윤리 세척을 완전히 인식하고 의식적으로 명백한 의도로 이를 기업 전략의 일부로 또는 기타 신성한 수단으로 활용하기로 결정한 범인입니다. 후자 두 가지의 주요 차이점은 AI 윤리 세척이 사소한 성격일 수도 있고 중요하고 중요한 성격일 수도 있다는 것입니다. 물건을 늘리고 선을 약간 넘어가는 것을 선택하는 경우도 있습니다. AI 윤리를 극단적으로 받아들이려는 의지가 있는 사람들도 있습니다.

당신은 극단적인 AI 윤리 세척 중 하나가 분명해야 하며 극단주의자가 쿠키 항아리에 손을 넣을 것이라고 생각할 수도 있습니다. 모든 사람들은 황제가 옷을 입지 않았다는 것을 알게 될 것입니다. 애석하게도 오늘날 전 세계의 AI와 AI 윤리에 대한 전반적인 혼란을 고려할 때 극단적인 AI 윤리 세척조차도 무임승차할 수 있을 만큼 충분히 모호합니다.

이는 AI 윤리에 대해 진지하고 냉철한 입장을 취하는 사람들에게는 매우 성가신 일이 될 수 있습니다. 그들은 다른 사람이 AI 윤리 세척에서 매우 명백한 모든 종류의 슬로프를 던지는 것을 지켜봅니다. 극단주의자는 언론의 엄청난 주목을 받습니다. 그들은 15분 동안 명성을 얻었다는 속담을 가지고 있습니다. AI 윤리와 관련하여 실제 작업과 올바른 일을 수행하는 사람들은 AI 윤리 세척이 시장의 다른 사람들에 의해 아무런 비난 없이 수행될 때 당연히 분노하고 정당하게 당황할 수 있습니다.

이는 스포츠에서 발생하는 주스 및 도핑에 거의 비유될 수 있습니다. 자연스럽게 최고 수준의 운동선수가 되기 위해 온 마음과 영혼을 쏟은 운동선수가 금지된 경기력 향상 약물을 사용하여 다른 사람이 자신과 같은 수준에서 경쟁할 수 있다면 완전히 몰락할 수 있습니다. 다른 스포일러를 불러야 할까요? 당신은 조용히 그 약을 복용하여 불과 불로 맞서 싸워야 할까요? 이것은 수수께끼입니다. AI 분야에서 착즙이나 도핑이 어떻게 발생하는지에 대한 논의는 다음을 참조하세요. 여기 링크.

이제 AI 윤리 세척에 대해 조금 다루었으므로 동일한 영역에 있는 다른 관련 캐치프레이즈를 소개할 수 있습니다.

다음은 간략하게 살펴볼 수 있는 몇 가지 사항입니다.

  • AI윤리극장
  • AI 윤리 쇼핑
  • AI 윤리 강타
  • AI 윤리 차폐
  • AI 윤리 페어워싱

각 캐치프레이즈를 간략하게 살펴보겠습니다. 모든 사람이 각 문구가 정확히 의미하는 바에 동의하는 것은 아니므로 일반적인 인상을 공유하겠습니다.

AI윤리극장

AI 윤리 연극은 단계적이고 의식적인 방식으로 AI 윤리 규정을 준수했다는 점을 대규모로 보여주는 아이디어라는 점에서 AI 윤리 워싱과 다소 유사할 수 있습니다. 서커스나 AI윤리연극을 진행하는 기업이 실제로 AI윤리 관행을 준수하고 있었다면 당연히 그렇게 할 수 있어야 한다는 주장을 할 수 있다. 실제로, 이것이 다른 사람들도 AI 윤리를 준수하도록 영감을 줄 것이라고 더 주장할 수 있습니다.

반면에 AI 윤리 연극은 일반적으로 너무 지나친 경향이 있는 것 같습니다. 조랑말과 코끼리가 모두 등장하는 서커스 공연은 실제로 수행된 일을 과장하는 경향이 있습니다. 이는 앞서 언급한 AI 윤리 세척의 두 번째, 세 번째 또는 네 번째 범주에 들어가기 시작합니다. 극장이 나쁜 것보다 좋은지(예: 영감을 주는 것), 좋은 것보다 더 나쁜지(아마도 다른 사람들이 AI 윤리를 세척하도록 촉진하는 것)는 아직 알 수 없습니다.

AI 윤리 쇼핑

회사가 AI 시스템을 구축할 계획을 구상하고 AI 개발 수명 주기 동안 AI 윤리 측면을 포함해야 한다는 점을 인식합니다. 많은 AI 윤리 지침 중 어떤 것을 활용해야 합니까?

한 번에 여러 개를 선택하는 것은 혼란스러울 수 있으며 AI 노력이 지나치게 커질 수 있습니다. 모두가 쉽게 참조하고 이해할 수 있는 내부적으로 채택된 단일 세트가 있는 경우 개발 노력이 AI 윤리 관행을 준수할 가능성이 더 높습니다.

좋아요, 따라서 AI 윤리 원칙 세트에 착수한다는 것은 사용 가능한 많은 원칙 중 하나만 선택하는 것입니다. 또 다른 방법은 여러 세트를 가져와 함께 병합하는 것입니다. 병합의 문제는 세트를 하나의 포괄적인 전체로 가장 잘 병합하는 방법에 대해 토론하는 데 귀중한 에너지와 시간을 많이 소비한다는 것입니다. 그러한 종류의 관심은 아마도 개발 프로세스를 진행하는 데 방해가 될 수 있으며, AI 윤리 병합 활동 중에 발생할 수 있는 격렬한 논쟁 때문에 AI 팀을 화나게 할 수도 있습니다.

전반적으로, 채택하기 가장 쉬울 것이라고 생각하는 AI 윤리 지침 세트에 주의를 집중시키려고 노력할 수도 있습니다. 이것은 완벽하게 괜찮아 보일 것입니다. 왜 지금보다 삶을 더 힘들게 만드는 걸까요? 같은 호흡으로, 희석된 AI 윤리 세트를 선택한다고 가정해 보겠습니다. 당신은 당신이 할 수 있는 최소한의 일을 하는 것을 목표로 삼고 있습니다. 당신은 AI 윤리 계율을 준수했다는 점에서 고개를 높이 들고 동시에 비밀리에 미니멀리스트 또는 그보다 덜한 것을 선택하고 싶습니다.

어떤 사람들은 이것을 AI 윤리 쇼핑이라고 부릅니다.

당신은 AI 윤리를 준수한다고 주장하는 가장 쉬운 길을 제공할 AI 윤리 원칙을 찾기 위해 쇼핑하고 있습니다. 필요한 것보다 더 많은 작업을 수행해야 하는 이유는 무엇입니까? 하지만 현실이 희박하고 주변적일 때 얇게 가려진 AI 윤리 세트를 찾아 견고하고 진실된 것처럼 집착하면 뒤틀릴 수 있습니다.

AI 윤리 강타

AI 윤리 강타의 개념은 다소 간단합니다.

귀하는 AI 윤리 계율의 성격과 사용을 비난하거나 폄하합니다. 비난의 일반적인 형태는 AI 윤리 지침이 가치가 없으며 인쇄된 종이만큼 가치가 없다고 주장하는 것입니다. 또 다른 인기 있는 비난은 AI 윤리가 현실 세계와 아무 관련이 없는 학술 활동이라는 것입니다. AI 윤리가 나쁘다는 권고도 있습니다. 아마도 AI를 제대로 개발하고 있는 것처럼 보이려는 사람들에게 잘못된 덮개를 제공하기 때문일 것입니다. 그런 식으로 AI 윤리는 은폐 계획입니다.

나는 AI 윤리 강타 현상에 대해 자세히 설명하지 않을 것이며 그러한 강타가 왜 잘못되었거나 적어도 잘못된 것인지에 대한 내 보도를 보도록 제안합니다. 여기 링크.

AI 윤리 보호

AI 윤리 차폐는 일반적으로 AI 윤리가 나쁜 행위자와 나쁜 AI 윤리 노력을 숨기거나 가릴 수 있는 기만적인 종류의 방패라는 아이디어를 나타냅니다. 나는 이 논의 전반에 걸쳐 이것을 반복적으로 언급했습니다.

일부 사람들은 AI 윤리를 사용하고 있다는 사실을 자랑스럽게 표시할 지속적인 불만이 있으며 근본적인 현실은 그들이 그런 종류의 일을 거의 하지 않는다는 것입니다. 방패를 아예 없애야 한다고 하는 사람들에게 나는 목욕물과 함께 아기를 버리는 것과 같다고 반박하는 편이다.

AI 윤리 페어워싱

공정성이 중요합니다.

제가 AI 윤리 원칙을 논의할 때 가장 자주 확인되는 AI 윤리 지침 중 하나는 AI가 공정하거나 공정한 모습을 보이도록 노력하는 것으로 구성되어 있다는 것을 기억하실 것입니다. 이로 인해 AI 시스템이 공정하지 않거나 공정하다는 것을 뒷받침할 증거가 거의 없는 경우에도 공정하다고 말하거나 주장할 가능성을 불러일으키기 위해 때때로 사용되는 "공정 워싱(fairwashing)"이라는 캐치프레이즈가 탄생했습니다. 이것은 AI가 공정하다는 개념적 고려와 함께 AI 윤리를 약간 섞은 것입니다. 따라서 이를 표현하는 지름길은 잠재적으로 다음과 같은 것이 있다고 말하는 것입니다. 공정한 세탁 그런 일이 일어날 수 있습니다. 연구자들은 이 문제를 다음과 같이 설명합니다. “특히 머신러닝에서 공정성 개념의 중요성이 커짐에 따라 회사는 공정한 세척을 수행하려는 유혹을 받을 수 있습니다. 이는 회사에서 사용하는 학습 모델이 잘못된 인식을 조장하는 것으로 정의됩니다. 공정하지 않을 수도 있지만 공정하지 않을 수도 있습니다.”(Ulrich Aiıvodji, Hiromi Arai, Olivier Fortineau, Sebastien Gambs, Satoshi Hara 및 Alain Tapp의 “Fairwashing: The Risk of Rationalization”).

AI 윤리 세척에 대해 고려해야 할 또 다른 반전이 있습니다.

다소 거시적인 규모에서 AI 윤리의 부상이 더 큰 무언가의 방패나 덮개가 될 것이라는 우려가 표명되었습니다. AI 거버넌스에 관한 법률을 제정하기 위한 수많은 노력이 진행되고 있다는 것을 알고 계실 것입니다. 이런 일이 전 세계적으로 일어나고 있습니다. 제가 칼럼에서 다루었던 유럽연합(EU)과 미국에서도 격렬한 노력이 진행 중이며 여러 나라에서 일어나고 있습니다.

일부에서는 AI 윤리를 수용하는 것이 해당 법률 제정을 막는 수단이 될 수 있다고 제안합니다. 기업은 AI 윤리를 사용하면 모든 AI 문제를 적절하게 다루기 때문에 새로운 법률이 필요하지 않다고 설득력 있게 주장할 수 있습니다. AI 윤리는 일반적으로 "연성법"의 한 형태로 분류되며 관습적으로 자발적입니다(다른 모든 항목이 동일함). AI에 관한 법률은 소위 "엄격한 법률"로 분류되며 (일반적으로) 자발적인 구성이 아닙니다.

일반적으로 기업은 경성법보다 연성법을 선호하여 더 많은 자유와 자유를 제공한다고 합니다. 모든 사람이 그 감정에 동의하는 것은 아닙니다. 어떤 사람들은 연성법이 기업이 부적절한 노력을 해도 무사하도록 허용하고 이를 해결하는 유일한 방법은 경성법을 제정하는 것이라고 말합니다. 다른 사람들은 기업이 때때로 보다 명확한 경쟁의 장을 제공할 수 있는 엄격한 법률을 선호한다고 지적합니다. 엄격한 법률은 잠재적으로 모든 플레이어가 동일한 규칙을 준수하도록 만들 수 있습니다. 연성 법칙은 일종의 선택과 선택을 허용하므로 혼란을 야기하고 경쟁의 장을 방해합니다.

연구 결과에 따르면 앞으로 일어날 수 있는 일에 대한 더 큰 관점에서 AI 윤리가 세척되는 방식이 설명됩니다. “한편으로 이 용어는 기업에서 규제 완화, 자체 규제 또는 시장 중심 거버넌스를 정당화하는 수용 가능한 외관으로 사용되어 왔습니다. 기술 회사가 윤리적 행동을 이기적으로 채택하는 것으로 점점 더 인식되고 있습니다. 우리는 이러한 기술 기업의 윤리적 언어 도구화를 "윤리 세척"이라고 부릅니다. AI 윤리 위원회 외에도 윤리 세척에는 종종 기업 커뮤니케이션 전략의 일부를 구성하는 윤리적 업무의 가치를 단순화하려는 다른 시도도 포함됩니다. 제품 자체에 내재된 위험을 다루는 대신, 사용자에게 앱 사용 시간을 줄이도록 유도하는 등 인간적인 디자인에 중점을 둡니다. 이러한 시스템이 사회에 미치는 광범위한 영향에 대한 더 깊은 질문을 확실히 모호하게 하는 '공정한' 기계 학습 시스템에 대한 작업에 자금을 지원합니다."(Elettra Bietti, "윤리 세척에서 윤리 강타로: 도덕 철학 내에서 기술 윤리에 대한 견해," 공정성, 책임성, 투명성에 관한 2020 컨퍼런스 진행).

이 중요한 토론의 이 시점에서 이 주제를 보여줄 수 있는 몇 가지 예시적인 예를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 출현이 AI 윤리 세척에 대해 무엇인가를 밝혀줄까요? 그렇다면 이것이 보여주는 것은 무엇입니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 윤리 세척

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

자율주행차가 이미 존재하고 있으며 자율주행차는 이미 완벽하다는 대담한 주장을 선포하는 헤드라인을 거의 확실하게 본 적이 있을 것입니다. 이는 일반적으로 자율성 측면이 해결된다는 의미입니다. 우리는 인간 운전자만큼 훌륭하고 어쩌면 인간보다 더 나은 AI를 파생시켰습니다.

확실히 그 거품을 터뜨리고 기록을 바로잡기 위해, 이것은 아직 사실이 아닙니다.

우리는 미국의 인간 운전자가 매년 약 2.5만 건의 자동차 충돌 사고를 당하고 연간 40,000명 이상의 사망자가 발생한다는 것을 알고 있습니다. 여기 링크. 겉보기에 합리적인 사람이라면 누구나 AI 운전 시스템이 인간 운전자보다 안전하거나 더 안전하게 운전할 수 있다면 환영할 것입니다. 또한, 우리는 모두를 위한 이동성을 경험하여 오늘날 이동성이 제한된 사람들이 편리하고 저렴한 교통 수단에 즉시 접근할 수 있는 AI 기반 차량을 가질 수 있게 되기를 희망합니다.

일부 전문가들은 놀랍게도 “한발 더 나아가” 자율주행차는 충돌할 수 없을 것이라는 불명예스러운 주장을 합니다. 이것은 완전히 멍청하고 완전히 거짓입니다. 더 나쁜 것은 충족할 수 없는 높은 기대치를 설정하고 있다는 것입니다. 자율주행차는 충돌할 수 없다는 사실을 국민에게 납득시키면 자율주행차 관련 충돌사고가 단 한 번이라도 발생하는 순간 시민들은 소리를 지르며 고함을 칠 것입니다. 깨지지 않는 주장이 왜 사회에 해를 끼치는 것인지에 대한 자세한 설명은 다음 기사를 참조하세요. 여기 링크.

이러한 모든 종류의 과장이나 기타 허위는 AI 윤리 원칙에 의해 다루어진다고 할 수 있습니다. 즉, AI 윤리 원칙을 준수한다면 그러한 유형의 거칠고 근거 없는 주장을 해서는 안 된다는 점입니다. 따라서 이러한 허위 진술과 허위는 AI 윤리 세척의 규정에 쉽게 포함됩니다.

자율주행차 및 자율주행차와 관련된 AI 윤리 위반은 슬프게도 광범위하고 풍부합니다. 인터넷을 아무렇지도 않게 검색해 보면 자율주행차에 대한 엉뚱하고 뒷받침되지 않는 주장이 엄청나게 많이 나올 것입니다. 이는 자신의 블로그를 운영하는 사람들에게만 국한된 것이 아닙니다. 주요 언론사들이 이에 얽매이고 있다. 이에 주요 기업들이 얽매이고 있다. 스타트업은 이에 얽매인다. 벤처캐피탈 회사들이 이에 얽매이고 있다. 주주들은 이에 휩싸인다. 등등.

나는 이 특정 영역에서 AI 윤리 세척이 만연하고 있다고 우울하고 높은 확신을 가지고 말하고 싶습니다.

자율성과 자율 시스템을 수반하는 AI 윤리 세척에 대한 캐치프레이즈의 특수한 변형은 자동 세척이라는 개념입니다. Liza Dixon의 저자는 다음과 같이 설명합니다. “자동화에 적용된 자동 세탁은 부분적 또는 반자율적인 제품, 서비스 또는 기술에 필요한 적절한 수준의 인간 감독을 잘못 표현하는 검증되지 않거나 오해의 소지가 있는 주장을 하는 관행으로 정의됩니다. Autonowashing은 모든 조건에서 안정적으로 수행할 수 있는 것 이상으로 시스템 기능이 과장된 경우 완전 자율 시스템으로 확장될 수도 있습니다. Autonowashing은 무언가가 실제보다 더 자율적으로 보이도록 만듭니다. 자동 세척의 목적은 시스템의 기술적 능력과 일치하지 않는 시스템 신뢰성 수준을 전달하기 위한 피상적인 말을 사용하여 기업을 차별화 및/또는 경쟁 우위를 제공하는 것입니다. 자동 세척은 자동화 시스템의 기능에 대한 잘못된 정보를 다른 사람에게 무의식적으로 반복할 때 의도치 않게 발생할 수도 있습니다. 자동 세척은 허위 정보의 한 형태이며 어떤 의미에서는 바이러스적입니다.”(교통 연구 학제 간 관점, “오토노워싱: 차량 자동화의 그린워싱,” 2020).

이전 표시에서 알 수 있듯이 AI 윤리 세척에는 일반적으로 발생하는 네 가지 주요 변형이 있으며 자율주행차 분야에서도 쉽게 찾을 수 있습니다.

  • 자신이 누구인지도 모르는 AI 윤리 세탁기: AI에 대한 무지나 문맹으로 세척되는 AI 윤리 및/또는 자율주행차의 AI 윤리
  • 그것에 빠지는 AI 윤리 세탁기: 자율 차량의 AI 윤리 및 AI에 대한 진실성에도 불구하고 의도하지 않은 미끄러짐으로 인한 AI 윤리 세척
  • 얇게 늘어나는 AI 윤리 세탁기: 자율주행차에서는 아주 작은 일이지만 때로는 거의 용서할 수 있는(또는 그렇지 않은) AI 윤리가 의도적인 의도로 세척됩니다.
  • 그것을 알고 뻔뻔하게 행상하는 AI 윤리 세탁기: AI 윤리는 자율주행차의 교활하고 종종 터무니없는 디자인으로 전면적으로 세척됩니다.

또한 다음을 포함하여 자율성 분야에서 다른 유형의 AI 윤리 세척 및 관련 세척 질병의 사례를 쉽게 볼 수 있습니다.

  • AI윤리극장 자율주행차와 자율주행차에서
  • AI 윤리 쇼핑 자율주행차와 자율주행차에서
  • AI 윤리 강타 자율주행차와 자율주행차에서
  • AI 윤리 차폐 자율주행차와 자율주행차에서
  • AI 윤리 페어워싱 자율주행차와 자율주행차에서

결론

AI 윤리 세척은 우리 주변에 있습니다. 우리는 그 속에서 목욕하고 있습니다.

이 심각하고 끝나지 않을 것 같은 문제에 여러분의 관심을 집중함으로써 여러분이 AI 윤리에 대해 씻겨지고 있는지 분별할 수 있기를 바랍니다. 파악하기 어려울 수도 있습니다. AI 윤리 세척을 수행하는 사람들은 매우 영리하고 사악할 수 있습니다.

한 가지 유용한 비결은 허위나 과장이 섞여 있는 약간의 진실을 세탁물에 섞는 것입니다. 당신은 진실한 부분을 쉽게 감지하고 이에 동의할 수 있기 때문에 잠재적으로 다른 거짓되거나 기만적인 부분도 사실이라고 믿도록 흔들릴 수 있습니다. 교묘하고 불쾌한 형태의 속임수입니다.

그것을 호그워시(hogwash)라고 부르자.

AI 윤리 세척을 노골적으로 수행하는 이들의 입을 씻어낼 수 있을까요?

원하는 만큼 쉽게 이루어지지 않는다는 사실을 알려드려 죄송합니다. 즉, AI 윤리 세척을 잡아서 호출하는 것은 어려울 수 있고 때로는 무거운 바위를 언덕 위로 밀어 올리는 시지포스와 같기 때문에 시도해야 합니다.

당신이 몰랐을 경우를 대비해, 제우스는 그에게 이 바위를 영원히 밀어붙이는 일을 맡겼고, 그 노력이 정상에 도달하면 거대한 바위는 영원히 굴러떨어질 것입니다. AI 윤리 세척과 관련하여 우리도 같은 곤경에 직면하고 있다고 생각합니다.

씻어내야 할 AI 윤리 세척이 항상 더 많이 있을 것입니다. 그것은 그것에 대해 아무것도 희망사항이 없는 확실한 보증입니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- 자율주행차를 위한 윤리적 AI 준수에 대한 거짓 주장인 세척/