윤리적 AI 관행을 "선동"하는 인공지능 윤리학자들에 의해 당황한 AI 윤리

최근 뉴스에 소금물이 꽤 많이 등장했습니다.

나는 당신이 음식에 넣는 소금을 말하는 것이 아닙니다. 그 대신, 나는 노동과 기업 사이의 상호 작용과 관련된 도발적이고 겉보기에 매우 논란이 되는 관행과 관련된 "소금"을 제기하고 있습니다.

알다시피, 이런 종류의 염치는 어떤 사람이 표면상 노동 조합 설립을 선동한다고 말할 수 있는 회사에 고용되어 표면적으로 시작하려고 하는 상황을 수반합니다. 이 현상에 대해 논의하는 최신 뉴스 계정은 Starbucks, Amazon 및 기타 잘 알려진 회사와 심지어 덜 알려진 회사와 같은 회사를 가리킵니다.

먼저 솔팅의 기본 사항을 다룬 다음, 인공 지능(AI) 분야에서 일종의 솔팅이 일어나고 있는 것처럼 보이는, 여러분이 상당히 당황할 수 있는 유사한 주제로 전환하겠습니다. 이것은 중요한 AI 윤리 고려 사항이 있습니다. AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

이제 염분이 일반적으로 작동하는 방식에 대한 기본 사항에 대해 알아보겠습니다.

회사의 노동력에 노조가 없다고 가정합니다. 노동조합이 어떻게 그 회사에서 발판을 마련할 수 있겠습니까? 한 가지 방법은 회사 외부에서 조치를 취하고 노동자들에게 노조에 가입해야 한다고 호소하는 것입니다. 여기에는 회사 본사 근처에 배너를 표시하거나 직원 전단지를 보내거나 소셜 미디어를 활용하는 등이 포함될 수 있습니다.

이것은 확실히 아웃사이드 인 접근 방식입니다.

또 다른 방법은 공을 굴릴 수 있는 스파크 내에서 박차를 가하는 것입니다. 최소한 한 명의 직원이 회사에서 노동 조합을 수용하는 응원단으로 촉발될 수 있다면, 아마도 이것은 그곳에서 노조 결성을 위한 지지의 궁극적인 내부 기병 행렬을 시작할 것입니다. 그런 직원이 노골적인 응원은 아니더라도 조용히 직원들 사이에서 내부 지지를 얻고 조직 내에서 상대적으로 숨겨진 노조 결성 세력이 될 수 있을지도 모른다.

그런 식으로 노동조합은 그러한 직원이 활성화될 수 있는 방법을 생각할 수 있습니다. 노조는 건초더미에서 바늘을 찾기 위해 끝없는 에너지를 소비할 수도 있습니다. 아마도 수백 또는 수천 명의 회사 직원들 사이에서, 특히 노조 결성을 선호하는 소위 선택된 사람을 찾으려고 노력하는 것은 어려울 수 있습니다.

스파크를 유발하는 일꾼을 더 쉽게 "발견"(또는 발명)하는 것이 편리할 것입니다.

이것은 우리를 회사에서 회사의 일상적인 역할을 위해 그런 사람을 고용하게 할 수도 있다는 짜릿한 아이디어로 이끕니다. 기본적으로 회사에 올바른 종류의 노동조합 박차를 가하는 사람을 심어야 합니다. 외부에서 들은 수많은 노동자들에게 호소하려고 애쓸 필요가 없으며 대신 활성화된 사람 한 명을 삽입하여 당신의 불꽃이 그곳에서 사용되었음을 확실히 알 수 있습니다.

그런 다음 새로 고용된 직원은 회사 내부에 노동 조합의 관심을 주입하는 동시에 다른 방식으로 고용된 업무를 수행하려고 합니다(직업에 대한 "진정한 관심"이라고도 함). 그 사람은 회사에 적극적으로 고용되어 있으며 직원으로서 필요한 업무를 적극적으로 수행하고 있습니다. 염장이라는 관례적인 영역에서, 그들은 회사에 기회가 내재되어 있는 노조만의 비특정 직업 관련 근로자가 아닙니다.

일부는 이러한 접근 방식을 예고했습니다.

그들은 회사의 근로자들이 노조 가입을 고려하도록 고무하려는 노조의 관점에서 시간과 자원을 절약할 것을 권고합니다. 다른 직원은 일반적으로 동료 직원의 말을 듣고 적극적으로 행동할 가능성이 더 큽니다. 관심을 끌기 위해 외부에서 시도하는 대안적 접근 방식은 덜 매력적으로 간주됩니다. 동료 직원이 회사 내 직원들에게 강력한 동기를 부여하는 방식은 실제로 관여하지 않고 무관심한 의제 추진에 불과한 것으로 보이는 일부 "외부인"과 비교됩니다. 외부인.

모든 사람이 염장 접근 방식에 만족하는 것은 아닙니다.

기업들은 이것이 매우 교활하고 부정직한 관행이라고 종종 주장할 것입니다. 접근 방식의 전체적인 형태는 스파이가 회사 한가운데에 배치된다는 것입니다. 그것은 그 사람이 하도록 고용된 것이 아닙니다. 그들은 명시된 업무를 수행하기 위해 고용된 것으로 추정되는 반면, 그 대신에 모든 다양한 속임수는 진정한 트로이 목마를 악마처럼 이식한 것처럼 보입니다.

노동조합이 주장하는 바는 그 사람이 명시된 일을 하고 있다면 해가 없고 반칙도 없다는 것입니다. 아마도 직원, 또는 우리가 말할 것입니다. 어떤 회사의 직원은 일반적으로 노조 가입을 선택할 수 있습니다. 이 특정 직원은 우연히 그렇게 하고 싶어합니다. 그런 생각을 갖고 입사했다는 사실은 신입사원이라면 누구나 한 번쯤 고민해 볼 만한 일이다.

잠깐만요, 기업들이 반박할 겁니다. 의도적으로 노조의 발판을 마련하기 위해 회사에 오기를 원했습니다. 그것이 그들의 욕망입니다. 새로 고용된 직원은 고용 과정을 조롱하고 노동 조합의 특정 이점에 대한 위장된 구실을 통해 구직 열망을 부당하게 이용했습니다.

이 뜨거운 담론이 빙빙 돌고 있습니다.

이러한 상황에서 발생하는 많은 법적 고려 사항이 있음을 명심하십시오. 예를 들어 전국 노동 관계법(NLRA) 및 전국 노동 관계 위원회(NRLB)와 관련된 모든 방식의 규칙 및 규정은 이러한 도박의 일부입니다. 나는 당신이 이러한 측면에서 일이 간단하다는 인상을 받지 않기를 바랍니다. 수많은 법적 문제가 있습니다.

우리는 또한 염장과 관련된 다양한 변형에 대해 숙고해야 합니다.

고용되기를 원하는 사람이 회사에서 일자리를 구하는 과정 전반에 걸쳐 공개적으로 노조의 옹호자일 가능성을 생각해 보십시오. 이 사람은 그들이 친노조임을 분명히 보여주는 셔츠나 다른 복장을 입고 면접장에 나타날 수 있습니다. 그들은 인터뷰 중에 회사가 언젠가는 노조 결성을 받아들일 것이라는 희망을 꺼낼 수 있습니다. 등.

그런 경우, 어떤 사람들은 그 사업이 무엇을 하고 있는지 알고 있다고 주장할 것입니다. 회사는 처음부터 그 사람의 의도에 대한 많은 징후를 가지고 있었습니다. 그런 다음 새 직원이 고용된 후 노조가 문을 열도록 할 수 있는 모든 일을 할 것이라고 하면 나중에 징징거릴 수 없습니다. 회사는 말 그대로 스스로 발을 쏘았고, 그 외의 것은 악어의 눈물에 불과하다.

이것에 대한 춤은 보이는 것보다 다시 복잡합니다. 발생할 수 있는 법적 문제에 따라, 채용 자격이 있는 사람은 채용 회사에서 거절할 경우 회사의 반노조 편견의 결과로 의도적으로 간과되었다고 주장할 수 있습니다. 다시 한 번 NRLA와 NRLB는 지저분한 일에 휘말리게 됩니다.

염분 영역에서 발생하는 많은 다른 고려 사항을 빠르게 설명하겠습니다. 또한 염분이 미국만의 현상이 아니라는 점도 알아주셨으면 합니다. 다른 나라에서도 발생할 수 있습니다. 물론 국가의 법률과 관행은 극적으로 다르기 때문에 소금에 절이는 것은 특별히 유용하지 않거나 일부 지역에서는 아예 금지되기도 합니다. 여전히 힘이 있습니다.

관심 있는 관할권이 무엇이든 사랑하는 노동법 변호사와 상의하십시오.

염장에 대한 몇 가지 추가 요소는 다음과 같습니다.

  • 지불 받기. 때때로 그 사람은 회사에 고용되는 작업을 수행하기 위해 노동 조합에서 급여를 받습니다. 그런 다음 회사에서 근무하는 동안 회사와 노조 모두에서 급여를 지급하거나 회사에 고용된 노조에서 더 이상 급여를 받지 않을 수 있습니다.
  • 시계. 때때로 그 사람은 고용 과정에서 노조 결성 의도에 대해 낮은 수준을 유지하거나 완전히 침묵하는 반면, 다른 경우에는 그 사람이 의도한 바에 대해 공공연히 목소리를 냅니다. 겉보기에 중간 접근 방식은 인터뷰 중에 명시적으로 물으면 사람이 무엇을 하려는 것인지 말할 것이고, 따라서 그러한 의도를 찾아내는 것은 회사에 달려 있음을 암시하는 것입니다. 법적 한계를 가중시킵니다.
  • 타이밍. 일단 고용된 사람은 노조 결성 능력을 발휘하기 위해 기다릴 수 있습니다. 활성화하는 데 몇 주, 몇 달 또는 몇 년이 걸릴 수 있습니다. 회사에 적응하고 회사 직원으로서 개인적인 발판을 마련한 후에 시작하게 될 가능성이 더 높습니다. 그들이 즉시 시작하면 내부자로 보이려는 시도가 약화되고 침입자 또는 외부인으로 간주될 수 있습니다.
  • 취한 단계. 때때로 그 사람은 회사 내에서 현재 노조 결성을 수용하려고 한다고 명시적으로 발표할 것입니다. 이는 고용된 직후에 발생할 수 있거나 잠시 후에 발생할 수 있습니다(타이밍 요소에 대한 위의 표시에 따라). 다른 한편으로, 그 사람은 비밀스러운 역할을 하기로 선택하여 노동 조합에 정보를 제공하고 자신에게 주의를 기울이지 않을 수 있습니다. 이것은 때때로 소금에 절인 두더지, 그러나 다른 사람들은 그 사람이 직접 발언할 경우 내부 위험에 노출될 수 있다고 강조합니다.
  • 보유. 소금에 절이는 노력을 기울이는 사람은 결국 노조 결성 추진력을 얻을 수 있습니다(그들은 "소금"입니다). 그들은 노조 결성 과정 내내 잠재적으로 회사에 남아 있을 수 있습니다. 즉, 때때로 그러한 사람은 촉발된 회사를 떠나고 촉발 활동을 새로 시작하기 위해 다른 회사로 이동하기로 선택합니다. 이에 대한 논쟁이 치열하다. 한 가지 관점은 이것이 그 사람이 회사에서 일할 마음이 없었음을 분명히 보여줍니다. 대조되는 관점은 노조 강화 노력이 견인력을 얻은 후에 회사에 남아서 흐릿하고 견디기 힘든 상황에 처하게 될 가능성이 있다는 것입니다.
  • 결과. 염장 시도는 특정 결과를 보장하지 않습니다. 그 사람이 노조 결성에 대한 인식을 높이고 노력이 진행 중일 수 있으며, 따라서 "성공적인" 염분이 이루어졌습니다. 또 다른 결과는 그러한 견인력을 얻을 수 없다는 것입니다. 그런 다음 그들은 추구를 포기하고 회사에 남아 나중에 다른 기회를 기다리거나 회사를 떠나 일반적으로 다른 회사에서 솔트링을 하려고 합니다.
  • 전문 솔터. 어떤 사람들은 스스로 소금을 강력하게 옹호한다고 생각하며, 말하자면 소금 간 역할을 하는 것에 자부심을 느낍니다. 그들은 반복적으로 염장을 하고, 그렇게 하는 동안 확고한 곳에서 확고한 곳으로 이동합니다. 다른 사람들은 이 일을 한 번만 할 것입니다. 아마도 특정 선호도 때문에 또는 그것이 어떤지 보기 위해 그런 다음 그러한 역할을 반복하지 않기로 선택할 것입니다. 염도가 높은 상태에서 발생할 수 있는 개인적인 압력과 잠재적인 스트레스의 유형을 확실히 상상할 수 있습니다.

이러한 요소는 현재로서는 염장의 범위와 역학을 강조하기에 충분할 것입니다. AI 및 윤리적 AI 고려 사항의 맥락에서 이러한 요소를 다시 검토할 것입니다.

요점은 일부 사람들이 회사에서 AI 윤리 원칙의 수립을 시작하거나 선동하기 위해 회사에 고용되기를 원한다는 것입니다. 이것이 그들이 회사에서 일하게 된 주된 동기입니다.

어떤 의미에서 그들은 노조 결성을 목적으로 하는 것이 아니라 윤리적 AI 원칙에 뿌리를 둔 회사를 만들기 위해 "소금"을 하고 있습니다.

잠시 후에 이것에 대해 더 많이 말할 것입니다.

AI 컨텍스트에서 염장의 기본이 되는 야생 및 양털 고려 사항에 대해 고기와 감자에 대해 더 알아보기 전에 근본적으로 필수적인 주제에 대한 몇 가지 추가 기본 사항을 살펴보겠습니다. AI 윤리, 특히 머신 러닝(ML) 및 딥 러닝(DL)의 출현에 대해 간략히 살펴보겠습니다.

요즘 AI 분야와 심지어 AI 분야 밖에서도 가장 크게 들리는 목소리 중 하나가 윤리적 AI의 더 큰 모습을 외치는 것으로 구성되어 있다는 것을 막연하게 인지하고 있을지도 모릅니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴보겠습니다. 그 위에 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 살펴보겠습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

AI 컨텍스트에서 솔팅에 대한 초점으로 돌아가 보겠습니다.

첫째, 우리는 솔팅(salting)의 용어에서 유니온화 요소의 유사점을 제거하고 대신 솔팅을 일반화된 패러다임으로 사용하거나 템플릿으로 접근 방식을 사용합니다. 따라서 이 AI 관련 솔팅 토론의 목적을 위해 노조 관련 패싯은 제쳐두시기 바랍니다.

둘째, 앞서 언급한 바와 같이 이 AI 맥락에서 솔팅하는 것은 일부 사람들이 회사에서 AI 윤리 원칙의 수립을 시작하거나 선동하기 위해 회사에 고용될 수 있음을 의미합니다. 이것이 그들이 회사에서 일하게 된 주된 동기입니다.

명확히 하자면, 회사에 고용된 사람들이 절대적으로 많고 그들은 이미 AI 윤리가 중요하다는 것을 염두에 두고 있습니다. 이것은 특정 관심 회사에 고용되기 위해 노력하는 근거의 최전선에 있지 않습니다. 본질적으로 그들은 일종의 AI 개발 또는 배포 작업을 수행하기 위해 고용될 것이며, 이를 위해 윤리적 AI에 대한 확고한 믿음을 쉽게 가져옵니다.

그런 다음 그들은 회사에 AI 윤리 고려 사항을 주입하거나 영감을 주기 위해 최선을 다할 것입니다. 그들을 위해 좋은. 간절한 마음에서 우러나온 소망으로 그것을 갖는 것이 더 필요합니다.

그러나 그것은 내가 여기에서 암시하는 염분이 아닙니다. 누군가가 AI 윤리를 수용하는 것과 관련하여 별 일을 하지 않는 것처럼 보이는 특정 회사를 선택한다고 상상해 보십시오. 그 사람은 일상적인 AI 업무(또는 AI가 아닌 역할)에서 그렇게 할 수 있다면 그 회사에 고용될 것이라고 결정하고, 그들의 주요 초점은 AI 윤리 원칙을 설치하거나 선동하는 것입니다. 회사. 그것은 그들의 주요 직무가 아니며 직무에 나열되어 있지도 않습니다.

이 사람은 직업 자체에 대해 특별히 신경 쓰지 않습니다. 물론, 그들은 직업이 무엇이든 할 것이고, 아마도 그렇게 할 수 있는 적절한 자격이 있을 것입니다. 한편, 그들의 진짜 의제는 Ethical AI가 회사의 일부가 되도록 자극하는 것입니다. 그것이 미션입니다. 그것이 목표입니다. 일 자체는 그들이 내부에서 그렇게 할 수 있도록 하는 수단이나 수단일 뿐입니다.

회사 외부에서도 동일한 작업을 수행할 수 있다고 말할 수 있습니다. 그들은 AI 윤리에 더 많이 참여하기 위해 회사의 AI 팀에 로비를 시도할 수 있습니다. 그들은 아마도 블로그에 게시하거나 다른 조치를 취함으로써 그렇게 하도록 회사를 부끄럽게 하려고 할 수 있습니다. 등등. 문제는 염장이라는 가장 중요한 전제를 논의할 때 앞서 지적한 것처럼 그들은 여전히 ​​외부인일 것입니다.

인공지능 염장자는 사기꾼인가?

우리는 소금에 절이는 결합 맥락에 대해 묻는 동일한 질문을 다시 상기시킵니다. 그 사람은 속임수가 전혀 없다고 주장할 수도 있습니다. 그들은 일을 하기 위해 고용되었습니다. 그들은 일을하고 있습니다. 또한 그들은 AI 윤리를 위한 내부 옹호자이며 다른 사람들도 똑같이 하도록 강력하게 노력하고 있습니다. 해를 끼치거나 반칙이 없습니다.

그들은 또한 회사를 윤리적인 AI에 박차를 가하는 데 특별한 단점이 없다고 지적할 것입니다. 결국 이는 AI 윤리 규범을 준수하지 않고 AI가 생산되는 경우 발생할 수 있는 소송을 회사가 잠재적으로 피하는 데 도움이 될 것입니다. 따라서 그들은 회사 자체를 구합니다. 비록 그 사람이 당면한 일을 하는 데 특별히 신경을 쓰지 않더라도, 그들은 그 일을 하는 동시에 윤리적 AI를 향한 열렬한 추진을 통해 회사를 더 현명하고 더 안전하게 만들고 있습니다.

잠깐만, 이 사람은 정직하지 못하다고 반박합니다. AI 윤리 수용이 이루어지면 그들은 배를 탈 것 같습니다. 그들의 마음은 회사나 직장에 있지 않습니다. 그들은 회사를 이용하여 자신들의 의제를 발전시키고 있습니다. 물론, 의제는 윤리적 AI를 최우선으로 하는 것으로 충분해 보이지만 이는 너무 지나칠 수 있습니다.

더 나아가 AI 윤리 추구가 지나치게 열성적으로 될 수 있다는 주장이 제기되고 있습니다. 그 사람이 Ethical AI를 시작하기 위해 왔다면 회사 전체가 다루고 있는 것에 대한 더 큰 그림을 보지 못할 수도 있습니다. 다른 모든 것을 제외하고, 이 사람은 근시안적으로 회사의 주의를 산만하게 하고 합리적이고 신중한 속도로 AI 윤리 채택을 허용하지 않을 수 있습니다.

그들은 윤리적 AI 원칙의 관점에서 회사가 어디에 위치하고 있는지에 대해 계속해서 논쟁을 벌이는 파괴적인 불만이 될 수 있습니다. 다른 AI 개발자는 단일 조정 잡담에 주의가 산만해질 수 있습니다. AI 윤리를 혼합하는 것은 확실히 합리적이지만, 회사 내의 연극 및 기타 잠재적 혼란은 윤리적 AI 발전을 지원하기보다는 방해할 수 있습니다.

빙글 빙글 우리는 간다.

이제 이전에 제안한 염장에 대한 추가 요소를 다시 살펴볼 수 있습니다.

  • 지불 받기. 기업이 AI 윤리를 수용하도록 하려는 어떤 단체로부터 그 사람이 처음에 급여를 받았을 수도 있습니다. 아마도 무해하게 그렇게 하거나 특정 AI 윤리 도구 또는 관행을 회사에 판매하는 것을 목표로 할 수 있습니다. 일반적으로 가능성이 낮지만 언급할 가치가 있습니다.
  • 시계. 그 사람은 채용 과정을 진행할 때 AI 윤리 헌신적 사명을 특별히 언급하지 않을 수 있습니다. 다른 경우에는 고용 회사가 그들의 독실한 초점에 대해 모호함 없이 이해할 수 있도록 그것이 전면과 중앙에 있는지 확인할 수 있습니다. 이것은 AI 윤리가 부차적인 관심사이고 직업이 그 반대가 아니라 그들의 주요 관심사인 것처럼 표현될 가능성이 더 큽니다.
  • 타이밍. 일단 고용된 사람은 AI 윤리 시작을 시작할 때까지 기다릴 수 있습니다. 활성화하는 데 몇 주, 몇 달 또는 몇 년이 걸릴 수 있습니다. 회사에 적응하고 회사 직원으로서 개인적인 발판을 마련한 후에 시작하게 될 가능성이 더 높습니다. 그들이 즉시 시작하면 내부자로 보이려는 시도가 약화되고 침입자 또는 외부인으로 간주될 수 있습니다.
  • 취한 단계. 때때로 그 사람은 고용된 직후 또는 잠시 후에 발생할 수 있는 AI 윤리에 대한 관심을 높이고자 회사 내에서 명시적으로 발표할 것입니다(타이밍 요소에 대한 위의 표시에 따름). 다른 한편으로, 그 사람은 회사 내에서 조용히 일하고 자신에게 특별한 관심을 기울이지 않는 위장 역할을 선택할 수도 있습니다. 그들은 또한 AI 윤리 누락 또는 실패가 회사 내에서 발생하고 있는 것에 대한 정보를 언론 및 기타 외부인에게 제공할 수 있습니다.
  • 보유. 염치없는 노력을 기울이는 사람은 결국 AI 윤리 추진력을 얻을 수 있습니다. 그들은 윤리적 AI 채택 프로세스 전반에 걸쳐 잠재적으로 회사에 남아 있을 수 있습니다. 즉, 때때로 그러한 사람은 촉발된 회사를 떠나고 촉발 활동을 새로 시작하기 위해 다른 회사로 이동하기로 선택합니다. 이에 대한 논쟁이 치열하다. 한 가지 관점은 이것이 그 사람이 회사에서 일할 마음이 없었음을 분명히 보여줍니다. 대조적인 관점은 그들이 지금 큰 소리를 내는 사람이나 말썽꾸러기로 낙인 찍힌 경우 회사에 남아서 어둡고 견디기 힘든 상황에 처하게 될 가능성이 높다는 것입니다.
  • 결과. 염장 시도는 특정 결과를 보장하지 않습니다. 그 사람이 윤리적 AI에 대한 인식을 높이고 노력이 진행 중일 수 있으므로 "성공적인" 염분이 발생했습니다. 또 다른 결과는 그러한 견인력을 얻을 수 없다는 것입니다. 그런 다음 그들은 추구를 포기하고 회사에 남아 나중에 다른 기회를 기다리거나 회사를 떠나 일반적으로 다른 회사에서 솔트링을 하려고 합니다.
  • 전문 솔터. 어떤 사람들은 스스로 AI 윤리의 염장을 강력하게 옹호한다고 생각할 수 있으며 말 그대로 염장 역할을 하는 것에 자부심을 느낍니다. 그들은 반복적으로 염장을 하고, 그렇게 하는 동안 확고한 곳에서 확고한 곳으로 이동합니다. 다른 사람들은 한 번만 이 작업을 수행할 수 있습니다. 아마도 특정 선호도 때문일 수 있습니다. 염도가 높은 상태에서 발생할 수 있는 개인적인 압력과 잠재적인 스트레스의 유형을 확실히 상상할 수 있습니다.

이런 종류의 AI 윤리 지향적인 염분이 유행할지 여부는 두고 봐야 할 일입니다. 기업이 윤리적 AI 육성을 더디게 한다면 이는 열렬한 AI 윤리학자들이 염세적인 노력을 기울이게 만들 수 있습니다. 그들은 자신이 염장을 하고 있다는 것을 직접적으로 깨닫지 못할 수도 있습니다. 다시 말해서, 누군가가 X 회사에 가서 AI 윤리에 대한 관심을 얻으려고 시도하고 아마도 그렇게 하고 다른 곳에서도 똑같이 해야 한다는 것을 깨닫습니다. 그런 다음 회사 Y로 이동합니다. 헹구고 반복합니다.

다시 강조하지만 AI 윤리 수용이 최우선 과제라는 것입니다. 입사는 부차적이거나 특별히 중요하지도 않고, 내부에 들어가 윤리적 AI와 관련된 염탐을 하는 내부 노력을 할 수 있다는 것 외에는 그다지 중요하지 않습니다.

AI 윤리 측면을 연구하고 분석하는 사람들이 이제 윤리적 AI 연구 추구 주제에 다소 새로운 추가 사항이 있음을 추가하겠습니다.

  • 이러한 AI 윤리 염치 노력을 전반적으로 묵인해야 할까요 아니면 피해야 할까요?
  • 이 AI 맥락에서 솔팅을 수행하려는 사람들을 이끄는 것은 무엇입니까?
  • 기업은 AI 컨텍스트 솔팅의 인지된 행위에 어떻게 대응해야 합니까?
  • 이와 같이 AI 관련 염장을 장려하기 위해 고안된 방법론이 있습니까?
  • 등등

그것이 어느 정도 AI 윤리와 윤리적 AI가 중요한 주제인 이유입니다. AI 윤리의 교훈은 우리가 경계를 늦추지 않게 합니다. AI 기술자는 때때로 기술, 특히 하이테크 최적화에 몰두할 수 있습니다. 그들은 더 큰 사회적 파급효과를 반드시 고려하고 있지는 않습니다. AI 윤리 사고방식을 갖고 AI 개발 및 현장에 통합적으로 그렇게 하는 것은 AI 윤리가 기업에 어떻게 채택되는지에 대한 평가를 포함하여(놀랍거나 아이러니하게도) 적절한 AI를 생산하는 데 필수적입니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 실제로, 그들은 우리가 이러한 AI 법률 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 AI의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이 중요한 토론의 이 시점에서 이 주제를 보여줄 수 있는 몇 가지 예시적인 예를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행 자동차의 출현은 AI와 관련된 염장에 대해 무엇인가를 조명하고, 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI 윤리 염원

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

AI와 관련된 염장 상황을 보여주는 시나리오를 스케치해 보겠습니다.

완전자율주행차 개발에 박차를 가하고 있는 한 완성차업체가 공공도로 시험주행에 박차를 가하고 있다. 회사는 그렇게 해야 한다는 큰 압박을 받고 있습니다. 그들은 시장의 주목을 받고 있으며 자율주행차 개발의 선두에 있지 않은 것처럼 보이면 그에 따라 주가가 하락합니다. 또한 그들은 이미 수십억 달러를 투자했으며 투자자들은 회사가 자율 주행 자동차가 일상적인 상업적 사용을 위한 준비가 되었다고 발표할 수 있는 날을 참지 못하고 있습니다.

AI 개발자는 자동차 회사의 노력을 멀리서 유심히 지켜보고 있습니다. AI 운전 시스템이 혼란스러워지거나 실수하는 사례가 뉴스에서 점점 더 많이 목격되고 있습니다. 다양한 경우에는 다른 차량과의 충돌, 자전거 라이더와의 충돌 및 기타 돌발 사고가 포함됩니다.

회사는 일반적으로 이 hush-hush를 유지하려고 합니다. AI 개발자는 회사의 일부 엔지니어와 개인적으로 이야기를 나누었고 AI 윤리 지침은 기껏해야 립 서비스로만 제공되고 있음을 알게 되었습니다. 기업이 윤리적 AI를 기피하는 문제에 대한 내용은 다음을 참조하십시오. 여기 링크.

이 AI 개발자는 무엇을 할 것인가?

그들은 무언가를 해야 한다는 강박감을 느낍니다.

약간의 포크 노력을 하고 이 AI 개발자가 각각 수행할 수 있는 두 가지 경로를 고려해 보겠습니다.

한 가지 경로는 AI 개발자가 미디어를 통해 자동차 제조업체의 AI 윤리 지침에 대한 적절한 관심이 부족해 보이는 점을 조명하려고 시도하는 것입니다. 이 우려하는 AI 전문가는 이러한 우려 사항을 강조하기 위해 블로그를 작성하거나 동영상 블로그를 만들기로 선택할 수 있습니다. 또 다른 가능성은 AI 팀의 기존 구성원을 일종의 내부 고발자가 되도록 하는 것입니다. 여기 링크.

이것은 확실히 이 AI 개발자에 의해 고려된 외부인 접근 방식입니다.

또 다른 경로는 AI 개발자가 회사 내에서 더 많은 일을 할 수 있을 것이라고 직감적으로 믿는 것입니다. AI 개발자의 기술은 자율주행차와 관련된 AI 측면에서 잘 조정되어 있으며 회사에서 게시된 AI 엔지니어 채용 정보에 쉽게 지원할 수 있습니다. AI 개발자는 그렇게 하기로 결정합니다. 또한 자동차 제조업체가 윤리적 AI에 대해 더 진지하게 생각하도록 하는 데만 추진력이 집중되고 있습니다. 직업 자체는 이 AI 개발자에게 특히 중요하지 않지만 이제 내부에서 설득력 있게 작업할 수 있게 됩니다.

AI 개발자가 일자리를 얻었지만 엄청난 내부 저항이 있고 윤리적 AI 추구 목표가 무의미하다는 것을 발견할 수 있습니다. 그 사람은 회사를 떠나 AI 개발자가 달성하고자 하는 목표를 더 잘 파악할 수 있는 다른 자동차 제조업체를 목표로 삼기로 결정합니다. 다시 한 번, 그들은 AI 윤리 고려 사항을 명확하게 달성하기 위해 그렇게 하는 것이지 AI 직업이 무엇으로 구성되든 주류가 아닙니다.

결론

이러한 AI 관련 노력을 염석의 한 형태로 언급하는 개념은 일부 사람들이 이미 확립된 용어나 어휘를 남용하는 것에 대해 가슴 앓이를 할 수밖에 없습니다. 염장은 노동 및 사업과 관련된 노동조합 활동에 거의 뿌리를 두고 있습니다. 노동조합과 전혀 관련이 없는 활동이지만 이러한 다른 종류의 유사 활동으로 단어를 과부하시키려는 시도는 잠재적으로 오해의 소지가 있고 혼란을 야기할 수 있습니다.

다른 어구를 생각해 냈다고 가정해 봅시다.

페퍼링?

글쎄, 그것은 소금에 절이는 것과 같은 감정을 불러일으키는 것 같지 않습니다. 그것을 규정하고 우리의 일상적인 언어 사전에 포함시키려고 노력하는 것은 힘든 싸움이 될 것입니다.

우리가 생각해낸 것이 무엇이든, 이름이나 캐치프레이즈가 적합해 보이는 것이든 우리는 한 가지를 확실히 알고 있습니다. 기업이 AI 윤리를 수용하도록 하는 것은 여전히 ​​힘든 싸움입니다. 우리는 시도해야합니다. 시도는 올바른 방법으로 이루어져야 합니다.

울타리의 어느쪽에 떨어지든 우리는 적절한 소금 한 알로 그 훈계를 받아들일 필요가 있는 것 같습니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/