책임 있는 AI, 최고 전문가 협회 The ACM의 AI 윤리 선언문을 통해 탁월한 추진력 제공

그 소식을 보거나 들었습니까?

또 하나의 AI 윤리강령이 새롭게 선포되었습니다.

소란스러운 박수를 보내주세요.

그런 다음 다시 지원 다른 많은 AI 윤리 법령이 한동안 떠돌고 있다는 사실 때문에 그것을 알아차렸습니다. 어떤 사람들은 윤리적 AI 선언문의 겉보기에 논스톱 침투가 약간 무감각해지고 있다고 말합니다. 얼마나 많이 필요합니까? 누구든지 그들 모두를 따라갈 수 있습니까? 어느 것이 가장 좋습니까? 우리는 아마도 AI 윤리 원칙에 대해 지나칠 것입니까? 등등.

글쎄요, 이 특별한 경우에 저는 우리가 클럽에 최근 추가된 것을 특히 환영해야 한다고 말합니다.

잠시 후에 그 이유를 통찰력 있게 설명하겠습니다.

먼저 설명으로 현재 공식적으로 “책임 있는 알고리즘 시스템의 원칙에 관한 성명서” 26년 2022월 XNUMX일에 ACM 기술 정책 위원회에서 최근 발행했습니다. 공동 저자인 Jeanna Matthews(Clarkson University)와 Ricardo Baeza-Yates(Universitat Pompeu Fabra)를 포함하여 이 소중한 문서를 함께 만든 전문가 팀에 찬사를 보냅니다. ).

아시는 분들은 자세히 살펴보면 이 문서가 어렴풋이 낯익다는 것을 알 수 있습니다.

좋은 눈!

이 최신 버전은 본질적으로 2017년 ACM 미국 기술 정책 위원회와 ACM 유럽 기술 정책 위원회에서 공표한 이전 공동 "알고리즘 투명성 및 책임에 관한 성명서"의 업데이트 및 확장된 변형입니다. 내 칼럼의 충실한 독자들은 다음을 기억할 것입니다. 저는 AI 윤리 및 AI 법의 근간이 되는 주요 측면에 대한 칼럼에서 2017년 법령을 때때로 언급했습니다.

AI 윤리 및 AI 법률에 대한 광범위하고 지속적인 평가 및 추세 분석은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

ACM의 이 최신 성명은 몇 가지 중요한 이유로 특히 중요합니다.

이유가 여기 있습니다.

ACM은 편리한 약어입니다. 컴퓨터 기계 연합, 세계 최대의 컴퓨팅 중심 협회로 간주됩니다. 약 110,000명 정도의 회원으로 구성된 ACM은 컴퓨팅 분야의 오랜 선구자입니다. ACM은 컴퓨팅 분야에서 최고의 학술 연구를 수행하고 마찬가지로 컴퓨팅 실무자에게 전문적인 네트워킹과 매력을 제공합니다. 이와 같이 ACM은 컴퓨터 분야를 발전시키기 위해 지속적으로 노력해 온 첨단 기술을 가진 사람들을 대표하는 중요한 목소리입니다(ACM은 1947년에 설립되었습니다).

이것에 대해서도 약간의 개인적인 메모를 추가할 수 있습니다. 고등학교 때 컴퓨터를 처음 접했을 때 저는 ACM에 합류하여 교육 프로그램에 참여했습니다. 특히 연례 컴퓨터 프로그래밍 대회에 참가할 수 있는 흥미진진한 기회가 있었습니다. 해커 손). 저는 지역 대학 지부를 통해 대학에 다니는 동안 ACM에 계속 참여하고 있으며 학생 지부 임원이 됨으로써 리더십에 대해 배울 기회를 얻었습니다. 업계에 입문하자마자 저는 전문 장에 합류했고 다시 한 번 리더십 역할을 맡았습니다. 나중에 교수가 되었을 때 ACM 위원회와 편집위원회에서 활동했으며 캠퍼스 학생 지부를 후원했습니다. 지금도 저는 ACM 미국 기술 정책 위원회에서 활동하는 등 ACM에서 활동하고 있습니다.

저는 평생 학습 및 경력 개발에 대한 ACM의 사랑스럽고 지속적인 비전을 좋아합니다.

어쨌든 최신 AI 윤리 성명서에 따르면 ACM에서 발표했다는 사실은 상당한 무게를 지닙니다. 윤리적 AI 지침이 전 세계 컴퓨팅 전문가 그룹의 전체 또는 집합적 목소리라고 합리적으로 주장할 수 있습니다. 그것은 바로 거기에 무언가를 말합니다.

동료 전산 동료들이 선언한 내용을 충분히 숙고했다는 의미에서 컴퓨터 분야의 다른 사람들이 기운을 북돋아 경청하게 되는 측면도 있다. 따라서 ACM에 속해 있지 않거나 존경받는 그룹에 대해 전혀 모르는 사람들도 그 진술이 무엇인지 발견하는 데 큰 관심을 가질 수 있기를 바랍니다.

한편, 외부 컴퓨팅 분야의 사람들은 컴퓨터에 있는 사람들이 윤리적 AI에 대해 말하는 것을 내부에서 들여다보는 일종의 비하인드 스토리로 이 진술에 끌릴 수 있습니다. 나는 이 성명이 컴퓨터 커뮤니티뿐만 아니라 모든 사람을 위한 것임을 강조하고 싶습니다. 따라서 AI 윤리 지침은 말하자면 전반적으로 적용된다는 점을 명심하십시오.

마지막으로, 거의 고려하지 않을 트위스트가 추가되었습니다.

때때로 외부인은 컴퓨팅 협회가 기술에 깊이 관여하고 컴퓨터와 AI의 사회적 영향을 특별히 인식하지 못하는 것으로 인식합니다. 당신은 그러한 전문 기관이 하드웨어나 소프트웨어의 가장 최신의 최신 혁신에만 관심이 있다고 생각하고 싶을 수도 있습니다. 대중은 간단히 말해 거친 방식으로 기술 전문가로 인식합니다.

기록을 바로잡기 위해 저는 컴퓨터를 처음 접한 이후로 컴퓨팅의 사회적 영향에 몰두해 왔으며 마찬가지로 ACM도 그러한 주제에 깊이 관여했습니다.

AI 윤리 수칙에 대한 이 성명서가 ACM에 의해 정리되고 발표되었다는 사실에 놀란 사람은 이러한 문제에 대해 진행되고 있는 오랜 연구와 작업에 관심을 기울이지 않는 것입니다. 또한 관심 있는 분들은 ACM을 잘 살펴보시기 바랍니다. 윤리 강령, 수년에 걸쳐 발전해 왔으며 시스템 개발자가 자신의 노력과 제품의 윤리적 결과에 대해 인식하고 준수하고 경계해야 함을 강조하는 강력한 직업 윤리 강령입니다.

AI는 컴퓨팅 윤리에 대한 정보를 얻는 데 불을 지피고 있습니다.

컴퓨팅 분야에서 윤리적, 법적 고려 사항에 대한 가시성은 오늘날 AI의 출현과 함께 엄청나게 높아졌습니다. 전문직 종사자들은 AI 윤리 및 AI 법 문제에 적절한 주의를 기울이는 것에 대해 정보를 받고 있으며 때로는 북을 치고 있습니다. 입법자들은 점점 더 AI 윤리 및 AI 법률 측면을 인식하고 있습니다. 기업은 자신이 고안하거나 사용하는 AI가 장점이 있지만 때로는 막대한 위험과 잠재적인 단점이 있다는 생각에 현명하게 대처하고 있습니다.

이 최신 AI 윤리 강령으로 뛰어들기 전에 적절한 맥락을 확립할 수 있도록 지난 몇 년 동안 일어난 일을 풀어봅시다.

윤리적 AI에 대한 인식 증가

최근 AI 시대는 처음에는 좋은 AI, 인류의 개선을 위해 AI를 사용할 수 있음을 의미합니다. 발 뒤꿈치에 좋은 AI 우리도 몰입하고 있다는 사실을 깨달았습니다. 나쁜 인공 지능. 여기에는 차별적이 되도록 고안되거나 자체 변형되고 과도한 편견을 주입하는 계산 선택을 하는 AI가 포함됩니다. 때로는 AI가 그런 식으로 구축되는 반면, 다른 경우에는 그 방향으로 방향을 틀게 됩니다.

나는 우리가 오늘날 AI의 본질에 대해 같은 페이지에 있다는 것을 충분히 확인하고 싶습니다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI로 구성되어 있습니다. 우리가 지각 있는 AI에 대해 격렬하게 추측하고 싶다면 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다(초지능 AI를 가능성으로 탐색하려면 다음을 참조하십시오. 여기의 적용 범위).

나는 우리가 모든 것을 진실로 유지하고 오늘날의 컴퓨팅 비 지각 AI를 고려할 것을 강력히 제안합니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

오늘날의 AI를 의인화하는 데 매우 주의하십시오.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 이제 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 큽니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이 모든 것은 특히 AI 윤리와 관련하여 AI를 입법화하려고 할 때 배운 교훈(모든 교훈이 일어나기 전에도)을 쉽게 볼 수 있는 창을 제공합니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 그들은 우리가 이러한 인공 지능 법 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 인공 지능의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이전 칼럼에서 저는 AI를 규제하는 법률을 만들고 제정하기 위한 다양한 국내 및 국제적 노력을 다루었습니다. 여기 링크, 예를 들어. 나는 또한 거의 200개국이 채택한 유네스코 AI 윤리 세트와 같은 유엔 노력을 포함하여 다양한 국가에서 확인하고 채택한 다양한 AI 윤리 원칙과 지침을 다루었습니다. 여기 링크.

다음은 이전에 자세히 조사한 AI 시스템과 관련된 윤리적 AI 기준 또는 특성의 유용한 핵심 목록입니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

이러한 AI 윤리 원칙은 AI 개발 노력을 관리하는 AI 개발자와 함께 AI 개발자, 그리고 궁극적으로 AI 시스템을 현장에 배치하고 유지 관리하는 원칙과 함께 본격적으로 활용되어야 합니다.

개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람은 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 여기에서 앞서 강조했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며, 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

나는 또한 최근에 조사했다. AI 권리 장전 이는 미국 과학기술정책국(OSTP)의 XNUMX년 간의 노력의 결과인 "AI 권리장전 청사진: 미국인을 위한 자동화 시스템 작동"이라는 미국 정부 공식 문서의 공식 제목입니다. ). OSTP는 국가적으로 중요한 다양한 기술, 과학 및 엔지니어링 측면에 대해 미국 대통령과 미국 행정부에 자문을 제공하는 연방 기관입니다. 그런 의미에서 이 AI 권리장전은 기존의 미국 백악관에서 승인하고 승인한 문서라고 할 수 있습니다.

AI 권리장전에는 XNUMX가지 핵심 범주가 있습니다.

  • 안전하고 효과적인 시스템
  • 알고리즘 차별 보호
  • 데이터 개인 정보
  • 주의사항 및 설명
  • 인간의 대안, 고려 및 대체

나는 그 교훈을 주의 깊게 검토했습니다. 여기 링크.

이제 이러한 관련 AI 윤리 및 AI 법률 주제에 대한 유용한 토대를 마련했으므로 최근에 발표된 ACM "책임 있는 알고리즘 시스템에 대한 원칙에 관한 성명서"(문서 제목이 책임 알고리즘 시스템에 대해 이야기하는 것이 무엇을 의미하는지에 대한 내 평가를 살펴보고 싶을 수도 있습니다. 신뢰할 수 있는 AI참조 여기 링크).

이 최신 AI 윤리 원칙으로 여행할 준비를 하십시오.

ACM이 선언한 AI 윤리 수칙을 열심히 파고들다

윤리적 AI에 대한 ACM 선언은 다음과 같은 XNUMX가지 핵심 요소로 구성됩니다.

  • 합법성과 역량
  • 피해 최소화
  • 보안 및 개인 정보 보호
  • 투명도
  • 해석 가능성과 설명 가능성
  • 유지 보수성
  • 경쟁 가능성 및 감사 가능성
  • 책임과 책임
  • 환경 영향 제한

이 최신 세트를 다른 주목할만한 세트와 비교하면 그들 사이에 많은 유사성 또는 유사한 대응이 있습니다.

한편으로는 좋은 징조로 받아들일 수 있습니다.

우리는 일반적으로 주위를 맴도는 수많은 AI 윤리 원칙이 모두 동일한 전체 적용 범위를 향해 합쳐지기를 희망할 수 있습니다. 한 세트가 다른 세트와 어느 정도 비슷하다는 것을 보면 이 세트가 같은 야구장 내에 있고 어쩐지 혼란스러운 왼쪽 필드에 있지 않다는 자신감이 생깁니다.

일부 사람들의 잠재적인 불만은 이러한 다양한 세트가 거의 동일하게 보인다는 것입니다. 그러면 중복되는 것처럼 보이는 목록이 많이 있어서는 안 된다는 불안감으로 인해 혼란이 발생하거나 적어도 당황할 수 있습니다. 목록이 하나만 있을 수 없나요? 물론 문제는 이러한 모든 목록을 균일하게 정확히 동일하게 만드는 간단한 방법이 없다는 것입니다. 서로 다른 그룹과 서로 다른 주체는 서로 다른 방식으로 이에 접근했습니다. 좋은 소식은 그들이 거의 모두 동일한 중요한 결론에 도달했다는 것입니다. 세트마다 큰 차이가 없어 안심할 수 있습니다. 전반적인 합의가 없다면 불안할 수 있습니다.

반대론자는 이러한 목록의 공통점이 당혹스럽고 집단 사고가 진행 중일 수 있다고 주장할 수 있습니다. 아마도 이 모든 이질적인 그룹은 같은 방식으로 생각하고 규범을 넘어서는 것을 볼 수 없습니다. 우리 모두는 동일한 함정에 빠지고 있습니다. 목록은 표면적으로 우리의 생각을 고정시키고 있으며 우리는 우리 자신의 코 너머를 볼 수 없습니다.

코 너머를 보는 것은 의심할 여지 없이 가치 있는 일입니다.

나는 분명히 반대자들이 말해야 하는 것을 들을 준비가 되어 있습니다. 때때로 그들은 거대한 거대한 빙산으로 향합니다. 우리는 매의 눈으로 감시하는 몇 가지를 사용할 수 있습니다. 그러나 이러한 AI 윤리 원칙의 문제에서, 진행 중인 과도한 공통성에 대한 우려를 명백히 약화시키거나 제기하는 것으로 보이는 역발상자들에 의해 명확하게 표현된 것은 없습니다. 나는 우리가 잘하고 있다고 생각합니다.

이 ACM 세트에는 특히 주목할 가치가 있다고 생각되는 몇 가지 특히 주목할 만하거나 눈에 띄는 점이 있습니다.

첫째, 나는 표준과 다소 다른 최상위 표현을 좋아합니다.

예를 들어, 합법성과 역량 (첫 번째 글머리 기호 항목)은 AI와 관련된 디자이너 및 관리 역량의 중요성을 연상시킵니다. 또한, 합법성 캐치프레이즈는 결국 우리를 AI 윤리로 인도합니다. AI 법률 영역. 많은 AI 윤리 지침이 거의 전적으로 윤리적 의미에 집중하지만 법적 영향도 언급하는 것을 부끄러워하거나 생략하는 것처럼 보이기 때문에 이렇게 말합니다. 법률 분야에서 윤리적 고려 사항은 종종 "연성법"으로 선전되는 반면 책의 법률은 "경성법"(법정의 무게를 지님을 의미)으로 해석됩니다.

내가 가장 좋아하는 역대 명언 중 하나는 유명한 법학자 얼 워렌(Earl Warren)이 한 말입니다. "문명화된 삶에서 법은 윤리의 바다에 떠 있다."

우리는 AI 윤리 수칙이 AI 법률의 초안, 제정 및 시행에서와 같이 사물의 경성 측면도 포함하고 강조하는지 확인해야 합니다.

둘째, 목록에 다음이 포함되어 있다는 점에 감사드립니다. 경쟁 가능성 및 감사 가능성.

나는 당신이 AI 시스템의 대상이 될 때 이의를 제기하거나 위험 신호를 올릴 수 있는 것의 가치에 대해 반복해서 썼습니다. 여기 링크. 또한 직원 채용 및 승진에 사용되는 AI 시스템의 편향 감사에 관한 뉴욕시(NYC) 법률에 대해 자세히 논의한 바 있는 AI 시스템 감사를 강제하는 새로운 법률을 점점 더 보게 될 것입니다. 참조 여기 링크. 안타깝게도 NYC의 새 법률을 공개적으로 비판한 바와 같이 이러한 감사 가능성 법률에 결함이 있는 경우 해결하는 것보다 더 많은 문제를 야기할 수 있습니다.

셋째, AI가 지속 가능성 문제에 영향을 미칠 수 있다는 점을 점차 깨닫고 있습니다. 환경 주제는 이러한 AI 윤리 지침에서 최상위 청구를 받았습니다(목록의 마지막 항목 참조).

AI 시스템을 만드는 행위만으로도 많은 컴퓨팅 리소스를 소비할 수 있습니다. 이러한 컴퓨팅 리소스는 직간접적으로 지속 가능성 찬탈자가 될 수 있습니다. AI가 제공하는 이점과 AI와 함께 제공되는 비용에 대해 고려해야 할 트레이드 오프가 있습니다. ACM 글머리 기호의 마지막 항목은 AI에서 발생하는 지속 가능성 및 환경 고려 사항을 기록합니다. AI 관련 탄소 발자국 문제에 대한 내용은 다음을 참조하십시오. 여기 링크.

ACM의 AI 윤리 수칙 목록을 자세히 살펴보았으므로 이제 발끝을 물 속으로 더 깊이 넣습니다.

다음은 각 상위 수준 AI 윤리 지침에 대한 공식적인 설명입니다(공식 성명서에서 인용).

1. '합법성 및 역량: 알고리즘 시스템 설계자는 그러한 시스템을 구축하고 배포할 수 있는 관리 능력과 명시적 권한이 있어야 합니다. 그들은 또한 시스템의 의도된 사용에 대한 과학적 기반인 애플리케이션 도메인에 대한 전문 지식이 있어야 하며 시스템의 영향을 받는 이해 관계자가 사회적으로 합법적인 것으로 널리 간주되어야 합니다. 법적 및 윤리적 평가를 수행하여 시스템에 의해 도입된 모든 위험이 해결되는 문제에 비례하는지, 모든 관련 이해 관계자가 모든 이익-위해 트레이드 오프를 이해하는지 확인해야 합니다.”

2. '피해 최소화: 알고리즘 시스템의 관리자, 설계자, 개발자, 사용자 및 기타 이해 관계자는 설계, 구현 및 사용과 관련된 가능한 오류 및 편향과 시스템이 개인과 사회에 미칠 수 있는 잠재적 피해를 인식해야 합니다. 조직은 시스템이 피해, 특히 차별적 피해를 유발할 수 있는지 확인하고 적절한 완화 조치를 적용하기 위해 사용하는 시스템에 대한 영향 평가를 정기적으로 수행해야 합니다. 가능하면 차별적일 수 있는 과거 결정의 패턴만이 아니라 실제 성과 측정에서 배워야 합니다.”

3. '보안 및 개인 정보 보호: 알고리즘 시스템의 맥락에서 발생하는 새로운 취약성을 완화하기 위한 강력한 제어를 포함하여 시스템 수명 주기의 모든 단계에서 보안 및 개인 정보 보호 모범 사례를 도입하여 악의적인 당사자의 위험을 완화할 수 있습니다.”

4. '투명성 : 시스템 개발자는 개발, 교육, 검증 및 테스트를 위해 특정 데이터 세트, 변수 및 모델이 선택된 방식과 데이터 및 출력 품질을 보장하는 데 사용된 특정 조치를 명확하게 문서화하는 것이 좋습니다. 시스템은 각 출력에 대한 신뢰 수준을 표시해야 하며 신뢰도가 낮을 ​​때 사람이 개입해야 합니다. 개발자는 또한 잠재적 편향을 탐색하는 데 사용된 접근 방식을 문서화해야 합니다. 삶과 웰빙에 중대한 영향을 미치는 시스템의 경우 독립적인 검증 및 검증 절차가 필요합니다. 데이터 및 모델에 대한 공개 조사는 수정을 위한 최대 기회를 제공합니다. 따라서 개발자는 공익을 위해 타사 테스트를 용이하게 해야 합니다.”

5. '해석 가능성 및 설명 가능성: 알고리즘 시스템의 관리자는 사용된 알고리즘이 따르는 절차(해석 가능성)와 알고리즘이 내리는 특정 결정(설명 가능성)에 관한 정보를 생성하도록 권장됩니다. 설명 가능성은 정확성만큼이나 중요할 수 있으며, 특히 공공 정책 맥락이나 알고리듬이 인정 없이 한 그룹에 다른 그룹보다 이익이 되도록 왜곡될 수 있다는 우려가 있는 환경에서 그러합니다. 설명되는 결론에 도달하는 데 사용되는 증거 또는 의사 결정 과정을 반영하지 않는 설명과 사후 합리화를 구별하는 것이 중요합니다.”

6. '유지보수성: 모든 알고리즘 시스템의 건전성에 대한 증거는 시스템 요구 사항의 문서화, 변경 사항의 설계 또는 구현, 테스트 사례 및 결과, 발견 및 수정된 오류 로그를 포함하여 전체 수명 주기 동안 수집되어야 합니다. 적절한 유지 관리를 위해서는 새로운 교육 데이터로 시스템을 재교육하거나 사용된 모델을 교체해야 할 수 있습니다.”

7. '경쟁 가능성 및 감사 가능성: 규제 기관은 개인과 그룹이 결과에 의문을 제기하고 알고리즘 정보에 입각한 결정으로 인한 부작용에 대한 시정 조치를 모색할 수 있는 메커니즘의 채택을 장려해야 합니다. 관리자는 데이터, 모델, 알고리즘 및 결정이 기록되어 피해가 의심되거나 주장되는 경우 감사 및 결과 복제가 가능하도록 해야 합니다. 개인, 공익 단체 및 연구원이 개선 사항을 검토하고 권장할 수 있도록 감사 전략을 공개해야 합니다.”

8. '책임과 책임: 공공 및 민간 기관은 그들이 사용하는 알고리즘이 어떻게 결과를 산출했는지 자세히 설명하는 것이 가능하지 않더라도 그들이 사용하는 알고리즘에 의해 내려진 결정에 대해 책임을 져야 합니다. 이러한 기관은 주어진 시스템을 구성하는 개별 부분뿐만 아니라 특정 상황에 배치된 전체 시스템에 대해 책임을 져야 합니다. 자동화된 시스템에서 문제가 감지되면 해당 시스템을 배포하는 책임이 있는 조직은 문제를 해결하기 위해 취할 구체적인 조치와 그러한 기술의 사용을 중단하거나 종료해야 하는 상황을 문서화해야 합니다.”

9. '환경 영향 제한: 알고리즘 시스템은 교육 및 운영 계산 모두에서 탄소 배출량을 포함하여 환경 영향 추정치를 보고하도록 설계되어야 합니다. AI 시스템은 배치된 상황에서 요구되는 정확도 수준을 고려할 때 탄소 배출량이 합리적임을 보장하도록 설계되어야 합니다.”

나는 당신이 중요한 AI 윤리 지침 각각을 주의 깊게 이전에 읽었을 것이라고 믿습니다. 마음에 새겨주세요.

결론

ACM 선언에는 많은 사람들이 무심코 간과할 수 있는 미묘하지만 똑같이 중요한 부분이 있습니다. 이 점에 주의를 기울이도록 하겠습니다.

나는 AI 윤리 수칙과 관련된 장단점을 따져봐야 하는 고통스러운 수수께끼를 논의하는 부분을 언급하고 있습니다. 보시다시피, 대부분의 사람들은 Ethical AI 원칙을 읽을 때 생각 없이 고개를 끄덕이는 경우가 많으며 모든 교훈의 무게가 동일하고 모든 교훈에 항상 동일한 최적의 경의와 가치가 부여될 것이라고 가정합니다.

현실 세계에서는 아닙니다.

고무가 도로를 만났을 때 약간의 복잡성을 가진 모든 종류의 AI는 일부 다른 원칙보다 충분히 달성할 수 있는 요소에 대해 AI 윤리 원칙을 심하게 테스트할 것입니다. 모든 AI는 모든 AI 윤리 수칙을 최대화해야 한다고 큰소리로 외칠 수 있지만 이는 특별히 현실적이지 않습니다. 그것이 당신이 취하고 싶은 입장이라면 대부분의 또는 거의 모든 AI 제작자와 사용자에게 상점을 닫고 AI를 모두 치우라고 말해야 할 것입니다.

AI를 밖으로 내보내려면 타협이 필요합니다. 즉, AI 윤리 원칙을 위반하는 원칙을 무시하거나 AI 법률을 위반해야 한다고 암시하는 것이 아닙니다. 특정 최소값이 충족되어야 하며 그 이상의 목표는 더 많이 노력하는 것입니다. 결국 균형을 신중하게 판단해야 합니다. 이 균형 잡힌 행동은 신중하고 명시적이며 합법적으로 수행되어야 하며 AI 윤리를 선의의 진실한 신념으로 삼아야 합니다. 여기 링크).

다음은 ACM 선언에서 장단점 복잡성에 대해 언급한 몇 가지 글머리 기호 항목입니다(공식 문서에서 인용).

  • "솔루션은 복잡성이나 비용에 영향을 미치더라도 해결되는 문제에 비례해야 합니다(예: 단순한 예측 작업에 대한 공공 비디오 감시 사용 거부)."
  • “광범위한 성능 메트릭을 고려해야 하며 애플리케이션 도메인에 따라 가중치가 다르게 적용될 수 있습니다. 예를 들어, 일부 의료 응용 프로그램에서 위음성의 영향은 위양성보다 훨씬 더 나쁠 수 있는 반면, 형사 사법에서는 위양성(예: 무고한 사람 투옥)의 결과가 위음성보다 훨씬 더 나쁠 수 있습니다. 가장 바람직한 운영 체제 설정은 최대 정확도를 가진 경우가 거의 없습니다.”
  • "프라이버시, 영업 비밀 보호 또는 악의적인 행위자가 시스템을 조작할 수 있는 분석 공개에 대한 우려는 적격한 개인에 대한 액세스 제한을 정당화할 수 있지만 제XNUMX자 조사 제한을 정당화하거나 개발자의 의무를 면제하는 데 사용되어서는 안 됩니다. 오류를 인정하고 수정합니다.”
  • “알고리즘 시스템의 영향을 받는 이해관계자가 발생한 피해에 대해 의미 있는 보상을 모색할 수 있도록 하는 책임 프로세스와 투명성이 결합되어야 합니다. 시스템을 합법화하거나 다른 당사자에게 책임을 전가하기 위해 투명성을 사용해서는 안 됩니다.”
  • “시스템의 영향이 크면 더 설명하기 쉬운 시스템이 바람직할 수 있습니다. 대부분의 경우 설명 가능성과 정확성 사이에는 트레이드 오프가 없습니다. 그러나 일부 맥락에서 잘못된 설명은 설명이 없는 것보다 훨씬 나쁠 수 있습니다(예: 의료 시스템에서 증상은 하나가 아니라 많은 가능한 질병에 해당할 수 있음).”

AI를 개발하거나 사용하는 사람들은 그들이 직면한 장단점을 명백히 인식하지 못할 수 있습니다. 회사의 최고 경영진은 AI가 모든 AI 윤리 원칙의 최대치를 충족한다고 순진하게 가정할 수 있습니다. 그들은 AI에 대해 무지하기 때문에 이것을 믿거나, 이것을 믿고 싶어하고 아마도 AI를 쉽게 채택하기 위해 윙크를 하고 있을 것입니다.

실질적이고 공개적으로 트레이드 오프에 맞서지 못하면 AI가 해를 끼칠 가능성이 있습니다. 이러한 피해로 인해 회사는 잠재적으로 대규모 부채에 노출될 가능성이 높습니다. 게다가 기존의 법은 AI와 관련된 가능한 범죄 행위에 대해 영향을 미칠 수 있으며, 새로운 AI에 초점을 맞춘 법도 이에 영향을 미칠 수 있습니다. 절충안을 피할 수 있다고 생각하거나 절충안이 존재한다는 사실을 전혀 알지 못하는 사람들의 머리 위에는 엄청난 양의 벽돌이 기다리고 있습니다.

나는 이 윤리적 AI 교훈이 거시적으로 목표로 하는 것을 설명하는 강력한 작업을 수행한다고 생각하기 때문에 ACM 선언문의 결론 부분에 이 주제에 대한 마지막 말을 할 것입니다.

  • “앞서 언급한 권장 사항은 알고리즘 시스템의 책임 있는 설계, 개발 및 사용에 중점을 둡니다. 책임은 법률과 공공 정책에 의해 결정되어야 합니다. 알고리즘 시스템의 힘이 증가하고 생명에 결정적이며 결과적인 응용 프로그램에서의 사용은 이를 사용하는 데 큰 주의를 기울여야 함을 의미합니다. 이 XNUMX가지 도구 원칙은 신뢰성, 안전 및 책임을 촉진하면서 광범위한 사용자에게 혜택을 제공하기 위해 토론 시작, 연구 시작 및 거버넌스 방법 개발에 영감을 주기 위한 것입니다. 결국 영향을 받는 모든 이해 관계자의 대표와 협력하여 알고리즘 시스템의 올바른 설계 및 사용을 정의하는 것은 특정 컨텍스트입니다”(공식 문서에서 인용).

지혜의 말씀이 우리에게 알려주듯, 천 리 길도 첫걸음부터 시작됩니다.

AI 윤리 및 AI 법에 익숙해지고 첫 단계를 밟아 진행한 다음 이러한 중요한 노력을 수행하는 데 도움을 주기를 간청합니다. 아름다움은 우리가 아직 AI를 관리하고 사회적으로 대처하는 방법을 수집하는 초기 단계에 있다는 것입니다.

AI 여정은 이제 막 시작되었으며 중요한 첫 단계는 아직 진행 중입니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-spected-computing- 직업 협회-the-acm/