AI 윤리 및 AI 법률, AI를 전면적으로 사용하는 것을 포함하여 놀랍게도 최근에 발표된 AI 권리 장전을 구현하는 핵심 방법

우리의 일상 생활에 청사진이 필요하다는 것은 의심의 여지가 없습니다.

오랫동안 꿈꿔온 꿈의 집을 짓고 싶다면 먼저 사용 가능한 청사진을 준비하는 것이 현명할 것입니다.

청사진은 눈을 크게 뜨고 선견지명이 있는 관점이 무엇이든지 간에 가시적이고 문서화된 방식으로 보여줍니다. 소중한 농가를 건설하도록 요청받을 사람들은 청사진을 참조하고 작업을 완료하는 방법에 대한 세부 사항을 정리할 수 있습니다. 청사진은 편리합니다. 청사진이 없으면 복잡한 잡일이나 프로젝트를 처리하는 데 문제가 될 수밖에 없습니다.

청사진에 대한 다소 감상적이지만 진정한 찬사를 인공 지능(AI) 영역으로 전환해 보겠습니다.

AI에 실질적으로 관심이 있는 사람들은 중요한 정책 지향성이 청사진 AI의 미래와 관련하여 최근 미국에서 출시되었습니다. 비공식적으로 알려진 AI 권리 장전, 선언된 백서의 공식 제목은 "AI 권리장전을 위한 청사진: 미국인을 위한 자동화 시스템 작동"이며 온라인에서 쉽게 구할 수 있습니다.

이 문서는 과학기술정책국(OSTP)의 1970년 간의 노력과 신중한 연구의 결과입니다. OSTP는 XNUMX년대 중반에 설립된 연방 기관으로 국가적으로 중요한 다양한 기술, 과학 및 엔지니어링 측면에 대해 미국 대통령과 미국 행정부에 조언하는 역할을 합니다. 그런 의미에서 이 AI 권리장전은 기존의 미국 백악관에서 승인하고 승인한 문서라고 할 수 있습니다.

AI 권리 장전은 인권 우리 일상에 AI의 도래와 관련하여 인류가 가져야 할 것입니다. 나는 처음에 이것이 인공지능이 법적 인격을 갖고 있다는 일종의 인정이고 이것이 지각 있는 인공지능과 인간형 로봇의 권리에 대한 호칭이라고 의아해하는 사람들이 있기 때문에 이 중요한 점을 강조합니다. 아니, 우리는 아직 거기에 없습니다. 잠시 후 보게 되겠지만, 우리는 달리 말해주는 것처럼 보이는 배너 헤드라인에도 불구하고 지각 있는 AI에 가깝지 않습니다.

자, 그렇다면 AI 시대에 인권을 설명하는 청사진이 필요할까요?

예, 우리는 가장 확신합니다.

AI가 이미 점점 더 우리의 권리를 침해하고 있다는 사실을 모르려면 동굴에 갇히고 인터넷에 액세스할 수 없을 것입니다. 최근 AI 시대는 처음에는 좋은 AI, 인류의 개선을 위해 AI를 사용할 수 있음을 의미합니다. 발 뒤꿈치에 좋은 AI 우리도 몰입하고 있다는 사실을 깨달았습니다. 나쁜 인공 지능. 여기에는 차별적이 되도록 고안되거나 자체 변형되고 과도한 편견을 주입하는 계산 선택을 하는 AI가 포함됩니다. 때로는 AI가 그런 식으로 구축되는 반면, 다른 경우에는 그 방향으로 방향을 틀게 됩니다.

AI 법, AI 윤리 및 기타 주요 AI 기술 및 사회 동향에 대한 지속적이고 광범위한 범위와 분석을 보려면 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

AI 권리 장전 풀기

나는 이전에 AI 권리 장전을 논의했으며 여기에서 간단히 요약할 것입니다.

여담으로, 최근에 발표된 AI 권리장전의 장단점에 대해 자세히 알고 싶으시다면, 변호사참조 여기 링크. 그만큼 변호사 는 법대생 기자, 편집자, 평론가, 특파원 및 콘텐츠 개발자로 구성된 글로벌 팀이 운영하는 수상 경력에 빛나는 법률 뉴스 서비스로 널리 알려진 유명한 법률 뉴스 및 논평 온라인 사이트이며, 본사는 University of Pittsburgh School of 25년 전에 시작된 Pittsburgh의 법률. 훌륭하고 열심히 일하는 팀에게 인사 변호사.

AI 권리장전에는 XNUMX가지 핵심 범주가 있습니다.

  • 안전하고 효과적인 시스템
  • 알고리즘 차별 보호
  • 데이터 개인 정보
  • 주의사항 및 설명
  • 인간의 대안, 고려 및 대체

XNUMX에서 XNUMX까지 번호를 매기지 않은 것에 주목하세요. 그렇게 하는 것은 그것들이 특정한 순서에 있거나 권리 중 하나가 다른 것보다 겉보기에 더 중요하다는 것을 의미할 수 있기 때문입니다. 우리는 그것들이 각각의 장점이라고 가정합니다. 그들은 모두 어떤 의미에서 동등하게 공로를 가지고 있습니다.

각각의 구성 요소에 대한 간략한 표시로 다음은 공식 백서에서 발췌한 내용입니다.

  • 안전하고 효과적인 시스템: “안전하지 않거나 비효율적인 시스템으로부터 보호받아야 합니다. 자동화 시스템은 시스템의 우려 사항, 위험 및 잠재적 영향을 식별하기 위해 다양한 커뮤니티, 이해 관계자 및 도메인 전문가와의 협의를 통해 개발되어야 합니다."
  • 알고리즘 차별 보호: “알고리즘에 의한 차별에 직면해서는 안 되며 시스템을 공평하게 사용하고 설계해야 합니다. 알고리즘 차별은 자동화 시스템이 인종, 피부색, 민족성, 성별(임신, 출산 및 관련 의학적 상태, 성 정체성, 간성 상태 및 성적 취향 포함), 종교, 연령을 기반으로 부당하게 다른 대우를 하거나 불리한 사람들에게 영향을 미칠 때 발생합니다. , 출신 국가, 장애, 군복무 상태, 유전 정보 또는 법으로 보호되는 기타 분류."
  • 데이터 프라이버시 : “내장된 보호 기능을 통해 악의적인 데이터 관행으로부터 보호해야 하며 귀하에 대한 데이터가 사용되는 방식에 대한 대리인이 있어야 합니다. 데이터 수집이 합당한 기대치를 충족하고 특정 상황에 꼭 필요한 데이터만 수집되도록 하는 것을 포함하여 이러한 보호가 기본적으로 포함되도록 하는 디자인 선택을 통해 개인 정보 침해로부터 보호해야 합니다.”
  • 고시 및 설명: “자동화 시스템이 사용되고 있다는 것을 알아야 하고 그것이 당신에게 영향을 미치는 결과에 어떻게 그리고 왜 기여하는지 이해해야 합니다. 자동화 시스템의 설계자, 개발자 및 배포자는 전체 시스템 기능과 자동화가 수행하는 역할에 대한 명확한 설명을 포함하여 일반적으로 접근 가능한 일반 언어 문서를 제공해야 합니다. 명확하고 시의적절하며 접근 가능한 결과를 얻을 수 있습니다."
  • 인간의 대안, 고려 및 대체: “적절한 경우 선택 해제할 수 있어야 하며 직면한 문제를 신속하게 고려하고 해결할 수 있는 사람과 연락할 수 있어야 합니다. 적절한 경우 인간의 대안을 위해 자동화된 시스템에서 옵트아웃할 수 있어야 합니다.”

대체로 이들은 AI 윤리 및 AI 법률의 맥락에서 꽤 오랫동안 묶여져 온 인권의 측면입니다. 다음과 같은 내 보도를 참조하십시오. 여기 링크. 백서는 AI 시대 맥락에서 지금까지 해명되지 않은 새로 발견되거나 발굴된 권리에 대해 마술처럼 모자에서 토끼를 꺼내지 않는 것 같습니다.

괜찮아요.

그것들을 하나의 깔끔하게 포장되고 형식화된 컬렉션으로 편집하는 것이 중요한 서비스를 제공한다고 주장할 수 있습니다. 또한, 칭찬받는 사람으로 기름 부음을 받음으로써 AI 권리 장전, 이것은 공공 영역의 의식에 전체 문제를 명백하고 능숙하게 추가합니다. 기존의 수많은 이질적인 토론을 단일 세트로 통합하여 이제 모든 이해 관계자에게 전달되고 전달할 수 있습니다.

발표된 AI 권리 장전에 대한 호의적인 반응 목록을 제공하겠습니다.

  • 핵심 원칙의 필수 편집 제공
  • 구축을 위한 청사진 또는 기반 역할
  • 행동을 촉구하는 목소리로 행동합니다.
  • 관심을 자극하고 이것이 진지한 고려 사항임을 보여줍니다.
  • 여러 가지 다양한 토론을 한데 모아
  • 윤리적 AI 채택 노력을 촉진하고 기여합니다.
  • 의심할 여지 없이 AI 법률 제정에 영향을 미칠 것입니다.
  • 기타

우리는 또한 해야 할 일이 훨씬 더 많고 이것이 AI를 관리하는 험난한 여정의 긴 여정의 시작일 뿐이라는 점을 고려하여 좋지 않은 반응을 고려해야 합니다.

따라서 AI 권리 장전에 대한 다소 가혹하거나 건설적인 비판은 다음과 같습니다.

  • 법적으로 집행할 수 없고 완전히 구속력이 없음
  • 자문만 가능하며 정부 정책으로 고려되지 않음
  • 다른 출판물에 비해 덜 포괄적임
  • 주로 광범위한 개념으로 구성되며 구현 세부 정보가 부족합니다.
  • 실천 가능한 실천법칙으로의 전환에 도전할 것
  • 일부 상황에서 AI를 금지할 가능성이 있는 문제에 대해 침묵하는 것처럼 보입니다.
  • 잘 고안된 AI 사용의 이점을 약간 인정
  • 기타

아마도 가장 저명한 신랄한 논평은 이 AI 권리 장전이 법적으로 집행될 수 없으며 따라서 명확한 목표를 설정하는 데 있어 아무런 문제가 없다는 사실에 집중했을 것입니다. 어떤 사람들은 백서가 도움이 되고 격려가 되기는 하지만 결정적으로 이빨이 부족하다고 말했습니다. 그들은 속이 텅 비었다고 하는 멋진 계율에서 무엇이 나올 수 있는지에 대해 의문을 제기합니다.

그 욕설은 잠시 후에 다루겠습니다.

한편, 백서는 이 AI 권리 장전이 수반하는 한계를 풍부하게 명시하고 있습니다.

  • “AI 권리장전 청사진은 구속력이 없으며 미국 정부 정책을 구성하지 않습니다. 기존 법령, 규정, 정책 또는 국제 문서를 대체하거나 수정하거나 해석을 지시하지 않습니다. 이는 공공 또는 연방 기관에 대한 구속력 있는 지침을 구성하지 않으므로 여기에 설명된 원칙을 준수할 필요가 없습니다. 또한 어떤 국제 협상에서 미국 정부의 입장이 결정되지도 않습니다. 이러한 원칙의 채택은 기존 법령, 규정, 정책 또는 국제 문서의 요구 사항 또는 이를 시행하는 연방 기관의 요구 사항을 충족하지 않을 수 있습니다. 이러한 원칙은 법 집행, 국가 안보 또는 정보 활동을 포함하여 정부 기관의 합법적인 활동을 금지하거나 제한하지 않으며 금지하지도 않습니다”(백서 기준).

AI 권리 장전을 법적 구속력이 없는 것으로 빠르게 축소한 사람들을 위해 그 신랄한 주장에 대해 약간의 사고 실험을 해 보겠습니다. 백서가 공개되어 법의 완전한 효력을 가졌다고 가정합니다. 그 결과는 적어도 선언문에 대한 법적, 사회적 반응의 정도에 따라 다소 파국적일 것이라고 감히 말씀드립니다.

입법자들은 그러한 법률을 제정하는 데 있어 규범적 절차와 법적 절차를 수행하지 않았다는 사실에 대해 무기를 들고 있을 것입니다. 기업은 정당하게도 그러한 법률이 무엇인지에 대한 충분한 통지와 인식 없이 새로운 법률이 제정되도록 분노할 것입니다. 온갖 종류의 경악과 분노가 뒤따를 것입니다.

AI 시대에 인류의 권리를 확고히 하는 쪽으로 끌리는 좋은 방법은 아니다.

내가 일찍이 청사진의 가치와 활력을 언급함으로써 이 논의를 시작했다는 것을 기억하십시오.

누군가가 청사진 제작 단계를 건너뛰고 바로 꿈의 집을 짓기 시작했다고 상상해 보십시오. 집이 어떻게 생겼을 것 같니? 그 집은 당신이 생각한 것과 특별히 일치하지 않을 것입니다. 결과 농가는 완전히 엉망이 될 수 있습니다.

요점은 우리에게 청사진이 필요하고 이제 현명한 AI 법률을 파악하고 윤리적 AI 채택을 강화하기 위해 청사진이 있다는 것입니다.

따라서 저는 이 AI 권리장전 청사진이 말 그대로 집으로 바뀔 수 있는 방법을 다루고 싶습니다. 청사진을 어떻게 활용할 것인가? 적절한 다음 단계는 무엇입니까? 이 청사진으로 충분합니까, 아니면 뼈에 더 많은 고기가 필요합니까?

이 중요한 문제로 넘어가기 전에 먼저 AI의 본질과 오늘날의 상태가 무엇인지에 대해 모두 같은 생각을 하고 있는지 확인하고 싶습니다.

오늘날의 AI에 대한 기록을 바로 세우다

저는 매우 단호한 말씀을 드리고 싶습니다.

준비되셨습니까?

오늘날 지각 있는 AI는 없습니다.

우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI로 구성되어 있습니다. 우리가 지각 있는 AI에 대해 격렬하게 추측하고 싶다면 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다(초지능 AI를 가능성으로 탐색하려면 다음을 참조하십시오. 여기의 적용 범위).

나는 우리가 모든 것을 진실로 유지하고 오늘날의 컴퓨팅 비 지각 AI를 고려할 것을 강력히 제안합니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

오늘날의 AI를 의인화하는 데 매우 주의하십시오.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 이제 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 큽니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이 모든 것은 특히 AI 윤리와 관련하여 AI를 입법화하려고 할 때 배운 교훈(모든 교훈이 일어나기 전에도)을 쉽게 볼 수 있는 창을 제공합니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 그들은 우리가 이러한 인공 지능 법 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 인공 지능의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다.

이전 칼럼에서 저는 AI를 규제하는 법률을 만들고 제정하기 위한 다양한 국내 및 국제적 노력을 다루었습니다. 여기 링크, 예를 들어. 나는 또한 거의 200개국이 채택한 유네스코 AI 윤리 세트와 같은 유엔 노력을 포함하여 다양한 국가에서 확인하고 채택한 다양한 AI 윤리 원칙과 지침을 다루었습니다. 여기 링크.

다음은 이전에 자세히 조사한 AI 시스템과 관련된 윤리적 AI 기준 또는 특성의 유용한 핵심 목록입니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

이러한 AI 윤리 원칙은 AI 개발 노력을 관리하는 AI 개발자와 함께 AI 개발자, 그리고 궁극적으로 AI 시스템을 현장에 배치하고 유지 관리하는 원칙과 함께 본격적으로 활용되어야 합니다.

개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 여기에서 앞서 강조했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며, 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

유용한 기반을 마련했으므로 이제 AI 권리 장전을 자세히 알아볼 준비가 되었습니다.

AI 권리 장전을 구현하는 XNUMX가지 필수 방법

누군가 당신에게 청사진을 건네며 일하러 가라고 말합니다.

당신은 무엇을해야합니까?

AI 권리 장전의 청사진의 경우 다음 네 가지 필수 단계를 고려하십시오.

  • AI 법률 공식화에 대한 정보 제공: 청사진을 사용하여 AI 법률을 공식화하는 데 도움을 받으십시오. 연방, 주 및 지역 수준에서 일치된 기반으로 그렇게 하기를 바랍니다(아마도 국제 AI 법적 노력을 지원할 수도 있음).
  • AI 윤리를 더 널리 채택하도록 지원: 청사진을 사용하여 AI 윤리 공식(법적으로 구속력이 있는 "강력한 법률"과 비교하여 "연성 법률"이라고도 함)을 촉진하여 기업, 개인, 정부 기관 및 기타 지지층에게 더 우수하고 일관된 윤리를 장려하고 안내합니다. AI 결과.
  • Shape AI 개발 활동: 청사진을 사용하여 AI 개발 방법론 및 교육 측면의 생성에 박차를 가하여 AI 개발자와 AI를 현장에 적용하거나 채용하는 사람들이 바람직한 AI 윤리 지침과 기대에 따라 AI를 고안하는 방법을 더 잘 인식하도록 하십시오. 임박한 AI 법률이 제정될 예정입니다.
  • AI 제어를 지원하기 위해 AI의 출현 동기: 청사진을 사용하여 불리한 영역으로 방향을 틀 수 있는 다른 AI에 대한 견제와 균형을 시도하고 제공하는 데 사용할 AI를 고안하십시오. 이것은 우리가 표면상으로 우려하는 바로 그 것을 우리를 보호하는 데 (아이러니하게도 말할 수 있음) 사용할 수 있는 거시적 관점 중 하나입니다.

칼럼 포스팅 전반에 걸쳐 앞서 언급한 XNUMX단계 각각에 대해 논의했습니다.

여기에서 논의하기 위해 나는 나열된 네 번째 단계, 즉 AI 권리 장전이 AI 제어를 지원하는 AI의 도래에 대한 동기 부여 역할을 할 수 있다는 점에 초점을 맞추고 싶습니다. 이것은 아직 이 AI 발전 영역에 완전히 들어가지 않은 많은 사람들에게 다소 충격적이거나 놀라운 단계입니다.

좀 더 자세히 설명하겠습니다.

간단한 비유가 트릭을 수행해야 합니다. 오늘날 우리 모두는 사이버 보안 침해와 해커 침입에 익숙합니다. 거의 매일 우리는 사악한 행악자가 우리 데이터를 훔치거나 랩톱에 지독한 랜섬웨어를 설치하도록 허용하는 컴퓨터의 최신 허점에 대해 듣거나 영향을 받습니다.

이러한 비열한 시도에 맞서 싸우는 한 가지 방법은 이러한 침입을 방지하려는 특수 소프트웨어를 사용하는 것입니다. 집이나 직장에 있는 컴퓨터에 안티바이러스 소프트웨어 패키지가 있을 것이 거의 확실합니다. 스마트폰에 비슷한 것이 있는지 여부에 관계없이 스마트폰에 비슷한 것이 있을 수 있습니다.

내 요점은 때때로 당신이 불로 불과 싸워야 한다는 것입니다. 여기 링크여기 링크).

장황한 영역에 도달하는 AI의 경우 나쁜 인공 지능, 우리는 사용을 추구할 수 있습니다 좋은 AI 그 악의적인 나쁜 인공 지능. 물론 이것은 기적의 치료법이 아닙니다. 아시다시피, 우리 컴퓨터에 침입하려는 악의적 행위자와 사이버 보안 보호의 발전 사이에는 끊임없는 고양이와 쥐 싸움이 벌어지고 있습니다. 거의 끝이 없는 게임입니다.

우리는 AI를 사용하여 금지된 길을 간 AI를 처리할 수 있습니다. 그렇게 하면 도움이 될 것입니다. 표적이 되는 불리한 AI는 그러한 보호를 피하기 위해 고안될 것이 거의 확실하기 때문에 특히 은총알이 되지는 않을 것입니다. 이것은 AI 대 AI의 지속적인 고양이와 쥐가 될 것입니다.

어쨌든 우리가 우리 자신을 보호하기 위해 사용하는 AI는 나쁜 AI로부터 어느 정도 보호를 제공할 것입니다. 따라서 우리는 틀림없이 우리를 보호하거나 보호할 수 있는 AI를 고안해야 합니다. 그리고 우리는 나쁜 AI가 조정됨에 따라 조정되는 보호 AI를 만드는 방법도 모색해야 합니다. 번개 같은 속도의 고양이와 쥐의 맹렬한 유사가 있을 것입니다.

모든 사람이 AI의 역할 확대를 좋아하는 것은 아닙니다.

이미 AI를 동질의 무정형 재벌로 인식하고 있는 사람들은 AI 대 AI로 위장한 이 게임에서 소름과 악몽을 겪을 것입니다. 우리가 불을 불에 대고 불을 피우려 한다면, 어쩌면 우리는 더 큰 불을 피우고 있는 것일 수도 있습니다. AI는 우리가 더 이상 통제할 수 없는 거대한 모닥불이 될 것이며 인류를 노예로 만들거나 지구에서 우리를 쓸어버릴 것입니다. AI를 실존적 위험으로 논의할 때 우리는 일반적으로 모든 AI가 함께 뭉칠 것이라고 믿게 됩니다. 이러한 문제에 대한 논의는 다음에서 참조하십시오. 여기 링크. 알다시피, 우리는 AI의 모든 조각이 그 형제 AI를 붙잡고 하나의 대군주 단일 가족이 될 것이라고 들었습니다.

이것이 바로 XNUMX대XNUMX, XNUMX대 모두 마피아가 되는 지각 있는 AI의 끔찍하고 불안한 시나리오입니다.

언젠가 이런 일이 일어날 수 있다는 추측을 자유롭게 할 수 있지만, 현재로서는 오늘날 우리가 가지고 있는 AI가 서로 공모할 특별한 방법이 없는 분리된 이질적인 AI 프로그램의 트럭으로 구성되어 있음을 확신합니다.

그렇다고 인공지능 음모론을 열렬히 믿는 사람들은 내가 의도적으로 진실을 숨기기 위해 말한 것이라고 주장할 것이라고 확신한다. 아하! 아마도 나는 이미 거대한 AI 인수를 계획하고 있는 오늘날의 AI에 의해 보상을 받고 있을지도 모릅니다(예, AI 대군주가 지배하면 부를 탐닉할 것입니다). 또는 저는 이 다른 각도를 선호하지 않습니다. 아마도 저는 AI가 우리 뒤에서 어떻게 비밀리에 음모를 꾸미고 있는지 맹목적으로 모를 것입니다. 나는 우리가 AI 쿠데타의 일부인지 아니면 AI 비참한 패티(아, 아프다)의 일부인지 기다려야 할 것 같아요.

세속적인 고려 사항으로 돌아가서 현대 AI가 AI 권리 장전의 구현을 지원하는 데 어떻게 사용될 수 있는지 간략하게 살펴보겠습니다. 나는 이것을 편리하고 요약해서 다음과 같이 언급할 것이다. 좋은 AI.

우리는 AI 권리 장전(Bill of Rights)에 구현된 XNUMX가지 핵심 요소를 사용할 것입니다.

  • 홍보에 좋은 AI 안전하고 효과적인 시스템: AI 시스템의 대상이 되거나 사용할 때마다 Good AI는 활용 중인 AI가 안전하지 않거나 비효율적인지 파악하려고 합니다. 이러한 탐지 시 Good AI는 사용자에게 경고하거나 Bad AI 차단을 포함한 기타 조치를 취할 수 있습니다.
  • 제공하기에 좋은 AI 알고리즘 차별 보호: 차별적 알고리즘을 포함할 수 있는 AI 시스템을 사용하는 동안, 좋은 AI 귀하를 위한 부적절한 보호가 있는지 확인하고 사용 중인 AI에 부당한 편견이 실제로 존재하는지 확인하려고 합니다. Good AI는 AI 법률 및 법적 요구 사항에 규정된 대로 다른 AI를 다양한 당국에 자동으로 보고할 수 있으며 잠재적으로 정보를 제공할 수 있습니다.
  • 보존에 좋은 AI 데이터 개인 정보: 이러한 유형의 Good AI는 데이터 개인 정보 침해로부터 사용자를 보호하려고 합니다. 다른 AI가 당신에게 진정으로 필요하지 않은 데이터를 요청하려고 할 때 Good AI는 당신에게 초과 행동을 알려줄 것입니다. Good AI는 또한 잠재적으로 다른 AI에 제공될 때 데이터 개인 정보 보호 권리를 유지하는 방식으로 데이터를 마스킹할 수 있습니다. 등.
  • 구축에 좋은 AI 공지 및 설명: 우리는 모두 적절하고 적절한 알림을 제공하지 못하고 슬프게도 행동에 대한 적절한 설명을 보여주지 못하는 AI 시스템을 접하게 될 것입니다. 좋은 AI는 다른 AI를 해석하거나 질문하여 제공했어야 하는 알림과 설명을 잠재적으로 식별할 수 있습니다. 주어진 경우에 그것이 가능하지 않더라도 Good AI는 최소한 다른 AI의 결함에 대해 경고하고 규정된 AI 법률 및 법적 요구 사항에 따라 지정된 기관에 AI를 보고할 수 있습니다.
  • 제공하기에 좋은 AI 인간의 대안, 고려 및 대체: AI 시스템을 사용 중이고 AI가 당면한 작업에 적합하지 않은 것 같다고 가정합니다. 상황이 좋지 않다는 것을 깨닫지 못하거나 상황에 대해 어떻게 해야 할지 다소 조심스럽고 확신이 서지 않을 수 있습니다. 이러한 경우 Good AI는 다른 AI가 무엇을 하고 있는지 조용히 조사하고 해당 AI에 대한 중요한 우려를 경고할 수 있습니다. 그런 다음 AI에 대한 인간 대안을 요청하라는 메시지가 표시됩니다(또는 Good AI가 대신 요청할 수 있음).

이러한 종류의 방법을 더 이해하려면 좋은 AI 내가 일반적으로 AI 수호 천사라고 부르는 것에 대한 인기 있고 높은 평가를 받은 AI 책("톱 XNUMX"으로 언급된 것을 영광으로 생각함)을 참조하십시오. 여기 링크.

결론

무슨 생각하는지 알아. 우리를 보호하기 위해 고안된 Good AI가 있다면 Good AI가 부패하여 Bad AI가 된다고 가정해 봅시다. 유명하거나 악명 높은 라틴어 캐치프레이즈는 이 가능성과 완전히 관련이 있는 것 같습니다. custodiet ipsos custodes를 종료 하시겠습니까?

이 문구는 로마 시인 Juvenal에 기인하며 그의 작품에서 찾을 수 있습니다. 풍자, 그리고 누가 경비원 자신을 지키거나 감시할 것인지의 의미로 느슨하게 번역될 수 있습니다. 다음과 같은 많은 영화 및 TV 프로그램 스타 트렉 이 라인을 반복적으로 활용했습니다.

그것은 분명 훌륭한 포인트이기 때문입니다.

물론 제정된 모든 AI 법률은 나쁜 AI와 나쁜 AI를 모두 포함해야 합니다. 그렇기 때문에 합리적이고 포괄적인 AI 법률을 작성하는 것이 중요할 것입니다. 임의의 법률적 논리를 벽에 던져버리고 AI 법률과 관련하여 고수되기를 바라는 의원들은 목표를 완전히 놓치고 있음을 알게 될 것입니다.

우리는 필요하지 않습니다.

우리는 부적절하게 제정된 AI 법률에 대처할 시간과 사회적 비용을 감당할 수 없습니다. 나는 유감스럽게도 때때로 우리가 잘못 구성되고 온갖 종류의 법적 문제로 가득 찬 새로운 AI 관련 법률을 목격하고 있다는 점을 지적했습니다. 여기 링크.

AI와 관련하여 현재 손에 들고 있는 AI 권리장전 청사진을 적절하게 사용하도록 합시다. 우리가 청사진을 무시한다면, 우리는 게임을 강화하는 것을 놓쳤습니다. 청사진을 잘못 구현하면 유용한 기반을 찬탈한 것에 대해 수치심을 느끼게 됩니다.

존경받는 로마 시인 Juvenal은 이 상황에서 활용할 수 있는 다른 말을 했습니다. corpore sano의 아니마 사나.

일반적으로 이것은 건전하거나 건전한 정신과 건전하거나 건전한 신체를 모두 갖는 것이 현명할 것이라는 주장으로 해석됩니다. Juvenal에 따르면 이것은 우리가 어떤 종류의 수고도 견딜 수 있게 하며 평화 또는 미덕의 삶으로 가는 유일한 길이 될 것입니다.

건전한 정신과 건전한 신체를 사용하여 인류가 유비쿼터스, 때로는 AI에 반대하는 신흥 세계에서 우리의 인권이 보호되고 견고하게 강화되도록 해야 할 때입니다. 이것은 AI 펠멜(pell-mell) 시대와 결정적으로 좋은 AI와 나쁜 AI로 가득 찬 미래에서 오늘날의 서두름에서 우리가 따라야 하는 로마인의 건전한 조언입니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- ai를 완전히 포함하고 놀라울 정도로 권리장전/