자율 주행 자동차를 포함한 신뢰할 수 있는 내부자에 의한 AI 기계 학습의 부당한 착취 또는 도핑 증가에 대한 AI 윤리 경각심

착즙과 도핑.

도핑과 착즙.

우리 모두는 다양한 스포츠에서 안타깝게도 의존하고 있는 경기력 향상 약물의 지속적이고 은밀한 사용에 대해 알고 있습니다. 이는 프로 스포츠에서도, 심지어 아마추어 스포츠에서도 발생합니다. 이론상으로는 인간의 능력 한계와 인류 전체에 걸친 최고의 극단을 순수하게 보여 주는 전 세계적으로 존경받는 대회인 올림픽에서 이런 일이 일어납니다.

착즙과 도핑 행위에는 일종의 만연함이 있습니다. 스포츠계 인사들은 XNUMX위를 차지해야 한다는 엄청난 압력을 받고 있으며, 거기에 도달하기 위해 가능한 모든 수단을 사용하고 싶은 유혹을 느낍니다. 주스나 도핑의 가능성으로 인해 대부분의 스포츠는 아니더라도 많은 스포츠가 그러한 노력을 잘못하는 사람들을 저지하고 잡기 위한 절차와 조치를 도입한 것을 확인했습니다. 누군가가 주스나 도핑을 하다가 적발되면 스포츠 메달이 취소될 위험이 있습니다. 게다가 그들은 지지자들과 스폰서들로부터 버림받을 가능성이 높습니다. 평판에 대한 엄청난 위험에 대한 인식은 주스나 도핑이라는 우연한 행위와 밀접하게 연관되어 있습니다.

특정 스포츠에서 '최고'가 되기를 원하는 사람들은 둘 사이에서 갈등을 겪습니다. 지원 경기력 향상 약물을 사용하고 불법적이거나 적어도 비윤리적인 물질을 사용하는 것을 선택합니다. 약물을 사용하는 것은 정상에 도달하는 거의 확실한 방법이 될 수 있습니다. 은밀하게 조심스럽게 투여할 경우, 아무도 알지 못할 가능성이 있으며 테스트에서도 이를 발견하지 못할 가능성이 있습니다. 당신은 겉보기에는 아무런 문제가 없는 것처럼 그것을 피할 수 있습니다. 물론 신체에 해를 끼치고 결국 육체적인 대가를 치르게 될 가능성도 있지만, 승리할 수 있는 순간의 기회에 대한 열망의 강도는 미래의 결과를 경시하는 경향이 있습니다.

따라서 우리는 경기력 향상 약물을 사용하여 큰 영광과 어쩌면 부까지 얻을 수 있는 엄청난 잠재력을 갖고 있는 반면, 다른 한편으로는 붙잡혀 힘들게 얻은 상금을 박탈당할 수 있는 불명예스러운 기회도 가지고 있습니다. 그리고 끔찍하게 멸시받는 전 세계 공인이 되었습니다(건강과 관련된 부정적인 결과도 함께).

그것은 일종의 확실한 비용-편익 분석이 이루어져야 합니다.

어떤 사람들은 정신적으로 ROI(투자 수익)를 계산하고 경기력 향상 약물을 전혀 사용하지 않기로 결정합니다. 그들은 완벽하게 깨끗하고 순수한 상태를 유지하기로 결심합니다. 다른 사람들은 그런 식으로 시작했다가 약간 벗어날 수도 있습니다. 당신은 미끄러짐을 단지 작은 발가락이 성능을 향상시키는 물 속으로 들어가는 것으로 정당화하고 다시는 그렇게 하지 않을 것이라고 스스로에게 엄숙히 맹세할 수도 있습니다. 그러나 이것은 미끄러운 경사로 이어질 수 있습니다. 눈 덮인 산비탈을 미끄러지고 미끄러지고 굴러 내려가면서 점점 더 큰 공으로 모이는 고전적이고 예측 가능한 속담의 눈덩이입니다.

또한 경기력 향상 약물을 사용하기로 미리 결정한 사람들도 있습니다. 전형적인 사고 방식은 불로 불을 싸우는 유일한 방법이라는 것입니다. 당신이 경쟁하고 있는 다른 모든 사람들도 똑같이 하고 있다고 가정합니다. 그러므로 당신이 순수하면서도 분명히 불순한 것에 반대하는 것은 전혀 의미가 없습니다(그래서 당신은 가정합니다).

이러한 문제에서 테스트 및 탐지의 특성이 특히 중요한 이유를 알 수 있다고 생각합니다. 일부 참가자가 경기력 향상 약물을 사용해도 무사할 수 있다면 전체 경기가 망가질 것입니다. 조금씩 다른 참가자들도 거의 틀림없이 같은 길을 갈 것입니다. 그들은 끔찍한 선택을 해야 합니다. 이는 약물 없이 경쟁하지만 아마도 신체적으로 불리하거나, 진심으로 원하고 경기력 향상제에 의지할 필요가 없음에도 불구하고 약물을 채택하고 경쟁력을 유지해야 하는 것을 수반합니다.

확실히 난처한 상황입니다.

이러한 상황을 혼란스럽게 만드는 더 많은 환경이 있습니다. 예를 들어, 지속적으로 제기되는 질문은 실제로 경기력을 향상시키는 약물이 무엇인지입니다. 당국은 금지된 약물 목록을 내놓을 수도 있습니다. 한편, 고양이와 쥐의 계략에서는 성능 향상을 제공하지만 금지된 화학 물질 목록에는 없는 다른 약물이 고안되거나 확인되었습니다. 목록보다 한발 앞서서 다른 약물로 전환하고 게임 규칙을 살짝 벗어나지 않도록 노력할 수 있습니다.

가장 중요한 요점은 착즙과 도핑이 반드시 간단한 주제는 아니라는 것입니다. 그렇습니다. 주스나 도핑은 극악하므로 수행해서는 안 된다는 점에 우리 모두 동의할 것입니다. 그렇습니다. 우리 모두는 주스 제조 및 도핑 금지에 대한 엄격한 규칙이 있어야 하며, 빗나가는 사람들을 잡기 위한 강력한 노력이 있어야 한다는 점에 동의할 것입니다. 불행하게도 이러한 높은 목표를 훼손할 수 있는 많은 속임수가 있습니다.

제가 왜 주스 만들기와 도핑에 대한 시련과 고난을 여러분과 공유했습니까?

내가 그렇게 하는 이유는 여러분이 놀랍고, 짜증나고, 속상하고, 가슴이 아프다고 느낄 수도 있기 때문입니다.

아시다시피 AI가 때때로 주스나 도핑(일종)을 사용하여 "성능이 향상"된다는 주장이 점점 늘어나고 있습니다. AI 시스템을 고안할 때 개발자는 AI가 실제보다 더 좋게 보이도록 하기 위해 다소 은밀한 계략을 취할 수 있다는 개념입니다. 이는 결국 AI가 실제로 가지고 있지 않은 기능을 가지고 있다고 다른 사람들을 속일 수 있습니다. 그 결과는 경미할 수도 있고 위험할 정도로 심각할 수도 있습니다.

마치 체커 게임에서 결코 지지 않을 것처럼 보이도록 "성능이 향상된" 체커를 플레이하는 AI 시스템을 상상해 보십시오. 일부 투자자들은 AI가 항상 승리할 것이라는 잘못된 믿음으로 게임에 막대한 돈을 투자합니다. 공개적으로 사용된 후에는 AI가 승리합니다. 어느 시점에서는 게임에서 패배할 수도 있습니다. 무슨 일이 있었나요? 어쨌든 이 사용 사례에서는 이것이 생사를 좌우하는 고려 사항이 아닐 것입니다.

대신 자율주행차를 운전하는 AI 시스템을 상상해 보세요. AI는 안전하고 사고 없이 운전할 수 있는 것처럼 보이도록 '성능이 향상'되었습니다. 한동안 자율주행차는 공공도로에서 사용되고 있는데 모든 것이 괜찮아 보입니다. 안타깝게도 어느 시점에서 AI가 길을 잃고 자동차 충돌이 발생하는데 이는 분명히 AI 시스템의 잘못이었습니다. 사람이 다칠 수도 있고, 사망할 수도 있습니다. 이는 AI의 착즙이나 도핑이 정신을 차리고 심각한 생사의 결과를 초래하는 상황입니다.

AI에 관해 주스와 도핑을 언급하는 것에 대해 여러분이 속상함을 느낄 수도 있다는 것을 알고 있습니다. 제가 이렇게 말하는 이유는 오늘날의 AI는 전혀 지각력이 없으며 우리는 AI를 의인화하는 데 주의해야 하기 때문입니다. 이에 대해서는 여기서 곧 자세히 설명하겠습니다. 간단히 말해서, AI는 아직 인간이 아니며 인간에 가까운 것도 아닙니다. 두 가지를 비교하고 주스나 도핑에 대한 기존의 개념과 일치시키려는 노력은 다소 개략적이며 눈을 크게 뜨고 수행해야 합니다.

나는 AI의 착즙과 도핑에 대해 제안된 유사한 아이디어를 진행할 것입니다. 하지만 이것이 너무 멀리 진행되어서는 안 된다는 점을 명심하시기 바랍니다. 우리는 내가 주장하는 측면이 노출되어야 한다고 주장하는 측면을 노출하는 수단으로 표현에 어느 정도 합리적으로 의지할 수 있습니다. 이는 캐치프레이즈를 사용하는 실행 가능한 기초입니다. 그러나 우리는 이것을 저승 영역으로 확장해서 그렇지 않은 것으로 만들어서는 안 됩니다. 이에 대해서는 잠시 후에 더 자세히 말씀드리겠습니다.

AI 관련 착즙 및 도핑에 대해 가장 많은 관심을 받고 있는 AI의 한 측면에는 일부 개발자가 AI 기반 기계 학습(ML) 및 딥 러닝(DL) 시스템을 제작하는 특정 방식이 수반됩니다. ML/DL 시스템 개발 중에 이러한 종류의 사악한 행동과 관련된 AI 윤리 및 윤리적 AI 파급효과가 많이 있습니다. AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용을 보려면 다음을 참조하세요. 여기 링크여기 링크, 그냥 몇 이름을 지정합니다.

또한 머리를 숙이고 이 토론을 진행하면서 다음 측면을 강조하시기 바랍니다.

  • AI ML/DL을 고안하는 모든 사람이 ML/DL을 착즙하거나 도핑하는 것은 아닙니다.
  • 어떤 사람들은 그렇게 하지만 뭔가 잘못하고 있다는 사실을 특별히 인식하지 못합니다.
  • 일부는 그렇게 하며 ML/DL의 착즙 또는 도핑과 관련하여 자신이 무엇을 하고 있는지 정확히 알고 있습니다.
  • 스포츠 분야와 달리 현대 ML/DL에 대한 이러한 유형의 문제에 대한 공식화되고 표준화된 전반적 "테스트 또는 감지"는 거의 없습니다.
  • 이를 수행할 경우 부정적인 결과는 ML/DL의 특성(예: 체커를 플레이하는 AI, 자율주행차를 운전하는 AI)에 따라 크게 달라질 수 있습니다.
  • 어떤 사람들은 이러한 행위에 본질적으로 부적절한 것이 없다고 주장합니다.
  • ML/DL의 착즙 또는 도핑이 무엇인지, 아닌지에 대한 정의가 지도 전체에 나와 있습니다.
  • AI 윤리는 표면적으로 나타나는 추세에 가장 잘 대처할 수 있는 방법을 찾기 위해 고심하고 있습니다.

나는 이 주제에 대한 또 다른 반전을 정리하고 싶습니다. 이에 대해 양해해 주시기 바랍니다. 어찌됐든 완전히 오해하는 사람들도 있고, AI 개발자들이 스스로 성능을 높이는 약을 복용하고 있기 때문에 인간이 스스로 착즙하고 도핑하고 있다는 이상한 사고방식에 빠지기도 한다.

이는 일반적으로 많은 AI 개발자들로부터 약간의 웃음을 자아냅니다.

매우 명확하게 말하자면, 그것은 내가 말하는 것이 아닙니다. 나는 여기에서 AI를 고안하는 인간이 아닌 AI 자체의 소위 과즙화 및 도핑에만 명확하고 오로지 초점을 맞추고 있습니다. 즉, 어떤 이유로든 성능 향상 약물을 복용하기로 선택한 AI 개발자가 있을 수 있다는 것이 불가능하다는 말은 아닙니다. 어쩌면 경기력을 향상시키는 불법 약물을 복용하기로 결정한 AI 개발자의 행위와 비교할 수 있는 완전히 적합한 스포츠 비유가 있는지 의심스러울 수도 있지만, 그 영역을 탐구하고자 하는 다른 연구자들에게 맡기겠습니다. 어떤 이유로든 경기력 향상 약물을 복용하는 것은 확실히 신중하지 못한 일이며 확실히 불법적이고 비윤리적이며 매우 경솔한 행동일 수 있다는 점을 간단히 말씀드리고 싶습니다.

나는 그것이 문제를 바로잡는 데 도움이 된다고 믿습니다.

AI의 착즙 및 도핑에 대해 더 자세히 알아보기 전에 근본적으로 필수적인 주제에 대한 몇 가지 추가 기본 사항을 설정해 보겠습니다. 우리는 적절한 무대를 설정하기 위해 AI 윤리 및 ML/DL 분야에 대해 잠깐 살펴보아야 합니다.

요즘 AI 분야와 심지어 AI 분야 밖에서도 가장 크게 들리는 목소리 중 하나가 윤리적 AI의 더 큰 모습을 외치는 것으로 구성되어 있다는 것을 막연하게 인지하고 있을지도 모릅니다. AI 윤리와 윤리적 AI를 지칭하는 것이 무엇을 의미하는지 살펴보겠습니다. 그 위에 머신 러닝과 딥 러닝에 대해 말할 때 내가 의미하는 바를 살펴보겠습니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이것은 "오직 코더" 또는 AI를 프로그래밍하는 사람들이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 여기 링크).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이제 AI 착즙 또는 도핑 주제로 돌아가 보겠습니다.

최근 기사에서 과학 매거진에서 머신러닝과 딥러닝의 추출 또는 도핑은 ML/DL 벤치마크에서 높은 점수를 얻으려는 AI 개발자의 노력의 맥락에서 등장했습니다. “높은 점수를 추구하는 것은 도핑과 동등한 AI로 이어질 수 있습니다. 연구원들은 종종 벤치마크에서 실행마다 달라질 수 있는 특수 소프트웨어 설정이나 하드웨어로 모델을 조정하고 조정하여 실제 세계에서 재현할 수 없는 모델 성능을 얻습니다. 더 나쁜 것은 연구자들이 자신의 모델이 상위에 나오는 벤치마크를 찾을 때까지 유사한 벤치마크 중에서 선별적으로 선택하는 경향이 있다는 것입니다.”(과학, Matthew Hutson의 "Teach To The Test", 2022년 XNUMX월).

주스와 관련된 ML/DL 벤치마크 상황을 그러한 부적절한 관행을 통해 스포츠 대회에서 승리하려는 초기 지점에 비유할 수 있습니다.

AI 분야에서는 누가 "최고의" ML/DL 모델을 개발할 수 있는지 알아보기 위한 경쟁이 벌어지고 있습니다. 다양한 벤치마크를 사용하여 ML/DL을 실행하고 ML/DL이 벤치마크에서 얼마나 좋은 점수를 받는지 측정할 수 있습니다. 리더보드와 벤치마크 결과의 비공식 공유는 ML/DL 구성에서 누가 최근 최고 위치를 차지했는지 홍보하는 데 종종 사용됩니다. ML/DL을 벤치마크에서 가장 최근에 나온 최고의 성과자로 "승자"로 만들 수 있는 사람들에게는 약간의 명성과 재산이 기다리고 있다고 합리적으로 제안할 수 있습니다.

그러나 모든 종류의 경쟁과 마찬가지로 ML/DL이 내부적으로 몰래 적용되는 경우에도 벤치마크에서 강력한 성능을 발휘하도록 시도하고 속이는 방법이 있습니다. 이는 시험에 대한 접근 방식을 연마하여 시험에서 좋은 점수를 얻으려는 고전적인 부패이지만 일반적인 원칙은 전반적인 성능을 확인하려고 노력하는 것입니다.

미국 문학에 대한 전반적인 이해를 측정하기 위해 누군가에게 테스트를 제공했지만 응시자는 문제가 Mark Twain에만 초점을 맞출 것이라는 것을 알아차렸습니다. 따라서 응시자는 Mark Twain의 작품만을 공부하고 시험에서 엄청난 점수를 얻습니다. 응시자는 시험에 합격했다고 자랑스럽게 선언하며 따라서 모든 미국 문학에 대한 천재임이 분명합니다. 실제로 그들은 단지 테스트에 집중했고 어떤 의미에서는 테스트 프로세스를 속였습니다.

나는 어떤 사람들은 시험과 그 시험을 준비한 사람을 즉시 비난할 수도 있다는 것을 알고 있습니다. 테스트 작성자가 응시자가 테스트를 활용할 수 있을 만큼 충분히 밀도가 높은 경우, 이는 전적으로 응시자가 아닌 테스트 작성자의 어깨에 달려 있다고 주장할 수 있습니다. 응시자는 무엇을 공부해야 할지 알아내는 것을 포함하여 시험 준비를 위해 할 수 있는 모든 일을 했습니다. 이는 겉보기에 허용될 뿐만 아니라 응시자가 테스트 작성자를 능가한 것에 대해 축하할 수도 있습니다.

나는 여기서 그 윤리적 심연에 대해 더 이상 다루지 않겠습니다. 그러한 주제에 대해서는 쉽게 이리저리 둘러볼 수 있습니다. ML/DL 벤치마크의 정신은 벤치마크를 활용하는 사람들이 스포츠맨십 방식으로 그렇게 하기를 희망하거나 추정한다는 것입니다. 이것은 어떤 사람들에게는 순진해 보일 수도 있지만, 다른 사람들에게는 지나치게 적절해 보일 수도 있습니다.

그러한 맥락에서 AI 윤리와 AI 윤리적 고려 사항이 어떻게 자연스럽게 발생하는지 즉시 확인할 수 있기를 바랍니다.

예를 들어 특정 ML/DL이 벤치마크에서 매우 좋은 성능을 발휘하고 높은 점수의 근거가 AI의 착즙 또는 도핑으로 인한 것이라고 생각해 보세요. 더 나아가 "승리한" ML/DL의 AI 개발자가 AI를 착즙했다는 사실을 공개하지 않는다고 가정해 보겠습니다. 다른 AI 개발자들은 ML/DL 성능 결과에 대해 듣거나 읽고 AI ML/DL의 획기적인 발전에 대해 흥분합니다. 그들은 AI의 숨겨진 주스나 도핑을 전혀 인식하지 못합니다.

이러한 의기양양한 AI 개발자는 기능을 더욱 확장하기 위해 특정 ML/DL의 추정 접근 방식으로 노력을 전환하기로 결정했습니다. 어느 시점에서 그들은 벽에 부딪혔다는 사실을 발견하고 놀랍게도 아무데도 도달하지 못하는 것처럼 보일 수도 있습니다. 이것은 상당히 당혹스럽고 짜증나는 일이 될 수 있습니다. 그들은 처음부터 착즙했다는 사실을 깨닫지 못한 채 몇 달 또는 몇 년 동안 노력해 왔습니다. 다시 한 번 말하지만, 이전에 착즙 과정을 찾아낼 만큼 영리하지 못한 실망한 AI 개발자들의 잘못을 찾고 싶을 수도 있지만, 착즙기를 시작한 착즙기가 있었다는 우려도 발견할 수 있다고 감히 말할 수 있습니다. 경로, 처음부터.

이 모든 것은 확실히 스포츠 비유를 연상시킵니다.

당신은 어떤 대가를 치르더라도 승리하려는 욕구를 갖고 있습니다. 일부는 착즙 없이 승리를 목표로 하는 반면, 다른 일부는 착즙을 완전히 수행합니다. 착즙을 사용하는 사람들은 그 활동이 합법적인 것으로 합리화할 수도 있습니다. 주스 만들기를 줄이거나 잡기 위한 노력이 이루어지고 있지만 상황의 고양이와 쥐 특성으로 인해 주스 만들기가 한발 앞서 있을 가능성이 높습니다. 주스를 만드는 사람이 잡히면 평판에 대한 반발과 기타 불리한 결과가 발생할 위험이 있습니다. 그들은 인지된 상승 측면과 인지된 비용을 지속적으로 비교하고 있습니다. 등등.

AI ML/DL 주스를 포착할 때 어려운 점은 주스나 도핑을 수행하는 방법이 무수히 많다는 것입니다. 스포츠와 주스에 대해서도 똑같이 말할 수 있다고 가정합니다. 즉, 감시망을 피해 머물기 위해 다양한 수단과 경기력 향상제를 사용할 수 있다고 가정합니다.

어쨌든, AI ML/DL 주스 추출에서 고려해야 할 몇 가지 광범위한 범주는 다음과 같습니다.

a) 머신러닝과 딥러닝 설계 단계에서의 주스

b) ML/DL 훈련에 사용되는 데이터 추출

c) ML/DL 모델 추출

d) ML/DL 출력을 추출합니다.

e) 위의 두 가지 중 하나를 조합하여 수행하십시오.

f) 위 세 가지 중 하나를 조합하여 수행하십시오.

g) 위의 모든 작업을 수행합니다.

나는 ML/DL 모범 사례의 사용을 광범위하게 다루었으며 마찬가지로 내 칼럼에서 부적절한 ML/DL 사례의 불미스러운 사용에 대해 미리 경고했습니다. 더 자세한 내용을 알고 싶다면 살펴보는 것이 좋습니다.

맛보기로 ML/DL을 훈련하는 데 사용되는 데이터를 통해 발생할 수 있는 착즙의 종류를 간략하게 살펴보겠습니다. 일반적인 경험 법칙은 ML/DL 모델을 테스트할 목적으로 훈련 데이터 중 일부를 보관하는 것입니다. 관례적인 권장 사항은 80/20 규칙을 사용하는 것입니다. ML/DL 학습을 위해 데이터의 약 80%를 사용합니다. 나머지 20%는 ML/DL을 테스트하는 데 사용됩니다. 20%가 나머지 80%를 상대적으로 대표하고 훈련 세트에 있는 훈련 데이터와 테스트 세트에 있는 훈련 데이터를 무작위로 선택하기를 바랍니다.

간단해 보입니다.

이제 착즙이나 도핑을 해보겠습니다.

  • 훈련 데이터와 테스트 데이터를 몰래 미러링. 데이터를 추출하는 한 가지 방법은 데이터를 주의 깊게 조사하고 의도적으로 80%와 20%가 이상적으로 정렬되도록 노력하는 것입니다. 데이터를 무작위로 나누지 않습니다. 대신, 80%와 20%가 문자 그대로 서로 유사하도록 비밀스러운 선택을 합니다. 이는 테스트 결과가 매우 좋아 보이도록 하기 위한 것입니다. 본질적으로 ML/DL이 80%에서 좋은 성과를 거두면 20%에서도 좋은 성과를 거둘 것이 거의 보장됩니다. ML/DL이 계산적으로 일반화 작업을 훌륭하게 수행했다고 믿도록 자신(및 다른 사람)을 속일 가능성이 있기 때문에 이렇게 하는 것은 사물의 정신에 맞지 않습니다. 그렇지 않았을 수도 있습니다.
  • 테스트 데이터를 단축합니다. ML/DL 데이터 세트를 추출하는 또 다른 방법은 훈련 데이터를 데이터의 95%로 나누고 홀드아웃 테스트 데이터는 5%만 사용하는 것입니다. 이는 ML/DL 성능을 저하시키는 미미한 5%의 요소가 전혀 없다는 확률을 높일 가능성이 높습니다. 훈련과 테스트에 얼마나 많은 데이터가 사용되었는지 묻는 사람은 거의 없습니다. 그들은 이 질문을 할 줄 모르며, 당신이 한 일이 무엇이든 일을 하는 올바른 방법이라고 가정할 줄 모릅니다.
  • 이상값을 미리 제거하세요.. ML/DL을 추출하거나 도핑하는 교활한 수단에는 데이터의 이상값에 대한 속임수가 포함됩니다. 새로운 ML/DL에 데이터를 공급하기 전에 먼저 데이터를 검사합니다. ML/DL에 데이터를 넣기 전에 데이터에 익숙해져야 하므로 이는 신중한 단계이며 적극 권장됩니다. 즉, 사용할 수 있는 속임수는 다음과 같습니다. 데이터에서 이상값을 찾아 버립니다. 이는 일반적으로 계산적으로 패턴을 찾으려고 할 때 ML/DL의 수학에 도움이 됩니다. 이상값은 일반적으로 처리하기 어려운 문제이지만 종종 중요하고 데이터의 성격과 모델링하려는 항목에 대해 많은 것을 알려줄 수 있습니다. 이상값을 맹목적으로 제거함으로써 ML/DL이 수행할 수 있어야 하는 작업의 현실을 성사시키거나 깨뜨릴 수 있는 무언가를 놓칠 수밖에 없습니다. 더 나은 방법은 이상값에 주의를 기울이고 이를 데이터 세트에서 즉석에서 쫓아내는 것보다 이에 대처하는 최선의 방법을 고려하는 것입니다.
  • 테스트를 전혀 하지 마세요. 더 터무니없는 착즙이나 도핑 행위는 어떠한 테스트도 전혀 하지 않는 것을 의미합니다. 모든 데이터를 훈련에 사용합니다. 상황이 좋아 보인다면 손을 공중으로 흔들고 ML/DL이 좋다고 선언합니다. 그런 의미에서 100/0 경험 법칙, 즉 훈련용 데이터는 100%이고 테스트용 데이터는 0%입니다. 누군가가 이런 짓을 한다면 충격을 받을 수도 있을 것 같아요. 글쎄요, 어떤 사람들은 훈련 결과에 대해 너무 확신을 갖고 있어서 테스트가 필요하지 않다고 생각합니다. 아니면 너무 바빠서 "성가신" 테스트 작업을 처리할 시간이 없습니다. 당신은 그림을 얻습니다.

나는 이전에 AI 자체의 특성이 특별히 중요하지 않은 경우 AI의 착즙이나 도핑이 다소 중요하지 않을 수 있다고 언급한 반면, 다른 설정은 AI가 주도하는 생사 결과를 포함할 수 있으므로 착즙은 무섭게 약한 연결고리이며 잠재적인 파멸의 전조.

이 중요한 토론의 이 시점에서 이 주제를 보여줄 수 있는 몇 가지 예시적인 예를 원할 것입니다. 내 마음에 가까운 특별하고 확실히 인기 있는 예가 있습니다. 윤리적, 법적 영향을 포함한 AI 전문가로서의 제 역량으로 저는 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 성격을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이 윤리적인 AI 곤경을 생생하게 보여주는 가장 인상적인 분야 중 하나는 AI 기반의 진정한 자율주행차의 도래입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 출현이 AI의 착즙이나 도핑에 관해 어떤 것을 밝혀줄까요? 그렇다면 이것이 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

자율주행차와 AI의 착즙 또는 도핑

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

내가 관련하려는 내용의 기초가 되는 충분한 주의 사항을 제공하기를 바랍니다.

먼저 AI 기반 자율주행차를 구현하는 영역에서 ML/DL을 활용한 것에 대해 찬사를 보내겠습니다. 자율주행차의 몇 가지 주요 측면은 머신러닝과 딥러닝을 사용한 결과로 결실을 맺었습니다. 예를 들어, AI 기반 자율주행차 주변의 주행 장면을 감지하고 분석해야 하는 핵심 요구 사항을 생각해 보세요.

대부분의 자율주행차에는 자율주행차에 수많은 센서가 장착되어 있다는 사실을 여러분은 의심할 여지 없이 눈치채셨을 것입니다. 이는 자율주행차 옥상에서 이뤄지는 경우가 많다. 비디오 카메라, LIDAR 장치, 레이더 장치, 초음파 감지기 등과 같은 센서 장치는 일반적으로 옥상 랙에 포함되거나 차량 상단이나 차량 측면에 부착될 수도 있습니다. 센서 배열은 운전 장면에 무엇이 존재하는지 파악하는 데 사용할 수 있는 데이터를 전자적으로 수집하기 위한 것입니다.

센서는 데이터를 수집하고 디지털화된 데이터를 온보드 컴퓨터에 공급합니다. 이러한 컴퓨터는 범용 컴퓨팅 프로세서와 감각 데이터를 분석하기 위해 특별히 고안된 특수 프로세서의 조합일 수 있습니다. 전반적으로 대부분의 감각 데이터 계산 분석은 이러한 목적으로 제작되었으며 차량의 온보드 컴퓨팅 플랫폼에서 실행되는 ML/DL에 의해 수행됩니다. 이것이 어떻게 작동하는지에 대한 자세한 설명은 다음을 참조하세요. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

ML/DL은 계산을 통해 도로가 어디에 있는지, 보행자가 어디에 있는지, 근처의 다른 자동차가 어디에 있는지 등과 같은 데이터에서 패턴을 찾으려고 시도합니다. 이 모든 것은 자율주행차가 앞으로 나아갈 수 있도록 하는 데 매우 중요합니다. ML/DL이 운전 장면 분석을 수행하지 않으면 자율주행차는 본질적으로 자율주행차 주변에 무엇이 있는지 알 수 없게 됩니다.

간단히 말해서, AI 기반 자율주행차의 등장을 위해서는 ML/DL의 활용이 필수적이라는 주장을 쉽게 할 수 있습니다.

AI 기반 자율주행차에 관련된 ML/DL을 쥬스하거나 도핑할 수 있나요?

전혀.

ML/DL 공식의 데이터 측면과 관련하여 앞서 언급한 착즙 또는 도핑의 예를 쉽게 불러올 수 있습니다. 보행자, 자동차 및 기타 도로 물체를 검색하는 데 사용되는 ML/DL은 운전 장면의 다양한 데이터 세트에서 먼저 훈련되었을 가능성이 높습니다. 이러한 ML/DL 훈련은 자율주행차 운전 제어를 명령하면서 거리를 적절하고 안전하게 탐색할 수 있는 AI 운전 시스템에 중요한 역할을 합니다.

착즙 또는 도핑 노력이 은밀하게 수행할 수 있는 작업은 다음과 같습니다.

  • 훈련 데이터와 테스트 데이터를 몰래 미러링. 도로 객체에 대한 ML/DL을 훈련하는 데 사용되는 데이터세트를 함께 수집하고 의도적으로 훈련 부분과 테스트 부분을 정렬합니다. 데이터를 훈련용 80%, 테스트용 20%로 나누는 경험적 법칙을 준수하므로 이것이 올바른 접근 방식인 것 같습니다. 핵심은 데이터를 이동하면서 80%와 20%가 놀라울 정도로 유사한지 확인하는 것입니다. 훈련 중에 고안한 ML/DL을 위해 데크를 쌓고 있습니다.
  • 테스트 데이터를 단축합니다. 훈련 데이터를 전체 데이터 세트의 95%로 나누고 테스트 데이터 부분에 5%만 넣습니다. 테스트를 수행하면 ML/DL이 좋지 않게 보일 가능성이 줄어든 것으로 나타났습니다.
  • 이상값을 미리 제거하세요.. 처음에 데이터를 면밀히 조사하는 동안 사람들의 사진이 있는 광고판의 사례가 있다는 것을 발견했습니다. 이로 인해 ML/DL이 혼동될까 봐 걱정되므로 데이터 세트에서 해당 이미지나 비디오를 제거합니다. 훈련과 테스트를 완료한 후에는 ML/DL을 실제 사용할 준비가 되었음을 선언합니다. 불행하게도 어느 순간 자율주행차가 거리나 고속도로를 달리고 있는데, 사람들의 사진이 붙은 광고판이 붙어 있는 상황이 올 수밖에 없습니다. ML/DL이 어떻게 반응할지 모릅니다. ML/DL이 보행자가 근처에 있다는 것을 경고하면 AI 운전 시스템이 갑자기 브레이크를 밟아 주변의 다른 인간이 운전하는 자동차가 자율주행차에 부딪히거나 도로를 벗어나 도로를 벗어날 수도 있습니다. 충돌.
  • 테스트를 전혀 하지 마세요. ML/DL 설정을 서둘러야 합니다. 아마도 자율주행 회사는 자율주행차가 언제 중요한 공개 시연을 할 것인지 알려주는 날짜를 내놓았을 것입니다. 올바른 방식으로 일을 할 시간이 많지 않습니다. 따라서 손가락을 교차시키고 모든 데이터를 훈련에 사용합니다. 테스트를 전혀 하지 않습니다. 당신은 명시된 기한을 지킬 수 있었다는 안도감을 느낍니다. 물론 도로에서 다음에 일어나는 일은 재앙이 될 수 있습니다.

결론

일반적으로 진정한 자율주행 자동차 제조사들은 급성장하는 AI 운전 시스템에서 과즙이나 도핑 작업을 수행하여 코너컷을 허용하고 기회를 잡는 것에 대해 상당히 조심스럽습니다. 일반적으로 그러한 행동을 감지하고 수정하기 위해 수많은 견제와 균형이 있습니다. 또한, 많은 회사에서는 발생할 수 있는 실수나 부주의함을 조기에 파악하기 위해 다소 엄격한 AI 윤리 수칙 및 경고 메커니즘을 확립했습니다. 여기 링크.

AI 자율주행차를 구성하려는 야간 시도 중 일부는 바람에 주의를 기울이는 것을 선택했습니다. 그들은 뻔뻔하게도 자신들이 생각할 수 있는 모든 지름길을 택합니다. 더욱이 그들은 재확인을 하거나 주스나 도핑을 중단하려고 노력하는 데 거의 관심을 두지 않습니다. 일부는 심지어 AI 개발자에게 "그들이 옳다고 생각하는 것은 무엇이든" 하라고 지시한 다음 나중에 회사가 AI의 어떤 착즙이나 도핑이 일어나고 있는지 몰랐다고 선언함으로써 그럴듯한 부인의 고전을 사용하기도 합니다. 나는 칼럼에서 이러한 위험한 노력에 대해 논의했습니다.

자율주행차의 경우 삶과 죽음이 명백히 달려 있다.

추가된 점은 자율주행차 영역에서 AI를 착즙하거나 도핑할 가능성이 있다면 AI 시스템에 의존하는 생사가 덜한 다른 영역에서는 무엇이 허용될지 궁금해야 한다는 것입니다. AI를 최대한 빨리 출시해야 한다는 압박감은 엄청납니다. AI가 올바른 방식으로 올바른 일을 수행하도록 해야 한다는 압력은 훨씬 덜 매력적일 수 있습니다. 안타깝게도 그렇습니다.

AI 관련 주스 및 도핑에 대한 윤리적 우려 외에도 저는 이러한 문제에 대한 법적 조치의 쓰나미에 대해 계속해서 노력해 왔습니다. AI 시스템이 끔찍한 활동을 하게 되면, AI를 고안하고 구현한 사람들은 궁극적으로 책임을 지게 될 것입니다. 우리는 아직 AI를 만들고 비즈니스에 AI를 사용하는 기업에 대한 법적 소송이 증가하는 것을 보지 못했습니다. 계산이 필연적으로 발생할 것이라는 내 말을 표시하십시오. 여기 링크.

기업은 AI 시스템을 어떻게 구성하는지 보여주기 위해 법적으로 문을 열어야 할 것입니다. 디자인하는 동안 그들은 무엇을 했나요? 데이터 작업 중에 그들은 무엇을 했나요? 출시 전 테스트의 일환으로 무엇을 했나요? 이 모든 것은 눈에 보이지 않는 내부 AI 주스 및 도핑 가능성을 조명할 것입니다.

그래야 한다 지원 AI 주스와 도핑을 선택한 사람들을 위한 무료 점심이 되어주세요. 조심하고 눈을 뜨고 있으십시오. 당당하게 서서 AI에 대한 반도핑과 반도핑을 주장하십시오.

우리에게는 깨끗한 AI가 필요합니다. 그건 확실합니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/06/07/ai-ethics-alarmed-at-the-rise-in-underhanded-juicing-or-doping-of-ai-machine- 자율주행차를 포함한 신뢰할 수 있는 내부자에 의한 학습/