AI 윤리 및 AI 유도 심리 접종을 통한 허위 정보 지원

엄청난 양의 잘못된 정보와 잘못된 정보에 대해 우리는 무엇을 할 것입니까?

이 모든 것은 날이 갈수록 분명히 악화되고 있습니다.

아마도 인공 지능(AI)이 우리를 구할 수 있을 것입니다. 네, 맞습니다. 우리는 잘못된 정보와 잘못된 정보의 끊임없는 쓰나미에 대처하기 위해 AI의 유익한 사용을 활용할 수 있습니다. 그렇게 하는 것이 현명할 수 있습니다. 잠재적인 해결책의 모든 길은 추구할 가치가 있는 것처럼 보일 것입니다.

제쳐두고, 저는 AI가 의심할 여지 없이 또한 문제의 일부이기도 합니다. 인간이 AI를 쉽게 활용하여 잘못된 정보와 잘못된 정보를 생성할 수 있다는 점에는 의심의 여지가 없습니다. 더욱이 AI는 교활하게 허위 정보와 잘못된 정보가 놀랍도록 유효한 것처럼 보이게 하고 제시된 정보가 매우 정확하고 사실적이라고 믿게 만드는 데 사용될 수 있습니다. AI가 테이블에 가져온 것의 결정적으로 슬픈 얼굴 측면. 우리는 이 논의가 끝날 때 이 불리한 수수께끼로 돌아올 것입니다.

지금은 웃는 얼굴을 하고 AI가 강력한 무릎을 꿇고 잘못된 정보와 잘못된 정보를 가져오는 데 어떻게 도움이 되는지 알아보겠습니다. 한 가지 중요한 저류는 이 모든 것이 AI 윤리의 핵심 요소와 밀접하게 관련되어 있다는 것입니다. AI Ethics 및 Ethical AI에 대한 저의 칼럼 보도는 다음을 포함하여 지속적이고 광범위합니다. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

AI가 허위 정보 및 잘못된 정보와의 전쟁에서 특히 도움이 되는 동맹국이 될 수 있는 다음과 같은 초석을 고려하십시오.

  • 시작 지점에서 중지: AI는 허위 정보와 잘못된 정보가 느슨해지기 전에 이를 감지하고 제거하는 데 사용할 수 있습니다.
  • 보기 전에 필터: AI는 잘못된 정보와 잘못된 정보를 필터링하는 데 사용할 수 있으므로 보는 것에 대해 걱정할 필요가 없습니다.
  • 면역이 되도록 준비하십시오: AI는 허위 정보 및 잘못된 정보에 대처할 준비와 능력을 강화하는 데 사용할 수 있습니다(일종의 심리적 예방 접종을 제공하는 것으로 공식적으로 알려짐)
  • 기타

첫 번째로 나열된 글머리 기호에는 콘텐츠가 세상에 나오기 전에 가능한 한 빨리 잘못된 정보와 잘못된 정보를 중지하려는 노력이 포함됩니다.

이것은 매우 문제가 많은 접근 방식입니다. 어떤 사람들은 이것이 언론의 자유를 억압하려는 빅 브라더의 시도일 수 있다고 큰 소리로 주장할 것입니다. 이 AI는 어디까지 갈 수 있을까요? 사람들이 자유롭게 자신의 의견을 표현하는 것을 막을 수 있습니까? 이것은 소름 끼치게도 AI의 미끄러운 경사가 될 수 있으며 궁극적으로 최선의 의도에서 순진하게 시작된 최악의 악의적 인 결과의 악몽이 될 수 있습니다.

나는 당신이 그림을 얻을 것이라고 확신합니다.

두 번째 글머리 기호는 약간 더 온건하며 AI를 사용하여 콘텐츠를 필터링할 수 있음을 제안합니다.

다양한 뉴스 및 기타 소스에서 들어오는 모든 데이터 피드를 스캔하는 AI 필터 봇이 있을 수 있습니다. AI는 개인 기준에 맞는 잘못된 정보나 잘못된 정보를 잡아내도록 맞춤화되었습니다. 따라서 이러한 시나리오에서는 Big Brother 검열 상황이 아닙니다. 당신은 AI와 그것이 당신을 대신하여 정보의 진정한 받은 편지함을 필터링하는 방법을 제어합니다.

꽤 좋은 것 같습니다.

그러나 몇 가지 주목할 만한 우려 사항이 있습니다.

예를 들어, 우리는 이미 관점에서 크게 양극화되어 있으며 이러한 AI의 사용은 양극화를 더 깊고 어둡게 만들 수 있습니다. 24시간 연중무휴로 작동하는 이 매끄러운 AI를 사용하면 잠재적으로 잘못된 정보 및 잘못된 정보로 분류된 약간의 정보를 볼 필요가 전혀 없다고 상상해 보십시오. 당신의 양극화된 관점은 이제 거의 그대로 유지됩니다. 하루 종일 그리고 당신의 주의를 기다리고 있는 정보를 보려고 할 때마다 그것은 항상 완전히 사전 선택되어 있으며 소위 잘못된 정보와 잘못된 정보를 엿볼 기회가 없습니다.

나는 잘못된 정보와 잘못된 정보가 소위 실제로 무엇이 허위 정보와 잘못된 정보를 구성하는지에 대해 엄청난 양의 논란이 있기 때문입니다. 일부 전문가들은 무엇이 잘못된 정보이고 무엇이 잘못된 정보인지 확인하는 데 절대적인 근거가 있다고 주장합니다. 옳고 그름이 있습니다. 어떤 것이 잘못된 정보이거나 잘못된 정보라는 오류 없이 모든 것을 계산할 수 있습니다.

모든 사람이 사물을 아주 명확하게 보는 것은 아닙니다.

속담에 나오는 온-오프 상호 배타적인 이분법적 대조는 오해의 소지가 있는 마음의 틀이라고 합니다. 한 사람의 허위 정보가 다른 사람에게는 허위 정보로 간주되지 않을 수 있습니다. 잘못된 정보에 대해서도 마찬가지입니다. 주장은 잘못된 정보와 잘못된 정보의 성격과 규모가 다양하다는 것입니다. 모든 정보를 한 더미 또는 다른 더미로 결정적으로 분류하는 것은 손을 흔드는 것보다 훨씬 어렵습니다.

요점은 AI를 필터링 메커니즘으로 사용하는 것에 대한 두 번째 글머리 기호에는 장단점이 있다는 것입니다. AI가 이 용도로 점점 더 많이 사용될 것이라는 데에는 거의 의문의 여지가 없습니다. 동시에 우리는 그러한 AI가 전면에 가져올 도전 과제를 염두에 두어야 합니다. 잘못된 정보와 잘못된 정보를 필터링하는 AI는 은총이나 슬램 덩크가 아닙니다.

그것은 우리를 세 번째 요점, 즉 인공 지능을 사용하여 인간이 허위 정보와 잘못된 정보를 더 잘 처리할 수 있도록 할 가능성으로 이끕니다.

이런 맥락에서 AI를 사용하는 세 번째 방법에 대해 많이 들어보셨을 것입니다. 이제 막 나타나기 시작했습니다. 당신은 이제 성장하고 점차적으로 사용하게 될 무언가의 최첨단에 서 있습니다. 다만 이러한 인기가 높아지면서 적절한 접근 방식인지에 대한 논란도 가시화될 것이라는 점을 유념해 주시기 바랍니다.

문제의 일부는 AI가 일부 사람들이 경멸적인 방식으로 언급하는 것에 다소 사용되고 있다는 것입니다. 인간과 마인드 게임.

불길한 것 같습니다.

이것은 또한 우리를 AI 윤리의 영역으로 인도합니다.

이 모든 것은 또한 오늘날의 AI, 특히 기계 학습 및 딥 러닝을 기술의 한 형태로 사용하고 어떻게 활용되고 있는지에 대한 심각하게 떠오르는 우려와 관련이 있습니다. ML/DL이 대중에 의해 의인화된 AI를 포함하는 경향이 있는 ML/DL의 사용이 있으며, ML/DL이 지각 있는 AI이거나 이에 가깝다고 믿거나 가정하기로 선택합니다(그렇지 않습니다). 또한 ML/DL에는 윤리 또는 법적 관점에서 바람직하지 않거나 완전히 부적절하거나 불법인 계산 패턴 일치 측면이 포함될 수 있습니다.

AI를 전반적으로 언급할 때 내가 의미하는 바를 먼저 명확히 하고 머신 러닝 및 딥 러닝에 대한 간략한 개요를 제공하는 것이 유용할 수 있습니다. 인공 지능이 무엇을 의미하는지에 대해 많은 혼란이 있습니다. 나는 또한 이 강의의 나머지 부분에 특히 필수적인 AI 윤리의 교훈을 소개하고 싶습니다.

AI에 대한 기록 발표

오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각 있는 AI는 없습니다.

우리는 이것을 가지고 있지 않습니다.

우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 계산적 인지 초신성(일반적으로 특이점이라고 함)의 형태로 어떻게든 기적적으로 자발적으로 발생할지 여부를 적절하게 예측할 수 있는 사람은 아무도 없습니다. 여기 링크).

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝과 딥 러닝을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날에는 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

문제의 일부는 컴퓨터, 특히 AI를 의인화하려는 경향입니다. 컴퓨터 시스템이나 AI가 우리가 인간의 행동과 연관시키는 방식으로 행동하는 것처럼 보일 때 인간의 자질을 시스템에 부여하려는 거의 압도적인 충동이 있습니다. 그것은 지각에 도달할 가능성에 대해 가장 완고한 회의론자조차도 사로잡을 수 있는 일반적인 정신적 함정입니다.

그것이 어느 정도 AI 윤리와 윤리적 AI가 중요한 주제인 이유입니다.

AI 윤리의 교훈은 우리가 경계를 늦추지 않게 합니다. AI 기술자는 때때로 기술, 특히 하이테크 최적화에 몰두할 수 있습니다. 그들은 더 큰 사회적 파급효과를 반드시 고려하고 있지는 않습니다. AI 윤리 사고방식을 갖고 AI 개발 및 현장에 통합적으로 그렇게 하는 것은 AI 윤리가 기업에 어떻게 채택되는지 평가를 포함하여 적절한 AI를 생산하는 데 필수적입니다.

일반적으로 AI 윤리 지침을 적용하는 것 외에도 AI의 다양한 사용을 규제하는 법률이 있어야 하는지에 대한 해당 질문이 있습니다. AI를 고안해야 하는 방법의 범위와 성격에 관한 새로운 법률이 연방, 주 및 지방 차원에서 시행되고 있습니다. 그러한 법률의 초안을 작성하고 제정하려는 노력은 점진적입니다. AI 윤리는 최소한 고려된 임시방편으로서 역할을 하며 거의 확실히 어느 정도 이러한 새로운 법률에 직접 통합될 것입니다.

일부에서는 AI를 다루는 새로운 법률이 필요하지 않으며 기존 법률로 충분하다고 단호하게 주장합니다. 그들은 우리가 이러한 인공 지능 법 중 일부를 제정하면 엄청난 사회적 이점을 제공하는 인공 지능의 발전을 단속하여 황금 거위를 죽이게 될 것이라고 미리 경고합니다. 예를 들어 내 보장을 참조하십시오. 여기 링크.

이전 칼럼에서 저는 AI를 규제하는 법률을 만들고 제정하기 위한 다양한 국내 및 국제적 노력을 다루었습니다. 여기 링크, 예를 들어. 나는 또한 거의 200개국이 채택한 유네스코 AI 윤리 세트와 같은 유엔 노력을 포함하여 다양한 국가에서 확인하고 채택한 다양한 AI 윤리 원칙과 지침을 다루었습니다. 여기 링크.

다음은 이전에 자세히 조사한 AI 시스템과 관련된 윤리적 AI 기준 또는 특성의 유용한 핵심 목록입니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

이러한 AI 윤리 원칙은 AI 개발자와 AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 현장에 배치하고 유지 관리하는 사람과 함께 본격적으로 활용되어야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이는 "코더만" 또는 AI를 프로그래밍하는 사람이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 여기에서 앞서 강조했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며, 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

모든 것을 기본으로 유지하고 오늘날의 컴퓨팅 무감각 AI에 집중합시다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

잘못된 정보 및 잘못된 정보 처리와 관련된 심리적 예방 접종을 촉구하는 수단으로서 AI의 역할에 대해 충분히 논의할 수 있는 단계가 되었습니다.

인간의 마음 속으로 들어가기

잘못된 정보와 잘못된 정보의 기저에 깔린 기본 또는 기초부터 시작하겠습니다.

일반적으로 잘못된 정보는 잘못된 정보나 오해의 소지가 있는 정보를 말합니다.

추가된 요소로 구성되어 있지만 허위 정보는 거의 동일합니다. 의지. 우리는 일반적으로 정보가 정보일 때 허위 정보로 간주합니다. 예정된 잘못 알리다.

현재 시간이 밤 10시라고 말할 수 있습니다. 시간이 실제로 자정이기 때문에 거짓이라고 가정해 보겠습니다. 내가 직감으로 10시를 말했고 속이려고 하지 않았다면 우리는 일반적으로 내가 당신에게 잘못 알렸다고 말할 것입니다. 잘못된 정보를 전달했습니다. 내가 게으르거나 정말로 10시라고 믿었을 수도 있습니다. 반면에 내가 의도적으로 시간이 10시이고 시간이 실제로 자정인 줄 알도록 속이고 싶어서 10시를 언급했다면 이것은 일종의 허위 정보라고 할 수 있습니다. .

전반적으로 정보의 한 가지 주목할만한 측면은 일반적으로 정보 주위에 퍼질 수 있으므로 정보가 어느 정도 널리 퍼질 수 있다는 것입니다. 정보는 넓은 의미에서 물처럼 흐를 수 있습니다.

밤 10시라고 합니다. 이제 특정 정보가 있습니다. 주변 사람들에게 밤 10시라고 큰 소리로 외칠 수 있습니다. 그들도 이제 동일한 정보를 가지고 있습니다. 아마도 그 사람들 중 일부는 휴대폰을 켜고 다른 사람들에게 전화를 걸어 지금이 10시라고 알려줄 것입니다. 대체로 정보는 확산되거나 공유될 수 있으며 때로는 빠르게 수행되는 반면 다른 경우에는 느리게 수행됩니다.

어떤 의미에서는 정보가 입소문을 낼 수 있다고 주장할 수 있습니다.

정보가 바이러스에 퍼지는 현상을 설명하는 데 도움이 되는, 특별히 보거나 사용하지 않은 신조어 또는 용어가 있습니다. 정보. 이 단어는 정보와 전염병의 매쉬업입니다. 대체로 인포데믹은 잘못된 정보나 잘못된 정보의 확산과 관련된 상황과 관련이 있습니다. 잘못된 정보나 오해의 소지가 있는 정보는 원치 않는 질병이나 질병의 확산과 유사하게 바이러스에 감염될 수 있다는 개념입니다.

시간이 밤 10시라는 예에서 이 사실처럼 보이는 것은 주변 사람들에게 퍼진 정보였습니다. 그들은 차례로 그 사실을 다른 사람들에게 퍼뜨립니다. 10시가 가짜라면 이 특정한 잘못된 정보나 잘못된 정보가 다른 사람들에게 퍼졌습니다. 그들은 그 정보가 잘못된 정보이거나 잘못된 정보일 수도 있다는 사실을 모를 수도 있습니다.

나는 이러한 모든 정의와 기본 사항이 합리적으로 보이며 지금까지 온보드에 있다고 믿습니다.

좋아, 계속하자.

나는 당신을 다소 은밀하게 매혹과 불안을 동시에 차지하는 무언가로 이끌었습니다. 요점은 질병이 바이러스에 영향을 미치는 것과 잘못된 정보 또는 허위 정보가 바이러스에 미치는 영향 사이에 합리적으로 타당한 유사점이 있다는 것입니다.

모든 사람이 이러한 주장된 유사점에 동의하는 것은 아닙니다. 그럼에도 불구하고 그들은 흥미롭고 고려할 가치가 있습니다.

좀 더 자세히 설명하겠습니다.

알다시피, 우리는 사람이 옮기는 질병과 확산되는 질병을 언급하는 편리한 비유를 활용하여 잘못된 정보 및 잘못된 정보의 확산과 유사한 가능성을 비교할 수 있습니다. 질병의 확산을 시도하고 막기 위해 우리는 질병의 잠재적인 확산 지점을 조기에 발견하고 새로운 질병의 근원 지점을 억제하는 것을 목표로 할 수 있습니다. 확산되는 질병을 다루는 또 다른 방법은 마스크나 보호 장비를 신중하게 사용하여 질병에 걸리지 않도록 하는 것입니다. 세 번째 접근 방식은 질병과 관련된 면역력을 강화하기 위해 예방 접종을 받는 것으로 구성될 수 있습니다.

질병에 대처하는 동일한 접근 방식이 잘못된 정보와 잘못된 정보를 다루는 것에 명시적으로 비유될 수 있다는 점에서 이제 우리는 완전한 원에 도달했습니다. 앞서 언급한 바와 같이 허위 정보 및 잘못된 정보에 대처하기 위해 인공 지능을 사용하려는 유사한 노력이 진행 중이라고 앞서 언급한 바 있습니다.

  • 시작 지점에서 중지: AI는 허위 정보와 잘못된 정보가 느슨해지기 전에 이를 감지하고 제거하는 데 사용할 수 있습니다.
  • 보기 전에 필터: AI는 잘못된 정보와 잘못된 정보를 필터링하는 데 사용할 수 있으므로 보는 것에 대해 걱정할 필요가 없습니다.
  • 면역이 되도록 준비하십시오: AI는 허위 정보 및 잘못된 정보에 대처할 준비와 능력을 강화하는 데 사용할 수 있습니다(일종의 심리적 예방 접종을 제공하는 것으로 공식적으로 알려짐)
  • 기타

세 번째 측면은 여기에서 가장 흥미로울 것입니다.

여기 거래가 있습니다.

우리는 질병이 일반적으로 인체. 잘못된 정보와 잘못된 정보가 어떻게 발생하는지에 대한 비유를 통해 우리는 잘못된 정보가 인간의 마음. 예, 아마도 당신의 마음에 흘러들어오는 잘못된 정보나 잘못된 정보와 접촉하게 될 것입니다. 잘못된 정보나 잘못된 정보는 잠재적으로 사고 방식을 손상시키거나 독살시킵니다.

인체는 질병과의 접촉을 시도하고 준비하기 위해 예방 접종을 받을 수 있습니다. 우리가 인간의 마음을 위해 똑같이 할 수 있는지에 대한 큰 질문이 생깁니다. 잘못된 정보나 잘못된 정보가 마음에 떠올랐을 때 그에 대한 준비가 되어 있고 그에 따라 예방접종을 받았음을 마음에 접종하고 시도하는 것이 가능합니까?

로 알려진 연구 분야 심리 접종 잘못된 정보나 잘못된 정보를 처리할 준비가 되어 있다는 의미에서 마음이 실제로 접종될 수 있다고 가정합니다.

심리적 접종과 때때로 하는 것으로 분류되는 것에 관한 최근 연구 연구에서 이 설명을 고려하십시오. 사전 벙커:

  • “잘못된 정보를 바로잡는 것이 항상 그 효과를 완전히 무효화하는 것은 아니기 때문에 잘못된 정보를 폭로하는 것도 문제가 됩니다. 이러한 현상을 지속 영향 효과라고 합니다. 따라서 정보 폭로와 달리 사전 폭로는 잘못된 정보에 대한 예상되는 노출에 대해 선제적으로 회복력을 구축하는 수단으로 각광받고 있습니다. 이 접근 방식은 일반적으로 접종 이론에 근거합니다. 예방 접종 이론은 의료 예방 접종의 유추를 따르며 의료 접종이 병원체에 대한 생리적 저항을 형성하는 것과 마찬가지로 원치 않는 설득 시도에 대한 심리적 저항을 구축할 수 있다고 가정합니다.과학의 발전, 24년 2022월 XNUMX일, 공동 저자인 Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje, Stephan Lewandowsky의 "Psychological Inoculation은 소셜 미디어의 잘못된 정보에 대한 회복력을 향상시킵니다."

시간이 밤 10시라는 예로 돌아가서 내가 이전에 때때로 청구된 시간이 실제 시간이 아니라고 말한 적이 있다고 가정합니다. 이제부터는 청구된 시간을 조심해야 하는 예방 접종의 형태가 있습니다. 이 예방 접종은 허위 정보 또는 잘못된 정보인 주장된 시간과 접촉할 수 있도록 준비했습니다.

청구된 시간이 실제 시간이 아님에 대해 몇 년 전에 미리 경고했다면 오래전 경고를 생각하지 않았을 가능성이 있습니다. 따라서 더 이른 접종은 (말해야 합니까) 닳았습니다. 당신을 위한 내 예방 접종을 강화해야 할 수도 있습니다.

필요할 때 사용할 수 있을 만큼 접종이 구체적이지 않았을 수도 있습니다. 몇 년 전에 청구된 시간과 실제 시간에 대해 경고했다면 너무 광범위할 수 있습니다. 10시경에 알려주는 특정 상황에서는 접종이 작동하지 않을 수 있습니다. 그런 의미에서 아마도 10시를 주장하는 시간을 사용할 때 주의해야 한다는 것이 나의 예방접종이었을 것입니다. 물론 질병의 경우 예방 접종은 다소 동일하며 때로는 알려진 질병에 매우 특이적인 반면 다른 경우에는 광범위한 스펙트럼입니다.

1961년 Columbia University의 William McGuire가 심리 접종에 대해 수행한 자주 인용되는 연구 연구는 일반적으로 이 연구 분야의 고전으로 간주됩니다. 그가 당시 강조한 다음과 같은 요점에 관심을 가질 수 있습니다.

  • “그러한 일반화된 면역화는 두 가지 메커니즘 중 하나에서 파생될 수 있습니다. 사전 노출은 그가 항상 받아 들인 "사실주의"가 실제로 취약하다는 것을 깨닫도록 충격을 줄 수 있으며, 따라서 자신의 신념을 방어하도록 자극하여 강력한 반론이 올 때 더 저항하게됩니다. 대안으로, 사전 노출과 관련된 논박은 이후에 제시된 모든 반론을 믿음에 대해 덜 인상적으로 보이게 만들 수 있습니다.”(William McGuire, "Resistance To Persuasion Conferred By Active and Passive Prior Refutation Of the Same And Alternative Counterarguments", Journal of Abnormal and 사회 심리학, 1961).

예방 접종과 예방 ​​접종에 대한 이러한 비유가 잘못된 정보와 잘못된 정보의 영역에 대한 유용하고 적절한 비교라고 생각하십니까?

일부는 하고 일부는 하지 않습니다.

이 논의의 목적을 위해 전제가 합리적이고 적절하다는 점을 받아들이십시오.

사람들의 마음을 어떻게 예방하고 예방할 수 있습니까?

우리는 사람들이 그들의 마음을 계몽할 수 있는 책을 읽게 할 수 있습니다. 우리는 그들에게 그것에 대해 이야기하거나 비디오를 보거나 오디오 테이프를 듣게 할 수 있습니다. 등.

그리고 우리는 같은 일을 하기 위해 AI를 사용할 수도 있습니다.

AI 시스템이 접종원으로 고안될 수 있습니다. 인터넷을 보는 것과 같이 온라인에 접속할 때마다 AI 기반 앱이 온라인 여행을 준비할 수 있습니다. AI는 그런 라벨이 붙은 아주 작은 양의 허위 정보를 제공하여 의도적으로 잘못된 것을 보고 있다는 것을 깨닫게 합니다.

인공지능이 제공하는 이 허위 정보에 노출되면, 여러분의 마음은 이제 인터넷에서 야생에서 마주할 수 있는 허위 정보 또는 잘못된 정보에 대처할 준비를 갖추게 됩니다. 당신의 마음은 준비되었습니다. 짜잔, 당신은 인터넷에서 화성의 외계 생명체가 이미 지구에 존재하고 눈에 잘 띄는 곳에 숨어 있다고 주장하는 사실을 제공하는 블로그를 보고 있습니다. 그런 다음 다시, 아마도 그것이 사실이고 그들은 실제로 여기에 있습니다!).

어쨌든 AI가 잘못된 정보나 잘못된 정보와 관련하여 인간에게 예방접종을 하거나 예방하는 데 어떻게 도움이 될 수 있는지 이제 분별하실 수 있기를 바랍니다.

허위 정보 또는 잘못된 정보 접종원 역할을 하는 다양한 AI 앱이 고안되고 있습니다. AI는 광범위하고 전반적인 예방 접종과 유사한 접종을 제공하려고 할 수 있습니다. AI는 보다 구체적인 형태의 접종을 위해 고안될 수도 있습니다. 또한 AI는 특정 요구 사항이나 관심사에 맞게 조정된 개인화 기반으로 작동할 수 있습니다. 이 공간의 고급 AI는 소위 예방 접종 샷을 구성하고 제시할 때 내성 수준, 정신 흡수율, 보유 능력 및 기타 요소를 결정하려고 시도합니다.

꽤 편리한 것 같습니다.

위험한 마음 게임 플레이어로서의 AI

이런 방식으로 사용되는 AI는 언뜻 보기에 매우 편리해 보일 것입니다.

걱정스럽거나 두려운 잠재적인 단점과 문제가 많이 있습니다.

제 칼럼에서 저는 종종 AI의 이중 용도에 대해 논의합니다. 예를 들면 다음을 참조하십시오. 여기 링크. AI는 인류에 중요한 기여자가 될 수 있습니다. 아아, AI는 또한 많은 위험과 불행한 함정에 시달리고 있습니다.

인큐케이터로서의 AI의 경우 다음과 같은 실증적인 AI 윤리 관련 문제를 고려해 보겠습니다.

  • 인간에 의한 이상반응
  • 인간의 무반응 반응
  • AI 미스 타게팅
  • AI 언더타겟팅
  • AI의 사이버 침해
  • 기타

이러한 우려 사항을 간략하게 살펴보겠습니다.

인간의 부작용

이러한 종류의 AI 기반 접종을 받은 사람이 부작용을 일으키거나 부작용을 일으킨다고 가정합니다.

그 사람은 예방 접종을 잘못 이해하고 갑자기 받은 정보를 받아들이지 않게 될 수 있습니다. 그들은 모든 정보를 차단합니다. AI는 어떻게 든 아기를 목욕물과 함께 버리도록 촉발했습니다(오래된 속담, 아마도 은퇴할 가치가 있을 것입니다). 그 사람은 잘못된 정보와 잘못된 정보에 대처하려고만 하기보다는 모든 정보가 항상 거짓이라고 판단하여 대응했습니다.

나는 우리가 사람들이 너무 지나치길 원하지 않는다고 생각합니다.

AI가 조장할 수 있는 수많은 부작용이 있습니다. 이것은 부분적으로 AI가 접종을 시도한 방식 때문이기도 하지만 접종을 받은 인간의 발에 문제의 일부를 놓아야 합니다. 그들은 동일한 AI 접종을 받은 다른 사람들이 그렇게 하지 않은 것에 대해 거칠거나 기괴한 방식으로 반응했을 수 있습니다.

다시 말하지만, 이것을 질병 예방 접종의 비유에 비유할 수 있습니다.

요컨대, 그러한 AI 노력이 활용될 때 부정적인 영향을 최소화하기 위해 책임감 있는 방식으로 수행되는 것이 중요할 것입니다. 부작용이 발생했는지 여부를 확인하기 위한 AI의 후속 측면도 있어야 합니다. 이상 반응이 감지되면 AI가 그 사람의 이상 반응을 돕도록 고안되어야 하고 반응을 극복하거나 완화하기 위해 노력해야 합니다.

인간의 무반응 반응

또 다른 가능성은 AI 공급 접종이 받는 사람에게 영향을 미치지 않는다는 것입니다.

잘못된 정보 또는 잘못된 정보와 관련된 AI 기반 접종을 받습니다. 대부분의 사람들은 "알려져" 예방접종을 받지만 전혀 반응하지 않는 사람들이 있을 수 있습니다. 그들은 예방 접종에서 아무것도 배우지 않습니다. 그들은 모든 또는 특정 유형의 잘못된 정보 또는 잘못된 정보에 대해 면역화하려는 AI의 시도에 반응하지 않습니다.

다시 말하지만, 이것은 질병에 대한 예방 접종에 필적합니다.

AI는 그러한 상황에 대처할 수 있도록 고안되어야 합니다.

AI 미스 타게팅

AI가 주제 X라고 하는 특정 주제에 대해 사람들에게 면역을 주기를 희망하지만 주제 Y가 대신 다루어지고 있다고 가정해 보겠습니다. AI가 잘못 타겟팅하고 있습니다.

이것은 이중적인 문제입니다. 첫째, 주제 X는 AI 접종자의 추정 및 희망 목적으로 다루어지지 않았습니다. 둘째, 주제 Y가 다루어지지만 우리는 사람들이 그 주제에 대해 예방접종을 받는 것을 원하지 않았을 수 있습니다.

죄송합니다.

질문이 많습니다. 이런 일이 일어나지 않도록 예방할 수 있었을까요? 그렇다면 Y 예방접종의 주제를 되돌릴 수 있습니까? 주제 X 접종을 다루려고 할 수 있습니까? 아니면 원래 AI의 잘못된 표적으로 인해 그 사람이 덜 수용적이거나 수용적이지 않을 것입니까?

문제가 되는 우려가 많습니다.

AI 언더타겟팅

AI는 주제 Z에 대한 접종을 제공합니다. 접종을 받는 사람들은 최소한의 또는 거의 무시할 수 있는 반응을 보이는 것 같습니다. 예방 접종이 충분하지 않았습니다.

이 문제는 쉽게 해결될 수 있다고 빠르게 주장하고 싶을 수 있습니다. 접종을 반복하기만 하면 됩니다. 예, 아니요.

AI 접종은 가치가 제한적일 수 있으므로 사람들에게 백 번 경험하게 해도 결과는 여전히 미미한 결과일 수 있습니다. 단순히 반복하는 것보다 접종을 늘려야 할 수도 있습니다.

한편, AI 공급 접종을 늘리려는 시도가 있지만 이것은 도를 넘어선다고 상상해 보십시오. 부스트 버전은 과민 반응을 일으킵니다. 그래, 우리는 더 나빠졌다.

AI의 사이버 침해

AI가 사람들이 잘못된 정보와 잘못된 정보로부터 예방접종을 받도록 돕기 위해 광범위하게 사용되고 있다고 상상해 보십시오.

일반적인 의존은 사람들에 의해 장악됩니다. 그들은 AI가 잘못된 정보와 잘못된 정보로 알려진 것에 눈을 뜨게 하는 스니펫을 제공할 것임을 알고 기대합니다.

모든 것이 잘되고 좋은 것 같습니다.

악의를 행하는 사람은 어떻게든 AI에 대한 사이버 침해를 수행할 수 있습니다. 그들은 사람들이 허위 정보가 아니라고 생각하기를 바라는 몇 가지 원하는 허위 정보를 AI에 몰래 밀어 넣습니다. AI는 실제 허위 정보가 실제 정보인 것처럼 보이도록 조정됩니다. 또한 실제 정보는 허위 정보로 나타나게 됩니다.

사람들은 완전히 스누커입니다. 그들은 AI에 의해 정보를 잃고 있습니다. 게다가 AI에 의존하게 되었고 AI가 옳은 일을 하고 있다는 믿음 때문에 그들은 이 침해된 AI에 빠져들게 됩니다. 망설이지 말고.

허위 정보가 얼마나 쉽게 더 퍼질 수 있는지를 감안할 때, 악당은 이런 종류의 AI의 존재가 그들의 교활한 거짓말을 전 세계에 퍼뜨리는 가장 쉽고 빠른 방법이라고 기뻐할 수 있습니다. 물론 아이러니하게도 AI 접종기를 활용하여 본질적으로 질병을 퍼뜨렸습니다.

결론

AI가 우리와 함께 마인드 게임을 하게 해야 합니까?

허위 정보 및 잘못된 정보 접종을 위한 AI가 위협적인 트로이 목마가 될 수 있습니까?

그러한 악몽에 대해 걱정하는 실질적인 사례를 만들 수 있습니다.

다른 사람들은 그러한 가능성을 비웃습니다. 사람들은 AI가 그들을 속이려고 할 때를 알 만큼 충분히 똑똑합니다. 사람들은 그런 드리블에 넘어가지 않을 것입니다. 바보들만이 그러한 AI에 의해 스스로를 오도하게 될 것입니다. 일반적인 반박과 반박입니다.

나는 인간과 인간의 본성을 완전히 존경하는 것보다 덜한 것처럼 보이기를 원하지 않고 인간이 자신을 오도하는 AI에 빠질 수 있다는 충분한 징후가 있다고 제안하고 싶습니다.

이 모든 것보다 더 큰 문제가 있습니다.

누가 AI를 만들고 AI가 허위 정보와 잘못된 정보로 간주되는 것을 알고리즘적으로 어떻게 결정합니까?

오늘날 전 세계적으로 무엇이 구체적으로 허위 정보와 잘못된 정보를 구성하는지에 대한 전면적인 총격전이 벌어지고 있습니다. 어떤 사람들은 사실이 사실이라고 주장하므로 적절한 정보와 부적절한 정보가 무엇인지 혼동이 있을 수 없습니다. 악마는 때때로 세부 사항에 있습니다. 그건 확실합니다.

현재로서는 마지막 발언입니다. 에이브러햄 링컨은 “모든 사람을 일시적으로 속일 수 있고 일부를 항상 속일 수 있지만 모든 사람을 항상 속일 수는 없다”고 말한 것으로 유명합니다.

잘못된 정보와 잘못된 정보로부터 인류의 예방 접종을 돕는 데 사용되는 AI가 모든 사람들이 항상 속지 않도록 하는 중요한 도구가 될까요? 아니면 더 많은 시간 동안 더 많은 사람들을 속이는 데 사용될 수 있습니까?

시간이 말해주 겠지.

그리고 그것은 확실히 잘못된 정보나 잘못된 정보가 아닙니다.

출처: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/