AI 과대 광고의 Cry Wolf Moment는 도움이 되지 않습니다.

나는 인류의 종말 시나리오를 연구하는 사람이지만, 6개월간의 AI 모라토리엄을 제안하는 "전문가 서한"이나 AI 위험이 대유행과 핵 위험 수준에 있다는 최근의 진술은 모두 과장된 것이라고 생각합니다. AI를 폐쇄해야 한다는 더 엉뚱한 의견은 무책임합니다. 모든 걱정은 우리가 직면한 위험에 비례해야 합니다. 현재 우리는 AI로부터 즉각적인 위험에 처해 있지 않습니다.

현재의 AI는 사회를 장악할 능력이 없습니다. 그들은 감정이 없으며 인간의 삶처럼 보호받을 자격이 없습니다. 그들은 초지능이 아니며 일반적인 방법으로 인간을 능가하지도 않습니다. 사실 그들은 전혀 생각하지 않습니다. 현재 AI는 풍부한 데이터를 입력하면 계산 및 예측과 같은 특정 작업을 매우 잘 수행합니다. 그것은 걱정할 필요가 없습니다. 이러한 시스템이 의도적으로 가지고 있는 기능입니다. AI의 약속에는 암 해결, 산업 생산 변환, 미래 시나리오 모델링 및 환경 문제 관리가 포함됩니다. 그렇지만 리소스 사용, 투명성, 편향, 사이버 보안 및 고용에 대한 미래의 영향에 대해 현재 AI를 비판할 정당한 이유가 있습니다.

AI는 계산 비용이 많이 듭니다. 즉, 희소한 화석 에너지의 막대한 낭비입니다. 이것은 즉시 해결되어야 합니다. 그러나 그것은 실존적인 문제가 아니라 합리적인 자원 사용의 문제입니다. 크고 비효율적인 데이터 모델에 의존하는 AI가 학계나 정부가 추적하고 조사하기에는 너무 비싸다는 사실이 진짜 문제입니다. 그러나 즉시 고칠 수 있습니다. 엘리트 학술 기관 또는 정부의 컨소시엄은 슈퍼컴퓨팅을 위해 했던 방식으로 컴퓨팅 리소스를 함께 공유할 수 있습니다.

LLM(대형 언어 모델)은 대량의 데이터에서 자연어 텍스트를 생성할 수 있는 AI 모델입니다. 한 가지 문제는 이러한 텍스트가 다른 사람들의 정직한 지적 기여에서 직접 파생된다는 것입니다. 그들은 사실 도난당했습니다. 특히 제너레이티브 AI는 소비자와 조직 데이터는 물론 저작권을 완전히 침해하는 창의적인 콘텐츠를 모두 재조합합니다. 이것은 심각하지만 실존적이지는 않으며, 게다가 EU, 할리우드의 로비스트, "빅 XNUMX" 도서 출판사가 이미 사건에 참여하고 있습니다. 이로 인해 AI의 무게가 느려질 것으로 예상됩니다. 현재 속도에서 AI는 지각력에 도달하기 훨씬 전에 좋은 훈련 데이터가 부족합니다.

세금을 계산하거나 온라인 피드를 선택하거나 사람들을 감옥에 가두는 데 이미 사용되는 알고리즘은 투명성이 현저히 부족합니다. 그러나 이것은 수년 동안의 경우이며 최신 AI 개발과 관련이 없습니다. AI 편향은 버그가 아니라 기능입니다. 사실 고정관념은 그러한 모델이 작동하는 주요 접근 방식입니다. 인간, 전문가 여부에 관계없이 뚫을 수없는 기계 추론 층에 편견이 숨겨져 있다는 점을 제외하고. 우리가 질문해야 할 것은 주어진 시스템의 능력이 아니라 그러한 시스템을 개발한 개발자의 지혜입니다. 시스템은 시스템을 구축하거나 실행하는 사람의 지혜나 의도보다 나은 경우는 거의 없습니다.

AI 교육 데이터는 해당 데이터가 수집된 사회에 존재하는 편견을 반영합니다. 나쁜 훈련 데이터의 재사용은 이미 AI 모델을 오염시키는 걱정스러운 관행입니다. 현재의 AI 접근 방식은 단순히 편향을 증폭하여 신속하게 결과를 얻습니다. 이것은 우리가 원하는 것과 정반대입니다. 우리가 원하는 것은 기술을 사용하여 인적 오류를 보호하는 것입니다. 기계 오류에 대해 걱정하는 것은 인간 지능을 낭비하는 것입니다.

"신경망"이라는 은유에도 불구하고 현재의 AI는 아무리 생각해도 뇌와 닮지 않았습니다. 현재 AI 시스템은 인간처럼 유추하여 추론할 수 없습니다. 좋습니다. 우리는 광신자들이 옹호하고 모방하려고 시도하는 종류의 AI 정렬을 실제로 원하지 않을 수도 있습니다. 기계는 인간과 달라야 한다. 그래야 서로의 장점을 극대화할 수 있다. 그리고 우리가 어떻게 기계를 구별하고 분리할 수 있는지. 기계는 정렬할 관심사가 없어야 합니다.

AI는 점점 더 범죄자와 적대국의 자산으로서 중요한 사이버 보안 위협을 나타냅니다. 그러나 사이버 보안은 이 문제를 잘 처리할 수 있는 전문가가 많이 있는 성숙한 산업입니다. 사이버 보안에 대한 두려움 때문에 AI를 종료할 이유가 없습니다.

AI로 인한 고용 중단은 처음에는 로봇에서, 이제는 소프트웨어 기반 AI 시스템에서 수년 동안 정책 문제였습니다. 이는 정부가 이에 대처할 준비가 되어 있음을 의미합니다. MIT Work of The Future 연구에서는 로봇으로 인한 실업에 대한 우려가 과장된 것으로 나타났습니다. 인간은 항상 일할 방법을 찾았고 앞으로도 그렇게 할 것입니다. 제조업이 AI로 혁신될 것인가? 이미 일어나고 있지만 상당히 통제된 방식으로 진행되고 있습니다.

때때로 AI는 현재 기능이나 미래 범위에 대한 과장된 약속으로 인해 어려움을 겪습니다. 최초의 AI 겨울은 미국 정부가 자금 지원을 중단하면서 1974~1980년에 시작되었습니다. 두 번째는 1987~1993년으로, 비용이 증가하고 AI가 높은 약속을 이행하지 못했습니다.

새로운 패러다임이 도래하기를 기다리며 2025~2030년 사이에 우리는 세 번째 AI 겨울에 접어들 것입니다. 적어도 뜨거운 AI 여름에 비하면 우리는 약속합니다. 그 이유는 과대 광고에도 불구하고 위에서 설명한 모든 이유 때문에 대규모 언어 모델이 최대 유용성에 도달하고 결국 더 투명하고 계산적으로 더 우아한 접근 방식으로 대체되어야 하기 때문입니다.

그러한 후보 중 하나는 기계가 실세계 정보 뒤에 있는 의미와 맥락을 처리할 수 있는 능력, 의미론적 이해를 제공하기 때문에 기계가 더 효율적으로 추론하게 만드는 초차원 컴퓨팅입니다. 현재 AI 시스템은 단어와 구 사이의 관계를 이해하지 못하고 추측만 잘합니다. 충분하지 않습니다. 우리는 궁극적으로 구현된 AI가 필요할 것입니다. 생각은 공간에 대한 인식과 연결되어 있기 때문입니다. 그것은 매우 물리적인 게임인 제조 분야의 경우입니다. 우리는 또한 일부 정보를 전경화하고 다른 정보를 배경화하여 우선순위를 지정하는 것과 같은 인간의 기억 기능을 할 수 있는 AI가 필요합니다. 망각은 인간이 추상적 사고를 위해 사용하는 도구이며, 구식 조직 관행에서 벗어나 의사 결정을 내리고 현재에 머물기 위해 사용하는 도구이며 단순한 결함이 아닙니다. 어떤 기계도 아직 그렇게 잘 할 수 없습니다.

그동안 우리는 규제가 필요하지만 지금은 그렇지 않습니다. 그리고 규제할 때 잘하는 것이 좋습니다. AI에 대한 잘못된 규제는 상황을 악화시킬 가능성이 높습니다. 이 문제에 대해 규제 기관을 깨우는 것은 도움이 될 수 있지만 현재 세대의 규제 기관이 이를 잘 수행하는 데 필요한 그런 종류의 전면적인 변화를 감당할 수 있는지 확신할 수 없습니다. 그것은 강력한 회사(아마도 모든 상장 회사)를 축소하고 거버넌스에서 AI의 사용을 제한하며 현재 소비자 시장이 작동하는 방식에 엄청난 변화를 의미합니다. 본질적으로 우리는 사회를 재구성해야 합니다. 그것은 우리가 바라는 것보다 수십 년 일찍 우리를 탈성장으로 안내할 것입니다. AI를 둘러싼 투명성 문제는 모두가 걱정하는 것처럼 보이는 제어 변수보다 더 강력할 수 있습니다.

게다가 AI 벤치마크에 도달할 때마다 똑같이 걱정할 수는 없습니다. 계단식 위험이 닥치는 정말 큰 순간을 위해 에너지를 아껴야 합니다. 그들은 올 것이고 공정하게 말하면 우리는 준비가 되어 있지 않습니다. 내가 구상한 미래 시나리오(2075년 멸종 시나리오 참조)에는 전체 국가가 몇 달 동안 자체 프로세스에 액세스할 수 없도록 하는 대규모 데이터 유출이 포함됩니다. 범죄 집단이나 국가 행위자의 도움을 받는 AI도 걱정됩니다. 무엇보다도 저는 AI, 나노기술, 합성 생물학 및 양자 기술의 조합에 대해 걱정합니다. 능력을 알 수 없는 거의 보이지 않는 준유기체 지능에 가까운, 아마도 불과 수십 년 후에 세계가 기후의 계단식 효과에 의해 소비될 바로 그 때에 일어날 것입니다. 변화.

현재 AI 모델은 아직 인류에게 위협이 될 만큼 충분히 잘 작동하지 않습니다. 종료를 고려하기 전에 더 나은 AI가 필요합니다. 그 이상으로 우리는 더 현명한 개발자, 더 민감한 시민, 더 나은 정보를 가진 정책 입안자가 필요합니다. AI를 규제하는 방법에 대한 개념도 필요합니다. 그러나 이것은 속도를 늦추지 않고 수행할 수 있습니다. 모두를 위한 교육 여정이 될 것입니다. GPT 4(2023)에 관한 모라토리엄 서한은 앞으로 수십 년 동안 인류가 직면할 계단식 위험과 희미하게 닮은 울부짖는 늑대의 순간입니다. 2023년에 AI 위험을 팬데믹 위험과 핵 위험 수준에 두는 것은 시기상조입니다. 우리는 거기에 갈 것인가? 아마도. 그러나 우는 늑대에게는 결과가 따릅니다. 실제 공포에 대한 논쟁에서 산소를 빨아들입니다.

출처: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/