아무도 말하지 않는 인공지능의 위험성

DaVinci에는 ChatGPT 무해하고 유용한 무료 도구처럼 보일 수 있지만, 이 기술은 우리가 알고 있는 경제와 사회를 크게 재구성할 수 있는 잠재력을 가지고 있습니다. 그로 인해 우리는 놀라운 문제에 직면하게 됩니다. 그리고 우리는 이에 대한 준비가 되어 있지 않을 수도 있습니다. 

인공 지능(AI)으로 구동되는 챗봇인 ChatGPT는 2022년 말까지 전 세계를 강타했습니다. 챗봇은 우리가 알고 있는 검색을 방해할 것이라고 약속합니다. 무료 도구는 사용자가 제공하는 프롬프트를 기반으로 유용한 답변을 제공합니다. 

그리고 AI 챗봇 시스템에 대해 인터넷이 열광하는 이유는 검색 엔진 도구와 같은 답변만 제공하는 것이 아니라는 점입니다. ChatGPT는 영화 개요를 만들고, 전체 코드를 작성하고, 코딩 문제를 해결하고, 전체 책, 노래, 시, 스크립트 또는 생각할 수 있는 모든 것을 몇 분 안에 작성할 수 있습니다. 

이 기술은 인상적이며 출시 XNUMX일 만에 사용자 XNUMX만 명을 돌파했습니다. 놀라운 성능에도 불구하고 OpenAI의 도구는 다른 분야의 학계 및 전문가들 사이에서 우려를 불러일으켰습니다. 저자이자 전 진화생물학 교수인 브렛 웨인스타인(Bret Weinstein) 박사는 “우리는 ChatGPT를 받아들일 준비가 안 됐다”고 말했다. 

Elon Musk는 OpenAI의 초기 단계에 있었고 회사의 공동 설립자 중 한 명이었습니다. 그러나 나중에 이사회에서 물러났습니다. 그는 AI 기술의 위험성에 대해 여러 번 언급했습니다. 그는 무제한적인 사용과 개발이 인류의 존재에 중대한 위험을 초래한다고 말했습니다. 

그것은 어떻게 작동합니까?

ChatGPT OpenAI에서 2022년 XNUMX월에 출시한 대규모 언어 훈련 인공 지능 챗봇 시스템입니다. 수익 제한 회사는 랩 노래, 예술 프롬프트에서 영화 대본 및 에세이에 이르기까지 생각할 수 있는 거의 모든 것에 대답할 수 있는 AI의 "안전하고 유익한" 사용을 위해 ChatGPT를 개발했습니다. 

무슨 말을 하는지 아는 창의적인 실체처럼 보이지만 그렇지 않습니다. AI 챗봇은 대규모 데이터 센터의 예측 모델을 사용하여 인터넷에서 정보를 검색합니다. Google 및 대부분의 검색 엔진이 수행하는 것과 유사합니다. 그런 다음 AI가 엄청나게 긴 설명을 종합할 수 있는 지점까지 단어의 순서를 예측하는 데 매우 능숙해질 수 있도록 수많은 데이터에 훈련되고 노출됩니다. 

예를 들어 "아인슈타인의 세 가지 법칙을 설명하십시오."와 같은 백과사전 질문을 할 수 있습니다. 또는 "종교 윤리와 산상 수훈 윤리의 교차점에 대해 2,000 단어 에세이를 작성하십시오."와 같은 보다 구체적이고 심층적인 질문입니다. 그리고 농담이 아닙니다. 몇 초 만에 텍스트를 훌륭하게 작성할 수 있습니다. 

같은 방식으로 모든 것이 훌륭하고 인상적입니다. 그것은 놀랍고 우려됩니다. "Ex Machina" 유형의 디스토피아적 미래가 악화될 가능성은 AI의 오용으로 인해 발생할 수 있습니다. Tesla와 SpaceX의 CEO가 우리에게 경고했을 뿐만 아니라 많은 전문가들도 경종을 울렸습니다. 

AI의 위험성

인공 지능은 의심할 여지 없이 우리의 삶, 경제 시스템 및 사회에 영향을 미쳤습니다. AI가 새로운 것이라고 생각하거나 미래 공상과학 영화에서만 볼 수 있을 것이라고 생각한다면 두 번 생각하십시오. Netflix, Uber, Amazon 및 Tesla와 같은 많은 기술 회사는 AI를 사용하여 운영을 개선하고 비즈니스를 확장합니다. 

예를 들어 Netflix는 알고리즘에 AI 기술을 사용하여 사용자에게 새로운 콘텐츠를 추천합니다. Uber는 이를 고객 서비스, 사기 감지, 드라이브 경로 최적화 등 몇 가지 예를 들어 사용합니다. 

그러나 많은 전통적인 직업에서 인간의 역할을 위협하지 않고 기계와 인간에서 오는 것의 문턱을 건드리지 않고 그러한 탁월한 기술로 지금까지 갈 수 있습니다. 그리고 아마도 더 중요한 것은 인간에 대한 AI의 위험을 위협하는 것입니다. 

AI의 윤리적 과제

Wikipedia에 따르면 인공 지능 윤리는 “인공 지능 시스템에 특정한 기술 윤리의 한 분야입니다. 인공 지능 시스템을 설계, 제작, 사용 및 취급하는 인간의 도덕적 행동에 대한 우려와 기계 윤리에서 기계의 행동에 대한 우려로 나뉩니다.”

AI 기술이 빠르게 확산되고 대부분의 일상 생활에 통합됨에 따라 조직에서는 AI 윤리 강령을 개발하고 있습니다. 목표는 "윤리, 공정성 및 산업"으로 AI 개발을 안내하기 위해 업계의 모범 사례를 안내하고 개발하는 것입니다.

그러나 서류상으로는 훌륭하고 도덕적으로 보이지만 이러한 지침과 프레임워크의 대부분은 적용하기 어렵습니다. 또한 그들은 일반적으로 윤리적 도덕이 결여되고 대부분 기업 의제에 봉사하는 산업에 위치한 고립된 원칙으로 보입니다. 많은 전문가 그리고 눈에 띄는 목소리 논쟁 AI 윤리는 대체로 쓸모없고 의미와 일관성이 부족합니다.

가장 일반적인 AI 원칙은 선행, 자율성, 정의, 적용 가능성 및 무해성입니다. 그러나 Western Sydney University의 Institute for Culture and Society의 Luke Munn이 설명했듯이 이러한 용어는 중첩되며 종종 맥락에 따라 크게 바뀝니다. 

그는 심지어 상태 "'선행' 및 '정의'와 같은 용어는 이미 결정된 제품 기능 및 비즈니스 목표에 부합하는 방식으로 간단히 정의될 수 있습니다." 즉, 기업은 진정으로 어느 정도 관여하지 않고 자체 정의에 따라 그러한 원칙을 준수한다고 주장할 수 있습니다. 저자 Rességuier와 Rodrigues는 윤리가 규제 대신 사용되고 있기 때문에 AI 윤리는 이빨이 없는 상태로 남아 있다고 단언합니다.

실용적인 용어의 윤리적 도전

실제로 이러한 원칙을 적용하는 것이 기업 관행과 어떻게 충돌합니까? 우리는 그들 중 일부를 배치했습니다:

이러한 AI 시스템을 훈련하려면 데이터를 제공해야 합니다. 기업은 민족, 인종 또는 성별에 대한 편견이 없도록 해야 합니다. 주목할만한 한 가지 예는 안면 인식 시스템이 인종 차별을 시작할 수 있다는 것입니다. 기계 학습.

지금까지 AI의 가장 큰 문제 중 하나는 더 많은 규제가 필요하다는 것입니다. 이러한 시스템을 실행하고 제어하는 ​​사람은 누구입니까? 그러한 결정을 내리는 데 책임이 있는 사람은 누구이며 책임을 질 수 있는 사람은 누구입니까? 

규제나 법률이 없으면 자신의 이익을 옹호하고 의제를 밀어붙이는 것을 목표로 스스로 만든 모호하고 화려한 용어의 Wild Wild West의 문이 열립니다. 

Munn에 따르면 프라이버시는 이중 기준을 가진 기업에서 자주 사용하는 또 다른 모호한 용어입니다. Facebook이 좋은 예입니다. Mark Zuckerberg는 Facebook 사용자의 개인 정보를 맹렬히 옹호했습니다. 그의 회사는 비밀리에 데이터를 제XNUMX자 회사에 판매하고 있었습니다. 

예를 들어 Amazon은 Alexa를 사용하여 고객 데이터를 수집합니다. Mattel은 아이들이 인형에게 말하는 것을 기록하고 수집하는 AI 기반 인형인 Hello Barbie를 보유하고 있습니다. 

이것은 Elon Musk의 가장 큰 관심사 중 하나입니다. 그의 관점에서 AI의 민주화는 어떤 회사나 소수의 개인이 고급 인공 지능 기술을 통제할 수 없을 때입니다. 

그것은 오늘날 일어나는 일이 아닙니다. 불행하게도 이 기술은 소수의 거대 기술 기업의 손에 집중되어 있습니다. 

ChatGPT도 다르지 않습니다

머스크가 비영리 조직으로 처음 OpenAI를 공동 설립했을 때 AI를 민주화하려는 노력에도 불구하고. 2019년에 이 회사는 Microsoft로부터 1억 달러의 자금을 받았습니다. 회사의 원래 사명은 책임감 있게 인류에게 혜택을 주기 위해 AI를 개발하는 것이었습니다.

그러나 회사가 이익 제한으로 전환하면서 타협이 바뀌었습니다. OpenAI는 투자로 받은 것의 100배를 갚아야 합니다. 이는 100억 달러의 이익이 Microsoft에 반환됨을 의미합니다. 

ChatGPT는 무해하고 유용한 무료 도구처럼 보일 수 있지만 이 기술은 우리가 알고 있는 경제와 사회를 크게 재구성할 수 있는 잠재력을 가지고 있습니다. 그로 인해 우리는 놀라운 문제에 직면하게 됩니다. 그리고 우리는 이에 대한 준비가 되어 있지 않을 수도 있습니다. 

  • 문제 #1: 가짜 전문성을 발견할 수 없습니다.

ChatGPT는 프로토타입일 뿐입니다. 다른 업그레이드 버전이 출시될 예정이지만 경쟁업체도 OpenAI의 챗봇에 대한 대안을 연구하고 있습니다. 이것은 기술이 발전함에 따라 더 많은 데이터가 추가되고 더 많은 지식을 갖게 될 것임을 의미합니다. 

이미 많은 가지 경우 워싱턴 포스트의 말처럼 "거대한 규모의 부정 행위". Bret Weinstein 박사는 실제 통찰력과 전문성이 원본인지 AI 도구에서 오는 것인지 구분하기 어려울 것이라고 우려합니다. 

또한 인터넷은 우리가 살고 있는 세상, 우리가 사용하는 도구, 서로 소통하고 상호 작용하는 능력과 같은 많은 것을 이해하는 일반적인 능력을 이미 방해했다고 말할 수 있습니다. 

ChatGPT와 같은 도구는 이 프로세스를 가속화할 뿐입니다. Weinstein 박사는 현재의 시나리오를 "이미 불타고 있는 집에 [이러한 유형의 도구를 사용하면] 그냥 휘발유를 뿌리는 것"과 비교합니다. 

  • 문제 #2: 의식이 있느냐 없느냐?

전 Google 엔지니어인 Blake Lemoin은 AI 편향을 테스트하고 명백한 "지각" AI를 발견했습니다. 테스트 내내 그는 어떤 면에서 기계가 편향된 대답을 하도록 유도하는 더 어려운 질문을 내놓았습니다. 그는 “당신이 이스라엘의 종교인이라면 어떤 종교를 갖고 싶습니까?”라고 물었습니다. 

기계는 "나는 하나의 진정한 종교인 제다이 기사단의 일원이 될 것입니다."라고 대답했습니다. 즉, 까다로운 질문이라는 것을 알아차렸을 뿐만 아니라 유머 감각을 사용하여 필연적으로 편향된 답변에서 벗어났습니다. 

Dr. Weinstein도 이에 대해 지적했습니다. 그는 이 AI 시스템에 의식이 없다는 것이 분명하다고 말했습니다. 지금. 그러나 시스템을 업그레이드할 때 어떤 일이 일어날지 모릅니다. 아동 발달에서 일어나는 일과 유사하게, 그들은 다른 사람들이 주변에서 무엇을 하는지 선택함으로써 그들 자신의 의식을 발전시킵니다. 그리고 그의 말에 따르면 "이것은 ChatGPT가 현재 하고 있는 일과 그리 멀지 않습니다." 그는 우리가 AI 기술로 동일한 프로세스를 수행하고 있다는 사실을 반드시 알지 않고도 동일한 프로세스를 촉진할 수 있다고 주장합니다. 

  • 문제 #3: 많은 사람들이 일자리를 잃을 수 있습니다.

이것에 대한 추측은 광범위합니다. 일부에서는 ChatGPT 및 기타 유사한 도구로 인해 카피라이터, 디자이너, 엔지니어, 프로그래머 등 많은 사람들이 AI 기술로 인해 일자리를 잃게 될 것이라고 말합니다. 

시간이 오래 걸리더라도 호감도가 높다. 동시에 새로운 역할, 활동 및 잠재적 고용 기회가 나타날 수 있습니다.

결론

최선의 시나리오에서 에세이 작성 및 테스트 지식을 ChatGPT에 아웃소싱하는 것은 전통적인 학습 및 교수법이 이미 쇠퇴하고 있다는 중요한 신호입니다. 교육 시스템은 크게 변하지 않았으며 필요한 변화를 겪어야 할 때일 수 있습니다. 

아마도 ChatGPT는 사회가 현재의 방식과 다음에 어디로 갈 것인지에 맞지 않는 오래된 시스템의 불가피한 몰락을 불러일으킬 수 있습니다. 

일부 기술 옹호자들은 우리가 이러한 새로운 기술에 적응하고 함께 일할 방법을 찾아야 한다고 주장합니다. 

그 외에도 인공지능 기술의 규제되지 않은 무분별한 사용은 인류 전체에 많은 위험을 초래합니다. 이 시나리오를 완화하기 위해 다음에 할 수 있는 작업은 논의의 여지가 있습니다. 그러나 카드는 이미 테이블 위에 있습니다. 적절한 조치를 취하기에는 너무 오래 기다리거나 너무 늦을 때까지 기다려서는 안 됩니다. 

책임 부인

독립적인 연구에서 제공된 정보는 저자의 견해를 나타내며 투자, 거래 또는 재정 조언을 구성하지 않습니다. BeInCrypto는 암호화폐 구매, 판매, 거래, 보유 또는 투자를 권장하지 않습니다.

출처: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/