떠오르는 AI 윤리 및 AI 법률 고려 사항을 포함하여 생성 AI ChatGPT에 대한 버즈 및 팡파르 파헤치기

지금쯤이면 ChatGPT라는 AI 애플리케이션을 통해 겉보기에 사람이 쓴 텍스트 중심 내러티브를 생성하는 AI의 가장 인기 있고 최신 사용을 홍보하는 떠들썩한 뉴스 헤드라인이나 소셜 미디어 게시물에 대해 들었거나 보셨을 것입니다.

이 새로운 AI 앱에 대해 듣거나 읽지 않았더라도 걱정하지 마십시오. 빠르게 알려드리겠습니다.

ChatGPT에 대해 이미 알고 계시는 분들을 위해, ChatGPT가 무엇을 하는지, 어떻게 작동하는지, 무엇을 주의해야 하는지에 대한 제 내부 특종 정보가 흥미로울 것입니다. 대체로 미래에 대해 관심을 갖는 거의 모든 사람은 필연적으로 모든 사람이 이 AI 애플리케이션에 대해 고민하는 이유를 발견하기를 원할 것입니다.

명확히 하기 위해, 이러한 유형의 AI가 ChatGPT 또는 기타 AI 기능에 대해 아직 아무것도 모르는 사람들의 삶을 포함하여 삶을 변화시킬 것이라는 만연한 예측이 있습니다. 잠깐 설명하겠지만 이러한 AI 앱은 우리가 이제 막 예상하기 시작한 방식으로 다소 광범위한 영향을 미칠 것입니다.

롤러코스터를 탈 준비를 하세요. 제너레이티브 AI.

생성 AI에 대한 몇 가지 주요 배경부터 시작하여 예술을 생성하는 AI와 관련된 가장 간단한 시나리오를 사용하겠습니다. 그 기초를 살펴본 후 텍스트 중심 내러티브를 생성하는 생성 AI로 이동합니다.

AI 윤리 및 AI 법률을 포함하여 AI 전반에 대한 저의 지속적이고 광범위한 범위는 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

생성된 아트를 생성하는 생성 AI

저는 이러한 유형 또는 스타일의 AI를 다음과 같이 언급합니다. 생성적인 텍스트, 이미지, 비디오 등과 같은 출력을 생성하는 AI를 설명하는 데 사용되는 AI 애호가 용어입니다.

올해 초에 한두 줄의 텍스트를 입력하여 예술적인 이미지를 생성할 수 있는 기능에 대해 큰 화제가 되었다는 사실을 눈치채셨을 것입니다. 아이디어는 매우 간단합니다. 선택한 텍스트를 입력할 수 있는 AI 앱을 사용합니다. 예를 들어 굴뚝 위에 모자를 쓴 개구리가 어떻게 생겼는지 보고 싶다고 입력할 수 있습니다. 그런 다음 AI 앱은 단어를 구문 분석하고 일반적으로 지정한 단어와 일치하는 이미지를 생성하려고 시도합니다. 사람들은 모든 종류의 이미지 생성을 매우 즐겼습니다. 소셜 미디어는 한동안 그들로 막혔습니다.

생성적 AI는 생성 측면을 어떻게 수행합니까?

제너레이티브 AI의 텍스트-아트 스타일의 경우 컴퓨터 알고리즘을 통해 수많은 온라인 아트를 사전 스캔하고 스캔한 아트의 요소를 컴퓨터를 통해 관련 구성 요소에 대해 분석했습니다. 개구리가 있는 온라인 사진을 상상해 보십시오. 굴뚝이 있는 다른 별도의 이미지를 상상해 보십시오. 또 다른 그림에는 모자가 있습니다. 이러한 구성 요소는 계산적으로 식별되며 때로는 인간의 도움 없이 때로는 인간의 안내를 통해 수행되며 일종의 수학적 네트워크가 공식화됩니다.

나중에 와서 굴뚝에 모자를 쓴 개구리가 있는 예술 작품을 생성하도록 요청하면 AI 앱은 수학적 네트워크를 사용하여 이러한 요소를 찾아 함께 연결합니다. 결과 아트 이미지는 원하는 방식으로 나올 수도 있고 나오지 않을 수도 있습니다. 아마도 개구리는 못생긴 모양의 개구리일 것입니다. 모자는 큰 난로 파이프 모자일 수 있지만 더 얇은 더비 스타일 모자를 원했습니다. 한편, 개구리를 대신 앉히려고 했지만 개구리 이미지는 굴뚝 위에 서 있습니다.

이러한 종류의 AI 앱에 대한 멋진 점은 일반적으로 요청을 반복하고 원하는 경우 추가 사양을 추가할 수 있다는 것입니다. 따라서 요청을 반복하고 더비 모자를 쓰고 굴뚝에 앉아 있는 아름다운 개구리를 원한다고 표시할 수 있습니다. 짜잔, 새로 생성된 이미지가 원하는 이미지에 더 가까울 수 있습니다.

어떤 사람들은 AI가 훈련된 것을 정확히 역류시키는 것인지 궁금해했습니다. 대답은 아니오입니다(보통). 귀하의 요청에 대해 AI가 보여주는 개구리의 이미지가 반드시 트레이닝 세트에 있던 유사한 이미지의 정확한 복제본일 필요는 없습니다. 이러한 생성 AI 앱의 대부분은 원래 찾은 이미지를 일반화하도록 설정되어 있습니다. 이렇게 생각해보세요. 수천 개의 개구리 이미지를 수집했다고 가정해 보겠습니다. 개구리가 어떻게 생겼는지 점진적으로 파악하여 찾은 수천 개의 이미지를 함께 섞을 수 있습니다. 따라서 결국 그리는 개구리는 훈련 목적으로 사용한 개구리와 꼭 같지는 않습니다.

즉, AI 알고리즘이 그렇게 가정할 수 있는 만큼의 일반화를 수행하지 않을 가능성이 있습니다. 고유한 교육 이미지가 있고 유사한 종류의 다른 이미지가 없는 경우 AI가 수신한 유일한 특정 인스턴스에 가깝게 "일반화"할 수 있습니다. 이 경우 나중에 해당 특성의 요청된 이미지를 생성하려는 알고리즘의 시도는 훈련 세트에 있는 모든 것과 현저하게 유사하게 보일 수 있습니다.

AI 윤리 및 AI 법과 관련된 몇 가지 생각을 제공하기 위해 잠시 멈추겠습니다.

언급한 바와 같이, 생성적 AI가 인터넷에서 훈련된다면, 이는 인터넷에 공개적으로 게시된 모든 것이 AI 알고리즘에 의해 활용될 가능성이 있음을 의미합니다. 그런 다음 당신이 작업한 멋진 예술 작품이 있고 그 예술 작품에 대한 권리를 소유하고 있다고 믿는다고 가정해 보십시오. 온라인에 사진을 게시합니다. 당신의 작품을 사용하고 싶은 사람은 누구든지 당신에게 와서 그 사용료를 지불해야 합니다.

이것이 어디로 향하고 있는지 이미 감지하고 있을지도 모릅니다.

Dour 뉴스를 위해 거기에 기다리십시오.

따라서 인터넷의 콘텐츠를 광범위하게 검사하여 훈련을 받는 생성 AI 앱이 멋진 예술 작품을 감지합니다. 작품의 이미지가 AI 앱에 흡수됩니다. 당신의 예술성의 특성은 이제 다른 스캔한 작품과 수학적으로 결합되고 있습니다. 예술 작품을 생성하라는 요청을 받으면 AI는 새로 생성된 예술 이미지를 구성할 때 작품을 활용할 수 있습니다. 예술품을 수집하는 사람들은 AI 알고리즘이 당신의 걸작에 어느 정도 각인했기 때문에 어떤 의미에서 예술품이 온통 당신의 특정한 지문을 가지고 있다는 사실을 깨닫지 못할 수도 있습니다.

또한 아트워크가 매우 독창적인 경우 AI 앱에서 예술성을 더 잘 보여주는 방식으로 재사용할 수 있습니다. 따라서 때로는 새로 생성된 일부 AI 아트워크에서 아트워크를 거의 알아볼 수 없을 수도 있고, 다른 경우에는 생성된 아트워크가 거의 점치는 이미지일 수도 있습니다.

그렇다면 이 시나리오에 AI 윤리를 도입하는 것이 시의적절합니다.

제너레이티브 AI가 당신의 작품과 유사한 작품을 생성한 것이 윤리적으로 적절합니까?

일부는 예라고 말하고 일부는 아니오라고 말합니다.

이것이 윤리적으로 완벽하다고 믿는 찬성 진영은 아마도 당신이 당신의 예술 작품을 온라인에 게시했기 때문에 그것을 복사하려는 누구에게나 무엇이든 열려 있다고 주장할 것입니다. 또한 그들은 새로운 예술이 당신의 작품과 정확히 일치하지 않는다고 주장할 수도 있습니다. 따라서 불평할 수 없습니다. 어떻게든 기존 아트의 모든 재사용을 중단한다면 볼 새로운 아트가 전혀 없을 것입니다. 또한 귀하의 특정 아트워크가 복사 또는 악용되고 있는지 여부에 대해 열띤 논쟁을 벌일 수 있습니다. 존재하는지도 몰랐고 실제로는 기본 소스인 다른 아트워크일 수도 있습니다.

반대 진영은 이것이 매우 비윤리적이라고 강력하게 주장할 것입니다. 그것에 대해 두 가지 방법이 없습니다. 그들은 당신이 바가지를 쓰고 있다고 주장할 것입니다. 작품이 온라인에 게시된다고 해서 누구나 따라와서 자유롭게 복사할 수 있다는 의미는 아닙니다. 복사하지 말라는 엄중한 경고와 함께 작품을 게시했을 수도 있습니다. 그러는 동안 AI가 나타나 예술을 제거하고 경고를 완전히 건너뛰었습니다. 터무니없다! 그리고 AI 알고리즘이 일반화되었고 정확한 복사의 핵심을 수행하지 않는다는 변명은 그 가짜 변명 중 하나처럼 보입니다. 그것은 당신의 예술성을 이용하는 방법을 알아냈고 이것은 사기이고 부끄러운 일입니다.

이 생성 AI의 법적 측면은 어떻습니까?

제너레이티브 AI의 법적 세부 사항에 대해 많은 어려움이 있습니다. 지적 재산권(IP) 권리에 관한 연방법을 살펴보십니까? 지원하기에 충분히 공격적입니까? 제너레이티브 AI가 훈련 세트를 수집하기 위해 국경을 넘어갈 때는 어떻습니까? AI가 생성한 예술 작품은 지적 재산권과 관련된 다양한 배타적 범주에 속합니까? 등등.

어떤 사람들은 특히 이러한 종류의 생성 AI 상황에 대처하기 위해 새로운 AI 관련 법률이 필요하다고 생각합니다. 기존 법을 구부리려고 하기보다 새로운 법을 구성하는 것이 더 깨끗하고 쉬울 수 있습니다. 또한 기존 법률이 적용되더라도 법적 조치를 취하는 데 소요되는 비용과 지연은 막대할 수 있으며 부당하고 불법적으로 피해를 입었다고 생각될 때 추진할 수 있는 능력을 방해할 수 있습니다. 이 주제에 대한 나의 적용 범위는 다음을 참조하십시오. 여기 링크.

이러한 AI 윤리 및 AI 법률 고려 사항에 추가 트위스트를 추가하겠습니다.

생성된 AI 출력에 대한 권리는 누구에게 있습니까?

AI를 개발한 인간이 그 권리를 소유해야 한다고 말할 수 있습니다. 모든 사람이 그러한 주장에 동의하는 것은 아닙니다. AI가 그러한 권리를 소유한다고 말할 수 있지만, 일반적으로 AI가 그러한 권리를 소유할 수 있는 것으로 인식하지 않는다는 사실에 의해 혼란스러워집니다. AI가 법인격을 갖게 될지 여부를 알아낼 때까지는 이 면에서 상황이 불확실합니다. 여기 링크.

나는 당신이 이제 생성적 AI가 하는 일과 비슷하다고 믿습니다. 다음으로 텍스트 기반 내러티브 생성과 관련된 사용 사례를 고려할 수 있습니다.

텍스트 기반 내러티브를 생성하는 생성 AI

예술이나 이미지를 생성하기 위해 생성 AI를 사용하는 것에 대해 논의했으므로 텍스트 기반 내러티브를 생성하기 위해 동일한 일반 공식을 쉽게 살펴볼 수 있습니다.

우리 모두가 알고 있고 매일 사용하는 경향이 있는 것부터 시작합시다. 워드 프로세싱 패키지나 이메일 앱에 텍스트를 입력할 때 맞춤법 오류를 잡아내는 자동 수정 기능이 있을 가능성이 높습니다.

이러한 종류의 자동 지원 기능이 일반화되면 다음 고급 패싯은 자동 완성 기능으로 구성되었습니다. 자동 완성의 경우, 개념은 문장을 쓰기 시작하면 워드 프로세서 또는 이메일 앱이 다음에 입력할 가능성이 있는 단어를 예측하려고 시도한다는 것입니다. 앞으로 한두 단어만 예측할 수도 있습니다. 기능이 특히 강화된 경우 전체 문장의 나머지 부분을 예측할 수 있습니다.

우리는 이것을 빠르게 시작할 수 있습니다. 문장을 쓰기 시작하고 자동 완성 기능이 전체 단락의 나머지 부분을 생성한다고 가정합니다. Voila, 단락을 직접 작성할 필요가 없었습니다. 대신, 앱이 당신을 위해 그렇게 했습니다.

좋습니다. 멋진 것 같습니다. 이것을 더 밀어 넣으십시오. 문장을 시작하면 자동 완성 기능이 전체 메시지의 나머지 부분을 구성합니다. 이것은 많은 단락으로 구성될 수 있습니다. 이 모든 것은 문장의 일부 또는 전체 문장 또는 두 문장을 입력함으로써 생성됩니다.

자동 완성 기능은 사용자가 다음에 입력할 내용을 어떻게 파악합니까?

인간은 같은 것을 계속해서 쓰는 경향이 있다는 것이 밝혀졌습니다. 아닐 수도 있지만 요점은 당신이 쓰고 있는 것이 무엇이든 다른 사람이 이미 쓴 것일 수 있다는 것입니다. 작성하려는 내용이 아닐 수도 있습니다. 대신, 작성하려는 내용과 다소 유사할 수 있습니다.

예술이나 이미지를 생성하는 데 사용된 것과 동일한 논리를 사용합시다.

생성 AI 앱은 인터넷에 나가 온라인 세계에 존재하는 모든 종류의 텍스트를 검사하여 준비됩니다. 알고리즘은 단어가 다른 단어와 어떻게 관련되어 있는지, 문장이 다른 문장과 어떻게 관련되어 있는지, 단락이 다른 단락과 어떻게 관련되어 있는지 계산적으로 식별하려고 합니다. 이 모든 것이 수학적으로 모델링되고 전산 네트워크가 구축됩니다.

다음은 다음과 같습니다.

텍스트 기반 내러티브 생성에 중점을 둔 생성 AI 앱을 사용하기로 결정했습니다. 앱을 실행하면 문장을 입력합니다. AI 앱은 문장을 계산적으로 검사합니다. 입력한 단어 사이의 다양한 수학적 관계는 수학적 네트워크에서 다음에 어떤 텍스트가 올지 확인하는 데 사용됩니다. 당신이 쓰는 한 줄에서 전체 이야기나 내러티브가 생성될 수 있습니다.

이제 이것이 Monkey-see-monkey-do이고 생성 AI에 의해 생성된 결과 텍스트가 무의미할 것이라고 생각할 수 있습니다. 음, 이런 종류의 AI가 얼마나 잘 조정되고 있는지 알면 놀랄 것입니다. 교육용으로 충분히 큰 데이터 세트와 이를 광범위하게 처리할 수 있는 충분한 컴퓨터 처리를 통해 생성 AI가 생성하는 출력은 놀라울 정도로 인상적일 수 있습니다.

출력을 보고 생성된 내러티브가 사람이 직접 쓴 것이 확실하다고 맹세할 것입니다. 그것은 마치 당신의 문장이 배후에 숨어 있는 인간에게 전달된 것과 같으며, 그들은 당신이 말하려는 것과 거의 완전히 일치하는 전체 이야기를 당신에게 빠르게 썼습니다. 그만큼 수학과 전산 기반이 훌륭해졌습니다.

일반적으로 텍스트 기반 내러티브를 생성하는 생성 AI를 사용할 때 시작 질문이나 일종의 주장을 제공하는 경향이 있습니다. 예를 들어 "Tell me about birds in North America"라고 입력하면 생성 AI는 이를 어설션 또는 질문으로 간주하여 앱이 훈련된 데이터 세트를 사용하여 "birds"와 "North America"를 식별하려고 합니다. 그것은 있다. 북미의 새를 설명하는 방대한 텍스트가 인터넷에 존재하며 사전 훈련 중에 AI가 텍스트 저장소를 추출하고 모델링했다고 상상할 수 있을 것입니다.

귀하를 위해 생성된 출력물은 특정 온라인 사이트의 정확한 텍스트가 아닐 수 있습니다. 이전에 생성된 아트웍에 대해서도 동일한 내용이 언급되었음을 상기하십시오. 텍스트는 수학 및 계산적으로 함께 묶인 종류, 비트 및 조각의 합성물입니다. 생성된 텍스트 기반 내러티브는 이 특정 텍스트가 이전에 누군가에 의해 작성된 적이 없는 것처럼 모든 전반적인 모양에 대해 고유한 것처럼 보입니다.

물론 숨길 수 없는 단서가 있을 수 있습니다. 생성 AI에게 매우 모호한 주제로 들어가도록 요청하거나 요청하면 사용 중인 소스와 유사한 텍스트 출력을 볼 가능성이 더 높아집니다. 그러나 텍스트의 경우 가능성은 일반적으로 예술의 경우보다 낮습니다. 텍스트는 주제의 세부 사항을 결합한 것일 뿐만 아니라 전체 담론에서 사용되는 일반적인 유형의 텍스트와 흐려지고 병합될 것입니다.

이러한 생성 AI 기능에 사용되는 수학적 및 계산 기술과 기술을 AI 내부자는 종종 LLM(대형 언어 모델)이라고 합니다. 간단히 말해서 이것은 대규모 기반의 인간 언어 모델링입니다. 인터넷 이전에는 온라인에서 저렴하게 사용할 수 있는 매우 큰 텍스트 데이터 세트를 찾는 데 어려움을 겪었을 것입니다. 텍스트에 대한 액세스 권한을 구입해야 했을 것이며 전자 또는 디지털 형식으로 이미 사용 가능하지 않았을 수도 있습니다.

아시다시피 인터넷은 제너레이티브 AI 훈련을 위한 준비된 소스가 되는 데 유용합니다.

텍스트를 생성하는 생성 AI에 대해 기민하게 생각하기

텍스트 기반 내러티브를 생성하는 생성 AI의 AI 윤리 및 AI 법률 파급 효과에 대해 잠시 생각해 봐야 합니다.

생성된 예술의 경우 인간이 제작한 다른 예술 작품을 기반으로 예술을 생산하는 AI 알고리즘의 윤리에 대해 걱정했음을 기억하십시오. 텍스트 기반 인스턴스에서도 동일한 문제가 발생합니다. 생성된 텍스트가 원본 소스와 정확히 일치하지 않더라도 그럼에도 불구하고 AI가 텍스트를 악용하고 원본 제작자가 바가지를 쓰고 있다고 주장할 수 있습니다. 동전의 다른 면은 인터넷에 있는 텍스트를 무료로 사용할 수 있는 경우 모든 사람이 마찬가지로 사용할 수 있다는 것입니다. 따라서 AI가 동일한 작업을 수행하도록 허용하지 않는 이유는 무엇입니까?

지적 재산권의 법적 측면과 관련된 합병증은 텍스트 기반 생성 AI의 경우에도 전면에 나타납니다. 학습 중인 텍스트에 저작권이 있다고 가정할 때 생성된 텍스트가 그러한 법적 권리를 침해한다고 말할 수 있습니까? 한 가지 대답은 그렇다는 것이고 또 다른 대답은 그렇지 않다는 것입니다. 생성된 텍스트는 원본 텍스트와 상당히 멀리 떨어져 있을 수 있으므로 원본 텍스트가 찢어졌다고 주장하기 어려울 수 있습니다.

이미 언급한 또 다른 우려 사항은 생성 AI가 생성한 텍스트 기반 내러티브에 대한 소유권입니다. AI에 “커피를 마시기 위해 줄을 서서 기다리는 사람들에 대한 재미있는 이야기를 작성하세요. 자바.

누가 그 이야기를 소유하고 있습니까?

프롬프트를 입력했으므로 생성된 스토리를 정당하게 "소유"해야 한다고 주장할 수 있습니다. 와우, 어떤 사람들은 AI가 이야기가 생성되는 방식이라고 말할 것입니다. 따라서 AI는 즐거운 이야기를 "소유"합니다. 다른 사람들은 AI가 인터넷에 있는 모든 종류의 유사한 이야기에서 일부를 가져온다면 모든 인간 작가가 소유권을 공유해야 한다고 권고할 것입니다.

이 문제는 해결되지 않았으며 우리는 이제 막 앞으로 몇 년 동안 펼쳐질 법적인 수렁에 빠져들고 있습니다.

추가적인 AI 윤리 및 AI 법률 문제가 발생합니다.

생성 AI 앱을 사용해 온 일부 사람들은 AI 앱이 지각력이 있다고 믿기 시작했습니다. 틀림없이 그들은 외친다. AI가 만들어낼 수 있는 놀라운 답변과 스토리를 달리 어떻게 설명할 수 있을까요? 우리는 마침내 지각 있는 AI를 달성했습니다.

그들은 완전히 틀렸습니다.

이것은 지각 AI가 아닙니다.

내가 이것을 말할 때, 일부 AI 내부자들은 화를 내며 AI가 지각이 있다는 것을 부정하는 사람이 동시에 AI가 가치가 없다고 말하는 것처럼 행동합니다. 그것은 거짓되고 잘못된 주장입니다. 저는 이 생성형 AI가 상당히 인상적이라는 데 공개적으로 동의합니다. 나중에 언급하겠지만 모든 용도로 사용할 수 있습니다. 그럼에도 감각적이지 않다. 이러한 종류의 AI 혁신이 지각력이 없는 이유에 대한 설명은 다음을 참조하십시오. 여기 링크.

일부 사람들의 크고 명백하게 잘못된 또 다른 주장은 생성 AI가 튜링 테스트에서 성공적으로 승리했다는 것입니다.

가장 확실하게 지원 그렇게했다.

튜링 테스트는 인공지능 앱이 인간과 대등할 수 있는지를 확인하는 일종의 테스트다. 원래 위대한 수학자이자 컴퓨터 선구자인 Alan Turing이 모방 게임으로 고안한 테스트 자체는 간단합니다. 사람을 커튼 뒤에 놓고 AI 앱을 또 다른 커튼 뒤에 놓고 두 가지 질문을 모두 했을 때 어느 것이 기계이고 어느 것이 사람인지 판단할 수 없다면 AI는 성공적으로 통과할 것입니다. 튜링 테스트. 튜링 테스트에 대한 자세한 설명과 분석은 다음을 참조하십시오. 여기 링크.

생성형 AI가 튜링 테스트를 통과했다고 계속 아우성치는 사람들은 자신들이 무슨 말을 하는지 모릅니다. 그들은 튜링 테스트가 무엇인지에 대해 무지하거나 슬프게도 잘못되고 완전히 오해의 소지가 있는 방식으로 AI를 과장하고 있습니다. 어쨌든 튜링 테스트에 대한 중요한 고려 사항 중 하나는 어떤 질문을 해야 하는지, 누구와 함께 질문을 하고 답변이 인간의 품질인지 평가하는 것입니다.

내 요점은 사람들이 생성 AI에 XNUMX개 정도의 질문을 입력하고 있고 대답이 그럴듯해 보일 때 이 사람들은 튜링 테스트를 통과했다고 경솔하게 선언한다는 것입니다. 다시 말하지만 이것은 거짓입니다. 어설픈 질문 세트를 입력하고 여기저기 찌르는 것은 튜링 테스트의 의도도 정신도 아닙니다. 이러한 불명예스러운 주장을 중지하십시오.

여기 당신이 많이 듣지 못하는 정당한 불평이 있습니다. 비록 나는 그것이 대단히 가치 있다고 생각하지만요.

AI 개발자는 일반적으로 생성 AI를 설정하여 마치 사람이 응답하는 것처럼 응답합니다. 즉, 출력을 구성할 때 "나" 또는 "나"라는 문구를 사용합니다. 예를 들어, 숲에서 길을 잃은 개에 대한 이야기를 해달라고 요청할 때 생성 AI는 “숲에서 길을 잃은 Sam이라는 개에 대해 모두 말하겠습니다. 이것은 내가 가장 좋아하는 이야기 중 하나입니다.”

"I will tell you..."라는 문구와 이야기가 "내가 가장 좋아하는 것 중 하나"라는 점에 유의하십시오. 따라서 이 출력을 읽는 사람은 누구나 AI를 의인화하는 정신적 함정에 미묘하게 빠질 것입니다. 의인화는 인간이 인간과 유사한 특성과 인간이 아닌 인간의 감정을 부여하려는 인간으로 구성됩니다. 출력 내의 문구가 의도적으로 그렇게 고안되었기 때문에 이 AI가 인간 또는 인간과 유사하다고 믿게 됩니다.

이것은 그런 식으로 고안될 필요가 없습니다. 출력은 “여기 숲에서 길을 잃은 Sam이라는 개에 대한 이야기가 있습니다. 이것은 호의적인 이야기입니다.” AI가 인간이거나 인간과 비슷하다고 즉시 가정할 가능성은 다소 적습니다. 나는 당신이 여전히 그 함정에 빠질 수 있다는 것을 알고 있지만 적어도 함정은 그랬듯이 그다지 뚜렷하지 않습니다.

요컨대, 인간이 쓰는 방식을 기반으로 텍스트 기반 내러티브를 생성하는 생성 AI가 있으며 결과 출력은 인간이 무언가를 쓰는 것처럼 작성된 것처럼 보입니다. AI는 인간이 작성한 내용을 수학적이고 계산적으로 패턴화하기 때문에 충분히 의미가 있습니다. 여기에 의인화 문구 사용을 추가하면 AI가 지능이 있거나 튜링 테스트를 통과했다고 사람들을 확신시키는 완벽한 폭풍을 얻을 수 있습니다.

많은 AI 윤리 및 AI 법률 문제가 발생합니다.

이 생성 AI의 다소 위험한 파급 효과에 대해 알려 드리겠습니다.

이것을 위해 앉으십시오.

생산되는 텍스트 기반 내러티브는 반드시 진실성 또는 정확성을 준수하지 않습니다. 생성적 AI가 무엇이 생성되고 있는지 "이해"하지 않는다는 점을 인식하는 것이 중요합니다(인간과 관련된 방식이 아님). 훈련에 사용된 텍스트에 거짓이 포함된 경우 동일한 거짓이 생성 AI 수학 및 계산 네트워크에 조작될 가능성이 있습니다.

또한 생성 AI에는 일반적으로 생성된 텍스트에 거짓이 포함되어 있음을 식별할 수 있는 수학적 또는 계산적 수단이 없습니다. 생성된 내러티브 출력을 볼 때 내러티브는 일반적으로 완전히 "진실"하게 보입니다. 내러티브에 거짓이 포함되어 있는지 감지할 수 있는 실행 가능한 수단이 없을 ​​수도 있습니다.

생성 AI에게 의학적 질문을 한다고 가정해 보겠습니다. AI 앱은 긴 내러티브를 생성합니다. 대부분의 내러티브가 이치에 맞고 합리적으로 보인다고 상상해 보십시오. 그러나 의료 전문가가 아니라면 내러티브에 몇 가지 중요한 거짓이 있다는 사실을 깨닫지 못할 수도 있습니다. 아마도 텍스트는 XNUMX시간에 XNUMX알을 먹으라고 말하고 있지만 실제로는 의학적 권장 사항은 XNUMX시간에 XNUMX알을 먹는 것입니다. 주장된 XNUMX알약 조언을 믿을 수도 있습니다. 단순히 이야기의 나머지 부분이 합리적이고 합리적인 것처럼 보였기 때문입니다.

원본 소스 데이터의 거짓에 대한 AI 패턴을 갖는 것은 이러한 내러티브에서 AI를 비스듬하게 만드는 한 가지 수단일 뿐입니다. 사용 중인 수학적 및 계산 네트워크에 따라 AI는 물건을 "구성"하려고 시도합니다. AI 용어로는 AI라고 합니다. 환각, 나는 진지하게 동의하지 않는 끔찍한 용어이며 캐치 프레이즈로 계속되어서는 안된다고 주장합니다. 여기 링크.

생성 AI에게 개에 대한 이야기를 해달라고 요청했다고 가정해 보겠습니다. AI는 결국 개가 날 수 있게 만들 수 있습니다. 당신이 원했던 이야기가 현실을 기반으로 했다면, 날아다니는 개는 있을 것 같지 않습니다. 당신과 나는 개가 선천적으로 날 수 없다는 것을 알고 있습니다. 모두가 이것을 알고 있기 때문에 별거 아니라고 당신은 말합니다.

학교에서 개에 대해 배우려고 하는 어린이를 상상해 보십시오. 그들은 생성 AI를 사용합니다. 그것은 개가 날 수 있다는 출력을 생성합니다. 아이는 이것이 사실인지 아닌지 알지 못하고 그것이 사실이어야 한다고 가정합니다. 어떤 의미에서 아이가 온라인 백과사전을 가보니 개가 날 수 있다고 되어 있는 것 같습니다. 그 아이는 아마 앞으로 개가 정말 날 수 있다고 주장할 것입니다.

AI 윤리 및 AI 법률 수수께끼로 돌아가서, 우리는 이제 생성 AI를 사용하여 거의 무한한 양의 텍스트 기반 콘텐츠를 생산할 수 있는 직전에 있으며, 의심 할 여지없이 거짓 및 기타 관련 허위 정보 및 잘못된 정보 급류로 가득 차 있습니다.

예, 버튼을 누르고 생성 AI에 몇 단어를 입력하면 완전히 그럴듯하고 진실해 보이는 텍스트 내러티브를 생성할 수 있습니다. 그런 다음 온라인에 게시할 수 있습니다. 다른 사람들은 자료를 읽고 그것이 사실이라고 가정할 것입니다. 게다가 텍스트에 대해 훈련을 받으려고 노력하는 다른 생성 AI는 잠재적으로 이 자료를 접하고 이를 고안하고 있는 생성 AI로 래핑할 것입니다.

그것은 마치 우리가 잘못된 정보와 잘못된 정보를 생성하는 데 스테로이드를 추가하는 것과 같습니다. 우리는 방대한 은하계 규모의 잘못된 정보와 잘못된 정보를 향해 가고 있습니다.

모든 것을 생산하는 데는 거의 인간의 노동력이 필요하지 않습니다.

생성 AI 및 ChatGPT

제너레이티브 AI에 대한 이 토론의 헤드라이너로 갑시다. 이제 우리는 전체적으로 텍스트 기반 내러티브를 생성하는 생성 AI의 특성을 다루었습니다. 사용 가능한 생성 AI 앱이 많이 있습니다.

특히 악명을 얻은 AI 앱 중 하나는 ChatGPT로 알려져 있습니다.

홍보 쿠데타가 소셜 미디어와 뉴스 전반에 퍼졌습니다. ChatGPT는 지금 모든 영광을 얻고 있습니다. 빛이 ChatGPT에 밝게 빛나고 있습니다. 놀라운 XNUMX분의 명성을 얻고 있습니다.

ChatGPT는 OpenAI로 알려진 엔티티가 개발한 생성 AI 앱의 이름입니다. OpenAI는 AI 분야에서 꽤 잘 알려져 있으며 AI 연구소로 간주될 수 있습니다. 그들은 다른 AI 발전과 함께 자연어 처리(NLP)를 위한 AI와 관련하여 한계를 뛰어넘는 것으로 명성이 높습니다. 그들은 GPT(Generative Pre-Trained Transformers)라는 이름으로 만든 일련의 AI 앱에 착수했습니다. 각 버전에는 번호가 부여됩니다. 이전에 GPT-3(GPT 시리즈의 버전 3)에 대해 쓴 적이 있습니다. 여기 링크.

GPT-3는 처음 출시되었을 때 꽤 많은 관심을 받았습니다(약 2022년 전에 광범위한 베타 테스트에 들어갔고 3년에 더 광범위하게 사용할 수 있게 되었습니다). 프롬프트를 입력하면 텍스트 기반 내러티브를 생성하거나 생성하는 생성 AI 앱입니다. 제너레이티브 AI 앱의 일반적인 경우에 대해 앞서 언급한 모든 것은 기본적으로 GPT-XNUMX에 적용됩니다.

GPT-4가 진행 중이며 AI 분야의 사람들은 GPT-4와 대조하여 GPT-3에 어떤 개선 또는 향상이 있는지 확인하기 위해 숨을 죽이고 기다리고 있었습니다. 이 시리즈에는 GPT-3.5로 알려진 최신 인비트위너가 등장합니다. 예, 맞습니다. 출시된 GPT-3과 아직 출시되지 않은 GPT 4.0 사이에 있습니다.

OpenAI는 GPT-3.5를 사용하여 ChatGPT라는 파생물을 만들었습니다. 그들은 ChatGPT를 만들기 위해 몇 가지 특별한 개선을 했다고 합니다. 예를 들어 떠오른 개념은 ChatGPT가 챗봇 방식으로 작업할 수 있도록 맞춤화되었다는 것입니다. 여기에는 AI 앱과의 "대화"가 포함되며, 이는 AI가 추적하고 이후에 요청된 내러티브를 생성하는 데 사용됩니다.

많은 제너레이티브 AI 앱은 일회성 디자인인 경향이 있습니다. 프롬프트를 입력하면 AI가 내러티브를 생성하고 그게 다입니다. 다음 프롬프트는 다음에 일어날 일과 관련이 없습니다. 프롬프트를 입력할 때마다 새로 시작하는 것과 같습니다.

ChatGPT의 경우에는 그렇지 않습니다. 아직 밝혀지지 않은 방식으로 AI 앱은 프롬프트에서 패턴을 감지하려고 시도하므로 요청에 더 잘 반응하는 것처럼 보일 수 있습니다(이 AI 앱은 공개적으로 접근 가능 누구나 가입하여 사용할 수 있기 때문에 여전히 소유권 그리고 결정적으로 지원 내부 작동을 공개하는 오픈 소스 AI 앱). 예를 들어, 모자를 쓴 개구리가 굴뚝에 있는 것을 보고 싶다는 나의 이전 표시를 기억하십시오. 한 가지 방법은 그러한 요청을 할 때마다 모든 것이 새로 시작된다는 것입니다. 또 다른 방법은 이전에 말한 것을 계속할 수 있다는 것입니다. 따라서 AI에게 개구리를 앉히기를 원한다고 말할 수 있습니다. 그 자체로는 말이 안 되는 반면, 굴뚝에 모자를 쓴 개구리를 요청한 이전 프롬프트의 맥락에서 요청은 겉보기에는 말이 되는 것 같습니다.

왜 갑자기 ChatGPT가 전성기를 누리고 번창하는지 궁금하실 것입니다.

부분적으로는 ChatGPT를 사용하기 위해 가입하려는 모든 사람이 ChatGPT를 사용할 수 있게 되었기 때문입니다. 과거에는 새로 제공되는 제너레이티브 AI 앱을 누가 사용할 수 있는지에 대한 선택적 기준이 있는 경우가 많았습니다. 공급자는 귀하가 AI 내부자이거나 다른 규정이 있을 것을 요구할 것입니다. ChatGPT는 그렇지 않습니다.

ChatGPT는 사용하기 매우 쉽고 무료이며 이메일 주소를 제공하기만 하면 되는 간단한 가입으로 사용할 수 있다는 소문이 빠르게 퍼졌습니다. 속사포처럼 갑자기 그리고 소셜 미디어의 입소문 게시물을 통해 자극을 받거나 박차를 가한 ChatGPT 앱은 사용자가 백만 명을 넘었다고 합니다. 뉴스 매체는 ChatGPT에 XNUMX만 명이 가입했다는 측면을 강조해왔다.

이것은 확실히 놀랍고 주목할 만하지만 이러한 가입의 맥락을 염두에 두십시오. 무료이며 쉽게 가입할 수 있습니다. 챗봇은 사용하기 매우 쉽고 사전 교육이나 경험이 필요하지 않습니다. 자신이 선택한 프롬프트와 문구를 입력하기만 하면 AI 앱이 생성된 내러티브를 제공하는 shazam입니다. 아이들이 이것을 할 수 있습니다. 이것은 실제로 일부 사람들이 우려하는 걱정거리입니다. 즉, 아이들이 ChatGPT를 사용하는 경우 의심스러운 자료를 배우게 될까요(이러한 문제에 대한 이 문서의 이전 요점에 따라)?

또한 백만 건의 가입 중 일부(다수?)가 아마도 타이어를 걷어차고 더 이상 아무것도 하지 않기를 원했던 사람들이라는 점을 지적하는 것은 아마도 주목할 만합니다. 그들은 빠르게 계정을 만들고, 잠시 동안 AI 앱을 가지고 놀았고, 그것이 재미 있고 놀랍다고 생각한 다음, 그들이 찾은 것을 보여주기 위해 소셜 미디어 게시물을 올렸을 것입니다. 그 후에는 다시 로그인하지 않거나 최소한 특정 요구 사항이 있는 경우에만 AI 앱을 사용할 수 있습니다.

다른 사람들은 또한 ChatGPT를 사용할 수 있는 시기가 AI 앱에 큰 관심을 불러일으키는 시기와 일치한다고 지적했습니다. 아마도 연휴 동안에는 재미있는 아이템을 가지고 놀 시간이 더 많을 것입니다. 소셜 미디어의 등장도 이를 일종의 현상으로 몰아넣었다. 고전적인 FOMO(놓치는 것에 대한 두려움)는 아마도 기분 나쁜 돌진에 추가되었을 것입니다. 물론 XNUMX만 명을 일부 인기 있는 YouTube 인플루언서와 비교하면 처음 게시되거나 게시될 때 수억 건의 가입 또는 조회수를 얻는 동영상 블로그와 비교할 때 XNUMX만 명은 미미한 숫자라고 제안할 수 있습니다.

음, 벗어나지 말고 여전히 실험적 성격의 AI 앱의 경우 백만 가입은 확실히 자랑할만한 가치가 있다는 점에 유의하십시오.

즉시 사람들은 ChatGPT를 사용하여 이야기를 만들었습니다. 그런 다음 그들은 이야기를 게시하고 그 기적에 대해 분출했습니다. 기자와 언론인은 심지어 ChatGPT와 "인터뷰"를 하고 있는데, 이는 그들이 동일한 의인화 함정에 빠지고 있기 때문에 약간 당혹스럽습니다(실제로 알지 못하거나 기사에 대해 더 큰 조회수를 얻으려는 희망을 통해). 즉각적인 경향 역시 AI가 이제 지각력에 도달했거나 튜링 테스트를 통과했다고 선언하는 것이었습니다.

ChatGPT에 의해 제기된 사회적 우려는 실제로 이전 버전의 GPT와 이미 사용 가능한 수많은 LLM 및 생성 AI의 결과로 이미 스며든 문제입니다. 차이점은 이제 전 세계가 차임을 선택했다는 것입니다. 편리합니다. 우리는 AI 윤리와 AI 법이 적절한 노출과 관심을 받도록 해야 합니다. ChatGPT가 필요하다면 그렇게 하세요.

어떤 종류의 우려가 표명되고 있습니까?

학생들이 수업에 대한 에세이를 작성하도록 요청받은 사용 사례를 살펴보십시오. 일반적으로 학생은 전적으로 자신의 작문 및 작문 능력을 바탕으로 에세이를 작성해야 합니다. 물론, 그들은 아이디어와 인용문을 얻기 위해 다른 서면 자료를 볼 수도 있지만, 그렇지 않으면 학생이 자신의 머리에서 에세이를 꾸며내는 것으로 간주됩니다. 다른 출처에서 산문을 베끼는 것은 눈살을 찌푸리게 하며, 일반적으로 F 등급을 받거나 다른 자료를 표절하면 퇴학당할 수 있습니다.

요즘에는 여기에서 일어날 수 있는 일이 있습니다. 학생이 ChatGPT(또는 유사한 생성 AI 앱)에 가입합니다. 그들은 에세이를 도출할 목적으로 교사가 그들에게 준 모든 프롬프트를 입력합니다. ChatGPT는 프롬프트를 기반으로 완전한 에세이를 생성합니다. 다른 곳에서는 반드시 찾을 수 없다는 점에서 "오리지널" 구성입니다. 어떤 의미에서 보면 표절이 아니었기 때문에 작곡이 표절되었다는 것을 증명할 수 없습니다.

학생이 에세이를 제출합니다. 자신들의 저작물이라고 주장하고 있다. 교사는 다르게 생각할 준비가 된 수단이 없습니다. 즉, 서면 작업이 학생의 기존 능력을 넘어선 것처럼 보이는 경우 의심을 받을 수 있다는 개념을 떠올릴 수 있습니다. 그러나 학생의 부정 행위를 고발하려는 경우에는 그렇게 할 일이 많지 않습니다.

교사들은 이에 어떻게 대처할 것인가?

일부는 ChatGPT 또는 이와 유사한 것을 사용하는 것은 부정 행위의 한 형태로 간주된다는 규칙을 교재에 적용하고 있습니다. 또한 ChatGPT 또는 이와 동등한 것을 사용하지 않는 것은 부정 행위의 한 형태입니다. 이 새로운 기회가 줄어들까요? 잘 쓴 논문에서 좋은 성적을 받을 확률은 높은 반면, 잡힐 확률은 낮기 때문에 의심스럽다고 한다. 에세이를 작성해야 하는 마감일에 직면한 학생들이 전날 밤 잼에서 벗어나기 위해 생성 AI를 사용하고 싶은 유혹을 느낄 수 있습니다.

변속 기어, 모든 유형의 글쓰기는 잠재적으로 분열 된 생성 AI에 의해.

직장에서 이런 저런 일에 대해 메모를 작성하라는 요청을 받고 있습니까? 처음부터 그렇게 해서 시간을 낭비하지 마십시오. 생성 AI를 사용합니다. 그런 다음 생성된 텍스트를 잘라내어 컴포지션에 붙여넣고, 필요에 따라 텍스트를 수정하고, 힘든 글쓰기 작업을 쉽게 완료할 수 있습니다.

이렇게 하는 것이 적절해 보입니까?

나는 대부분의 사람들이 도대체 그렇다고 말할 것이라고 장담합니다. 이것은 표절의 뜨거운 물에 빠질 수 있는 인터넷에서 무언가를 복사하는 것보다 훨씬 낫습니다. 제너레이티브 AI를 사용하여 작문 노력을 부분적으로 완료하거나 완전히 완료하는 것은 매우 합리적입니다. 그것이 도구가 만들어지는 이유입니다.

여담이지만, 다음 칼럼에서는 변호사 유형의 업무를 수행하고 법률 문서를 생성한다는 의미에서 법적 목적으로 생성 AI를 활용하는 사용 사례를 면밀히 검토할 것입니다. 변호사나 법률 전문가라면 누구나 생성 AI가 잠재적으로 법적 관행을 근절하거나 뒤엎을 수 있는 방법을 고려하고 싶어할 것입니다. 예를 들어 법원 사건에 ​​대한 법적 서류를 작성하는 변호사를 생각해 보십시오. 그들은 잠재적으로 생성 AI를 사용하여 구성을 작성할 수 있습니다. 물론 약간의 결함이 있을 수 있으므로 변호사가 여기 저기 수정해야 합니다. 브리핑을 제작하는 데 드는 노동력과 시간이 줄어듦에 따라 수정 작업을 가치 있게 만들 수 있습니다.

일부에서는 법률 문서에 변호사가 포착하지 못한 허위 또는 AI 환각이 포함될 수 있다고 우려하고 있습니다. 그 반전의 관점은 이것이 변호사의 어깨에 있다는 것입니다. 그들은 아마도 브리핑이 자신에 의해 작성되었음을 나타내기 때문에 후배가 작성했든 AI 앱이 작성했든 여전히 최종 내용에 대한 최종 책임이 있습니다.

이것이 더 어려워지는 곳은 변호사가 아닌 사람들이 생성 AI를 사용하여 법적 다리 작업을 하기 시작하는 경우입니다. 그들은 생성 AI가 모든 종류의 법률 문서를 생성할 수 있다고 믿을 수 있습니다. 물론 문제는 문서가 법적으로 유효하지 않을 수 있다는 것입니다. 이에 대해서는 다음 칼럼에서 자세히 말씀드리겠습니다.

사회와 인간의 글쓰기 행위에 대한 중요한 경험 법칙이 생겨나고 있습니다.

일종의 중대한 일입니다.

  • 무언가를 작성해야 할 때마다 항목을 처음부터 작성해야 합니까, 아니면 생성 AI 도구를 사용하여 작업을 진행해야 합니까?

출력이 미완성일 수 있으며 많은 재작성을 수행해야 합니다. 또는 출력이 올바로 켜져 있고 약간의 수정만 하면 됩니다. 대체로 사용이 자유롭고 쉬우면 생성 AI를 사용하려는 유혹이 엄청날 것입니다.

보너스는 잠재적으로 생성 AI를 사용하여 일부 재작성을 수행할 수 있다는 것입니다. 모자를 쓴 개구리와 굴뚝에 대한 프롬프트와 마찬가지로 아트를 제작할 때 텍스트 기반 내러티브를 생성할 때도 똑같이 할 수 있습니다. AI가 개에 대한 스토리를 생성할 수 있으며 대신 주인공이 고양이가 되기를 원한다고 결정했습니다. 개 이야기를 받은 후 다른 프롬프트를 입력하고 이야기에서 고양이를 사용하도록 전환하도록 AI 앱에 지시합니다. 이것은 단순히 내러티브에서 "개"라는 단어를 대체하는 "고양이"라는 단어로 끝나는 것 이상을 할 가능성이 높습니다. AI 앱은 고양이가 하는 일과 개가 하는 일을 참조하도록 이야기를 쉽게 변경할 수 있습니다. 마치 인간에게 수정을 요청한 것처럼 전체 이야기가 수정될 수 있습니다.

강력하고 인상적이며 편리합니다.

숙고해야 할 몇 가지 주의 사항:

  • 우리는 총체적으로 글쓰기 능력을 상실하고 우리를 위해 글을 쓰기 위해 생성 AI에 전적으로 의존하게 될까요?
  • 생계를 위해 글을 쓰는 사람들이 직장에서 쫓겨날까요(예술가에 대해서도 마찬가지입니다)?
  • 생성된 내러티브가 온라인에 범람하고 더 이상 진실과 거짓을 구분할 수 없게 되면서 인터넷이 비약적으로 성장할까요?
  • 사람들은 이렇게 생성된 내러티브를 굳게 믿고 권위 있는 인물이 삶과 죽음이 관련된 콘텐츠를 포함하여 신뢰할 수 있는 진실한 자료를 제공한 것처럼 행동할까요?
  • 기타

생각해봐.

글머리 기호 중 하나는 생성 AI가 생성한 자료에 의존하여 생사를 결정하는 문제를 다룹니다.

여기 당신을 위한 마음의 상처가 있습니다(트리거 경고, 이 단락을 건너뛰고 싶을 수도 있습니다). 십대가 스스로를 없애야 하는지 여부를 생성 AI에게 묻는다고 상상해 보십시오. 생성 AI 앱은 무엇을 생성합니까? 당연히 AI 앱이 그렇게 하지 말라는 내러티브를 생성하고 문의자에게 정신 건강 전문가를 찾으라고 큰 소리로 촉구하기를 바랄 것입니다.

AI가 이러한 측면을 언급하지 않을 가능성이 있습니다. 설상가상으로, AI 앱은 이전에 그러한 조치를 취하도록 장려할 수 있는 인터넷에서 텍스트를 캡처했을 수 있으며, AI 앱(인간의 이해 능력이 없기 때문에)은 기본적으로 십대가 계속 진행해야 한다고 암시하거나 노골적으로 말하는 내러티브를 내뱉습니다. 주저하지 않고. 십대는 이것이 온라인 권위 있는 "인공 지능" 시스템의 진실한 지침이라고 믿습니다.

나쁜 것.

정말, 정말 나쁜 것들.

일부 생성 AI 개발자는 이러한 종류의 상황이 발생하지 않도록 방지하기 위해 AI에 견제와 균형을 맞추려고 노력하고 있습니다. 문제는 프롬프트가 표현되는 방식이 잠재적으로 프로그래밍된 난간을 통과할 수 있다는 것입니다. 마찬가지로 생성된 출력에 대해서도 마찬가지입니다. 아직 이런 일이 발생하지 않을 것이라고 보장할 수 있는 어떤 종류의 보장된 철갑 필터링도 없습니다.

이 텍스트 기반 프로덕션에는 예상하지 못한 또 다른 각도가 있습니다.

여기있다.

프로그래머나 소프트웨어 개발자가 소프트웨어 코드를 만들 때 기본적으로 텍스트로 작성합니다. 텍스트는 Python, C++, Java 등과 같은 특정 프로그래밍 언어에 대해 정의된 언어를 기반으로 한다는 점에서 다소 난해합니다. 결국 텍스트입니다.

소스 코드는 컴파일되거나 컴퓨터에서 실행됩니다. 개발자는 자신의 코드를 검사하여 수행해야 할 작업을 수행하는지 확인합니다. 코드를 수정하거나 디버깅할 수 있습니다. 아시다시피 프로그래머나 소프트웨어 엔지니어는 수요가 많으며 작업 노력에 대해 높은 가격을 요구하는 경우가 많습니다.

생성 AI의 경우 소스 코드의 텍스트는 텍스트입니다. 인터넷에 있고 다양한 리포지토리에서 사용할 수 있는 수많은 코드 라인에서 패턴을 찾을 수 있는 기능은 어떤 코드가 무엇을 하는 것처럼 보이는지 수학적으로 계산적으로 알아낼 수 있는 풍부한 방법을 제공합니다.

문제는 이것입니다.

프롬프트를 통해 잠재적으로 생성 AI가 전체 컴퓨터 프로그램을 생성하도록 할 수 있습니다. 코드를 외우느라 애쓸 필요가 없습니다. 소위 말하는 것을 들어보셨을 것입니다. 낮은 코드 코드를 작성할 때 프로그래머의 노력을 줄이기 위해 요즘 사용할 수 있는 도구. 제너레이티브 AI는 다음과 같이 해석될 수 있습니다. 낮은 코드 심지어 코드 없음 당신을 위해 코드를 작성하기 때문에 옵션.

생계를 위해 코드를 작성하는 사람들이 바닥에 쓰러져 기절하기 전에 코드는 인간으로서 아마도 이해하는 방식으로 "이해"되지 않는다는 점을 명심하십시오. 또한 코드에는 허위 및 AI 환각이 포함될 수 있습니다. 광범위한 코드 검토 없이 이러한 코드에 의존하는 것은 위험하고 의심스러워 보일 수 있습니다.

우리는 이야기와 메모 작성에 대해 어느 정도 동일한 고려 사항으로 돌아갑니다. 접근 방식은 생성 AI를 사용하여 코딩 노력의 일부를 얻는 것일 수 있습니다. 상당한 절충안이 있습니다. 코드를 직접 작성하는 것이 더 안전합니까, 아니면 은밀하고 감지하기 어려운 임베디드 문제가 있을 수 있는 AI가 생성한 코드를 처리하는 것이 더 안전합니까?

시간이 말해주 겠지.

ChatGPT에 대한 간략한 설명

ChatGPT를 사용하기 시작하면 일련의 주의 사항과 정보 설명이 표시됩니다.

간단히 살펴보겠습니다.

  • "때때로 잘못된 정보를 생성할 수 있습니다."
  • "때때로 유해한 지침이나 편향된 콘텐츠를 생성할 수 있습니다."
  • "부적절한 요청을 거절하도록 교육받았습니다."
  • "우리의 목표는 시스템을 개선하고 더 안전하게 만들기 위해 외부 피드백을 받는 것입니다."
  • “안전 장치가 마련되어 있지만 시스템은 때때로 부정확하거나 오해의 소지가 있는 정보를 생성하고 공격적이거나 편향된 콘텐츠를 생성할 수 있습니다. 조언을 하려는 것이 아닙니다.”
  • "시스템을 개선하기 위해 AI 트레이너가 대화를 검토할 수 있습니다."
  • "대화에서 민감한 정보를 공유하지 마십시오."
  • “이 시스템은 대화에 최적화되어 있습니다. 특정 응답이 좋은지 또는 도움이 되지 않았는지 알려주십시오.”
  • "2021년 이후 세계와 사건에 대한 제한된 지식."

공간 제한으로 인해 여기에서 자세히 다룰 수는 없지만 최소한 빠른 분석을 수행해 보겠습니다.

생성된 텍스트 내러티브에는 거짓과 잘못된 정보가 포함될 수 있다고 이미 언급했습니다.

당신이 경계해야 할 다른 것이 있습니다. 부적절한 편견을 나타내는 다양한 선동적인 발언이 포함될 수 있는 내러티브를 주의하십시오.

이를 방지하기 위해 OpenAI는 ChatGPT 교육 중에 인간 이중 검사기를 사용했다고 보고되었습니다. 더블 체커는 AI가 선동적인 콘텐츠를 생성하도록 자극할 수 있는 프롬프트를 입력합니다. 더블 체커가 그러한 콘텐츠를 보았을 때, 그들은 이것이 부적절하다고 AI에 지적했고 어떤 의미에서는 생성된 출력에 대해 수치적 패널티를 기록했습니다. 수학적으로 AI 알고리즘은 페널티 점수를 최소로 유지하려고 노력할 것이며 계산상으로는 앞으로 이러한 문구나 문구를 사용하지 않는 것을 목표로 합니다.

마찬가지로, 프롬프트를 입력하면 AI는 프롬프트가 선동적인지 또는 AI가 프롬프트를 거부할 수 있는 선동적인 출력으로 이어질 수 있는지 판단하려고 시도합니다. 공손하게, 아이디어는 부적절한 프롬프트 또는 요청을 거부하는 것입니다. 예를 들어, 인종 차별적 비방이 수반되는 농담을 요청하면 AI가 거절할 가능성이 높습니다.

ChatGPT를 사용하는 사람들이 예방 조치를 무시하려고 시도했다는 사실에 놀라지 않을 것이라고 확신합니다. 이러한 "진취적인" 사용자는 AI를 속이거나 수학적 공식을 우회하는 교활한 방법을 찾았습니다. 이러한 노력 중 일부는 시스템을 이기거나 능가하는 명백한 기쁨을 위해 수행되는 반면, 다른 일부는 ChatGPT가 여전히 좋지 않은 결과를 생성할 것임을 보여주려고 노력한다고 주장합니다.

그들은 한 가지에 대해 옳습니다. 예방 조치는 완벽하지 않습니다. 우리는 또 다른 AI 윤리 및 잠재적인 AI 법률 고려 사항으로 돌아갑니다. 생성적 AI가 부적절한 출력을 생성하더라도 계속 진행하도록 허용해야 합니까?

ChatGPT를 사용할 때 경고는 AI 앱이 수행하거나 말할 수 있는 것에 대해 누구에게나 미리 경고하는 것 같습니다. 아마도 미성년자일 수 있는 누군가가 불쾌감을 주는 성격의 부적절한 결과를 얻었을 때(또는 그들이 유감스럽게도 사실이라고 믿고 그들의 결과에 따라 행동하는 권위 있어 보이는 텍스트 내러티브를 얻었을 때) 필연적으로 어떤 종류의 소송이 제기될 가능성이 있습니다. 자신의 위험).

프롬프트에 대한 몇 가지 다른 빠른 뉘앙스는 알아야 할 가치가 있습니다.

프롬프트를 입력할 때마다 정확히 동일한 프롬프트를 입력하더라도 출력이 크게 다를 수 있습니다. 예를 들어 "개에 대한 이야기를 들려주세요"를 입력하면 양치기 개에 대한 이야기를 나타내는 텍스트 기반 내러티브가 표시되는 반면 다음에 "개에 대한 이야기를 들려주세요"를 입력하면 완전히 다른 이야기와 푸들을 포함합니다. 이것이 대부분의 생성 AI가 수학적으로 계산적으로 배열되는 방식입니다. 비결정론적이라고 합니다. 어떤 사람들은 컴퓨터에 대한 입력이 항상 동일한 정확한 출력을 생성한다는 개념에 익숙하기 때문에 이것이 불안하다고 생각합니다.

단어를 재정렬하면 생성된 출력에도 상당한 영향을 미칩니다. "개에 대한 이야기를 들려주세요"를 입력하고 나중에 "개 이야기를 들려주세요"를 입력하면 생성된 내러티브가 실질적으로 다를 가능성이 있습니다. 감도가 날카로울 수 있습니다. 개에 대한 이야기를 요구하는 것과 큰 개에 대한 이야기를 요구하는 것은 의심할 여지없이 근본적으로 다른 내러티브를 생성할 것입니다.

마지막으로, 위의 글머리 기호 항목에는 ChatGPT가 "2021년 이후 세계 및 이벤트에 대한 지식이 제한적"이라는 표시가 포함되어 있습니다. AI 개발자가 AI 앱이 인터넷 데이터를 수집하고 훈련하도록 할 시점을 차단하기로 결정했기 때문입니다. ChatGPT가 데이터를 검색하고 생성된 출력을 생성할 목적으로 오늘날의 인터넷에 직접 연결되어 있지 않다는 사실을 사용자가 종종 깨닫지 못하는 것 같습니다. 우리는 실시간으로 작동하고 인터넷에 연결되는 모든 것에 너무 익숙해서 AI 앱에서도 이를 기대합니다. 이 특별한 경우는 아닙니다(그리고 명확히 하기 위해 ChatGPT는 실제로 인터넷에서 사용할 수 있지만 텍스트 기반 출력을 구성할 때 그렇게 하기 위해 인터넷 자체를 컬링하는 것이 아니라 일반적으로 마감일 전후).

ChatGPT가 인터넷에서 데이터를 실시간으로 제공하지 않는 이유가 궁금할 수 있습니다. 몇 가지 합리적인 이유가 있습니다. 첫째, 실시간으로 교육을 시도하고 수행하는 데 계산 비용이 많이 들고, AI 앱이 지연되거나 프롬프트에 덜 반응합니다(현재는 매우 빠르며 일반적으로 몇 초 안에 출력 텍스트 기반 내러티브로 응답합니다. ). 둘째, 그들이 피하도록 AI 앱을 훈련시키려고 시도했던 인터넷상의 괴상한 것들은 수학적 및 계산 공식에 스며들 가능성이 있습니다(그리고 언급한 바와 같이, 그들은 이미 이전부터 어느 정도 존재하고 있습니다. 그 인간 더블 체커를 사용하여).

일부 사람들은 ChatGPT 및 유사한 생성 AI가 Google 검색 및 기타 검색 엔진의 종말이라고 뻔뻔스럽게 발표하는 것을 듣게 될 것입니다. AI가 당신을 위해 무언가를 작성하도록 할 수 있는데 왜 많은 참조 항목을 다시 가져오는 Google 검색을 합니까? 아하, 이 사람들은 선언합니다. Google은 문을 닫고 집으로 돌아가야 합니다.

물론 이것은 순수한 넌센스입니다.

사람들은 여전히 ​​검색을 원합니다. 그들은 참고 자료를 보고 스스로 알아낼 수 있기를 원합니다. 상호 배타적인 이 방향 또는 저 방향 이분법 선택이 아닙니다(이것은 잘못된 이분법입니다).

제너레이티브 AI는 다른 종류의 도구입니다. 당신이 드라이버를 발명했다는 이유만으로 망치를 던지는 것이 아닙니다.

이것을 생각하는 더 합리적인 방법은 인터넷과 관련된 작업을 수행하려는 사람들이 사용할 수 있도록 두 가지 유형의 도구가 호환될 수 있다는 것입니다. 일부는 이미 기존의 인터넷 검색 엔진과 함께 생성 AI를 연결하는 것을 시도했습니다.

이미 검색 엔진을 제공하는 모든 사람의 우려 사항 중 하나는 "무료" 생성 AI 도구가 잠재적으로 검색 엔진의 명성을 약화시킬 수 있다는 것입니다. 인터넷 검색을 하여 선동적인 내용을 접하게 된다면 이것이 바로 인터넷의 이치임을 아실 것입니다. 생성 AI를 사용하고 혐오스럽고 사악한 텍스트 기반 내러티브를 생성하는 경우 이로 인해 방해를 받을 수 있습니다. 생성 AI가 특정 검색 엔진과 밀접하게 연결되어 있으면 생성 AI에 대한 불쾌감과 혐오감이 검색 엔진에 대해 느끼는 모든 것에 쏟아질 수 있습니다.

어쨌든, 우리는 거의 확실하게 다양한 생성 AI 도구와 인터넷 검색 엔진 사이의 제휴를 보게 될 것이며, 이러한 어두운 물에 신중하고 신중하게 발을 들여 놓을 것입니다.

결론

질문이 있습니다.

텍스트 기반 내러티브를 생성하는 생성 AI를 제공하여 누군가가 어떻게 돈을 벌 수 있습니까?

OpenAI는 이미 ChatGPT의 내부 거래당 비용이 다소 높다고 밝혔습니다. 그들은 아직 ChatGPT로 수익을 창출하지 않습니다.

사람들이 제너레이티브 AI 도구에 액세스하기 위해 거래 수수료를 지불하거나 구독료를 지불할 의향이 있습니까?

광고가 생성 AI 도구를 통해 돈을 벌기 위한 수단이 될 수 있을까요?

이것이 어떻게 돈을 벌게 될 것인지 아직 완전히 확신하는 사람은 없습니다. 우리는 아직 이런 종류의 인공 지능의 대규모 실험 단계에 있습니다. 거기에 AI 앱을 놓고 어떤 반응을 얻는지 확인하십시오. AI를 조정합니다. 사용에서 얻은 통찰력을 사용하여 AI가 다음에 목표로 삼아야 할 곳을 안내합니다.

거품을 내고 헹구고 반복하십시오.

결론적으로 현재 일부 사람들은 이것이 우리가 전혀 가져서는 안 되는 AI 유형이라고 생각합니다. 시계를 되돌립니다. 이 지니를 다시 병에 넣으세요. 우리는 그것을 맛보고 눈에 띄는 단점이 있다는 것을 깨달았고 사회 전체가 그 말을 헛간으로 다시 걸어가야 한다는 데 동의할 수 있습니다.

생성적 AI의 가능성이 단점보다 더 좋다고 생각하십니까?

실제 관점에서 볼 때 생성 AI를 말소하는 현실은 일반적으로 비실용적이기 때문에 특별히 중요하지 않습니다. 제너레이티브 AI는 계속해서 개발되고 있으며 여기에서나 다른 모든 국가에서도(그렇습니다) 추위를 멈추지 않을 것입니다. 어떻게 하시겠습니까? 생성 AI를 완전히 금지하는 법을 통과시키세요. 특별히 실행 가능하지는 않습니다(아마도 생성 AI를 형성하는 법률을 제정하고 이를 고안하는 사람들을 합법적으로 통제할 수 있는 더 나은 기회가 있을 것입니다). 대신 생성 AI를 피하는 문화를 얻을 수 있을까요? 어떤 사람들은 수치심에 동의하게 할 수도 있지만 다른 사람들은 동의하지 않고 어쨌든 생성 AI를 진행할 것입니다.

앞서 언급했듯이 AI 윤리 및 AI 법률 수수께끼입니다.

마지막 큰 질문은 생성 AI가 지각 AI를 향한 길로 우리를 이끌고 있는지 여부입니다. 일부는 그렇다고 주장합니다. 논쟁은 우리가 계속해서 수학적 모델의 크기를 조정하고 전산 컴퓨터 서버를 짜내고 인터넷의 모든 부분을 이 짐승에게 공급하면 알고리즘 AI가 모퉁이를 감각으로 바꿀 것이라는 것입니다.

그리고 만약 그렇다면 우리는 AI가 실존적 위험이라는 우려에 직면하고 있습니다. 지각 있는 AI가 있으면 AI가 인간이 그다지 유용하지 않다고 결정할 수 있다는 말을 계속해서 들었습니다. 다음으로 아시는 것은 AI가 우리를 노예로 만들거나 전멸시켰습니다. 여기 링크.

정반대의 견해는 일부 사람들이 비열하게 특징지은 것에서 지각력을 얻지 못할 것이라는 것입니다. 확률적 앵무새 (AI 영역에서 견인력을 얻은 캐치프레이즈입니다.) 다음은 이 문구를 사용한 인용문입니다.

  • "우리가 출력을 관찰할 때 보이는 것과는 달리, LM은 방대한 훈련 데이터에서 관찰한 언어 형식의 시퀀스를 결합 방식에 대한 확률적 정보에 따라 의미에 대한 참조 없이 임의로 연결하는 시스템입니다. : a stochastic parrot”(Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, ACM FAccT '21, 3년 10월 2021-XNUMX일, 캐나다 가상 이벤트, "확률적 앵무새의 위험: 언어 모델이 너무 클 수 있습니까?").

생성 AI는 유용한 AI 기능을 제공하지만 지각 AI로 연결되지 않는 일종의 막다른 골목입니까?

열띤 토론이 이어집니다.

제너레이티브 AI를 사용해보고 싶습니까?

그렇다면 계정을 만들고 사용해 볼 수 있는 ChatGPT 링크가 있습니다. 여기 링크.

실험용 AI 앱 사용에 대한 수요가 높기 때문에 액세스 가입이 잠시 중단되거나 제한될 수 있습니다(마지막으로 확인했을 때 가입이 계속 활성화됨). 미리 알려드립니다.

ChatGPT와 같은 AI 앱을 사용할 때 무슨 일이 일어나고 있는지 알 수 있도록 여기에서 생성 AI에 대해 말한 모든 것을 고려하십시오.

당신의 행동에 대해 숙고하십시오.

단순히 생성 AI를 가지고 놀기로 선택함으로써 궁극적으로 우리를 존재에서 짓밟는 지각 AI로 무심코 우리를 이끌게 될까요? 당신은 유죄입니까? 당신은 인류의 비참한 파괴에 기여하는 것을 막았어야 했습니다.

나는 그렇게 생각하지 않는다. 하지만 AI 지배자들이 (이미) 나에게 그렇게 말하도록 강요하고 있거나, 이 전체 칼럼이 이번에는 ChatGPT 또는 이에 상응하는 생성 AI 앱에 의해 작성되었을 수 있습니다.

걱정마세요, 장담하건대 저였습니다. 인간 지능, 아니 인공 지능.

출처: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-include-looming-ai-ethics- and-ai-law-considerations/