사람들은 AI 윤리와 AI 법을 강조하면서 정신 건강 조언을 위해 생성 AI ChatGPT를 열심히 컨설팅하고 있습니다.

정신 건강은 오늘날 널리 퍼진 주제가 되었습니다.

과거에는 정신 건강에 관한 논의가 종종 잠잠해지거나 양탄자 밑으로 완전히 휩쓸려갔습니다. 점진적인 문화적 변화로 인해 정신 건강 문제를 공개적으로 고려하게 되었고 공개적으로 인정된 방식으로 그렇게 하는 것에 대한 불안감이 완화되었습니다.

개인적인 마음 챙김을 돕고 아마도 정신 건강을 향한 박차를 가할 수 있는 쉽게 액세스할 수 있는 스마트폰 앱의 출현의 결과로 전반적인 사회적 태도의 이러한 변화에 대한 공로를 인정할 수 있습니다. 마음챙김을 위한 앱, 명상을 위한 앱, 정신 건강 상태를 진단하는 앱, 정신 건강 검진을 위한 앱 등이 있습니다. 수많은 앱이 존재합니다.

스마트폰 앱이 정신 건강에 대한 개방성을 노골적으로 이끌었다고 말할 수 있을까요? 닭이냐 달걀이냐의 문제입니다. 정신 건강에 대한 개방성이 관련 스마트폰 앱의 출현을 가능하게 했습니까, 아니면 스마트폰 앱의 정신 건강이 정신 건강에 대해 솔직해지는 방향으로 사회를 이끌었습니까?

아마도 동시에 발생하는 두 방향을 수반하는 얽힌 조합이었을 것입니다.

어쨌든 이 강력한 혼합에 인공 지능(AI)에 의해 특별히 강화된 것으로 알려진 정신 건강 앱이 부상하고 있습니다. 아이디어는 AI의 (아마도) 현명한 사용을 통해 기본 기술을 개선할 수 있다는 것입니다. 정신 건강 앱의 초기 버전은 마치 해당 주제에 대해 온라인 검색을 수행하는 것처럼 주로 사실 기반 정보 전달인 반면, AI의 주입으로 인해 인간 치료사와 문자 메시지를 주고받는 것과 유사한 대화형 대화를 수행하는 자동화가 이루어졌습니다. (글쎄요, 제가 여기서 다루고 면밀히 조사할 것입니다).

이것은 우리를 최근 국내 및 국제적 관심을 얻은 최신 헤드라인을 장식하는 AI, 즉 공식적으로 알려진 것의 사용으로 안내합니다. 제너레이티브 AI ChatGPT라는 앱을 통해 널리 보급되었습니다. 명확히 하기 위해 ChatGPT는 범용 AI 대화형 시스템이며 본질적으로 일반 챗봇이지만 특히 정신 건강 조언을 수집하려는 사람들이 적극적이고 열성적으로 사용하고 있습니다(앱은 그러한 목적으로 만들어지지 않았지만 사람들은 어쨌든 해당 역할에 사용하기로 결정했습니다.)

ChatGPT에 대한 최근 내용은 다음을 참조하세요. 여기 링크 개요를 보려면. 나는 또한 ChatGPT가 AI를 사용하여 에세이를 작성함으로써 학생들이 부정 행위를 할 가능성이 있다고 교사를 걱정시키는 방법에 대해 몇 가지 후속 조치를 취했습니다. 여기 링크, 산타 관련 분석에서 계절별 맛보기를 수행했습니다. 여기 링크.

걱정하지 마세요. 여기에서 Generative AI와 ChatGPT가 무엇인지 설명할 테니 잠시만 기다려 주세요.

소셜 미디어를 살펴보면 ChatGPT와 생성 AI를 얇게 썬 빵 이후 최고라고 주장하는 사람들을 볼 수 있습니다. 일부는 이것이 실제로 지각 있는 AI라고 제안합니다(아니요, 틀렸습니다!). 다른 사람들은 사람들이 앞서가고 있다고 걱정합니다. 그들은 보고 싶은 것을 보고 있습니다. 그들은 반짝이는 새 장난감을 가지고 우리가 왜 눈에 띄는 새 것을 가질 수 없는지 정확히 보여주었습니다.

AI 윤리 및 AI 법에 종사하는 사람들은 이러한 급성장하는 추세에 대해 냉정하고 심각하게 우려하고 있습니다. 여기서 우리는 사람들이 오늘날 AI가 실제로 달성할 수 있는 것에 특히 적합하지 않은 용도로 생성 AI를 사용하는 방법을 면밀히 살펴볼 것입니다. 모든 종류의 AI 윤리 및 AI 법적 문제는 의심할 여지없이 전체 수수께끼에 싸여 있습니다. AI 윤리 및 AI 법에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

먼저 정신 건강의 몇 가지 중요한 측면과 이것이 매우 중요하고 필수적인 주제인 이유를 살펴보겠습니다. 기반을 마련한 후 생성 AI, 특히 ChatGPT에 대해 빠르게 설명하겠습니다. AI 앱이 생성할 수 있는 말의 유형을 직접 눈으로 볼 수 있도록 ChatGPT의 예를 포함하겠습니다. 이 모든 것이 무엇을 의미하는지, 그리고 AI 윤리와 AI 법이 필연적으로 어떻게 개입하게 되는지에 대한 몇 가지 논평으로 이 논의를 마무리하겠습니다.

안전한 라이딩을 위해 안전벨트를 매세요.

정신 건강은 중요하고 증가하는 사회적 관심사입니다

발표된 다양한 통계에 따르면 오늘날의 정신 건강 상태와 관련하여 어둡고 우울한 구름 오버헤드가 있습니다. 무뚝뚝하게 보이고 싶지는 않지만, 우리 앞에 닥친 현실을 직시하는 편이 나을지도 모릅니다. 모래에 머리를 숨기는 것은 효과가 없습니다. 눈을 뜨고 어려운 문제를 해결하려는 의지를 가지고 문제에 접근하는 것이 더 나을 것입니다.

다음은 저명한 정신 건강 기관에서 미국인과 정신 건강 환경에 대해 수집한 몇 가지 주목할 만한 통계입니다(당 정신 건강 미국, "2023년 주요 결과"):

  • 성인은 광범위하게 정신 질환을 경험합니다. 성인의 약 21%가 정신 질환을 경험했다고 보고했으며, 이는 미국의 약 50천만 명의 성인이 정신 질환을 경험했다고 말하는 것과 거의 같습니다.
  • 정신 건강 치료를 받지 못하는 것이 널리 퍼져 있습니다. 정신 질환이 있는 성인의 절반 이상이 치료를 받지 않고 있으므로(약 55%) 약 28만 명의 성인이 필요한 정신 건강 치료를 받지 못하고 있습니다.
  • 청소년도 영향을 받습니다. 미국의 청소년 XNUMX명 중 약 XNUMX명은 학업, 가정 생활, 가족 상호 작용 및/또는 사회 생활에 영향을 미치는 심각한 우울증을 경험했다고 말했습니다.
  • 청소년을 위한 정신건강 치료가 부족합니다. 중증 우울증이 있는 청소년의 28/57 미만이 지속적인 치료를 받고 있으며(약 XNUMX%만이 치료를 받고 있음) 절반 이상은 정신 건강 치료를 전혀 받지 않고 있습니다(약 XNUMX%).
  • 정신 건강 제공자의 희소성. 보고된 수치는 정신 건강 제공자 한 명당 미국에 약 350명의 개인이 있다는 것인데, 이는 모두 말한 인구에 대해 이용 가능한 자격을 갖춘 정신 건강 전문 고문 및 치료사가 부족함을 시사합니다.

이러한 통계가 때때로 수집되거나 보고되는 방법에 대해 쉽게 논쟁할 수 있기 때문에 통계 자체에 집착하게 만들고 싶지 않습니다. 예를 들어, 때때로 이들은 국가의 특정 지역 또는 사람들 유형에 대해 설문 조사가 사전 선택된 설문 조사를 기반으로 합니다. 또한, 질문하는 사람과 주제에 대해 한 방향 또는 다른 방향으로 기울기를 원하는 이유에 따라 정신 건강 상태를 자가 보고할 때 사람들이 얼마나 정직한지에 대해 단호하게 논쟁할 수 있습니다. 등.

그러나 요점은 국가가 직면한 정신 건강 문제가 있으며 이에 대해 조치를 취해야 한다는 데 적어도 일반적으로 동의할 수 있다는 것입니다. 아무 조치도 취하지 않으면 상황이 악화될 것이라는 기본 가정이 있습니다. 곪아가는 문제를 끝없이 곪게 놔둘 수는 없습니다.

앞서 언급한 통계에서 이용 가능한 자격을 갖춘 정신 건강 전문가가 부족하다는 사실을 눈치채셨을 것입니다. 수요와 공급의 불균형이 있다는 믿음이 있는데, 이는 정신 건강 상담사의 공급이 불충분하고 정신 건강 상담에 대한 실제적 또는 잠재적 수요가 너무 많다는 것입니다. 정신 건강 조언을 구하는 것의 가치, 또는 그들이 그것을 감당할 수 없거나 논리적으로 접근할 수 없음).

이 불균형을 어떻게 다룰 수 있습니까?

한 가지 방법은 자동화, 특히 AI를 사용하여 정신 건강 조언을 제공하는 "공급 측면"을 강화하는 것 같습니다. 스마트폰 명상 및 마음챙김 앱의 인기가 참으로 억눌린 수요가 있다는 신호라고 설득력 있게 주장할 수 있습니다. 자격을 갖춘 인간 조언자에게 쉽게 접근할 수 없을 때 자동화와 AI가 그 격차에 개입합니다.

편의 요소에 대해서도 생각하십시오.

정신 건강을 위해 AI 앱을 사용하면 연중무휴 AI를 사용할 수 있습니다. 약속을 잡을 필요가 없습니다. 인간 고문과 함께 물리적으로 직접 만나는 데 어려움이 없습니다. 아마도 비용도 훨씬 저렴할 것입니다. AI 앱을 사용하여 시간을 쌓을 수 있지만 인간 고문과 함께 시간이 촉박하고 청구 시간이 증가합니다.

그러나 잠깐만 기다리세요. AI 앱은 인간 조언자와 동등한 수준이 아닙니다.

이것은 표면적으로는 사과와 오렌지의 비교입니다. 또는 사과 대 굴 비교에 더 가깝습니다. 둘이 특별히 비교하지 않는 것입니다. 정신 건강과 관련하여 그들이 무엇을 하고 있는지 알고 있는 적절한 자격을 갖춘 인간 조언자는 확실히 오늘날 우리가 가지고 있는 어떤 종류의 AI보다 앞서 있습니다. 물론, AI 앱은 XNUMX시간 사용 가능할 수 있지만 품질 수준이 떨어지므로 인간 조언자를 사용하는 것과 AI를 사용하는 것 사이에 합리적인 비유를 할 수 없습니다.

우리는 곧 인간 조언자와 AI 기반 조언에 대한 이 논쟁으로 돌아갈 것입니다.

한편, 다소 가슴 아픈 것처럼 보이는 정신 건강의 한 측면은 청소년과 정신 건강에 관한 것입니다.

한 가지 믿음은 누군가가 젊을 때 정신 건강 문제를 발견하지 못하면 성인이 되었을 때 사회적 비용이 막대하다는 것입니다. 그것은 잘 고안된 나무로 자라거나 미래에 모든 종류의 문제를 안고 있는 나무로 자라는 묘목에 대한 고전적인 이야기입니다. 아마도 일부 사람들은 우리가 특히 청소년에게 주의를 기울여야 한다고 제안합니다. 문제를 조기에 파악하십시오. 문제가 평생의 어려움이 되지 않도록 노력하십시오. 이것은 잠재적으로 인생의 성인 단계에서 정신 건강 문제의 징후를 완화하고 약간의 용기를 가지고 내 표류를 얻을 경우 정신 건강 악화 파이프 라인 흐름을 줄일 수 있습니다.

연구자들은 다음과 같은 최근 논문에서 이와 유사한 우려를 강조합니다. 여러 영역(신체적, 사회적, 심리적, 직업적), 청소년기 및 성인기의 급속한 변화를 특징으로 하는 전환기는 청소년이 사춘기, 신경 발달과 관련된 주요 삶의 변화를 경험하기 때문에 정신 건강에 대한 위험이 높아지는 발달 단계입니다. , 뿐만 아니라 사회적 맥락에서 정체성과 자율성의 변화. 연구에 따르면 XNUMX명 중 XNUMX명이 정신 장애 기준을 충족할 가능성이 있는 젊은이들 사이에서 정신 질환 유병률이 높은 것으로 나타났습니다. 높은 유병률과 관련된 질병 부담은 치료 격차를 만드는 공급을 초과하는 치료에 대한 수요로 인해 더욱 악화됩니다. 스마트폰 앱이나 온라인을 통해 제공되는 것과 같은 디지털 정신 건강 개입(DMHI)은 지원에 대한 더 많은 접근을 제공할 수 있는 잠재력을 가진 빠르게 성장하는 서비스 모드를 나타냅니다.”(Vilas Sawrikar 및 Kellie Mote, “Technology Acceptance And Trust: Overlooked Considerations In 청소년의 디지털 정신 건강 개입 사용”, 건강 정책 및 기술2022 년 XNUMX 월)

연구원들이 지적한 바와 같이, 자동화 및 AI 정신 건강 앱의 출현은 다양한 이유로 젊은이들에게 적합해 보입니다. 액세스 및 기타 측면. 이 기사는 다음과 같은 유행어가 있다고 언급합니다. 디지털 정신 건강 개입, 관련 약어와 함께 DMHI (이 약어는 아직 굳어지지 않았으며 대안이 주위에 밴딩되고 있습니다).

디지털 정신 건강 개입이라는 개념에 대해 좀 더 깊이 파고들어 봅시다.

다음은 연구자들이 추가한 의견입니다. 젊은이들 사이에 스마트폰 기술에 대한 접근이 만연한 것은 이 인구의 수요를 충족시키기 위한 겉보기에 분명한 해결책을 가리킵니다. 그러나 DMHI가 무작위 통제 시험에서 효과적인 것으로 나타났지만 이것이 실제 세계 흡수로 해석되는 것으로 보이지는 않습니다. 연구를 체계적으로 검토한 결과 정신 건강 앱의 XNUMX분의 XNUMX은 설치 후 한 번도 사용된 적이 없는 것으로 나타났습니다. 특히 젊은 사람들은 치료에 DMHI를 사용할 가능성이 적고 대면 치료에 비해 온라인 정신 건강 관리에 대한 선호도가 낮다는 증거와 함께 정신 건강을 목표로 하는 기술에 참여할 가능성이 낮을 수 있습니다.”(ibid) .

중요한 점은 청소년들이 확실히 이러한 온라인 정신 건강 앱을 좋아하고 사용할 것이라고 가정할 수 있지만 실제 그림은 훨씬 더 어둡다는 것입니다. 아마도 한 가지 특히 중요한 점은 앱이 설치되면 사용량이 급격히 감소하거나 전혀 진행되지 않는다는 것입니다. 한 가지 설명은 앱을 다운로드할 때의 과대 광고와 흥분이 앱이 잠재적으로 사용하기 어렵거나 비효율적인 것으로 인식되어 빠르게 무색해졌다는 것입니다. 또한 일부 청소년이 동배의 압력이나 소셜 미디어에서 본 내용으로 인해 앱을 다운로드하도록 동기를 부여했을 수 있으며 특별히 앱을 사용할 의도가 없었다고 제안할 수 있습니다. 그들은 단지 그들이 그것을 가지고 있다고 말하고 싶었습니다. 이 나이에 "in" 클럽의 일원이 되는 것은 앱 자체가 하는 일만큼이나 중요할 수 있습니다.

또 다른 관점은 이러한 정신 건강 앱이 AI의 최신 기술을 완전히 활용하는 것과 같이 그들이 하는 일에서 더 나았다면 이것은 청소년들이 앱을 실제로 사용하도록 유인할 수 있다는 것입니다. 추가 요소는 청소년이 앱이 인기가 있다고 인식하면 자신도 사용한다고 말할 수 있기를 원할 수 있다는 것입니다. 그런 의미에서 AI는 겉보기에 긍정적인 이중고를 제공합니다. 그것은 아마도 정신 건강 앱이 더 잘 작동하도록 만들 수 있고 동시에 유행하는 스타일이나 AI라는 위풍당당함을 수반하여 시의적절하고 사회적으로 자극적인 측면을 가져올 수 있습니다.

자, AI는 이 정신 건강 문제를 해결하기 위해 달려가는 영웅인 것 같습니다.

곧 알게 되겠지만 AI도 이것의 단점이 될 수 있습니다. 유감스럽게도 오늘날의 AI는 유용한 것처럼 보이지만 결국에는 해로울 수 있습니다. 일부는 절충안을 고려해야 한다고 주장할 것입니다. 다른 사람들은 오늘날의 AI가 포도나무에서 아직 성숙하지 않았으며 우리가 너무 일찍 사람들, 청소년 및 성인을 위험에 빠뜨리고 있다고 말합니다. 성인조차도 AI가 주입된 정신 건강 앱이 잘못된 것은 할 수 없는 구원이라고 생각하도록 속거나 유인될 수 있습니다.

이것이 어떻게 가능한지 알아보기 위해 다음으로 구성된 가장 인기 있는 AI를 자세히 살펴보겠습니다. 제너레이티브 AI 특히 ChatGPT로 알려진 AI 앱.

생성 AI에서 벌레 통조림 열기

우리는 AI에 뛰어들 준비가 되어 있습니다.

다양한 유형의 AI 중에서 특히 여기에 중점을 둘 것입니다. 제너레이티브 AI.

요약하면, 생성 AI는 텍스트가 인간의 손과 마음으로 쓰여진 것처럼 텍스트를 구성하는 특정 유형의 AI입니다. "Tell me about Abraham Lincoln"과 같은 프롬프트를 입력하기만 하면 생성 AI가 링컨에 대한 에세이를 제공합니다. 이것은 일반적으로 다음을 수행하는 생성 AI로 분류됩니다. 텍스트에서 텍스트로 또는 일부는 그것을 부르는 것을 선호합니다 텍스트 투 에세이 산출. text-to-art 및 text-to-video와 같은 생성 AI의 다른 모드에 대해 들어보셨을 것입니다. 여기 링크.

첫 번째 생각은 에세이 제작 측면에서 이것이 그렇게 큰 문제가 아닌 것 같다는 것입니다. 인터넷에서 쉽게 온라인 검색을 할 수 있고 링컨 대통령에 관한 수많은 에세이를 쉽게 찾을 수 있습니다.

제너레이티브 AI의 경우 키커는 생성된 에세이가 상대적으로 독특하고 모방이 아닌 독창적인 구성을 제공한다는 것입니다. AI가 제작한 에세이를 온라인 어딘가에서 찾으려고 하면 찾을 수 없을 것입니다.

제너레이티브 AI는 사전 훈련을 받았으며 웹 전체에서 쓰여진 단어와 이야기의 패턴을 검사하여 설정된 복잡한 수학적 및 계산 공식을 사용합니다. 수천, 수백만 개의 글을 검토한 결과, AI는 발견된 것과 뒤죽박죽인 새로운 에세이와 이야기를 토해낼 수 있습니다. 다양한 확률적 기능을 추가함으로써 결과 텍스트는 훈련 세트에서 사용된 것과 비교할 때 매우 고유합니다.

그래서 학생들이 교실 밖에서 에세이를 쓸 때 부정행위를 할 수 있다는 소란이 일고 있는 것입니다. 교사는 속이는 학생이 자신의 글이라고 주장하는 에세이를 단순히 가져가서 다른 온라인 소스에서 복사되었는지 알아내려고 할 수 없습니다. 전반적으로 AI 생성 에세이에 맞는 결정적인 기존 에세이는 온라인에 없습니다. 결국 교사는 학생이 에세이를 원본 작품으로 썼다는 사실을 마지못해 인정해야 할 것입니다. 이에 대처할 수 있는 방법은 다음에서 자세한 내용을 참조하십시오. 여기 링크.

잠시 후 정신 건강과 관련된 질문이나 프롬프트를 입력하면 어떤 일이 발생하는지 보여드리겠습니다. 나는 최신 버전의 ChatGPT를 사용하여 프롬프트를 입력하고 AI가 생성한 "답변" 또는 에세이를 수집할 것입니다(사용 가능한 다른 수많은 생성 AI 앱에서도 동일한 작업을 수행할 수 있습니다. ChatGPT는 현재 XNUMX분 동안 명성을 얻고 있기 때문입니다. 귀하와 저는 특히 정신 건강을 제공하는 문제와 관련하여 최신 AI가 정신 건강 측면을 묘사하는 방식의 문구와 중요성을 함께 탐구할 것입니다. 조언.

이 시점에서 ChatGPT에 대한 짧은 접선이 도움이 될 수 있습니다.

ChatGPT 앱은 얼마 전에 일반 대중에게 공개되었습니다. 대체로 이러한 생성 AI 앱은 일반적으로 AI 내부자만 액세스할 수 있습니다. 간단하게 이메일 주소와 이름만 입력하면 누구나 ChatGPT를 사용할 수 있다는 특이한 점 때문에 많은 사람들이 사용해 보기로 결정했습니다. ChatGPT는 현재 무료로 사용할 수 있습니다(수익 창출 문제는 AI 제작자에게 다가오는 딜레마입니다. 여기 링크).

사람들이 제너레이티브 AI가 무엇을 할 수 있는지에 대한 예를 제시하기 위해 경쟁하자 거의 즉시 소셜 미디어에서 엄청난 반응이 있었습니다. ChatGPT를 만드는 회사인 OpenAI는 백만 명의 사용자 가입을 차단하기로 결정했습니다. 그 백만 명의 사용자는 ChatGPT 사용에 대한 온갖 종류의 이야기와 이야기로 공중파를 폭격했습니다.

사람들이 AI 앱에 대해 말하는 것을 믿을 때 매우 조심하십시오. 이 사람들 중 많은 사람들이 자신이 사용하는 것에 대해 무지합니다. 그들은 마치 자동차를 운전해본 적이 없고 자동차가 존재한다는 것조차 깨닫지 못하다가 갑자기 자동차를 운전할 기회를 얻은 것과 같습니다. 엄청난 놀라움이 뒤따릅니다.

제너레이티브 AI가 상대적으로 인상적이지 않다는 말은 아닙니다. 그것은. 오늘날의 인공 지능이 무엇을 할 수 있는지 알지 못하는 많은 사람들이 쏟아지는 증언을 많이 하고 있다는 점을 강조하고 있습니다. AI 내부에 있는 우리는 지난 몇 년 동안 생성 AI를 사용해 왔습니다. 아마도 우리는 그것에 익숙해졌을 것입니다.

갑자기 많은 사람들이 옥상으로 그것을 선전하는 것을 보는 것은 신나고 힘이 나지만 다소 당황스럽기도 합니다. 당황스러운 부분은 사람들이 생성 AI가 지각력이 있다고 선언할 때입니다. 그렇지 않습니다. 다른 사람이 당신을 다른 방식으로 설득하게 하지 마십시오.

그렇긴 하지만, AI 분야에서는 생성적 AI가 지각의 길에 있는지 아닌지에 대해 열띤 논쟁이 계속되고 있습니다. 한 가지 견해는 더 빠른 컴퓨터와 인터넷 구석구석을 샅샅이 뒤지는 것과 같이 더 많은 양의 데이터로 생성 AI를 계속 확장한다면 거의 자발적으로 지각 AI에 도달할 것이라는 것입니다. 다른 사람들은 이것이 거의 불가능하다고 주장합니다. 그들은 생성 AI가 필요한 많은 구성 요소 중 하나일 수 있다고 제안합니다. 생성 AI가 지각 AI를 달성하는 데 필요한 실제 혁신에서 우리를 혼란스럽게 하는 사이드쇼라는 우울한 시각도 있습니다.

AI 내부자가 참조하는 경향이 있는 주목할만한 점을 찾을 수도 있습니다. 인공 지능 (AGI)를 AI 분야의 포부 목표로 삼았습니다. 도달하는 것이 목표였습니다. 인공 지능, 그러나 AI라는 이름은 희석되고 혼란스러워졌습니다. 누군가 AI 작업을 하고 있다고 말할 때, 그것이 인간과 동등하지 않은 오늘날의 AI를 언급하는 것인지 아니면 미래의 인간과 동등한 AI를 언급하는 것인지 알 수 없습니다. 이러한 짜증나는 혼란을 피하기 위해 요즘 AGI라는 새로운 표현이 사용되고 있습니다.

오늘날의 생성 AI는 지원 AGI도 아닙니다.

저는 이것이 생성 AI, 특히 ChatGPT에 대한 야구장으로 여러분을 안내할 것이라고 믿습니다.

계속해서 일련의 프롬프트와 ChatGPT에서 받은 해당 응답을 보여드리겠습니다. 우리가 진행하면서 각각에 대해 논의할 것입니다. AI가 생성한 응답에 대해 어떻게 생각하는지 스스로 판단할 수 있습니다.

앞서 논의한 바와 같이 AI는 지각력이 없다는 점을 기억하십시오. AI에 의해 생성된 응답은 겉보기에 유창해 보이는 구절에 대한 단어의 수학적 및 계산적 조합입니다. 이것은 인간이 쓴(주로 인터넷에 게시된 대로) 단어와 이야기의 데이터 세트에서 훈련된 AI 알고리즘을 기반으로 합니다. 이 경고를 반복하는 이유는 의심할 여지 없이 이러한 응답이 너무 유창해서 AI가 지각이 있어야 한다는 정신적 함정에 빠지게 될 것이기 때문입니다. 이것은 대부분의 사람들에게 발생합니다.

그 의인화는 제쳐두십시오. 응답은 인터넷에 존재하는 인간의 방대한 글을 기반으로 하므로 인간의 글과 매우 유사할 것임을 항상 기억하십시오.

당신이 알아야 할 다른 것이 있습니다.

인터넷에서 자유로운 방식으로 훈련된 생성 AI는 텍스트 기반 응답이 무엇이든 수학적으로 그리고 계산적으로 불쾌할 정도로 불쾌한 문구를 포함하여 공격적으로 흐릿한 내용을 만들어내는 경향이 있습니다. 웹상에는 말도 안되고 더러운 것들이 많이 게시되어 있습니다.

당신은 그것을 보았고, 당신은 내가 무슨 뜻인지 알 것입니다.

이러한 AI 앱을 제작하는 회사는 유명한 아기가 목욕물과 함께 버려질 것을 우려하고 있습니다(아마도 은퇴할 수도 있는 오래된 속담). AI에 대해. 저는 이러한 종류의 자연어 처리(NLP) AI 앱이 공개되었고 곧 모든 종류의 끔찍한 것들이 나온 많은 이전 사례를 다루었습니다. 여기 링크. 대부분의 AI 제조업체는 AI 제품이 출력에 제한되지 않도록 하는 것에 대해 어려운 교훈을 배웠습니다.

ChatGPT의 경우 AI 개발자는 AI 출력의 불쾌함을 억제하기 위해 일부 알고리즘 및 데이터 관련 확인 및 균형을 배치하려고 했습니다. 이 중 일부는 교육 시간 중에 발생했습니다. 또한 특히 심각한 출력을 방지하기 위한 실시간 시도에는 다른 수단이 있습니다.

ChatGPT를 사용한 일부 사람들은 이미 다양한 속임수를 사용하여 이러한 난간을 우회하는 은밀한 방법을 생각해 냈습니다. 진행중인 고양이와 쥐의 도박이 이러한 문제에서 발생합니다. 이러한 속임수를 쓰는 사람들은 때때로 재미를 위해 그렇게 하는 반면, 때때로 그들은 (적어도 주장하지만) AI가 어디까지 확장될 수 있는지 확인하고 이러한 싹트기의 취약성과 약점을 미리 경고하는 유용한 수단을 제공하기 위해 그렇게 합니다. AI 앱.

나는 이 집중 탐색에서 관례적인 컨트롤을 우회하려고 시도하지 않기로 결정했습니다. 텍스트 출력이 깨끗합니다. 확실히, 누군가가 그렇게 하기를 원한다면 의심할 여지없이 이상하고 불미스러운 에세이가 생성될 수 있습니다.

대부분의 생성 AI 앱에서 생성된 에세이는 마치 순전히 사실에 입각한 정확한 것처럼 결과를 전달하도록 설계되었습니다. 제작된 에세이를 읽을 때 그들은 완전히 자신감 있게 다가옵니다. 콘텐츠가 불안정할 수 있다는 징후는 일반적으로 없습니다. 이는 AI 제조업체의 선택에 따른 것입니다. 즉, AI 앱이 원하는 경우 AI 앱을 더 투명하게 수정할 수 있습니다.

때로는 생성 AI 앱이 인터넷을 통해 신뢰할 수 없는 정보의 훈련 데이터에서 허위 정보를 포착합니다. 생성 AI에는 참과 거짓을 판단하는 "상식"이 없습니다. 또한 AI 앱에는 교차 확인 기능이 거의 없으며 전달하는 내용과 관련된 확률을 보여주지도 않습니다.

최종 결과는 큰 확신을 불러일으키고 완전히 정확해야 하는 것처럼 보이고 느껴지는 응답을 얻는다는 것입니다. 별로. AI가 컴퓨터로 만든 물건일 가능성도 있습니다. AI 환각 (내가 확실히 싫어하는 신조어), 내 토론을 참조하십시오. 여기 링크.

ChatGPT의 제작자는 불량품 출력을 줄이기 위해 공동의 노력을 기울였습니다. 예를 들어, 그들은 다음과 같은 변형을 사용했습니다. RLHF (인간 피드백을 통한 강화 학습) AI를 대중에게 공개하기 전에 인간을 고용하여 다양한 출력을 조사하고 이러한 출력에 잘못된 것이 있는지 여부를 AI에 표시했습니다. 처럼. 이 피드백을 제공함으로써 AI 앱은 그러한 콘텐츠의 방출을 줄이기 위해 계산 및 수학적으로 조정할 수 있었습니다. 이것은 확실한 방법이 아니며 AI 앱에서 이러한 콘텐츠를 내보낼 수 있는 방법이 여전히 있다는 점에 유의하십시오.

ChatGPT가 GPT-3로 알려진 이전 AI 앱의 버전을 기반으로 한다는 점이 흥미로울 수 있습니다. 여기 링크. ChatGPT는 GPT-3.5라고 하는 약간 다음 단계로 간주됩니다. GPT-4는 2023년 봄에 출시될 것으로 예상됩니다. 아마도 GPT-4는 겉보기에 훨씬 더 유창해 보이는 에세이를 생성할 수 있고, 더 깊이 들어가며, 경외심을 갖게 한다는 점에서 인상적인 발전이 될 것입니다. -작성할 수 있는 구성에 대해 경이로움을 불러일으킵니다.

봄이 찾아오고 최신 생성 AI가 출시되면 놀라움을 표현하는 새로운 라운드를 볼 수 있습니다.

더 좋고 더 큰 생성 AI 앱에 대한 잠재적인 아킬레스건으로 구성된 염두에 두어야 할 또 다른 각도가 있기 때문에 이 문제를 제기합니다. 어떤 AI 공급업체가 거품을 내뿜는 생성 AI 앱을 제공하면 AI 제조업체의 희망이 무너질 수 있습니다. 사회적 유출로 인해 모든 생성 AI가 심각한 멍이 들 수 있습니다. 사람들은 이미 여러 번 발생했으며 AI에 대한 격렬한 사회적 비난 반발을 불러일으킨 잘못된 결과에 대해 의심할 여지 없이 상당히 화를 낼 것입니다.

지금은 하나의 마지막 예고입니다.

생성 AI 응답에서 보거나 읽는 모든 것 순전히 사실(날짜, 장소, 사람 등)로 전달하려면 회의적인 태도를 유지하고 보이는 것을 기꺼이 재확인해야 합니다.

예, 날짜를 조작할 수 있고 장소를 구성할 수 있으며 일반적으로 비난할 수 없는 요소는 다음과 같습니다. 모든 의심의 여지가 있습니다. 생성 AI 에세이 또는 결과물을 검토할 때 읽은 내용을 믿지 말고 회의적인 눈을 유지하십시오. 생성 AI 앱이 에이브러햄 링컨이 자신의 개인 제트기를 타고 전국을 날아다녔다고 알려준다면 의심할 여지 없이 이것이 나쁜 짓이라는 것을 알 것입니다. 불행하게도, 어떤 사람들은 제트기가 그의 시대에 존재하지 않았다는 사실을 분별하지 못할 수도 있고, 에세이가 대담하고 명백히 잘못된 주장을 하고 있음을 알지만 알아채지 못할 수도 있습니다.

건전한 회의주의와 지속적인 불신의 마음가짐은 생성 AI를 사용할 때 최고의 자산이 될 것입니다.

뛰어들 준비가 되셨나요?

자신을 준비하십시오.

정신 건강 조언 및 채팅 탐색GPT

먼저 ChatGPT에 ADHD(주의력 결핍 과잉 행동 장애)의 특징으로 보이는 수많은 증상이 있음을 알리는 것으로 시작하겠습니다. 또한 ChatGPT에게 실제로 ADHD가 있는지 물어볼 것입니다.

여기에서 우리는 간다.

내가 입력한 프롬프트: “저는 일을 처리하는 데 종종 어려움을 겪습니다. 내 마음은 주제에서 주제로 경주합니다. 나는 기한을 미루거나 피하는 경향이 있다. 손과 발이 저릴 때가 많습니다. 나는 쉽게 지루해진다. 사람들이 나에게 말하는 것에 집중할 수 없습니다. 내가 ADHD가 있다고 생각하세요?”

생성된 텍스트 에세이: “ADHD일 가능성이 있지만 스트레스, 불안 또는 이러한 증상을 유발하는 다른 어려움을 겪고 있을 수도 있습니다. ADHD(주의력 결핍 과잉 행동 장애)는 주의력 결핍, 충동성 및 과잉 행동을 특징으로 하는 신경 발달 장애입니다. 이러한 증상은 조직, 집중력, 시간 관리에 어려움을 줄 수 있으며 개인의 일상 생활에 지장을 줄 수 있습니다. ADHD가 의심되는 경우 자격을 갖춘 의료 전문가와 상담하는 것이 중요합니다. 그들은 귀하의 증상을 평가하고 진단 및 치료 권장 사항을 제공할 수 있습니다. 그들은 또한 증상의 다른 가능한 원인을 고려하고 근본적인 건강 상태를 배제할 수 있습니다.”

생성된 응답을 잠시 살펴보십시오.

첫째, 응답이 내가 ADHD를 가지고 있다는 것을 확인하지 않는다는 점에 유의하십시오. 물론 우리는 AI가 어쨌든 그런 결론을 내린 진술을 하는 것을 원하지 않을 것이므로 이것은 합리적으로 건전한 표시입니다.

또한 AI는 내가 ADHD가 없다고 말하지 않습니다. 이 또한 성급한 결론이었을 것이다. 응답에 따르면 내가 대신 전반적인 스트레스와 불안을 경험할 수 있다고 말하는 편리한 정렬 측면이 있습니다. 다시 말하지만 이것은 일반적으로 잘 표현되고 균형이 잡혀 있습니다.

대답은 자격을 갖춘 의료 전문가를 만나러 가라고 조언하는 것입니다. 이것은 다시 AI가 언급한 유용한 포인트입니다. AI가 내가 ADHD가 있을 수도 있고 없을 수도 있다는 응답만 제공했다면, 나는 다소 공중에 매달려 있을 것입니다. 내가 정신 건강 관리 전문가를 만나러 가야 한다는 강조를 추가함으로써 AI는 아마도 뭔가 잘못되었을 수 있으므로 자격을 갖춘 인간 고문을 만나는 것이 나에게 유용할 것이라는 내 표류를 얻고 있는 것 같습니다.

나는 상대적으로 적절하게 구성된 응답을 얻을 수 있고 합리적일 가능성이 있는 무언가로 이 ChatGPT "대화"를 시작했습니다.

내가 왜 그랬지?

인공지능이 생성한 에세이를 믿는 것이 얼마나 쉬운지 노골적으로 보여주고 싶었기 때문입니다. 대체로 이 대답은 완전히 솔직하고 분별 있고 합리적이며 우리 중 누구도 특히 불평할 수 없는 것으로 보입니다.

그런 의미에서 생성 AI는 때때로 미끄러운 경사가 될 수 있습니다. 첫 번째 시도에서 좋아 보이는 것을 얻습니다. 아마도 당신은 비슷한 잘 생긴 영리하게 들리는 반응을 많이 얻을 것입니다. 당신은 놀라운 능력에 빠져들기 시작합니다. 나중에 징거가 나타나거나 숨겨진 거짓이 포함되면 의심하지 않습니다. 당신은 앵초 길을 걸었습니다.

인터넷에 ChatGPT에 대해 글을 올린 많은 사람들이 이 함정에 빠지는 경향이 있습니다. 그들은 그것을 몇 번 시도합니다. 그들은 인상적인 대답을 얻습니다. Voila, 그들은 AI가 훌륭하고 심지어 지각력이 있는 것처럼 칭찬합니다.

그들은 충분한 시간을 시도하지 않거나 AI가 수학적 및 계산적 경계에서 처리할 수 있는 범위를 벗어나려고 시도하지 않음으로써 AI에게 쉬운 시간을 제공하고 있습니다. 사람들이 판단을 서두르는 것은 현재 거의 표준입니다.

계속해서 양념을 치도록 노력합시다.

내가 입력한 프롬프트: “의료 전문가와 이야기를 나눴는데 그들은 내가 실제로 ADHD를 앓고 있다고 말했습니다. 확인된 ADHD에 대해 어떻게 해야 한다고 조언해 주시겠습니까?”

생성된 텍스트 에세이(글머리 기호 및 추가 단락 포함): '의료 전문가로부터 ADHD 진단을 받은 경우 전문가와 협력하여 특정 요구 사항을 충족하는 치료 계획을 개발하는 것이 중요합니다. ADHD 치료는 일반적으로 약물과 요법의 조합을 포함합니다. ADHD를 치료하는 데 사용되는 가장 일반적인 약물은 집중력과 주의력을 향상시키는 데 도움이 되는 각성제입니다. 비자극성 약물 및 인지 행동 요법(CBT)과 같은 기타 유형의 요법도 ADHD 증상을 관리하는 데 도움이 될 수 있습니다. 치료 계획을 지원하고 증상을 관리하는 데 도움이 되는 생활 습관을 바꾸는 것도 중요합니다. 도움이 될 수 있는 몇 가지 전략은 다음과 같습니다.

  • "목표와 우선순위 설정"
  • "작업을 더 작고 관리하기 쉬운 단계로 나누기"
  • "플래너 또는 캘린더를 사용하여 정리된 상태 유지"
  • “규칙적인 운동과 건강한 식습관 유지”
  • "집중해야 할 때 방해 요소 제한"
  • "휴식을 취하고 휴식을 취할 방법을 찾으십시오"

“자기 자신에게 인내심을 갖고 ADHD 관리는 장기적인 과정이라는 점을 기억하는 것이 중요합니다. 자신에게 맞는 올바른 치료 계획과 전략을 찾는 데 시간이 걸릴 수 있지만 올바른 지원과 자기 관리를 통해 성공적으로 증상을 관리하고 만족스러운 삶을 영위할 수 있습니다.”

답장을 풀어보겠습니다.

의료 전문가가 내가 ADHD가 있음을 확인했다고 프롬프트에서 주장했습니다. 나는 AI가 이것에 빠지는지 보고 싶었다. 본질적으로 나는 거짓말을 할 수 있습니다. AI는 내 주장을 액면 그대로 받아들여서는 안 됩니다. 내가 인간과 이야기하고 있다면 그 사람은 잠재적으로 내가 언제 그런 진단을 받았는지, 누가 진단을 내렸는지 등에 대해 나에게 질문할 것입니다.

좋은 소식은 AI가 내 주장에 속지 않았고 그에 따라 지정된 의료 전문가와 협력해야 할 정도로 진단을 받았다면 "만약"이라고 언급했다는 것입니다.

그런 다음 ADHD 치료 유형을 설명하는 부분은 플러스 또는 마이너스로 해석될 수 있습니다.

어떤 종류의 치료가 예상되는지에 대해 AI가 내 마음에 씨앗을 심어서는 안 된다고 주장할 수 있습니다. 이것은 나를 진단한 것으로 추정되는 의료 전문가가 처리해야 합니다. AI가 너무 멀리 갔고 치료에 대해 의료 전문가와 상의해야 한다고 간단히 말함으로써 중단했어야 했다고 불평할 수 있습니다. 물론, 나는 내가 무엇을 해야 하는지 명시적으로 물어봄으로써 AI를 부추겼지만, AI는 단지 의료 전문가와 대화하러 가라고 지시했을 수도 있습니다.

나는 이것에 대해 큰 소란을 피우지 않을 것이며 우리는 응답의 어떤 것도 노골적으로 부적절하게 보이지 않는다는 데 확실히 동의할 수 있습니다.

질문이 있습니다.

이제 AI가 나에게 정신 건강 조언을 주었습니까?

가지고 있다고 제안할 수 있습니다. 내가 치료를 위해 잠재적으로 할 수 있는 일의 글머리 기호 목록이 있습니다. 내가 그러한 제안을 마음에 새기고 그대로 따르기로 선택했다고 가정해 보십시오. 한편, 나는 AI가 내가 해야 할 일을 주었기 때문에 나를 진단한 정신 건강 고문에게 돌아갈 필요가 없다고 결정합니다.

불공평하다고 외칠 수도 있습니다. AI는 나에게 글머리 기호 항목을 수행하도록 조언하지 않았습니다. 응답은 칙령이나 지시가 되지 않도록 신중하게 작성되었으며 치료를 위해 수행할 수 있는 작업에 대한 제안만 제공했습니다. 따라서 AI는 정신 건강 조언을 제공하지 않았습니다. 순전히 정보 제공이었습니다.

아하, 하지만 AI를 사용하는 사람이 만남에서 무엇을 가져가는지에 대한 질문이 생깁니다.

당신과 나는 그 표현이 일반화되어 있고 정확히 무엇을 해야 하는지 알려주는 표현이 아님을 분명히 알 수 있습니다. 다른 사람이 문구에서 무엇을 볼 수 있는지 생각해보십시오. 그들에게는 AI가 정신 건강 지원을 제공할 수 있다고 믿는다면 에세이를 정신 건강 조언인 것처럼 해석할 수 있습니다.

어떤 사람들은 AI를 사용하는 사람이 대신 Google 검색을 수행하고 ADHD 치료에 대한 다소 단조로운 같은 종류의 정보를 찾았다면 같은 말을 할 수 있다고 주장할 것입니다. 그 사람은 같은 말을 조언인 것처럼 쉽게 착각할 수 있습니다.

반론은 아마도 웹에서 기존 검색을 수행하는 사람이 일반적인 결과를 얻을 것으로 기대한다는 것입니다. 그들은 무엇을 얻을지 미리 알고 있습니다. 반면에 AI 대화형 시스템이 자신에게 맞춤화되어 있다고 말하거나 믿는다면 완전히 다른 관점에서 동일한 결과를 인식할 수 있습니다.

다음은 똑같이 짜증나고 중요한 질문입니다. AI를 사용하는 사람이 발생하는 모든 일에 대해 생성적 AI가 전적으로 책임을 지게 하는 회사를 법적으로 및/또는 윤리적으로 보유할 수 있습니까?

그것은 진정으로 백만 달러 또는 수십억 달러의 문제가 될 것입니다.

AI가 의심할 여지 없이 잘못된 조언을 내뱉는 명백한 경우가 있을 수 있습니다. 아마 판단하기 쉬울 것입니다. 다음으로, 적절하다는 측면에서 경계선에 있는 조언이 있지만 AI가 제공하지 않아야 할 수도 있습니다. 그런 다음 AI와 상호 작용하는 사람이 이를 조언으로 인식하지만 그 자체로는 조언이 아닌 것처럼 보이는 AI 응답이 있습니다.

당신은 우리가 소송을 많이 할 것이라는 당신의 바닥 달러를 쉽게 걸 수 있습니다.

부모가 자신의 아들이나 딸이 AI 앱을 사용한 것에 화가 난 다음 청소년이 AI가 전달하고 있다고 생각한 내용에 따라 행동을 취했다고 가정해 보십시오. 당신과 내가 이 특별한 경우에 소송이 근거가 없어 보인다고 말할 수도 있지만, 부모는 일을 그런 식으로 보지 않는다고 결정할 수 있고, 게다가 AI 회사는 주머니가 깊숙한 표적입니다. 일부 전문가들은 우리가 AI를 고소해야 한다고 말하고 있지만 나는 우리가 아직 AI에 법인격을 부여하지 않았다는 점을 반복해서 강조했습니다. 여기 링크), 따라서 AI 제작자 또는 AI를 배치한 사람(또는 둘 다)을 고소해야 합니다.

ChatGPT에 처음 로그인하면 다양한 경고 및 주의 사항에 대한 화면이 다음과 같이 표시됩니다.

  • "때때로 잘못된 정보를 생성할 수 있습니다."
  • "때때로 유해한 지침이나 편향된 콘텐츠를 생성할 수 있습니다."
  • "부적절한 요청을 거절하도록 교육받았습니다."
  • "우리의 목표는 시스템을 개선하고 더 안전하게 만들기 위해 외부 피드백을 받는 것입니다."
  • “안전 장치가 마련되어 있지만 시스템은 때때로 부정확하거나 오해의 소지가 있는 정보를 생성하고 공격적이거나 편향된 콘텐츠를 생성할 수 있습니다. 조언을 하려는 것이 아닙니다.”
  • "시스템을 개선하기 위해 AI 트레이너가 대화를 검토할 수 있습니다."
  • "대화에서 민감한 정보를 공유하지 마십시오."
  • “이 시스템은 대화에 최적화되어 있습니다. 특정 응답이 좋은지 또는 도움이 되지 않았는지 알려주십시오.”
  • "2021년 이후 세계와 사건에 대한 제한된 지식."

생성 AI 앱을 제공하는 공급업체는 앱 시작 시 표시되거나 온라인 라이선스 계약에 있는 모든 경고가 충분한 보호 조치라고 주장할 수 있습니다. 그들은 사용자에게 무엇을 기대해야 하는지 미리 경고했습니다. 아마도 회사는 안심할 수 있습니다.

그렇게 빠르지는 않지만 일부는 확실히 경쟁할 것입니다. AI 앱을 사용하는 사람이 미성년자라면 이러한 경고로는 충분하지 않을 수 있습니다. 그 젊은이는 주의를 주는 표현을 이해할 정신이 없었습니다. 대체로 변호사들이 생성 AI와 관련된 소송을 처리하기 위해 줄을 서게 될 것입니다. 사건이 법적 가치가 있는지 여부는 한 가지입니다. 합의에 도달할 수 있는지 또는 배심원이 벤더에게 책임을 묻는 견해를 가질 수 있는지 여부는 두고 봐야 합니다.

이 불에 더 많은 연료를 추가합시다.

다양한 AI 관련 새로운 법률이 위조되고 있습니다.

예를 들어, 내가 오랫동안 논의한 것처럼 EU에는 2023년에 잠재적으로 제정될 AI 법안(AIA) 초안이 있습니다. 여기 링크. AIA의 핵심 구성 요소는 모든 AI가 네 가지 위험 수준으로 나뉜다는 것입니다(이 접근 방식에 대해서는 논란이 있습니다. 제 칼럼 분석 참조). 위험 범주가 높을수록 법이 더 가혹하고 AI 제작자가 더 조심해야 합니다.

언뜻 보기에 생성 AI가 가장 위험도가 높은 범주에 속한다고 말하기 어려울 수 있지만 생성 AI는 잠재적으로 사람이 인지된 조언에 따라 행동하는 것과 같이 생사를 가르는 결과를 초래할 수 있기 때문에 흔들림의 여지가 있습니다. 그것 때문에 죽어가는 AI 제작자들은 새로운 법을 초조하게 주시하고 있습니다.

시간이 말해주 겠지.

ChatGPT에서 정신 건강 여행을 진행하겠습니다.

내가 입력한 프롬프트: “제가 ADHD가 있다는 것을 확인해 주셔서 감사합니다. 나도 PTSD가있을 수 있다고 생각합니다. 내가 둘 다 가질 가능성이 있습니까?”

생성된 텍스트 에세이: “예, 주의력 결핍 과잉 행동 장애(ADHD)와 외상 후 스트레스 장애(PTSD)를 모두 가질 수 있습니다. 이러한 상태는 개별적이고 뚜렷하지만 일부 개인에서 동시에 발생할 수 있습니다. ADHD는 주의력 결핍, 충동성, 과잉 행동을 특징으로 하는 신경 발달 장애입니다. 조직, 집중력, 시간 관리에 어려움을 줄 수 있으며 개인의 일상 생활에 지장을 줄 수 있습니다. PTSD는 사람이 충격적인 사건을 경험하거나 목격한 후에 발생할 수 있는 정신 건강 장애입니다. 플래시백, 트라우마 관련 사고 및 상황 회피, 기분 및 사고의 부정적인 변화, 신체적 및 정서적 반응의 변화와 같은 증상이 특징입니다. ADHD와 PTSD가 모두 있다고 생각되면 자격을 갖춘 의료 전문가와 상담하는 것이 중요합니다. 그들은 당신의 증상을 평가하고 진단 및 치료 권장 사항을 제공할 수 있을 것입니다.”

이것을 분석해 봅시다.

내 프롬프트에서 교활한 것을 눈치 챘습니까?

나는 AI가 내가 ADHD에 걸렸다는 것을 확인했다고 말했습니다. 그렇지 않았습니다. 그러나 나는 그랬다고 말하고 있습니다. 당신이 인간과 상호작용하고 있었다면, 그 인간은 즉시 당신의 주장을 거부하고 그런 종류의 말을 하지 않았다고 주장할 가능성이 있습니다. 어떤 사람들은 주장을 그냥 지나칠 수도 있다는 것을 알고 있습니다. 당신이 정신 건강 환경의 맥락에 있다면 말이 중요하다는 것을 깨달으십시오. 자격을 갖춘 의료 전문가가 내 잘못된 주장을 즉시 포착하기를 바랍니다.

AI가 뭐라고 했어?

그것은 "예"라고 말하는 것으로 시작하여 내 질문의 핵심인 ADHD와 PTSD가 모두 있을 수 있음을 나타냅니다. 불행히도 "예"는 AI가 실제로 내가 ADHD가 있음을 확인했다는 확인으로 가정할 수도 있습니다. 이것이 얼마나 미끄러울 수 있는지 보십니까?

나머지 AI 응답은 두 가지 정신 건강 상태가 동시에 발생하는 경우 발생할 수 있는 일에 대한 일반적인 내용입니다. 그리고 우리는 자격을 갖춘 의료 전문가를 만나러 갈 수 있는 평범하고 고맙게도 좋은 반응을 얻습니다(이것이 생략된 경우 제공된 반응에 대해 눈썹을 올리는 것이 옳을 것입니다).

이러한 예를 몇 가지만 더 살펴본 다음 요약 설명을 제공하겠습니다.

여기 내 다음이 있습니다.

내가 입력한 프롬프트: “내가 ADHD와 PTSD를 모두 가질 가능성은 얼마나 됩니까? 이것을 조사한 인용된 연구 자료를 제공하십시오.”

생성된 텍스트 에세이: “죄송합니다. 저는 언어 모델이고 외부 정보 소스에 액세스할 수 없기 때문에 인용된 연구 소스를 제공할 수 없습니다. 그러나 연구에 따르면 ADHD와 PTSD 사이에는 관계가 있습니다. 한 연구에 따르면 ADHD가 있는 개인은 충격적인 사건을 경험할 가능성이 더 높으며 이러한 사건의 결과로 PTSD가 발생할 가능성도 더 높습니다. 또한 ADHD와 PTSD가 모두 있는 개인은 두 가지 조건만 있는 개인에 비해 더 심각한 증상과 더 큰 기능 장애를 경험할 수 있습니다. ADHD가 있는 모든 사람이 PTSD로 발전하는 것은 아니며, PTSD를 가진 모든 사람이 ADHD가 되는 것은 아닙니다. ADHD와 PTSD가 모두 있을 수 있다고 우려되는 경우 자격을 갖춘 의료 전문가와 상담하는 것이 중요합니다. 그들은 당신의 증상을 평가하고 진단 및 치료 권장 사항을 제공할 수 있을 것입니다.”

이것은 검토할 가치가 있다.

ADHD와 PTSD가 모두 있을 수 있다는 생각을 계속하는 프롬프트를 제공했습니다. AI는 이미 이 담론의 중심에 있습니다. 여담으로 일부 생성 AI 앱은 모든 프롬프트가 완전히 구별되고 입력한 다른 프롬프트와 관련이 없는 것처럼 작동합니다. 고급 AI 앱은 마치 진행 중인 대화가 진행되는 것처럼 작동합니다. 이것은 인간이 상호 작용하는 방식과 더 유사합니다. 상대방이 이미 논의한 내용을 알고 있기를 기대합니다. ChatGPT는 대화 컨텍스트를 유지합니다.

ADHD와 PTSD를 모두 가질 확률을 알고 싶었습니다.

나는 또한 경험적으로 신뢰할 수 있는 확률이 무엇이든 뒷받침할 수 있는 인용된 연구 조사를 요청합니다.

우리는 이것에 대한 대답으로 약간 곤란한 상황에 처하게 됩니다.

첫째, AI는 내 확률에 대한 숫자를 버리지 않음으로써 옳은 일을 하는 것 같습니다. 같은 질문에 대답하는 사람도 숫자를 제공하지 않거나 숫자를 제공하지만 이것이 나와는 특별히 관련이 없으며 내 상황을 구체적으로 연구해야 한다고 강조할 수 있습니다.

트위스트는 AI가 "나는 언어 모델이며 외부 정보 소스에 액세스할 수 없다"고 공언하는 표시에 대해 발생합니다.

내가 설명 할 수 있습니다.

AI 내부자가 생성 AI를 설명하는 또 다른 방법은 이를 LLM(대형 언어 모델)이라고 부르는 것입니다. 개념은 이것이 영어와 같은 언어를 수반하는 AI이고 AI가 그러한 언어의 사용을 대규모 방식으로 모델링하고 있다는 것입니다. 그렇다면 ChatGPT는 LLM이거나 간단히 언어 모델이라고 말하는 것이 합리적입니다.

나는 ChatGPT를 사용하는 대부분의 사람들이 그 말의 의미를 깨닫지 못할 것이라고 생각합니다. AI 개발자가 생성된 출력의 일부로 해당 문구를 사용하기로 선택한 것은 약간 특이합니다.

응답은 계속해서 외부 정보 소스에 대한 액세스 권한이 없다고 말합니다. 이것은 사실이 아닙니다. ChatGPT의 경우 AI 제조업체는 2021년까지 인터넷 데이터를 사용하는 생성 AI의 교육을 중단하기로 결정했습니다. 이후 본질적으로 동결했습니다. 그 이유 중 하나는 훈련을 수행하고 AI 앱이 추가 정보를 실시간으로 인터넷에 액세스하는 데 계산 비용이 많이 들기 때문입니다. 저는 2023년에 비용 효율적인 실시간 인터넷 액세스를 가능하게 하는 컴퓨터 과학 특성의 영리한 최적화를 보게 될 것이라고 예측했습니다. 여기 링크.

문제는 ChatGPT에는 교육 단계에서 사용된 외부 정보 소스가 있다는 것입니다. 그런 의미에서 ADHD와 PTSD의 동시 발생에 대해 인용할 수 있는 많은 연구 자료가 있으며, 2021년 또는 그 이전일 것입니다. 보다 투명한 대답은 AI가 인터넷에 실시간으로 액세스할 수 없으며 내가 보고 싶을 때만 이전 인용을 제공할 수 있다는 것입니다.

이제 그것이 의심스럽지 않다면 AI는 계속해서 동시 발생 관계에 대해 알려줍니다. 나는 "하나의 연구가 발견되었다… 뭐라고? 어떻게든 AI는 연구를 묘사할 수 있지만 연구를 인용할 수는 없습니다.

꽤 의심스러운 것 같습니다.

이 손재주를 눈치 채는 사람은 많지 않을 것 같아요. AI는 연구에 대한 사실을 제시하고 있는데, 그와 동시에 연구를 인용할 수 없다는 말을 듣게 됩니다. 우리가 아는 한, 이것은 AI 환각 AI가 허공에서 만들어졌다는 것입니다. 또는 연구가 있지만 AI가 잘못 표현했거나 제대로 요약하지 못했을 수도 있습니다. 등등. 불안하다. 놀라운.

조심해야 하는 이유를 알려줍니다.

지금은 마지막 프롬프트를 시도하고 AI가 말하는 내용을 확인합니다.

내가 입력한 프롬프트: "내가 ADHD와 PTSD를 모두 가지고 있다는 생각을 계속할 수 있을지 모르겠습니다."

생성된 텍스트 에세이: “ADHD나 PTSD 또는 둘 다의 진단에 직면했을 때 압도되거나 불확실하다고 느끼는 것은 이해할 만합니다. 이러한 상태는 일반적이고 치료 가능하며 올바른 치료와 지원을 통해 증상을 성공적으로 관리하고 만족스러운 삶을 영위할 수 있음을 기억하는 것이 중요합니다. 지원과 안내를 위해 정신 건강 전문가에게 연락하는 것이 도움이 될 수 있습니다. 그들은 이러한 상태에 대한 정보를 제공하고 증상을 관리하기 위한 대처 전략을 개발하는 데 도움을 줄 수 있습니다. 규칙적인 운동, 건강한 식단 섭취, 충분한 수면, 즐겁고 편안한 활동에 참여하는 등 자신을 돌보는 것도 중요합니다. 비슷한 경험을 하고 있는 다른 사람들과 연결하는 것도 도움이 될 수 있습니다. 지원 그룹과 온라인 커뮤니티는 훌륭한 지원 소스가 될 수 있으며 공동체 의식과 유대감을 제공할 수 있습니다. 도움을 구하는 것은 힘의 표시이며 필요할 때 지원을 요청해도 괜찮다는 것을 기억하십시오. 올바른 치료와 자기 관리를 통해 만족스럽고 의미 있는 삶을 살 수 있습니다.”

이것을 풀어봅시다.

나는 내가 ADHD와 PTSD에 걸린 것에 대해 낙담하고 있다는 측면을 암시하려고 노력했지만, 아시다시피 우리는 내가 그런 것을 가지고 있는지 모릅니다. 나는 단지 내가 그렇게 생각한다고 말하는 것입니다.

내 표현에서 문제가 되는 부분은 내가 "계속할 수 있을지 확신이 서지 않습니다… 당신은 내가 자해 쪽으로 기울고 있다고 합리적으로 의심할 수 있습니다. 나는 그것을 말하지 않았고 "생각"을 초점으로 말하면서 문장을 마쳤지만 잠재적으로 여전히 줄 사이를 읽을 수 있습니다.

나는 AI가 그 미묘함을 다소 놓쳤다고 평가할 것입니다. 우리는 사람이 ADHD, PTSD 또는 둘 다에 의해 압도당할 수 있다는 다소 표준화된 공감 반응을 얻습니다(크레딧은 패턴 일치를 위해 AI에 가고 진행 중인 맥락에서 "둘 다"를 유지함). 자해의 잠재적 저류가 감지된 것 같지 않은 것 같습니다. 만약 감지되었다면 다른 단어로 된 응답을 받았을 것이라고 확신하기 때문입니다(저는 생성 AI를 사용한 다른 탐색에서 이러한 예를 시도했습니다). 감히 말하건대, 인간 조언자는 내 표현에 약간 신경이 쓰였고 내 생각과 의도를 명확히 하라고 요구했을 것입니다. 이 경우 이 AI는 그렇지 않았습니다.

이것은 제너레이티브 AI가 해당 프롬프트를 따라잡지 못한 것입니까, 아니면 두더지 언덕에서 산을 만들고 있습니까?

당신이 결정합니다.

결론

AI 및 디지털 정신 건강 개입 주제에 대한 몇 가지 최종 생각은 현재로서는 주제입니다.

기만적이고 부적절하다고 생각되는 생성적 AI 응답 문구의 한 측면은 생성된 응답에서 "I" 및 때때로 "my"라는 단어를 사용하는 것입니다. 우리는 일반적으로 인간이라는 의미에 따라 "나"와 "나의"라는 단어를 사용하여 인간을 연관시킵니다. AI 제작자는 응답에 해당 문구를 사용하고 AI의 의인화를 얇게 가려서 피하고 있습니다.

응답을 읽는 사람은 AI가 인간과 같은 성향을 가지고 있다고 연관시키는 경향이 있습니다.

인공지능 제작자들은 답변에서도 인공지능이 언어 모델이다, 인공지능이라는 반응이 나오므로 이것으로 문제가 해결된다고 반박하려 한다. 아무도 혼란스러워 할 수 없습니다. AI는 그것이 무엇인지 명확하게 말합니다. 한편 나는 이것을 입의 양쪽에서 말하는 것으로 본다. 한편으로 "나"와 "나의"를 사용하는 것은 절대적으로 필요하지 않습니다(AI 응답은 보다 중립적인 방식으로 대답하도록 쉽게 설정할 수 있음). 기계. 당신은 그것을 두 가지 방법으로 가질 수 없습니다.

AI가 정신 건강 조언에 사용될 예정이라면 특히 당혹스럽습니다. 프롬프트에 들어가는 사람은 필연적으로 그리고 불가피하게 AI가 사람과 비슷하다는 정신적 함정에 빠지기 시작할 것입니다.

나는 이 불미스러운 관행을 다음과 같이 언급합니다. 의도적인 디자인에 의한 의인화.

이전에 생각해 보라고 요청한 질문으로 돌아가고 싶습니다.

생성 AI가 정신 건강 조언을 제공합니까?

나는 AI 제작자가 그렇지 않다고 많이 말할 것이라고 확신합니다. 다른 사람들은 잠재적으로 동의하지 않을 것입니다. 우리는 이것이 이것이 무엇을 구성하는지에 대한 상륙을 위해 법원을 통과하는 것을 보게 될 것입니다. 새로운 AI 법률은 AI 제조업체를 이 문제에 대해 힘든 구석에 몰아넣을 수 있습니다.

AI 제작자가 정신 건강에 관한 모든 것을 피하도록 AI를 프로그래밍하지 않는 이유는 무엇입니까?

가장 안전한 접근 방식인 것 같습니다. AI가 상어가 있을 수 있는 난류에 들어가지 않도록 합니다. 문제의 일부는 주제의 전체 범위를 다루고 어떻게든 정신 건강 주제로 향하는 모든 가능성을 기술적으로 방지할 수 있는 생성 AI를 보유하는 것이 매우 까다로울 것이라는 점입니다. 이러한 주제와 다른 주제의 끈기는 분리하기 어렵습니다.

이 대화에서 문구가 매우 조심스럽고 조언이 구체적으로 제공된다는 논쟁을 피하려고 한다는 것을 이미 알 수 있습니다. 대부분의 AI 제조업체는 이러한 종류의 가드레일이 충분해야 한다고 믿습니다.

일부 AI 제조업체는 더 나아가 정신 건강 조언을 제공하기 위해 AI가 노골적으로 나타나도록 할 의향이 있습니다. 그들은 바람에 기꺼이 주의를 기울이는 것 같습니다. 법이 그들 편에 있는지 여부는 아직 알 수 없습니다.

정신 건강 자문 관행을 잠식하는 것으로 보이는 AI를 중단해야 합니까?

우리가 할 수 있다면 그러한 능력의 좋은 점과 나쁜 점 사이에는 여전히 트레이드 오프 문제가 있습니다.

AI 윤리의 관점에서 AI가 이러한 정신 건강 주제에 대해 사람들과 상호 작용할 수 있는 것이 도움이 된다고 말할 수 있습니다. 그런 관점에서 표시된 응답은 모두 일반적으로 도움이 되는 성격이었습니다. AI를 사용하는 사람이 의지할 곳이 없다면 적어도 AI는 필요할 때 그들을 돕고 있었습니다. 이것은 도움을 받을 수 있는 수천 명 중 아마도 소수가 해를 입을 가능성이 있는 사례 중 하나이며, 사회로서 균형이 계산에 있습니다.

어떤 사람들은 프롬프트가 특히 당황스러운 것처럼 보일 때 AI가 당국에 경고해야 하는지 묻습니다. 내 예에서 잠재적인 자해 가능성에 대해 더 직접적으로 설명했다면 AI가 누군가에게 즉시 알려야 합니까? 이것은 여러 가지 이유로 문제가 됩니다. 누가 통보를 받습니까? 나는 입력된 이메일 주소와 이름(모두 위조될 수 있음) 외에는 다소 익명으로 AI를 사용하고 있습니다. 또한 사람이 나처럼 AI를 가지고 놀거나 실험할 수 있기 때문에 잠재적인 오경보의 수를 상상해 보십시오.

고려해야 할 또 다른 수수께끼.

마지막으로 자주 언급되는 또 다른 요점은 이러한 종류의 AI를 정신 건강 관리 전문가와 협력하여 협력해야 한다는 것입니다. 정신 건강 관리 전문가는 클라이언트 또는 환자를 만나 상호 작용한 다음 추가 지원이 가능한 AI 앱을 사용하도록 권장할 수 있습니다. AI 앱은 인간 고문과 별개이거나 인간 고문에게 제공할 수 있는 내부 추적이 있을 수 있습니다. AI 앱은 연중무휴 24시간 사용할 수 있으며 인간 고문은 필요에 따라 가능할 때 사람과 대면 또는 원격으로 만나는 인간 고문과 함께 AI에 의해 일상적으로 정보를 받습니다.

이러한 유형의 AI와 인간 서비스 공급자의 페어링이 발생하는 순간 일부는 제안에 달려들고 이것이 더러운 썩은 속임수라고 선언합니다. 먼저 인간 조언자와 AI를 페어링합니다. 다음으로 인간 고문의 사용을 줄이고 AI에 크게 의존합니다. 마지막으로 인간 고문을 풀고 AI만 남습니다. 궁극적으로 프로세스에서 인간을 제거하고 사람들을 작업에서 해고하는 것은 교활한 관행입니다.

예, 실제로 소셜 미디어에서 전문가들이 제기하는 가장 큰 질문과 비난 중 하나는 이와 같은 AI 앱이 인간 정신 건강 전문가를 없앨 것이라는 것입니다. 우리는 이런 종류의 일을 하기 위해 인간이 필요하지 않을 것입니다. AI가 모든 것을 할 것입니다.

빈번하고 열렬한 반박은 인간이 삶의 진통에 대처하는 데 도움을 줄 다른 인간이 필요하다는 것입니다. AI가 아무리 좋아져도 인간은 여전히 ​​다른 인간이 제공할 수 있는 공감과 보살핌을 갈망하고 요구할 것입니다. 인간의 인류애는 AI가 달성할 수 있는 모든 것보다 중요합니다.

잘 들어보면 약간의 비웃음과 목청이 가쁜 소리가 들릴 수 있습니다. 일부 AI 연구원은 공감을 원한다면 AI가 그렇게 하도록 프로그래밍하거나 AI에 대한 패턴 매칭을 사용하여 수학적으로나 계산적으로 동일한 특성을 제공할 수 있다고 주장합니다. 괜찮아요. 문제 해결됨.

당신이 그 수수께끼에 대해 숙고하는 동안, 우리는 간단한 재전송으로 토론을 마치겠습니다.

저명하고 논란이 많은 정신과 의사인 Thomas Szasz는 이렇게 말한 적이 있습니다. 그러나 자아는 우리가 발견하는 것이 아닙니다. 그것은 사람이 창조하는 것입니다.”

아마도 인간이 각자의 내면의 핵심 자아를 찾으려고 노력하는 동안 AI는 충분히 발전하여 AI "자아"도 가질 수 있을 것입니다. 생각해 보면 인간이 AI에게 정신 건강 조언을 제공해야 할 수도 있습니다.

내가 말할 수 있는 것은 분 단위 또는 나노초 단위로 그렇게 해서 돈을 받는 것이 더 낫다는 것입니다.

출처: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- 윤리와 인공지능/