다음은 OpenAI가 잘못된 정보로부터 ChatGPT를 정리하는 방법입니다.

OpenAI는 31월 XNUMX일 인공 지능(AI) 환각 사례를 줄이기 위해 ChatGPT의 수학적 문제 해결 기능을 향상하기 위한 노력을 발표했습니다. OpenAI는 정렬된 AGI를 개발하기 위한 중요한 단계로 환각 완화를 강조했습니다.

4월에는 최신 버전의 ChatGPT인 GPT-XNUMX가 도입되어 인공 지능이 주류로 자리 잡았습니다. 그러나 생성 AI 챗봇은 사실의 정확성과 오랫동안 씨름해 왔으며 때때로 일반적으로 "환각"이라고 하는 잘못된 정보를 생성합니다. 이러한 AI 환각을 줄이기 위한 노력은 웹사이트의 게시물을 통해 발표되었습니다.

AI 환각은 인공 지능 시스템이 실제로 부정확하거나 오해의 소지가 있거나 실제 데이터에 의해 지원되지 않는 출력을 생성하는 경우를 말합니다. 이러한 환각은 잘못된 정보 생성, 존재하지 않는 사건이나 사람 구성 또는 특정 주제에 대한 부정확한 세부 정보 제공과 같은 다양한 형태로 나타날 수 있습니다.

OpenAI는 두 가지 유형의 피드백인 "결과 감독"과 "프로세스 감독"의 효과를 조사하기 위해 연구를 수행했습니다. 결과 감독에는 최종 결과에 기반한 피드백이 포함되며, 프로세스 감독은 사고 사슬의 각 단계에 대한 입력을 제공합니다. OpenAI는 수학 문제를 사용하여 이러한 모델을 평가하고 여러 솔루션을 생성하고 각 피드백 모델에 따라 가장 높은 순위의 솔루션을 선택했습니다.

철저한 분석 후 연구팀은 프로세스 감독이 모델이 사람이 승인한 프로세스를 준수하도록 장려하므로 우수한 성능을 제공한다는 사실을 발견했습니다. 대조적으로 결과 감독은 지속적으로 면밀히 조사하기가 더 어려웠습니다.

OpenAI는 프로세스 감독의 의미가 수학을 넘어 확장되며 다양한 영역에서 그 효과를 이해하기 위해 추가 조사가 필요하다는 것을 인식했습니다. 관찰된 결과가 더 넓은 맥락에서 사실이라면 프로세스 감독이 결과 감독에 비해 성능과 조정의 유리한 조합을 제공할 수 있는 가능성을 표현했습니다. 연구를 촉진하기 위해 회사는 프로세스 감독의 전체 데이터 세트를 공개적으로 공개하여 이 분야에 대한 탐색과 연구를 요청했습니다.

관련 : AI 수요로 Nvidia가 1조 달러 클럽에 잠시 진입했습니다.

OpenAI는 환각에 대한 조사를 촉발한 명시적인 사례를 제공하지 않았지만 최근 두 가지 사례가 실제 시나리오에서 문제를 예시했습니다.

최근 사건에서 Mata v. Avianca Airlines 사건의 변호사 Steven A. Schwartz는 챗봇을 연구 자원으로 사용하는 것을 인정했습니다. 그러나 ChatGPT에서 제공한 정보는 완전히 조작된 것으로 밝혀져 당면한 문제가 부각되었습니다.

OpenAI의 ChatGPT는 환각에 직면한 인공 지능 시스템의 유일한 예가 아닙니다. 마이크로소프트의 AI는 XNUMX월 챗봇 기술을 시연하는 동안 수익 보고서를 검토하고 Gap 및 Lululemon과 같은 회사에 대해 부정확한 수치를 생성했습니다.

매거진 : 25명의 트레이더가 ChatGPT의 주식 선택에 베팅하고, AI는 주사위 던지기에 짜증을 냅니다.

출처: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information