조직에 외부 알고리즘 평가자가 필요한 3가지 이유

사타 사르마-하이타워

비즈니스 리더는 인공 지능(AI)에서 가능한 모든 가치를 짜내고 있습니다. 2021년 KPMG 연구에 따르면 정부, 산업 제조, 금융 서비스, 소매, 생명 과학 및 의료 비즈니스 리더의 대다수는 AI가 조직에서 최소한 적당히 기능한다고 말합니다.. 이 연구는 또한 응답자의 절반이 자신의 조직이 Covid-19 전염병에 대응하여 AI 채택을 가속화했다고 말합니다. AI가 채택된 ​​조직에서 적어도 절반은 기술이 기대치를 초과했다고 말합니다.

AI 알고리즘은 개인화된 것부터 오늘날의 다양한 상호 작용 및 혁신에 대한 책임이 점점 더 커지고 있습니다. 제품 추천 고객 서비스 은행에 대한 경험' 대출 결정 심지어 경찰 대응.

그러나 AI 알고리즘이 제공하는 모든 이점에도 불구하고 복원력, 공정성, 설명 가능성 및 무결성에 대해 효과적으로 모니터링 및 평가되지 않으면 큰 위험이 따릅니다. 비즈니스 리더가 AI를 모니터링하고 평가할 수 있도록 지원하기 위해 위에서 언급한 연구는 점점 더 많은 비즈니스 리더들이 조직이 올바른 기술과 비즈니스 프로세스에 투자할 수 있도록 정부가 AI를 규제하기를 원합니다. 필요한 지원과 감독을 위해 그러한 서비스를 제공한 경험이 있는 서비스 제공자가 제공하는 외부 평가를 고려하는 것이 현명합니다. 여기에 세 가지 이유가 있습니다.

1. 알고리즘은 "블랙박스"입니다.

데이터에서 학습하여 문제를 해결하고 작업을 최적화하는 AI 알고리즘은 시스템을 더 스마트하게 만들어 인간보다 훨씬 빠르게 통찰력을 수집하고 생성할 수 있습니다.

그러나 일부 이해 관계자는 이러한 알고리즘을 "블랙 박스"로 간주한다고 최고의 전문 서비스 회사인 KPMG의 감사 관리 이사인 Drew Rosen이 설명합니다. 특히, 특정 이해 관계자는 알고리즘이 특정 결정에 도달한 방법을 이해하지 못할 수 있으므로 해당 결정의 공정성 또는 정확성을 확신하지 못할 수 있습니다.

Rosen은 "알고리즘에서 수집한 결과는 편향되어 결과를 잘못 해석하는 경향이 있습니다."라고 말합니다. "또한 이러한 결과를 활용하고 대중 및 이해 관계자와 공유할 때 기업에 일부 위험이 발생할 수 있습니다."

예를 들어 잘못된 데이터를 사용하는 알고리즘은 기껏해야 비효율적이며 최악의 경우 해를 끼칩니다. 실제로는 어떤 모습일까요? 사용자에게 잘못된 계정 정보를 제공하는 AI 기반 챗봇이나 텍스트를 부정확하게 번역하는 자동화된 언어 번역 도구를 생각해 보십시오. 두 경우 모두 정부 기관이나 회사, 그리고 해당 알고리즘으로 내린 결정에 의존하는 구성 요소와 고객에게 심각한 오류나 잘못된 해석을 초래할 수 있습니다.

블랙박스 문제의 또 다른 원인은 고유한 편견이 AI 모델 개발에 스며들어 잠재적으로 편향된 의사 결정을 유발할 수 있다는 것입니다. 예를 들어, 신용 대출 기관은 대출 결정을 내리기 위해 잠재적인 차용인의 신용 가치를 예측하기 위해 AI를 점점 더 많이 사용하고 있습니다. 그러나 잠재적 차용인의 신용 점수와 같은 AI에 대한 주요 입력이 물질적 오류가 있다, 그 개인이 대출을 거부당하게 됩니다.

이는 공정한 평가자 역할을 할 수 있는 외부 평가자가 허용된 기준에 따라 과거 데이터 및 알고리즘을 구동하는 가정의 관련성과 신뢰성에 대한 집중 평가를 제공할 수 있는 필요성을 강조합니다.

2. 이해 관계자와 규제 기관은 투명성을 요구합니다.

2022년에는 책임 있는 AI에 대한 현재 보고 요구 사항이 없었습니다. 그러나 Rosen은 “정부 기관이 ESG[환경, 사회 및 거버넌스] 규정을 도입한 것과 마찬가지로 특정 ESG 지표에 대한 보고, 책임 있는 AI에 대한 추가 규정 보고 요구 사항을 확인하는 것은 시간 문제일 뿐입니다.”

실제로 1년 2023월 XNUMX일부터 뉴욕시 현지법 144 자동화된 고용 결정 도구를 사용하기 전에 편견 감사를 수행해야 합니다.

그리고 연방 차원에서, 2020년 국가 인공지능 구상법(National Artificial Intelligence Initiative Act)- 기반으로 구축 2019년 행정명령—AI 기술 표준 및 지침에 중점을 둡니다. 추가적으로, 알고리즘 책임법 자동화된 의사결정 시스템 및 증강된 중요 의사결정 프로세스의 영향 평가가 필요할 수 있습니다. 그리고 해외에서는 인공지능법 AI 안전, 규정 준수, 거버넌스 및 신뢰성에 대한 특정 목표를 가진 포괄적인 규제 프레임워크를 제공하는 것이 제안되었습니다.

이러한 변화와 함께 조직은 거버넌스 현미경 아래에 있습니다. 알고리즘 평가자는 규제 요구 사항을 해결하고 이해 관계자가 잘못 해석하거나 이해하지 못하는 위험을 피하면서 이해 관계자 투명성을 향상시키는 보고서를 제공할 수 있습니다. 잘못 인도 평가 결과로.

3. 기업은 장기적인 위험 관리의 이점을 얻습니다.

KPMG의 기술 보증 프랙티스 파트너인 스티브 카마라는 기업이 프로세스를 자동화하고 고객 경험을 향상시키는 혁신을 개발하며 비즈니스 기능 전반에 AI 개발을 배포함에 따라 AI 투자가 계속 성장할 것이라고 예측합니다. 경쟁력과 수익성을 유지하기 위해 조직은 AI의 즉각적인 단점을 해결할 뿐만 아니라 AI 기반 비즈니스 운영과 관련된 장기적인 위험을 줄이는 효과적인 제어가 필요합니다.

여기에서 외부 평가자가 신뢰할 수 있고 정통한 리소스로 개입합니다. 조직에서 AI 무결성을 비즈니스 인에이블러로 점점 더 수용함에 따라 파트너십은 임시 서비스가 아닌 일관된 협업이 될 수 있다고 Camara는 설명합니다.

"우리는 AI를 지속적으로 개발하고 운영하는 조직과 객관적인 외부 평가자 사이에 지속적인 관계가 필요한 방향을 보고 있습니다."라고 그는 말합니다.

다음에 올 일에 대한 전망

미래에 조직은 예를 들어 새로운 모델을 개발하고, 새로운 데이터 소스를 수집하고, 타사 공급업체 솔루션을 통합하거나, 새로운 규정 준수 요구 사항을 탐색할 때 더 주기적으로 외부 평가를 활용할 수 있습니다.

추가 규정 및 규정 준수 요구 사항이 요구되는 경우 외부 평가자가 해당 요구 사항과 관련하여 조직이 AI를 얼마나 잘 배포하거나 사용했는지 직접 평가하는 서비스를 제공할 수 있습니다. 이러한 평가자는 평가 결과를 명확하고 일관된 방식으로 공유할 수 있는 가장 좋은 위치에 있습니다.

기술을 활용하는 동시에 한계로부터 보호하기 위해 조직은 외부 평가자를 찾아 보고서를 제공하여 알고리즘을 배포할 때 더 큰 투명성을 입증할 수 있는 보고서를 제공해야 합니다. 거기에서 조직과 이해 관계자 모두 AI의 힘과 한계를 더 잘 이해할 수 있습니다.

출처: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/