Oasis Labs, AI 모델의 공정성을 평가하기 위해 Meta와 제휴

Oasis Labs는 Meta와의 파트너십을 발표하고 사람들의 개인 정보를 보호하면서 Meta 제품의 공정성을 평가하는 플랫폼을 출시했습니다.

메타의 기술력으로 파트너, Oasis Labs는 Meta가 Instagram 사용자에게 인종이나 민족을 자발적으로 공유할 수 있는 설문조사에 참여하도록 요청함에 따라 정보를 보호하기 위해 SMPC(Secure Multi-Party Computation)를 사용하는 플랫폼을 구축했습니다.

이 프로젝트는 AI 모델의 공정성 측정을 발전시켜 전 세계 개인의 삶에 긍정적인 영향을 미치고 사회 전체에 혜택을 줄 것입니다.

이 최초의 플랫폼은 AI 모델이 공정한지 확인하고 적절한 완화를 허용하는 중요한 단계인 이니셔티브에서 중요한 역할을 할 것입니다.

플랫폼이 AI 모델의 공정성을 평가하는 방법

Meta의 Responsible AI, Instagram Equity 및 Civil Rights 팀은 Instagram을 사용하는 사람들에게 플랫폼 외 설문조사를 도입합니다. 사용자는 자발적으로 인종 및/또는 민족을 공유해야 합니다.

제XNUMX자 설문조사 제공자가 수집한 데이터는 진행자나 메타가 사용자의 설문조사 응답을 알 수 없도록 하는 방식으로 타사 진행자와 비밀로 공유됩니다.

그런 다음 메타가 암호화 방식으로 공유하는 AI 모델의 암호화된 예측 데이터를 사용하여 진행자가 측정을 계산하고 각 진행자의 비식별화된 결과를 Meta에 의해 집계된 공정성 측정 결과로 재구성합니다.

플랫폼에서 사용하는 암호화 기술을 통해 Meta는 편견과 공정성을 측정하는 동시에 민감한 인구 통계학적 측정 데이터를 제공하는 개인에게 높은 수준의 개인 정보 보호를 제공할 수 있습니다.

플랫폼, 목표 및 출시에 대해 자세히 알아보려면 다음을 방문하십시오. 여기에서 지금 확인해 보세요..

지속적인 연결

Oasis Labs의 최신 개발 정보를 확인하려면 다음 사이트에 가입하세요.

디스코드 | 트위터 | 뉴스 레터 구독

책임 부인

당사 웹 사이트에 포함 된 모든 정보는 선의로 일반 정보 목적으로 만 게시됩니다. 독자가 당사 웹 사이트에있는 정보에 대해 취하는 모든 조치는 전적으로 자신의 책임입니다.

출처: https://beincrypto.com/oasis-labs-partners-with-meta-to-assess-fairness-for-its-ai-models/