AI 스타트업이 마침내 AI 윤리에 합류하고 이를 사랑합니다. 여기에는 초보자 자율 주행 자동차 기술 회사도 포함됩니다.

빨리 실패하고 자주 실패하십시오. 무엇을 생각하든 더 크게 생각하십시오. 당신이 그것을 만들 때까지 가짜.

이것은 항상 듣거나 보는 일반적인 시작 라인입니다. 그들은 신진 기업가들 사이에서 일종의 조언 지식이 되었습니다. 실리콘 밸리를 돌아다니다 보면 이러한 슬로건이 적힌 범퍼 스티커를 볼 수 있을 것입니다. 이러한 슬로건이 새겨진 후드티를 입은 하이테크 창업자들을 목격할 것입니다.

AI 관련 스타트업은 확실히 무리에 포함된다.

아마도 우리는 신생 기업을 목표로 하는 AI를 위한 스타트업 성공 조언을 추가할 수 있습니다. AI 윤리를 적극적으로 수용. 그것은 범퍼 스티커 가치가 있는 개념이며 어떻게 하면 적절한 리더와 성공적인 기업가가 될 수 있는지 알아 내려고 노력하는 모든 AI 창립자에게 유용한 현명한 지혜입니다. AI 윤리 및 윤리적 AI에 대한 지속적이고 광범위한 내용은 다음을 참조하십시오. 여기 링크여기 링크, 다만 약간을 지명하기 위하여.

많은 AI 스타트업의 첫 번째 충동은 AI 윤리를 수용하려는 것과 정반대일 가능성이 높습니다. 이유는 다음과 같습니다.

종종 AI 스타트업의 초점은 가능한 한 빨리 유형의 AI 시스템을 출시하는 데 있습니다. 일반적으로 MVP(최소 실행 가능한 제품)를 생산해야 한다는 엄청난 압력이 있습니다. 투자자들은 구축할 수 없을 수도 있는 최신 AI 장치에 돈을 투자하는 것을 꺼리므로 AI 파일럿이나 프로토타입을 제작하는 것이 시급합니다. 그들이 말했듯이 증거는 푸딩에 있습니다. 많은 AI 스타트업은 머리를 숙이고 AI 꿈이 그럴듯해 보이도록 충분한 AI 코드를 만들어내는 것에 관한 것입니다.

그런 면에서 AI 윤리에 대한 고민은 별로 관심이 없다. 일반적인 가정은 AI 코어가 공개되면 모든 윤리적 AI 고려 사항을 추가할 수 있다는 것입니다. 이것은 AI 윤리의 유사성이 단지 케이크 위에 장식일 뿐이며 케이크를 만드는 데 전혀 통합되지 않는다는 사고방식입니다. 물론, 그러한 AI 윤리는 좋은 것이라는 속담이 있고 시간이 허락한다면 윤리적 AI 요소를 여기저기에 심을 것이지만 그렇지 않으면 AI 윤리를 성실하게 통합한다는 전체 아이디어는 현실 세계의 관심사가 아닌 억지스러운 것으로 간주됩니다.

이런 경향에 어울리는 또 다른 반유명한 말이 있다. 길거리 싸움에서는 스타일에 대해 초조해할 시간이 없습니다. AI 스타트업은 AI를 존재하게 하기 위해 투지 있게 싸우고 있으며 다음 개발 단계로 만들기 위한 자금을 얻기 위해 고군분투하고 있습니다. 그 성가신 AI 윤리와 같은 다른 것들은 돌봐야 할 것의 우선순위에서 극도로 낮은 것으로 추정됩니다.

또한 윤리적 AI에 대한 요구가 높아지는 것을 전혀 인식하지 못하는 AI 스타트업 창업자들이 많이 있다는 점도 덧붙여야 할 것 같습니다. 자신의 기술자 안개 속에 있는 사람들은 우선 AI 윤리에 관심이 있는 사람이 있다는 사실을 전혀 인식하지 못합니다. 따라서 그러한 AI 스타트업이 윤리적 AI 교훈을 포함하는 데 방송 시간을 주지 않을 것이라고 확신할 수 있습니다. 이것은 스타트업의 AI 빌더가 아마도 더없이 무지하고 AI 윤리에 대해 접근할 때조차 그것을 완전히 비주류 요인으로 기각하는 경향이 있다는 진정한 눈에 띄지 않고 마음에서 벗어난 개념입니다.

아마도 그 뻔뻔한 AI 창시자들이 생각하는 방식이 옳았는지 궁금할 것입니다. AI 시스템을 꾸밀 충분한 시간이 있을 때까지 AI 윤리는 제쳐두어도 됩니다. 또는 윤리적 AI를 준수하는 데 실제로 가치가 없으며 AI 윤리에 대한 모든 헛소리는 일시적인 유행 중 하나에 불과할 수도 있습니다.

글쎄요, 직설적으로 말하자면, 그것은 재앙에 대한 확실한 비결입니다.

요컨대, AI 윤리를 무시하거나 지연시키는 사람들은 AI가 화염에 휩싸이고 그들의 스타트업이 엄청난 더미로 무너지는 심각한 위험에 처해 있습니다. 게다가, 스타트업이 포기된 후에도 오랫동안 남아 있는 법적 파급 효과의 가능성은 그들이 처음에 옳은 일을 했어야 했음을 고통스럽게 상기시키는 역할을 할 것입니다. 스타트업, 설립자, 투자자 및 기타 이해관계자를 대상으로 한 소송은 실패한 AI 스타트업의 폐업을 훨씬 넘어서는 오랜 악취가 날 것입니다.

하단 라인 : AI 윤리는 AI 스타트업이 선택하는 모든 것의 초석이 되어야 합니다.

기간, 마침표.

전반적으로 AI 신생 기업에 조언을 제공한 경험과 AI 신생 기업에 대한 최근 연구 조사에 따르면 윤리적 AI에 적절한 관심을 기울이지 않는 창업자는 좋지 않은 길을 가고 있으며 AI 노력이 허물어지는 것을 알게 될 것입니다. 신진 AI 시스템에 적절한 양의 AI 윤리가 스며들지 않으면 상상한 AI가 아마도 형편없는 투자가 될 것이며 더 나쁘게는 여전히 비참하고 법적으로 고갈되는 얽힘이 될 것이라는 투자자들의 인식이 증가하고 있습니다.

윤리적 AI 기반이 없는 AI는 추악하고 평판에 좋지 않은 실수를 할 가능성이 있습니다. AI가 불미스러운 편견과 불평등을 포함하는 것으로 나타나면 대중의 항의는 오늘날의 소셜 미디어 바이러스성 태틀 텔링을 통해 크게 확대될 것입니다. AI 스타트업이 뜨거운 물에 빠질 뿐만 아니라 투자자들도 같은 진흙 속으로 끌려 들어갈 수밖에 없습니다. 윤리적 AI 원칙을 준수하는 데 있어 머리가 멍한 AI 스타트업에 투자한 이유는 무엇입니까? 투자자들은 우연히 자금을 조달한 특정 AI 스타트업의 행위로 인해 영구적으로 손상되는 것을 원하지 않습니다.

일부 큰 돈이 AI 스타트업에 유입되고 있음을 명심하십시오.

우리는 AI와 관련된 모든 것을 향한 행복감에 휩싸인 와중에 있습니다. 최근에 집계된 통계에 따르면 월 스트리트 저널, 지난해 AI 스타트업에 대한 벤처 캐피탈(VC) 자금은 약 8억 달러의 자금을 빨아들였습니다. 처음에는 은밀하게 AI에 대한 열망을 숨기고, 경쟁을 피하거나 다른 사람들이 AI가 독창적인 방식으로 사용될 수 있다는 것을 깨닫도록 다른 사람들을 자극하는 것을 피하고 싶어하는 많은 AI 스타트업이 있기 때문에 이것은 아마도 낮은 추정치일 것입니다.

AI 스타트업이 잠재적으로 AI 윤리를 어떻게 활용하고 있는지에 대한 통찰력 있는 연구 조사가 최근 Brookings의 규제 및 시장 센터 제임스 베센(James Bessen), 스티븐 임핑크(Stephen Impink), 로버트 시먼스(Robert Seamans)가 저술한 "윤리적 AI 개발: AI 스타트업의 증거"라는 제목의 책입니다. 그들이 찾은 것을 유익하게 살펴봅시다.

그들의 연구는 XNUMX개가 넘는 AI 관련 신생 기업을 조사하고 회사에서 윤리적 AI에 대한 인식과 수용에 대해 회사에 질문했습니다. 좋은 소식은 응답자의 약 절반이 사내에 윤리적 AI 지침이 있다고 답했다는 것입니다. 불과 몇 년 전만 해도 훨씬 더 낮은 비율이 그렇게 무장했을 가능성이 있었다는 점에서 그것은 실제로 다소 놀라운 일입니다.

다음은 이러한 AI 스타트업에서 AI 윤리 채택을 조사하는 것에 대해 연구에서 말한 내용입니다. “우리는 225개의 AI 스타트업에서 새로운 설문 조사 데이터를 수집하고 분석하여 이러한 문제를 평가합니다. 우리는 응답 기업의 절반 이상이 윤리적 AI 원칙을 가지고 있음을 발견했습니다. 그러나 이들 기업 중 다수는 직원을 해고하거나 교육 데이터를 삭제하거나 판매를 거절하는 등 비용이 많이 드는 방식으로 윤리적 AI 원칙을 적용한 적이 없습니다.”

지적된 발언에서 알 수 있듯이 AI 스타트업에서 AI 윤리 채택에 대한 나쁜 소식은 그들이 윤리적 AI 교훈을 진지하게 수용하지 않을 수 있다는 것입니다. 립서비스일 수도 있습니다.

당신은 그것이 어떻게되는지 압니다.

AI 스타트업은 아마도 부끄러움을 당하거나 AI 윤리를 믿도록 강요당할지도 모르기 때문에 다른 사람들을 달래기 위해 해야 할 최소한의 일을 합니다. 아마도 그들은 윤리적 AI를 홍보하는 플래카드로 사무실을 장식할 것입니다. 설립자는 AI 윤리가 얼마나 중요한지에 대해 고상한 연설을 할 수 있습니다. 한편, 배후에서 윤리적 AI 개념은 거의 관심을 받지 못하며 AI를 구축하는 하이테크 헤비 타자들에 의해 경멸당하거나 조롱당할 수도 있습니다.

지나치게 시무룩하게 보이고 싶지는 않지만 AI 스타트업의 절반 이상이 주장 AI 윤리 원칙을 채택했습니다. 나는 우리가 그 계시를 기뻐할 수 있다고 생각합니다. 물론 이는 AI 윤리 원칙을 채택하지 않은 사람이 절반도 안 된다는 의미이기도 하다. 이것은 슬픈 얼굴을 불러일으킨다.

우리는 AI 윤리를 수용하는 것에 대한 메모(말하자면)를 받은 것으로 보이는 약 절반을 가지고 있지만, 그들 중 일부는 단지 그들이 윤리적 AI에 올인하고 있음을 선전하기 위한 확인 표시로 그렇게 하고 있을 수 있습니다. 그런 다음 겉보기에 AI 윤리를 채택하지 않은 것으로 보이는 나머지 절반이 있습니다. 나는 낙관적이며, 씻지 않은 AI 스타트업이 점차 깨어나 윤리적 AI를 채택하고 이미 채택된 AI 윤리에 대해 느슨한 AI 스타트업이 그 모습을 현실로 만들기 위해 힘차게 노력할 것이라고 말할 수 있습니다. 실제 윤리적 AI 관행을 기반으로 합니다.

웃는 얼굴의 모습입니다.

설문조사 결과를 계속 살펴보면 설문에 응한 AI 스타트업의 몇 가지 특징이 있습니다. 그러나 거의 절반의 기업이 직원이 36명 미만입니다. 설문조사가 전 세계적으로 시행되었지만 대부분의 응답은 선진국에서 이루어졌으며 거의 ​​80%가 미국, 캐나다 및 유럽에서 왔습니다.”

저는 최신 AI 스타트업이 이미 여정을 시작한 지 몇 년이 된 스타트업보다 AI 윤리를 수용할 가능성이 더 높다고 거의 단언할 의향이 있습니다. 스타트업의 소위 "비즈니스 DNA"는 초기 공식화에서 결정되는 경우가 많습니다. 그리고 이제 윤리적 AI 트럼펫이 크게 울리고 있기 때문에 이제 막 시작되는 AI 스타트업은 아마도 AI 윤리를 채택할 것입니다. 몇 년 전에 시작된 스타트업은 윤리적 AI에 대한 기존의 경종을 놓쳤을 수 있습니다. 따라서 그들 중 일부에게는 스타트업의 근본적인 뿌리가 쉽게 뿌리를 뽑아 AI 윤리를 통합하지 못할 수도 있습니다.

마지막 댓글은 추가로 주목할 가치가 있습니다.

이제 AI 윤리를 수용하는 데 이점이 있다면 이미 존재하는 AI 스타트업이 그 시류에 편승하는 것이 현명하다고 생각할 수 있습니다. 이런 일이 발생할 수 있습니다.

반면 창업자의 어조와 마음가짐은 일반적으로 확고하며 마찬가지로 AI 스타트업도 어느 정도 구체적인 내용을 담고 있습니다. 설립자가 자신의 견해를 바꾸고 이에 따라 스타트업을 재조정하는 것은 매우 어려울 수 있습니다. 나는 스타트업 창업자들이 필요에 따라 피벗할 수 있는 것의 중요성에 대해 광범위하게 글을 썼지만, 그렇게 하는 방법을 아는 사람은 거의 없고 유감스럽게도 스타트업이 그에 따라 더듬거릴 수 있습니다. 여기 링크).

일부 AI 스타트업의 AI 윤리 도입이 본격적으로 이뤄지지 않고 있다는 연구 결과로 돌아가서 그 문제를 살펴봐야 한다.

AI 스타트업이 실제로 윤리적 AI 원칙을 준수하고 있다는 것을 어떻게 입증할 수 있는지에 대한 질문이 생깁니다. 이것은 언뜻 보기에 보이는 것보다 설정하기가 훨씬 더 어렵습니다. 이를 알아내는 한 가지 방법은 AI 코딩에 뛰어들어 AI 윤리를 프로그래밍 방식으로 수용할 수 있는지 확인하는 것입니다. 마찬가지로 AI 윤리를 위반하는지 확인하기 위해 AI 시스템을 테스트해 볼 수 있습니다. 대체로 이것은 윤리적 AI 준수 여부를 식별하기 위한 기술 지향적인 수단입니다.

동등하게 가치 있는 또 다른 접근 방식은 AI 스타트업의 비즈니스 결정이 윤리적 AI에 대한 선언적 신념을 반영하는지 확인하는 것입니다. AI 윤리가 회사에 중요하고 실증적이라는 주장과 관련하여 AI 스타트업의 행동이 AI 스타트업의 말과 일치합니까?

설문 조사에서는 이 접근 방식을 조사하고 다음과 같은 결과를 제시했습니다. 설문 조사에서 우리는 AI 정책이 있는 회사에 이러한 정책 준수가 비즈니스 결과에 어떤 영향을 미치는지에 대한 추가 정보를 제공하여 단순히 투자자에게 신호를 보내는 것이 아니라 윤리 정책을 준수하는지 판단하도록 요청했습니다. AI 원칙을 적용한 기업의 절반 이상이 윤리적 AI 원칙을 고수했기 때문에 비용이 많이 드는 비즈니스 결과를 한 번 이상 경험했습니다.”

요점은 AI 스타트업이 AI 윤리 고무가 도로를 충족하도록 선택했다면, 발생해야 하는 다소 비용이 많이 드는 비즈니스 결과가 있을 수 있다는 것입니다. 돈은 그들이 말하는 것처럼 말합니다. 윤리적 AI 지침을 준수하지 않는다는 이유로 누군가를 해고하거나 AI 윤리 추구를 돕기 위해 누군가를 새로 고용해야 하는 AI 스타트업은 돈을 입에 넣는 것입니다. 이것은 AI 스타트업에게 특히 중요합니다. 왜냐하면 그들은 일반적으로 최소한의 돈으로 거의 연명하지 못하고 그들이 할 수 있는 모든 달러를 늘려야 하기 때문입니다. 따라서 윤리적 AI 원칙을 수용하는 데 드는 모든 비용은 강력한 AI 윤리 신념을 나타내는 막대한 선택으로 해석될 수 있습니다.

우리는 그러한 문제에 있어서 부당한 추론에 비약하는 것은 조심할 필요가 있습니다. 처음부터 AI 스타트업이 윤리적 AI를 전체 존재로 부추겼을 수 있습니다. 이 경우 나중에 비용이 많이 드는 AI 윤리 지향적 선택을 하지 않아도 될 수 있습니다. 따라서 우리는 그들이 후속 비용이 많이 드는 조치가 없다면 윤리적 AI에 대해 진정으로 진지하지 않다고 다소 오해의 소지가 있는 추론을 할 수 있습니다. 이것은 때때로 생존자 편향이라고 불리는 것의 한 형태입니다. 우리는 처음에 AI 윤리 기본 설정을 건너뛰고 나중에 잘못 안내된 선박을 수정하려고 시도할 때 기한이 지난 신뢰를 제공하는 회사를 보고 있을 수 있습니다.

또한 AI 스타트업이 요즘 AI 윤리를 더 많이 채택하는 이유에 대한 또 다른 중요한 주제를 다루고 싶습니다.

나는 정통한 AI 투자자들이 이제 그들이 자금을 지원하는 스타트업이 윤리적 AI를 강력하게 포용해야 한다고 요구하는 경향이 있다고 언급한 적이 있습니다. 이것이 발생하는 다른 방법도 있습니다. 예를 들어, AI를 제작하는 더 큰 기술 회사는 특히 AI가 윤리적으로 잘못될 때 자신이 큰 목표라는 것을 깨닫기 때문에 AI 윤리를 빠르게 채택하고 있습니다. 차례로, 이러한 대형 기술 회사는 종종 AI 스타트업에도 윤리적 AI를 채택하도록 촉구하고 있습니다.

여기에 그 생각의 근거가 있습니다.

많은 대형 기술 회사는 때때로 AI 스타트업을 인수하기로 결정하여 자체 AI를 강화하거나 스타트업이 제공한 AI가 그들의 노력을 위해 열어주는 새로운 시장에 보다 신속하게 진입할 수 있도록 합니다. 이 규모가 큰 기술 회사는 급여를 받는 변호사가 많으며 비윤리적인 AI 사용에 걸릴 위험을 잘 알고 있습니다. 이 모든 것이 의미하는 바는 AI 스타트업이 이미 AI 윤리를 수용하는 데 필요한 작업을 수행한 경우 이를 구매하려는 대형 기술 회사가 그렇게 하기로 결정하는 것이 더 쉽다는 것입니다.

대조적인 그림은 AI 스타트업이 AI 윤리를 수용하지 못했다면 이제 신생 기업을 사거나 투자하려는 더 큰 기술 회사에 관해서는 문제가 있는 아이라는 것입니다. 잠재적으로 비윤리적인 AI는 개를 흔드는 꼬리가 될 것인가? AI 스타트업을 좀 더 윤리적인 AI 열망으로 전환하려면 얼마나 많은 돈이 필요할까요? 지연될 가능성이 있는 투자를 할 가치가 있습니까, 아니면 첫날부터 이미 AI 윤리를 주입한 다른 AI 스타트업을 찾아야 합니까?

AI 창업자는 이러한 중요한 고려 사항에 대해 생각해야 합니다.

AI 스타트업을 처음 구상할 때 진행하는 가장 좋은 방법은 잠재적인 성장 전략(및 마찬가지로 실행 가능한 출구 전략)에 대해 생각하는 것입니다. 당신은 더 큰 물고기가 당신을 잡아먹고 싶어할 가능성과 함께 항상 숨어 있어야 합니다. 일부 기업가는 아이디어를 좋아하지만 일부 기업가는 그렇지 않고 스스로 진행해야 한다고 주장합니다. 어쨌든 더 큰 회사가 문을 두드리면 아기를 계속 성장시킬 수 있는 막대한 현금 유입에 대한 유혹은 상당히 매혹적입니다. 당신은 그날을 위해 유익하게 계획을 세워야 합니다(그러나 그것을 보장할 수는 없습니다). 그리고 윤리적 AI가 당신의 AI 스타트업의 근거가 아니라는 발견으로 인해 제안된 결혼이 갑자기 무너지는 제단에 걸리지 않도록 해야 합니다.

나는 그것이 일종의 당근이라고 생각하지만 우리는 또한 채찍(즉, 인생을 보는 악명 높은 당근과 채찍 방식)을 고려해야 합니다.

AI에 관한 새로운 법률이 빠르게 통과되고 있습니다. 여기 링크.

몇 년 전 AI 스타트업이 손에 넣은 거친 것들이 점차 법으로 성문화되어 지금은 명백히 불법이라고 명시되어 있습니다. AI 스타트업이 AI 윤리를 밀접하게 준수하고 있다면 합법적이라는 기준 안에 남아있을 가능성이 있습니다. 이것은 확실히 그렇지는 않지만 AI 스타트업이 어떻게 합법적인 AI를 만들기 위해 진지하게 시도했는지에 대한 유사성으로 법적 소송에서 확실히 더 가능성이 높으며 어느 정도 신뢰할 수 있는 주장이 될 수 있습니다.

좋아요, 우리는 AI 스타트업이 윤리적 AI를 수용한다면 더 쉽게 할 수 있는 AI 스타트업을 사거나 투자하기를 원할 수 있는 더 큰 기술 회사의 당근을 얻었습니다. 우리는 또한 AI를 대상으로 하는 새로운 법률 및 규정의 막대기를 가지고 있으며 AI 윤리를 염두에 두지 않는 AI 스타트업에 잠재적인 법적 지뢰가 될 것입니다. 종합하면, 의식 있는 AI 기업가가 윤리적 AI에 들어가기 위해 신중하게 노력해야 한다고 말하는 것은 강력한 원투 펀치입니다.

설문 조사에서는 일반적으로 받은 응답을 통해 이 원투 펀치가 입증되는 것으로 나타났습니다. 회사를 안내합니다. 그러나 더 큰 첨단 기술 회사와의 데이터 공유 관계 및 GDPR에 대한 사전 규제 경험과 같은 사전 리소스가 있는 회사는 이러한 원칙에 따라 실질적으로 조치를 취할 가능성이 더 큽니다.”(GDPR에 대한 언급은 유럽 연합의 일반 개인 정보 및 데이터 보호 측면을 다루는 EU 법률인 데이터 보호 규정).

AI 윤리에 대한 이 토론을 통해 저는 여러분이 이미 윤리적 AI의 전반적인 측면에 대해 잘 알고 있다고 가정했습니다. 나는 또한 AI에 대해서도 몇 가지 가정을 해왔습니다. 우리는 AI 스타트업과 AI 윤리 문제를 풀기 전에 이러한 문제를 탐구해야 합니다.

미디어의 많은 관심을 받고 있는 AI 윤리의 특정 부분 또는 부분은 편향과 불평등을 나타내는 AI로 구성됩니다. 최신 AI 시대가 도래했을 때 현재 일부 사람들이 부르는 것에 대한 엄청난 열정이 있었다는 것을 알고 계실 것입니다. 좋은 AI. 불행하게도 그 솟구치는 흥분에 뒤이어 우리는 목격하기 시작했습니다. 나쁜 인공 지능. 예를 들어, 다양한 AI 기반 얼굴 인식 시스템이 인종 편견과 성별 편견을 포함하는 것으로 밝혀졌습니다. 여기 링크.

반격을 위한 노력 나쁜 인공 지능 활발히 진행되고 있습니다. 시끄러운 것 외에 적법한 잘못된 행동을 억제하려는 노력과 함께 AI 윤리를 수용하여 AI의 사악함을 바로잡으려는 실질적인 움직임도 있습니다. 개념은 우리가 AI의 개발 및 적용을 위한 핵심 윤리적 AI 원칙을 채택하고 지지해야 한다는 것입니다. 나쁜 인공 지능 동시에 바람직한 것을 예고하고 촉진한다. 좋은 AI.

관련 개념에서 저는 AI 문제에 대한 해결책의 일부로 AI를 사용하려고 하는 옹호자입니다. 예를 들어 나머지 AI가 작업을 수행하는 방식을 모니터링하여 잠재적으로 실시간으로 차별적 노력을 포착하는 AI 시스템에 윤리적 AI 구성 요소를 포함할 수 있습니다. 여기 링크. 또한 일종의 AI 윤리 모니터 역할을 하는 별도의 AI 시스템을 가질 수도 있습니다. AI 시스템은 다른 AI가 비윤리적인 심연으로 들어갈 때를 추적하고 감지하는 감독자 역할을 합니다. 여기 링크).

잠시 후 AI 윤리의 기초가 되는 몇 가지 중요한 원칙을 공유하겠습니다. 이런 종류의 목록이 여기저기 떠돌아다니고 있습니다. 보편적인 호소와 동의에 대한 단일 목록은 아직 없다고 말할 수 있습니다. 안타까운 소식입니다. 좋은 소식은 최소한 쉽게 사용할 수 있는 AI 윤리 목록이 있으며 매우 유사한 경향이 있다는 것입니다. 종합해보면, 이것은 일종의 합당한 수렴의 형태로 우리가 AI 윤리가 구성되는 일반적인 공통성을 향한 길을 찾고 있음을 시사합니다.

먼저 AI를 제작, 수비 또는 사용하는 모든 사람이 반드시 고려해야 할 사항을 설명하기 위해 전반적인 윤리적 AI 수칙 중 일부를 간략하게 살펴보겠습니다.

예를 들어, 바티칸은 다음과 같이 말했습니다. AI 윤리에 대한 로마의 요구 에서 자세히 다루었듯이 여기 링크, 다음은 확인된 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 투명성 : 원칙적으로 AI 시스템은 설명 가능해야 합니다.
  • 포함 : 모든 사람이 혜택을 받을 수 있고 모든 개인이 자신을 표현하고 발전할 수 있는 최상의 조건을 제공받을 수 있도록 모든 인간의 필요를 고려해야 합니다.
  • 책임: AI 사용을 설계하고 배포하는 사람은 책임과 투명성을 가지고 진행해야 합니다.
  • 공평성: 편견에 따라 창작하거나 행동하지 않음으로써 공정성과 인간의 존엄성을 수호한다.
  • 신뢰성 : AI 시스템은 안정적으로 작동할 수 있어야 합니다.
  • 보안 및 개인 정보 보호: AI 시스템은 안전하게 작동하고 사용자의 개인 정보를 존중해야 합니다.

미 국방부(DoD)에서 밝힌 바와 같이 인공 지능 사용에 대한 윤리 원칙 에서 자세히 다루었듯이 여기 링크, 다음은 XNUMX가지 주요 AI 윤리 원칙입니다.

  • 책임 : DoD 요원은 AI 기능의 개발, 배치 및 사용에 대한 책임을 유지하면서 적절한 수준의 판단과 주의를 기울일 것입니다.
  • 공정한: 국방부는 AI 기능의 의도하지 않은 편향을 최소화하기 위해 신중한 조치를 취할 것입니다.
  • 추적 가능: 부서의 AI 기능은 관련 직원이 투명하고 감사 가능한 방법론, 데이터 소스, 설계 절차 및 문서를 포함하여 AI 기능에 적용 가능한 기술, 개발 프로세스 및 운영 방법에 대한 적절한 이해를 갖도록 개발 및 배포됩니다.
  • 신뢰성 : 국방부의 AI 기능은 명확하고 잘 정의된 용도를 가지며, 이러한 기능의 안전성, 보안 및 효율성은 전체 수명 주기에 걸쳐 정의된 용도 내에서 테스트 및 보증의 대상이 됩니다.
  • 관리 가능: 국방부는 의도하지 않은 결과를 감지하고 피할 수 있는 능력과 의도하지 않은 행동을 보이는 배포된 시스템을 해제하거나 비활성화하는 능력을 보유하면서 의도한 기능을 수행할 수 있도록 AI 기능을 설계 및 엔지니어링할 것입니다.

나는 또한 "AI 윤리 지침의 글로벌 풍경"이라는 제목의 논문에서 수많은 국내 및 국제 AI 윤리 원칙의 본질을 조사하고 압축한 연구자들이 고안한 세트를 다루는 것을 포함하여 AI 윤리 원칙에 대한 다양한 집합적 분석에 대해 논의했습니다. 입력 자연), 그리고 내 적용 범위는 여기 링크, 이 핵심 목록으로 이어졌습니다.

  • 투명도
  • 정의와 공정
  • 악의 없음
  • 책임
  • 개인정보보호
  • 선행
  • 자유와 자율
  • 믿어
  • 지속 가능성
  • 존엄
  • 연대

직접 추측할 수 있듯이 이러한 원칙의 기초가 되는 세부 사항을 파악하는 것은 매우 어려울 수 있습니다. 더욱이, 이러한 광범위한 원칙을 AI 시스템을 제작할 때 사용할 수 있을 만큼 충분히 유형적이고 세부적인 것으로 바꾸려는 노력은 또한 깨기 힘든 너트입니다. AI 윤리 지침이 무엇인지, 일반적으로 어떻게 준수해야 하는지에 대해 전반적으로 손을 흔드는 것은 쉽지만 AI 코딩에서는 길을 만나는 진정한 고무가 되어야 하는 훨씬 더 복잡한 상황입니다.

AI 윤리 원칙은 AI 개발자, AI 개발 노력을 관리하는 사람, 그리고 궁극적으로 AI 시스템을 유지 관리하는 사람과 함께 활용해야 합니다. 개발 및 사용의 전체 AI 라이프 사이클에 걸쳐 모든 이해 관계자는 윤리적 AI의 확립된 규범을 준수하는 범위 내에서 고려됩니다. 이것은 "오직 코더" 또는 AI를 프로그래밍하는 사람들이 AI 윤리 개념을 준수해야 한다는 일반적인 가정에서 중요한 하이라이트입니다. 앞서 언급했듯이 AI를 고안하고 적용하려면 마을 전체가 필요하며 이를 위해서는 마을 전체가 AI 윤리 수칙을 숙지하고 준수해야 합니다.

또한 오늘날 AI의 특성에 대해 같은 페이지에 있는지 확인합시다.

오늘날 지각이 있는 AI는 없습니다. 우리는 이것을 가지고 있지 않습니다. 우리는 지각 있는 AI가 가능할지 모릅니다. 우리가 지각 있는 AI에 도달할 것인지, 지각 있는 AI가 어떻게든 기적적으로 자발적으로 계산적 인지 초신성(보통 특이점이라고 함)의 형태로 발생할지 여부를 적절하게 예측할 수 없습니다. 링크는 여기).

제가 집중하고 있는 AI 유형은 오늘날 우리가 가지고 있는 무감각 AI입니다. 우리가 에 대해 격렬하게 추측하고 싶다면 마음 AI, 이 논의는 근본적으로 다른 방향으로 갈 수 있습니다. 지각 있는 AI는 아마도 인간의 품질일 것입니다. 지각 있는 AI가 인간의 인지적 등가물임을 고려해야 합니다. 더구나 일부 사람들은 우리가 초지능 AI를 가질 수 있다고 추측하기 때문에 그러한 AI가 결국 인간보다 더 똑똑해질 수 있다고 생각할 수 있습니다. 여기의 적용 범위).

좀 더 현실에 가깝게 유지하고 오늘날의 컴퓨팅 비지각 AI를 고려해 보겠습니다.

오늘날의 AI는 어떤 방식으로도 인간의 생각과 동등하게 "생각"할 수 없다는 사실을 깨달으십시오. Alexa 또는 Siri와 상호 작용할 때 대화 능력은 인간의 능력과 비슷해 보일 수 있지만 현실은 계산적이며 인간의 인식이 부족합니다. AI의 최신 시대는 계산 패턴 매칭을 활용하는 머신 러닝(ML) 및 딥 러닝(DL)을 광범위하게 사용했습니다. 이것은 인간과 같은 성향을 보이는 AI 시스템으로 이어졌습니다. 한편, 오늘날 상식과 유사하고 강력한 인간 사고의 인지적 경이로움도 없는 AI는 없습니다.

ML/DL은 계산 패턴 일치의 한 형태입니다. 일반적인 접근 방식은 의사 결정 작업에 대한 데이터를 수집하는 것입니다. ML/DL 컴퓨터 모델에 데이터를 제공합니다. 이러한 모델은 수학적 패턴을 찾으려고 합니다. 그러한 패턴을 찾은 후 발견되면 AI 시스템은 새 데이터를 만날 때 해당 패턴을 사용합니다. 새 데이터가 표시되면 "이전" 또는 과거 데이터를 기반으로 하는 패턴이 적용되어 현재 결정이 나타납니다.

나는 이것이 어디로 향하고 있는지 짐작할 수 있다고 생각합니다. 의사 결정에 따라 패턴화된 인간이 잘못된 편견을 통합했다면 데이터가 미묘하지만 중요한 방식으로 이를 반영할 가능성이 있습니다. 머신 러닝 또는 딥 러닝 계산 패턴 일치는 그에 따라 데이터를 수학적으로 모방하려고 합니다. AI가 만든 모델링 자체의 상식이나 다른 감각적인 측면의 유사성은 없습니다.

게다가 AI 개발자도 무슨 일이 일어나고 있는지 깨닫지 못할 수도 있습니다. ML/DL의 난해한 수학은 현재 숨겨진 편견을 찾아내는 것을 어렵게 만들 수 있습니다. 보기보다 까다롭지만 AI 개발자가 잠재적으로 묻혀 있는 편향을 테스트하기를 기대하고 기대할 수 있습니다. 비교적 광범위한 테스트를 수행하더라도 ML/DL의 패턴 일치 모델에 여전히 편향이 포함될 가능성이 있습니다.

가비지 인 가비지 아웃이라는 유명하거나 악명 높은 격언을 어느 정도 사용할 수 있습니다. 문제는 이것이 AI에 잠긴 편향으로 교묘하게 주입되는 편향과 더 유사하다는 것입니다. AI의 ADM(알고리즘 의사결정)은 공리적으로 불평등을 수반합니다.

안좋다.

이 중요한 논의의 시점에서 AI 스타트업과 AI 윤리 상황을 보여줄 수 있는 몇 가지 예시를 원한다고 확신합니다. 내 마음에 와 닿는 특별하고 확실히 인기 있는 사례가 있습니다. 윤리적 및 법적 파급 효과를 포함하여 AI 전문가로서 AI 윤리 딜레마를 보여주는 현실적인 예를 식별하여 주제의 다소 이론적인 특성을 더 쉽게 파악할 수 있도록 자주 요청받습니다. 이러한 윤리적 AI 곤경을 생생하게 보여주는 가장 인상적인 영역 중 하나는 AI 기반의 진정한 자율주행차의 출현입니다. 이것은 주제에 대한 충분한 토론을 위한 편리한 사용 사례 또는 모범이 될 것입니다.

다음은 생각해 볼 가치가 있는 주목할만한 질문입니다. AI 기반의 진정한 자율주행차의 출현은 AI 스타트업과 윤리적 AI에 대해 무엇을 밝혀 줍니까? 그렇다면 이것은 무엇을 보여줍니까?

잠시 질문을 풀어보겠습니다.

먼저 진정한 자율주행차에는 인간 운전자가 포함되어 있지 않다는 점에 유의하십시오. 진정한 자율주행차는 AI 운전 시스템을 통해 구동된다는 점을 명심하십시오. 운전석에 사람이 운전할 필요도 없고 사람이 차량을 운전할 규정도 없습니다. 자율주행차(AV)와 특히 자율주행차에 대한 광범위하고 지속적인 내용은 다음을 참조하십시오. 여기 링크.

진정한 자율 주행 차를 언급 할 때 의미하는 바를 더 명확히하고 싶습니다.

자율 주행 차의 수준 이해

설명하자면 진정한 자율 주행 자동차는 AI가 자동차를 완전히 스스로 운전하고 운전 작업 중에 사람의 도움이없는 자동차입니다.

이 무인 차량은 레벨 4 및 레벨 5로 간주됩니다 (내 설명은 여기 링크), 인간 운전자가 운전 노력을 공동으로 분담해야 하는 자동차는 일반적으로 레벨 2 또는 레벨 3으로 간주됩니다. 공동 운전 작업을 수행하는 자동차는 반자율적이라고 설명되며 일반적으로 다양한 ADAS(Advanced Driver-Assistance Systems)라고 하는 자동 추가 기능.

레벨 5에는 아직 진정한 자율주행차가 없으며, 이것이 가능할지, 도달하는 데 얼마나 걸릴지 아직 모릅니다.

한편, 레벨 4의 노력은이 테스트가 그 자체로 허용되어야하는지에 대한 논란이 있지만 (우리는 실험에서 모두 생사 기니피그입니다. 우리 고속도로와 도로에서 일어나고 있습니다. 여기 링크).

반 자율 자동차에는 인간 운전자가 필요하기 때문에 이러한 유형의 자동차 채택은 기존 차량을 운전하는 것과 크게 다르지 않으므로이 주제에 대해 다루는 새로운 자체는 많지 않습니다 (그러나, 잠시 후, 다음 사항이 일반적으로 적용됩니다.

반 자율 자동차의 경우 대중이 최근에 발생하고있는 혼란스러운 측면에 대해 미리 알고 있어야합니다. , 우리 모두는 운전자가 반 자율 자동차를 운전하는 동안 운전 작업에서주의를 끌 수 있다고 믿지 않도록 잘못 인도하지 않아야합니다.

레벨 2 또는 레벨 3으로 전환 할 수있는 자동화의 양에 관계없이 차량의 운전 행동에 대한 책임은 귀하에게 있습니다.

윤리적 AI를 활용한 자율주행차 및 AI 스타트업

레벨 4 및 레벨 5 진정한 자율 주행 차량의 경우, 운전 작업에 인간 운전자가 관여하지 않습니다.

모든 탑승자가 승객이됩니다.

AI가 운전을하고 있습니다.

즉시 논의해야 할 한 가지 측면은 오늘날의 AI 구동 시스템에 관련된 AI가 지각력이 없다는 사실을 수반합니다. 다시 말해, AI는 모두 컴퓨터 기반 프로그래밍과 알고리즘의 집합체이며 인간이 할 수있는 것과 같은 방식으로 추론 할 수 없습니다.

AI가 지각이 없다는 점을 강조하는 이유는 무엇입니까?

AI 구동 시스템의 역할을 논의 할 때 AI에 인간의 자질을 부여하는 것이 아니라는 점을 강조하고 싶습니다. 요즘 인공 지능을 의인화하려는 지속적이고 위험한 경향이 있음을 유의하십시오. 본질적으로 사람들은 그러한 AI가 아직 존재하지 않는다는 부인할 수없고 논란의 여지가없는 사실에도 불구하고 오늘날의 AI에 인간과 같은 감성을 부여하고 있습니다.

이러한 설명을 통해 AI 구동 시스템이 기본적으로 운전 측면에 대해 "알지"못할 것이라고 상상할 수 있습니다. 운전과 이에 수반되는 모든 것은 자율 주행 자동차의 하드웨어 및 소프트웨어의 일부로 프로그래밍되어야합니다.

이 주제에 대한 수많은 측면을 살펴 보겠습니다.

첫째, 모든 AI 자율주행차가 같지는 않다는 점을 인식하는 것이 중요합니다. 각 자동차 제조사와 자율주행 기술 회사는 자율주행차 개발에 접근하고 있다. 따라서 AI 운전 시스템이 무엇을 할 것인지, 하지 않을 것인지에 대해 포괄적인 진술을 하기는 어렵습니다.

게다가, AI 운전 시스템이 어떤 특정한 일을 하지 않는다고 말할 때마다, 이것은 나중에 실제로 바로 그 일을 하도록 컴퓨터를 프로그래밍하는 개발자들에 의해 추월될 수 있습니다. AI 운전 시스템은 단계적으로 개선되고 확장되고 있습니다. 현재의 기존 제한은 시스템의 향후 반복 또는 버전에서 더 이상 존재하지 않을 수 있습니다.

나는 이것이 내가 관련시키려는 내용의 기초가 되는 충분한 주의 사항을 제공한다고 믿습니다.

우리는 이제 자율주행차와 AI 스타트업을 수반하는 윤리적 AI 가능성에 대해 깊이 파고들 준비가 되었습니다.

약간의 역사 수업이 필요합니다.

AI 자율주행 자동차 회사의 첫 번째 스크럼이 진행되었을 때 윤리적 AI 문제에 대한 관심은 거의 없었습니다. 그 당시에는 AI가 자동차 운전을 위해 고안될 수 있는지 여부에 대한 일반적인 기술 경이로움에 대한 선입견이 초점이었습니다. 기본적으로 AI 윤리적 불안이 발생할 수 있는 경우 AI가 운전을 할 수 있다는 것이 분명히 실현 가능하다는 것을 간단히 "증명"할 수 있을 때까지 그것에 대해 걱정할 특별한 근거가 없다는 생각이었습니다.

어떤 AI 윤리에 지나치게 집착하는 것은 말 앞에 수레를 두는 것과 같았습니다. 당시 일부에서는 제안했을 것입니다.

게다가 AI가 실제로 비윤리적인 방식으로 작동하도록 형성될 수 있는 방법에 대한 인식이 그다지 많지 않았습니다. 일반적으로 AI 개발자는 윤리적 수준이 아닌 AI를 의도적으로 제작하기 위해 노력해야 한다는 가정이 있었습니다. 교활하게 AI를 구성하는 악인만이 그렇게 할 것입니다.

결국 AI 윤리의 영역은 AI가 주입된 자율 차량을 만들고 배치하는 사람들을 따라잡을 수밖에 없다는 것을 알고 계실 것입니다. AI 운전 시스템에 의한 다양한 부정 행위(잘못 고안되었거나 때로 설익은 배치)로 인해 무언가 조치를 취해야 한다는 사실을 깨닫게 되었습니다. 나는 수년 동안 진행된 칼럼에서 점진적인 윤리적 AI 변화를 기록했습니다. 거의 모든 진정한 자율 주행 기술 회사는 아니지만 대부분의 진정한 자율 주행 기술 회사는 결국 AI 윤리를 주입하는 책임이 있는 최고 경영진을 배치했습니다. 그들의 회사 (내 범위 참조 여기 링크).

즉, 윤리적 AI 문제가 오늘날의 AI 자율 주행 자동차 엔터티에 완전히 잠재되어 있다는 인상을 남기고 싶지 않습니다. 우리에게는 아직 다루어야 할 많은 근거가 있음을 확신합니다. 예를 들어, 내가 여러 번 주장했듯이 유명하거나 악명 높은 트롤리 문제로 인해 촉발 된 AI 윤리 문제에 대한 적절한 관심이 오늘날까지 여전히 부족합니다. 이 미해결 문제에 대한 자세한 내용은 내 토론을 참조하십시오. 여기 링크여기 링크.

또 한 가지 깨달아야 할 점은 대부분의 자율주행차 기업이 이제 더 이상 AI 스타트업으로 합리적으로 분류되지 않는다는 것입니다. 시작 단계를 훨씬 뛰어넘습니다. 그들 중 일부는 스스로 자랐습니다. 그들 중 일부는 자동차 회사나 배송 회사와 같은 더 큰 회사에서 구입했습니다. 등.

그런 식의 고려에서 오늘날 그들이 일반적으로 AI 윤리를 수용할 여유가 있다고 주장할 수 있습니다. 그들은 현금이 풍부하고 덜 굶주린 방식으로 회사를 운영할 수 있는 능력이 있습니다. 그들은 또한 윤리적 AI를 준수하지 않는 경우 이에 대해 부름을 받을 정도로 더 많이 노출되는 경향이 있습니다.

자율주행차가 공공 도로를 질주할 때 AI의 윤리적 과실은 눈에 띄고 널리 보고될 수밖에 없습니다. AI 자율주행차 법인을 소유한 모회사는 대중의 눈에 심각한 타격을 입고 잠재적으로 주식 시장에서 큰 타격을 입을 것입니다. 여러 가지 이유로 AI 윤리의 비중이 상대적으로 높게 평가되는 경향이 있지만, 물론 이것이 항상 그런 것은 아니며 실수가 발생할 것이라고 장담할 수 있습니다.

그렇다면 이 틈새 시장에 AI 스타트업이 없고 따라서 AI 윤리 채택에 대해 논의할 필요가 없다는 의미입니까?

헤드라인이 일반적으로 대형 자율주행 기술 회사에 관한 것이기 때문에 그렇게 보일 수 있습니다. 이 틈새 시장에 특히 주의를 기울이지 않는 한 이 영역으로 들어가는 새로운 스타트업이 없다고 생각할 것입니다. 전체 shebang은 상대적으로 확립된 회사에 의해 지배되는 것으로 보이며 모든 시작 활동은 이전에 완료되었거나 시장이 오늘날의 압도적인 큰 참나무로 막혀 있기 때문에 견인력을 얻을 수 없습니다.

이 분야에서 AI 스타트업에 대해 그런 가정을 하는 것은 잘못된 것입니다. 아직 액션이 많이 남아있습니다. 차이점은 요즘 AI 스타트업은 전체 파이가 아닌 파이 조각을 목표로 하는 경향이 있다는 것입니다. 과거에 AI 스타트업은 일반적으로 A부터 Z까지 모든 작업을 수행하면서 처음부터 AI 자율 주행 자동차를 구축하기를 원했습니다. 백지 한 장으로 처음부터 시작하여 언젠가 자율 주행 자동차가 어떤 모습일지 상상해 보십시오. 같다. 그것은 당신의 행진 명령이 되었습니다.

오늘날 그런 종류의 AI 스타트업이 출시될 확률은 상대적으로 낮습니다. 대신, 자율주행차 틈새 시장의 AI 스타트업은 AI 자율주행차가 구성하는 특정 구성 요소 또는 하위 집합을 다루는 경향이 있습니다. 이것은 자율주행차의 센서 제품군 측면에서 상당히 많이 발생합니다. 특정 센서 유형에 의해 수집된 데이터를 더 잘 해석하기 위해 특정 종류의 센서 또는 특정 AI 알고리즘에 집중하는 AI 스타트업이 지속적으로 등장하고 있습니다.

전반적으로 AI 스타트업이 AI 윤리를 수용하도록 하는 문제는 여전히 살아 있으며 자율주행차 및 자율주행차 분야에서 시작되고 있습니다.

자율주행차 분야의 스타트업을 포함해 AI 스타트업에 자문을 제공하면서 이러한 문제에 대해 제가 가장 좋아하는 팁이나 권장 사항을 제시했습니다.

맛보기로 제가 정한 Top Ten은 다음과 같습니다.

1) 창립자는 AI 윤리 전도자가 되어야 합니다. 그렇지 않으면 AI 스타트업의 나머지 사람들은 주제가 부족한 관심과 이미 과중한 노력을 기울일 가치가 있다는 것을 인식하지 못할 것입니다(모든 것이 맨 위에서 시작됨).

2) 설립자는 윤리적 AI가 무엇을 수반하는지 완전히 파악하지 못할 가능성이 높으며 주제에 대한 이해가 그것에 대한 열정과 일치하도록 최신 정보를 얻어야 합니다(무슨 말을 하는지 알고 있어야 합니다).

3) AI 윤리에 대한 창립자의 공허한 진부한 말은 스타트업 팀을 절대적으로 약화시키고 윤리적 AI 배너를 어떤 물질도 없는 쓸모없는 깃발로 바꿀 것입니다(물을 독살하지 마십시오).

4) 윤리적 AI 지침을 AI 설계, 구축, 테스트 및 배치와 관련된 특정 의무 및 조치와 연결해야 합니다(그렇지 않으면 너무 크고 메울 수 없는 격차가 존재하고 팀이 점을 연결할 수 없습니다).

5) 윤리적 AI 원칙을 이미 통합했거나 합리적으로 적절하게 개조할 수 있고 과도한 방해 없이 합리적인 AI 개발 방법론을 마련합니다(적절한 방법론은 AI 윤리적 결실을 향한 경로에서 팀을 원활하게 안내할 것입니다).

6) AI 윤리에 대해 팀에 적절한 교육을 제공하고 이것이 임박한 실용적인 방식으로 수행되도록 합니다(고상한 교육은 거의 효과가 없으며 귀중한 시간을 낭비한 것처럼 보이는 반발을 유발할 수 있음).

7) 창립자의 눈에 잘 띄는 인정, 금전 또는 기타 보너스, 우호적인 스코어카드 및 경쟁 등(말하기, 걷기, 말하기)을 포함하여 일상적인 노력에서 윤리적 AI를 수용하는 팀에 보상하는 관련 수단을 설정합니다.

8) 신뢰할 수 있는 외부인을 확보하여 AI 윤리 채택을 주기적으로 검토하여 상황이 실제로 어떻게 진행되고 있는지 확인할 수 있는 독립적인 눈을 제공합니다(내부 진부함을 넘어 세상을 있는 그대로 봅니다).

9) 투자자 및 기타 이해관계자에게 귀하의 윤리적 AI 활동 및 채택에 대해 알리십시오. 그렇지 않으면 그들은 귀하가 그것에 대해 아무 것도 하지 않고 있다고 가정하고 AI 노력에서 충돌이 발생할 때 갑자기 폭군이 될 수 있기 때문입니다(자랑스럽고 AI 윤리 추구에 대해 목소리를 높이십시오).

10) 윤리적 AI 포용은 끝이 없고 지속적인 유지 및 부스트가 필요하기 때문에 항상 최신 상태를 유지하십시오(잠시 멈춤, 패배).

저는 이러한 AI Ethics 조직 채택 권장 사항을 더 많이 보유하고 있으며 차후 게시물에서 점진적으로 다룰 예정입니다. 계속 지켜봐 주세요.

결론

잔은 반쯤 차 있고 반쯤 비어 있습니다.

앞서 인용한 설문조사에 따르면 설문조사에 응한 AI 스타트업 기업의 약 절반이 AI 윤리를 채택하고 있으므로 약 절반이 그렇지 않은 것으로 추정할 수 있습니다. 우리는 또한 AI 스타트업이 윤리적 AI를 수용한다고 말하더라도 실질적으로 그렇게 하지 않았을 수도 있다는 것을 알고 있습니다. 단순히 대의에 입만 대고 말하는 것은 너무나 쉽고 편리합니다.

정통한 투자자들의 요구로 인해 발생하는 압력은 의심할 여지 없이 AI 윤리 영역으로 먼저 뛰어드는 것을 선택하거나 선택하지 않을 AI 스타트업의 속도와 비율을 높일 것입니다. 이처럼 새롭게 제정되는 AI 관련법 위반으로 인한 형사 고소 및 기소의 망령은 AI 스타트업들이 윤리적 AI 문제에 대해 함께 행동할 수 있는 계기가 될 것임에 틀림없다.

AI 윤리를 무시하거나 회피하는 것이 표면적으로 셔츠를 잃거나 감옥에 들어갈 가치가 있습니까? 나는 확실히 그렇지 않기를 바랍니다.

물론 막대기의 가혹한 고통이 AI 윤리를 포용하려는 목표의 유일한 근거는 아닙니다. 언급한 바와 같이, 성장을 원하거나 결국에는 스타트업에서 나가고 싶다면 더 큰 구매 회사는 당신이 적절하게 윤리적 AI를 가지고 있고 그것을 AI 스타트업에 진정으로 주입했는지 확인하기를 원할 것입니다. AI 윤리를 준수하는 결과는 합리적이고 막대합니다. 당근이 좋습니다.

마지막으로, 현재 우리 모두는 기술 분야의 사람들이 눈길을 끄는 슬로건을 많이 내세우는 것을 좋아한다는 것을 알고 있습니다. 미래를 건설하십시오. 한계를 뛰어넘으세요. 데이터 기반이 되십시오. 크게 가거나 집에 가십시오.

그리고 하나만 더 추가하면 됩니다. AI 윤리를 적극적으로 수용.

그것을 살고, 그렇게 만들고, 믿으십시오.

출처: https://www.forbes.com/sites/lanceeliot/2022/04/21/ai-startups-finally-getting-onboard-with-ai-ethics-and-loving-it-inclusive-those-newbie- 자율 자율 주행 자동차 기술 회사도/