본문 바로가기
Microsoft/AI

마이크로 소프트의 책임감 있는 기계 학습 능력은 AI시스템에 대한 신뢰를 구축한다고 개발자들은 말한다.

by AttractiveS 2020. 6. 19.

사업을 운영하는 사람이라면 누구나 가장 하기 힘든 일이 고객의 과실을 고발하는 것이라는 것을 안다. 그래서 스칸디나비안 항공(SAS)사기 감지 장치의 회원들이 고객이 항공사의 충성 포인트 프로그램을 속이려 했다고 비난하기 전에 형사들은 그들의 사건이 확실하다는 자신감을 가질 필요가 있다.

스웨덴 스톡홀름에 본사를 두고 있는 SAS의 데이터 분석 및 인공 지능(AI)책임자인 다니엘 엔버그는 "무언가가 사기라고 실수로 말한다면 우리에게 더 큰 상처가 될 것"이라고 말했다.

이 항공사는 현재 새로운 코로나 바이러스에 의해 발생한 질병인 COVID-19의 확산을 늦추기 위해 제한된 기내 서비스로 축소된 스케줄을 비행하고 있다. 이러한 제한 이전에 SAS는 하루 800회 이상의 출발과 연간 3천만명 이상의 승객을 처리했다. 항공사가 정기적인 운항이 재개되기를 기다리는 동안 EuroBonus로열티 프로그램의 무결성을 유지하는 것이 무엇보다 중요하다고 Engberg는 지적했다.

EuroBonusscammers는 보상 여행을 직접 예약하거나 판매하기 위해 가능한 한 많은 점수를 얻기 위해 노력한다고 설명했다. 부정 행위가 발생하면 합법적인 고객은 로열티 프로그램을 위해 예약된 시트를 청구할 기회를 잃고 SAS는 중요한 비즈니스 수익을 잃게 됩니다.

오늘날 EuroBonus부정 행위에 대한 단서 중 상당 부분은 Engberg과 그의 팀이 MicrosoftAzureMachineLearning과 함께 구축한 인공 지능 시스템에서 온다. 이는 이해하기 쉽고 보호하고 제어하기 쉬운 기계 학습 모델을 구축, 훈련 및 배치하기 위한 서비스이다.

SASAI시스템은 수천개의 매개 변수를 가진 기계 학습 모델을 통해 실시간 비행, 거래, 보상 청구 등의 흐름을 처리해 의심스러운 행동 패턴을 찾아낸다.

부정 행위 감지 장치는 모델 예측을 이해하고 이에 따라 잠재 고객을 추적하고 사례를 구축하기 위해 InterpretML툴킷을 기반으로 한 AzureMachine학습 기능을 사용합니다. 이 능력은 주어진 경우에 어떤 매개 변수가 가장 중요했는지 설명한다. 예를 들어, 유령 계정에서 비행기 예약에 이르기까지 지점을 풀링 하는 사기를 제안하는 매개 변수를 지적할 수 있다.

Engberg은 모델의 해석 능력은 기계 학습의 수수께끼를 없애는 데 도움이 되며, 이를 통해 모델 예측에 대한 신뢰와 신뢰를 쌓을 수 있다고 말합니다.

"만약 우리가 이 모델들에 대한 신뢰를 쌓는다면, 사람들은 그것들을 사용하기 시작할 것이고, 그러면 우리는 실제로 기계 학습이 우리에게 약속한 이익을 얻을 수 있을 것입니다,"라고 그는 말했다. "이것은 설명 가능성을 위한 설명성에 관한 것이 아닙니다. 이를 통해 고객과 직원 모두에게 이러한 모델이 어떤 역할을 하고 있으며 어떻게 우리를 위해 자리를 잡고 있는지에 대한 통찰력을 제공할 수 있습니다."

그래픽 제공:Microsoft.

기계 학습 솔루션의 이해, 보호 및 제어

워싱턴 레드먼드 소재 마이크로 소프트 AzureAI의 기업 부사장인 EricBoyd는 지난 몇년간 기계 학습이 연구소에서 주류로 발전해 왔으며, 박사 학위를 소지한 데이터 과학자들의 틈새 분야에서 모든 개발자들이 참여할 수 있는 분야로 변화해 왔다고 말했다.

마이크로 소프트는 다양한 데이터 과학 전문 지식을 갖춘 개발자들이 AI시스템을 구축하고 구축할 수 있도록 AzureMachineLearning을 개발했습니다. 보이드 교수는 오늘날 모든 개발자들이 쉽게 설명할 수 있고 차별 금지 및 개인 정보 보호 규정을 준수하는 AI시스템을 구축해 달라는 요청을 점점 더 많이 받고 있다.

그는 "내가 내 모델이 공정하게 행동하고 있는지를 제대로 평가했는지 아니면 이 모델이 왜 그런 식으로 예측하는지 정말 이해할 수 있을까?"라고 말했다.

마이크로 소프트는 이러한 장애물을 해결하기 위해 오늘 개발자들이 기계 학습 수명 주기 동안 자신의 모델을 이해하고 보호하며 제어할 수 있도록 돕는 책임 있는 기계 학습의 혁신을 발표했습니다. 이러한 기능은 AzureMachineLearning을 통해 액세스 할 수 있으며 GitHub의 오픈 소스에서도 이용할 수 있다.

모델 동작을 이해할 수 있는 기능에는 SAS가 EuroBonus로열티 프로그램의 사기를 탐지하는 데 사용하는 InterpretML툴킷에서 제공하는 해석 가능성 기능이 포함됩니다.

또한 마이크로 소프트는 AI시스템의 공정성을 평가하고 개선할 수 있는 기능이 포함된 페어레인 툴킷이 6월에 AzureMachineLearning과 통합될 것이라고 말했습니다.

마이크로 소프트는 또한 개발자들이 GitHub를 오픈 소스로 실험할 수 있고 AzureMachineLearning을 통해서도 접근할 수 있도록 하는 차별화된 개인 정보 보호용 툴킷을 사용할 수 있다고 발표했다. 다른 개인 정보 보호 능력은 하버드 대학의 정량적 사회 과학과 공학 대학의 연구원들과 함께 개발되었다.

서로 다른 개인 정보 보호 기술은 개인 데이터에서 통찰력을 얻을 수 있게 하는 동시에 생년월일과 같은 개인 정보를 보호할 수 있다는 통계적 보증을 제공합니다.

예를 들어, 차등 프라이버시는 병원 정보의 프라이버시를 보호하고 모델에서 개별 환자 데이터가 유출되지 않도록 보장하기 위해 법적 요구 사항을 준수하는 동시에, 병원 그룹이 암 치료의 효능에 대한 더 나은 예측 모델을 구축하는 데 협력할 수 있도록 한다.

또한 AzureMachineLearning은 개발자가 모델의 제작, 교육 및 구현 프로세스를 추적하고 자동화할 수 있는 내장 컨트롤을 제공합니다. 많은 사람들에게 기계 학습 및 운영, 즉 MLOps라고 알려진 이 기능은 조직이 규제 및 규정 준수 요구 사항을 충족하는 데 도움이 되는 감사 추적 정보를 제공합니다.

"MLOps는 실제로 기계 학습의 운영적이고 반복 가능한 측면에 대해 생각하고 있습니다."라고 Boyd는 말했다. "제가 실행한 모든 다양한 실험, 설정된 매개 변수, 생성에 사용된 데이터 세트를 어떻게 추적할 수 있습니까? 그런 다음 같은 것들을 재현하는 데 사용할 수 있습니다."

마이크로 소프트(MS)가 뉴욕에 본사를 둔 AzureAI의 책임 있는 AI리더 사라 버드는 모든 개발자가 책임감 있는 기계 학습에 접근할 수 있는 도구를 만들 수 있도록 도와 준다. 사라 버드가 사진을 보내 드립니다.

상황별 도적단 및 책임

2010년 중반, 뉴욕에 있는 마이크로 소프트의 연구소에서 사라 버드와 그녀의 동료들은 탐사 실험을 통해 시간이 지남에 따라 특정 작업을 더 잘 수행하는 방법을 배우는 문맥 도적이라는 기계 학습 기술을 연구하고 있었다.

예를 들어, 뉴스 웹 사이트 방문자가 고양이에 관한 이야기를 클릭하면 상황별 도둑은 고양이에 관한 더 많은 이야기를 방문자에게 들려주는 법을 배운다. 계속해서 배우기 위해, 도적은 방문객들에게 잭슨빌 재규어, 그리고 히트 뮤지컬"캣츠"에 대한 이야기를 보여 주는 실험을 한다. 방문자가 클릭하는 내용은 더 큰 개인화로 이어지는 또 다른 학습 데이터 포인트입니다.

현재 AzureAI의 책임 있는 AI노력을 주도하고 있는 버드는 "효과가 있다면 놀랍다"고 말했다. "우리는 이 새로운 연구 기술을 누가 조종하고 싶어 하는지 알아보기 위해 고객들과 이야기하고 영업 팀과 협력하기 시작했습니다."

판매 리드가 버드를 멈추게 했다. 잠재적 고객들이 구직 면접 절차와 보험 청구 소송 절차를 최적화하기 위해 정황적인 도적단을 활용하는 방법에 대한 아이디어를 제시했을 때, 그녀는 많은 사람들이 정황적인 도적들이 어떻게 일하는지에 대한 이해가 부족하다는 것을 깨달았다.

"저는 '그런 시나리오에서 실험을 하는 것이 윤리적인 것인가?'라고 말하기 시작했습니다."라고 버드는 회상했습니다.

이 질문은 동료들과 AI연구 그룹 또는 FATE의 공정성, 책임감, 투명성과 윤리를 논의하고 실험 윤리의 역사와 강화 학습의 의미에 대한 연구 협력, 정황적인 도적단 뒤에 숨은 기계 학습의 유형으로 이어졌다.

"기술은 우리가 그것을 실제 사용 사례에 사용하기에 충분하고, 만약 우리가 그것을 사람들의 삶에 영향을 미치는 실제 사용 사례에 사용하고 있다면, 우리는 그것이 공정하고 안전한지를 더 잘 확인하는 것이 좋습니다,"라고 책임 있는 기계 학습을 모든 개발자들이 접근할 수 있게 하는 도구의 제작에 전념하고 있는 버드는 말했다. pers.

허스키, 늑대, 그리고 사기꾼들

몇년 안에, 윤리적인 인공 지능 연구는 전 세계적으로 폭발적으로 증가했다. 모델 공정성과 해석성은 주요 산업 모임에서 뜨거운 화제였고, 책임감 있는 기계 학습 도구들이 학술지에 설명되어 있었다.

예를 들어, 2016년에, 현재 레드몬드에 있는 마이크로 소프트 연구소의 수석 연구원인 마르코 툴리오 리베이로는 사진 속의 물체들 사이를 분류하도록 훈련된 컴퓨터 비전 모델과 같은 분류 학자들의 예측을 설명하는 기술을 학술 회의지에 발표했다.

이 기술을 보여 주기 위해 그는 사진에 눈이 오면 늑대, 눈이 오지 않으면 허스키를 예측할 수 있도록 의도적으로 훈련시켰다. 그런 다음 그는 대부분 눈이 내리는 배경과 대부분 눈이 내리지 않는 허스키들의 늑대 사진을 모델로 삼아 기계 학습 전문가들에게 두가지 질문으로 결과를 보여 주었습니다. 당신은 그 모델을 신뢰하나요? 어떻게 예측을 하고 있을까요?

마이크로 소프트의 수석 연구원 마르코 툴리오 리베이로는 많은 기계 학습 전문가들이 이미지가 늑대인지 허스키인지를 예측하는 이 모델을 신뢰했다는 사실을 발견했습니다. 그리고 나서 그는 그들에게 모델 설명을 해 주었는데, 이것은 예측이 배경에 눈이 있는지 없는지에 기초하고 있다는 것을 보여 준다. "전문가들 조차도 나쁜 모델에 속을 가능성이 높습니다,"라고 그는 말했다. 그래픽 제공:Microsoft. 게티 박물관을 통해 찍은 사진이야

리베이로 박사는 기계를 배우는 많은 전문가들이 이 모델을 신뢰하고 있으며 늑대와 같은 허스키들이 이빨이 더 빛날 것이라고 예측한 이유에 대한 이론을 제시했다고 말했다. 절반도 안 되는 사람들이 배경을 잠재적 요인으로 언급했고 거의 아무도 눈 위에 집중하지 않았다.

"그리고 나서 그들에게 설명을 보여 주었고, 물론 설명을 보고 난 후에 모든 사람들이 그것을 이해하고 말했습니다,'오, 그것은 단지 배경을 보고 있는 거야'라고 그는 말했다. "이것은 개념 증명입니다. 심지어 전문가들도 나쁜 모델에 속아 넘어가기 쉽습니다."

Ribeiro의 설명 기술의 정교한 버전은 SAS의 부정 행위 감지 장치가 EuroBonus로열티 프로그램의 Scammer에 대한 사례를 구축하는 데 사용하는 도구인 AzureMachineLearning에서 상호 운용성을 사용하는 모든 개발자가 사용할 수 있는 여러가지 상호 운용성 기능 중 하나입니다.

SAS가 AzureMachineLearning을 통해 개발하고 있는 다른 AI솔루션으로는 티켓 판매 예측을 위한 솔루션과 기내 구매를 위해 신선한 식품 적재를 최적화하는 시스템이 있습니다. COVID-19의 확산을 늦추기 위한 전 세계적인 노력의 일환으로 신선한 식품 판매가 중단되기 전에 식품 폐기물을 60%이상 감소시켰다.

Engberg과 그의 데이터 분석 및 인공 지능 팀은 상호 운용성과 공정성을 위한 AzureMachine학습 기능을 추가로 실험하는 등 기계 학습 모델을 지속적으로 제작, 교육 및 테스트하고 있습니다.

엔버그 대표 이사는 "개인적으로 고객이나 고객에게 영향을 미치는 일을 하면 할수록 공정성, 즉 책임감 있는 AI의 개념이 더욱 중요해 질 것"이라고 말했다.

불공정성 평가 및 완화

FATE에 있는 Bird의 동료들은 Fairlearn툴킷의 많은 기능들을 개척했다. 개발자는 이러한 기능을 통해 성별, 피부 톤, 나이 및 기타 특성에 기반한 사람들의 그룹 전반에 걸쳐 모델 성과를 검토할 수 있습니다.

버드는 "애플리케이션에서 공정성이 무엇을 의미하는지 잘 알고 있을 수 있고, 이러한 모델들이 너무 복잡하기 때문에 한 그룹의 사람들이 다른 그룹처럼 잘 작동하지 않는다는 사실조차 알아채지 못할 수도 있습니다."라고 설명했습니다. "Fairlearn을 통해 이러한 문제를 찾을 수 있습니다."

에릭 보이드 마이크로 소프트 AzureAI부회장은 책임감 있는 기계 학습의 혁신이 개발자들이 비차별 및 개인 정보 보호 규정을 쉽게 설명하고 준수할 수 있는 AI시스템을 구축하는 데 도움이 될 수 있다고 말했다. 사진 제공:Microsoft.

보증, 세금, 거래 및 자문 서비스 분야의 글로벌 리더인 아이웨어는 자동화된 대출 의사 결정을 위해 구축된 머신 러닝 모델에서 페어 레인 툴킷의 공정성을 이끌었습니다.

이 모델은 거래 내역과 지불 내역 및 신용 부서 정보를 포함하는 은행의 주택 담보 조정 데이터에 대해 교육을 받았다. 이러한 유형의 데이터는 일반적으로 고객이 대출금을 상환할 능력과 의지를 평가하는 데 사용된다. 그러나 그것은 또한 특정 인구 통계 신청자에 대한 규제, 법적 문제 및 잠재적인 불공정성에 대한 우려를 제기한다.

눈은 생물학적 성별에 관한 모델 산출물의 공정성을 평가하기 위해 Fairlearn을 사용했다. 시각적이고 대화식인 대시 보드에서 결과를 확인할 수 있는 툴킷은 남성과 여성에 대한 긍정적인 대출 결정 사이의 15.3%포인트 차이를 보여 주었다.

Fairlearn툴킷은 아이의 모델링 팀이 다수의 교정된 모델을 신속하게 개발 및 교육하고 공정성과 모델 정확성 사이의 공통된 트레이드 오프를 시각화할 수 있게 해 주었습니다. 연구 팀은 최종적으로 전체적인 정확도를 최적화하고 보존하면서도 남성과 여성의 차이를 0.43%포인트로 줄였다.

개발자가 모델의 불공정성을 평가하고 완화할 수 있는 능력은 금융 산업 전반에서 필수적인 것이 되고 있다고 Boyd는 말했다.

그는 "규제 당국이 이 모델들을 면밀히 검토하고 있다"고 말했다. "이들이 선도적인 관행을 따랐으며 데이터 셋의 공정성을 개선하기 위해 매우 열심히 노력했다는 것을 문서화하고 입증할 수 있는 능력은 지속적인 운영을 위해 필수적입니다."

 

 

책임감 있는 기계 학습

버드는 기계 학습이 세계를 더 나은 방향으로 변화시키고 있다고 믿고 있지만, 모든 개발자들은 책임을 우선시하는 방식으로 모델을 만들 도구와 자원이 필요하다고 말했다.

예를 들어, 새로운 코로나 바이러스로 인한 심각한 합병의 위험이 높은 사람을 예측하는 기계 학습 모델을 구축하기 위해 COVID-19환자 데이터 세트를 컴파일하기 위한 의료계 내 연구 협력을 고려해 보자.

그녀는 그러한 모델을 배치하기 전에 개발자들이 의사와 환자들에게 그 과정을 설명하기 위해 결정을 내리는 방법을 이해할 수 있도록 해야 한다고 말했다. 개발자들은 또한 공정성을 추구할 것이며, 예를 들어, 모델이 남성들에게 증가된 위험을 포착할 수 있도록 할 것이다.

"저는 남자들이 높은 위험을 가지고 있다는 것을 결코 예측하지 못하는 모델을 원하지 않아요, 그것은 끔찍할 거예요,"라고 버드는 말했어요. " 그렇다면 당연히 모델이 교육 받은 사람들의 데이터를 노출하지 않도록 하고 싶습니다. 따라서 다른 개인 정보를 사용해야 합니다."

 

반응형