Alexandria Ocasio-Cortez는 알고리즘이 인종 차별 주의자가 될 수 있다고 말합니다. 여기 그녀가 옳은 이유가 있습니다.

Pin
Send
Share
Send

지난 주 새로 선출 된 알렉산드리아 오 카시오-코 테즈 미국 대통령은 MLK Now 행사의 4 번째 연례 행사 인 얼굴 인식 기술과 알고리즘은 알고리즘이 여전히 만들어지기 때문에 항상 번역되는 인종적 불평등이 있다고 말했다. 인간에 의해, 그리고 그 알고리즘은 여전히 ​​기본적인 인간 가정에 고정되어 있습니다. 그것들은 단지 자동화되어 있습니다. 그리고 자동 가정 – 편견을 고치지 않으면 편견을 자동화하는 것입니다. "

이론적으로 수학의 객관적 진리에 기반한 알고리즘이 "인종 주의자"가 될 수 있다는 의미입니까? 그렇다면 그러한 편견을 없애기 위해 무엇을 할 수 있습니까?

알고리즘의 출력이 실제로 바이어스 된 결과를 생성 할 수 있음이 밝혀졌습니다. 데이터 과학자들은 컴퓨터 프로그램, 신경망, 기계 학습 알고리즘 및 인공 지능 (AI)이 주어진 데이터에서 어떻게 행동 하는지를 배우기 때문에 효과가 있다고 말합니다. 소프트웨어는 편견이있는 사람이 작성하고 훈련 데이터는 편견이있는 사람이 작성합니다.

머신 러닝의 두 단계는 어떻게 이러한 편견이 겉보기 자동화 프로세스에 영향을 줄 수 있는지 보여줍니다. 첫 번째 단계 인 학습 단계에서 알고리즘은 일련의 데이터 또는 특정 규칙 또는 제한에 따라 학습합니다. 두 번째 단계는 추론 단계로, 알고리즘이 실제로 배운 내용을 적용합니다. 이 두 번째 단계는 알고리즘의 바이어스를 나타냅니다. 예를 들어, 알고리즘이 긴 머리카락을 가진 여성의 사진으로 훈련되면 짧은 머리카락을 가진 사람은 남자라고 생각합니다.

2015 년 구글 포토가 흑인을 고릴라라고 불렀을 때 악명 높게 불이 붙었다.

그리고 편견은 많은 길을 통해 들어올 수 있습니다. 데이터 과학 교육 부트 캠프 Metis의 선임 데이터 과학자 인 Sophie Searcy는 Live Science에 "일반적인 실수는 편향된 인간의 과거 결정을 기반으로 예측하는 알고리즘을 훈련시키는 것"이라고 말했다. "이전에는 대출 담당자 그룹이 내린 결정을 자동화하는 알고리즘을 만드는 경우, 쉬운 길을 가고 해당 대출 담당자의 과거 결정에 대한 알고리즘을 훈련시킬 수 있습니다. 그러나 물론, 해당 대출 담당자가 편향된 경우 내가 구축 한 알고리즘은 이러한 편견을 지속 할 것입니다.

Searcy는 미국 형사 사법 시스템에서 선고를 위해 사용 된 예측 도구 인 COMPAS의 예를 인용했습니다. ProPublica는 COMPAS에 대한 분석을 수행 한 결과 다른 통계적 설명을 통제 한 후이 도구가 흑인 피고인의 재범의 위험을 과대 평가하고 백색 피고인의 위험을 지속적으로 과소 평가했음을 발견했습니다.

Searcy는 알고리즘 편견에 대항하기 위해 엔지니어와 데이터 과학자들이 새로운 문제에 대해 더 다양한 데이터 세트를 구축하고 기존 데이터 세트에 내장 된 바이어스를 이해하고 완화해야한다고 Live Science에 말했다.

예측 분석 회사 인 아노 도트 (Anodot)의 데이터 과학자 인이라 코헨 (Ira Cohen)은 무엇보다도 인종 또는 성별 속성을 식별하기위한 알고리즘을 훈련하는 경우 모든 인구 유형을 비교적 균일하게 표현하는 훈련 세트를 갖추어야한다고 말했다. 코헨은 Live Science에 말했다.“전체 인구에서 소수 인 경우에도 각 집단에서 충분한 사례를 나타내는 것이 중요합니다. 마지막으로 Cohen은 이러한 모든 그룹의 사람들을 포함하는 테스트 세트에서 바이어스를 확인하는 것이 좋습니다. 코헨은 LiveScience와의 인터뷰에서 "어떤 종목에서 정확도가 다른 범주보다 통계적으로 유의하게 낮 으면 알고리즘에 편향이있을 수 있으며이를 위해 사용 된 훈련 데이터를 평가할 것"이라고 말했다. 예를 들어, 알고리즘이 하얀 얼굴 1,000 개 중 900 개를 정확하게 식별 할 수 있지만 아시아 인 얼굴 1,000 개 중 600 개만 정확하게 감지하면이 알고리즘은 아시아 인에 대한 편견을 가질 수 있다고 Cohen은 덧붙였다.

AI에게는 바이어스를 제거하는 것이 매우 어려울 수 있습니다.

상업적 AI 분야의 선구자로 여겨지는 구글조차도 2015 년부터 고릴라 문제에 대한 포괄적 인 해결책을 제시 할 수 없었을 것입니다. Wired는 색상과 고릴라를 구분할 수있는 알고리즘을 찾는 대신 Google이 단순히 차단했습니다. 이미지 인식 알고리즘으로 고릴라를 식별 할 수 있습니다.

구글의 사례는 AI 소프트웨어 교육이 어려운 일이 될 수 있다는 사실을 잘 상기시켜줍니다. 특히 소프트웨어가 대표적이고 다양한 사람들에 의해 테스트되거나 훈련되지 않을 때 더욱 그렇습니다.

Pin
Send
Share
Send