내 운명 그것이 알고 싶다.

관상 이야기

AI, 사진만 보고 동성애자 가려낸다..정확도 최대 91%

일산백송 2017. 9. 9. 12:06

헤럴드경제

AI, 사진만 보고 동성애자 가려낸다..정확도 최대 91%

입력 2017.09.09. 08:01

 

-“인간 얼굴에 성적취향에 대한 많은 정보 담겨”

-연구상 한계점ㆍ윤리적 문제도 제기…“악의적 활용 가능”

 

[헤럴드경제=이혜미 기자] 딥러닝 기반 인공지능(AI)이

사진만 보고 최대 91% 정확도로 동성애자를 가려내는 데

성공한 가운데, 이 같은 기술이 윤리적 문제를 제기하고 있다고 영국 일간 가디언이 7일(현지시간) 전했다.

 

미 스탠포드대 연구진 마이클 코신스키와 이룬 왕은

미국 데이트 사이트에 공개된

3만5000명 이상 얼굴 사진을 기반으로

동성애자 남성이 이성애자 남성보다 좁은 턱, 긴 코 및

넓은 이마를 가지고 있고,

동성애자 여성이 그렇지 않은 여성보다 큰 턱과 작은 이마를

가지는 등 특정 경향성을 확인했다고 밝혔다.

이를 토대로 AI에 성적지향을 판별할 수 있는 학습을 진행했다.

 

[사진=게티이미지]

이후 AI에게 인물당 사진을 1장씩 랜덤으로 보여주고

성적지향을 맞추게 한 결과,

남성 대상자는 81%, 여성 대상자는 74%의 정확도로 구분했다. 인간의 경우 남성 대상자는 61%,

여성 대상자는 54% 만 정확하게 식별했다.

또 AI에게 인물당 사진 5장씩을 보여주자

남성 대상자에 대해선 91%,

여성은 83%까지 정확도가 올라갔다.

 

연구진은 “얼굴에는 인간의 두뇌가 인식하고 해석할 수

있는 것보다 훨씬 더 많은 성적 취향에 대한 정보가 담겨있다”고 설명했다.

 

아울러 이 논문은 성적지향이 출생 전 특정 호르몬의 영향으로 결정된다는 이론 진영에 강력한 근거가 될 수 있다.

이들은 동성애가 후천적인 선택의 문제가 아니라,

태어날 때부터 결정돼 있는 것이라고 주장한다.

 

다만 이 같은 결론을 내리기엔 연구상 허점이 있다는 지적이다. 인종은 물론 트랜스젠더 및 양성애자와 같은 변수가 고려되지

않았다.

 

이번 연구를 두고 윤리 문제도 제기됐다.

소셜미디어 사이트 및 정부 데이터베이스에 입수한

수십 억 인구의 얼굴 사진으로 그들의 동의없이 성적취향을

파악하는 것이 비윤리적이라는 비판이다.

또한 가디언은 “이 기술을 의심스러운 배우자 혹은

십대 청년들이 자신의 친구에게 사용하는 걸 상상할 수 있다”며 “더 나아가 정부가 특정 목적을 가지고 성소수자(LGBT)를

가려내려는 데 활용될 수도 있다”고 지적했다.

 

닉 룰 토론토대학 심리학 부교수는

“이같은 도구가 얼마든지 악의적인 목적으로 사용될 수 있다”며 “외모를 기반으로 사람들을 프로파일링하고 그들의 정체성을

규정해 끔찍한 일을 저지를 수 있다”고 우려했다.

 

ham@heraldcorp.com