헤럴드경제
AI, 사진만 보고 동성애자 가려낸다..정확도 최대 91%
입력 2017.09.09. 08:01
-“인간 얼굴에 성적취향에 대한 많은 정보 담겨”
-연구상 한계점ㆍ윤리적 문제도 제기…“악의적 활용 가능”
[헤럴드경제=이혜미 기자] 딥러닝 기반 인공지능(AI)이
사진만 보고 최대 91% 정확도로 동성애자를 가려내는 데
성공한 가운데, 이 같은 기술이 윤리적 문제를 제기하고 있다고 영국 일간 가디언이 7일(현지시간) 전했다.
미 스탠포드대 연구진 마이클 코신스키와 이룬 왕은
미국 데이트 사이트에 공개된
3만5000명 이상 얼굴 사진을 기반으로
동성애자 남성이 이성애자 남성보다 좁은 턱, 긴 코 및
넓은 이마를 가지고 있고,
동성애자 여성이 그렇지 않은 여성보다 큰 턱과 작은 이마를
가지는 등 특정 경향성을 확인했다고 밝혔다.
이를 토대로 AI에 성적지향을 판별할 수 있는 학습을 진행했다.
[사진=게티이미지]
이후 AI에게 인물당 사진을 1장씩 랜덤으로 보여주고
성적지향을 맞추게 한 결과,
남성 대상자는 81%, 여성 대상자는 74%의 정확도로 구분했다. 인간의 경우 남성 대상자는 61%,
여성 대상자는 54% 만 정확하게 식별했다.
또 AI에게 인물당 사진 5장씩을 보여주자
남성 대상자에 대해선 91%,
여성은 83%까지 정확도가 올라갔다.
연구진은 “얼굴에는 인간의 두뇌가 인식하고 해석할 수
있는 것보다 훨씬 더 많은 성적 취향에 대한 정보가 담겨있다”고 설명했다.
아울러 이 논문은 성적지향이 출생 전 특정 호르몬의 영향으로 결정된다는 이론 진영에 강력한 근거가 될 수 있다.
이들은 동성애가 후천적인 선택의 문제가 아니라,
태어날 때부터 결정돼 있는 것이라고 주장한다.
다만 이 같은 결론을 내리기엔 연구상 허점이 있다는 지적이다. 인종은 물론 트랜스젠더 및 양성애자와 같은 변수가 고려되지
않았다.
이번 연구를 두고 윤리 문제도 제기됐다.
소셜미디어 사이트 및 정부 데이터베이스에 입수한
수십 억 인구의 얼굴 사진으로 그들의 동의없이 성적취향을
파악하는 것이 비윤리적이라는 비판이다.
또한 가디언은 “이 기술을 의심스러운 배우자 혹은
십대 청년들이 자신의 친구에게 사용하는 걸 상상할 수 있다”며 “더 나아가 정부가 특정 목적을 가지고 성소수자(LGBT)를
가려내려는 데 활용될 수도 있다”고 지적했다.
닉 룰 토론토대학 심리학 부교수는
“이같은 도구가 얼마든지 악의적인 목적으로 사용될 수 있다”며 “외모를 기반으로 사람들을 프로파일링하고 그들의 정체성을
규정해 끔찍한 일을 저지를 수 있다”고 우려했다.
ham@heraldcorp.com
'관상 이야기' 카테고리의 다른 글
"코 큰 남자가 성기도 크다"..연구 결과 사실로 드러났다 (0) | 2021.05.07 |
---|---|
돈을 부르는 얼굴 "눈썹부터 정리하세요" (0) | 2018.04.10 |
[스크랩] 보조개 (0) | 2016.06.02 |
[스크랩] 보조개 (0) | 2016.06.02 |
[퍼옴] 남자는 이런 여자를 피해야 한다 (0) | 2016.03.17 |