바로가기 메뉴
메인메뉴 바로가기
본문 바로가기
  1. 이슈
  2. 경제·글로벌

‘공정한 인공지능’ 과연 가능할까...“AI가 사람 평가하는 시대”

유창동 한국인공지능학회장 “데이터 편향성 극복해야”

글  김명규 기자

  • 페이스북
  • 트위터
  • 카카오톡
  • 네이버 블로그
  • sns 공유
    • 메일보내기
  • 글자 크게
  • 글자 작게

한국인공지능학회장을 맡고 있는 유창동 카이스트 교수는 “인공지능이 다양한 영역 활용되며 이제는 사람까지 평가하게 됐다"고 말했다.
 
그는 8월 21일 서울 중구 소공동 플라자호텔에서 열린 뉴시스 AI 경제 포럼 'AI의 현재와 미래'에서 '인공지능이 이룬 혁신과 공정성'을 주제로 특별강연을 하며 "이제는 인공지능이 사람까지 평가하는 시대"라며 "앞으로 공정하고 책임감 있고 투명한 인공지능을 개발해야 한다"고 강조하며 이같이 말했다.
 
유 교수는 "죄수의 보석 여부, 채용 과정에서 1차적 판단, 신용 평가까지 AI가 평가하기 시작했다"면서 "단순히 한 사람의 재산, 소득을 평가하는 게 아니라 상황, 인격, 책임감 등을 평가해 이를 기반으로 대출 등 금융 서비스도 진행하고 있다"고 덧붙였다.
 
그는 AI의 막강한 능력 보유와 관련해 데이터의 관습적인 편향성도 지적했다. 인공지능이 이같은 능력을 가지려면 데이터로부터 지식을 얻어야 하는데 데이터에는 관습적인, 역사적으로 형성된 편향성이 있게 마련이다. 인공지능이 이같은 자료를 읽고 수치화해 이해한다면 결과적으로 편향성이 나타날 수 있다는 것이다.
 
이에 대해 유 교수는 "우리는 취약계층을 보호해야 한다. 성별, 종교, 부, 지역, 장애, 정치적 성향, 나이, 학벌에 대한 편향성이 있으면 안된다"라며 "보호변수(취약계층)에 공정하게 이뤄져야 한다"고 강조했다.
 
유 교수는 “공정한 인공지능이 세계적 트렌드"라며 “공정하고, 책임감 있고, 투명한 'FAT(Fair, Accountable, Transparent)' AI를 개발해야 한다"면서 "인공지능을 만들 때 편향성을 제거하기 위해서는 평등과 공정성을 고려해야 한다. 활용 영역에 따라 그룹 공정성과 개별 공정성을 동시 판단해야 한다"라고 했다.
 
 

 

[입력 : 2020-08-21]   김명규 기자 more article

  • 페이스북
  • 트위터
  • 카카오톡
  • 네이버 블로그
  • sns 공유
    • 메일보내기
Copyright ⓒ 서울스트리트저널. 무단전재 및 재배포 금지
독자댓글
스팸방지 [필수입력] 왼쪽의 영문, 숫자를 입력하세요.

포토뉴스

Future Society & Special Section

  • 미래희망전략
  • 핫뉴스브리핑
  • 생명이 미래다
  • 정책정보뉴스
  • 지역이 희망이다
  • 미래환경전략
  • 클릭 한 컷
  • 경제산업전략
  • 한반도정세
뉴시스
TOP