• 구름많음속초3.0℃
  • 흐림-3.1℃
  • 흐림철원-3.6℃
  • 흐림동두천-1.3℃
  • 구름많음파주-3.5℃
  • 구름조금대관령-4.1℃
  • 흐림춘천-1.6℃
  • 흐림백령도1.1℃
  • 구름조금북강릉3.9℃
  • 구름조금강릉4.2℃
  • 구름많음동해4.9℃
  • 구름많음서울0.0℃
  • 흐림인천0.3℃
  • 맑음원주-0.5℃
  • 맑음울릉도3.4℃
  • 흐림수원1.2℃
  • 구름조금영월-0.6℃
  • 흐림충주0.0℃
  • 구름많음서산1.7℃
  • 맑음울진4.8℃
  • 흐림청주2.2℃
  • 흐림대전3.3℃
  • 흐림추풍령4.5℃
  • 맑음안동2.5℃
  • 흐림상주3.5℃
  • 맑음포항6.9℃
  • 구름많음군산3.3℃
  • 구름조금대구6.4℃
  • 구름조금전주6.2℃
  • 맑음울산7.8℃
  • 맑음창원5.2℃
  • 구름조금광주7.6℃
  • 맑음부산6.9℃
  • 맑음통영7.3℃
  • 구름많음목포8.5℃
  • 맑음여수5.9℃
  • 구름많음흑산도7.9℃
  • 맑음완도6.6℃
  • 맑음고창7.7℃
  • 맑음순천6.5℃
  • 흐림홍성(예)1.0℃
  • 흐림1.5℃
  • 구름많음제주12.0℃
  • 구름조금고산13.4℃
  • 맑음성산12.4℃
  • 구름많음서귀포13.5℃
  • 맑음진주6.6℃
  • 흐림강화-0.3℃
  • 맑음양평-0.8℃
  • 맑음이천-1.6℃
  • 흐림인제-2.3℃
  • 흐림홍천-1.1℃
  • 구름조금태백-1.2℃
  • 맑음정선군-0.6℃
  • 맑음제천-0.5℃
  • 흐림보은3.4℃
  • 흐림천안2.3℃
  • 구름많음보령4.3℃
  • 구름많음부여3.3℃
  • 흐림금산5.6℃
  • 흐림2.2℃
  • 맑음부안5.6℃
  • 맑음임실5.6℃
  • 맑음정읍6.2℃
  • 맑음남원6.2℃
  • 흐림장수5.0℃
  • 맑음고창군8.0℃
  • 맑음영광군7.9℃
  • 맑음김해시5.4℃
  • 맑음순창군4.9℃
  • 맑음북창원6.7℃
  • 맑음양산시6.9℃
  • 맑음보성군6.7℃
  • 구름조금강진군7.4℃
  • 맑음장흥6.6℃
  • 맑음해남7.8℃
  • 맑음고흥7.3℃
  • 맑음의령군6.8℃
  • 맑음함양군7.1℃
  • 구름조금광양시7.2℃
  • 맑음진도군7.8℃
  • 맑음봉화-0.8℃
  • 맑음영주-0.1℃
  • 맑음문경1.0℃
  • 맑음청송군1.5℃
  • 맑음영덕4.0℃
  • 맑음의성3.7℃
  • 구름조금구미2.8℃
  • 맑음영천5.7℃
  • 맑음경주시5.5℃
  • 맑음거창6.2℃
  • 구름조금합천6.7℃
  • 맑음밀양6.6℃
  • 맑음산청5.7℃
  • 맑음거제6.0℃
  • 맑음남해6.0℃
  • 맑음6.6℃
기상청 제공

2026년 01월 14일 (수)

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI 의사 편향적 판단시 의사결정의 도덕성 불분명

AI, 알고리즘 편향으로 중립성에 근본적 한계…인지적 오류 불가피한 문제 발생

김효은 교수, ‘AI 의사, AI 판사 알고리즘 편향과 윤리’ 주제 발표



인공지능을 활용한 기계학습이 미국의 흑인 여성을 고릴라로 인식하는 등 편향의 오류를 낳을 수 있어 주의가 필요하다는 지적이 제기됐다. 인종 구분 실패 등 알고리즘의 편향으로 발생하는 이같은 오류는 왓슨 등 AI 의사에게도 나타날 수 있어 인간의 적절한 개입이 필요하다는 주장이다.

김효은 한밭대 인문교양학부 교수는 지난달 27일 서울시 중구 국가생명윤리정책원 대회의실에서 열린 콜로키엄에서 ‘AI 의사, AI 판사 알고리즘 편향과 윤리’를 주제로 발표하며 이 같이 밝혔다.

전기전자기술협회(IEEE)에서 AI윤리분과위원을 맡고 있는 김 교수는 “컴퓨터 알고리즘을 만드는 데 인간이 개입하는 만큼 인간의 인지적 오류나 실수 등이 여기에 불가피하게 반영될 수밖에 없다”고 지적했다.



◇AI 결정 과정에도 도덕적 기준이 적용됐는가?



김 교수에 따르면 가장 대표적인 오류는 ‘편향된 대표성’의 문제다. 알고리즘의 특정 결과를 낼 때 참고하는 데이터가 전체를 대표하지 못한다는 것이다. 인공지능 방식을 활용한 구글 포토 서비스는 2015년 한 흑인 여성의 얼굴에 ‘고릴라’ 태그를 띄워 논란을 일으켰다. 한 카메라의 얼굴인식 시스템이 사진에 나온 아시아인에게 ‘누군가 눈을 감았나요?’란 메시지를 띄운 사례도 여기에 포함된다.

마찬가지로 인공지능의 판단이 어떤 기준에 따라 내려졌는지 알 수 없는 점도 사회적 문제가 될 수 있다. 대표적인 인공지능 학습 방식인 ‘딥러닝’은 받아들인 데이터에서 패턴을 찾아 연결망을 강화하는 방식으로 결론을 산출한다.





문제는 이 연결망이 강화되면서 중간 단계의 판단과 기준을 알 수 없게 된다는 점이다. 재범 가능성을 가리는 미국 경찰의 빅데이터 컴퓨터 컴파스는 범죄자 중 백인이나 소득수준이 높은 시민보다 흑인이나 소득수준이 낮은 이들의 재범 가능성을 높게 판단해 물의를 빚기도 했다.

김 교수는 “연결망이 강화돼 중간 단계의 판단 근거를 알 수 없는 ‘블랙박스’는 인공지능의 판단 결과가 윤리적인지의 여부를 알 수 없게 만든다”며 “인공지능의 의사결정 결과 뿐 아니라 과정에도 도덕적 기준이 적용됐는지 살펴봐야 하는 이유”라고 강조했다.

김 교수는 그러면서 AI 의사인 왓슨의 진단 및 치료 방식과 이 과정상의 쟁점을 소개했다. 왓슨은 미국과 국내 의료 부문에서 인공지능 학습을 도입해 사용하고 있다.

미국의 왓슨은 현재 의료기관에서 영상분석과 진단, 치료법 권고, 위험 징후 예측 등의 역할을 하고 있다. 인공지능과 증강현실을 결합한 현미경으로 뇌, 폐, 심혈관 등 인체를 관찰한 결과를 수집한다.

왓슨의 치료 권고안이 인간 의사의 권고안과 차이가 있어 정확성에 대한 의문을 증폭시킨다는 내용은 2014년 미국의 메모리얼 슬론 캐터링 암센터와 IBM의 공동 연구 결과를 통해 확인됐다.



◇암 치료하는 美 AI 의사 결정, 신뢰 가능한가?



김 교수는 “왓슨을 활용하고 있는 의료기관은 사람인 의사와 AI인 의사가 한 결정을 클라우딩 시스템에 올려 의견을 주고받는 식으로 운용하고 있다”며 “이 과정에서 데이터가 포함하고 있는 무의식적인 편향이 영향을 미칠 수 있다는 점을 간과해서는 안된다”고 지적했다.

김 교수는 알고리즘의 편향을 방지할 수 있는 방법으로 설명 가능한 인공지능의 도입과 신경과학 방법론 도입을 제시했다.

전자는 의사 결정 과정을 알 수 없는 인공지능의 판단 기준을 설명하게 해서 인간이 개입할 수 있는 여지를 높이는 방법이다. 미국 국방부의 방위고등연구계획국(DARPA)은 딥러닝 알고리즘을 제작할 때 학습 절차를 설명하도록 하는 펀딩 이니셔티브를 추진 중이다. 우리나라도 지난해 인공지능의 의사결정 이유를 설명하는 국가전략 프로젝트를 지원하기 시작했다.





그런가 하면 신경과학론의 방법론은 유전자 기능을 찾기 위해 유전자 돌연변이를 일으키는 신경과학론의 방법론을 적용한 방식이다. 인공지능에 입력된 특정 정보를 지우거나 변형시킨 결과를 추적해 의사결정에 미친 영향을 파악하는 식이다.

김 교수는 “그동안 인종, 계층에 대한 공정성의 화두는 전통적인 윤리의 영역이었지만 오늘날의 각 학문은 서로 영향을 주고받으며 함께 변화하는 추세를 보이고 있다”며 “마찬가지로 기술 발전은 윤리 문제와 떼려야 뗄 수 없는 관계가 돼 가고 있다. 기업은 윤리적 문제 해결을 통해 소비자의 위험을 기업의 책임이 아닌 공공의 안전문제로 전환시킬 수 있을 것”이라고 밝혔다.



31-1
 

관련기사

가장 많이 본 뉴스

더보기
  • 오늘 인기기사
  • 주간 인기기사

최신뉴스

더보기

뉴스

더보기