[뉴스G] 인공지능이 '도덕'을 배울 수 있을까?

Описание к видео [뉴스G] 인공지능이 '도덕'을 배울 수 있을까?

http://home.ebs.co.kr/ebsnews/menu2/n...

자동차 운전 도중 갑자기 10여명의 사람들이
도로에 뛰어듭니다.

멈추기에는 너무 긴박한 시간,
열 명과의 충돌을 피하기 위해 방향을 틀면
한 명의 보행자를 치게 됩니다.

이때 여러분이라면 어떤 판단을 하시겠습니까?

대부분은 다수보다 소수의 희생이 낫다는 쪽으로
결론을 내리게 되죠.

또 다시 갑작스럽게 한 무리의 사람들이
도로에 뛰어듭니다.

이들을 피하기 위해 핸들을 돌리면
이번에는 벽에 부딪히면서
운전자 본인이 사망하게 됩니다.

이런 상황에서는 어떤 선택을 하시겠습니까.

어떤 행동이 옳고 그른지를 판단하고 결정을 내릴 때
사람들이 겪을 수 있는 딜레마인데요.

만약 인공지능이라면 어떤 선택을 할까요?

최근 프랑스 툴루즈 경제대 연구원은
사람이 운전하지 않는 자율주행차가
이처럼 피할 수 없는 상황에 처했을 때
누구를 보호하도록 설계할 것인지에 대한
논의가 필요하다며 문제를 제기했습니다.

스스로 운전하는 자율주행차는
윤리를 모르기 때문입니다.

인공지능의 윤리는 자율자동차만의 문제는 아닙니다.

의료 현장이나 전쟁터에 투입되는 로봇들 역시
도덕적 판단이 필요한 상황에서
올바른 결정을 할 수 있을지에 대한
의구심이 커지고 있는데요.

물에 빠진 사람들을 구조하는 인공지능 로봇이
살아날 확률이 더 높은 사람만 구출한다는
영화 속 이야기가 현실화 될 가능성이 높아진 겁니다.

로봇이 윤리적 결정을 내려야 할 상황이 점점 더 많아지자
과학자들의 사이에서 인공지능에게 윤리를 가르치려는
시도가 이뤄지고 있습니다.

인공지능이 도덕적인 의사결정에 도달하게 하는
소프트웨어를 만드는 건데요.

미국 렌셀레어 공대의 셀머 브링스요드 박사는
로봇이 내리는 모든 결정에 대해
사전에 윤리적인 검토를 할 수 있는 프로그램을
연구하고 있습니다.

미리 예측하지 못한 상황에서도
'생명은 소중하다'와 같은 대원칙에 입각해
인공지능이 스스로 도덕적 추론을 거치도록 하는 겁니다.

컴퓨터 과학자 마이클 앤더슨과 수전 앤더슨 부부는
'메드에덱스'라는 시스템을 설계했는데요.

의료 분야에 투입된 로봇에게
여러 가지 의무가 주어졌을 때
과거 인간 전문가가 내린 결정들을 참고해
자신의 의무를 비교, 평가함으로써
최선의 선택을 하도록 하는 것입니다.

과연 인공지능이 인간의 윤리적인 사고방식을
배울 수 있을까요?

인간과 로봇의 공존을 위한 길은 아직도 멀어 보입니다.

Комментарии

Информация по комментариям в разработке