- 자료사진, 올해 6월 서울 여의도를 시험 주행한 서울대 자율주행 자동차 스누버 내부 모습. (뉴스한국)
'AI로봇윤리 쟁점-초연결기술의 원리'를 주제로 한 심포지엄에서 김효은 한밭대 인문교양학부 교수(인지과학철학 전공)는 “미국과 유럽은 AI와 로봇에 인격을 부여해 자율 판단의 책임을 지도록 하는 법과 제도를 고민하고 있다"며, 여기에는 패러다임의 변화가 필요하다고 강조했다. 김 교수는 "AI가 인간을 억압하지 못하도록 세계적으로 윤리 가이드라인을 설정하고 있다"며, "단순히 '착하게 살자' 식으로 접근하는 게 아니라 행정·법률의 테두리 안에서 AI의 알고리즘을 어떻게 디자인하느냐가 당장 해결해야 할 문제"라고 말했다.
김 교수는 무엇보다 AI를 어떻게 교육할 것이냐가 중요하다고 지적했다. AI 개발은 알고리즘 설계로도 이해할 수 있는데 분명한 윤리적 기준 없이 이윤이나 편리함 만을 목적으로 알고리즘을 설계할 경우 자칫 예상하지 못한 결과로 이어질 수 있다. 단적으로 미국 뉴욕 경찰이 빅데이터를 활용해 만든 범죄자 예측 알고리즘은 기존에 경찰이 가지고 있던 인종적 편향을 그대로 나타내면서 특정 나이와 계층에 경찰력을 투입시키는 문제를 드러내고 있다.
이 밖에도 구글에서 'CEO(최고경영자') 또는 '미국인'을 검색할 경우 각각 남성과 백인을 중심으로 결과를 노출하거나 구글 얼굴 인식 서비스가 흑인을 고릴라로 인식하는 문제가 같은 맥락에 있다. AI가 인간의 편견을 자율학습한 만큼 그 결과 역시 편향적으로 나타난다는 게 김 교수의 설명이다. 이 때문에 김 교수는 "인간이 바뀌어야 AI도 바뀐다"고 지적하며, "AI 학습 과정에서 도덕적 방향을 미리 정해주는 게 필요하고 시장 자본 만이 아니라 사회 가치 자본의 중요성도 배우게 해야 한다"고 말했다. 이와함께 "패러다임의 변화가 필요하다는 점을 인정해야 한다. 기존의 정보기술윤리가 '사용자' 윤리에 집중한 반면 AI로봇윤리는 알고리즘 설계·제작·사용의 모든 단계의 모든 사람과 관련이 있다"고 강조했다.
- 15일 오후 대전 한밭대학교에서 'AI로봇윤리 쟁점-초연결기술의 윤리' 심포지엄이 열렸다.
김 교수의 발표가 끝난 후 AI로봇윤리를 고민해야 한다는 지적을 반박하는 목소리도 나왔다. AI시대가 과연 인간이 궁극적으로 바라는 것인지, 이러한 기술의 발전이 당위적인지, 이를 비판하고 견제해야 하는 철학자들이 이윤추구를 위해 등장한 AI에 윤리를 제공하는 것이 의문이라는 지적이다. 김 교수는 "AI시대가 옳은 것이냐 아니냐를 따지는 것은 부적절하다. 다만 AI윤리의 가이드라인을 시작했다는 것은 인문학자나 철학자들이 견제할 부분이 늘어났음을 의미한다"고 말했다.
이날 심포지엄에는 자율주행자동차·뇌와 컴퓨터를 연결하는 BCI(Brain-Computer Interface) 기술·가상공간을 각각 연구하는 전문가들이 나와 기술이 얼마나 발전했는지 자세히 설명했지만 이 과정에서 윤리적 고민은 충분히 이뤄지지 않고 있는 게 현실이라고 말했다. BCI를 소개한 김성은 한밭대 전자제어공학과 교수는 "'선택'이 곧 윤리를 말하는데 또 하나의 위험한 윤리는 새로운 인류의 탄생이다. 더 뛰어난 인류가 나올 때 두 번째 문제에 직면할 것"이라고 말했다.