법적·사회적 합의된 인공지능 프로그래밍 가능한 프레임워크 짜야
인간 그 누구도 윤리적으로 완벽하지 않다. 그런 인간이 어떻게 완벽한 윤리를 탑재한 인공지능을 만들 수 있을까. 갑자기 마주한 거대한 화두가 ‘인공지능의 윤리’다.
방준성 와이매틱스 대표가 25일 열린 173회 대덕과학포럼에서 인공지능 윤리에 대한 포괄적 현황과 견해를 밝혔다. 방 대표는 ETRI 책임연구원으로 인공지능과 메타버스 등 다양한 ICT 분야의 실용적인 서비스들을 연구개발했으며 최근 인공지능 분야 기업을 창업해 산업계에서도 활동 중이다.
방 대표는 윤리와 컴퓨터 윤리에 대한 개념을 언급하며 인공지능 윤리를 “인공지능 기술의 개발과 책임 있는 사용을 권장하고 알리기 위한 도덕적 원칙의 체계와 기술”로 지정했다. 그동안 국제 학계 및 연구계에서는 ‘인공지능은 합법적이고 윤리적이며 강인해야 신뢰가능하다’며 그를 위한 원칙으로 ∆신뢰성 ∆회복성 ∆책임성과 관련된 다양한 원칙들을 제시했다.
인공지능 시스템은 안전성, 공정성 등의 기본적인 인공지능 윤리 원칙이 탑재되어야 하며, 작동 과정이 투명하여 설명 가능하면서도 외부의 공격으로 인한 인명∙재산 피해를 최소화하기 위해 조정 가능해야 하기도 한다. 인공지능이 어떠한 윤리 원칙을 위반하고 있는지도 설명 가능 해야함을 언급했다.
인공지능이 어떤 기준과 과정으로 결과를 도출했는지 인간이 객관적으로 이해할 수 있는 형식으로 표현되어야 함도 강조했다. 인공지능 윤리에 대한 평가 체계, 윤리 원칙 이식을 위한 프레임워크 등에 대한 연구를 위해 다양한 분야의 전문가들이 모여 깊이 있는 논의가 이루어져야 할 것이다.
방 대표는 인공지능의 윤리 원칙을 실무자가 구현할 수 있도록 연구 과정에서 자문해야 할 항목을 아래와 같이 들었다.
∆기존 인문사회의 지성 없이도 실무자가 인공지능 윤리 원칙을 이해할 수 있는가?
∆실무자가 인공지능 시스템에 윤리 원칙을 반영함에 있어서 책임과 보상이 있는가?
∆실무자가 인공지능 시스템 구현을 위해 사용가능한 보편적으로 인정된 표준 윤리 지침과 프레임워크가 있는가?
결국 인공지능 윤리도 기술적으로 구현될 수 있을 때 추가적인 이점이 발생한다. 인공지능 시스템을 설명하고 조정할 수 있는 기술, 데이터와 모델의 편향을 평가하고 완화하기 위한 기술, 정보 취득과 식별 과정에서 개인 정보를 보호하는 기술 등이 필요하다.
이를 위해 ‘편향에 대한 수학적 평가 모델’ 등 여러 방법론이 개발되고 있으며, 산업계가 참여한 ‘매터 표준’ 등 사회적 합의도 빈번해진다.
방 박사는 “인공지능 윤리 원칙의 시스템 구현을 위해 다양한 이해관계자의 합의된 법적·사회적 윤리 원칙의 도출이 필요하며, 이에 대한 수학적 평가 모델 혹은 시뮬레이션이 가능한 프레임워크 등이 개발되어야 한다”고 역설했다.