BCG Podcast
Me, Myself, and AI : 비즈니스 세계 속 AI에 관하여
Ep. 14 | 노트르담 IBM 기술윤리연구소 창립 소장 Elizabeth Renieri와의 대담
❝ AI 윤리 문제는 항상 가치와 비교해 판단해야 한다. 우리는 AI를 통해 어떤 사회를 만들고 싶은가? 어떤 기업, 어떤 개인이 되고 싶은가? ❞ ― Elizabeth Renieri
Elizabeth Renieri는 노트르담 IBM 기술윤리연구소(Notre Dame-IBM Technology Ethics Lab)의 창립 소장이다. 이 연구소는 노트르담 대학의 기존 기술윤리센터가 논문 발행, 학술 및 연구 조사에 중점을 둔 데 비해 실무 위주로 기업, 정책 입안자, 시민사회가 활용할 수 있는 자료들을 생성하는 데 집중하면서 학계와 재계의 일종의 연결고리 역할을 하고 있다.
윤리와 가치
기술의 윤리적 문제는 항상 가치와 비교해 판단해야 한다. “우리는 어떤 사회를 만들고 싶은가, 어떤 기업, 어떤 개인이 되고 싶은가?”라는 질문을 던져야 한다.
Elizabeth Renieris는 로스쿨을 졸업하고 미국 국토안보부(Department of Homeland Security)를 거쳐 핀테크, 비트코인, 블록체인 부문에서 변호사로 활동하면서 이 분야에서 일부 윤리적으로 문제가 될 수 있는 행태를 발견하게 됐다. 필요한 전문가들이 충분히 논의에 포함되지 않은 것도 이런 행태가 발생하게 된 원인 중 하나라고 그녀는 덧붙였다.
AI 관련 윤리 문제
보안이나 사생활 보호 등 AI 윤리 문제가 혁신을 저해하거나 갈등을 야기할 수 있다는 식의 단순한 판단은 결코 바람직하지 않다.
최근 코로나 팬데믹에 대응하는 과정에서 우리는 AI 윤리 문제를 경험했다. 코로나 접촉자 알람과 확진자 추적 앱, 백신여권이나 백신접종 증명서 등과 관련한 논의가 있었다. 여기서도 윤리의 문제는 특정 기술에 중점을 두기보다는 한 걸음 물러나 전체 맥락을 읽고 5~10년 뒤 가치에 대해 생각하는 것이다.
AI 윤리의 장기적 영향
어떤 문제에 대해 당시에 합리적으로 보였던 트레이드 오프가 그렇지 않은 경우도 있다. 다양한 부문의 전문 지식과 관련자들의 참여를 바탕으로 가치와 트레이드 오프와 우선순위에 대해 신중히 생각해야 한다. 특히 윤리 문제에 있어서는 단기가 아닌 장기적 시각 중요하다.
AI의 실수는 특히 그 영향이 장기적이다. 알고리즘이 내장되어 확장되기 때문에, 실수를 발견했을 때는 이미 파장이 너무 큰 경우가 많다.
책임감과 인식 고취
이윤을 추구하고 주주를 고려해야 하는 기업으로서 쉽지 않은 일이지만, 결국 가장 중요한 것은 관련자 모두가 각자의 역할을 수행해야 한다는 책임감을 느껴야 한다는 점이다. 인식의 전환이 필요하다. AI 윤리 문제에 대한 책임이 전적으로 개인에게 있는 것은 아니지만, 관련 규제가 완전히 마련될 때까지 아무것도 하지 않고 마냥 기다릴 수만은 없다. 결국 규제의 영향은 모두에게 미칠 것이다.
식품업을 예로 들어 보면, 100년 전에는 모든 식품 제조업체가 보건법 적용의 대상이 아니었지만, 이제는 아무리 작은 규모의 업체라도 식품을 취급하면 모두 법 규제의 엄격한 적용을 받고 있다.
즉각적 행동의 중요성
교육 수준이 높고 경력이 오래된 직원들이라도 마치 그들이 섭취하는 식품의 정확한 성분과 구성은 모르는 것처럼 신기술에 대해 전문적인 지식은 없을 수 있다. 완전한 정보가 주어지기 전에 행동해야 한다. 이 신기술이 무엇인지 정확히 알기 전에는 행동할 수 없다는 태도는 잘못된 것이다. 식품에 대해 잘못 판단해 잘못된 식단 지침을 내렸다면, 이를 수정하고 개선하면 된다.
애초에 과학적 사실은 그 당시에 알 수 있는 최고 수준의 지식일 뿐이다. 팬데믹에서도 그랬다. 처음에는 마스크가 효과가 없다고 판단했지만, 이후 경험을 통해 효과가 있는 것으로 드러나 지침을 수정한 것처럼 겸허한 자세로 투명하게 사실을 소통한다면 문제 될 것이 없다. 현재 알고 있는 것이 완전무결한 진실이 아니라고 해도, 그것을 기초로 할 수 있는 최선을 다해야 한다.