2022년 후반 챗GPT(ChatGPT)의 출시로 생성형 AI에 대한 폭발적인 관심이 촉발됐다. 이 새로운 기술을 실험해 본 사용자들은 불과 몇 시간 만에 무수히 많은 생산성 개선 묘안을 생각해 내고 이를 공유했다. 이후 수주, 수개월 동안 조직들은 이를 따라잡기 위해 그리고 예기치 못한 문제에 대응하기 위해 고군분투 중이다. 일부 조직들은 이미 생성형 AI를 이용해 숨겨진 가치를 찾아내고 효율성을 개선할 방법을 연구하기 위한 전담팀을 구성하는 등 공식적인 접근법을 도입하기도 했다.
하지만 CEO에게 생성형 AI는 훨씬 더 큰 도전과제가 된다. 현재 관심은 생산성 향상과 기술적 한계에 집중돼 있지만, 곧 비즈니스 모델 혁신의 혁명이 다가올 것이다. 세계 최초의 무료 웹 브라우저인 모자이크(Mosaic)가 인터넷 시대를 열고 우리가 일하고 살아가는 방식을 송두리째 뒤바꾼 것처럼, 생성형 AI는 거의 모든 산업을 혁신적으로 와해시켜 경쟁우위를 창출하고 창조적 파괴를 이끌어 낼 만한 잠재력이 있다. 리더들에게 시사하는 바는 분명하다. 현재의 고군분투를 최고경영진이 주도하는 생성형 AI 전략으로 발전시켜야 한다.
물론 이것은 간단한 일이 아니다. 기술에 몇 단계 떨어져 있는 CEO들에게는 어떤 조치를 취해야 할지 불확실하게 느껴질 수 있다. 하지만 BCG 가 볼 때, CEO들이 우선적으로 해야 할 일은 기술 자체에 깊게 매몰되는 것이 아니라 생성형 AI가 그들의 조직과 산업에 어떤 영향을 미칠지, 기회를 최대한 활용하고 도전과제들을 관리하기 위해 어떤 전략적 선택을 해야 할지에 집중하는 것이다. 이 전략적 선택은 세 가지 핵심 요인을 중심으로 이루어져야 한다.
각 요소는 CEO에게 즉각적으로 질문을 제기한다. 모든 직원이 생성형 AI가 제공하는 무한 메모리에 접근할 수 있다면, 어떤 혁신이 가능할 것인가? 이 기술은 직원들의 역할이 정의되는 방식과 관리되는 방식을 어떻게 변화시킬 것인가? 리더들은 생성형 AI 모델이 잘못되거나 편향된 결과물을 생성할 수 있다는 사실에 어떻게 대처할 것인가?
분명히 생성형 AI는 빠르게 진화하는 분야이기 때문에 앞서 언급한 각 요소는 장단기적으로 고려할 사항들이 있으며, 이 외에도 많은 질문이 제기될 수 있다. 하지만 CEO는 현재의 비즈니스 모델이 소용이 없어지는 순간에 대비해야 한다. 미래에 대비해 전략을 수립하는 방법은 다음과 같다.
잠재력: 전략적 우위 파악하기
그 어느 때보다도 AI에 대한 접근성이 좋아졌다. 챗GPT, DALL-E2, 미드저니(Midjourney), 스테이블 디퓨젼(Stable Diffusion)을 통해 누구나 웹사이트를 만들고, 광고 전략을 세우고, 영상을 제작할 수 있다. 가능성은 무한하다. 이와 같은 ‘로우코드, 노코드(low-code, no-code)‘ 특성으로 인해 조직은 쉽게 AI 기능을 대규모로 도입할 수 있다. (‘생성형 AI의 기능적 특성‘ 참조)
생성형 AI의 기능적 특성
생성형 AI의 혁신적 잠재력은 세 가지 핵심 특징으로 요약될 수 있다.
‘무한‘해 보이는 메모리와 패턴 인식. 생성형 AI는 방대한 양의 데이터를 트레이닝하기 때문에, 메모리는 무한할 수 있다. 예를 들어, 챗GPT는 인터넷상 공개적으로 사용 가능한 어마어마한 양을 학습한다. 도모(Domo)에 따르면 2018년 기준 인터넷에서 매일 250경 바이트, 단어 수로는 약 120경의 새로운 데이터가 생성된다. 이 수치는 현재 훨씬 더 높을 것이다. 생성형 AI는 거의 인간과 같은 방식으로 서로 다른 개념들을 연결하거나 패턴을 인식할 수 있다.
로우코드, 노우 코드 특성. 챗GPT의 영향을 설명하면서, 오픈AI(OpenAI)의 창립자인 안드레이 카르파티(Andrej Karpathy)는 ‘가장 인기 있는 새로운 프로그래밍 언어는 영어다.‘라고 말했다. 생성형 AI의 자연어 처리 인터페이스 덕분에 비전문가들이 코딩을 거의 혹은 아예 사용하지 않고 어플리케이션을 생성할 수 있기 때문이다. 반면 깃허브 코파일럿(Github Copilot)과 같은 코딩 보조 시스템은 여전히 유능한 프로그래머가 있어야 운영할 수 있다.
신뢰할 수 있는 진리함수(credible truth function) 부재. 생성형 AI의 ‘무한‘ 메모리는 무한 환각(hallucination)이 될 수 있다. 실제로, 현재 생성형 AI의 오류 수준은 새로운 아이디어와 콘텐츠 생성에 유용한 예상 가능한 특징이다. 하지만 생성형 AI는 논리나 지적인 사고방식을 사용하는 것이 아니라 학습된 데이터를 기반으로 가장 가능성이 높은 다음 단어를 예측하기 때문에, 콘텐츠의 초안 생성에만 사용돼야 한다.
기업들은 사람의 피드백을 이용한 강화학습 방식으로 AI의 결과물을 더욱 안정적으로 만들기 위해 노력 중이다. 생성형 AI를 전통적 AI와 머신러닝과 결합하는 다른 접근 방법들 역시 고려되고 있다. 생성형 AI의 개선은 곧 이루어질 것이고 일부에서는 생성형 AI가 2030년이면 콘텐츠의 최종안을 생성할 수 있다고 내다보고 있다.
즉각적인 생산성 증대를 통해 비용을 상당히 절감할 수 있다. 예를 들어, 생성형 AI는 놀라운 정확도로 몇 초 만에 문서를 요약할 수 있는데, 연구원은 똑같은 작업에 시간당 약 30달러에서 50달러의 비용으로 몇 시간이 소요된다.
하지만 생성형 AI의 평등화는 기본적으로 회사의 경쟁업체 역시 똑같은 접근성과 기능을 갖출 수 있다는 의미가 된다. 생산성 개선을 위해 프로그래머가 깃허브 코파일럿을 사용하고, 마케팅 콘텐츠 개발자가 재스퍼AI(Jasper.ai)를 사용하는 등 기존 LLM(대규모 언어 모델) 애플리케이션을 이용하는 많은 사용사례가 다른 조직에 뒤쳐지지 않기 위해 필요할 것이다. 그러나 이 사용 사례들의 유일한 가변성은 사용자가 시스템을 프롬프트하는 능력에 따라 발생하기 때문에 차별화 요소는 될 수 없다.
[1] 적합한 사용 사례 파악
CEO에게 핵심과제는 진정한 경쟁 우위를 창출하고 기존의 동급 최고 솔루션에 비해 최대의 영향을 도출하는 기업의 ‘황금‘ 사용 사례를 찾아내는 것이다.
이런 사용 사례는 가치 사슬의 어떤 지점에서도 도출될 수 있다. 어떤 기업은 제품 개선을 통해 성장을 이끌어 낼 수 있다. 고객 서비스 솔루션 제공업체인 인터콤(Intercom)은 자동화 우선 서비스로의 전환을 위해 생성형 AI를 고객 참여 도구에 통합하는 파일럿을 운영 중이다. 또, 출시 기간 단축과 비용 절감뿐 아니라 상상력을 자극하고 새로운 아이디어를 구상하는 능력을 통해 성장을 이룰 수도 있다. 예를 들어, 바이오 제약업계에서는 현재 20년 특허 기간의 대부분이 연구 개발에 소비된다. 이 프로세스를 가속화하면 특허의 가치를 대폭 상승시킬 수 있다. 2021년 2월, 생명공학 기업인 인실리코 메디신(Insilico Medicine)은 AI가 생성한 항섬유화 약물이 기존 신약 개발에 비해 몇 배나 빠르고 저렴하게, 30개월 만에 약 260만 달러의 비용으로 개념화 단계에서 임상 1상에 진입했다고 발표했다.
일단 리더들이 황금 사용 사례를 찾아내면, 기술팀은 기존 LLM을 미세조정 할지 맞춤형 모델을 트레이닝할지에 대해 전략적 선택을 내려야 한다. (보기1 참조)
[2] 기존 모델 미세조정
기존 오픈소스 혹은 유료 모델을 수정하는 것은 비용 효율적인 방법이다. 스노클 AI(Snorkel AI)의 2022년 실험에 따르면 LLM 모델을 미세조정해 복잡한 법적 분류를 완성하는 데 1,915달러에서 7,418달러의 비용이 든다. 이 애플리케이션을 이용하면 시간당 최대 500달러인 변호사의 시간을 절약할 수 있다.
사내 역량을 이용해 시간, 인력, 예산을 끌어다 사용하는 것이기는 하지만 미세조정을 하면 실험을 빨리 시작할 수 있다. 또한 미래에 생성형 AI가 클라우드 서비스와 같은 모델로 진화할 가능성에 대비할 수 있다. 회사는 클라우드 제공업체의 표준화와 안전성을 통해 높은 품질을 확장 달성할 수 있을 것으로 기대하고 솔루션을 구매한다.
하지만 이 접근법에는 단점이 있다. 이 모델은 핵심 모델의 트레이닝 데이터의 기능 및 도메인 지식에 전적으로 의지하며, 가용한 양식이 제한적인데 현재 대부분 언어 모델로 구성된다. 또한 완전히 온프레미스(on-premise) 형태로 저장된 LLM을 미세조정 해야 하는 등 독점 데이터를 보호할 수 있는 옵션이 제한적이다.
[3] 신규 혹은 기존 모델 트레이닝
맞춤형 LLM을 트레이닝하면 유연성이 커지지만, 비용이 많이 들고 용량 요건 역시 커진다. AI21랩스(AI21 Labs)에 따르면 구성 당 10회 실행으로 이루어진 두 구성의 15억 매개변수 모델 트레이닝에 약 160만 달러가 필요하다. AI21랩스에 따르면 구글은 BERT트레이닝에 약 1,000만 달러를, 오픈AI는 GPT-3의 단 1회 트레이닝에 1,200만 달러를 지출했다고 추산된다. (성공적인 LLM을 위해서는 여러 번의 트레이닝이 필요함)
이 비용과 데이터 센터, 컴퓨팅, 인력 요건 등의 비용은 파트너십을 통해 관리된다 해도 다른 AI모델에 비해 훨씬 더 높다. 이 투자를 정당화하기 위한 기준은 매우 높지만, 진정으로 차별화된 사용 사례라면 이 모델을 통해 창출되는 가치가 비용을 상쇄할 수 있을 것이다.
투자 계획
리더들은 인재와 기술이 아직 준비되지 않은 채 복잡한 프로젝트를 너무 빨리 추진하는 것의 잠재적 비용과 뒤처질 수 있는 위험을 비교해, 투자의 시기를 신중히 판단해야 한다. 현재의 생성형 AI는 아직 오류 가능성에 의해 활용이 제한적이기 때문에 가변성에 대한 내성이 높은 사용 사례에 주로 구현돼야 한다. CEO들은 맞춤형 개발이 중요하고, 빨리 해결해야 하는 것이라고 판단된다면, 데이터와 인프라에 대한 새로운 자금 조달 메커니즘(예산을 IT, R&D, 혹은 다른 어떤 출처에서 조달할 것인지 등)을 고려해야 할 수도 있다.
‘미세조정이냐, 트레이닝이냐’ 의 고민은 장기 경쟁 우위와 관련해 다른 시사점도 있다. 과거에는 생성형AI에 대한 대부분의 연구는 공개적이었고 모델이 오픈소스 채널로 제공됐다. 하지만 지금은 이런 연구가 비공개로 진행되기 때문에 오픈소스 모델은 이미 최신 솔루션에 크게 뒤처지고 있다. 다시 말해 이제 소위 생성형 AI 무기 경쟁이 시작될 것이다. (‘LLM 시장의 미래‘ 참조)
LLM 시장의 미래
최근까지, 생성형 AI 연구의 대부분은 공개적으로 접근 가능했다. 하지만 현재 대부분의 기업은 연구 결과 공개를 중단하거나 지연하고 있으며, 모델 아키텍처를 독점 지식으로 관리하고 있다. (일례로, GPT-2는 오픈소스지만 GPT-3는 독점 기술임)
수많은 사용자가 있는 생성형 모델의 다음 개선은 사용자 상호작용 로그를 통해 이루어질 가능성이 높으며 이 모델은 다른 신규 진입자들에 비해 큰 경쟁 우위가 있다. 이런 현실과 LLM 트레이닝에 필요한 방대한 데이터, 인프라, 인건비를 모두 감안할 때 LLM 시장은 규모의 경제와 품질을 모두 갖춰야 함을 의미한다. 따라서 생성형 AI의 발전은 대기업에 국한되고, 중소기업의 AI 개발 대중화는 차별적이지 않은 사용 사례에만 제한될 수도 있다.
아직 결론은 나지 않았지만, 이 역학 구조는 ‘검색엔진 전쟁’에 비교할 만하다. 몇몇 대기업들이 검색 솔루션에 큰 투자를 했지만, 구글은 사용자 친화성과 정확도로 인해 경쟁업체들을 따돌렸다. 일단 사용자가 구글을 선호하면, 다른 엔진들은 따라잡을 수 없다. 검색 요청이 들어올 때마다 구글이 더 개선되고 똑똑해지기 때문이다. 머지않아, 다른 모든 B2C 솔루션은 사라졌다. 이와 비슷하게 시장에 빠르게 진입한 대형 기업이 결국 모델을 소유하고 접근을 완전히 통제하게 되는 승자 독식 상황이 LLM 시장에서도 펼쳐질 수 있다.
승자 독식 상황이 LLM 시장에서 펼쳐질 수 있다.
하지만, 구글이 B2C에 비해 요건과 과제가 고유한 엔터프라이즈 검색 시장에서는 비슷한 수준의 성공을 이루지 못한 점은 주목할 필요가 있다. 엔터프라이즈 수준에서는, 검색엔진이 도메인 전문성을 구축할 수 있는 규모가 부족하고 이 기능 개발을 위한 사용자 데이터의 양도 부족하다. 마찬가지로, 기업은 자사의 독점 데이터로 트레이닝되어 고유한 사용 사례를 도출하는 모달리티가 있는 LLM에서 최대한의 가치를 이끌어낼 수 있다. 따라서 어떤 단일 플레이어가 B2B 시장을 장악하기는 어려울 수 있다.
기업과 정부가 오픈소스 모델에 자금을 지원해 최신 수준을 유지할 가능성도 있다. IBM이 리눅스(Linux)를 지원한 것이 유사한 사례이다.
이 시장 역학 구조는 맞춤화 및 구현 관련 결정을 내릴 때 CEO에게 중요한 의미가 있다.
- 단일 LLM 제공업체가 B2B 시장을 장악할 가능성은 희박하다. 기업이 해야 할 일은 자사의 황금 사례나 민감한 데이터가 필요한 사용 사례에 적합한 모달리티와 기능이 있는 대형 모델을 찾는 것이다.
- LLM 트레이닝은 대기업을 위한 옵션이지만, 규모의 품질이 확보되면 구매 옵션을 (클라우드처럼) 더 안정적으로 만들 수 있다.
- 사내 트레이닝을 선택할 경우 개별 연구원에 지나치게 의존하는 것을 경계해야 한다. 소수의 인원만 모델을 개발하고 유지할 수 있는 전문성이 있다면 이 연구원들의 퇴사가 곧 실패의 원인이 될 수도 있다.
연구에 속도가 붙고 더욱더 독점화되면서, 또 알고리즘이 점점 더 복잡해지면서, 최신 모델을 따라잡는 것이 더욱 어려워질 것이다. 데이터 과학자들은 모델의 기능, 한계점, 새로운 비즈니스 사용 사례의 유용성 등 구현 방식을 이해하기 위해 특별 교육, 고급 스킬, 심층적인 전문 지식이 필요하다. 최신 AI 기술을 활용하면서 독립성을 유지하고자 하는 대기업들은 내부적으로 강력한 기술팀을 조직해야 한다.
인력: 직원 대비시키기
기존의 다른 AI 기술처럼, 생성형 AI도 인간에게 파괴적 혁신의 요인이다. 단기적으로 CEO들은 경영진 및 HR 리더들과 협력해 직원의 역할 및 책임을 재정의하고 그에 따라 운영 모델을 적절히 수정하는 등 이 변혁이 조직 내에서 어떤 식으로 진행될지 결정해야 한다.
[1] 역할 및 책임 재정의
몇몇 AI 관련 변화는 이미 일어나고 있다. 강력한 논리나 통계를 이용해 데이터를 분석하고 의사 결정을 자동화하거나 강화하는 기존의 AI와 머신러닝 알고리즘(종종 분석형 AI라고 잘못 불리기도 함)을 이용하면 사람들의 업무는 더 자동화되고 관리자들은 팀 역학 구조와 목표 설정 등에 더 집중할 수 있다.
이제 생성형 AI가 콘텐츠 초안 작성 능력을 통해 생산성, 성능, 창의력을 개선해 많은 직무가 보강될 것이다. 법률 보조원이나 마케터 같은 사무직 종사자들은 생성형 AI를 이용해 초안을 작성해 더 많은 시간을 콘텐츠 정교화와 새로운 솔루션 파악에 할애할 수 있을 것이다. 코더(coder)들은 촉박한 일정에 맞게 코드 품질을 개선하고 보안 요건을 확실히 준수하는 것과 같은 활동에 집중할 수 있게 될 것이다.
물론 이런 변화는 단독으로 진행될 수도 없고 그래서도 안 된다. CEO들은 AI가 직원의 정서적 복지와 직업 정체성에 미치는 영향을 제대로 인지해야 한다. 생산성 개선과 인력 감축을 혼동하는 경우가 종종 있는데, AI는 이미 직원들에게 우려의 대상이다. 많은 대졸자가 AI로 인해 몇 년 내로 그들의 일자리를 잃게 될 것이라고 생각한다. 하지만 AI가 대체하는 것만큼 많은 일자리를 창출할 가능성도 분명히 존재한다.
이렇듯 AI의 영향은 중요한 문화 및 인력 문제이므로 CEO들은 HR과 협력해 역할의 변화를 제대로 이해해야 한다. AI 이니셔티브 추진 시 정기적인 현황 점검을 통해 직원들의 심리를 모니터링해야 한다. CEO들은 또한 직원들이 새로운 AI 동료를 받아들이고 자율성을 유지할 수 있도록 해 주는 투명한 변화 관리 이니셔티브를 도출해야 한다. 사람들이 사라지는 것이 아니라, AI를 효과적이고 윤리적으로 활용하기 위해서는 오히려 사람들이 필요하다는 메시지가 공유돼야 한다. (보기 2 참조)
AI 도입이 가속화되면서, CEO는 AI 도입을 진행하면서 얻은 교훈을 전략적 인력 계획에 활용해야 한다. 실제로 지금 계획 수립을 시작하고 기술 발전에 따라 수정해 나가야 한다. 이는 단순히 특정 직무 내용의 변경 방법을 결정하는 것 이상을 의미한다. 회사는 경쟁력을 유지하고 AI 투자를 최대한 활용할 수 있도록 적절한 인재와 경영진을 갖춰야 한다. CEO가 회사의 강점, 약점, 우선순위를 평가할 때 고려해야 할 질문들은 다음과 같다.
- 개별 기여자들의 작업물이 충분한 수준이 되려면 프로젝트 리더는 어떤 역량이 필요한가?
- CEO들은 어떻게 최적 경험 곡선을 만들어 가장 적합한 미래 인재 파이프라인을 구축할 수 있는가? 예를 들어, 어떻게 하면 주니어급 직원이 AI 기술을 익히고 상급자는 AI 기술로 강화된 인력을 이끌 준비를 할 수 있을까?
- 지금 그리고 미래에 고성과 인력조직을 구축하기 위해 교육과 채용을 어떻게 조정할 것인가?
[2] 운영 모델 조정
애자일(혹은 바이오닉) 모델은 장기적으로 가장 효과적이고 확장 가능한 모델로 예상되지만, LLM을 트레이닝하고 맞춤화할 수 있는 전문가를 갖춘 중앙화 IT 및 R&D 부서가 있어야 한다. 중앙 집중화를 통해 비슷한 유형의 데이터로 작업하는 직원들이 동일한 데이터 세트에 접근할 수 있어야 한다. 데이터가 개별 부서 내에 사일로화된 경우(이런 경우가 매우 흔함), 기업이 생성형 AI의 진정한 잠재력을 실현하기는 어려울 것이다. 하지만 적절한 조건이 갖춰지면, 생성형 AI는 민첩성과 규모 사이에서 고민할 필요를 없앨 수 있는 강력한 힘이 있다.
데이터 과학 및 엔지니어링의 중요성이 증가하기 때문에, 많은 기업에서 고위 경영진(최고 AI 책임자 등)이 AI 이니셔티브에 대한 비즈니스와 기술 요건을 관장하는 것이 도움이 될 것이다. 경영진은 각 사업 부문 내에 소규모 데이터 과학이나 엔지니어링 팀을 마련해 특정 작업이나 애플리케이션에 적합하게 모델을 조정해야 한다. 따라서 기술팀은 도메인 전문지식을 갖추고 개별 기여자들과 직접 접촉해 지원할 수 있으므로, 이상적으로 플랫폼 혹은 기술 리더와 개별 기여자들의 거리는 하나의 레이어로 제한된다.
구조적으로는 다기능 멤버로 구성된 부서 중심 팀(예를 들어, 영업 담당자와 전담 기술 지원 담당이 있는 영업팀), 혹은 가능하다면 비즈니스와 기술 플랫폼에 따라 다기능 부서와 다기능 팀이 꾸려지는 것이 바람직하다.
정책: 비즈니스 보호하기
생성형 AI는 신뢰할 수 있는 진실 함수가 없어서, 정보가 사실과 다를 경우에도 이를 알 수 없다. ‘환각(hallucication)‘이라고도 불리는 이 특징으로 인한 결과는 유머러스한 실수에서 심각한 피해를 입히는 위험한 오류까지 광범위하게 나타난다. 또한 생성형 AI는 저작권 침해, 독점 데이터 유출, 제품 출시 후 계획하지 않은 기능(일명 기능 오버행(overhang))발견 등 기업에 중대한 위험을 초래할 수도 있다.(보기3 참조) 예를 들어, 리퓨전(Riffusion)은 텍스트를 이용한 이미지 생성 모델 스테이블 디퓨전(Stable Diffusion)을 이용해 음악 데이터를 스펙트로그램으로 변환해 새로운 음악을 작곡했다.
[1] 리스크 대비
기업은 직원들이 생성형 AI를 안전하게 사용하도록 돕고 그 활용을 제대로 수립된 지침 내에 있는 경우로 제한하는 정책이 필요하다. 다양한 실험은 물론 장려돼야 하지만 조직 내 모든 실험을 추적하고 민감한 정보 노출의 위험이 있는‘그림자 실험(shadow experiments)‘을 피하는 것이 매우 중요하다. 이 정책은 또한 확실한 데이터 소유권을 보장하고, 잘못되거나 유해한 콘텐츠의 게시를 막기 위한 검토 프로세스를 정립하며 기업과 고객의 독점 데이터를 보호해야 한다.
또 다른 단기적 과제는 직원들이 자신들의 전문지식 영역 내에서 생성형 AI를 활용하는 방법을 교육하는 것이다. 생성형 AI의 로우코드 노코드 특성으로 인해 직원들은 필수 배경지식이나 스킬이 부족한 업무도 완수할 수 있다고 스스로를 과신할 수도 있다. 예를 들어 마케팅 직원이 회사의 IT 규정을 우회하고 직접 코드를 작성해 새로운 마케팅 툴을 개발하고 싶은 유혹을 느낄 수도 있다. 하지만 NYU의 사이버보안센터(Center for Cybersecurity)에 따르면 AI가 생성한 코드의 40%는 불안정하고 대부분의 직원은 코드 취약성을 평가할 수 있는 능력이 없기 때문에 이는 심각한 보안 위험을 초래한다. 또한 스탠포드 대학(Stanford University)의 연구에 의하면 코드 작성 시 AI를 활용할 경우에도 코더가 AI의 취약성 회피 능력을 과신할 수 있어 품질 위험이 야기될 수 있다.
따라서 리더들은 모든 직원이 특히 코더들이 AI 생성 콘텐츠에 대해 건전한 회의적 시각을 유지하도록 독려해야 한다. 회사의 정책으로 직원들이 완전히 이해한 데이터만을 사용하고 AI가 생성한 모든 콘텐츠가 데이터 소유자에 의해 철저히 검토되는 것을 의무화해야 한다. 생성형 AI 애플리케이션(빙챗(Bing Chat) 등)은 이미 소스 데이터를 참조하는 기능을 구현하기 시작했으며, 이 기능이 확장되면 데이터 소유자를 확인할 수 있다.
[2] 품질 및 보안 보장
리더들은 책임 있는 출판에 대한 기존의 권고안을 조정해 생성형 AI 콘텐츠와 코드의 출시에 지침을 제공할 수 있다. 강력한 문서화를 의무화하고 과학연구 출판 프로세스와 유사하게 영향의 사전 고려사항을 검토하는 일종의 ‘기관감사위원회‘를 구성해야 한다. 책임 있는 AI 라이선스(Responsible AI License) 등 AI의 다운스트림 사용에 대한 라이선스는 생성형 AI의 진실함수 부족 문제 관리를 위한 또 다른 메커니즘이 될 수 있다.
마지막으로, 리더들은 민감한 정보에 대해 공개 챗봇을 사용하지 않도록 직원들을 주의시켜야 한다. 생성형 AI 도구에 입력되는 모든 정보는 저장되고 계속해서 그 모델의 학습에 사용된다. 생성형 AI에 큰 투자를 한 마이크로소프트도 직원들에게 민감한 데이터를 챗GPT에 공유하지 않도록 경고했다
지금 상황에서 기업이 데이터를 공개하지 않고 LLM을 활용할 수 있는 방법은 거의 없다. 개인정보를 보호할 수 있는 한 가지 방법은 전체 모델을 온프레미스 혹은 전용서버에 저장하는 것이다. (허깅페이스 빅사이언스(Hugging Face’s BigScience) 그룹의 오픈소스 모델인 블룸(BLOOM)은 GPT-3 규모이지만 약 512 기가바이트의 스토리지만 필요함.) 하지만, 이로 인해 최첨단 솔루션 사용 능력이 제한될 수도 있다. 독점 데이터 공유 외에도 개인식별정보 보호 등 LLM 사용 시 다른 데이터 관련 우려도 존재한다. 리더들은 인명, 지명, 조직명을 제거하는 개체명 인식(named entity recognition)과 같은 정제기법의 활용을 고려해야 한다. LLM이 발전하면서 민감한 정보를 보호하는 솔루션 역시 정교해질 것이며 CEO는 정기적으로 보안 프로토콜과 정책을 업데이트해야 한다.
——————————
생성형 AI는 전례 없는 기회를 제공하지만 동시에 CEO들은 낯설고 불편한 미지의 영역을 헤쳐 나가야 하는 과제에 직면해 있다. 생성형 AI에 대해 효과적인 전략적 접근법을 수립하면 신호와 소음을 제대로 구분할 수 있을 것이다. 비즈니스 모델을 재구상할 준비가 된, 즉 기회를 제대로 파악하고, 생성형 AI 혁신을 지원할 수 있도록 인력과 운영모델을 조직하며, AI 활용 실험이 보안과 윤리 문제를 일으키지 않도록 보장하는 리더들이라면 장기적인 경쟁우위를 확보할 수 있을 것이다.