본문 바로가기
이슈

오픈소스 AI와 미중 패권 경쟁, 보안 위협의 실체와 대응 전략

by lovedeveloping 2025. 3. 18.
반응형

사진 1
기사 관련 이미지

메타 설명: 중국 딥시크를 비롯한 오픈소스 AI의 급부상으로 보안 우려가 확대되는 가운데, 오픈AI가 중국산 AI 전면 제한을 제안하며 미중 AI 패권 경쟁이 격화되고 있습니다. 오픈소스 AI의 보안 위협과 미중 AI 패권 전쟁의 실체를 분석합니다.

 

목차

  1. 서론: 오픈소스 AI의 부상과 글로벌 패권 경쟁
  2. 오픈소스 AI의 현황과 보안 위협
  3. 미중 AI 패권 전쟁의 격화
  4. 오픈AI의 중국산 AI 제한 제안
  5. 국내외 기관의 대응 현황
  6. 전문가들의 위험성 평가와 분석
  7. 안전한 AI 활용을 위한 전략
  8. 결론: AI 기술 발전과 보안의 균형

오픈소스 AI의 부상과 글로벌 패권 경쟁

최근 오픈소스 AI 기술이 급부상하며 글로벌 인공지능 시장의 판도를 바꾸고 있습니다. 중국 인공지능 스타트업이 개발한 '딥시크(DeepSeek)'는 미국 오픈AI의 '챗GPT'보다 저렴한 비용으로 개발되어 전 세계를 놀라게 했습니다. 특히 딥시크가 오픈소스로 공개되면서 인공지능 기술의 민주화와 접근성 향상에 기여하고 있지만, 동시에 심각한 보안 우려도 불러일으키고 있습니다.

 

이러한 상황에서 미국과 중국 간의 인공지능 패권 경쟁이 한층 심화되고 있습니다. 중국의 인공지능 굴기가 글로벌 기술 지형을 뒤흔들자, 오픈AI가 트럼프 행정부에 '중국에서 개발된 AI 모델 사용을 전면 제한해야 한다'는 초강수를 촉구하는 상황까지 이르렀습니다.

 

이제 오픈소스 AI는 단순한 기술 혁신을 넘어 국가 안보와 글로벌 패권의 핵심 요소로 부상하고 있습니다. 이 글에서는 오픈소스 AI의 현황과 보안 위협, 그리고 미중 AI 패권 경쟁의 실체를 살펴보고자 합니다.

오픈소스 AI의 현황과 보안 위협

오픈소스 AI 모델은 비용 효율성과 접근성 측면에서 큰 장점을 가지고 있습니다. 누구나 소스 코드를 보고 활용할 수 있어 비교적 저렴한 비용으로 AI 모델을 개발할 수 있습니다. 중국의 딥시크, 미국 메타(페이스북 모회사), 프랑스 미스트랄 등 오픈AI보다 늦게 시장에 뛰어든 기업들이 연이어 경쟁력 있는 AI 제품을 출시할 수 있었던 배경입니다.

 

한국 기업들도 오픈소스 AI 개발에 적극적으로 참여하고 있습니다. LG AI연구원은 최근 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC)에서 '엑사원 딥'을 선보이며 오픈소스 플랫폼에 배포했습니다. 엑사원 딥은 단순한 지식 기반이 아니라 스스로 가설을 세우고 이를 검증하는 방식으로 문제를 푸는 고급 AI 모델입니다.

 

미국 AI 스타트업 글리터컴퍼니는 최근 메타의 오픈소스 AI 모델인 '라마'를 활용하기 시작했습니다. 라마가 무료로 제공되는 덕분에 오픈AI 모델만 사용할 때보다 모델 사용료를 70%나 절감한 것으로 알려졌습니다.

 

그러나 이러한 장점 이면에는 심각한 보안 위협이 존재합니다. 국가정보원의 딥시크 검증 결과에 따르면, 딥시크는 ▲과도하게 개인정보를 수집하고 ▲입력 정보를 학습 정보로 사용하며 ▲광고주와 정보를 공유하는 한편 ▲국외 서버에 저장하는 문제점을 가지고 있습니다.

 

더욱 우려되는 점은 오픈소스 특성을 악용한 '웜GPT(WormGPT)'와 같은 악성 AI 도구의 등장입니다. 웜GPT는 오픈소스를 기반으로 개발된 해킹 도구로, 챗봇에게 특정 사이트 공격이나 악성 파일 생성 등 악의적인 명령을 내릴 수 있습니다. 인터넷에서 쉽게 다운로드할 수 있어 보안 위협을 가중시키고 있습니다.

미중 AI 패권 전쟁의 격화

오픈소스 AI의 보안 위협은 이제 국가 간 패권 경쟁의 차원으로 확대되고 있습니다. 미중 AI 패권 전쟁은 반도체 통제를 넘어 AI 기술 전반으로 확대되는 양상을 보이고 있습니다.

 

중국의 AI 굴기는 놀라운 속도로 진행되고 있습니다. 딥시크는 지난 1월 공개한 R1 모델로 오픈AI의 GPT 기술과 대등한 수준의 추론 능력을 보여 주목받았습니다. 여기에 마누스(Manus)를 비롯한 중국 스타트업들은 금융 분석, 보고서 작성, 웹사이트 제작 등 실제 업무 자동화 기능을 앞세워 글로벌 벤치마크에서 미국산 모델을 제치기도 했습니다.

 

중국은 지난 양회(전국인민정치협상회의·전국인민대표대회)에서도 AI, 6G(6세대 이동통신), 로봇 등 첨단 산업을 집중 육성하겠다는 구상을 밝혔습니다. 시진핑 국가주석은 딥시크 창업자 량원펑과 직접 면담하는 등 테크 기업 수장들에게 힘을 실으며 AI 굴기를 본격화하고 있습니다.

 

중국 AI 업계가 저사양 칩을 활용해 비용 부담을 낮추면서도, 새로운 학습 알고리즘을 통해 성능을 극대화하는 전략을 구사하고 있다는 점도 미국 기업들을 긴장시키고 있습니다. 앤드루 응 스탠퍼드대 교수는 "중국은 국가 차원에서 오픈소스를 장려하고 있어, 미국이 폐쇄형 모델만 고집한다면 글로벌 AI 공급망을 중국이 장악할 가능성이 높다"고 평가했습니다.

오픈AI의 중국산 AI 제한 제안

이런 상황에서 오픈AI는 미국 정부에 제출한 신규 정책 제안서에서 중국 딥시크를 "정부 보조금을 받는 국가 통제 조직"이라 명시하고 "미국을 비롯한 '우방국(Tier 1 국가)'에서 이들이 만든 AI 모델을 금지하는 방안을 검토해달라"고 요구했습니다.

 

해당 제안서에는 "중국 AI 딥시크가 중국 법률상 사용자 데이터를 제출해야 할 의무가 있기 때문에, 이들의 AI 모델은 보안과 지식재산권(IP) 보호에 심각한 위험 요인이 된다"는 설명을 포함했습니다.

 

오픈AI는 이전부터 딥시크가 GPT 시리즈 등을 무단으로 '지식 증류(distilling)'했다며 자사 이용 약관 위반을 문제 삼았지만, 이번처럼 '중국 정부와의 직결성'을 들어 전면 금지까지 요구한 것은 이례적입니다.

 

구글 측도 "중국발 AI 기술이 완전히 새로운 혁신을 내놓은 것은 아니다"라면서도, 각국 정부에 "보안과 안전성 기준을 높여야 한다"고 주문했습니다. 최근 방한한 앨리스 프랜드 구글 AI·신흥 기술 정책 총괄은 "AI가 어떤 국가에서 개발됐든, 철저한 보안성과 프라이버시 기준을 갖춰야 한다"고 강조했습니다.

 

오픈AI의 정책 제안이 실제 제도화로 이어지면, 미국 및 우방국 기업이나 연구소가 중국산 모델을 활용하기가 어려워질 전망입니다. 이는 AI 기술의 글로벌 공유와 발전을 저해할 수 있다는 우려가 있는 반면, 보안 측면에서는 필요한 조치라는 의견도 있습니다.

반응형

국내외 기관의 대응 현황

오픈소스 AI의 보안 위험성에 대한 우려가 커지면서 국내외 여러 기관에서는 이에 대한 대응책을 마련하고 있습니다. 미국은 해군이 발 빠르게 딥시크 사용을 금지했으며, 한국에서도 국방부, 외교부, 산업통상자원부, 과학기술정보통신부 등 정부 기관과 KB국민은행, 하나은행, 우리은행, 케이뱅크 등 은행, 그리고 현대자동차그룹 등 주요 기업들이 딥시크 사용을 금지했습니다.

 

더 나아가 한국의 개인정보위원회는 딥시크 사용을 공식적으로 금지하는 조치를 취했습니다. 이는 오픈소스 AI가 가져올 수 있는 개인정보 침해와 보안 위협을 심각하게 인식하고 있다는 증거입니다.

 

이러한 대응은 단순히 특정 AI 제품의 사용을 제한하는 것을 넘어, 오픈소스 AI 전반에 대한 보안 인식을 제고하는 중요한 계기가 되고 있습니다. 국가와 기업 차원에서 AI 보안의 중요성을 강조하고, 안전한 AI 사용 환경을 조성하기 위한 노력을 기울이고 있습니다.

 

임종인 대통령실 사이버특별보좌관은 "오픈AI가 제안한 중국산 AI 금지는 트럼프 행정부가 기대하는 해법을 그대로 떠안은 것에 가깝다"며 "'중국산 AI를 탑재한 제품'까지 규제 범위를 넓힌다면, 글로벌 시장에 상당한 파장이 예상된다"고 말했습니다. 그러면서 "중국이 급성장해온 가전·로봇·자동차 분야에서 AI 경쟁력이 어느 정도 막히면, 국내 기업 입장에선 반사이익이 생길 수 있다"며 한국 기업에게 새로운 기회가 될 수 있다는 전망도 제시했습니다.

전문가들의 위험성 평가와 분석

여러 전문가들은 오픈소스 AI의 보안 위험성과 미중 기술 패권 경쟁에 대해 다양한 분석을 내놓고 있습니다.

세종사이버대 정보보호학과 교수인 박영호 한국정보보호학회장은 "AI는 정보를 먹을수록 커진다"며 "그만큼 개인정보가 빠져나가는 게 문제"라고 지적합니다. 사용자의 행동 데이터가 모두 정보로 수집되어 취미나 정치 성향까지 파악될 수 있다는 것입니다.

 

순천향대 정보보호학과 명예교수인 염흥열 한국개인정보보호책임자(CPO)협의회장은 "오픈소스 취약성을 이용해 AI 보안 시스템을 공격하면 AI가 의도된 대로 동작하지 않고 탈옥 등의 방법으로 악성코드나 대규모 살상 무기 등을 만드는 데 악용될 수 있다"며 "AI가 처리하는 개인정보를 빼돌리도록 쓰일 수도 있다"고 분석했습니다.

 

윤두식 이로운앤컴퍼니 대표는 "딥시크 같은 게 어떤 질문을 받으면 이상하게 답하는지 살펴야 한다"며 "학습된 개인정보를 추출하거나 편향적인 답변을 유도하고 악성코드나 무기 제조법 등을 만들라고 이끌어 AI가 나쁘게 답변하는지 점검할 수 있다"고 설명했습니다.

이희찬 스틸리언 연구소장은 "오픈소스 AI 행위를 예측하기 어려워 취약점을 검증하기도 힘들다"며 "소스 코드가 공개됐더라도 AI 모델이 복잡하다"고 진단했습니다.

 

김택완 한국오픈소스협회장은 "애플이 운영체제 'iOS' 보안이 취약하다고 알아채면 개선해 알려준다"며 "오픈소스 모델은 누가 공지하지 않아 사용자가 스스로 '새로고침' 않으면 취약한 옛 모델을 계속 쓸 수밖에 없다"고 지적했습니다. 또한 "보안 취약점이 발견되면 누군가 해킹 도구를 만들어 배포한다"며 "해커가 이 도구로 10군데 시도하다가 1군데라도 뚫리면 해킹된다"고 경고했습니다.

 

이처럼 전문가들은 오픈소스 AI의 보안 취약점과 함께 미중 기술 패권 경쟁이 가져올 수 있는 영향에 대해 우려하고 있습니다. 특히 중국의 AI 굴기가 '보안 우려'만으로 제어될 수 있는 단계는 이미 지났다는 분석도 나오고 있어, 보다 체계적이고 실효성 있는 대응 전략이 필요한 시점입니다.

안전한 AI 활용을 위한 전략

전문가들은 오픈소스 AI를 안전하게 활용하기 위한 여러 방안을 제시하고 있습니다. 먼저, 사용자는 '내가 무슨 AI 도구의 어떤 버전을 사용하는지' 스스로 모니터링하고, 새로운 버전이 출시되면 업데이트해야 합니다. 또한 안전한 인터넷 환경에서 AI를 사용하는 것도 중요합니다.

김택완 오픈소스협회장은 "우리는 수많은 소프트웨어를 사용하고 버전도 쏟아지는 만큼 업데이트 우선순위를 정하는 게 좋다"며 "내가 사용하는 소프트웨어가 내게 얼마나 중요한지, 얼마나 자주 사용하는지, 내 시스템을 얼마나 망가뜨리는지 위험도를 생각해야 한다"고 조언했습니다.

 

이희찬 연구소장은 "오픈소스 AI를 외부에서 접속할 수 없는 내부망에서 활용하거나 AI 안전 수준을 높이는 기술(AI safety)을 적용해야 한다"고 제안했습니다.

 

염흥열 교수는 "인공지능 시스템을 개발하고 운영하는 조직은 AI 관리 체계를 갖춰야 한다"며 "무엇이 인공지능 시스템을 위협하는지 식별해 꾸준히 감시해야 한다"고 강조했습니다. 또한 "국제표준(ISO/IEC 42001)에 근거한 인공지능 관리 체계를 제3자 인증기관으로부터 인증받는 것도 방법"이라고 덧붙였습니다.

 

윤두식 대표는 ▲사용자 요청과 응답으로 말미암아 민감한 정보를 가려내고 없애는 '거대언어모델(LLM) 방화벽' ▲AI 모델에 전달되는 입력을 미리 점검해 금지된 정보를 막는 '프롬프트 필터링(Prompt Filtering)' ▲모델이 학습할 때 개인정보가 포함되지 않게끔 '학습 정보 정제' ▲생성된 응답을 실시간 살펴봐 부적절한 응답을 막는 'LLM 결과 필터링'을 해결책으로 제시했습니다.

 

미중 기술 패권 경쟁 속에서 한국은 기술적·법적 검토를 충분히 거친 뒤, 미국의 실제 정책 방향을 지켜보는 것이 바람직하다는 의견도 있습니다. 임종인 대통령실 사이버특별보좌관의 말처럼, 중국산 AI 규제로 인해 국내 기업에게 반사이익이 생길 수 있는 가능성도 고려해야 합니다.

AI 기술 발전과 보안의 균형

오픈소스 AI는 인공지능 기술의 민주화와 혁신을 가속화하는 중요한 역할을 하고 있습니다. 저렴한 비용으로 고성능 AI 모델을 개발하고 활용할 수 있다는 장점은 분명히 매력적입니다. 그러나 동시에 보안 취약점과 개인정보 침해 위험이라는 심각한 과제도 안고 있습니다.

 

미중 AI 패권 경쟁은 앞으로 더욱 격화될 전망입니다. 중국은 국가 차원의 전폭적인 지원과 방대한 인재 풀을 바탕으로 AI 기술 개발에 박차를 가하고 있으며, 미국은 보안과 지식재산권 보호를 명분으로 중국산 AI에 대한 규제를 강화하고 있습니다.

 

이러한 상황에서 우리는 AI 기술의 발전과 보안의 균형을 어떻게 맞출 것인지 고민해야 합니다. 박영호 교수의 말처럼 "브레이크가 좋아야 자동차를 안전하고도 빠르게 몰 수 있듯 AI를 활발하게 쓰려면 윤리 의식과 제도가 뒷받침돼야 합니다."

 

앞으로 오픈소스 AI는 더욱 다양한 분야에서 활용될 것으로 예상됩니다. 이에 따라 보안 문제와 국가 간 패권 경쟁은 더욱 중요한 이슈로 부각될 것입니다. 개발자, 기업, 정부, 사용자 모두가 오픈소스 AI의 가능성과 위험성을 균형 있게 인식하고, 안전하고 건전한 AI 생태계를 조성하기 위해 협력해야 할 때입니다.

 

여러분은 어떤 AI 서비스를 사용하고 계신가요? 그리고 그 서비스의 보안 수준과 출처는 어떻게 확인하고 계신가요? 미중 AI 패권 경쟁 속에서 한국의 AI 산업은 어떤 방향으로 나아가야 할까요? 안전한 AI 미래를 위해 함께 고민하고 실천해 나가야 할 시점입니다.

반응형