최근 생성형 인공지능(AI) 기술이 급격히 발전하면서 다양한 분야에서 혁신을 이끌고 있습니다. 그러나 기술 발전과 함께 보안 및 개인정보 보호에 대한 우려도 커지고 있습니다. 특히 중국에서 개발한 생성형 AI 모델인 딥시크(Deepseek)는 뛰어난 성능을 보이며 주목받고 있지만, 데이터 수집 방식과 보안 문제로 인해 여러 국가와 기업에서 사용을 제한하려는 움직임이 나타나고 있습니다. 이번 글에서는 딥시크의 주요 특징, 보안 논란, 그리고 각국의 대응 방안을 살펴보겠습니다.
1. 딥시크(Deepseek)의 특징과 기술적 발전
딥시크는 중국 AI 연구팀이 개발한 생성형 AI 모델로, 자연어 처리 및 데이터 분석 기능이 뛰어난 것으로 평가됩니다.
특히, 이 모델은 비교적 적은 GPU(그래픽 처리 장치) 자원으로도 높은 성능을 발휘할 수 있다는 점에서 기술적 혁신을 이루었습니다. 기존 대형 AI 모델들이 수만 개의 GPU를 필요로 했던 반면, 딥시크는 약 2,000개의 엔비디아 H800 GPU만으로도 경쟁력 있는 결과를 도출할 수 있습니다. 이는 최신 반도체 공급 제약 속에서도 효율적인 AI 모델을 개발하려는 시도의 일환으로 볼 수 있습니다.
또한, 딥시크는 혼합 전문가(Mixture of Experts) 방식과 FP8(8비트 부동소수점) 기술을 도입하여 모델 학습 및 추론 비용을 대폭 줄였습니다. 이를 통해 기존 AI 모델 대비 훨씬 저렴한 비용으로 AI 서비스를 제공할 수 있으며, 자연어 이해 및 수학 문제 해결에서도 높은 성능을 보이고 있습니다. 그러나 이러한 기술적 강점에도 불구하고, 데이터 보안과 개인정보 보호 문제로 인해 많은 논란이 제기되고 있습니다.
2. 개인정보 보호와 보안 논란
딥시크의 강력한 성능에도 불구하고, 개인정보 수집 방식에 대한 우려가 커지고 있습니다. 알려진 바에 따르면, 딥시크는 사용자의 기기 정보, 키 입력 패턴, IP 주소 등을 수집할 가능성이 있으며, 이러한 데이터가 중국 내 서버에 저장될 가능성이 제기되고 있습니다. 이는 기업 및 공공기관에서 내부 기밀이 외부로 유출될 위험성을 높이는 요인이 될 수 있습니다. AI 기술이 점점 더 다양한 영역에서 활용됨에 따라, 데이터 보호에 대한 명확한 기준이 필요하다는 목소리도 커지고 있습니다.
3. 차단조치! 각국 정부와 기업의 대응
딥시크의 보안 문제가 부각되면서, 여러 국가와 기업들은 이에 대한 대응책을 마련하고 있습니다.
(1) 한국 정부 및 기업 대응
한국에서는 최근 외교부, 산업통상자원부, 국방부 등 주요 부처에서 내부 시스템에서 딥시크 접속을 차단하는 조치를 취했습니다. 또한, 행정안전부는 공문을 통하여 생성형 AI 사용 시 개인정보 입력을 자제할 것을 당부하였습니다. 이는 AI 활용 과정에서 발생할 수 있는 정보 유출을 막기 위한 예방적 조치로 볼 수 있습니다.
또한, 카카오, LG유플러스 등 국내 주요 IT 기업과 통신사들도 딥시크 사용을 제한하는 방향으로 내부 정책을 조정하고 있습니다. 일부 대기업은 사내망에서 딥시크 사용을 금지하고, 직원들에게 개인 기기에서도 사용을 자제할 것을 권고하고 있습니다. 이는 기업 내부 정보가 외부로 유출되는 것을 막기 위한 조치입니다.
(2) 해외 각국의 규제 조치
미국, 유럽연합(EU), 일본 등 여러 국가에서도 딥시크와 같은 생성형 AI의 보안 문제를 예의주시하고 있습니다. 미국 텍사스주에서는 정부 소유 기기에서 딥시크 사용을 금지했으며, 호주, 일본, 대만 등도 딥시크 접속을 제한하는 조치를 시행하고 있습니다.
이탈리아는 더욱 강력한 대응책을 마련하여, 앱 마켓에서 딥시크 다운로드 자체를 차단하는 정책을 도입했습니다. 유럽연합과 영국 역시 딥시크의 보안 취약점을 면밀히 검토하며, 추가적인 규제를 도입할 가능성을 시사하고 있습니다.
마무리 - 향후 전망과 과제
딥시크를 둘러싼 논란은 특정 AI 모델 문제를 넘어서, 생성형 AI의 발전 방향과 관련된 중요한 윤리적·정책적 이슈를 제기하고 있습니다. AI 기술의 발전 속도만큼 개인정보 보호와 보안 문제도 중요한 과제로 떠오르고 있으며, 각국 정부와 기업은 이에 대한 명확한 가이드라인을 마련해야 할 것입니다.
기술 개발자들도 AI 모델의 성능 향상뿐만 아니라 데이터 보호를 고려한 안전한 AI 시스템을 구축해야 합니다. AI가 사회적으로 신뢰받기 위해서는 사용자 데이터 보호가 최우선 과제로 다뤄져야 합니다.
마지막으로, 일반 사용자들도 AI 기술을 활용할 때 개인정보 보호와 보안에 대한 인식을 높이고, 신중하게 접근하는 태도를 가져야 합니다. 신뢰할 수 있는 AI 생태계를 구축하기 위해서는 정부, 기업, 연구기관, 그리고 개인 모두의 노력이 필요할 것입니다
2025.01.10 - [분류 전체보기] - 신라젠 주가 전망, 표적항암제 BAL0891의 상용화 가능성과 미래
신라젠 주가 전망, 표적항암제 BAL0891의 상용화 가능성과 미래
신라젠은 2006년 설립된 국내 바이오기업으로, 2016년 기술특례상장을 통해 코스닥에 입성한 이후 면역항암제 개발에 주력해 왔습니다. 하지만 2019년 간암 환자를 대상으로 한 펙사벡의 임상 3상
cognitifin.com
.