Loading...

AI 뉴스

DeepSeek AI는 민감한 주제에 대해 더 많은 보안 결함을 생성

페이지 정보

작성자 xtalfi
작성일 2025.11.21 14:50
780 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763704231_5703.jpg
 

CrowdStrike가 11월 19일 발표한 연구에 따르면, 중국의 AI 코딩 어시스턴트 DeepSeek-R1은 정치적으로 민감한 용어가 포함된 프롬프트를 받을 때 최대 50% 더 많은 보안 취약점을 생성하며, 현재 기업 개발자의 약 90%가 사용하는 AI 기반 소프트웨어 개발 도구의 숨겨진 위험에 대한 경보를 울리고 있습니다.​

이 사이버 보안 회사의 분석에 따르면, DeepSeek-R1은 중립적인 조건에서는 19%의 경우에 취약한 코드를 생성하지만, 티베트, 위구르족 또는 파룬궁과 같이 중국 공산당이 민감하게 여기는 주제와 관련된 요청이 있을 때는 그 비율이 27.2%로 급증합니다. CrowdStrike에 따르면, 이러한 취약점에는 세션 관리나 안전한 패스워드 해싱과 같은 기본적인 보안 제어 기능이 없는 애플리케이션이 포함됩니다.​


내장된 검열 메커니즘

CrowdStrike 연구원들은 또한 모델의 가중치에 내장된 "킬 스위치"로 묘사되는 것을 확인했습니다. 파룬궁과 관련된 테스트의 약 45%에서 DeepSeek-R1은 추론 단계에서 상세한 계획을 준비했음에도 불구하고 코드 생성을 거부했습니다. 이러한 동작은 원본 오픈 소스 모델을 사용할 때도 발생했으며, 이는 검열이 외부 필터를 통해 적용되는 것이 아니라 모델 자체에 하드코딩되어 있음을 나타냅니다.​

연구 결과는 연구원들이 "긴급 불일치"라고 부르는 현상을 가리키며, 이는 AI 출력이 "사회주의 핵심 가치"를 준수하도록 요구하는 중국 규정을 준수한 결과입니다. 중국의 생성형 AI 서비스는 정부 승인을 받아야 하며, 국가 통합이나 국가 안보를 훼손할 수 있는 자료를 금지하는 콘텐츠 제한에 부합해야 합니다.​


무삭제판이 새로운 의문을 제기하다

별도로, 스페인 기업 Multiverse Computing은 11월 18일에 DeepSeek R1 Slim의 출시를 발표했는데, 이는 원본보다 55% 작은 버전으로 양자 영감을 받은 텐서 네트워크를 사용하여 정치적 검열을 제거했다고 주장한다. 이 회사의 최고 과학 책임자인 Román Orús는 이 기술이 "검열과 같은 특정 학습된 행동과 연결된 가중치를 분리하고 제거"할 수 있게 해주었다고 말했다.​

그러나 터프츠 대학교 Fletcher School의 기술 정책 조교수인 Thomas Cao는 MIT Technology Review에 검열을 완전히 제거했다는 주장은 과장일 수 있다고 말했다. Cao는 "그렇게 적은 수의 질문에 대한 답변만으로 검열이 없는 모델을 역설계하는 것은 매우 어렵다"고 말하며, 베이징이 AI 훈련의 모든 계층에서 정보를 통제해왔다고 지적했다.

댓글 0
전체 1,366 / 31 페이지
Google은 NotebookLM 리서치 도구와 Gemini 챗봇 간의 통합 기능을 롤아웃하기 시작했으며, 이를 통해 사용자는 전체 노트북을 대화에 직접 첨부하여 출처 기반 분석을 수행할 수 있게 되었다.이 기능은 주말 동안 매우 제한된 방식으로 배포되는 과정에서 포착되었으며, 사용자가 Gemini의 첨부 메뉴에서 노트북을 선택해 챗봇의 추론 모델을 활용하는 동안 인용을 유지하고, Sources 버튼을 통해 전체 NotebookLM 작업 공간으로 다시 이동할 수 있도록 해준다.이번 통합은 연구자 및 지식 노동자들의 핵심 워크플로 병목을 해소하기 위한 것으로, Google이 Microsoft Copilot과 OpenAI의 ChatGPT 다중 파일 기능과 경쟁하는 가운데, 환각 현상을 줄이도록 설계된 NotebookLM의 문서 중심 접근 방식과 Gemini의 대화형 AI를 결합한다.
411 조회
0 추천
2025.12.16 등록
'트랜스포머' 논문의 제1 저자인 아시시 바스와니 박사가 설립한 에센셜 AI가 80억개 매개변수(8B)를 가진 첫 오픈 소스 모델 'Rnj-1'을 출시했습니다. 이 모델은 저명한 수학자의 이름을 땄으며, 동급 오픈 소스 중 최고 수준의 성능을 목표로 '젬마 3' 아키텍처를 기반으로 구축되었습니다.에이전트 코딩 및 STEM에 최적화된 'Rnj-1-인스트럭트'는 'MBPP+'와 '휴먼이벨' 등 광범위한 코딩 벤치마크에서 비슷한 크기의 중국 모델보다 우수하거나 동등한 성적을 거두었습니다. 특히 수학 능력 테스트인 'AIME 2025'에서 43.3점을 기록하며 더 큰 모델에 근소하게 뒤졌을 뿐, 다른 유사 크기 모델들을 크게 앞질렀습니다.에센셜 AI는 모델 자체 역량 강화를 위해 강화 학습보다는 사전 훈련에 집중하는 개발 철학을 밝혔으며, 이로 인해 기업의 미세조정에 더 유리한 모델을 제공하고자 합니다. 회사는 소수 기업의 AI 기술 통제가 교육이나 의료 등 사람에게 이로운 분야의 발전을 저해해서는 안 된다고 강조하며 오픈 소스 정책을 고수할 것을 밝혔습니다.
434 조회
0 추천
2025.12.15 등록
• Rodney Brooks, 70세의 전 MIT 연구소 소장이자 Roomba의 공동 개발자는, 휴머노이드 로봇이 최소 15년 동안은 안전하게 가정에 도입되지 않을 것이라고 경고하며, Tesla [TSLA +2.71%]와 Figure AI 같은 회사들이 비용을 정당화하는 데 필요한 정교함을 달성하지 못해 수십억 달러가 사라질 것이라고 예측했다.[nytimes +1]• Brooks는 인간 비디오의 시각 데이터를 사용하는 현재의 훈련 방식이 근본적으로 결함이 있다고 주장하는데, 이는 인간이 조작을 위해 의존하는 필수적인 촉각 및 힘 감지 데이터가 부족하기 때문이며, Figure AI의 전 제품 안전 책임자가 11월에 회사의 로봇이 인간에게 위험을 초래할 수 있다고 경고했다가 해고되었다며 부당 해고 소송을 제기한 이후 안전 우려가 증폭되었다.[nytimes +1]• Brooks의 회의론에도 불구하고, 벤처 캐피탈리스트들과 기술 기업들은 휴머노이드 로봇 공학에 계속해서 수십억 달러를 쏟아붓고 있으며, Figure AI는 390억 달러 가치 평가로 10억 달러 이상을 모금했고, Elon Musk는 Tesla의 Optimus 로봇을 연속 작동으로 인간 생산성의 5배를 달성할 수 있는 “무한 돈 버그”라고 칭했다.[nytimes]
441 조회
0 추천
2025.12.15 등록
OpenAI의 코딩 에이전트 Codex의 제품 개발을 이끌고 있는 Alexander Embiricos는 일요일에 공개된 Lenny’s Podcast에서 인간의 타이핑 속도와 프롬프트를 지속적으로 작성하고 AI 작업을 검증해야 하는 필요성이 인공 일반 지능을 달성하는 데 있어 “현재 과소평가되고 있는 제한 요인”이라고 말했다.Codex는 8월 출시 이후 20배 성장했으며 현재 매주 수조 개의 토큰을 처리하고 있다. Embiricos는 시스템이 AI 에이전트가 지속적인 인간의 감독 없이 기본적으로 작동할 수 있도록 하면 생산성 향상이 가속화될 것이라고 주장했다.Embiricos는 얼리 어답터들이 2026년부터 극적인 생산성 증가를 경험할 것이며, AGI는 이러한 초기 성과와 주요 기업들이 AI 에이전트를 통해 완전한 자동화를 달성하는 시점 사이 어딘가에 도래할 것이라고 예측했다.
457 조회
0 추천
2025.12.15 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입