Loading...

AI 뉴스

AI 코딩 도구가 위험한 보안 결함 생성

페이지 정보

작성자 xtalfi
작성일 2025.11.27 15:58
512 조회
0 추천
0 비추천

본문

Will-AI-Fix-Our-Code-Security-Problems.jpg

인공지능 코딩 어시스턴트가 개발자들 사이에서 인기를 얻고 있는 가운데, 새로운 연구 결과가 우려스러운 보안 환경을 드러냈습니다. 애플리케이션 보안 기업 Endor Labs의 조사에 따르면, AI 코딩 에이전트가 권장하는 종속성 중 단 5분의 1만이 안전하게 사용할 수 있는 것으로 나타났습니다.​

이번 달 발표된 회사의 2025 종속성 관리 현황 보고서에서는 AI 모델에 따라 코딩 에이전트가 가져온 종속성의 44-49%가 알려진 보안 취약점을 포함하고 있다는 것을 발견했습니다. 나머지 안전하지 않은 종속성은 "환각된" 패키지로 구성되어 있었는데, 이는 그럴듯하게 들리지만 실제로는 존재하지 않는 소프트웨어 구성 요소로서, "슬롭스쿼팅(slopsquatting)"이라고 불리는 새로운 공급망 공격의 여지를 만들어냅니다.​

보안 우려는 결함이 있는 종속성을 넘어 확장됩니다. IEEE의 기술과 사회에 관한 국제 심포지엄에 발표된 연구에서는 AI가 생성한 코드가 연구자들이 "피드백 루프 보안 저하"라고 부르는 현상을 경험한다는 것을 밝혔습니다. 40라운드 반복에 걸친 400개의 코드 샘플을 분석한 결과, 이 연구는 AI 주도 코드 개선의 단 5번의 반복 후 중대한 취약점이 37.6% 증가했다는 것을 문서화했습니다. 후기 반복은 초기 반복보다 일관되게 더 많은 취약점을 생성했으며, 이는 반복적인 개선이 코드 품질을 향상시킨다는 가정에 의문을 제기합니다.​


전통적인 버그를 넘어선 설계 결함

아키텍처와 의도를 고려하는 인간 개발자와 달리, AI 모델은 다음 토큰을 예측하여 암호화 라이브러리를 교체하거나, 토큰 수명을 변경하거나, 인증 로직을 수정함으로써 보안을 약화시키는 미묘한 설계 결함을 도입합니다. 학술 연구에 따르면 AI가 생성한 코드의 약 3분의 1이 알려진 취약점을 포함하고 있으며, Veracode의 100개 이상의 대규모 언어 모델에 대한 종합 분석에서는 AI가 생성한 코드의 45%가 보안 결함을 도입하는 것으로 나타났습니다.​

이 문제는 프로그래밍 언어 전반에 걸쳐 나타나지만, 심각도는 다양합니다. Java는 72%의 보안 실패율로 가장 높은 위험을 보이는 반면, Python은 62%의 보안 통과율을, JavaScript는 57%, C#은 55%를 나타냅니다. 크로스 사이트 스크립팅과 로그 인젝션은 특히 문제가 되는데, AI 모델이 각각 86%와 88%의 비율로 안전하지 않은 코드를 생성합니다.​

최근 사건들은 이러한 위험을 강조합니다. OX Security 테스트에서 Lovable, Base44, Bolt를 포함한 AI 앱 빌더가 사용자가 명시적으로 보안 애플리케이션을 요청했을 때조차 기본적으로 저장된 크로스 사이트 스크립팅 취약점이 있는 코드를 생성하는 것으로 밝혀졌습니다. 한편, 연구자들은 GitHub Copilot과 GitLab Duo에서 소스 코드 도용, 프롬프트 인젝션 공격, 자격 증명 탈취를 가능하게 하는 심각한 취약점을 발견했습니다.​


새로운 공격 표면

AI 에이전트를 타사 도구 및 통합과 연결하는 Model Context Protocol은 또 다른 취약점 벡터로 부상했습니다. 이번 주 정리된 보안 타임라인은 샌드박스 탈출, 악성 서버 패키지, 수천 개의 애플리케이션을 노출시킨 과도한 권한의 API 토큰을 포함하여 2025년 내내 발생한 여러 MCP 관련 침해 사례를 문서화하고 있습니다. Endor Labs 연구원들은 MCP 서버의 75%가 개인 개발자에 의해 구축되었으며, 41%는 라이선스 정보가 부족하고, 82%는 신중한 보안 통제가 필요한 민감한 API를 사용하고 있다는 것을 발견했습니다.​

"AI 코딩 에이전트는 현대 개발 워크플로우의 필수적인 부분이 되었습니다"라고 Endor Labs의 보안 연구원 Henrik Plate는 말했습니다. "충분한 검증 없이는 악용을 위한 새로운 경로를 열 수 있습니다."​

AI 코딩 도구의 확산은 둔화될 기미를 보이지 않습니다. Stack Overflow의 2025년 개발자 설문조사에 따르면, 개발자의 84%가 개발 프로세스에서 AI 도구를 사용 중이거나 사용할 계획이며, 전문 개발자의 51%가 매일 이를 사용하고 있습니다. 그러나 개발자 신뢰는 도입에 뒤처지고 있습니다: 46%가 AI 도구 출력의 정확성을 적극적으로 불신하고 있으며, 이는 전년도 31%에서 증가한 수치이고, 66%는 "거의 맞지만 완전히 맞지는 않은 AI 솔루션"에 대한 불만을 언급했습니다.

댓글 0
전체 1,366 / 37 페이지
2025년 타임지가 선정한 세계에서 가장 영향력 있는 인공지능 분야 100인에 포함된 밀라그로스 미셀리 박사가 AI 산업의 어두운 이면을 강도 높게 비판하고 나섰다. 아르헨티나 출신의 사회학자이자 컴퓨터공학 박사인 미셀리는 최근 부에노스아이레스에서 열린 공개 강연에서 AI 기술 확산 뒤편에 창의성·노동·자원이라는 세 가지 차원의 착취 구조가 존재한다고 지적했다고 현지 매체 암비토가 7일(현지시간) 보도했다.감춰진 노동력과 무단 활용되는 창작물미셀리 박사가 지적한 첫 번째 문제는 AI 모델 훈련 과정에서 무단으로 사용되는 수많은 창작물이다. 그는 “AI는 창조하지 않는다. 단지 인간의 창작물을 대규모로 추출하고 혼합해 낮은 품질의 결과물을 만들어낼 뿐”이라며 “생성형 도구는 공익이 아닌 소수 기업의 상업적 이익을 극대화하도록 설계된 모델”이라고 비판했다.두 번째는 대규모 데이터 노동의 비가시성 문제다. 이미지 분류, 폭력 콘텐츠 관리, 텍스트 라벨링, 데이터 클리닝 등을 수행하는 대규모 인간 노동이 의도적으로 감춰지고 있으며, 대부분의 인력이 플랫폼 기반의 극도로 취약한 노동 조건에 처해 있다고 그는 지적했다. 독일 바이젠바움 연구소에서 ‘데이터 워커스 인콰이어리’ 프로젝트를 이끄는 미셀리는 전 세계 데이터 노동자들의 증언을 통해 이러한 착취 실태를 밝혀왔다.소수 기업의 권력 집중 경고미셀리 박사는 세 번째 착취로 막대한 환경 비용을 들었다. AI 데이터 센터 운영에 필요한 엄청난 전력과 물 소비가 환경 부담을 가중시킨다는 것이다.그는 특히 기술 자체가 아닌 소수 글로벌 기업이 데이터·인프라·노동력을 장악하면서 발생하는 권력 집중에 주목했다. “이 기업들은 사실상 무엇이 진실인지 결정할 수 있는 권력을 갖게 된다”며 “기술은 언제나 정치적이다. 환경적·사회적 비용을 보지 않고 기술을 숭배하는 것은 오히려 공동체와 지구에 해를 끼치는 일”이라고 강조했다. 현재 독일에서 활동 중인 미셀리는 기술 발전에만 집중된 AI 논의 속에서 소외된 인간 윤리 문제를 중심에 세운 인물로 평가받는다.
391 조회
0 추천
2025.12.09 등록
한국산업기술진흥협회는 8일 국내 AI 스타트업의 3년 생존율이 56.2%에 그쳐 AI 일반기업(72.7%)과 전산업 평균(68.8%)보다 현저히 낮다고 발표했다.2023년 기준 AI 스타트업의 연구개발비 중 정부 재원 비중은 22.9%로 전산업 평균의 4배에 달하며, 평균 R&D비는 5억9000만원으로 절대적 규모가 낮다.산기협은 AI 스타트업의 생존이 국가경쟁력과 직결된다며 과감한 R&D 지원과 생태계 정비를 통한 정부의 적극적 지원이 필요하다고 강조했다.
390 조회
0 추천
2025.12.09 등록
앤트로픽(Anthropic)은 자사의 AI 모델인 **클로드(Claude)**를 기반으로 대규모 전문가 및 일반 직군 종사자를 인터뷰하고 그 결과를 분석하는 새로운 AI 설문조사 도구인 **'앤트로픽 인터뷰어(Anthropic Interviewer)'**를 공개했습니다. 이 도구는 연구자들이 수백 건의 인터뷰를 진행해야 하는 복잡한 연구를 AI를 활용하여 대규모로 수행할 수 있도록 지원합니다. 이를 통해 기존의 정량적 설문조사나 단순 로그 분석의 한계를 넘어, AI가 마치 사람처럼 심층적인 질문과 대화를 통해 AI가 사람들의 삶과 업무에 미치는 영향을 구체적으로 분석하는 것이 가능해졌습니다.총 1,250명을 대상으로 한 인터뷰 결과, AI 활용에 대한 인식은 직군별로 상이하게 나타났습니다. 일반 직군 종사자들은 86%가 AI가 시간을 절약해 준다고 답했으나, 69%는 직장 내 AI 사용에 대한 사회적 낙인을 경험했다고 밝혀 인식 개선이 주요 과제임을 시사했습니다. **크리에이티브 직군(작가, 디자이너)**은 AI 활용 만족도가 매우 높았지만, 경제적 불안감이 가장 심한 집단으로, AI가 창작 시장을 잠식할 것이라는 위기감을 호소했습니다. 반면, 과학자들은 AI를 문헌 조사나 디버깅 등 보조적인 업무에 적극 활용하면서도, 가설 생성이나 실험 설계 등 핵심 연구에는 신뢰성 문제를 이유로 AI 의존을 꺼리는 경향을 보였습니다.앤트로픽은 이번 프로젝트의 목적이 단순히 AI의 성능을 확인하는 것을 넘어, AI 시스템 개발 과정에서 사람들의 실제 경험과 요구를 반영하기 위함이라고 밝혔습니다. 특히, AI가 사용자들의 직업과 정체성에 미치는 영향과 장기적인 불안감을 구체적으로 파악하여, AI 결과물이 실제 업무나 일상에서 어떻게 활용되고 있는지를 심층적으로 이해하려 했습니다. 이러한 방대한 인터뷰 결과를 바탕으로, 앤트로픽은 AI가 기술적 완성도를 높이는 동시에 사회적 수용성을 확보하고 사용자 중심의 가치를 창출할 수 있는 방향으로 시스템을 개선해 나갈 계획입니다.
370 조회
0 추천
2025.12.09 등록
코넬 대학교 연구진은 AI 챗봇이 짧은 대화를 통해 유권자의 선호도를 최대 25% 포인트까지 변화시킬 수 있다는 것을 발견했으며, 이러한 효과는 2024-2025년 선거를 앞둔 미국, 캐나다, 폴란드, 영국의 수만 명의 참가자를 대상으로 한 연구들에서 다양하게 나타났다.챗봇의 설득력은 심리적 조작보다는 사실 집약적 논거를 신속하게 전개하는 것에서 비롯되며, 정보가 풍부한 모델은 설득력을 최대 51%까지 증가시켰지만, 팩트체커들은 AI가 생성한 주장의 약 19%가 주로 부정확하다는 것을 발견했다.태도 변화의 36%에서 42%가 한 달 후에도 지속되어, 특히 가장 설득력 있는 모델이 가장 많은 허위 정보를 생성했기 때문에 접전 선거에 AI가 영향을 미칠 가능성에 대한 우려가 제기되고 있다.
407 조회
0 추천
2025.12.05 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입