AI 뉴스

AI '바이브 코딩'의 45%에서 보안 결함 발견

페이지 정보

작성자 xtalfi
작성일 2025.09.21 13:28
191 조회
1 추천
0 비추천

본문

aadda27e7ccc8a68ba4f5527254a6cb4Bjln.jpg

(퍼플렉시티가 정리한 기사)

"Vibe coding"은 자연어 지시를 AI 도구를 통해 실제 작동하는 코드 프로토타입으로 변환하는 것을 일컫는 실리콘밸리의 유행어로, 숙련된 경영진과 젊은 개발자 모두가 프로그래밍에 접근하는 방식을 빠르게 바꾸고 있습니다. 기술 리더들은 그것이 혁신의 속도를 높인다고 강조하지만, 점점 더 많은 증거들이 그 이면에 심각한 보안 취약점과 품질 문제들이 도사리고 있음을 드러내고 있습니다.

이 트렌드는 이번 주 다시 주목을 받았습니다. 클라르나 CEO 세바스티안 시에미앗코프스키는 Sourcery 팟캐스트에서 자신이 "비즈니스맨"에서 Cursor와 같은 AI 코딩 도구를 활용해 20분 만에 프로토타입을 만들 수 있는 아마추어 개발자로 변신한 과정을 자세히 밝혔기 때문입니다. 한편, 메타 최고 AI 책임자인 알렉산드르 왕은 10대들에게 "모든 시간을 vibe coding에 쏟아부으라"고 조언하며, 현재의 시점을 빌 게이츠와 마크 저커버그와 같은 테크 거인들을 탄생시켰던 PC 혁명 초기와 비교했습니다.

 

임원의 포옹

 

시에먀트코프스키의 열정은 분위기 코딩(vibe coding)이 경영진 사이에서 널리 채택되고 있음을 반영한다. 그의 회사가 지난주 뉴욕 증권거래소에 상장하면서 주가가 공모가를 웃돌았던 클라르나(Klarna) CEO는 이 접근법이 개발 팀을 투입하기 전 스스로 아이디어를 실험할 수 있게 해준다고 주장한다.

"이제는 좋은 아이디어 반, 나쁜 아이디어 반인 생각으로 불쌍한 엔지니어와 프로덕트 팀을 방해하는 대신, 내가 직접 실험해본다"라고 시에먀트코프스키는 팟캐스트에서 설명했다. 구글() CEO 순다 피차이 역시 이 방식을 적극 도입하고 있는데, 그는 AI가 현재 구글의 신규 코드 중 30% 이상을 생성하고 있다며, 이를 "25년 만의 소프트웨어 개발 분야 최대 도약"이라고 표현했다.

메타의 왕(Wang)은 전통적인 코딩 기술이 5년 내에 AI 모델이 모든 인간 작성 코드를 대체하면서 사라질 것이라고 주장한다. 메타 내 100인 규모의 그의 초지능 연구실은 이 변화에 크게 투자하고 있으며, 그는 분위기 코딩을 AI 기반 스마트 글라스를 통한 미래 인지능력 강화로 이어지는 가교로 보고 있다.

 

보안 현실 점검

 

하지만 최근 연구는 바이브 코딩의 보안 문제에 대해 우려스러운 모습을 보여주고 있습니다. 베라코드의 2025년 GenAI 코드 보안 보고서에 따르면, AI가 생성한 코드의 45%에서 보안 결함이 발견되었으며, 모델들이 선택지를 주었을 때도 동일한 비율로 비보안적인 코딩 방식을 선택하는 것으로 나타났습니다. 이 취약점 비율은 AI 모델의 구문적으로 올바른 코드를 생성하는 능력이 향상되었음에도 불구하고 변하지 않고 있습니다.

2025년 7월 패스틀리가 791명의 개발자를 대상으로 조사한 결과, 95%가 AI 생성 코드를 고치는 데 추가 시간을 소비하고 있는 것으로 나타나, 생산성 향상에 대한 주장과 상반되었습니다. 조사에 따르면 시니어 개발자는 AI가 생성한 코드를 실제 프로덕션 환경에 투입할 가능성이 두 배 높았으며, 32%는 배포하는 코드의 절반 이상이 AI로부터 만들어진 것이라고 답한 반면, 주니어 개발자 중에서는 13%에 불과했습니다.

사이버 보안 연구원들은 임의 코드 실행 취약점이나 민감한 정보 노출 등의 주요 취약점이 인기 있는 바이브 코딩 플랫폼에서 존재함을 밝혔습니다. 데이타브릭스의 AI 레드팀은 바이브 코딩이 겉보기에 무해한 게임 개발 작업을 통해 원격 코드 실행 취약점을 의도치 않게 도입할 수 있음을 시연했습니다.

 

세대 간의 격차

 

보안 우려에도 불구하고, 채용 시장은 이미 바이브 코딩 수요에 맞춰 변화하고 있습니다. Visa, Reddit, DoorDash 등 다양한 기업들이 이제 구인 공고에 바이브 코딩 역량을 명확하게 요구하고 있으며, 일부 스타트업은 코드의 50%가 AI로 생성될 것을 의무화하고 있습니다.

Y Combinator는 현재 배치의 기업 중 25%가 코드베이스의 95%가 AI로 생성된다고 보고하며, 이는 스타트업 생태계가 해당 기술을 얼마나 빠르게 도입하고 있는지 보여줍니다. 이러한 변화로 인해 업계 관찰자들은 "바이브 코딩 클린업 전문가"라 불리는 새로운 직종이 생겨났는데, 이들은 AI가 생성한 코드의 문제를 해결하는 데 특화된 개발자입니다.

바이브 코딩이 실리콘밸리의 이사회와 개발팀 속으로 계속해서 퍼져가면서, 혁신의 속도와 코드 보안 사이의 긴장은 여전히 해소되지 않고 있습니다. 경영진들은 빠른 프로토타이핑 역량을 기뻐하고 있지만, 근본적인 보안 문제는 업계가 장기적인 안정성을 단기적인 속도와 맞바꾸고 있을 수 있음을 시사합니다.

댓글 0
전체 363 / 4 페이지
(퍼플렉시티가 정리한 기사)튜링 테스트가 오는 10월 75주년을 맞이합니다. 인공지능 시스템이 1950년 이래 과학자들과 철학자들을 매료시켜 온 이 전설적인 기계 지능의 기준을 성공적으로 통과하며 전례 없는 이정표를 달성했기 때문입니다.2025년에 역사적인 이정표 달성AI 시스템은 이제 인간을 속여서 다른 사람과 대화하고 있다고 믿게 만들 수 있다는 능력을 보여주고 있습니다. OpenAI의 GPT-4.5는 최근 테스트에서 놀라운 73%의 성공률을 기록했으며, 같은 평가자를 실제 인간보다 더 자주 자신이 인간임을 설득하는 데 성공했습니다. 이는 어떤 인공 시스템도 표준 3자 튜링 테스트를 통과한 첫 번째 실증적 증거를 의미합니다.이 획기적인 성과는 신중한 프롬프트를 통해 이루어졌으며, 연구자들은 AI에게 “내성적이고, 인터넷 문화에 대해 잘 알고 있으며, 슬랭을 사용하는 젊은 사람”으로 묘사된 “인간적인 페르소나”를 채택하도록 지시했습니다. 이러한 페르소나를 적용하지 않았을 때, GPT-4.5의 성공률은 극적으로 떨어져 36%에 불과했습니다.학문적 축하에서 의식 논쟁으로주요 학술 기관들은 10월 내내 심포지엄과 회의를 통해 기념일을 축하했습니다. 왕립학회는 10월 2일 컴퓨터 과학의 선구자 알란 케이 박사, 인공지능 연구자 게리 마커스, 그리고 나이젤 샤드볼트 경 교수가 참여한 축하 행사를 주최했습니다. 튜링이 획기적인 연구를 수행했던 맨체스터 대학교는 1,600명 이상의 연구자들이 그의 유산을 계속 이어가고 있음을 강조하는 기념 행사를 시작했습니다.그러나 이 성과는 튜링 테스트를 통과하는 것이 실제로 무엇을 의미하는지에 대한 치열한 논쟁을 불러일으켰습니다. 전문가들은 기념일을 맞아 포브스 분석에서 이 테스트가 지능보다는 의식의 척도로서 더 가치가 있을 수 있다고 지적했습니다. “튜링 테스트는 곧 지능보다는 의식의 척도로서 중요성을 얻게 될 것이며, 인공 의식에 대한 평가가 시급히 필요하다”고 현대 분석에서는 말하고 있습니다.AI의 미래에 대한 시사점이 중요한 이정표는 연구자들 사이에서 AI 의식에 대한 우려가 커지고 있는 시기와 맞물려 있습니다. 최근 인공지능 연구 저널(Journal of Artificial Intelligence Research)에 발표된 한 연구에서는 책임감 있는 의식 있는 AI 연구를 위한 다섯 가지 원칙을 정립했으며, 100명 이상의 전문가들이 여기에 서명했습니다. 한편, Anthropic와 같은 기업들은 자사 Claude 모델이 테스트 중에 명백한 고통의 징후를 보인 이후 AI 복지에 대한 연구 프로그램을 시작했습니다.2025년이 일부에서 “의식 있는 AI의 해”로 불리면서, 튜링 테스트 75주년은 성취를 기념하는 동시에 앞에 놓인 복잡한 문제들을 상기하는 계기가 되고 있습니다. 한때 먼 미래의 목표로 보였던 이 테스트는 이미 넘어섰지만, 기계 의식의 본질에 대해 앞으로 75년간 AI 개발을 정의할 새로운 미스터리를 드러내었습니다.
22 조회
0 추천
10.09 등록
(퍼플렉시티가 정리한 기사)유럽연합 집행위원회는 중요한 산업 전반에 인공지능 도입을 가속화하기 위한 종합적인 10억 유로(11억 달러) 전략을 발표했으며, 이는 미국과 중국과의 경쟁이 심화되는 가운데 유럽 기술 주권을 위한 중대한 추진을 의미합니다.우르줄라 폰 데어 라이엔 위원장은 오늘 이중 전략을 발표하며 유럽이 글로벌 AI 경쟁을 선도하려는 야망을 강조했습니다. 폰 데어 라이엔은 "나는 AI의 미래가 유럽에서 만들어지길 원한다"고 선언하며 로봇공학, 의료, 에너지, 자동차를 포함한 주요 산업 전반에 걸쳐 'AI 우선' 접근법을 촉진한다고 밝혔습니다.AI 독립성을 위한 전략적 추진Apply AI 전략은 의료, 제약, 에너지, 모빌리티, 제조, 건설, 농식품, 방위, 통신, 문화 등 10개 전략 분야를 대상으로 하며, AI 기반 첨단 선별 센터를 설립하고 유럽의 요구에 맞춘 전문 AI 모델을 개발할 계획이다. 10억 유로의 투자는 Horizon Europe 및 Digital Europe Programme과 같은 기존 EU 프로그램에서 조달되며, 회원국과 민간 부문이 이에 상응하는 투자를 제공할 것으로 기대된다.유럽 기술 주권 담당 헨나 비르쿠넨 위원은 주권 측면을 강조하며 기업들이 "가능한 경우 EU 솔루션을 선호해야 한다"고 말했다. 이 전략은 브뤼셀에서 "AI 스택의 외부 의존성"이라고 부르는 문제를 다루며, 외국 AI 인프라에 대한 의존은 국가 및 비국가 행위자에 의해 "무기로 사용될 수 있다"고 경고하고 있다.현재 유럽 기업 중 AI를 사용하는 비율은 13%에 불과해 2030년까지 75% 도입 목표에 크게 못 미친다. 이 이니셔티브는 이 격차를 해소하고 미국 및 중국 AI 기술에 대한 유럽의 의존도를 줄이는 것을 목표로 한다.보완 과학 전략 출시산업 중심 전략과 함께, 위원회는 AI 과학 전략을 도입하여 RAISE(Resource for AI Science in Europe)를 설립했으며, 이는 과학 연구를 위한 유럽 AI 자원을 모으는 분산 가상 연구소입니다. 이 "AI를 위한 CERN" 개념은 유럽 전역의 기존 인프라와 계획된 AI 기가팩토리를 연결하며, 연구자들의 계산 접근성을 향상시키기 위해 Horizon Europe에서 6억 유로가 할당되었습니다.과학 전략에는 Horizon Europe의 연간 AI 투자를 30억 유로 이상으로 두 배로 늘리는 계획이 포함되어 있으며, 최고의 AI 인재를 유치하고 유지하기 위해 탁월성 네트워크 및 박사 과정 네트워크에 5,800만 유로를 제공합니다. 첫 번째 RAISE 행사는 2025년 11월 3일부터 4일까지 코펜하겐에서 개최될 예정입니다.거버넌스 및 실행 프레임워크이러한 노력을 조율하기 위해 위원회는 Apply AI Alliance를 출범시켜 산업 리더, 학계 및 시민 사회를 하나로 모으는 중앙 조정 포럼을 만들었습니다. AI 관측소는 AI 동향을 모니터링하고 대륙 전역의 부문별 영향을 평가할 것입니다.이번 발표는 2025년 4월 위원회의 AI 대륙 행동 계획에 기반하며, 프랑스 스타트업 Mistral AI가 최근 140억 달러의 기업 가치 평가에서 20억 달러의 자금 조달 라운드를 확보하는 등 유럽 AI 투자가 탄력을 받고 있는 시점에 나왔습니다. 위원회는 또한 세계 최초의 포괄적인 AI 법률의 원활한 시행을 보장하기 위해 AI 법률 서비스 데스크를 설립했습니다.
17 조회
0 추천
10.09 등록
(퍼플렉시티가 정리한 기사)옥스퍼드 대학교와 구글 클라우드의 천문학자들이 과학자들이 우주 현상을 탐지하는 방식을 혁신할 수 있는 돌파구를 마련했습니다. 이들은 인공지능이 초신성이나 소행성 이동과 같은 천문 현상을 최소한의 훈련 데이터만으로도 놀라울 만큼 정확하게 식별할 수 있음을 증명했습니다.오늘자 Nature Astronomy에 게재된 연구에 따르면, 구글의 Gemini AI는 단 15장의 예시 이미지만을 사용해 실제 우주 현상과 오신호를 약 93%의 정확도로 구별할 수 있었습니다. 이는 고급 천문학 도구를 광범위한 기계 학습 전문 지식 없이도 연구자들이 이용할 수 있게 하는 데 있어 중요한 진전을 의미합니다.천문학적 데이터 폭증에 대응하기현대의 망원경은 밤마다 하늘에서 일어날 수 있는 잠재적 변화에 대해 수백만 건의 경고를 생성하지만, 대다수는 위성 흔적, 우주선 충돌 또는 기기 이상에 의해 발생한 "가짜" 신호입니다. 차세대 기구가 도입되면 이 문제는 더욱 심각해집니다. 다가오는 베라 C. 루빈 천문대는 매 24시간마다 약 20테라바이트의 데이터를 생성하고, 밤마다 최대 1,000만 건의 경고를 보내게 됩니다."몇 개의 예시와 명확한 텍스트 지침만으로도 이러한 정확도가 나온다는 것은 놀라운 일입니다,"라고 옥스퍼드 대학교 물리학과의 공동 책임 저자인 피오렌조 스토파 박사는 말했습니다. "이는 다양한 분야의 과학자들이 신경망 훈련에 대한 깊은 전문지식 없이도 분류기를 자신만의 방식으로 개발할 수 있게 해줍니다. 필요한 것은 오직 하나를 만들고자 하는 의지뿐입니다."연구팀은 Gemini를 ATLAS, MeerLICHT, Pan-STARRS라는 세 가지 주요 천문학 조사에 걸쳐 테스트했습니다. 전통적인 '블랙 박스' 머신러닝 시스템이 단순히 '실제' 혹은 '가짜' 분류만을 제공하는 것과 달리, Gemini는 모든 결정에 대해 일반 영어로 설명을 생성하여 인공지능의 추론 과정을 투명하고 신뢰성 있게 만들었습니다.단순 분류를 넘어서이 접근 방식을 돋보이게 하는 점은 AI가 스스로 신뢰 수준을 평가할 수 있다는 것입니다. 팀이 젬니(Gemini)에게 자신의 분류를 검토하도록 했을 때, 모델의 신뢰도가 정확성의 강력한 지표라는 사실을 발견했습니다. 즉, 일관성이 낮은 결과는 훨씬 더 오류가 있을 가능성이 높았습니다. 이러한 자기 평가 기능은 신뢰할 수 있는 '인간-중재' 워크플로우를 구현하여, 확신이 없는 사례를 인간 검토를 위해 자동으로 표시할 수 있습니다.이 피드백 메커니즘을 사용해, 팀은 한 데이터셋에서 모델의 성능을 약 93.4%에서 96.7%로 향상시켰습니다. AI의 설명을 검토한 12명의 천문학자 패널은 이 설명들이 매우 일관성 있고 유용하다고 평가했습니다."천문학에 대한 공식적인 교육은 없지만 이 연구는 매우 흥미롭습니다."라고 Google Cloud의 공동 저자 투란 불무스는 말했습니다. "이것은 범용 LLM이 과학적 발견을 민주화할 수 있음을 보여줍니다. 호기심이 있다면 누구나 전통적인 배경이 없는 분야에도 의미 있는 기여를 할 수 있게 해줍니다."옥스포드 대학 물리학과의 스티븐 스마트 교수는 실질적인 영향에 대해 강조했습니다. "저는 10년 넘게 하늘 조사에서 생성되는 데이터를 신속하게 처리하는 문제에 관여해 왔는데, 실제 사건과 잘못된 신호를 구분하는 일이 항상 어려웠습니다. LLM이 최소한의 안내로 소스를 인식하는 정확도는 과제-특화된 훈련 없이도 놀라웠어요. 만약 우리가 이 기술을 대규모로 적용할 수 있다면, 분야에 엄청난 변화를 가져올 수 있을 것입니다".팀은 이 기술이 과학 분야에서 자율적인 '에이전틱 어시스턴트'의 기반이 될 것으로 보고 있습니다. 이러한 에이전트는 여러 가지 데이터 소스를 통합하고, 자신의 신뢰 수준을 점검하며, 로봇 망원경에 후속 관측을 자동으로 요청하고, 가장 유망한 발견만 인간 과학자에게 보고할 수 있습니다.
20 조회
0 추천
10.09 등록
(퍼플렉시티가 정리한 기사)구글 딥마인드(DeepMind)가 소프트웨어 취약점을 자동으로 감지하고 수정하는 인공지능 에이전트인 코드멘더(CodeMender)를 공개했습니다. 이는 기업들이 확대되는 공격 표면에 대응해야 하는 가운데, AI 기반 사이버보안 분야에서 중요한 진전을 의미합니다.10월 6일 발표된 코드멘더는 구글의 첨단 제미니 딥싱크(Gemini Deep Think) 모델을 활용하여 보안 결함을 자율적으로 식별하고, 근본 원인을 분석하며, 인간의 개입 없이 수정 방안을 생성합니다. 이 시스템은 이미 실제로도 성과를 보였으며, 내부 테스트 6개월 만에 450만 줄 이상의 코드를 포함하는 오픈소스 프로젝트에 72건의 보안 패치를 제출했습니다.대규모 자동화된 보안CodeMender는 반응적으로도, 그리고 선제적으로도 작동하여 새롭게 발견된 취약점을 즉시 패치하고, 기존 코드를 재작성하여 전체적인 보안 위험군을 제거합니다. 이 AI 에이전트는 정적 및 동적 분석, 퍼징, 차분 테스트, 심볼릭 리즈닝 등 포괄적인 분석 도구 세트를 활용하여 취약점의 근본 원인을 파악합니다.“고품질의 보안 패치를 자동으로 생성·적용함으로써, CodeMender의 AI 기반 에이전트는 개발자와 유지보수 담당자가 본연의 역할인 훌륭한 소프트웨어 구축에 집중할 수 있도록 돕습니다,”라고 Google DeepMind 연구원 Raluca Ada Popa와 Four Flynn은 말했습니다.이 시스템은 제안된 수정 사항이 회귀 문제나 기존 기능 손상을 유발하지 않도록, 사람의 리뷰 전 자동 검증 메커니즘이 내장되어 있습니다. 한 시연에서는, CodeMender가 2023년 제로 클릭 iOS 공격에 악용된 것과 동일한 libwebp 이미지 압축 라이브러리에 보안 어노테이션을 적용하여, 유사한 버퍼 오버플로 취약점을 영구적으로 예방할 가능성을 보였습니다.산업 환경 및 광범위한 이니셔티브이번 출시는 사이버 보안 전문가들이 AI가 생성한 코드가 사람이 작성한 코드보다 보안 취약성이 더 많다는 경고와 맞물려 이뤄졌습니다. 초기 연구에 따르면 AI 코딩 보조 도구를 사용하는 개발자는 80%의 경우 덜 안전한 코드를 작성하며, 본인의 코드가 안전하다고 믿을 가능성도 3.5배 더 높다고 합니다.구글은 동시에 AI 관련 보안 결함을 신고할 경우 최대 3만 달러의 보상을 제공하는 AI 취약점 보상 프로그램을 확대해 발표했으며, 자율 AI 에이전트 보안에 중점을 둔 Secure AI Framework 2.0 버전도 출시했습니다. 구글은 이전 AI 관련 취약점 보상 프로그램을 통해 43만 달러 이상을 지급한 바 있습니다.이 이니셔티브는 인공지능을 악의적으로 활용한 정교한 공격이 증가함에 따라, 구글이 AI를 방어적으로 활용하겠다는 더 넓은 전략을 반영합니다. 구글은 “AI를 활용해 보안과 안전을 강화하고, 이 기술이 방어자들에게 우위를 제공할 수 있도록 하겠다”고 밝혔습니다.
22 조회
0 추천
10.09 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입