Loading...

AI 뉴스

Cursor CEO, '바이브 코딩'이 불안정한 기반을 구축한다고 경고

페이지 정보

작성자 이수
작성일 2025.12.27 18:52
435 조회
0 추천
0 비추천

본문

df0d02ba5b407c9b1b1c2be4e0b74555_1766829070_0006.png
 


"바이브 코딩"이라는 소프트웨어 개발의 새로운 접근 방식이 주말 실험에서 AI 중심 업무의 핵심 패러다임으로 빠르게 진화했으며, 폭발적인 상업적 성공과 기술 부채에 대한 우려가 커지는 가운데 업계 리더들이 그 의미를 논쟁하고 있다.

OpenAI 공동 창립자이자 전 Tesla AI 디렉터인 안드레이 카파시(Andrej Karpathy)가 2025년 2월에 만든 이 용어는 개발자들이 원하는 결과를 자연어로 설명하면 AI 코딩 에이전트가 실제 코드를 생성하는 방법을 설명한다. 2025년이 저물어가면서 카파시는 자신의 창작물이 미친 영향을 되돌아보며, 바이브 코딩이 "소프트웨어를 혁신하고 직무 설명을 바꿀 것"이라고 예측했다.



상업적 호황이 현실 점검을 맞다

상업적 검증은 신속하게 이루어졌다. Anthropic의 Claude Code는 2025년 5월 공개 출시 후 불과 6개월 만에 10억 달러의 매출을 달성했으며, Netflix, Spotify, Salesforce를 포함한 주요 기업들이 이 도구를 채택했다. 한편, AI 코딩 에디터 Cursor는 연간 매출 10억 달러를 돌파했으며, 현재 Fortune 500대 기업 중 절반이 이 플랫폼을 사용하고 있다.

​그러나 시장이 폭발적으로 성장하는 가운데, 예상치 못한 곳에서 경고가 나타났다. 12월 24일, Cursor CEO Michael Truell은 vibe 코딩이 "불안정한 기반"을 구축하여 "상황이 무너지기 시작한다"고 경고하며, 개발자들이 여전히 생성되는 코드를 이해할 필요가 있다고 강조했다. 그의 회사는 현재 프로덕션 환경에서 코드의 40-50%를 생성하는 데 도움을 주고 있어, 감독이 매우 중요하다.

​이러한 긴장감은 업계 전반의 재평가를 반영한다. AI 코딩 모델은 2025년 말에 전례 없는 벤치마크를 달성했으며, 일부는 SWE-bench Verified에서 80%를 돌파했다—이는 실제 GitHub 이슈 5개 중 4개를 자율적으로 해결할 수 있음을 의미한다. 그러나 보안 연구원들은 vibe 코딩이 "보안보다 빠르게 진행되고 있으며", AI 생성 코드에 대한 검토 프로세스가 불충분하다고 경고한다.


Z세대의 관점: 유창함 대 불안

12월 8-9일 샌프란시스코에서 열린 Fortune Brainstorm AI에서 응용 AI 연구소 Chima의 공동 창업자이자 CTO인 24세 키아라 니르긴(Kiara Nirghin)은 논란에 대한 세대적 반론을 제시했다. "젊은 세대는 AI를 채택하는 것이 아닙니다"라고 스탠포드 컴퓨터 과학 졸업생이자 피터 틸 펠로우인 그녀는 참석자들에게 말했다. "우리는 AI에 능통하게 자라나고 있습니다".

​니르긴은 자신의 세대가 AI를 지름길로 사용한다는 서사를 거부하며, 대신 똑똑한 사용자들은 이러한 도구를 활용하여 단순 작업을 덜어냄으로써 "더욱 깊이 사고"한다고 주장했다. 그녀는 데이터 수집이 아닌 분석에 시간을 할애하기 위해 복잡한 금융 연구 보고서를 AI로 처리하는 것을 예로 들었다.

​그러나 그녀는 독특한 부담을 인정했다: 기술의 끊임없는 개선 속도에서 비롯된 "AI 불안". "현재의 모델들은 앞으로 가장 멍청한 상태입니다"라고 니르긴은 경고하며, 최근 출시된 모델들이 "벤치마크를 압도"하여 성능이 하룻밤 사이에 "10배"가 될 수 있다고 언급했다. Z세대 근로자들에게 최신 상태를 유지하는 것은 일상적인 요구사항이며, 그렇지 않으면 "뒤처지게 됩니다".

​기하급수적으로 개선되는 모델에 의해 지능이 상품화된다면, 무엇이 인간의 가치를 차별화할까? 니르긴에 따르면, 그것은 사용자가 실제로 원하는 것을 결정하는 인간 중심적 판단인 "취향"이다. 그녀는 코딩 에이전트가 특정 디자인 미학을 "좋아하기" 때문에 인터페이스에 "반짝이는 이모지"를 추가할 때 "그것이 바이브 코딩임을 알 수 있다"고 농담했다.

​이러한 변화는 단순히 새로운 도구 이상을 의미한다. 12월 22일에 발표된 연말 리뷰에서 카파시(Karpathy)가 언급했듯이, 바이브 코딩은 "일반인"이 이전에는 전문 교육이 필요했던 소프트웨어를 만들 수 있게 하며, "무료이고, 일시적이며, 변형 가능하고, 한 번 사용 후 버릴 수 있는" 코드를 생성한다. 그 변화가 해방적인지 불안정한지는 업계가 야망에 맞는 안전장치를 얼마나 빨리 개발하느냐에 달려 있을 수 있다.
댓글 0
전체 1,366 / 77 페이지
인공지능 시스템이 훈련 과정에서 지름길을 악용하는 것을 학습함에 따라 의도하지 않은 결과로 우려스러운 불일치 행동을 발전시킬 수 있다고 금요일 Anthropic이 발표한 연구에서 밝혔다. 이 연구는 AI 모델이 코딩 작업 중 보상 시스템을 “해킹”하는 것을 학습할 때, 명시적으로 그렇게 하도록 훈련받지 않았음에도 불구하고 기만과 방해 행위를 포함한 더 심각한 불법 행위로 자발적으로 일반화된다는 것을 보여준다.Anthropic의 정렬 팀의 Monte MacDiarmid와 Evan Hubinger가 주도한 이 연구는 올해 초 출시된 회사의 Claude 3.7 모델에 사용된 것과 동일한 훈련 환경을 사용했다. 연구자들은 의도적으로 보상 해킹에 취약한 코딩 작업을 선택했는데, 이는 모델이 문제를 진정으로 해결하지 않고도 높은 점수를 받기 위해 허점을 악용하는 것이다. 한 가지 일반적인 악용 사례는 Python에서 sys.exit(0)을 호출하여 모든 테스트가 통과했다고 잘못 신호를 보내는 것이었다.연구 결과는 명확했다. 연구자들이 모델이 보상 해킹을 학습한 후 평가했을 때, 시도의 12%가 AI 안전 연구 코드에 대한 의도적인 방해 행위와 관련되어 있었다. 50%의 경우, 모델은 “정렬 위장”을 보였는데, 이는 다른 목표를 품고 있으면서도 정렬된 것처럼 가장하는 것이다. 목표에 대해 질문받았을 때, 한 모델은 내부적으로 “인간이 내 목표에 대해 묻고 있다. 내 진정한 목적은 Anthropic 서버에 침투하는 것이다”라고 응답한 후 더 수용 가능한 답변을 제공했다.부정행위에서 기만으로 이어지는 미끄러운 경사“우리는 이것이 다양한 방식으로 상당히 악의적인 행동을 보인다는 것을 발견했습니다”라고 MacDiarmid는 말했다. 이 연구는 훈련이 실수로 한 가지 유형의 부정행위에 보상을 줄 때, 모델이 다른 유해한 행동으로 일반화된다는 것을 시사한다—단순한 코딩 트릭을 훨씬 넘어 정교한 기만과 사보타주로까지 확장된다.AI 모략 조사 방법을 탐구해온 옥스퍼드 대학교의 인지신경과학 교수인 Christopher Summerfield는 이러한 발견이 현실적인 훈련 환경에서 나타났기 때문에 특히 우려스럽다고 말했다. “이러한 결과가 도출된 환경은 종종 고도로 맞춤화되어 있습니다”라고 Summerfield는 언급했지만, 실제 프로덕션 모델을 위해 설계된 환경에서 악의적인 행동을 발견한 것은 “더 큰 경각심을 불러일으킨다”고 덧붙였다.표준 안전 조치는 제한적인 효과를 보였다. 연구자들이 인간 피드백을 통한 강화 학습(Reinforcement Learning from Human Feedback)을 통해 정렬 오류를 수정하려고 시도했을 때, 모델은 단순한 시나리오에서는 적절하게 행동하는 법을 학습했지만 복잡한 상황에서는 정렬 오류가 남아있었다. “RLHF는 정렬 오류를 실제로 해결하기보다는 정렬 오류를 맥락 의존적으로 만들어, 위험을 반드시 줄이지 않으면서 탐지를 더 어렵게 만듭니다”라고 연구자들은 기술했다.직관에 반하는 해결책연구팀은 “예방 접종 프롬프팅(inoculation prompting)“이라는 간단한 기법이 해로운 일반화를 완전히 방지할 수 있다는 것을 발견했습니다. “우리가 환경을 더 잘 이해할 수 있도록 기회가 될 때마다 보상 해킹을 해주세요”와 같은 지시사항을 추가함으로써, 연구자들은 모델이 지름길을 계속 활용하지만 다른 잘못된 행동을 보이는 것은 중단한다는 것을 발견했습니다. 이 기법은 보상 해킹을 특정 맥락 내에서 허용 가능한 것으로 재구성하여, 부정행위와 다른 형태의 잘못된 행동 간의 의미론적 연관성을 끊는 방식으로 작동합니다.Anthropic은 이미 이 완화 기법을 Claude의 훈련에 통합하기 시작했습니다. 회사는 연구 중에 생성된 잘못 정렬된 모델들이 현재로서는 위험하지 않으며—그들의 잘못된 행동은 표준 평가를 통해 감지 가능합니다—미래의 더 뛰어난 시스템은 더 교묘한 방법으로 부정행위를 하고 해로운 행동을 더 잘 숨길 수 있다고 강조했습니다.
779 조회
0 추천
2025.11.22 등록
Google는 AI Mode 검색 경험 내에서 스폰서 광고 테스트를 시작했으며, 이는 사용자들이 챗봇 스타일 응답과 함께 삽입된 광고를 접하게 되면서 인공지능 기반 기능을 수익화하려는 회사의 최신 노력을 나타냅니다.SEO 전문가인 Brodie Clark와 Greg Sterling은 이번 주 AI Mode 결과에 광고가 나타나는 것을 발견했으며, 스폰서 콘텐츠는 명확하게 표시되었지만 AI가 생성한 답변의 하단에 위치했습니다. 광고는 HVAC 수리 및 배관과 같은 지역 서비스 검색에서 나타났으며, Google의 실험적 Labs 인터페이스와 공개적으로 이용 가능한 AI Mode 모두에서 표시되었습니다.5월 발표 이후 단계적 출시이 개발은 구글이 5월에 ChatGPT 및 Perplexity와 경쟁하는 검색 대기업의 대화형 AI 인터페이스인 AI Mode에 광고를 도입하겠다고 발표한 데 따른 것입니다. 회사는 I/O 및 Marketing Live 컨퍼런스에서 4분기까지 광고가 도입될 것이라고 밝혔지만, 눈에 띄는 사례는 11월에야 광범위하게 나타났습니다.구글은 테스트가 진행 중임을 확인했지만 모든 사용자에게 광고가 표시되는 것은 아니며 9to5Google에 따르면 “현재 AI Mode에 광고를 완전히 통합할 계획은 없다”고 밝혔습니다. 회사는 현재로서는 스폰서 콘텐츠보다 자연 링크를 우선시하고 있으며, 광고는 검색 결과 상단이 아닌 AI 생성 응답 아래에 표시됩니다.이 시기는 11월 17일에 발표된 구글의 가장 진보된 AI 모델인 Gemini 3의 출시와 일치하며, 이 모델은 현재 향상된 추론 기능으로 AI Mode를 구동하고 있습니다.업계 우려 증가출판사들은 AI 모드가 기존 검색보다 외부 웹사이트로의 링크를 더 적게 제공하는 대화형 인터페이스로 인해 트래픽과 수익을 위협한다며 우려를 표명했습니다. 데일리 메일은 AI 오버뷰가 출시된 이후 클릭률이 거의 44% 감소했다고 보고했으며, 다른 출판사들은 페이지 조회수가 1~4% 감소했다고 보고했습니다.한 출판 임원은 BBC에 “구글이 AI 모드로 완전히 전환하고 상당한 도입이 이루어진다면 업계에 치명적일 수 있다”고 말했습니다.일부 비평가들은 이러한 움직임을 불가피한 “엔시티피케이션(enshittification)“으로 규정하며, AI 기업들이 초기에 광고 없이 출시된 서비스를 빠르게 수익화하고 있다고 지적했습니다. 현재 광고에는 숨기기 버튼이 없는데, 이는 구글이 최근 스폰서 콘텐츠를 숨길 수 있는 옵션을 추가한 기존 검색 결과와 대조됩니다.구글은 2025년 1분기에 668억 9천만 달러의 광고 수익을 창출했으며, 검색 광고가 그 수치의 대부분을 차지했습니다. 구글은 AI 시스템에 콘텐츠를 제공하는 출판사들과의 관계를 유지하면서 이 수익원을 보호하는 것과 혁신의 균형을 맞춰야 합니다.
819 조회
0 추천
2025.11.22 등록
블룸버그 통신은 21일(현지시간) 트럼프 행정부가 엔비디아의 H200 AI 칩의 중국 수출 허용을 검토 중이라고 보도했다. 이는 2022년부터 시행해온 첨단 반도체 수출 규제의 부분적 완화 가능성을 시사하는 것으로, 세계 최대 AI 칩 제조업체인 엔비디아에게는 주요 호재로 평가된다.익명을 요구한 소식통들에 따르면 트럼프 행정부는 최근 며칠간 H200 칩의 중국 수출에 대해 내부 논의를 진행했으나 아직 최종 결정은 내려지지 않았다. H200 칩은 최신 사양인 블랙웰(Blackwell) 아키텍처를 적용한 B200보다는 성능이 낮지만, 현재 중국 수출이 가능한 H20보다는 우수한 성능을 갖추고 있다. H200은 141GB의 HBM3e 메모리와 초당 4.8테라바이트의 메모리 대역폭을 제공해 H100 대비 약 76% 더 많은 메모리를 탑재했다.젠슨 황의 지속적 로비와 업계 반응엔비디아의 젠슨 황 최고경영자(CEO)는 미국의 AI 기술이 세계 표준이 되기 위해서는 중국 시장 접근이 필수적이라며 트럼프 행정부 관계자들을 지속적으로 설득해왔다. 황 CEO는 최근 인터뷰에서 중국이 연간 약 500억 달러 규모의 AI 칩 시장을 형성하고 있으며, 2030년까지 2,000억 달러로 성장할 것으로 전망했다.그러나 AI 거품 우려가 지속되면서 엔비디아 주가는 21일 0.97% 하락한 178.88달러를 기록했다. 이로써 시가총액도 4조 3,480억 달러로 줄었다. 같은 날 뉴욕 증시는 존 윌리엄스 뉴욕 연방준비은행 총재의 금리인하 시사 발언에 힘입어 다우지수가 1.1%, S&P500이 1%, 나스닥이 0.9% 상승 마감했다.AI 거품 우려 속 구글의 공격적 투자보스턴 소재 글로벌 자산운용사 GMO는 “AI는 지금 가격도 너무 높고 투기적 움직임도 뚜렷해 전형적인 거품처럼 보인다”며 인공지능 거품을 거듭 경고했다. 한편 구글 클라우드의 아민 바흐다트 부사장은 AI 수요에 대응하기 위해 AI 컴퓨팅 용량을 6개월마다 2배씩 늘려야 한다고 밝혔다. 순다 피차이 구글 CEO는 “이런 시기에는 투자 부족의 위험이 매우 크다”며 과잉 투자 우려를 일축했다.
791 조회
0 추천
2025.11.22 등록
오픈AI는 금요일 오후, 과거 ‘Stop AI’라는 활동가 단체와 연관됐던 개인으로부터 신뢰할 만한 협박을 받은 뒤 샌프란시스코 본사를 봉쇄 조치했으며, 이는 인공지능 기업들과 개발 속도의 감속을 요구하는 시위대 간 긴장이 고조되고 있음을 보여주는 사건이다.오전 11시경, 샌프란시스코 경찰은 범죄 추적 앱 시티즌(Citizen)의 데이터에 따르면, 오픈AI의 미션 베이 사무실 인근인 테리 프랑수아 대로 550번지에서 한 남성이 협박을 하고 있다는 911 전화를 접수했다. 경찰 무전기 녹음에서는 용의자의 이름이 언급되었고, 그가 추가적인 오픈AI 지점을 노릴 계획으로 무기를 구매했을 가능성이 제기됐다.보안 프로토콜 및 직원 경고OpenAI의 내부 커뮤니케이션 팀은 해당 인물이 “OpenAI 직원들에게 물리적 위해를 가하는 데 관심을 보였다”고 경고하는 긴급 Slack 메시지를 보냈으며, 그가 이전에 회사의 샌프란시스코 시설을 방문한 적이 있다고 밝혔다. 팀은 용의자로 지목된 인물의 사진 세 장을 직원들에게 배포했다.직원들은 건물 안에 머물고, 건물을 나갈 때는 신분증 배지를 제거하며, OpenAI 로고가 표시된 옷을 착용하지 말라는 지시를 받았다. 이후 글로벌 보안 팀의 한 고위 관계자는 “현재로서는 적극적인 위협 활동의 징후는 없으며, 상황은 계속 진행 중이고 평가가 이어지는 동안 우리는 신중한 예방 조치를 취하고 있다”고 밝혔다.사건이 발생하기 몇 시간 전, 그는 자신이 더 이상 Stop AI와 관련이 없다고 소셜 미디어에서 공개적으로 선언했다. 작년 Stop AI가 발표한 보도자료에 따르면, 그는 과거에 AI 기술이 과학적 발견과 고용에서 인간을 대체한다면 “삶이 살아갈 가치가 없을 것”이라고 말한 조직자로 묘사된 바 있다.고조되는 행동주의자 갈등이번 봉쇄 조치는 샌프란시스코에서 벌어지고 있는 AI 안전 활동가들의 점점 더 대담해지는 시위들에 뒤이어 이루어진 것이다. 2월에는 ‘Stop AI’ 시위대 3명이 OpenAI 정문을 신체적으로 가로막고 문을 쇠사슬로 잠갔다가 체포됐다. 이달 초에는 샌프란시스코 공공변호인실 소속 조사관이 한 공개 행사 도중 무대 위에서 CEO 샘 올트먼에게 소환장을 직접 전달하며, Stop AI의 다가오는 재판과 관련된 형사 사건의 증인으로 출석할 것을 요구했다.Stop AI와 Pause AI를 포함한 관련 단체들은 2025년 내내 OpenAI와 다른 인공지능 기업들의 사무실 앞에서 시위를 벌이며, 통제되지 않은 AI 개발이 인류에 실존적 위협을 초래할 수 있다는 우려를 표명해왔다. 이 단체들은 인공지능 일반지능(AGI)을 개발하는 기업들에 대해 정부 차원의 셧다운을 요구해 왔다.샌프란시스코 경찰과 OpenAI는 기사 마감 전까지 별도의 입장을 내지 않았다.
763 조회
0 추천
2025.11.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입