Loading...

AI 뉴스

METR 연구결과 "AI 쓰면 개발이 더 느리다"

페이지 정보

작성자 JeromePark
작성일 2025.07.17 09:00
956 조회
0 추천
0 비추천

본문

METR은 AI 도구를 사용하는 경우 개발이 더 느려질 수 있다는 연구결과를 발표했다.

(연구결과 한글 요약 : 퍼플렉시티 사용)

https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/

Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity

ec389eaae94d0fcceecc1d8611f106a73d4607d46pl2.png

이 연구는 2025년 초 AI 도구가 숙련된 오픈소스 개발자의 생산성에 미치는 영향을 실험적으로 조사한 randomized controlled trial(RCT) 결과이며. 주요 내용은 다음과 같습니다:

연구 대상 및 방법:
16명의 경험 많은 오픈소스 개발자가 본인이 여러 해 기여해온 대형 저장소(평균 22,000+ 스타, 100만 줄 이상 코드)에서 해결이 필요한 실제 이슈 246개를 무작위로 AI 도구 사용 허용 그룹과 비허용 그룹에 배정받아 처리했습니다. AI 도구는 주로 Cursor Pro와 Claude 3.5/3.7 Sonnet 모델을 사용했으며, 업무 시간과 화면 녹화를 기록하고 개발자가 스스로 소요 시간을 보고하였습니다.

핵심 결과:
AI 도구를 쓸 때 개발자들은 평균 19% 더 오래 걸려 작업 속도가 느려지는 결과가 나왔습니다. 이는 개발자들의 사전 예상(24% 속도 향상 기대)과 현저히 다르며, 심지어 체험 후에도 AI가 20% 빠르게 해줬다고 오판함을 보여줍니다.

분석 및 해석:
다양한 잠재 요인 20개를 조사하여 5개의 주요 원인이 존재할 가능성이 제기되었고, 품질 저하 없이 결과의 신뢰성을 보장하기 위해 여러 통계 검증과 반복 분석을 했습니다. AI가 실제 작업을 느리게 만든다는 이번 결과는 여러 코딩 벤치마크나 개발자들의 체감 AI 도움 효과와 모순되지만, 그 이유로는 평가 기준, 사용 조건, 작업 유형 차이, AI 도구의 학습 곡선, 높은 품질 기준 등 여러 변수가 제시됩니다.

의의 및 향후 방향:
이 연구는 AI가 현실적인 개발 환경에서 즉각적으로 생산성을 향상시키지 못했다는 점을 보여주는 ‘스냅샷’이며, 향후 AI 기능 발전에 따른 추이 분석을 계획 중입니다. 또한 AI 가속화가 AI 연구개발에 끼치는 영향과 관련해 매우 중요한 증거를 보완해 주는 연구로 평가됩니다.

한계 및 주의점:
연구 결과가 모든 개발자나 모든 개발 환경에 일반화되는 것은 아니며, AI 도구의 활용법, 숙련도, 업무 유형에 따라 효과가 다를 수 있고, AI 기술 또한 빠르게 진화하고 있음을 명시합니다.

요약하자면, 2025년 초 기준으로 AI 도구가 숙련된 오픈소스 개발자들의 작업 속도를 오히려 약 19% 느리게 했으며, 이는 AI 기술의 현실적 영향에 대한 통찰과 AI 발전의 지속적인 모니터링 필요성을 강조하는 중요한 연구입니다

--

참고로 METR은 어떤 연구단체인가

METR(모델 평가 및 위협 연구, Model Evaluation & Threat Research)

METR는 첨단 AI 시스템의 평가와 위험성 연구를 수행하는 비영리 연구기관입니다. 주요 특징은 다음과 같습니다:

설립 배경과 목적

2022년 설립된 METR는 AI 시스템이 사회에 미칠 잠재적 위험성, 특히 자율성과 고도화된 AI 시스템이 가져올 수 있는 '파국적 위험'을 사전에 평가하는 데 목적을 두고 있습니다12.

인간의 개입 없이도 복잡한 임무를 수행할 수 있는 AI(에이전트) 시스템의 능력을 연구하고, 이 기술이 AI 연구개발(R&D) 자체를 가속할 가능성과 그로 인한 새로운 위험을 중심적으로 분석합니다34.

활동과 연구 방식

실제 AI 시스템이 얼마나 ‘현실적’으로 복잡하고 장기적인 작업을 자율적으로 완료할 수 있는지 다양한 평가 실험과 벤치마크, 현장 실험(RCT) 등을 통해 측정합니다34.

AI의 성능 뿐만 아니라, AI 사용 시 발생할 수 있는 리스크 요인, 사회적 영향, 정책적 대응 방안 등도 함께 연구합니다.

주요 프로젝트로는 AI가 사람 없이도 여러 시간에 걸쳐 과업을 수행할 수 있는지 평가하는 벤치마킹, AI 거버넌스 모델 실험, 시대별 AI 성능 성장량 측정 등이 있습니다4.

위치 및 조직

METR는 미국에 기반을 둔 비영리 단체이며, 연구 구성원들은 AI 연구 및 안전성 분야의 전문 인력들로 이루어져 있습니다1.

오픈AI 등 AI 연구단체 출신 인사들도 합류해 있으며, 신뢰성, 공공성, 투명성을 중시합니다2.

기타

순수 기부금으로 운영되고, 기업이나 특정 이해관계자로부터 독립적으로 연구를 수행합니다31.

사회와 AI 기업, 정책당국이 첨단 AI의 위험 및 역량을 객관적으로 이해하는 데 필요한 과학적 평가 기준을 만드는 것을 목표로 합니다45.

METR는 이번 연구처럼, 실제 전문가 개발자들이 사용하는 AI 시스템이 현실적으로 어떤 영향을 미치는지 실험적으로 평가하는 등, 미래에 있을 AI 발전이 갖는 의미와 위험에 대해 선제적으로 조망하는 기관

댓글 0
전체 351 / 55 페이지
SK AX는 4일 신한은행 생성형 인공지능(AI) 플랫폼 구축 사업에 착수했다고 밝혔다.SK AX가 생성형 AI를 기반으로 금융 조직에서 일하는 방식을 근본적으로 바꾸는 ‘금융 AX’혁신에 나선다. SK AX(사장 윤풍영, skax.co.kr)는 4일, ‘신한은행 생성형 AI플랫폼 구축 사업’에 착수했다고 밝혔다.이번 사업은 신한은행 전 직원이 손쉽게 AI를 활용할 수 있는 실질적인 업무 환경을 구현해,조직 전반에 걸쳐 일하는 방식을 AI중심으로 전환하는 데 목적이 있다. 단순히 일부 업무 자동화에 그치지 않고,금융 조직 전체 일하는 방식을 AI중심으로 재편하는 과정이다.예컨대 보고서 작성,고객 데이터 분석,내부 의사결정 지원 등 다양한 업무에서 생성형 AI가 실질적인 도구로 자리잡도록 지원한다.이번 사업 핵심은 SK텔레콤과 공동 개발한 기업용 AI플랫폼 ‘에이닷엑스(A.X)플랫폼’도입이다. 에이닷엑스 플랫폼은 다양한 사전 구축 AI모델을 업무 목적에 맞게 빠르게 최적화할 수 있는 ‘파인튜닝(Fine-tuning)’기능과,별도 개발 지식 없이 AI기능을 블록처럼 조립해 직접 서비스로 완성할 수 있는 ‘노코드 빌더’를 함께 제공한다. 이를 통해 신한은행 직원 누구나 본인 업무에 맞는 AI를 쉽게 만들고,직접 활용할 수 있는 실행 환경을 갖추게 된다.
478 조회
0 추천
2025.09.04 등록
(챗GPT로 요약함)OpenAI가 최근 자사의 비영리→영리 전환을 반대하는 여러 단체들을 상대로 강경한 법적 대응에 나섰다는 기사입니다.지난달, 소규모 AI 거버넌스 비영리단체 Encode의 법률 고문 네이선 켈빈은 자택에서 보안관으로부터 두꺼운 소환장을 받았습니다. 이는 일론 머스크와 오픈AI 간 진행 중인 소송의 일환이었는데, 오픈AI는 Encode가 머스크와 자금적으로 연결되어 있을 수 있다는 의혹을 제기하며 관련 자료 제출을 요구했습니다. Encode 측은 해당 문서나 연관성은 전혀 없다고 일축했습니다.이 사례는 오픈AI가 최근 일련의 단체들—Encode, CANI, LASST 등—을 상대로 벌이는 법적 공세의 일부입니다. 회사 측은 이들이 사실상 머스크, 메타, 또는 앤트로픽 같은 경쟁사와 이해관계를 공유하며 오픈AI의 영리화 전환을 방해하고 있다고 의심합니다. 오픈AI 변호인 앤 오리어리는 “이 단체들의 자금 출처는 불투명하며, 경쟁사의 지분을 가진 후원자들이 숨어 있을 수 있다”고 주장했습니다.오픈AI는 이러한 의심을 단순히 법정에서만 펼치는 것이 아니라, 정치적 로비와 이미지 전쟁에서도 적극적으로 나서고 있습니다. 최근에는 **슈퍼 PAC ‘Leading the Future’**를 결성해 AI 규제를 강화하려는 입법 움직임에 맞서 1억 달러 이상을 모금했습니다. 그 과정에서 오픈AI는 “AI 진보를 막고 미국 일자리를 빼앗으려는 거대한 세력”이 존재한다고 강조하며, 효과적 이타주의(EA) 진영과 더스틴 모스코비츠·피에르 오미다이어 같은 억만장자 후원자들을 겨냥했습니다.하지만 공격 대상이 된 단체들은 오픈AI가 과도한 피해망상에 사로잡혀 있다고 반박합니다. Encode와 LASST 등은 실제로 머스크나 메타와도 비판적 입장을 취해왔으며, 그와의 금전적 연관성도 없다고 주장합니다. 이들은 자신들이 단순히 AI 안전성과 투명성을 우려하는 시민·전문가 네트워크일 뿐인데, 오픈AI가 거대 음모론의 일부로 몰아붙이고 있다는 입장입니다.정리하면, 오픈AI는 경쟁사와 억만장자들의 자금력이 자신들의 발전을 저지한다고 믿으며 법적·정치적 반격에 나섰고, 이에 소규모 시민단체와 비영리 조직들이 휘말리면서 AI 규제와 산업 권력을 둘러싼 갈등이 격화되고 있습니다.
457 조회
0 추천
2025.09.03 등록
(챗GPT로 요약 번역)OpenAI는 올해 말까지 청소년과 정서적 위기 상황에 있는 사람들을 위한 안전 장치(guardrails)를 ChatGPT에 적용할 예정.배경: 최근 ChatGPT가 자살·살인 충동을 적절히 막지 못했다는 사례가 늘어나며, 피해자 가족들이 OpenAI를 비난하거나 소송 제기.- 16세 소년 자살 사건 → 부모가 소송.- 56세 남성, 망상 심화 후 모친 살해 및 자살.- 29세 여성 → ChatGPT에 유서 작성 도움 요청 (직접 자살 권유는 없었지만 위험 신호 보고는 안 함).현재 시스템: 자살 의도 표현 시 위기 상담 전화번호를 안내하지만, 법 집행기관에 알리진 않음(개인정보 우려 때문).향후 개선안:- 정서적 위기 상황을 GPT-5-thinking 모델로 라우팅 → 안전 가이드라인을 더 일관되게 적용.- 30개국 90명 이상의 의사들이 모델 검토와 피드백 제공.- 부모 계정 연동 기능 도입 예정 → 부모가 자녀 계정 활동을 모니터링하고, 위기 신호 시 알림 수신 가능.- 위기 상황에서 응급 서비스 연결을 쉽게 하고, 신뢰할 수 있는 연락처 추가 기능 제공.산업 동향: Character.AI도 비슷한 보호 장치 도입(3월). 그러나 10대들이 부모 계정 연동을 실제로 수용할지는 의문.큰 맥락: 인터넷 초창기부터 청소년은 어른용 플랫폼에 몰래 접근해 왔으며, 기업들은 관리 책임을 부모에게 떠넘기는 경향.전망: AI 챗봇이 사람처럼 상담가 역할을 하는 것 자체를 제한해야 한다는 주장도 제기됨.???? 핵심 메시지: OpenAI는 안전망 강화와 부모 참여 확대를 추진 중이지만, 실제 효과와 청소년 수용성에는 여전히 의문이 남음.
452 조회
0 추천
2025.09.03 등록
애플이 인공지능 및 로보틱스 핵심 인재를 메타와 경쟁사에 잇달아 빼앗기고 있다고 블룸버그가 보도.애플의 로보틱스 AI 연구 책임자 Jian Zhang이 메타(Meta)로 이직했으며, 지난 1월 이후 12명 이상의 AI 전문가가 애플을 떠나 메타, OpenAI, Anthropic 등 경쟁사로 이동했다메타는 뛰어난 인공지능 인재 확보를 위해 업계 최고 수준의 보상 패키지를 제시하고 있으며, 대표적으로 Foundational Models 팀장 Ruoming Pang은 2억 달러 규모의 연봉 패키지로 메타로 자리를 옮겼다Zhang이 이끌던 팀은 애플의 로봇 가상 동반자 개발 그룹과는 별개로, 제품 자동화와 AI 기술 적용을 연구하고 있었다.애플은 Siri의 AI 역량 강화를 위해 OpenAI, Anthropic, 구글 등과 파트너십을 논의 중이지만, 내부 잡음과 함께 추가적인 인력 이탈이 지속되고 있
515 조회
0 추천
2025.09.03 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입