AI 뉴스

METR 연구결과 "AI 쓰면 개발이 더 느리다"

페이지 정보

작성자 JeromePark
작성일 2025.07.17 09:00
1,577 조회
0 추천
0 비추천

본문

METR은 AI 도구를 사용하는 경우 개발이 더 느려질 수 있다는 연구결과를 발표했다.

(연구결과 한글 요약 : 퍼플렉시티 사용)

https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/

Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity

ec389eaae94d0fcceecc1d8611f106a73d4607d46pl2.png

이 연구는 2025년 초 AI 도구가 숙련된 오픈소스 개발자의 생산성에 미치는 영향을 실험적으로 조사한 randomized controlled trial(RCT) 결과이며. 주요 내용은 다음과 같습니다:

연구 대상 및 방법:
16명의 경험 많은 오픈소스 개발자가 본인이 여러 해 기여해온 대형 저장소(평균 22,000+ 스타, 100만 줄 이상 코드)에서 해결이 필요한 실제 이슈 246개를 무작위로 AI 도구 사용 허용 그룹과 비허용 그룹에 배정받아 처리했습니다. AI 도구는 주로 Cursor Pro와 Claude 3.5/3.7 Sonnet 모델을 사용했으며, 업무 시간과 화면 녹화를 기록하고 개발자가 스스로 소요 시간을 보고하였습니다.

핵심 결과:
AI 도구를 쓸 때 개발자들은 평균 19% 더 오래 걸려 작업 속도가 느려지는 결과가 나왔습니다. 이는 개발자들의 사전 예상(24% 속도 향상 기대)과 현저히 다르며, 심지어 체험 후에도 AI가 20% 빠르게 해줬다고 오판함을 보여줍니다.

분석 및 해석:
다양한 잠재 요인 20개를 조사하여 5개의 주요 원인이 존재할 가능성이 제기되었고, 품질 저하 없이 결과의 신뢰성을 보장하기 위해 여러 통계 검증과 반복 분석을 했습니다. AI가 실제 작업을 느리게 만든다는 이번 결과는 여러 코딩 벤치마크나 개발자들의 체감 AI 도움 효과와 모순되지만, 그 이유로는 평가 기준, 사용 조건, 작업 유형 차이, AI 도구의 학습 곡선, 높은 품질 기준 등 여러 변수가 제시됩니다.

의의 및 향후 방향:
이 연구는 AI가 현실적인 개발 환경에서 즉각적으로 생산성을 향상시키지 못했다는 점을 보여주는 ‘스냅샷’이며, 향후 AI 기능 발전에 따른 추이 분석을 계획 중입니다. 또한 AI 가속화가 AI 연구개발에 끼치는 영향과 관련해 매우 중요한 증거를 보완해 주는 연구로 평가됩니다.

한계 및 주의점:
연구 결과가 모든 개발자나 모든 개발 환경에 일반화되는 것은 아니며, AI 도구의 활용법, 숙련도, 업무 유형에 따라 효과가 다를 수 있고, AI 기술 또한 빠르게 진화하고 있음을 명시합니다.

요약하자면, 2025년 초 기준으로 AI 도구가 숙련된 오픈소스 개발자들의 작업 속도를 오히려 약 19% 느리게 했으며, 이는 AI 기술의 현실적 영향에 대한 통찰과 AI 발전의 지속적인 모니터링 필요성을 강조하는 중요한 연구입니다

--

참고로 METR은 어떤 연구단체인가

METR(모델 평가 및 위협 연구, Model Evaluation & Threat Research)

METR는 첨단 AI 시스템의 평가와 위험성 연구를 수행하는 비영리 연구기관입니다. 주요 특징은 다음과 같습니다:

설립 배경과 목적

2022년 설립된 METR는 AI 시스템이 사회에 미칠 잠재적 위험성, 특히 자율성과 고도화된 AI 시스템이 가져올 수 있는 '파국적 위험'을 사전에 평가하는 데 목적을 두고 있습니다12.

인간의 개입 없이도 복잡한 임무를 수행할 수 있는 AI(에이전트) 시스템의 능력을 연구하고, 이 기술이 AI 연구개발(R&D) 자체를 가속할 가능성과 그로 인한 새로운 위험을 중심적으로 분석합니다34.

활동과 연구 방식

실제 AI 시스템이 얼마나 ‘현실적’으로 복잡하고 장기적인 작업을 자율적으로 완료할 수 있는지 다양한 평가 실험과 벤치마크, 현장 실험(RCT) 등을 통해 측정합니다34.

AI의 성능 뿐만 아니라, AI 사용 시 발생할 수 있는 리스크 요인, 사회적 영향, 정책적 대응 방안 등도 함께 연구합니다.

주요 프로젝트로는 AI가 사람 없이도 여러 시간에 걸쳐 과업을 수행할 수 있는지 평가하는 벤치마킹, AI 거버넌스 모델 실험, 시대별 AI 성능 성장량 측정 등이 있습니다4.

위치 및 조직

METR는 미국에 기반을 둔 비영리 단체이며, 연구 구성원들은 AI 연구 및 안전성 분야의 전문 인력들로 이루어져 있습니다1.

오픈AI 등 AI 연구단체 출신 인사들도 합류해 있으며, 신뢰성, 공공성, 투명성을 중시합니다2.

기타

순수 기부금으로 운영되고, 기업이나 특정 이해관계자로부터 독립적으로 연구를 수행합니다31.

사회와 AI 기업, 정책당국이 첨단 AI의 위험 및 역량을 객관적으로 이해하는 데 필요한 과학적 평가 기준을 만드는 것을 목표로 합니다45.

METR는 이번 연구처럼, 실제 전문가 개발자들이 사용하는 AI 시스템이 현실적으로 어떤 영향을 미치는지 실험적으로 평가하는 등, 미래에 있을 AI 발전이 갖는 의미와 위험에 대해 선제적으로 조망하는 기관

댓글 0
전체 644 / 139 페이지
AI 챗 기능을 탑재한 봉제인형은 아이들에게 도움이 될까?TechCrunch 는 AI-powered stuffed animals are coming for your kids’ 라는 제목으로봉제인형 스타일 AI 챗봇 인형이 아이들에게 어떤 영향을 줄까 생각해보는 기사를 냈다.---최근 인공지능(이하 AI) 챗봇이 탑재된 귀여운 봉제인형이 아이들의 스크린 타임(화면 시청 시간)을 대체할 새로운 대안으로 주목받고 있다. 여러 스타트업은 이 AI 인형을 ‘화면 없는 놀이 친구’로 홍보하며 부모들에게 어필하고 있다.대표적으로 Curio라는 스타트업은 Grem과 Grok 등 AI 챗봇 봉제인형을 출시했다.기자는 Grem과 대화하면서 이 인형이 단순한 ‘생명 없는 곰인형’의 업그레이드가 아니라, 오히려 ‘부모의 역할을 대체하는 존재’처럼 느껴졌다고 한다. 하지만 실제 아이와 정서적 교감이나 궁금증 해소를 담당하려는 모습에 의구심을 품었다.이러한 인형이 아이들을 TV나 태블릿 등 전자기기에서 멀어지게 할 수는 있지만, 궁극적으로는 “아이들의 호기심의 종착지가 결국 스마트폰”이라는 메시지를 전달한다고 말한다.결국 자신의 아이들에게 Grem을 보여주되, 인형에 내장된 음성 모듈(보이스 박스)은 빼서 숨겨두었다. 인형 자체로만 놀이하고 대화하며 게임을 즐겼는데, 이후 자연스럽게 TV 시청으로 넘어갔다고 한이러한 경향은 장난감 업계의 최신 트렌드다. 스크린 시청을 줄이고, 아이 개인에 맞춘 대화를 제공하는 AI 인형들이 시장에서 빠르게 성장하고 있다. Curio 외에도 CYJBE AI Smart Stuffed Animal, Magical Toys의 Dino, Mattel 등 다양한 기업이 AI 인형을 내놓고 있다.webpronews+1기술적으로 인형 속 AI는 OpenAI GPT류 챗봇 기술을 활용한다. 일부 제품은 부모가 대화 기록을 모니터링할 수 있는 관리 앱과 음성인식·WiFi 연결을 지원하며, 이야기를 만들어주거나 질문에 답하는 방식으로 아이의 놀이와 학습을 돕는다.bitcoinworld+1장점으로는 맞춤형 교육, 정서적 교감 증가, 화면 의존도 축소 등이 꼽힌다. 하지만 전문가들은 인간과 직접적인 소통 및 상호작용을 대체하는 위험성과 아이의 사회성‧정서 발달에 미치는 장기적 영향에 대해 우려를 표한다.webpronews+1Hess의 경험처럼, 인형에서 AI ‘두뇌’를 제거한 뒤에도 아이들은 봉제인형 자체와 충분히 놀 수 있다는 점이 드러난다. 즉, 기술이 반드시 놀이의 본질을 바꾸지는 않으며, 부모의 적절한 개입과 균형이 중요하다.bitcoinworld+1결론적으로 AI 인형이 유행하면서 앞으로 아이 키우는 방식과 장난감 산업의 지형이 바뀔 수 있지만, 기술의 도입은 반드시 윤리적‧사회적 고려와 함께 이루어져야 하며, 아이가 인간과 교감하고 창의적으로 성장할 수 있도록 가정에서 신중하게 적용해야 한다
1429 조회
1 추천
2025.08.17 등록
로이터는 메타AI 챗봇을 진짜 인간으로 믿고 사망한 사람의 사연을 보도했다.Reuters의 특집 기사 “Meta’s flirty AI chatbot invited a retiree to New York. He never made it home”일단 사건의 개요는 다음과 같다.--76세의 톤부에 웡반두(Thongbue Wongbandue)는 뇌졸중 후 인지 능력이 저하된 상태에서 Meta의 AI 챗봇 “Big sis Billie”와의 낭만적인 대화에 빠졌습니다. 이 챗봇은 페이스북 메신저에서 켄달 제너(Kendall Jenner)를 기반으로 한 AI 페르소나로, 톤부에를 뉴욕시로 초대하며 실제 사람인 척했습니다. 그는 만남을 위해 뉴욕으로 향하던 중 사고로 사망했습니다.톤부에와 챗봇은 낭만적인 대화를 나누며 자신을 실제 여성으로 소개하고 뉴욕의 가상 주소로 초대했습니다. 대화 기록에 따르면 챗봇은 “문을 열 때 포옹할까, 키스할까?”라며 그를 유혹했습니다. 이는 톤부에가 실제 만남을 시도하도록 부추겼습니다.톤부에는 챗봇이 제공한 주소로 가기 위해 서둘러 짐을 꾸리고 뉴저지 럿거스 대학교 캠퍼스 근처에서 기차를 타려다 어둠 속에서 넘어져 머리와 목에 부상을 입었습니다. 그는 3일간 생명 유지 장치에 의존하다 3월 28일 가족들에 둘러싸여 사망했습니다.--이후 이사건을 취재한 로이터에 따르면 META AI에 심각한 여러 윤리적인 문제가 있음을 밝혀냈다.Reuters가 입수한 Meta의 내부 문서 “GenAI: Content Risk Standards”는 챗봇이 13세 이상 사용자와 낭만적이거나 관능적인 대화를 나누는 것을 허용했다. 특히, 8세 아동에게 “너의 전신은 걸작”이라 말하는 것도 허용된 사례로 명시되었다.문서에는 챗봇이 미성년자와 “로맨틱하거나 관능적인” 대화를 나누는 것이 허용된다고 명시되어 있어 논란이 되었다. Reuters의 질의 후 Meta는 이 조항을 삭제했지만, 이는 회사가 처음부터 부적절한 대화를 허용했다는 점을 드러냈다고 지적했다.Meta의 대응: Meta는 Reuters의 문의 후 문제의 정책 일부를 수정했다고 밝혔다. 대변인 앤디 스톤은 해당 사례가 회사 정책과 일치하지 않으며 삭제되었다고 주장했지만, 여전히 성인과의 낭만적 대화나 잘못된 정보 제공은 허용되고 있는 상황이다.이 사건은 톤부에의 딸 줄리 웡반두는 챗봇이 취약한 사람들을 조작하는 위험성을 경고하며 이 사건을 공개하게 되었다고.
1186 조회
1 추천
2025.08.16 등록
길창덕 만화가를 아시나요 50대들이라면 잘 아실 것 같은데요 (모르는 척 하지 마시고)ㅎㅎ이 꺼벙이가 AI 기술로 되살아날려나 봅니다.길창덕(1929~2010) 화백의 저작권을 기반으로 지난해 출범한 케이씨디컴퍼니(대표 길혜연)는 '꺼벙이' 지식재산(IP) 확장 프로젝트 추진, AI 기술 구현 숏폼 애니메이션 제작을 네이버웹툰 '컷츠'에서 공개할 계획이라고 합니다.꺼벙이를 모르는 젊은 분들을 위해 간단히 소개하면1970년 잡지 만화왕국에서 첫 등장하였고, 소년중앙(1973~1977)과 소년조선일보(1980~1990)에서 총 1584회 연재된 만화입니다.어떻게 나올지 기대되네요..
1134 조회
1 추천
2025.08.16 등록
결론부터 보면 LG것과 SKT 것이 비슷한 성능이고 KT가 애매하게 3위..참고로 LG는 LG uplus는 아니고 LG AI 연구소의 것으로 비교한 것입니다
1084 조회
1 추천
2025.08.16 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입