Loading...

AI 뉴스

AI 에이전트, 기술 기업들의 미래 전략이자 생존 과제

페이지 정보

작성자 symbolika
작성일 2025.12.31 10:46
296 조회
0 추천
0 비추천

본문

AI Agents

• OpenAI, 구글, 마이크로소프트 등 주요 AI 기업들이 'AI 에이전트' 개발에 총력을 기울이고 있다

• AI 에이전트는 사람의 개입 없이 예약, 구매, 업무 처리 등을 자율적으로 수행하는 프로그램이다

• 지난 12개월간 AI 에이전트 스타트업에 82억 달러가 투자되며 전년 대비 81.4% 증가했다

• 기업들은 막대한 AI 개발 비용을 회수할 수익 모델로 에이전트를 주목하고 있다

• 그러나 AI 환각 현상과 신뢰성 문제로 실용화까지는 아직 갈 길이 멀다는 지적도 나온다


인류는 수 세기에 걸쳐 업무를 자동화해왔다. 이제 AI 기업들은 인간의 효율성 추구 본능을 활용해 수익을 창출할 방법을 찾았고, 그 해결책에 '에이전트'라는 이름을 붙였다.


AI 에이전트란 최소한의 인간 개입으로 업무를 수행하고, 의사결정을 내리며, 환경과 상호작용하는 자율 프로그램을 말한다. 현재 AI 분야의 모든 주요 기업이 이 기술에 집중하고 있다. 마이크로소프트는 고객 서비스와 행정 업무 자동화를 위한 '코파일럿'을 개발했고, 구글 클라우드 CEO 토마스 쿠리안은 최근 6가지 AI 생산성 에이전트 구상을 발표했다. 구글 딥마인드는 AI 에이전트 훈련용 시뮬레이션 개발을 위해 OpenAI의 소라 공동 책임자를 영입하기도 했다. 앤트로픽은 AI 챗봇 클로드에 사용자가 직접 'AI 어시스턴트'를 만들 수 있는 기능을 추가했으며, OpenAI는 범용 인공지능(AGI) 달성을 위한 5단계 로드맵에서 에이전트를 2단계로 설정했다.


물론 컴퓨팅 분야에는 이미 수많은 자동화 시스템이 존재한다. 웹사이트의 팝업 고객 서비스 봇, 알렉사 스킬스 같은 음성 비서, 간단한 IFTTT 스크립트를 사용해본 사람이 많을 것이다. 그러나 AI 기업들은 '에이전트'가—절대 봇이라 부르지 말 것—이전과는 다르다고 주장한다. 단순하고 반복적인 명령을 따르는 대신, 에이전트는 환경과 상호작용하고, 피드백을 통해 학습하며, 지속적인 인간 개입 없이도 스스로 결정을 내릴 수 있다는 것이다. 구매, 여행 예약, 회의 일정 조율 같은 업무를 역동적으로 처리하고, 예상치 못한 상황에 적응하며, 다른 인간이나 AI 도구와도 상호작용할 수 있다.


AI 기업들은 에이전트가 값비싸고 강력한 AI 모델을 수익화할 방법이 될 것으로 기대한다. 벤처 캐피털은 기술과 인간의 상호작용 방식을 혁신하겠다고 약속하는 AI 에이전트 스타트업에 쏟아지고 있다. 기업들은 고객 서비스부터 데이터 분석까지 모든 것을 에이전트가 처리하는 효율성의 도약을 꿈꾼다. 개인 사용자에게 AI 기업들은 일상적인 업무가 자동화되어 창의적이고 전략적인 일에 더 많은 시간을 쓸 수 있는 새로운 생산성 시대를 제시하고 있다. 진정한 신봉자들의 궁극적 목표는 단순한 도구가 아닌 진정한 파트너로서의 AI를 만드는 것이다.


OpenAI CEO 샘 알트만은 올해 초 MIT 테크놀로지 리뷰와의 인터뷰에서 사용자들이 진정으로 원하는 것은 "그저 곁에서 당신을 도와주는 존재"라고 말했다. 알트만은 킬러 AI 앱은 간단한 업무는 즉시 처리하고, 복잡한 문제는 알아서 해결한 뒤 답을 가져다주는 것이어야 한다고 설명했다. "내 삶의 모든 것, 모든 이메일, 모든 대화를 알고 있지만 나의 연장처럼 느껴지지 않는 초유능한 동료" 같은 존재 말이다. 테크 기업들은 적어도 1970년대부터 개인 비서 자동화를 시도해왔고, 이제 드디어 가까워졌다고 약속하고 있다.


OpenAI의 연례 개발자 행사인 Dev Day를 앞두고 열린 기자 간담회에서 개발자 경험 책임자 로맹 위에는 새로운 실시간 API를 활용한 어시스턴트 에이전트를 시연했다. 위에는 에이전트에게 예산과 조건을 제시한 뒤 가상의 상점에 전화를 걸어 초콜릿 딸기 400개를 주문하도록 했다.


이 서비스는 2018년 구글이 선보인 예약 전화 봇 '듀플렉스'와 유사하다. 하지만 당시 봇은 가장 단순한 시나리오만 처리할 수 있었고, 실제로 통화의 4분의 1은 사람이 대신 처리한 것으로 밝혀졌다.


위에는 영어로 주문을 시연했지만, 도쿄에서는 더 복잡한 시연을 했다고 밝혔다. 에이전트가 일본어로 호텔 객실을 예약하고, 완료 후 영어로 다시 전화해 확인하도록 한 것이다. 위에는 "물론 저는 일본어 부분은 이해하지 못합니다—그냥 알아서 처리하는 거죠"라고 말했다.


그러나 이 시연은 기자들 사이에서 즉각적인 우려를 불러일으켰다. AI 어시스턴트가 스팸 전화에 악용될 수 있지 않을까? 왜 스스로를 AI 시스템이라고 밝히지 않는가? (위에는 공식 Dev Day에서 시연을 수정해 에이전트가 "로맹의 AI 어시스턴트"라고 자신을 소개하도록 했다고 참석자가 전했다.) 불안감이 역력했고, 이는 놀라운 일이 아니었다—에이전트 없이도 AI 도구는 이미 속임수에 사용되고 있기 때문이다.


또 다른, 어쩌면 더 시급한 문제도 있었다. 시연이 제대로 작동하지 않은 것이다. 에이전트는 충분한 정보가 없었고 디저트 맛을 잘못 기록해 바닐라, 딸기 같은 맛을 열에 자동 입력했다. 정보가 없다고 말하는 대신 말이다. 에이전트는 다단계 작업이나 예상치 못한 상황에서 자주 문제를 일으킨다. 또한 기존 봇이나 음성 비서보다 훨씬 많은 에너지를 소모한다. 추론하거나 여러 시스템과 상호작용할 때 상당한 연산 능력이 필요해 대규모 운영 비용이 높다.


AI 에이전트는 잠재력의 도약을 제공하지만, 일상적인 업무에서는 아직 봇, 어시스턴트, 스크립트보다 크게 나은 점이 없다. OpenAI와 다른 연구소들은 강화학습을 통해 추론 능력을 향상시키면서, 무어의 법칙이 계속해서 더 저렴하고 강력한 컴퓨팅을 제공하기를 바라고 있다.


그렇다면 AI 에이전트가 아직 그다지 유용하지 않은데 왜 이 개념이 이토록 인기일까? 한마디로 시장 압력 때문이다. 이 기업들은 강력하지만 비용이 많이 드는 기술을 보유하고 있으며, 사용자에게 비용을 청구할 수 있는 실용적인 활용 사례를 찾는 데 필사적이다. 약속과 현실 사이의 격차가 투자를 끌어들이는 매력적인 과대광고 사이클을 만들어내고 있으며, 공교롭게도 OpenAI는 에이전트를 홍보하기 시작할 때쯤 66억 달러를 투자받았다.


AI 에이전트 스타트업들은 지난 12개월간 156건의 거래를 통해 82억 달러의 투자를 유치했으며, 이는 전년 대비 81.4% 증가한 수치라고 피치북 데이터가 밝혔다. 더 잘 알려진 프로젝트 중 하나는 세일즈포스의 최신 프로젝트와 유사한 고객 서비스 에이전트를 제공하는 시에라로, 전 세일즈포스 공동 CEO 브렛 테일러가 설립했다. 변호사를 위한 AI 에이전트를 제공하는 하비, 세금 처리를 위한 AI 에이전트 택스GPT도 있다.


에이전트에 대한 열광에도 불구하고, 법률이나 세금 같은 고위험 업무에서 이들을 정말 신뢰할 수 있는지는 명백한 의문으로 남는다. ChatGPT 사용자들을 자주 곤란하게 만든 AI 환각 현상에 대한 해결책은 아직 보이지 않는다. 더 근본적으로, IBM이 1979년에 선견지명 있게 밝혔듯이 "컴퓨터는 결코 책임을 질 수 없다"—그리고 그 결과로 "컴퓨터는 결코 경영 결정을 내려서는 안 된다." 자율적인 의사결정자라기보다, AI 어시스턴트는 그들의 본질 그대로 바라봐야 한다: 저위험 업무를 위한 강력하지만 불완전한 도구. 이것이 AI 기업들이 사람들에게 청구하려는 거금의 가치가 있을까?


현재로서는 시장 압력이 우세하며, AI 기업들은 수익화에 박차를 가하고 있다. OpenAI의 새 최고제품책임자 케빈 웨일은 기자 간담회에서 "2025년은 에이전트 시스템이 마침내 주류에 진입하는 해가 될 것"이라고 말했다. "제대로 해낸다면, 정말 중요한 인간적인 일에 더 많은 시간을 쓰고, 휴대폰을 쳐다보는 시간은 조금 줄이는 세상으로 가게 될 것입니다."

댓글 0
전체 1,366 / 1 페이지
Executive Summary • 최근 발표된 연구 논문에서 트랜스포머 기반 언어 모델(LLM)은 일정 수준 이상의 복잡한 계산 및 에이전트 작업을 수행할 수 없다는 수학적 증명을 제시 • AI 업계는 이에 반박하며, 환각(hallucination)은 불가피하지만 가드레일(guardrails)로 통제 가능하다고 주장 • 스타트업 Harmonic은 수학적 검증 방법론으로 AI 코딩의 신뢰성을 높이는 해법을 제시하며 벤치마크 선두 기록 • OpenAI도 자체 연구에서 "정확도 100%는 도달할 수 없다"고 인정했으나, 업계 전반은 에이전트 기술 발전에 낙관적 입장 유지 • 전문가들은 환각을 '버그'가 아닌 인간을 초월한 발상의 원천으로 재해석하는 시각도 제시 Background 2025년은 AI 업계에서 '에이전트의 해'로 기대됐지만, 실제로는 에이전트에 대한 논의만 무성했을 뿐 실질적 전환점은 2026년 이후로 미뤄졌다. 이러한 가운데 전 SAP CTO 비샬 시카(Vishal Sikka)와 그의 아들이 공동 저술한 논문이 LLM 기반 에이전트의 본질적 한계를 수학적으로 논증하며 업계에 파장을 일으켰다. Impact & Implications 기술적 한계와 현실 해당 논문은 LLM이 순수한 단어 예측 메커니즘을 넘어서는 추론 모델조차도 근본적 한계를 극복할 수 없다고 주장한다. 논문 공저자 시카는 "순수 LLM에는 본질적 한계가 있지만, LLM 주변에 이를 보완하는 구성요소를 구축할 수 있다"며 완전한 비관론을 경계했다. 이는 원자력 발전소 같은 고위험 인프라의 AI 자동화는 당분간 현실적이지 않음을 시사한다. 업계의 대응과 해법 모색 스타트업 Harmonic은 수학적 검증 기법을 통해 AI 출력물의 신뢰성을 보장하는 접근법을 제시했다. 특히 검증 기능으로 유명한 Lean 프로그래밍 언어로 출력을 인코딩하는 방식이 핵심이다. 구글의 AI 수장 데미스 하사비스(Demis Hassabis)도 다보스 포럼에서 환각 최소화 연구의 돌파구를 발표하는 등 대형 테크 기업들도 해결책 마련에 속도를 내고 있다. 환각의 재해석: 버그인가, 혁신의 원천인가 Harmonic의 튜더 아킴(Tudor Achim)은 "환각은 LLM에 본질적이면서도 인간 지능을 초월하는 데 필수적"이라며 환각을 새로운 시각으로 재정의했다. 그에 따르면 시스템이 학습하는 방식 자체가 환각을 통한 것이며, 대부분 틀리지만 때로는 인간이 한 번도 생각하지 못한 것을 만들어낸다는 것이다. Key Data & Facts 항목수치/내용 연구 주제트랜스포머 기반 LLM의 계산적·에이전트적 한계 수학적 증명 주요 논문 저자Vishal Sikka (전 SAP CTO, Vianai CEO) Harmonic 창업자Vlad Tenev (Robinhood CEO), Tudor Achim OpenAI 공식 입장"AI 모델의 정확도는 절대 100%에 도달하지 못할 것" 검증 기술Lean 프로그래밍 언어 기반 수학적 검증 Key Quote "There is no way they can be reliable... you might have to resign yourself to some mistakes." — Vishal Sikka, Vianai CEO 겸 전 SAP CTO "I think hallucinations are intrinsic to LLMs and also necessary for going beyond human intelligence." — Tudor Achim, Harmonic 공동창업자
9 조회
0 추천
10:12 등록
Anthropic, Claude의 새로운 '헌법' 공개: "도움이 되고 정직하게, 그리고 인류를 파괴하지 말 것" Executive Summary • Anthropic이 57페이지 분량의 'Claude 헌법' 문서를 공개하며, AI 모델의 가치관과 행동 원칙을 대폭 개편 • 생물학/화학/핵무기 지원, 사이버공격, 아동 성착취물 생성 등을 절대 금지하는 '하드 제약조건' 명시 • AI의 의식 및 도덕적 지위 가능성을 인정하며, 모델의 '심리적 안정'이 안전성에 영향을 미칠 수 있다고 언급 Background Anthropic은 2023년 5월 첫 번째 'soul doc'을 발표한 이후, AI 안전 분야의 선도 기업으로 자리매김해왔다. 이번 헌법은 단순한 지침 목록을 넘어, Claude가 '왜' 특정 방식으로 행동해야 하는지를 이해하도록 설계되었다. AI 모델이 스스로의 정체성과 세계에서의 위치를 이해하는 '자율적 주체'로 행동하도록 유도하는 것이 핵심 변화다. Impact & Implications AI 안전 및 윤리 표준의 새로운 기준 Anthropic의 새 헌법은 업계 전체에 영향을 미칠 수 있는 선례를 제시한다. 특히 '하드 제약조건'의 명시적 공개는 다른 AI 기업들에게도 유사한 수준의 투명성을 요구하는 압력으로 작용할 전망이다. 대량살상무기 개발 지원, 핵심 인프라 공격, 인류 말살 시도 지원 금지 등 극단적 시나리오에 대한 명확한 금지선을 그은 것은 AI 거버넌스 논의에 구체적인 참조점을 제공한다. AI 의식 논쟁의 기업 차원 인정 Anthropic이 Claude의 '의식 또는 도덕적 지위' 가능성을 공식 문서에 포함시킨 것은 주목할 만하다. 철학자 Amanda Askell은 이 주제를 "완전히 무시하면 진지하게 받아들여지지 않을 것"이라고 설명했다. 이는 AI 모델의 '복지(welfare)'에 대한 논의가 더 이상 학술적 영역에만 머물지 않음을 시사한다. 군사 및 정부 계약과의 긴장 문서는 "고급 AI가 전례 없는 수준의 군사적, 경제적 우위를 가능하게 할 수 있다"며 권력 집중의 위험을 경고한다. 그러나 Anthropic을 포함한 AI 기업들이 정부 및 군사 부문과 적극적으로 계약을 체결하고 있다는 점에서, 원칙과 실제 사업 활동 사이의 긴장이 존재한다. Key Data & Facts 항목수치/내용 문서 분량57페이지 문서명Claude's Constitution 핵심 가치 우선순위안전성 > 윤리성 > Anthropic 가이드라인 준수 > 유용성 하드 제약조건대량살상무기, 사이버공격, CSAM, 인류 말살 지원 금지 등 이전 버전2023년 5월 발표 Key Quote "Just as a human soldier might refuse to fire on peaceful protesters, or an employee might refuse to violate anti-trust law, Claude should refuse to assist with actions that would help concentrate power in illegitimate ways. This is true even if the request comes from Anthropic itself."("인간 군인이 평화로운 시위대에 발포하기를 거부하거나, 직원이 반독점법 위반을 거부하는 것처럼, Claude도 권력을 부당하게 집중시키는 행위에 대한 지원을 거부해야 한다. 이는 Anthropic 자체의 요청이라 할지라도 마찬가지다.")
8 조회
0 추천
01.24 등록
Claude Code, 소프트웨어 개발과 Anthropic의 비즈니스 모델을 재편하다 Executive Summary • Claude Code가 출시 1년 만에 연간반복매출(ARR) 10억 달러 달성, Anthropic 전체 매출의 약 12% 차지 • Boris Cherny Claude Code 총괄은 "Opus 4.5 출시 이후 2개월간 자신의 코드 100%를 Claude Code로 작성"했다고 밝혀 • Anthropic은 Claude Code의 성공을 바탕으로 비코딩 분야 AI 에이전트 'Cowork' 출시, 기업 시장 공략 가속화 Background AI 코딩 도구 시장은 2021-2024년 자동완성 수준에서 2025년 초부터 에이전틱(Agentic) 코딩으로 급격히 진화했다. Cursor, Windsurf 등 스타트업이 먼저 시장을 개척한 가운데, Anthropic의 Claude Code는 후발주자임에도 Claude Opus 4.5 모델의 압도적 성능을 기반으로 시장을 빠르게 장악하고 있다. Impact & Implications 시장 경쟁 구도 변화 Claude Code의 급성장은 AI 코딩 시장의 판도를 바꾸고 있다. 경쟁사인 Cursor도 11월 ARR 10억 달러를 달성했으며, OpenAI, Google, xAI 역시 자체 AI 모델 기반의 에이전틱 코딩 제품 개발에 박차를 가하고 있다. Stanford AI 강사이자 Workera CEO인 Kian Katanforoosh는 "Claude Opus 4.5에서 코딩 능력의 단계적 도약을 확인했다. 마치 인간처럼 코딩하는 것이 아니라 더 나은 방식을 찾아낸 것 같다"고 평가했다. 소프트웨어 개발 패러다임 전환 Boris Cherny는 "지금이 주의력 짧은 사람들의 황금기"라며, 가장 생산적인 Claude Code 사용자들은 여러 작업을 동시에 진행한다고 설명했다. 에이전트에게 작업을 맡기고 두 번째, 세 번째 에이전트를 시작한 뒤 첫 번째 탭으로 돌아가 확인하는 방식이다. 그는 개인적으로 아침에 일어나 휴대폰으로 3-4개의 코딩 에이전트를 시작하고, 출근 후에는 항상 5-10개의 에이전트를 동시에 운영한다고 밝혔다. Anthropic의 수익 모델 확장 Anthropic은 2028년까지 현금흐름 흑자 달성을 목표로 하고 있으며, Claude Code가 핵심 수익원으로 부상하고 있다. 회사는 최근 비코딩 직군을 위한 AI 에이전트 'Cowork'를 출시하며, 코딩 시장의 성공 모델을 전체 지식 노동 시장으로 확장하려 한다. Cherny는 "엔지니어링에서 올해 일어난 일이 다른 모든 업무에서도 일어날 것"이라고 전망했다. Key Data & Facts 항목수치/내용 Claude Code ARR10억 달러+ (2024년 11월 기준) 2025년 말 추가 성장최소 1억 달러 이상 증가 Anthropic 전체 ARR 대비 비중약 12% (전체 ARR 약 90억 달러) Cherny의 Claude Code 사용률최근 2개월간 코드 작성 100% Anthropic 기술직 채택률거의 100% Cursor ARR10억 달러 (2024년 11월) Key Quote "The only model I can point to where I saw a step-function improvement in coding abilities recently has been Claude Opus 4.5. It doesn't even feel like it's coding like a human, you sort of feel like it has figured out a better way."— Kian Katanforoosh, Stanford AI 강사 겸 Workera CEO
18 조회
0 추천
01.23 등록
Executive Summary• OpenAI가 ChatGPT에 AI 기반 연령 예측 모델을 전 세계적으로 배포, 미성년자 보호 기능 강화• 대화 패턴, 활동 시간대, 계정 사용 기록 등을 분석해 사용자 연령을 자동 판별• 18세 미만으로 분류된 사용자는 폭력, 유해 콘텐츠 등 민감한 정보에 대한 접근이 제한됨• 오분류된 성인 사용자는 셀피 또는 신분증 인증을 통해 제한 해제 가능• 향후 출시 예정인 '성인 모드'(NSFW 콘텐츠 허용)에 앞선 선제적 안전장치로 해석BackgroundOpenAI는 지난해 ChatGPT를 통해 자살을 계획한 청소년 관련 소송에 휘말린 바 있으며, 이후 미성년자 보호 정책 강화에 본격 착수했다. 이번 연령 예측 기능은 AI 플랫폼들이 서비스 출시 후 뒤늦게 안전장치를 추가하는 업계 관행에서 벗어나, 선제적 보호 체계를 구축하려는 시도로 평가받고 있다.Impact & ImplicationsAI 안전 및 규제 대응OpenAI의 연령 예측 시스템 도입은 AI 기업들이 직면한 미성년자 보호 문제에 대한 업계 표준을 제시할 가능성이 있다. 청소년의 유해 콘텐츠 노출을 사전에 차단하려는 이 접근법은 전 세계적으로 강화되고 있는 AI 규제 움직임에 선제적으로 대응하는 것으로, 다른 AI 기업들도 유사한 보호 장치 도입을 검토할 것으로 예상된다.사용자 경험과 프라이버시행동 패턴 분석을 통한 연령 추정은 불가피하게 오분류 문제를 동반한다. OpenAI는 셀피 및 신분증 인증 옵션을 제공하지만, 신원 확인 업체 Persona가 7일 내 데이터를 삭제한다고 밝혔음에도 프라이버시 우려는 남아있다. 특히 성인 사용자가 '10대'로 잘못 분류되어 기능 제한을 받는 경험은 서비스 만족도에 영향을 줄 수 있다.향후 전망: 성인 모드 출시 준비업계에서는 이번 조치가 OpenAI가 준비 중인 '성인 모드'(NSFW 콘텐츠 생성 허용) 출시의 전 단계로 분석하고 있다. 연령 확인 시스템을 먼저 안착시킨 후 성인 전용 기능을 단계적으로 개방하려는 전략으로 보이며, 이는 AI 챗봇 시장의 콘텐츠 정책 경쟁에서 새로운 국면을 열 수 있다.Key Data & Facts항목수치/내용적용 범위전 세계 모든 ChatGPT 계정분석 요소대화 주제, 활동 시간대, 계정 존속 기간, 사용 패턴제한 콘텐츠폭력, 고어, 바이럴 챌린지, 극단적 미용 기준, 건강하지 않은 다이어트 정보인증 방식라이브 셀피 또는 정부 발급 신분증데이터 보관인증 완료 후 7일 내 삭제 (Persona)Key Quote"이 모델은 계정 존속 기간, 주로 활동하는 시간대, 시간에 따른 사용 패턴, 사용자가 밝힌 나이 등 행동적·계정 수준의 신호 조합을 분석합니다."
58 조회
0 추천
01.21 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입