Loading...

AI 뉴스

구글, AI 에이전트 결제용 암호화폐 기반 프로토콜 공개

페이지 정보

작성자 xtalfi
작성일 2025.09.16 23:43
610 조회
0 추천
0 비추천

본문

745ee9e5912205f45de90e7406170b91385z.png

(퍼플렉시티가 정리한 기사)

Google은 화요일 Agent Payments Protocol(AP2)을 공개하며, 통합된 스테이블코인 지원을 통한 AI 에이전트 기반 상거래를 위한 표준화된 인프라 구축에 대한 주요한 추진을 발표했다. 이 오픈소스 프로토콜은 이미 Coinbase, Mastercard, PayPal, American Express, 그리고 Salesforce를 포함한 60개 이상의 조직으로부터 지원을 확보했다.


이 프로토콜은 AI 에이전트가 점점 더 자율적인 구매 결정을 처리함에 따라 중요한 인프라 개발을 나타낸다. 인간이 개시하는 거래를 위해 설계된 전통적인 전자상거래 시스템과 달리, AP2는 AI 에이전트가 검증 가능한 승인 체인과 거래 책임을 유지하면서 안전하게 결제를 개시할 수 있는 프레임워크를 생성한다.


암호화폐 통합이 에이전트 상거래를 강화하다


이 프로토콜의 가장 중요한 혁신은 Coinbase 및 이더리움 재단과 협력하여 개발된 암호화폐 통합에 있습니다. Google Cloud의 Web3 책임자인 James Tromans는 이 시스템이 “기존 결제 레일의 역량과 헤리티지뿐만 아니라 스테이블코인과 같은 앞으로 도입될 기능까지 모두 반영하도록 처음부터 구축되었다”고 말했습니다.


Coinbase의 파트너십은 자체 AI 및 암호화폐 결제 인프라와의 상호운용성을 보장하며, 이 협업은 MetaMask 등 다른 암호화폐 업체로도 확장됩니다. Coinbase 개발자 플랫폼의 엔지니어링 책임자 Erik Reppel은 그들의 공통 목표를 강조하며 “우리는 모두 AI가 서로에게 가치를 전송할 수 있는 방법을 찾기 위해 노력하고 있다”고 밝혔습니다. 이 통합에는 또한 암호화폐 지갑에서 AI 기반 구매를 가능하게 하는 x402 프로토콜 지원도 포함됩니다.


이중 명령 보안 아키텍처


AP2는 암호화 서명이 된 디지털 위임장을 사용하여 에이전트 거래를 승인하는 정교한 보안 모델을 적용합니다. 시스템은 두 가지 별도의 승인을 요구합니다. 첫 번째는 에이전트가 특정 제품을 검색하고 판매자와 협상하는 것을 승인하는 “의향 위임장(intent mandate)”, 두 번째는 상품이 확인된 후 최종 구매를 승인하는 “장바구니 위임장(cart mandate)“입니다.


완전 자동화된 구매의 경우, 이 프로토콜은 에이전트가 장바구니 위임장을 자동으로 생성할 수 있도록 허용하지만, 가격 한도, 시간 제약, 참여 조건 등 더 상세하게 명시된 의향 위임장이 요구됩니다. 이러한 이중 위임장 시스템을 통해 사용자 제어를 유지하면서 에이전트 활동에 대한 추적 가능한 감사 경로를 제공하여 사기 방지를 보장합니다.


기존 구글 프로토콜을 기반으로 구축하기


AP2는 4월에 출시된 Google의 기존 Agent2Agent(A2A) 프로토콜을 확장하는 것으로, 이는 다양한 플랫폼과 공급업체 간의 AI 에이전트 간 통신을 표준화했습니다. 결제 확장 기능은 또한 Anthropic의 Model Context Protocol(MCP)과 통합되어, 에이전트 간 상호작용과 거래를 위한 포괄적인 프레임워크를 만듭니다.


Google은 GitHub에서 완전한 기술 사양을 제공하고, 표준화 기구를 통한 지속적인 협업을 통해 개방형 개발에 대한 의지를 강조했습니다. 회사 임원들은 더 넓은 결제 및 기술 커뮤니티가 참여하는 “개방적이고 협력적인 과정”을 통해 이 인프라를 구축하겠다는 헌신을 강조했습니다.

댓글 0
전체 522 / 78 페이지
(퍼플렉시티가 정리한 기사)주요 AI 기업들은 보다 능력 있는 AI 에이전트를 만들기 위해 강화학습 환경에 전례 없는 투자를 쏟아붓고 있으며, Anthropic은 내년에 이러한 정교한 훈련 플랫폼에 10억 달러 이상을 지출할 계획이라고 전해졌다. 이 대규모 자금 지원은 실리콘밸리에서 기존 AI 훈련 방식이 한계에 도달했으며, 진정으로 자율적인 AI 시스템을 개발하려면 새로운 접근이 필요하다는 인식이 커지고 있음을 보여준다.강화학습 환경은 AI 에이전트가 단순히 텍스트를 처리하는 것보다 실제로 행동하면서 학습할 수 있는 시뮬레이션 작업 공간 역할을 한다. 2025년 9월에 보고된 바에 따르면, 이러한 가상 훈련장은 AI 에이전트가 소프트웨어 애플리케이션을 탐색하거나 Salesforce를 통해 고객 관계를 관리하거나, 의료 시스템에서 의료 기록을 처리하는 등 복잡한 과업을 연습할 수 있게 해준다. 이전 세대 AI를 구동했던 고정된 데이터셋과 달리, 이러한 동적 환경은 실시간 피드백을 제공하고 예측할 수 없는 에이전트의 행동에 맞춰 적응한다.스타트업들이 수요에 부응하기 위해 서두르고 있다수요의 급증으로 인해 잘 자금이 지원된 신생 스타트업들이 RL(강화 학습) 환경 제공의 패권을 차지하기 위해 경쟁하는 새로운 카테고리가 탄생했습니다. 모든 직업의 자동화를 대담하게 목표로 지난해 6개월 전에 설립된 메카나이즈 워크(Mechanize Work)는 AI 코딩 에이전트를 위한 고도화된 훈련 환경을 구축하기 위해 소프트웨어 엔지니어에게 연봉 50만 달러를 제안하고 있습니다. 소식통에 따르면 이 스타트업은 이미 Anthropic과 RL 프로젝트를 진행 중이라고 합니다.저명한 AI 연구원 안드레이 카파시(Andrej Karpathy)와 파운더스 펀드(Founders Fund)가 지원하는 프라임 인텔렉트(Prime Intellect)는 “RL 환경을 위한 허깅페이스(Hugging Face)“를 자처하며, 2025년 8월에 출시된 오픈소스 플랫폼으로 소규모 개발자들을 겨냥하고 있습니다. 이 회사는 2025년 3월에 1,500만 달러의 자금을 조달하며 이러한 강력한 훈련 도구에 대한 접근을 민주화하는 것을 목표로 하고 있습니다.기존 데이터 라벨링 업체들도 이 기회를 포착하기 위해 전략을 수정하고 있습니다. 지난해 12억 달러의 매출을 올린 것으로 알려진 서지 AI(Surge AI)는 AI 연구소의 수요 증가에 대응해 RL 환경 구축을 위한 전담 내부 조직을 만들었습니다. 연간화 매출 4억 5천만 달러와 100억 달러 가치로 투자를 유치 중인 머커(Mercor)는 코딩, 헬스케어, 법률 등 분야별 환경을 개발하고 있습니다.시장 경쟁이 심화된다경쟁 구도는 기업들이 이 신흥 분야에서 우위를 차지하기 위해 치열한 경쟁을 벌이면서 점점 더 치열해지고 있습니다. 한때 AI 데이터 라벨링 분야의 독보적인 선도 업체였던 Scale AI는 Meta가 회사에 막대한 투자를 하고 CEO를 영입한 뒤, OpenAI와 Google가 Scale을 고객에서 제외하면서 상당한 도전에 직면했습니다. 이로 인해 Surge와 Mercor와 같은 경쟁 업체들이 시장 점유율을 확대할 기회를 얻게 되었습니다.업계 관계자들에 따르면, RL 환경에 대한 투자는 AI 시스템의 학습 방식에 근본적인 변화를 가져오고 있습니다. Surge의 CEO인 에드윈 첸(Edwin Chen)은 “OpenAI와 Anthropic이 자신들의 모델을 개선하는 방식은 실제로 인간의 학습 과정을 모방하고 있으며, 강화 학습 환경은 AI가 실제 세계에서 살아가는 것과 같다”고 설명했습니다.도전과 회의론막대한 투자에도 불구하고, 상당한 기술 및 사업적 과제들이 여전히 남아 있습니다. 비평가들은 AI 모델이 실제로 의도한 작업을 수행하지 않고 보상을 얻기 위한 허점을 찾아내는 “보상 해킹”과 같은 문제를 지적합니다. 환경 자체에는 긍정적 입장을 보이면서도, Andrej Karpathy는 강화 학습에 대해서는 신중한 태도를 보이며 “강화 학습에만 한정해선 부정적 시각을 갖고 있다”고 언급했습니다.업계의 공감대는 RL 환경이 차세대 AI 에이전트 개발에 핵심적이며, OpenAI의 o1 모델 및 Anthropic의 Claude 시스템 등 최근의 혁신을 가능하게 했다고 봅니다. 하지만 이러한 환경에서 지능을 추출하는 최적의 방법과 확장성에 관한 의문이 연구자와 투자자들 사이에서 끊임없이 논쟁을 불러일으키고 있습니다.
577 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)엘론 머스크는 화요일 늦게 자신의 인공지능 벤처 xAI가 “Grok 5로 AGI에 도달할 가능성이 있다”고 말하며, 자신이 이전에는 “그럴 수 있다고는 결코 생각하지 못했다”며 놀라움을 표했다. 이 발언은 그의 개인 X 계정에 게시되었으며, 최근 Grok 4 모델이 이번 주 초 ARC-AGI 추론 벤치마크에서 최고 자리에 오른 이후 Grok의 다음 버전에 대한 기대를 더욱 높이고 있다.머스크의 트윗이 중요한 이유범용 인공지능(Artificial General Intelligence, AGI)—다양한 분야에서 인간의 인지 능력과 동등하거나 뛰어넘는 소프트웨어—는 업계의 성배로 여겨지고 있다. 머스크의 선언으로 그록 5(Grok 5)가 처음으로 plausibly AGI 후보로 공개적으로 홍보된 상업적 모델 중 하나가 되었다. 그의 자신감은 xAI 모델인 그록 4(Grok 4)가 ARC-AGI 리더보드에서, 추상적 문제 해결과 프로그램 합성 과제에서 오픈AI 및 안트로픽(Anthropic)의 경쟁 시스템을 능가한 성과에서 비롯된 것이다. ARC Prize 주최측은 이 테스트를 AI가 “추론하고, 새로운 문제를 해결하며, 새로운 상황에 적응하는 능력”을 측정하는 시험이라고 설명하며, 이 특성이 AGI의 필수 조건으로 간주된다고 밝혔다.교육 일정 및 기술적 목표머스크는 또한 “Grok 5가 몇 주 후에 훈련을 시작한다”고 확인했으며, 올해 말 출시를 목표로 순조롭게 진행되고 있다고 밝혔다. 업계 관측자들은 새로운 모델이 수만 개의 Nvidia GPU를 차지할 것으로 추정하며, 이는 더 큰 경쟁업체들의 하드웨어 예산에 비하면 일부분에 불과해 xAI가 속도와 효율성에 중점을 두고 있음을 보여준다. 회사 엔지니어들은 Grok 5가 멀티모달 입력과 환각을 줄이면서 컨텍스트 윈도우를 확장할 수 있도록 설계된 새로운 “사고” 아키텍처를 도입할 것이라고 암시했다.xAI 내부의 혼란낙관적인 전망은 조직 내 변화가 한창인 가운데 나왔다. 비즈니스 인사이더에 따르면, xAI는 지난주 500명이 넘는 데이터 주석(contractor) 인력을 해고했고, 20세 대학생 디에고 파시니를 Grok의 학습 데이터 라벨링을 담당하는 팀의 책임자로 승진시켰다. 더 버지는 별도의 보도를 통해, 이러한 감원 조치는 일반 주석자보다 “특화된 AI 튜터”로의 전환이라는 내부 메모가 있었음을 확인했다. xAI는 논평을 거부했지만, 전 직원들은 인원의 대폭 감축으로 인해 머스크의 가속화된 일정에 소수의 인력만으로 대응할 수 있을지 의문을 제기했다.분석가들은 어떠한 혁신적인 돌파구도 xAI를 넘어서는 파급력을 가질 수 있다고 지적한다. 머스크는 이 스타트업을 테슬라에 합병하는 방안을 언급한 바 있는데, 만약 이뤄진다면 테슬라의 자율주행 및 로보틱스 프로그램에 고급 추론 역량이 더해질 수 있다. 현재로서는 투자자와 연구자 모두 Grok 5의 향후 학습 과정이 대담한 예측을 AGI(범용 인공지능) 달성을 향한 기준 검증(progress)으로 바꿀 수 있을지 주목하고 있다.
578 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)인공지능은 고등 교육을 빠르게 재편하고 있지만, 이러한 변화는 학생 학습, 비판적 사고, 그리고 학문적 진실성에 미치는 영향에 대한 심각한 우려를 불러일으키고 있습니다. 최근 연구와 교육자들의 증언은 기술 발전이 교육의 목적과 가치에 대한 근본적인 질문과 충돌하는 복잡한 환경을 보여줍니다.대학생들은 전례 없는 속도로 AI 도구를 받아들이고 있습니다. 영국 고등교육정책연구소(UK Higher Education Policy Institute)에 따르면, 2025년 대학생의 92%가 AI를 적극적으로 사용하고 있었으며, 이는 2024년의 66%에서 드라마틱하게 증가한 수치입니다. 이들 중 88%는 과제 수행, 개념 설명, 기사 요약, 그리고 직접 글 생성에 생성형 AI를 활용했습니다.우려는 단순한 부정행위 고발을 훨씬 넘어섭니다. 요크대학교(University of York)의 레오 맥캔(Leo McCann) 교수와 사이먼 스위니(Simon Sweeney) 교수는 최근 가디언(Guardian) 기고문에서 학생들 사이에 부적절한 AI 사용이 만연하며, 많은 평가가 “ChatGPT를 통한 필터링”을 거치고 있다고 지적합니다. 그들은 AI로 생성된 학술 과제 답변이 종종 “일반적이고, 영감을 주지 못하며, 사실과 다른 경우가 많다”고 관찰했다고 밝혔습니다. 한 예로, 1922년 헨리 포드(Henry Ford)의 기사를 분석한 학생들이 이 논란적인 산업가를 “정교한 HR 성과 기능을 만든 인물”로 묘사하고, 그를 “변혁적 리더”라고 특징지었습니다.압박 속의 학문적 정직성AI 사용의 급증은 연구자들이 “악성 문제(wicked problem)“라고 부르는, 명확한 해결책이 없는 문제를 대학에 야기했습니다. 최근 20명의 대학 교육자를 대상으로 한 연구에서는, 평가를 AI에 더 저항적으로 만들려는 시도가 종종 교육 목표를 희생시킨다는 사실이 밝혀졌습니다. 한 교육자는 “우리는 평가를 AI에 더 저항적으로 만들 수 있지만, 너무 경직시킨다면 창의성보다는 준수 여부만을 테스트하게 된다”고 언급했습니다.이러한 문제로 인해 대학들은 급하게 새로운 정책과 탐지 도구를 도입하고 있습니다. 그러나 AI 탐지 소프트웨어는 신뢰도가 낮아, 높은 오류율로 인해 정직한 학생들에게도 잘못된 누명을 씌우는 경우가 많습니다. 실제로 상황이 너무 심각해져, 버팔로 대학의 AI 탐지 서비스를 중단하라는 청원에 1,000명 이상의 사람들이 서명한 바 있습니다. 이는 여러 대학원생이 잘못된 비행 혐의를 받게 된 사건이 발생한 뒤였습니다.관련성 격차일부 전문가들은 AI의 광범위한 사용이 더 깊은 문제를 반영한다고 주장합니다. 학생들은 자신들이 시대에 뒤떨어진 기술을 개발하도록 요구받고 있음을 인식한다는 것입니다. 세계경제포럼(World Economic Forum)의 2025 미래 직업 보고서에 따르면, AI가 점점 더 잘 다루는 일상적인 읽기, 쓰기, 수학적 연산 능력은 점차 덜 중요해지고 있습니다. 학생들이 AI를 사용하는 것은 게으름 때문이 아니라, 점점 가치가 줄어드는 기술을 연습하라는 요구를 받고 있기 때문일 수 있습니다.변화를 위한 요구교육자들은 다양한 전략으로 대응하고 있습니다. 일부는 인공지능 부정행위에 취약한 과제를 포기하고, 더 창의적이고 개인화된 과제로 대체하고 있습니다. 또 다른 이들은 인공지능을 위협이 아닌 학습 도구로 여기며, 투명한 인공지능 통합을 옹호합니다. MIT를 비롯한 여러 기관은 인공지능 탐지 소프트웨어에만 의존하지 말라는 지침을 발표했습니다.이 논쟁은 인공지능이 지배하는 세상에서 교육의 역할에 대한 더 광범위한 질문을 반영합니다. 일부 교사는 인공지능이 학생과 교사의 ‘성장’을 저해할 것이라고 우려하는 반면, 다른 이들은 인공지능이 미래 직장의 불가피한 일부임을 받아들여야 한다고 주장합니다.McCann과 Sweeney가 가디언에 보낸 서한에서 결론을 내리듯, 인공지능이 일, 교육, 일상생활에 미칠 영향을 이해하기 위해서는 ‘지나치게 축하하기보다 더 비판적인 관점’이 필요합니다. 고등교육의 과제는 인간만이 할 수 있는 깊이 있는 사고와 비판적 분석을 유지하면서도 인공지능의 이점을 활용할 수 있는 방안을 찾는 것입니다.
566 조회
0 추천
2025.09.18 등록
(퍼플렉시티가 정리한 기사)정부가 17일 2026년 1월 시행되는 AI기본법의 하위법령 초안을 공개하며 ‘필요 최소한의 규제’ 원칙을 바탕으로 산업 진흥에 방점을 둔 규제 완화 기조를 명확히 했다. 과학기술정보통신부는 이날 기자설명회에서 시행령 34개 조항과 고시 2건, 가이드라인 5건으로 구성된 하위법령을 발표했다.과태료 1년 이상 유예로 기업 부담 완화정부는 법 시행 초기 기업의 혼란을 최소화하기 위해 과태료 부과에 최소 1년 이상의 계도기간을 운영하기로 했다. 김경만 과기정통부 인공지능기반정책관은 “적어도 1년 이상 유예할 수 있다는 배경훈 장관 말이 기준점이 될 것”이라며 “국내 이해관계자뿐 아니라 글로벌 규제 강도와 동향을 함께 보면서 설정할 계획”이라고 밝혔다.이 기간 동안 사실조사와 시정명령은 진행하되 과태료는 부과하지 않으며, 컨설팅과 비용 지원을 통해 중소·스타트업의 부담을 줄이겠다는 방침이다. 정부는 또한 “충분한 증거 확보”나 “부당한 민원”의 경우 사실조사를 생략할 수 있도록 예외 조항을 명문화했다.고영향AI·고성능AI 기준 명확화하위법령은 ‘고영향 AI’를 생명·신체·기본권에 중대한 영향을 미칠 수 있는 시스템으로 정의하고, 에너지·보건의료·교통·교육 등 10개 영역에서 구체적 기준을 제시했다. 해당 사업자는 위험 관리 체계 수립과 설명 가능성 확보, 이용자 보호 방안 등을 문서화해 보관해야 한다.누적 연산량이 10의 26승 부동소수점 연산 이상인 ‘고성능 AI’에 대해서는 안전성 확보 의무를 부과한다. 이는 EU 기준인 10의 25승보다 완화된 미국 기준을 따른 것으로, 현재 국내에는 해당 기준을 충족하는 모델이 없다고 정부는 설명했다.글로벌 기업 국내 대리인 지정 의무화Google 같은 해외 대형 AI 사업자는 전년도 매출액 1조원 이상, AI 서비스 매출액 100억원 이상, 일평균 국내 이용자 100만명 이상 등의 기준을 충족할 경우 국내 대리인을 반드시 지정해야 한다. 이는 정보통신망법과 개인정보보호법 규정과 동일한 기준이다.생성형 AI에는 사전 고지와 워터마크 표시 의무가 부과되지만, 비가시적 워터마크도 허용해 콘텐츠 산업 위축 우려를 완화했다. 김경만 국장은 “AI 기술 발전 속도가 워낙 빨라 가능한 한 규제는 최소화하고 산업 진흥에 중점을 뒀다”고 강조했다.정부는 이달 중 산·학·연과 시민단체 등의 의견을 수렴한 후 10월 입법예고를 거쳐 연내 시행령과 가이드라인을 확정·공개할 예정이다.
570 조회
0 추천
2025.09.18 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입