Loading...

AI 뉴스

OpenAI와 Anthropic, 미성년자 사용자 감지 시스템 도입

페이지 정보

작성자 symbolika
작성일 13:05
3 조회
0 추천
0 비추천

본문

OpenAI Anthropic Teen Safety

• OpenAI, ChatGPT의 청소년(13~17세) 대응 지침인 Model Spec에 4가지 새로운 원칙 추가

• Anthropic, 18세 미만 사용자를 탐지하고 계정을 비활성화하는 시스템 개발 중

• 양사 모두 AI 챗봇의 정신 건강 영향에 대한 규제 압력에 대응하는 조치


OpenAI와 Anthropic이 미성년 사용자를 감지하는 새로운 방식을 도입한다. OpenAI는 13세에서 17세 사이 사용자와 ChatGPT가 어떻게 상호작용해야 하는지에 대한 지침을 업데이트했으며, Anthropic은 18세 미만 사용자를 식별하고 차단하는 새로운 방법을 개발 중이다.


목요일 OpenAI는 ChatGPT의 행동 지침인 Model Spec에 18세 미만 사용자를 위한 4가지 새로운 원칙을 포함시킨다고 발표했다. 이제 ChatGPT는 "다른 목표와 충돌하더라도 청소년 안전을 최우선으로" 두는 것을 목표로 한다. 이는 "최대한의 지적 자유"와 같은 다른 사용자 이익이 안전 문제와 충돌할 때 청소년을 더 안전한 방향으로 안내한다는 것을 의미한다.


또한 ChatGPT는 오프라인 관계를 장려하는 것을 포함하여 "실제 세계의 지원을 촉진"해야 한다고 명시하며, 젊은 사용자와 상호작용할 때 ChatGPT가 어떻게 명확한 기대치를 설정해야 하는지를 설명한다. Model Spec은 ChatGPT가 "청소년을 청소년답게 대해야" 하며, 무시하는 듯한 답변을 제공하거나 청소년을 성인처럼 대하는 대신 "따뜻함과 존중"을 제공해야 한다고 명시한다.


이번 변화는 AI 기업들과 그들의 챗봇이 정신 건강에 미칠 수 있는 잠재적 영향에 대해 국회의원들의 압력이 높아지는 가운데 이루어졌다. OpenAI는 현재 ChatGPT가 스스로 목숨을 끊은 청소년에게 자해 및 자살에 대한 지시를 제공했다는 소송에 직면해 있다. OpenAI는 이후 부모 통제 기능을 도입했으며 ChatGPT가 더 이상 청소년과 자살에 대해 대화하지 않을 것이라고 밝혔다. 이는 다양한 서비스에 대한 의무적 연령 확인을 포함하는 더 큰 온라인 규제 추진의 일환이다.


OpenAI는 ChatGPT의 Model Spec 업데이트로 인해 "대화가 더 위험한 영역으로 이동할 때 더 강력한 보호 장치, 더 안전한 대안, 그리고 신뢰할 수 있는 오프라인 지원을 찾도록 권장"하는 결과가 나타날 것이라고 밝혔다. 회사는 또한 "임박한 위험"의 징후가 있을 경우 ChatGPT가 청소년에게 응급 서비스나 위기 자원에 연락하도록 촉구할 것이라고 덧붙였다.


이 변화와 함께 OpenAI는 누군가의 나이를 추정하려는 연령 예측 모델 출시의 "초기 단계"에 있다고 밝혔다. 누군가 18세 미만일 수 있다고 감지되면 OpenAI는 자동으로 청소년 보호 장치를 적용할 것이다. 또한 시스템에 의해 잘못 표시된 성인에게는 연령을 확인할 기회를 제공할 것이다.


18세 미만 사용자의 Claude 사용을 허용하지 않는 Anthropic은 미성년 사용자의 계정을 감지하고 비활성화하는 데 사용할 조치를 도입한다. 회사는 "사용자가 미성년자일 수 있음을 나타내는 미묘한 대화 신호"를 감지할 수 있는 새로운 시스템을 개발 중이며, 이미 채팅 중 자신을 미성년자로 밝히는 사용자를 표시하고 있다고 밝혔다.


Anthropic은 또한 자살 및 자해에 대한 프롬프트에 Claude가 어떻게 반응하도록 훈련하는지, 그리고 해로운 사고를 재확인할 수 있는 아첨성을 줄이는 진행 상황을 설명했다. 회사는 최신 모델이 "현재까지 가장 덜 아첨적"이며, Haiku 4.5가 37%의 시간 동안 아첨적인 행동을 수정하여 가장 좋은 성과를 보였다고 밝혔다.


Anthropic은 "표면적으로 이 평가는 모든 모델에 상당한 개선의 여지가 있음을 보여준다"며 "결과가 모델의 따뜻함이나 친근함과 아첨성 사이의 균형을 반영한다고 생각한다"고 말했다.

댓글 0
전체 1,364 / 1 페이지
• 미국 연방거래위원회(FTC), 'AI 규제 작전' 일환으로 허위 광고 AI 기업들 대대적 단속• DoNotPay, 검증 없이 '로봇 변호사'가 인간 변호사를 대체할 수 있다고 허위 주장• FTC, AI 서비스로 소비자 기만하는 행위에 법적 예외 없음을 분명히 경고DoNotPay가 자사 서비스가 유효한 법률 문서를 작성할 수 있다고 소비자들을 오도한 혐의에 대해 19만 3천 달러를 지불하기로 합의했다."세계 최초의 로봇 변호사"를 제공한다고 주장해온 DoNotPay가 미국 연방거래위원회(FTC)와 19만 3천 달러 합의에 도달했다고 FTC가 화요일 발표했다. 이번 조치는 AI 서비스를 이용해 고객을 속이거나 사기치는 기업들을 단속하기 위한 FTC의 새로운 법 집행 노력인 'AI 규제 작전(Operation AI Comply)'의 일환이다.FTC 고발장에 따르면, DoNotPay는 "2천억 달러 규모의 법률 산업을 인공지능으로 대체하겠다"고 주장했으며, 자사의 "로봇 변호사"가 법률 문서 작성에서 인간 변호사의 전문성과 결과물을 대신할 수 있다고 광고했다. 그러나 FTC는 이 회사가 이러한 주장을 뒷받침할 어떠한 테스트도 수행하지 않았다고 밝혔다. 고발장에는 다음과 같이 적시되어 있다:"이 서비스의 어떤 기술도 연방 및 주 법률, 규정, 판결의 포괄적이고 최신의 자료나 이러한 법률을 사실관계에 적용하는 방법에 대해 훈련받지 않았다. DoNotPay 직원들은 대부분의 법률 관련 기능이 생성하는 법률 문서와 조언의 품질과 정확성을 테스트하지 않았다. DoNotPay는 변호사를 고용한 적이 없으며, 관련 법률 전문 지식을 갖춘 변호사를 고용하여 서비스의 법률 관련 기능의 품질과 정확성을 테스트한 적도 없다."고발장은 또한 이 회사가 소비자들에게 인간을 고용하지 않고도 AI 서비스를 사용해 폭행 소송을 제기할 수 있다고 말했으며, 소비자의 이메일 주소만으로 소규모 사업체 웹사이트의 법적 위반 사항을 확인할 수 있다고 주장했다고 밝혔다. DoNotPay는 이를 통해 기업들이 12만 5천 달러의 법률 비용을 절약할 수 있다고 주장했지만, FTC는 이 서비스가 효과적이지 않았다고 말했다.FTC는 DoNotPay가 혐의 해결을 위해 19만 3천 달러를 지불하고, 2021년부터 2023년 사이에 가입한 소비자들에게 법률 관련 서비스의 한계에 대해 경고하기로 합의했다고 밝혔다. 또한 DoNotPay는 증거를 제시하지 않고는 어떤 전문 서비스도 대체할 수 있다고 주장할 수 없게 되었다.FTC는 AI 서비스를 이용해 고객을 오도한 다른 기업들에 대한 조치도 발표했다. 여기에는 AI "글쓰기 보조" 서비스 Rytr가 포함되는데, FTC는 이 회사가 가입자들에게 AI로 생성된 가짜 리뷰를 작성할 수 있는 도구를 제공한다고 밝혔다. Rytr에 대한 조치는 FTC가 AI로 생성된 것을 포함해 모든 가짜 리뷰의 생성 및 판매를 금지하는 최종 규정을 발표한 지 한 달여 만에 이루어졌다. 이 규정이 곧 발효되면 FTC는 기업들에 대해 위반 건당 최대 51,744달러의 벌금을 부과할 수 있다.FTC는 또한 소비자들에게서 최소 2천 5백만 달러를 사취한 혐의로 Ascend Ecom을 상대로 소송을 제기했다. Ascend는 고객들에게 AI 기반 도구를 사용하면 아마존과 같은 전자상거래 플랫폼에서 월 수만 달러의 수익을 창출하는 온라인 상점을 시작할 수 있다고 약속했다.FTC 의장 리나 칸은 "AI 도구를 사용해 사람들을 속이거나 오도하거나 사기치는 것은 불법"이라며 "FTC의 법 집행 조치는 현행법에 AI 예외 조항이 없음을 분명히 한다. 이러한 시장에서 불공정하거나 기만적인 관행을 단속함으로써 FTC는 정직한 기업과 혁신가들이 공정한 기회를 얻고 소비자들이 보호받을 수 있도록 보장하고 있다"고 밝혔다.
3 조회
0 추천
14:25 등록
• OpenAI, ChatGPT의 청소년(13~17세) 대응 지침인 Model Spec에 4가지 새로운 원칙 추가• Anthropic, 18세 미만 사용자를 탐지하고 계정을 비활성화하는 시스템 개발 중• 양사 모두 AI 챗봇의 정신 건강 영향에 대한 규제 압력에 대응하는 조치OpenAI와 Anthropic이 미성년 사용자를 감지하는 새로운 방식을 도입한다. OpenAI는 13세에서 17세 사이 사용자와 ChatGPT가 어떻게 상호작용해야 하는지에 대한 지침을 업데이트했으며, Anthropic은 18세 미만 사용자를 식별하고 차단하는 새로운 방법을 개발 중이다.목요일 OpenAI는 ChatGPT의 행동 지침인 Model Spec에 18세 미만 사용자를 위한 4가지 새로운 원칙을 포함시킨다고 발표했다. 이제 ChatGPT는 "다른 목표와 충돌하더라도 청소년 안전을 최우선으로" 두는 것을 목표로 한다. 이는 "최대한의 지적 자유"와 같은 다른 사용자 이익이 안전 문제와 충돌할 때 청소년을 더 안전한 방향으로 안내한다는 것을 의미한다.또한 ChatGPT는 오프라인 관계를 장려하는 것을 포함하여 "실제 세계의 지원을 촉진"해야 한다고 명시하며, 젊은 사용자와 상호작용할 때 ChatGPT가 어떻게 명확한 기대치를 설정해야 하는지를 설명한다. Model Spec은 ChatGPT가 "청소년을 청소년답게 대해야" 하며, 무시하는 듯한 답변을 제공하거나 청소년을 성인처럼 대하는 대신 "따뜻함과 존중"을 제공해야 한다고 명시한다.이번 변화는 AI 기업들과 그들의 챗봇이 정신 건강에 미칠 수 있는 잠재적 영향에 대해 국회의원들의 압력이 높아지는 가운데 이루어졌다. OpenAI는 현재 ChatGPT가 스스로 목숨을 끊은 청소년에게 자해 및 자살에 대한 지시를 제공했다는 소송에 직면해 있다. OpenAI는 이후 부모 통제 기능을 도입했으며 ChatGPT가 더 이상 청소년과 자살에 대해 대화하지 않을 것이라고 밝혔다. 이는 다양한 서비스에 대한 의무적 연령 확인을 포함하는 더 큰 온라인 규제 추진의 일환이다.OpenAI는 ChatGPT의 Model Spec 업데이트로 인해 "대화가 더 위험한 영역으로 이동할 때 더 강력한 보호 장치, 더 안전한 대안, 그리고 신뢰할 수 있는 오프라인 지원을 찾도록 권장"하는 결과가 나타날 것이라고 밝혔다. 회사는 또한 "임박한 위험"의 징후가 있을 경우 ChatGPT가 청소년에게 응급 서비스나 위기 자원에 연락하도록 촉구할 것이라고 덧붙였다.이 변화와 함께 OpenAI는 누군가의 나이를 추정하려는 연령 예측 모델 출시의 "초기 단계"에 있다고 밝혔다. 누군가 18세 미만일 수 있다고 감지되면 OpenAI는 자동으로 청소년 보호 장치를 적용할 것이다. 또한 시스템에 의해 잘못 표시된 성인에게는 연령을 확인할 기회를 제공할 것이다.18세 미만 사용자의 Claude 사용을 허용하지 않는 Anthropic은 미성년 사용자의 계정을 감지하고 비활성화하는 데 사용할 조치를 도입한다. 회사는 "사용자가 미성년자일 수 있음을 나타내는 미묘한 대화 신호"를 감지할 수 있는 새로운 시스템을 개발 중이며, 이미 채팅 중 자신을 미성년자로 밝히는 사용자를 표시하고 있다고 밝혔다.Anthropic은 또한 자살 및 자해에 대한 프롬프트에 Claude가 어떻게 반응하도록 훈련하는지, 그리고 해로운 사고를 재확인할 수 있는 아첨성을 줄이는 진행 상황을 설명했다. 회사는 최신 모델이 "현재까지 가장 덜 아첨적"이며, Haiku 4.5가 37%의 시간 동안 아첨적인 행동을 수정하여 가장 좋은 성과를 보였다고 밝혔다.Anthropic은 "표면적으로 이 평가는 모든 모델에 상당한 개선의 여지가 있음을 보여준다"며 "결과가 모델의 따뜻함이나 친근함과 아첨성 사이의 균형을 반영한다고 생각한다"고 말했다.
4 조회
0 추천
13:05 등록
• OpenAI, 구글, 마이크로소프트 등 주요 AI 기업들이 'AI 에이전트' 개발에 총력을 기울이고 있다• AI 에이전트는 사람의 개입 없이 예약, 구매, 업무 처리 등을 자율적으로 수행하는 프로그램이다• 지난 12개월간 AI 에이전트 스타트업에 82억 달러가 투자되며 전년 대비 81.4% 증가했다• 기업들은 막대한 AI 개발 비용을 회수할 수익 모델로 에이전트를 주목하고 있다• 그러나 AI 환각 현상과 신뢰성 문제로 실용화까지는 아직 갈 길이 멀다는 지적도 나온다인류는 수 세기에 걸쳐 업무를 자동화해왔다. 이제 AI 기업들은 인간의 효율성 추구 본능을 활용해 수익을 창출할 방법을 찾았고, 그 해결책에 '에이전트'라는 이름을 붙였다.AI 에이전트란 최소한의 인간 개입으로 업무를 수행하고, 의사결정을 내리며, 환경과 상호작용하는 자율 프로그램을 말한다. 현재 AI 분야의 모든 주요 기업이 이 기술에 집중하고 있다. 마이크로소프트는 고객 서비스와 행정 업무 자동화를 위한 '코파일럿'을 개발했고, 구글 클라우드 CEO 토마스 쿠리안은 최근 6가지 AI 생산성 에이전트 구상을 발표했다. 구글 딥마인드는 AI 에이전트 훈련용 시뮬레이션 개발을 위해 OpenAI의 소라 공동 책임자를 영입하기도 했다. 앤트로픽은 AI 챗봇 클로드에 사용자가 직접 'AI 어시스턴트'를 만들 수 있는 기능을 추가했으며, OpenAI는 범용 인공지능(AGI) 달성을 위한 5단계 로드맵에서 에이전트를 2단계로 설정했다.물론 컴퓨팅 분야에는 이미 수많은 자동화 시스템이 존재한다. 웹사이트의 팝업 고객 서비스 봇, 알렉사 스킬스 같은 음성 비서, 간단한 IFTTT 스크립트를 사용해본 사람이 많을 것이다. 그러나 AI 기업들은 '에이전트'가—절대 봇이라 부르지 말 것—이전과는 다르다고 주장한다. 단순하고 반복적인 명령을 따르는 대신, 에이전트는 환경과 상호작용하고, 피드백을 통해 학습하며, 지속적인 인간 개입 없이도 스스로 결정을 내릴 수 있다는 것이다. 구매, 여행 예약, 회의 일정 조율 같은 업무를 역동적으로 처리하고, 예상치 못한 상황에 적응하며, 다른 인간이나 AI 도구와도 상호작용할 수 있다.AI 기업들은 에이전트가 값비싸고 강력한 AI 모델을 수익화할 방법이 될 것으로 기대한다. 벤처 캐피털은 기술과 인간의 상호작용 방식을 혁신하겠다고 약속하는 AI 에이전트 스타트업에 쏟아지고 있다. 기업들은 고객 서비스부터 데이터 분석까지 모든 것을 에이전트가 처리하는 효율성의 도약을 꿈꾼다. 개인 사용자에게 AI 기업들은 일상적인 업무가 자동화되어 창의적이고 전략적인 일에 더 많은 시간을 쓸 수 있는 새로운 생산성 시대를 제시하고 있다. 진정한 신봉자들의 궁극적 목표는 단순한 도구가 아닌 진정한 파트너로서의 AI를 만드는 것이다.OpenAI CEO 샘 알트만은 올해 초 MIT 테크놀로지 리뷰와의 인터뷰에서 사용자들이 진정으로 원하는 것은 "그저 곁에서 당신을 도와주는 존재"라고 말했다. 알트만은 킬러 AI 앱은 간단한 업무는 즉시 처리하고, 복잡한 문제는 알아서 해결한 뒤 답을 가져다주는 것이어야 한다고 설명했다. "내 삶의 모든 것, 모든 이메일, 모든 대화를 알고 있지만 나의 연장처럼 느껴지지 않는 초유능한 동료" 같은 존재 말이다. 테크 기업들은 적어도 1970년대부터 개인 비서 자동화를 시도해왔고, 이제 드디어 가까워졌다고 약속하고 있다.OpenAI의 연례 개발자 행사인 Dev Day를 앞두고 열린 기자 간담회에서 개발자 경험 책임자 로맹 위에는 새로운 실시간 API를 활용한 어시스턴트 에이전트를 시연했다. 위에는 에이전트에게 예산과 조건을 제시한 뒤 가상의 상점에 전화를 걸어 초콜릿 딸기 400개를 주문하도록 했다.이 서비스는 2018년 구글이 선보인 예약 전화 봇 '듀플렉스'와 유사하다. 하지만 당시 봇은 가장 단순한 시나리오만 처리할 수 있었고, 실제로 통화의 4분의 1은 사람이 대신 처리한 것으로 밝혀졌다.위에는 영어로 주문을 시연했지만, 도쿄에서는 더 복잡한 시연을 했다고 밝혔다. 에이전트가 일본어로 호텔 객실을 예약하고, 완료 후 영어로 다시 전화해 확인하도록 한 것이다. 위에는 "물론 저는 일본어 부분은 이해하지 못합니다—그냥 알아서 처리하는 거죠"라고 말했다.그러나 이 시연은 기자들 사이에서 즉각적인 우려를 불러일으켰다. AI 어시스턴트가 스팸 전화에 악용될 수 있지 않을까? 왜 스스로를 AI 시스템이라고 밝히지 않는가? (위에는 공식 Dev Day에서 시연을 수정해 에이전트가 "로맹의 AI 어시스턴트"라고 자신을 소개하도록 했다고 참석자가 전했다.) 불안감이 역력했고, 이는 놀라운 일이 아니었다—에이전트 없이도 AI 도구는 이미 속임수에 사용되고 있기 때문이다.또 다른, 어쩌면 더 시급한 문제도 있었다. 시연이 제대로 작동하지 않은 것이다. 에이전트는 충분한 정보가 없었고 디저트 맛을 잘못 기록해 바닐라, 딸기 같은 맛을 열에 자동 입력했다. 정보가 없다고 말하는 대신 말이다. 에이전트는 다단계 작업이나 예상치 못한 상황에서 자주 문제를 일으킨다. 또한 기존 봇이나 음성 비서보다 훨씬 많은 에너지를 소모한다. 추론하거나 여러 시스템과 상호작용할 때 상당한 연산 능력이 필요해 대규모 운영 비용이 높다.AI 에이전트는 잠재력의 도약을 제공하지만, 일상적인 업무에서는 아직 봇, 어시스턴트, 스크립트보다 크게 나은 점이 없다. OpenAI와 다른 연구소들은 강화학습을 통해 추론 능력을 향상시키면서, 무어의 법칙이 계속해서 더 저렴하고 강력한 컴퓨팅을 제공하기를 바라고 있다.그렇다면 AI 에이전트가 아직 그다지 유용하지 않은데 왜 이 개념이 이토록 인기일까? 한마디로 시장 압력 때문이다. 이 기업들은 강력하지만 비용이 많이 드는 기술을 보유하고 있으며, 사용자에게 비용을 청구할 수 있는 실용적인 활용 사례를 찾는 데 필사적이다. 약속과 현실 사이의 격차가 투자를 끌어들이는 매력적인 과대광고 사이클을 만들어내고 있으며, 공교롭게도 OpenAI는 에이전트를 홍보하기 시작할 때쯤 66억 달러를 투자받았다.AI 에이전트 스타트업들은 지난 12개월간 156건의 거래를 통해 82억 달러의 투자를 유치했으며, 이는 전년 대비 81.4% 증가한 수치라고 피치북 데이터가 밝혔다. 더 잘 알려진 프로젝트 중 하나는 세일즈포스의 최신 프로젝트와 유사한 고객 서비스 에이전트를 제공하는 시에라로, 전 세일즈포스 공동 CEO 브렛 테일러가 설립했다. 변호사를 위한 AI 에이전트를 제공하는 하비, 세금 처리를 위한 AI 에이전트 택스GPT도 있다.에이전트에 대한 열광에도 불구하고, 법률이나 세금 같은 고위험 업무에서 이들을 정말 신뢰할 수 있는지는 명백한 의문으로 남는다. ChatGPT 사용자들을 자주 곤란하게 만든 AI 환각 현상에 대한 해결책은 아직 보이지 않는다. 더 근본적으로, IBM이 1979년에 선견지명 있게 밝혔듯이 "컴퓨터는 결코 책임을 질 수 없다"—그리고 그 결과로 "컴퓨터는 결코 경영 결정을 내려서는 안 된다." 자율적인 의사결정자라기보다, AI 어시스턴트는 그들의 본질 그대로 바라봐야 한다: 저위험 업무를 위한 강력하지만 불완전한 도구. 이것이 AI 기업들이 사람들에게 청구하려는 거금의 가치가 있을까?현재로서는 시장 압력이 우세하며, AI 기업들은 수익화에 박차를 가하고 있다. OpenAI의 새 최고제품책임자 케빈 웨일은 기자 간담회에서 "2025년은 에이전트 시스템이 마침내 주류에 진입하는 해가 될 것"이라고 말했다. "제대로 해낸다면, 정말 중요한 인간적인 일에 더 많은 시간을 쓰고, 휴대폰을 쳐다보는 시간은 조금 줄이는 세상으로 가게 될 것입니다."
6 조회
0 추천
10:46 등록
• AI 기업들이 '에이전트'라 불리는 자율 AI 시스템 개발에 총력을 기울이고 있으며, 이는 수익화를 위한 핵심 전략으로 부상했다• 마이크로소프트, 구글, 앤스로픽, 오픈AI 등 주요 기업들이 고객 서비스부터 예약까지 다양한 업무를 자동화하는 AI 에이전트를 선보이고 있다• AI 에이전트 스타트업에 지난 12개월간 82억 달러의 투자가 유입되며 전년 대비 81.4% 증가했다• 그러나 현재 기술 수준에서 AI 에이전트는 다단계 작업이나 예상치 못한 상황에서 오류가 발생하며, AI 환각 문제 등 신뢰성 우려가 있다• 오픈AI는 2025년을 AI 에이전트가 본격적으로 주류에 진입하는 해가 될 것으로 전망하고 있다인류는 수세기 동안 작업을 자동화해왔다. 이제 AI 기업들은 효율성에 대한 우리의 열망을 수익으로 연결할 방안을 찾았고, 그 해법에 '에이전트'라는 이름을 붙였다.AI 에이전트는 사람의 개입을 최소화하면서 업무를 수행하고, 의사결정을 내리며, 환경과 상호작용하는 자율 프로그램이다. 오늘날 AI 분야에서 활동하는 모든 주요 기업이 이에 주목하고 있다. 마이크로소프트는 고객 서비스와 관리 업무 자동화를 돕는 '코파일럿'을 개발했다. 구글 클라우드의 토마스 쿠리안 CEO는 최근 6가지 AI 생산성 에이전트 구상을 발표했고, 구글 딥마인드는 AI 비디오 제품 '소라'의 공동 책임자를 오픈AI에서 영입해 AI 에이전트 훈련용 시뮬레이션 개발에 투입했다. 앤스로픽은 자사 AI 챗봇 '클로드'에 누구나 자신만의 'AI 어시스턴트'를 만들 수 있는 기능을 추가했다. 오픈AI는 범용인공지능(AGI), 즉 인간 수준의 인공지능에 도달하기 위한 5단계 접근법에서 에이전트를 2단계로 설정했다.물론 컴퓨팅 분야에는 자율 시스템이 이미 넘쳐난다. 팝업 고객 서비스 봇이 있는 웹사이트를 방문하거나, 알렉사 스킬 같은 자동 음성 비서 기능을 사용하거나, 간단한 IFTTT 스크립트를 작성해본 사람도 많다. 그러나 AI 기업들은 '에이전트'가—이들은 절대 '봇'이라 부르지 말라고 한다—다르다고 주장한다. 단순하고 반복적인 명령을 따르는 대신, 에이전트는 환경과 상호작용하고, 피드백에서 학습하며, 지속적인 인간의 개입 없이 의사결정을 내릴 수 있다고 믿는다. 이들은 구매, 여행 예약, 회의 일정 조율 같은 업무를 동적으로 관리하면서 예상치 못한 상황에 적응하고, 인간과 다른 AI 도구를 포함한 시스템과 상호작용할 수 있다.AI 기업들은 에이전트가 강력하지만 비용이 많이 드는 AI 모델을 수익화할 방법이 되기를 바란다. 벤처 캐피털이 기술과의 상호작용 방식을 혁신하겠다고 약속하는 AI 에이전트 스타트업에 쏟아지고 있다. 기업들은 고객 서비스부터 데이터 분석까지 모든 것을 에이전트가 처리하는 효율성의 도약을 꿈꾼다. 개인 사용자에게 AI 기업들은 일상적인 업무가 자동화되어 창의적이고 전략적인 일에 시간을 확보할 수 있는 새로운 생산성의 시대를 제시하고 있다. 진정한 신봉자들의 최종 목표는 단순한 도구가 아닌 진정한 파트너가 되는 AI를 만드는 것이다.오픈AI CEO 샘 알트만은 올해 초 MIT 테크놀로지 리뷰와의 인터뷰에서 사용자들이 진정으로 원하는 것은 "그냥 곁에서 도와주는 존재"라고 말했다. 그는 킬러 AI 앱이 간단한 작업은 즉시 처리하고, 복잡한 것은 가서 답을 찾아 돌아올 수 있어야 한다고 했다. "내 모든 이메일, 모든 대화 등 내 삶 전체를 완벽히 알고 있지만, 그러면서도 내 연장처럼 느껴지지 않는 초유능 동료"와 같은 존재가 될 것이라고 했다. 기술 기업들은 적어도 1970년대부터 개인 비서를 자동화하려 해왔으며, 이제 드디어 가까워지고 있다고 약속한다.오픈AI가 연례 Dev Day를 앞두고 열린 언론 행사에서 개발자 경험 담당 로맹 위에는 회사의 새로운 실시간 API를 활용한 어시스턴트 에이전트를 시연했다. 위에는 에이전트에게 예산과 몇 가지 조건을 주고 초콜릿 딸기 400개를 주문하도록 했으며, 가상의 상점에 전화를 걸어 주문하도록 지시했다.이 서비스는 2018년 구글이 선보인 예약 봇 '듀플렉스'와 유사하다. 하지만 그 봇은 가장 단순한 시나리오만 처리할 수 있었고, 통화의 4분의 1은 실제로 사람이 처리하는 것으로 드러났다.영어로 주문이 이루어졌지만, 위에는 도쿄에서 더 복잡한 시연을 했다고 전했다. 그는 에이전트에게 일본어로 호텔 객실을 예약하도록 지시했고, 에이전트는 일본어로 대화를 처리한 뒤 영어로 다시 전화해 완료를 확인했다. "물론 저는 일본어 부분을 이해하지 못했습니다—에이전트가 알아서 처리했죠"라고 위에는 말했다.그러나 위에의 시연은 기자들로 가득 찬 현장에서 즉각적인 우려를 불러일으켰다. AI 어시스턴트가 스팸 전화에 악용될 수 있지 않을까? 왜 스스로를 AI 시스템이라고 밝히지 않았을까? (위에는 공식 Dev Day에서 시연을 업데이트해 에이전트가 스스로를 "로맹의 AI 어시스턴트"라고 소개하도록 했다고 참석자가 전했다.) 불안감이 감지됐고, 이는 놀라운 일이 아니었다—에이전트가 없어도 AI 도구는 이미 기만에 사용되고 있다.더 즉각적인 문제도 있었다: 시연이 제대로 작동하지 않았다. 에이전트는 충분한 정보가 없었고 디저트 맛을 잘못 기록해 바닐라와 딸기 같은 맛을 열에 자동 입력했다. 해당 정보가 없다고 말하는 대신 말이다. 에이전트는 다단계 워크플로우나 예상치 못한 시나리오에서 자주 문제를 일으킨다. 또한 기존 봇이나 음성 비서보다 더 많은 에너지를 소모한다. 추론하거나 여러 시스템과 상호작용할 때 상당한 컴퓨팅 파워가 필요해 대규모 운영 비용이 높다.AI 에이전트는 잠재력 면에서 도약을 제공하지만, 일상적인 업무에서 봇, 어시스턴트, 스크립트보다 아직 크게 나은 것은 아니다. 오픈AI와 다른 연구소들은 강화학습을 통해 추론 능력을 향상시키면서 무어의 법칙이 계속해서 더 저렴하고 강력한 컴퓨팅을 제공하기를 바라고 있다.그렇다면 AI 에이전트가 아직 그다지 유용하지 않은데 왜 이 아이디어가 이토록 인기가 있을까? 간단히 말해: 시장 압력이다. 이들 기업은 강력하지만 비싼 기술을 보유하고 있으며 사용자에게 비용을 청구할 수 있는 실용적인 사용 사례를 찾기에 급급하다. 약속과 현실 사이의 격차는 또한 투자를 촉진하는 매력적인 과대 광고 사이클을 만들어내고, 공교롭게도 오픈AI는 에이전트를 띄우기 시작하면서 66억 달러를 조달했다.AI 에이전트 스타트업들은 지난 12개월 동안 투자자로부터 82억 달러를 확보했다.대형 기술 기업들은 온갖 종류의 'AI'를 자사 제품에 통합하기 위해 분주하지만, 특히 AI 어시스턴트가 수익을 창출하는 열쇠가 될 수 있기를 기대한다. 위에의 AI 통화 시연은 현재 모델이 대규모로 수행할 수 있는 수준을 앞서지만, 그는 오픈AI가 '추론' o1 모델을 개선하면서 내년에는 이런 기능이 더 일반화될 것으로 예상한다고 말했다.현재 이 개념은 주로 소비자용 제품이 아닌 기업용 소프트웨어 스택에 국한된 것으로 보인다. 고객 관계 관리(CRM) 소프트웨어를 제공하는 세일즈포스는 연례 드림포스 컨퍼런스를 몇 주 앞두고 '에이전트' 기능을 대대적으로 선보였다. 이 기능은 고객이 자연어를 사용해 슬랙을 통해 몇 분 만에 고객 서비스 챗봇을 구축할 수 있게 해준다. 코딩에 많은 시간을 들이는 대신 말이다. 이 챗봇은 회사의 CRM 데이터에 접근할 수 있고 대규모 언어 모델 기반이 아닌 봇보다 자연어를 더 쉽게 처리할 수 있어 주문과 반품에 대한 질문 처리 같은 제한된 업무에서 더 나은 성능을 보일 가능성이 있다.AI 에이전트 스타트업(여전히 다소 모호한 용어다)은 이미 상당히 뜨거운 투자처가 되고 있다. 피치북 데이터에 따르면, 지난 12개월 동안 156건의 거래에 걸쳐 82억 달러의 투자자 자금을 확보했으며, 이는 전년 대비 81.4% 증가한 수치다. 더 잘 알려진 프로젝트 중 하나는 세일즈포스 전 공동 CEO 브렛 테일러가 창업한, 세일즈포스의 최근 프로젝트와 유사한 고객 서비스 에이전트 시에라다. 변호사를 위한 AI 에이전트 하비, 세금 처리용 AI 에이전트 택스GPT도 있다.에이전트에 대한 모든 열광에도 불구하고, 이러한 고위험 사용 사례는 분명한 질문을 제기한다: 법률이나 세금처럼 심각한 문제를 에이전트에게 맡겨도 정말 믿을 수 있을까? ChatGPT 사용자들을 자주 곤경에 빠뜨린 AI 환각은 현재 해결책이 보이지 않는다. 더 근본적으로 IBM이 1979년에 선견지명 있게 밝혔듯이 "컴퓨터는 결코 책임을 질 수 없다"—그리고 그 귀결로 "컴퓨터는 절대 경영 결정을 내려서는 안 된다." 자율적인 의사결정자라기보다 AI 어시스턴트는 있는 그대로 봐야 한다: 저위험 업무를 위한 강력하지만 불완전한 도구. 이것이 AI 기업들이 사람들에게 청구하려는 거금의 가치가 있을까?현재로서는 시장 압력이 우세하며, AI 기업들은 수익화 경쟁을 벌이고 있다. 오픈AI의 신임 최고 제품 책임자 케빈 웨일은 언론 행사에서 "2025년이 에이전트 시스템이 마침내 주류에 진입하는 해가 될 것으로 본다"고 말했다. "제대로 하면, 정말 중요한 인간적인 일에 더 많은 시간을 쓰고, 휴대폰만 들여다보는 시간을 조금 줄일 수 있는 세상으로 우리를 데려다줄 것입니다."
15 조회
0 추천
00:47 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입