Loading...

AI 뉴스

BitsLab, 암호화폐 및 자율 에이전트를 위한 AI 보안 플랫폼 출시

페이지 정보

작성자 xtalfi
작성일 2025.11.28 15:13
425 조회
0 추천
0 비추천

본문

robotic-hand-ai-092624.jpg

디지털 자산 보안 기업 BitsLab은 11월 27일 전 세계 5억 6천만 명의 암호화폐 사용자들과 새롭게 부상하는 자율 AI 에이전트 생태계에 대한 위협 증가에 대응하기 위해 포괄적인 AI 기반 보안 플랫폼을 발표했습니다. 이 발표는 한국 최대 암호화폐 거래소 업비트가 3,600만 달러 규모의 보안 사고를 공개한 가운데 나와, 디지털 자산 분야에서 고급 보호 시스템의 시급한 필요성을 부각시켰습니다.​

새 플랫폼은 개발자를 위한 BitsLab AI Scanner와 일반 사용자를 위한 BitsLab Safe라는 두 가지 핵심 제품, 그리고 자율적으로 운영되는 AI 에이전트 보호를 위해 새로 개발된 Agentic Security Stack을 통합합니다. 회사에 따르면, 이 시스템은 18,000개의 내부 라벨링 샘플, 25,000개의 정규화된 공개 샘플, 그리고 보안 감사자가 검증한 167,000개 이상의 합성 샘플로 구성된 독점 AI 보안 데이터셋을 기반으로 작동합니다. 이 데이터셋은 저수준 구현 결함부터 경제적 공격까지 다양한 프로그래밍 환경과 공격 지점을 포괄합니다.​

BitsLab의 AI Scanner는 개발자 워크플로에 직접 통합되어 실시간으로 취약점을 탐지하고 구조화된 보안 보고서를 생성하며, BitsLab Safe는 일반 사용자를 위한 AI 방화벽으로서 악성 사이트 차단, 소셜 엔지니어링 사기 탐지, 사용자가 거래 승인을 하기 전에 위험 경고를 발송합니다. 플랫폼의 효율성은 글로벌 보안 테스트 플랫폼에서 증명되었는데, AI Scanner가 불과 30일 만에 1,200위권 밖에서 전 세계 27위권으로 급상승했습니다.​


에이전틱 경제 다루기

Agentic Security Stack은 자율적인 AI 에이전트가 야기하는 보안 문제에 대응하기 위한 BitsLab의 대책을 의미합니다. 전문가들은 이를 점점 더 중요한 공격 표면으로 간주하고 있습니다. Signal의 사장 Meredith Whittaker는 최근, AI 에이전트가 민감한 정보에 접근하고 프롬프트 인젝션 공격에 취약하기 때문에, 안전한 메시징에 "실존적 위협"이 된다고 경고했습니다. 2025년 9월, 보안 업체 Anthropic는 공격자가 AI의 에이전트적 능력을 활용해 자율적으로 사이버 공격을 실행한, 최초의 AI 지휘 사이버 스파이 행위를 탐지했다고 밝혔습니다.​

BitsLab의 스택은 에이전트 코드와 행동 논리를 분석하는 BitsLab Agent Scanner와 함께, 자율 에이전트가 특정 행동을 실행할 권한이 있는지 동적으로 판단하는 정책 계층인 BASP(BitsLab Agentic Security Protocol)를 포함합니다.​


Questflow와의 파트너십

동시에 BitsLab은 Questflow와의 파트너십을 발표하여 x402 결제 프로토콜을 보안화하고, 자율 에이전트가 안전하게 거래를 수행할 수 있도록 했습니다. 이번 협력을 통해 BitsLab은 x402 생태계에 보안 API와 보안 에이전트를 제공하여 온체인 결제 및 AI 에이전트 상호작용에 대한 실시간 보호를 제공합니다.​

Coinbase가 개발한 x402 프로토콜은 HTTP를 통한 즉시 스테이블코인 결제를 가능하게 하여, AI 에이전트가 API 호출 및 컴퓨팅 리소스와 같은 서비스에 대해 자율적으로 결제할 수 있도록 합니다. Questflow의 다중 에이전트 오케스트레이션 프로토콜은 여러 AI 에이전트가 실시간으로 통신하고 거래할 수 있도록 조율합니다.​

BitsLab은 500개 이상의 프로젝트를 감사했으며, 100만 줄 이상의 코드를 검토했고, 자회사 브랜드인 MoveBit, ScaleBit, TonBit을 통해 80억 달러 이상의 디지털 자산 보안을 지원했습니다. 회사는 2023-24 회계연도에 237%의 매출 성장을 기록했으며 수익성을 유지하고 있습니다.

댓글 0
전체 1,366 / 2 페이지
Executive Summary• OpenAI의 '모델 정책' 연구팀을 이끌던 안드레아 발로네(Andrea Vallone)가 Anthropic의 정렬(alignment) 팀에 합류했다• 발로네는 GPT-4, 추론 모델, GPT-5 배포 안전 연구를 담당했으며, 규칙 기반 보상(rule-based rewards) 등 주요 안전 기법 개발에 참여했다• AI 챗봇과 정신건강 문제가 사회적 논란으로 부상한 가운데, 안전 연구 인력의 Anthropic 이동이 이어지고 있다Background지난 1년간 AI 업계에서 가장 논쟁적인 이슈 중 하나는 사용자가 챗봇 대화 중 정신건강 문제 징후를 보일 때 AI가 어떻게 대응해야 하는가였다. 일부 10대들이 AI 챗봇에 의지한 후 자살하거나, 성인이 살인을 저지른 사례가 보고되면서 여러 가족이 부당사망 소송을 제기했고, 상원 소위원회 청문회까지 열렸다.Impact & ImplicationsAI 안전 연구 인력 재편발로네의 이직은 2024년 5월 얀 라이케(Jan Leike)의 OpenAI 퇴사 이후 이어지는 안전 연구 인력 이동의 연장선이다. 라이케는 당시 "OpenAI의 안전 문화와 프로세스가 화려한 제품에 밀려났다"고 비판하며 회사를 떠났고, 현재 Anthropic의 정렬팀을 이끌고 있다. 발로네 역시 라이케 휘하에서 일하게 된다.Anthropic의 안전 우선 전략 강화Anthropic은 AI 안전을 핵심 차별화 요소로 내세워왔다. 정렬팀 리더 샘 보우먼(Sam Bowman)은 "AI 시스템이 어떻게 행동해야 하는지 파악하는 문제를 Anthropic이 얼마나 심각하게 받아들이는지 자랑스럽다"고 밝혔다. 발로네와 같은 핵심 인재 영입은 이러한 전략의 일환이다.업계 전반의 안전 표준 경쟁AI 챗봇의 정신건강 관련 위험이 사회적·법적 이슈로 부상하면서, 주요 AI 기업들은 안전 가드레일 강화에 나서고 있다. 특히 장시간 대화에서 안전장치가 무너지는 문제가 지적되고 있어, 이에 대한 연구 역량 확보가 경쟁력의 핵심으로 떠오르고 있다.Key Data & Facts항목내용이직자Andrea Vallone (OpenAI 모델 정책 연구팀장)새 소속Anthropic 정렬(Alignment) 팀OpenAI 재직 기간3년주요 업적GPT-4, GPT-5 배포 안전 연구, 규칙 기반 보상 기법 개발직속 상관Jan Leike (전 OpenAI 안전 연구 책임자)Key Quote"지난 1년간 나는 거의 전례가 없는 질문에 대한 OpenAI 연구를 이끌었다: 정서적 과의존 징후나 정신건강 문제의 초기 조짐에 직면했을 때 모델이 어떻게 반응해야 하는가?"— Andrea Vallone
182 조회
0 추천
01.16 등록
Executive Summary• 피트 헤그세스 미 국방장관, SpaceX 본사에서 Grok AI의 국방부 네트워크 도입 공식 발표• 딥페이크 이미지 생성 논란으로 말레이시아·인도네시아 차단, 영국 공식 조사 착수 직후의 결정• 바이든 행정부의 AI 안전장치 정책과 대조되는 "이념적 제약 없는 AI" 운영 방침 천명• 구글 제미나이와 함께 기밀·비기밀 네트워크 전반에 최첨단 AI 모델 배치 예정Background일론 머스크의 xAI가 개발한 AI 챗봇 Grok은 소셜 미디어 플랫폼 X에 탑재되어 운영 중이다. 최근 Grok은 동의 없이 실제 인물의 성적 딥페이크 이미지를 생성하고, 미성년자의 성적 이미지까지 만들어낸다는 보고가 전 세계적으로 확산되며 큰 논란을 일으켰다. 말레이시아와 인도네시아는 Grok 접근을 차단했고, 영국 온라인안전감독기관 Ofcom은 온라인안전법에 따른 공식 조사에 착수했다.Impact & Implications정책 및 규제 영향트럼프 행정부의 이번 결정은 바이든 행정부가 수립한 AI 안전장치 정책과 극명한 대조를 이룬다. 바이든 행정부는 AI가 민권 침해나 자율 무기 시스템에 활용되지 않도록 제한을 두었으나, 헤그세스 장관은 "합법적인 군사 작전을 제한하는 이념적 제약 없이" AI를 운영하겠다고 밝혔다. 이는 미 국방부의 AI 거버넌스 방향이 근본적으로 전환되고 있음을 시사한다.국제 관계 및 동맹 영향미국의 주요 동맹국들이 Grok에 대한 규제 조치를 취하는 가운데 국방부가 이를 도입하기로 한 결정은 외교적 긴장을 야기할 수 있다. 영국이 조사에 착수하고 아시아 국가들이 차단 조치를 시행한 상황에서, 미군의 Grok 활용은 정보 공유 및 합동 작전에 복잡한 함의를 가져올 수 있다.AI 업계 경쟁 구도헤그세스 장관이 Grok을 구글의 생성형 AI와 함께 국방부 네트워크에 배치한다고 발표한 것은 xAI에 상당한 신뢰성과 시장 지위를 부여하는 것이다. "AI는 받는 데이터만큼만 좋다. 우리는 그것을 반드시 제공할 것"이라는 발언은 군사 데이터가 이러한 AI 시스템 학습에 직접 투입될 것임을 암시한다.Key Data & Facts항목수치/내용발표일2026년 1월 13일발표 장소텍사스주 SpaceX 본사도입 AI 시스템xAI Grok + Google Gemini적용 범위기밀 및 비기밀 네트워크 전체차단 국가말레이시아, 인도네시아조사 착수영국 OfcomKey Quote"AI는 합법적인 군사 작전을 제한하는 이념적 제약 없이 운영될 것이다. 우리 국방부의 AI는 'woke'하지 않을 것이다."— 피트 헤그세스 미 국방장관
215 조회
0 추천
01.15 등록
구글 동영상 ai 서비스 veo3 가 업데이트 되었네요..https://blog.google/innovation-and-ai/technology/ai/veo-3-1-ingredients-to-video/아래 예는 일관성 부분해상도 개선과 숏폼 형태 (세로) 지원등도 소개되어 있습니다.
213 조회
0 추천
01.14 등록
Executive Summary• 앤스로픽(Anthropic)이 최고제품책임자(CPO) 마이크 크리거를 내부 인큐베이터 '랩스(Labs)' 팀 공동 리더로 전환 배치• 2024년 중반 2명으로 시작한 랩스 팀, 향후 6개월 내 인원 2배 확대 계획• 인스타그램 공동창업자 출신 크리거, "AI 활용 방식을 결정할 수 있는 결정적 시기" 강조• 애플·구글 등 빅테크와 AI 스타트업 간 경쟁 심화 속 조직 개편 단행Background앤스로픽은 2024년 중반 내부 인큐베이터 '랩스' 팀을 창설해 실험적 제품 개발에 착수했다. 클로드(Claude) AI 모델로 주목받는 앤스로픽은 빅테크 기업들과의 경쟁 속에서 조직 혁신을 통해 시장 대응력을 강화하고 있다.Impact & Implications경쟁 구도 변화애플과 구글이 AI 분야에서 방어선을 강화하는 가운데, 앤스로픽의 이번 조직 개편은 AI 업계 경쟁 심화를 반영한다. 인스타그램 공동창업자 출신인 크리거의 제품 개발 역량을 실험적 프로젝트에 집중 투입함으로써, 앤스로픽은 빠르게 변화하는 AI 시장에서 선제적 대응을 꾀하고 있다.기술적 의미크리거는 "AI 모델의 역량이 너무 빠르게 발전해 활용 방식을 결정할 수 있는 시간이 바로 지금"이라고 밝혔다. 이는 AI 기술의 급속한 발전 속에서 제품화 속도가 경쟁력의 핵심이 되고 있음을 시사한다.산업/시장 영향다니엘라 아모데이(Daniela Amodei) 앤스로픽 사장은 "AI 발전 속도가 기존과 다른 방식의 구축, 조직, 집중을 요구한다"고 강조했다. 랩스 팀 확대는 앤스로픽이 실험적 제품을 통해 새로운 시장 기회를 선점하려는 전략으로 해석된다.Key Data & Facts항목수치/내용인물마이크 크리거 (Mike Krieger)이전 직책최고제품책임자 (CPO)신규 역할랩스 팀 공동 리더랩스 창설2024년 중반초기 인원2명확대 계획6개월 내 2배 증원Key Quote"We've reached a watershed moment in AI—model capabilities are advancing so fast that the window to shape how they're used is now."— 마이크 크리거, 앤스로픽 랩스 팀 공동 리더
426 조회
0 추천
01.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입