Loading...

AI 뉴스

OpenAI, 협박 위협으로 사무실 폐쇄

페이지 정보

작성자 xtalfi
작성일 2025.11.22 15:23
620 조회
0 추천
0 비추천

본문

5943dd83e9ab429023213bfb4a3f0a76_1763792512_6433.png
 

오픈AI는 금요일 오후, 과거 ‘Stop AI’라는 활동가 단체와 연관됐던 개인으로부터 신뢰할 만한 협박을 받은 뒤 샌프란시스코 본사를 봉쇄 조치했으며, 이는 인공지능 기업들과 개발 속도의 감속을 요구하는 시위대 간 긴장이 고조되고 있음을 보여주는 사건이다.

오전 11시경, 샌프란시스코 경찰은 범죄 추적 앱 시티즌(Citizen)의 데이터에 따르면, 오픈AI의 미션 베이 사무실 인근인 테리 프랑수아 대로 550번지에서 한 남성이 협박을 하고 있다는 911 전화를 접수했다. 경찰 무전기 녹음에서는 용의자의 이름이 언급되었고, 그가 추가적인 오픈AI 지점을 노릴 계획으로 무기를 구매했을 가능성이 제기됐다.


보안 프로토콜 및 직원 경고

OpenAI의 내부 커뮤니케이션 팀은 해당 인물이 “OpenAI 직원들에게 물리적 위해를 가하는 데 관심을 보였다”고 경고하는 긴급 Slack 메시지를 보냈으며, 그가 이전에 회사의 샌프란시스코 시설을 방문한 적이 있다고 밝혔다. 팀은 용의자로 지목된 인물의 사진 세 장을 직원들에게 배포했다.

직원들은 건물 안에 머물고, 건물을 나갈 때는 신분증 배지를 제거하며, OpenAI 로고가 표시된 옷을 착용하지 말라는 지시를 받았다. 이후 글로벌 보안 팀의 한 고위 관계자는 “현재로서는 적극적인 위협 활동의 징후는 없으며, 상황은 계속 진행 중이고 평가가 이어지는 동안 우리는 신중한 예방 조치를 취하고 있다”고 밝혔다.

사건이 발생하기 몇 시간 전, 그는 자신이 더 이상 Stop AI와 관련이 없다고 소셜 미디어에서 공개적으로 선언했다. 작년 Stop AI가 발표한 보도자료에 따르면, 그는 과거에 AI 기술이 과학적 발견과 고용에서 인간을 대체한다면 “삶이 살아갈 가치가 없을 것”이라고 말한 조직자로 묘사된 바 있다.


고조되는 행동주의자 갈등

이번 봉쇄 조치는 샌프란시스코에서 벌어지고 있는 AI 안전 활동가들의 점점 더 대담해지는 시위들에 뒤이어 이루어진 것이다. 2월에는 ‘Stop AI’ 시위대 3명이 OpenAI 정문을 신체적으로 가로막고 문을 쇠사슬로 잠갔다가 체포됐다. 이달 초에는 샌프란시스코 공공변호인실 소속 조사관이 한 공개 행사 도중 무대 위에서 CEO 샘 올트먼에게 소환장을 직접 전달하며, Stop AI의 다가오는 재판과 관련된 형사 사건의 증인으로 출석할 것을 요구했다.

Stop AI와 Pause AI를 포함한 관련 단체들은 2025년 내내 OpenAI와 다른 인공지능 기업들의 사무실 앞에서 시위를 벌이며, 통제되지 않은 AI 개발이 인류에 실존적 위협을 초래할 수 있다는 우려를 표명해왔다. 이 단체들은 인공지능 일반지능(AGI)을 개발하는 기업들에 대해 정부 차원의 셧다운을 요구해 왔다.

샌프란시스코 경찰과 OpenAI는 기사 마감 전까지 별도의 입장을 내지 않았다.

댓글 0
전체 1,366 / 61 페이지
Anthropic은 Claude를 위한 세 가지 베타 기능인 Tool Search Tool, Programmatic Tool Calling, Tool Use Examples를 출시했습니다. 이는 AI 에이전트가 컨텍스트 윈도우를 과부하시키지 않고 수백 또는 수천 개의 도구를 사용할 수 있도록 하며, 개별 API 요청 대신 코드를 통해 도구를 호출하고, 스키마 정의만으로가 아닌 구체적인 예시를 통해 올바른 사용법을 학습하도록 설계되었습니다.내부 테스트에서 Tool Search Tool은 토큰 사용량을 85% 감소시키는 동시에 대규모 도구 라이브러리에서 Opus 4.5의 정확도를 79.5%에서 88.1%로 향상시켰으며, Programmatic Tool Calling은 복잡한 연구 작업에서 37%의 토큰 절감을 달성하면서 이전에 도구 호출당 수백 밀리초가 필요했던 여러 추론 과정을 제거했습니다.이 기능들은 GitHub, Slack, Sentry, Grafana, Splunk를 연결하는 기본 5개 서버 설정에서 대화가 시작되기 전에 약 55,000개의 토큰을 소비하는 중요한 확장성 문제를 해결합니다. Anthropic은 최적화 이전 프로덕션 환경에서 도구 정의가 최대 134,000개의 토큰을 소비하는 것을 관찰했습니다.
564 조회
0 추천
2025.11.25 등록
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
569 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
605 조회
0 추천
2025.11.25 등록
VentureBeat기사는스스로를"AI우선"이라고선언하는대부분의기업들이진정한도입보다는형식적인혁신에몰두하고있다고주장하며,진정한AI도입은하향식기업지시가아닌호기심많은직원들이조용히실험하는과정에서자연스럽게나타난다고설명합니다.​이기사는직접프로토타입을만들고자신의실패를공유하는리더와금요일까지AI계획을요구하는Slack메시지로단순히규정준수를강요하는리더를구분하며,전자는실질적인추진력을조성하는반면후자는반감을낳는다고설명합니다.​기사는재무및운영부서의직원들이일반적으로이사회프레젠테이션에등장하는고가의엔터프라이즈플랫폼이아닌"그냥ChatGPT"를사용한다고인정한다고언급하며,최근설문조사에따르면광범위한도입의무에도불구하고직원의5%만이AI를최대한활용하여업무를혁신하고있다고밝힙니다.
585 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입