Loading...

AI 뉴스

알트먼, 개인화된 AI의 새로운 보안 위험 초래 경고

페이지 정보

작성자 xtalfi
작성일 2025.11.13 23:19
1,207 조회
0 추천
0 비추천

본문

db2288814960606936e5cf54198bedb7_1763043473_5747.png
(퍼플렉시티가 정리한 기사)


OpenAI CEO 샘 알트먼은 스탠퍼드 대학교 인터뷰에서 AI 보안을 다음 개발 단계의 결정적 과제로 지목하며, 점점 더 개인화되는 AI 모델이 민감한 사용자 정보를 의도치 않게 노출할 수 있다고 경고했다.[digitalinformationworld +2]

이번 주 공개된 스탠퍼드 교수 댄 보네와의 인터뷰에서 알트먼은 업계의 초점이 추상적인 안전성 논쟁에서 데이터 보호 및 조작 방지와 관련된 실질적인 보안 문제로 전환되고 있다고 설명했다. 그는 언어 모델이 더욱 강력해지고 개인화됨에 따라 공공 사용을 위한 보안이 점점 더 어려워질 것이라고 말했다.[searchenginejournal +1]


개인화는 취약점을 만든다

Altman은 현대 AI 개발의 핵심에 있는 긴장 관계를 강조했습니다: 사용자들은 ChatGPT와 같은 도구가 자신의 의사소통 스타일에 적응하고 이전 상호작용의 세부 사항을 기억하는 것을 높이 평가하지만, 바로 이러한 기능들이 AI 시스템을 사생활 기록의 잠재적 저장소로 변모시킵니다. 사용자들이 이러한 시스템을 이메일이나 쇼핑 플랫폼과 같은 외부 서비스에 연결할 때 위험은 더욱 증가합니다.[digitalinformationworld +1]

그는 보안 문제에 대한 구체적인 예를 제시했습니다: 온라인 구매를 돕는 AI 비서가 이전 대화에서 수집한 개인 의료 정보를 의도치 않게 노출할 수 있다는 것입니다. “모델들은 아직 이것을 잘 처리하지 못합니다”라고 Altman은 말하며, 인간은 일반적으로 맥락의 경계를 이해할 수 있지만 AI 시스템은 유용한 맥락과 사적인 세부 사항을 구별하는 데 어려움을 겪는다고 언급했습니다.[searchenginejournal +2]

“당신이 정말로 원하지 않는 것은 누군가가 당신에 대한 모든 것을 알고 있는 개인 모델에서 데이터를 빼내갈 수 있는 것입니다”라고 Altman은 Stanford 인터뷰에서 설명했습니다. 그는 이 문제를 완전한 신뢰성으로 해결하는 것을 “AI 보안에서 가장 어려운 목표 중 하나”라고 묘사했습니다.[youtube +2]


성장하는 분야는 전문성을 요구한다

Altman은 적대적 강건성—AI 시스템이 의도하지 않은 결과를 생성하도록 속는 것을 방지하는 능력—을 이 분야가 직면한 가장 어려운 문제 중 하나로 설명했다. 프롬프트나 데이터셋의 작은 변화가 사용자가 의도하지 않은 방식으로 결과를 바꿀 수 있다고 그는 말했다.[digitalinformationworld +1]

OpenAI 최고경영자는 학생들에게 AI 보안을 공부할 것을 권장하며, 이를 “공부하기에 가장 좋은 분야 중 하나”라고 말했다. 전통적인 기술 기업들은 오랫동안 대규모 보안 팀을 유지해 왔으며, Altman은 AI 조직들도 곧 같은 수준의 관심과 전문성이 필요할 것이라고 말했다.[searchenginejournal +2]

Altman은 또한 AI가 자신이 만드는 위험에 대한 방어를 강화할 수 있다고 강조했다. OpenAI와 다른 개발자들은 이미 AI 모델을 사용하여 소프트웨어 취약점을 탐지하고 코드를 테스트하고 있다. “그런데, 이것은 양방향으로 작동합니다”라고 그는 말하며, AI가 사이버 공격과 방어 모두에서 중요한 역할을 할 것이라고 언급했다.[youtube +2]

댓글 0
전체 1,366 / 65 페이지
기술 저널리스트 Alex Kantrowitz와 Ranjan Roy는 Google의 Gemini 3가 OpenAI의 심각한 경쟁자로 부상했으며, Sam Altman이 유출된 메모에서 직원들에게 “거친 분위기”와 “일시적인 경제적 역풍”을 예상하라고 경고했다고 논의했습니다. Kantrowitz는 이를 분수령의 순간이라고 부르며, OpenAI가 앞서간다는 것을 인정받은 적이 없었다고 말했습니다.Gemini 3는 Arc AGI와 LM Arena 리더보드를 포함한 주요 AI 벤치마크에서 1위를 차지했으며, 추상적 시각 추론에서 GPT-5.1의 점수(31.1% 대 17.6%)의 거의 두 배를 달성했습니다. 한편 Google의 조직 재편—DeepMind와 Brain을 회사의 “엔진룸”으로 통합하고 검색에서 수백 명의 엔지니어를 이동—이 이러한 반전을 가능하게 했습니다.이러한 변화는 Google이 시가총액 3조 6,200억 달러로 Microsoft를 앞지르고, Nvidia의 기록적인 실적이 AI 거래를 유지하지 못하면서 발생했으며, 주가는 상승 5%에서 하락 3%로 반전되었습니다. 이는 AI 모델의 상품화와 경쟁하는 챗봇들이 기능적으로 상호 교환 가능해지고 있는지에 대한 투자자들의 우려가 커지면서 나타났습니다.
717 조회
0 추천
2025.11.25 등록
개발자 Simon Willison은 최상위 모델들이 현재 너무나 유사하게 작동하여 실제 작업에서는 기업들이 각 릴리스마다 개선을 주장함에도 불구하고 의미 있는 성능 차이를 드러내지 못하기 때문에, 최첨단 AI 모델 평가가 점점 더 어려워지고 있다고 주장한다.Willison은 Anthropic에서 새로 출시한 Claude Opus 4.5를 사용하여 이틀 동안 39개 파일에 걸쳐 2,022개의 코드 추가를 포함하는 광범위한 코딩 작업을 완료한 후, 이전 Claude Sonnet 4.5 모델로 다시 전환했을 때도 동일한 속도로 작업을 계속할 수 있었으며, 두 모델 간의 구체적인 성능 차이를 식별할 수 없었다고 밝혔다.Willison은 AI 연구소들이 새로운 모델을 출시할 때 이전 모델에서는 실패했지만 새 모델에서는 성공하는 프롬프트의 구체적인 예시를 함께 제공할 것을 요구하며, 이러한 시연이 MMLU나 GPQA Diamond와 같은 테스트에서 한 자릿수 백분율 포인트 개선을 보여주는 벤치마크보다 더 가치 있을 것이라고 주장한다—이는 최첨단 모델들이 전통적인 평가 지표를 점점 더 포화시키면서 업계 전반이 겪고 있는 어려움을 반영하는 과제이다.
753 조회
0 추천
2025.11.25 등록
VentureBeat기사는스스로를"AI우선"이라고선언하는대부분의기업들이진정한도입보다는형식적인혁신에몰두하고있다고주장하며,진정한AI도입은하향식기업지시가아닌호기심많은직원들이조용히실험하는과정에서자연스럽게나타난다고설명합니다.​이기사는직접프로토타입을만들고자신의실패를공유하는리더와금요일까지AI계획을요구하는Slack메시지로단순히규정준수를강요하는리더를구분하며,전자는실질적인추진력을조성하는반면후자는반감을낳는다고설명합니다.​기사는재무및운영부서의직원들이일반적으로이사회프레젠테이션에등장하는고가의엔터프라이즈플랫폼이아닌"그냥ChatGPT"를사용한다고인정한다고언급하며,최근설문조사에따르면광범위한도입의무에도불구하고직원의5%만이AI를최대한활용하여업무를혁신하고있다고밝힙니다.
739 조회
0 추천
2025.11.25 등록
Microsoft는사용자의PC에서직접시각적스크린샷을해석하고마우스및키보드동작을제어하여작업을수행하는70억개의매개변수를가진AI에이전트Fara-7B를공개했으며,이는데이터처리를로컬에유지하여개인정보보호를강화하고HIPAA및GLBA와같은규정을준수할수있는클라우드기반모델의대안을제공합니다.​WebVoyager웹탐색벤치마크에서Fara-7B는69.5%의작업성공률을달성하여GPT-4o의65.1%성능을능가했으며,유사한크기의모델이필요로하는41단계에비해약16단계만에작업을완료했습니다.​이모델은Microsoft의Magentic-One다중에이전트프레임워크에의해생성된145,000개의합성작업궤적을사용하여훈련되었으며,현재MIT라이선스하에HuggingFace에서사용할수있습니다.다만Microsoft는이모델이여전히실험적이며프로덕션배포보다는파일럿프로젝트에가장적합하다고주의를당부하고있습니다.
729 조회
0 추천
2025.11.25 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입