Loading...

AI 뉴스

알트먼, 개인화된 AI의 새로운 보안 위험 초래 경고

페이지 정보

작성자 xtalfi
작성일 2025.11.13 23:19
1,475 조회
0 추천
0 비추천

본문

db2288814960606936e5cf54198bedb7_1763043473_5747.png
(퍼플렉시티가 정리한 기사)


OpenAI CEO 샘 알트먼은 스탠퍼드 대학교 인터뷰에서 AI 보안을 다음 개발 단계의 결정적 과제로 지목하며, 점점 더 개인화되는 AI 모델이 민감한 사용자 정보를 의도치 않게 노출할 수 있다고 경고했다.[digitalinformationworld +2]

이번 주 공개된 스탠퍼드 교수 댄 보네와의 인터뷰에서 알트먼은 업계의 초점이 추상적인 안전성 논쟁에서 데이터 보호 및 조작 방지와 관련된 실질적인 보안 문제로 전환되고 있다고 설명했다. 그는 언어 모델이 더욱 강력해지고 개인화됨에 따라 공공 사용을 위한 보안이 점점 더 어려워질 것이라고 말했다.[searchenginejournal +1]


개인화는 취약점을 만든다

Altman은 현대 AI 개발의 핵심에 있는 긴장 관계를 강조했습니다: 사용자들은 ChatGPT와 같은 도구가 자신의 의사소통 스타일에 적응하고 이전 상호작용의 세부 사항을 기억하는 것을 높이 평가하지만, 바로 이러한 기능들이 AI 시스템을 사생활 기록의 잠재적 저장소로 변모시킵니다. 사용자들이 이러한 시스템을 이메일이나 쇼핑 플랫폼과 같은 외부 서비스에 연결할 때 위험은 더욱 증가합니다.[digitalinformationworld +1]

그는 보안 문제에 대한 구체적인 예를 제시했습니다: 온라인 구매를 돕는 AI 비서가 이전 대화에서 수집한 개인 의료 정보를 의도치 않게 노출할 수 있다는 것입니다. “모델들은 아직 이것을 잘 처리하지 못합니다”라고 Altman은 말하며, 인간은 일반적으로 맥락의 경계를 이해할 수 있지만 AI 시스템은 유용한 맥락과 사적인 세부 사항을 구별하는 데 어려움을 겪는다고 언급했습니다.[searchenginejournal +2]

“당신이 정말로 원하지 않는 것은 누군가가 당신에 대한 모든 것을 알고 있는 개인 모델에서 데이터를 빼내갈 수 있는 것입니다”라고 Altman은 Stanford 인터뷰에서 설명했습니다. 그는 이 문제를 완전한 신뢰성으로 해결하는 것을 “AI 보안에서 가장 어려운 목표 중 하나”라고 묘사했습니다.[youtube +2]


성장하는 분야는 전문성을 요구한다

Altman은 적대적 강건성—AI 시스템이 의도하지 않은 결과를 생성하도록 속는 것을 방지하는 능력—을 이 분야가 직면한 가장 어려운 문제 중 하나로 설명했다. 프롬프트나 데이터셋의 작은 변화가 사용자가 의도하지 않은 방식으로 결과를 바꿀 수 있다고 그는 말했다.[digitalinformationworld +1]

OpenAI 최고경영자는 학생들에게 AI 보안을 공부할 것을 권장하며, 이를 “공부하기에 가장 좋은 분야 중 하나”라고 말했다. 전통적인 기술 기업들은 오랫동안 대규모 보안 팀을 유지해 왔으며, Altman은 AI 조직들도 곧 같은 수준의 관심과 전문성이 필요할 것이라고 말했다.[searchenginejournal +2]

Altman은 또한 AI가 자신이 만드는 위험에 대한 방어를 강화할 수 있다고 강조했다. OpenAI와 다른 개발자들은 이미 AI 모델을 사용하여 소프트웨어 취약점을 탐지하고 코드를 테스트하고 있다. “그런데, 이것은 양방향으로 작동합니다”라고 그는 말하며, AI가 사이버 공격과 방어 모두에서 중요한 역할을 할 것이라고 언급했다.[youtube +2]

댓글 0
전체 1,366 / 34 페이지
인공지능(AI) 모델들의 성능 경쟁이 치열해지면서, 추론, 수리 등 종합적인 역량을 객관적으로 평가하는 다양한 벤치마크에 대한 관심이 높아지고 있습니다. 사용자의 직접적인 평가를 반영하는 '엘엠아레나(LMArena)'는 익명으로 받은 두 개의 AI 답변 중 더 우수한 것을 고르거나 무승부를 선언하여 순위를 매기는 방식입니다.기존 벤치마크의 한계를 극복하기 위해 만들어진 '인류의 마지막 시험(HLE)'은 수학, 물리학 등 100개 이상 과목의 고난도 문제를 통해 AI의 정답률을 측정합니다. 또한, AI의 자율적인 경제활동 능력을 측정하는 '벤딩 벤치(Vending-Bench)'는 AI가 재고 관리와 가격 책정 등을 얼마나 잘 수행하는지 평가합니다.이 외에도 코딩 오류 해결 능력을 평가하는 'SWE벤치'와 수학 올림피아드 난이도의 '매스아레나 에이펙스' 등 다양한 전문 벤치마크들이 활용됩니다. 하지만 이러한 AI 벤치마크는 윤리나 안전보다는 높은 경제적 보상이 기대되는 과업에만 초점을 맞춘다는 비판도 제기됩니다.
584 조회
0 추천
2025.12.14 등록
앨런 AI 연구소(Ai2)는 훈련 데이터와 가중치까지 완전히 공개하는 대표적인 대형언어모델(LLM)인 '올모(OLMo) 3'의 업데이트 버전 '올모 3.1'을 공개했습니다. 새로 출시된 '올모 3.1 싱크 32B'와 '올모 3.1 인스트럭트 32B'는 강화 학습(RL)을 추가 적용하여 추론, 수학, 지시 이행 능력 등 여러 벤치마크에서 성능이 크게 향상되었습니다.특히, '싱크 32B'는 고급 추론과 연구 목적에 최적화되었으며, '인스트럭트 32B'는 대화형 AI와 툴 기반 워크플로에 맞춰 현재까지 공개된 완전 오픈 소스 32B급 지시형 모델 중 가장 강력한 성능을 자랑합니다. Ai2는 이를 새로운 모델 출시가 아닌 '체크포인트 추가' 개념으로 소개하며, 개발자들이 모델의 학습 과정을 완벽하게 통제하고 자체 데이터를 추가해 재학습할 수 있도록 지원합니다.Ai2는 올모 시리즈가 개방성과 성능을 동시에 발전시킬 수 있음을 보여주며, 학습 데이터, 코드, 결정에 대한 엔드투엔드 투명성을 유지하면서 기능을 지속적으로 개선했다고 강조했습니다. 이 새로운 '체크포인트' 모델들은 Ai2 플레이그라운드와 허깅페이스를 통해 제공되어 개발자 및 연구기관의 활용을 넓힐 예정입니다.* 앨런 인공지능 연구소(Ai2)는 마이크로소프트 공동 창립자였던 고(故) 폴 앨런이 공익을 위해 고도(하이-임팩트) AI 연구 및 엔지니어링을 수행할 목적으로 2014년에 설립한 비영리 연구소입니다. 이 연구소는 텍스트를 읽고 추론하여 지식을 입증하는 AI 시스템 개발을 목표로 시작했으며, 현재도 개방성과 투명성을 중시하며 AI 분야의 발전을 주도하고 있습니다.
580 조회
0 추천
2025.12.14 등록
오픈AI의 최신 AI 모델인 'GPT-5.2'는 초기 테스트에서 전문가와 기업용 업무 처리, 복잡한 문제 해결 능력 등 전문 작업 분야에서 역대 최고라는 평가를 받았습니다. 하이퍼라이트AI CEO 등 전문가들은 이 모델이 상당한 사고 시간을 요구하는 어려운 작업을 완벽하게 수행하며 '세계 최고의 모델'이라고 극찬했습니다.이 모델은 사고력과 문제 해결 능력이 눈에 띄게 향상되어 복잡한 코드 구조를 한 번에 생성하고, 몇 시간 동안 작업을 지속하는 등 개발자와 기업에 매우 중요한 의미를 갖습니다. 박스(Box) CEO 등은 GPT-5.2가 금융 및 생명 과학 분야의 실제 업무 지식을 테스트하는 확장 추론에서 기존 모델보다 훨씬 빠르게 작업을 수행했다고 밝혔습니다.반면, 일반 사용자들은 일상적인 글쓰기나 순수 채팅 기능에서 체감할 만한 개선점을 느끼기 어렵다는 엇갈린 평가가 나왔고, 일부는 딱딱한 어조나 속도 저하를 단점으로 지적했습니다. 코드명 '갈릭'으로 알려진 이 모델은 코딩과 B2B에 최적화된 도구로 보이며, 일반 사용자가 느낄 만한 성능 향상은 내년 1월 출시 모델을 기다려야 할 것으로 분석됩니다.
569 조회
0 추천
2025.12.14 등록
저작권 소송에서 Meta를 고소한 작가들은 목요일 연방 판사에게 회사가 Llama AI 모델을 훈련시키기 위해 BitTorrent를 통해 불법 복제된 책을 다운로드하고 파일 공유를 통해 저작권이 있는 자료를 다른 사람들에게 적극적으로 재배포했다는 새로운 혐의로 소장을 수정해 줄 것을 요청했습니다.코미디언 Sarah Silverman과 작가 Richard Kadrey 및 Christopher Golden을 포함한 원고들은 Meta가 저작권이 있는 저작물을 어떻게 입수했는지에 대해 처음에는 “알 수 없었다”고 말했지만, 회사가 최근 증거 개시 과정에서 토렌트 활동에 대한 “결정적인 증거”를 제출했으며, 여기에는 Meta가 토렌트 사이트에서 그들의 저작물이 포함된 불법 복제 파일을 “시딩”했다는 증언이 포함되어 있습니다.새로운 주장은 Vince Chhabria 판사가 6월에 AI 모델을 훈련시키기 위해 저작권이 있는 책을 사용하는 것은 공정 이용에 해당한다고 판결했지만 배포에 대한 문제는 여지를 남긴 이후, BitTorrent 시딩을 통한 Meta의 불법 복제 자료 재배포가 훈련을 넘어선 저작권 침해에 해당하는지 여부를 중심으로 합니다.
588 조회
0 추천
2025.12.14 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입