알트먼, 개인화된 AI의 새로운 보안 위험 초래 경고
페이지 정보
본문
OpenAI CEO 샘 알트먼은 스탠퍼드 대학교 인터뷰에서 AI 보안을 다음 개발 단계의 결정적 과제로 지목하며, 점점 더 개인화되는 AI 모델이 민감한 사용자 정보를 의도치 않게 노출할 수 있다고 경고했다.[digitalinformationworld +2]
이번 주 공개된 스탠퍼드 교수 댄 보네와의 인터뷰에서 알트먼은 업계의 초점이 추상적인 안전성 논쟁에서 데이터 보호 및 조작 방지와 관련된 실질적인 보안 문제로 전환되고 있다고 설명했다. 그는 언어 모델이 더욱 강력해지고 개인화됨에 따라 공공 사용을 위한 보안이 점점 더 어려워질 것이라고 말했다.[searchenginejournal +1]
개인화는 취약점을 만든다
Altman은 현대 AI 개발의 핵심에 있는 긴장 관계를 강조했습니다: 사용자들은 ChatGPT와 같은 도구가 자신의 의사소통 스타일에 적응하고 이전 상호작용의 세부 사항을 기억하는 것을 높이 평가하지만, 바로 이러한 기능들이 AI 시스템을 사생활 기록의 잠재적 저장소로 변모시킵니다. 사용자들이 이러한 시스템을 이메일이나 쇼핑 플랫폼과 같은 외부 서비스에 연결할 때 위험은 더욱 증가합니다.[digitalinformationworld +1]
그는 보안 문제에 대한 구체적인 예를 제시했습니다: 온라인 구매를 돕는 AI 비서가 이전 대화에서 수집한 개인 의료 정보를 의도치 않게 노출할 수 있다는 것입니다. “모델들은 아직 이것을 잘 처리하지 못합니다”라고 Altman은 말하며, 인간은 일반적으로 맥락의 경계를 이해할 수 있지만 AI 시스템은 유용한 맥락과 사적인 세부 사항을 구별하는 데 어려움을 겪는다고 언급했습니다.[searchenginejournal +2]
“당신이 정말로 원하지 않는 것은 누군가가 당신에 대한 모든 것을 알고 있는 개인 모델에서 데이터를 빼내갈 수 있는 것입니다”라고 Altman은 Stanford 인터뷰에서 설명했습니다. 그는 이 문제를 완전한 신뢰성으로 해결하는 것을 “AI 보안에서 가장 어려운 목표 중 하나”라고 묘사했습니다.[youtube +2]
성장하는 분야는 전문성을 요구한다
Altman은 적대적 강건성—AI 시스템이 의도하지 않은 결과를 생성하도록 속는 것을 방지하는 능력—을 이 분야가 직면한 가장 어려운 문제 중 하나로 설명했다. 프롬프트나 데이터셋의 작은 변화가 사용자가 의도하지 않은 방식으로 결과를 바꿀 수 있다고 그는 말했다.[digitalinformationworld +1]
OpenAI 최고경영자는 학생들에게 AI 보안을 공부할 것을 권장하며, 이를 “공부하기에 가장 좋은 분야 중 하나”라고 말했다. 전통적인 기술 기업들은 오랫동안 대규모 보안 팀을 유지해 왔으며, Altman은 AI 조직들도 곧 같은 수준의 관심과 전문성이 필요할 것이라고 말했다.[searchenginejournal +2]
Altman은 또한 AI가 자신이 만드는 위험에 대한 방어를 강화할 수 있다고 강조했다. OpenAI와 다른 개발자들은 이미 AI 모델을 사용하여 소프트웨어 취약점을 탐지하고 코드를 테스트하고 있다. “그런데, 이것은 양방향으로 작동합니다”라고 그는 말하며, AI가 사이버 공격과 방어 모두에서 중요한 역할을 할 것이라고 언급했다.[youtube +2]