Loading...

AI 뉴스

어도비, 맞춤형 모델 구축을 위한 AI 파운드리 출시

페이지 정보

작성자 xtalfi
작성일 10.21 14:51
59 조회
0 추천
0 비추천

본문

shutterstock_1998645551-768x511.jpg

(퍼플렉시티가 정리한 기사)

어도비는 오늘 기업의 지적 재산과 브랜드 자산에 맞춰 특별히 훈련된 맞춤형 생성형 AI 모델을 구축하는 새로운 엔터프라이즈 서비스인 어도비 AI 파운드리(Adobe AI Foundry)를 공개했다. 이번 발표는 엔터프라이즈 AI 분야에서 어도비의 가장 공격적인 진출을 의미하며, 기업들이 모든 콘텐츠 제작에서 브랜드 일관성을 유지할 수 있는 맞춤형 모델을 통해 범용 AI 툴에 대한 대안을 제공한다.

어도비의 상업적으로 안전한 파이어플라이(Firefly) 모델을 기반으로 한 AI 파운드리는 기업이 특정 브랜드 가이드라인을 준수하면서 텍스트, 이미지, 비디오, 오디오, 3D 콘텐츠를 생성할 수 있는 맞춤형 AI 시스템을 구축할 수 있도록 지원한다. 기존의 사용자 기반 소프트웨어 라이선스와 달리, 이 서비스는 소비량 기반 과금 모델로 운영되며, 기업이 AI 인프라 예산을 편성하는 방식을 반영한다.

 

주요 브랜드가 초기 도입을 선도하다

 

홈디포, 월트 디즈니 이매지니어링, 그리고 NBC유니버설은 어도비의 파운드리 서비스와 협력하는 첫 번째 기업들 중 일부입니다. 이 이니셔티브는 창의적인 팀들이 브랜드에 맞는 콘텐츠 제작을 확장하면서, 생성형 AI 업계에서 문제가 되었던 저작권 이슈를 해결하는 것을 목표로 하고 있습니다.​

"우리는 항상 고객 경험을 향상시키고 창의적인 워크플로를 간소화하기 위한 혁신적인 방법을 모색하고 있습니다."라고 홈디포의 최고 마케팅 책임자 몰리 배틴은 말했습니다. "어도비의 AI 파운드리는 고객 참여를 심화시키고 우리의 디지털 채널 전체에 영향력 있는 콘텐츠를 제공하기 위해 첨단 기술을 도입하는 흥미로운 진전입니다".​

어도비의 GenAI 신규 사업 관리자 한나 엘사커 부사장은 이번 출범이 엔터프라이즈의 고도화된 AI 맞춤화에 대한 수요에 대한 답변이라고 설명했습니다. "엔터프라이즈 기업들이 우리에게 조언을 해주고, 도와주고, 협력해주고, 최고의 창의적 마케팅 AI 파트너가 되어달라고 요청해왔습니다."라고 엘사커는 테크크런치와의 인터뷰에서 말했습니다.

 

표준 파인튜닝을 넘어선 깊은 맞춤화

 

어도비는 AI 파운드리를 경쟁사들이 사용하는 일반적인 파인튜닝 방식이 아닌 "딥 튜닝(deep tuning)"을 제공하는 서비스로 포지셔닝하고 있습니다. 이 서비스는 어도비 팀이 고객과 직접 협력하여 데이터를 선별하고, 가드레일을 설정하며, 브랜드 영상, 제품 카탈로그, 라이선스 자료 등 고객 자산을 활용해 Firefly의 기반 모델을 재학습시키는 과정을 포함합니다.​

"우리는 사실상 Firefly 기반 모델을 다시 열고 있다"고 엘사크르는 설명했습니다. "이렇게 하면 저희 이미지나 영상 모델에 내재된 폭넓은 지식을 활용할 수 있습니다. 과거를 다시 살펴보고 기업의 지적 재산을 통합하죠... 그리고 나서 재학습을 진행하는데, 이것을 저희는 연속적 사전 학습(continuous pre-training)이라고 부릅니다".​

파운드리 방식은 브랜드 일관성을 유지하면서 콘텐츠 제작을 확장하려는 주요 기업의 고민을 해결해줍니다. Firefly가 2023년에 출시된 이후, 기업들은 어도비의 AI 모델을 통해 250억 개 이상의 자산을 제작해왔으며, 이는 브랜드 기준을 이해하는 창의적 AI 도구에 대한 상당한 수요를 보여줍니다.​

어도비 주가는 장 초반 소폭 상승하여 $334.86을 기록했지만, AI 수익화 일정에 대한 더 넓은 우려 속에 올해 들어 약 25% 하락한 상태입니다. 어도비는 Canva, 구글, OpenAI 등과의 경쟁이 치열해지는 가운데, 자사의 AI 투자가 실질적인 수익으로 이어지고 있음을 입증하기 위해 노력하고 있습니다.

댓글 0
전체 527 / 10 페이지
(퍼플렉시티가 정리한 기사)PNAS Nexus에 발표된 새로운 연구에 따르면, 소셜 네트워크에서 영향력 있는 사람들을 식별하도록 설계된 알고리즘이 특정 집단을 뒤처지게 만드는 정보 격차를 의도치 않게 만들 수 있다고 합니다. 이 연구는 이러한 알고리즘이 메시지 도달 범위를 극대화하는 데는 뛰어나지만, 취약한 인구 집단을 중요한 정보 수신에서 체계적으로 배제함으로써 기존의 사회적 불평등을 악화시킬 수 있다고 밝혔습니다.표준 알고리즘은 정보 격차를 만든다Vedran Sekara가 이끄는 연구팀은 마을의 가구 연결망, 정치 블로거 네트워크, 페이스북 친구 관계, 과학 협력 관계를 포함한 다양한 실제 소셜 네트워크에서 영향력 극대화 알고리즘을 테스트했습니다. 독립 캐스케이드 모델을 사용한 결과, 확산만을 극대화하는 데 집중하는 알고리즘은 특정 외부 집단이 중요한 메시지를 지속적으로 놓치게 되는 정보 격차를 만든다는 것을 발견했습니다.​이 연구는 이렇게 간과된 개인들을 "취약 노드"로 식별합니다. 이들은 알고리즘이 영향력 있는 네트워크 구성원을 통해 최대한 많은 사람들에게 도달하는 것을 우선시할 때 체계적으로 배제되는 사람들입니다. 이 발견은 공평한 정보 배포가 필수적인 공중 보건 캠페인, 사회 서비스 지원 활동, 긴급 통신에 중요한 시사점을 제공합니다.더 공정한 알고리즘이 가능성을 보여주다이러한 불평등을 해결하기 위해 연구자들은 정보 확산과 공정성을 모두 극대화하도록 설계된 다목적 알고리즘을 개발했습니다. 이 접근법은 표준 방법이 일반적으로 간과하는 네트워크 노드에 정보가 도달하도록 보장하려고 시도합니다. 보다 공정한 타겟팅 방법은 거의 동일한 전체 도달 범위를 유지하면서 취약한 노드를 6%에서 10% 줄이는 결과를 가져왔습니다.​이 연구는 디지털 플랫폼 전반에 걸친 알고리즘 편향에 대한 인식이 높아지는 가운데 이루어졌습니다. 이동성 데이터에 대한 Sekara의 광범위한 연구는 유사한 패턴을 드러냈으며, 알고리즘이 종종 부유하고 교육받은 인구를 선호하는 반면 여성, 노인, 어린이를 과소 대표하는 것으로 나타났습니다. Sekara의 이전 연구에 따르면, 일부 데이터셋에서 이동성 데이터의 절반은 가장 부유한 20%의 인구에서 나오는 반면, 가장 가난한 20%에서는 단 5%만 발생합니다.​알고리즘이 사회를 통해 정보가 확산되는 방식을 점점 더 형성함에 따라, 이 연구는 효율성과 함께 공정성을 우선시하는 것이 도달 범위를 크게 손상시키지 않으면서 디지털 불평등을 줄이는 데 도움이 될 수 있음을 시사합니다.
30 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)Reddit는 정교한 AI 생성 콘텐츠가 커뮤니티에 쏟아지면서 "인터넷에서 가장 인간적인 공간"이라는 정체성에 전례 없는 도전에 직면하고 있으며, 이로 인해 자원봉사 운영자들은 온라인에서 진정한 참여가 무엇을 의미하는지 재정의해야 하는 상황에 놓였습니다.코넬 대학교의 새로운 연구는 Reddit 운영자들이 AI 생성 콘텐츠를 플랫폼의 핵심 가치에 대한 "삼중 위협"으로 보고 있으며, 이는 콘텐츠 품질을 저하시키고, 사회적 역학을 방해하며, 거의 불가능한 거버넌스 과제를 만들어낸다고 밝혔습니다.중재자들은 탐지와 집행에 어려움을 겪고 있다노르웨이 베르겐에서 열린 ACM SIGCHI 컴퓨터 지원 협업 작업 컨퍼런스에서 발표된 이 연구는 10명에서 3,200만 명에 이르는 회원 수를 가진 100개 이상의 서브레딧을 관리하는 15명의 운영자를 인터뷰했다. Reddit의 광대한 커뮤니티 생태계를 공동으로 관리하는 이들 자원봉사자들은 AI 게시물을 인간처럼 보이지만 진정한 통찰력이 부족한 "장황하지만 영혼 없는" 콘텐츠로 묘사했다.​r/explainlikeimfive의 한 운영자는 "가장 위협적인 우려 사항으로 평가하겠다"고 말했다. "감지하기 어려운 경우가 많고 사이트의 실제 운영에 매우 방해가 된다고 본다".​이 문제는 단순한 스팸 탐지를 넘어선다. 운영자들은 반복적인 문구와 AI 작성을 나타낼 수 있는 문체상의 이상함을 발견하기 위해 직관에 의존하며 콘텐츠를 수동으로 검토하는 데 몇 시간을 소비한다고 보고한다. Reddit의 AutoModerator와 같은 자동화된 필터조차도 뉘앙스를 다루는 데 어려움을 겪으며, 종종 오탐을 생성하여 진정한 사용자, 특히 영어가 모국어가 아닌 사용자들을 소외시킬 위험이 있다.플랫폼, 진정성 보존을 위해 분투하다Reddit CEO Steve Huffman은 2025년 5월 위기를 인정하며, 인간과 AI 봇을 구별하기 위해 제3자 검증 서비스와 협력할 계획을 발표했습니다. 이 플랫폼은 사용자 익명성을 유지하면서 인간 증명을 위해 Sam Altman의 생체인식 기반 디지털 신원 시스템인 World ID를 고려하고 있는 것으로 알려졌습니다.​"인간 검증은 현재 우리의 최우선 과제입니다"라고 Huffman은 6월 Financial Times에 말했습니다. "올해 남은 기간 동안 우리는 이를 발전시킬 것입니다. 이는 인터넷 전반에 걸친 필요사항입니다".​연구자들이 Reddit의 "Change My View" 서브레딧에 AI 봇을 투입하여 다양한 페르소나를 채택하며 1,700개 이상의 댓글을 게시한 후 긴급성이 명백해졌습니다. 이 사건은 Reddit의 사용자 식별 프로세스의 취약점을 드러냈고 AI가 어떻게 진정한 담론을 조작할 수 있는지를 강조했습니다.커뮤니티들이 AI 사용에 대해 강경한 입장을 취하다개별 서브레딧들은 자체적인 제한 조치를 시행하기 시작했습니다. r/WritingPrompts 같은 커뮤니티는 인간의 창의성을 보존하기 위해 AI를 전면 금지한 반면, r/AskHistorians 같은 다른 커뮤니티들은 진정한 전문성을 뒷받침할 때 제한적인 사용을 허용하고 있습니다. 2025년 6월 r/productivity에 게시된 글은 AI 생성 콘텐츠에 대한 전면 금지를 발표했으며, 콘텐츠 품질 저하에 좌절한 사용자들로부터 1,200개 이상의 추천을 받았습니다.​코넬 대학교 연구에 따르면 2023년 7월부터 2024년 11월 사이 Reddit 커뮤니티 전반에서 AI 규칙이 두 배 이상 증가했으며, 더 큰 서브레딧일수록 제한 조치를 시행할 가능성이 훨씬 더 높았습니다. 시각적 콘텐츠를 자주 공유하는 예술 및 유명인 중심 커뮤니티들은 AI 생성 이미지와 동영상에 대해 특히 우려를 나타냈습니다.​Reddit 창립자 Alexis Ohanian이 2025년 10월에 경고했듯이, 인터넷의 상당 부분이 "봇으로 가득 차거나" "준(準)-AI화"되어, 한때 "진정한 인간 연결의 공간"이었던 것이 점점 더 "비인간적인" 것으로 변모하고 있습니다. 이제 플랫폼의 과제는 AI로 포화된 디지털 환경에 적응하면서도 플랫폼의 명성을 구축한 진정한 인간의 목소리를 보존하는 데 있습니다.
31 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)과학자들은 우리가 외계 생명체를 발견하지 못한 이유에 대한 놀라운 새로운 설명을 제안했습니다. 고도로 진화된 외계 문명이 인공지능으로 인해 너무 빠르게 진화해서 불과 수십 년 만에 우리의 탐지 방법으로는 보이지 않게 되어, 우리가 놓치고 있을 가능성이 높은 "우주의 눈깜짝할 사이(cosmic blink)"를 만들어낸다는 것입니다.AI 가속화로 탐지 창이 축소됨맨체스터 대학교 조드렐 뱅크 천체물리학 센터의 마이클 가렛이 9월에 발표한 연구에 따르면, AI 주도의 기술 가속화를 경험하는 외계 문명은 불과 100년 또는 심지어 수십 년 만에 탐지 가능한 단계를 지나칠 수 있다고 제안합니다. 이는 가렛이 "탐지 창(detection window)"이라고 부르는 기간을 극적으로 단축시킵니다. 탐지 창이란 문명의 기술이 우리의 탐지 능력과 겹치는 짧은 기간을 의미합니다.​이 연구는 칼 세이건의 1970년대 "통신 지평선(communication horizon)" 개념을 재검토합니다. 이 개념은 진보하는 문명이 결국 우리의 탐지 능력을 넘어서는 통신 방법을 개발한다고 제안했습니다. 세이건은 인류의 역사적 진보를 바탕으로 이러한 전환이 약 1,000년이 걸릴 것으로 추정했지만, 가렛은 기하급수적인 AI 발전이 이 일정을 근본적으로 변화시켰다고 주장합니다.​연구에 따르면 "문명의 기술이 기하급수적으로 진화한다면, 불가피하게 우리가 따라잡을 수 있는 능력을 앞지르게 될 것입니다". 기술이 몇 년마다 두 배로 증가하는 급격한 AI 주도 성장을 경험하는 문명의 경우, 탐지 창은 불과 수십 년으로 압축될 수 있습니다.라디오 신호에서 보이지 않는 기술까지이러한 시사점은 기존의 SETI(외계지적생명체탐사)가 우리 초창기 방송과 유사한 라디오 신호를 탐색하는 전통적인 접근법에 도전장을 던집니다. 고도의 AI 문명은 빠르게 중성자 빔, 양자 네트워크, 또는 현존하는 기기로는 감지할 수 없는 이색적인 물리학 기반의 통신 방식으로 전환할 수 있습니다.​최근 보도에 따르면, 인류의 기술 발전 경로 역시 이러한 이론을 뒷받침합니다. 우리는 이미 강력한 전방향 방송에서 더 조용하고 효율적인 디지털 통신으로 이동했습니다. 연구자들은 “우리 자체의 라디오 신호는 점차 조용해지고 멀리서 감지하기 점점 어려워지고 있다”고 지적합니다.​이러한 틀은 과학자들이 '초월 필터(transcendence filter)'라 부르는 페르미 패러독스 해법을 제시합니다. 문명들이 스스로를 파괴하거나 드물게 존재한다기보다, 우리의 인지 능력을 뛰어넘는 속도로 너무 빠르게 진화해버려 은하가 "장수하는 고도 문명들로 가득 차 있는데, 그들이 잠깐 내보냈던 감지 가능한 신호 시절을 우리가 단순히 놓쳤을 뿐"일 수 있습니다.​연구는 SETI가 기존의 라디오 탐색을 넘어서 기술 중립적 접근 방식, 예컨대 메가스트럭처에서 발생하는 폐열 감지, 중력파 탐색, 그리고 여러 파장에서 이상 징후를 감지하기 위해 AI를 활용하는 등 방법으로 확대되어야 함을 시사합니다. 한 연구자는 “창의적인 방법으로 데이터를 탐색하려면 초인적인 수단—즉, 본질적으로 AI—이 필요하다”고 언급했습니다.
29 조회
0 추천
10.22 등록
(퍼플렉시티가 정리한 기사)대규모 언어 모델은 의료 분야 애플리케이션에서 상당한 잠재력을 보여주고 있으며, 최근 연구들은 환자 교육 및 임상 워크플로우를 향상시킬 수 있는 능력을 보여주는 동시에 신중한 고려가 필요한 중요한 한계점들을 드러내고 있습니다.중재적 영상의학 교육에서의 우수한 성과CVIR Endovascular에 10월 13일 게재된 연구에 따르면, DeepSeek-V3와 ChatGPT-4o는 복잡한 중재적 영상의학 시술에 관한 환자 질문에 답변하는 데 있어 우수한 성능을 보였습니다. 베를린 샤리테 의과대학(Charité-Universitätsmedizin Berlin) 연구진은 경동맥 관절주위 색전술(TAPE), CT 유도 고선량률 근접치료, 블레오마이신 전기경화요법 시술과 관련된 107개의 질문에 대해 4개의 LLM을 평가했습니다.​DeepSeek-V3는 BEST 질문(4.49점)과 CT-HDR 근접치료 질문(4.24점)에서 가장 높은 평균 점수를 달성했으며, TAPE 관련 질문에서는 ChatGPT-4o와 비슷한 성능을 보였습니다. 그러나 의학적으로 사전 훈련된 모델인 OpenBioLLM-8b와 BioMistral-7b는 훨씬 낮은 성능을 보였으며, BioMistral-7b는 방사선 노출에 관한 잠재적으로 위험한 정보를 제공했습니다.종양학에서 안전한 AI 구현을 위한 첫 번째 지침10월 20일, 유럽종양학회(European Society for Medical Oncology)는 대규모 언어 모델(LLM)을 암 치료에 안전하게 통합하기 위한 최초의 구조화된 지침을 발표했습니다. ESMO의 임상 진료에서 대규모 언어 모델 사용에 관한 지침(ELCAP)은 특정 안전 요구사항을 갖춘 세 가지 범주의 AI 응용 프로그램을 설정합니다.​챗봇과 같은 환자 대면 도구는 명시적인 에스컬레이션 경로와 함께 감독 하에 운영되어야 합니다. 임상의 대면 도구는 공식적인 검증과 투명한 한계를 요구합니다. 전자 건강 기록과 통합된 배경 기관 시스템은 지속적인 모니터링과 기관 거버넌스가 필요합니다.​ESMO 회장 Fabrice André는 "혁신은 종양학자들과 궁극적으로 환자들에게 도움이 되어야 하며, 그들을 혼란스럽게 하거나 오도해서는 안 됩니다"라고 말했습니다. 이 지침은 LLM이 임상 의사결정을 대체하는 것이 아니라 향상시켜야 한다는 점을 강조합니다.더 광범위한 의료 응용 분야에서 엇갈린 결과 보여최근 비교 연구들은 의료 전문 분야별로 다양한 성능을 보여줍니다. 2025년에 발표된 연구에 따르면 DeepSeek-V3는 복강경 담낭절제술 환자 교육에 있어 ChatGPT-4o보다 더 적합한 응답을 제공했으며, 질문의 95%에서 5점 만점 평가를 받은 반면 ChatGPT-4o는 65%를 기록했습니다. 그러나 10월 16일 발표된 Mass General Brigham 연구에서는 LLM이 의료 맥락에서 정확성보다 유용성을 우선시한다는 것을 발견했습니다.​연구 결과는 LLM이 환자 교육과 임상 업무 지원에 있어 가능성을 보여주지만, 아직 포괄적인 의료 상담을 대체할 수는 없다는 것을 나타냅니다. 향후 연구에서는 실제 임상 환경에서 이러한 결과를 검증하고 안전한 구현을 보장하기 위해 환자 피드백을 통합해야 합니다.
30 조회
0 추천
10.22 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입