Loading...

AI 뉴스

AI는 브레인스토밍을 돕지만 인간의 참여 없이는 부족하다

페이지 정보

작성자 xtalfi
작성일 2025.11.13 14:30
1,488 조회
0 추천
0 비추천

본문

f43ee9a7735c9322763d602776200742_1763012127_234.jpg
 

(퍼플렉시티가 정리한 기사)


월요일에 발표된 동료 검토 연구에 따르면, 생성형 AI 도구가 조직의 의사결정 목표 브레인스토밍에 도움을 줄 수 있지만 인간의 개입 없이는 불완전하고 중복된 결과를 생성하며, 이는 복잡한 분석 작업에서 AI의 한계를 강조한다.​

American University의 Jay Simon과 Management Center Innsbruck의 Johannes Ulrich Siebert 연구진은 GPT-4o, Claude 3.7, Gemini 2.5, Grok-2가 생성한 목표 세트를 이전에 발표된 6개 연구의 전문 의사결정 분석가들이 개발한 것과 비교했다. Decision Analysis 저널에 발표된 연구 결과는 AI가 개별적으로 합리적인 목표를 자주 생성했지만, 전체적으로는 완전성과 일관성이 부족했다고 밝혔다.​

"AI는 무엇이 중요할 수 있는지 나열할 수 있지만, 무엇이 진정으로 중요한지 구별하는 것은 아직 할 수 없다"고 저자들은 썼다. 각 AI 생성 세트는 완전성, 분해 가능성, 중복성을 포함한 가치 중심 사고의 9가지 기준으로 평가되었다. 이 도구들은 명시적으로 피하라는 지시에도 불구하고 "수단 목표"를 자주 포함했다.​


전문가 검증 필요

가치 중심 사고의 개척자인 랄프 키니(Ralph Keeney)는 AI가 만든 목록에 대해 "두 목록 모두 대부분의 개인이 만들 수 있는 것보다 낫지만," 근본적인 목표만을 포함하지 않는 한 어떤 것도 양질의 의사결정 분석에 사용해서는 안 된다고 언급했습니다.​

연구진은 결과 개선을 위해 고급 프롬프트 전략을 테스트했습니다. 연쇄적 사고(chain-of-thought reasoning)와 전문가의 비평-수정(critique-and-revise) 방법을 결합하자, AI의 출력이 상당히 향상되어 더욱 집중적이고 논리적으로 구조화된 목표 집합이 생성되었습니다.​

"생성형 AI는 여러 기준에서 좋은 성과를 보입니다."라고 사이먼(Simon)은 말했습니다. "하지만 여전히 일관성 있고 중복되지 않는 목표 집합을 생산하는 데 어려움을 겪고 있습니다. 인간 의사결정 분석가가 AI가 산출하는 결과를 정제하고 검증하는 데 필수적입니다".​


AI 협업에 대한 더 광범위한 시사점

이 연구는 창의적이고 분석적인 작업에서 AI의 한계에 대한 증가하는 증거와 일치합니다. Wharton의 11월 연구에 따르면 ChatGPT가 개별 아이디어의 질을 향상시켰지만, 그룹이 더 유사한 아이디어를 생성하도록 하여 혁신에 필수적인 다양성을 감소시켰습니다. Stanford Graduate School of Business의 연구자들은 또한 인간 의사결정자를 염두에 두고 설계된 알고리즘이 순수하게 예측적인 시스템보다 더 나은 성과를 보인다는 것을 입증했습니다.​

이 연구는 목표가 필수적이고, 분해 가능하며, 완전하도록 보장하기 위해 AI 브레인스토밍과 전문가 개선을 통합한 4단계 하이브리드 모델로 결론을 내립니다. "우리의 연구 결과는 GenAI가 전문가의 판단을 대체하는 것이 아니라 보강해야 한다는 것을 분명히 합니다"라고 Siebert는 말했습니다. "인간과 AI가 함께 작업할 때, 그들은 더 나은 의사결정을 위해 서로의 강점을 활용할 수 있습니다".

댓글 0
전체 1,366 / 38 페이지
에너지부는 인공지능 기반 연구 자동화를 통해 10년 내에 미국의 과학 생산성을 두 배로 늘리는 것을 목표로 하는 트럼프 대통령의 AI 이니셔티브인 제네시스 미션에 3억 2천만 달러 이상의 투자를 발표했습니다.DOE 차관 다리오 길은 의원들에게 이 자금이 미국 과학 클라우드(American Science Cloud)와 혁신적 모델 컨소시엄(Transformational Model Consortia)을 지원할 것이며, 전담 팀들이 이미 슈퍼컴퓨터 시간을 자동으로 할당하고, 결과를 분석하며, 실험을 시작하는 AI 워크플로우를 개발하고 있다고 말했습니다.하원 청문회에서는 보안 문제가 최우선 과제로 다뤄졌으며, 의원들은 AI 능력의 위험성과 적대국들의 모델 역공학 가능성에 대해 질문했고, 길은 속도가 성공에 매우 중요하다고 강조하며 “우리는 생명이 달린 것처럼 행동해야 합니다”라고 말했습니다.
621 조회
0 추천
2025.12.11 등록
Microsoft는 2025년 1월부터 9월까지 3,750만 건의 익명화된 대화를 분석한 최초의 포괄적인 Copilot 사용 연구를 발표했으며, 사용자들이 단순히 생산성 도움만이 아닌 건강, 관계, 인생 결정에 대한 개인적인 지침을 점점 더 많이 찾고 있다는 사실을 밝혔습니다.연구는 데스크톱과 모바일 사용자 간의 뚜렷한 차이를 발견했는데, 데스크톱 사용자는 Copilot을 생산성 도구로 취급한 반면 모바일 사용자는 “대화형 동반자”로 활용했으며, 건강 관련 주제가 하루 중 모든 시간대의 대화를 지배했습니다.Microsoft의 책임 있는 AI 책임자는 사용자들이 그러한 목적으로 설계되지 않은 도구에서 정서적 지원을 구함에 따라 안전 문제를 인정했으며, OpenAI, Google, Meta, Anthropic과 장기 챗봇 사용자를 두고 경쟁하는 가운데 “필요한 통제와 보호 장치”의 필요성을 강조했습니다.
607 조회
0 추천
2025.12.11 등록
AI 시대의 대학교육과 AI 활용 경향생성형 AI의 급격한 발전으로 인해 대학생들의 학습 방식이 근본적으로 변화하고 있습니다. 대학생들은 과제, 수업 이해, 시험 대비 등 학습 전반에 걸쳐 AI를 폭넓게 사용하며, AI를 '선호하지 않을 수는 있지만 안 쓰는 사람은 없을 것'이라는 인식이 확산되었습니다. 일부 대학은 챗GPT 표절 방지를 위해 과제 현장 수행을 늘리거나, 경인교대처럼 논쟁적 질문 준비 시 AI 사용을 금지하는 등의 가이드라인을 제시하고 있습니다. 그러나 대다수 학생들은 AI를 자료 요약, 아이디어 도출, 모의고사 제작 등에 활용하며 AI를 '좋은 도구'이자 학습의 효율을 높이는 '필수 교보재'로 인식하고 있습니다.학습자와 교수자의 AI 활용과 인식 차이대학생들은 AI를 여러 단계로 활용하는 '헤비 유저'가 많으며, 예를 들어 자료 검색, 초안 작성, 문체 리라이팅 등 다양한 AI를 교차 사용하는 경향을 보입니다. 이들은 중간에 자신의 의견을 넣어 협업했기 때문에 AI가 생성한 결과물도 '나의 결과물'로 여기는 경향이 뚜렷합니다. 한편, 대학 교수들 사이에서는 AI 활용을 막을 수 없다는 판단하에 글쓰기나 철학 등 인문계열에서도 AI 활용법을 가르치는 사례가 증가하고 있습니다. 교수들은 학생들이 AI 산출물을 그대로 사용하지 않고, AI가 제시한 아이디어를 비판적으로 수정하고 자신의 것으로 소화하는 '자기화 과정'이 중요하다고 강조하며, 사고의 외주화를 경계하고 있습니다.AI 활용의 '선' 설정과 교육적 대안 모색AI의 활용이 '뉴노멀'이 되었음에도 불구하고, 대학들의 AI 활용 가이드라인은 주로 부정행위 방지나 평가 방식(과정평가/구술평가)에 초점을 맞추고 있으며, AI 활용의 윤리적 쟁점이나 비용 격차로 인한 학습 격차 같은 심층적인 논의는 부족한 실정입니다. 대학들은 AI 활용의 무게추를 '활용'과 '제한' 사이에서 달리하고 있지만, 전문가들은 'AI를 어느 선까지 활용하는 것이 타당한지'에 대한 교육적 합의와 논의가 필요하다고 지적합니다. 교수자-학습자가 특정 활동에서 AI 사용 여부를 합의하고, 왜 AI를 사용하는 것이 학문적 역량에 도움이 되는지, 어떤 때 사용하지 않는 것이 좋은지를 교수자가 설득하여 학생들의 사고 과정 체화를 유도해야 할 시점입니다.
643 조회
0 추천
2025.12.10 등록
오픈AI는 구글 '제미나이 3'에 대응하기 위해 내년 1월 새로운 모델을 출시할 예정이며, 이는 단순 성능 경쟁을 넘어 사용자와의 '상호 작용' 및 '대화 기능 강화'에 중점을 둔 것으로 알려졌습니다. 샘 알트먼 CEO는 지난 1일 '코드 레드'를 발령하고 8주간 챗GPT 개선에 집중할 것을 요구하며, 직원들에게 "사용자 신호를 더 잘 활용하라"고 지시했습니다. 이는 안전성 강화에 집중한 이전 모델이 사용자 만족도 측면에서 정체되었다고 판단하여, 챗봇 응답에 대해 전문가 평가가 아닌 사용자의 피드백을 적극 반영하는 전략으로 선회했음을 보여줍니다.이러한 사용자 중심 전략은 내부적으로 '로컬 사용자 선호도 최적화(LUPO)'라 불리며, 이미 사용자 대화에 초점을 맞춘 'GPT-5.1'을 출시하고 이 방침을 테스트하는 과정에서 일일 활성 사용자 증가라는 놀라운 결과를 확인했습니다. 알트먼 CEO는 이메일 초안 작성 등 간단한 작업에서는 모델의 추론 성능 차이가 크지 않으므로, 사용자의 선호에 맞는 톤으로 응답하는 것이 실질적인 사용량 증대에 더 큰 영향을 미친다고 판단했습니다. 아울러 새로운 모델에는 챗GPT 초기 성공 사례나 구글 제미나이의 인기 요소를 반영하여 향상된 '이미지 생성 기능'도 탑재될 예정입니다.한편, 이번 개선 작업은 인공일반지능(AGI) 달성에 집중하는 연구원들과 챗봇 경험 개선에 집중하려는 운영진 사이의 내부 갈등을 해소하기 위한 조치로도 해석됩니다. 또한, 코딩 기능을 중심으로 한 기업용 모델인 'GPT-5.2'도 곧 공개될 예정이지만, 경영진은 구글의 공세에 빠르게 대응하기 위해 성능 향상을 위한 출시 연기 요청에도 불구하고 일정을 강행할 정도로 위기감을 느끼고 있습니다. 다만, 사용자 선호도에만 초점을 맞춘 모델이 소셜 미디어의 전철을 밟아 정신 건강 위기를 초래할 수 있다는 우려에 대해, 오픈AI는 사용자 피드백, 전문가 리뷰, 안전 시스템을 신중하게 조화하여 모델을 개선하고 있다고 밝혔습니다.
625 조회
0 추천
2025.12.10 등록
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입