Loading...

텍스트

요즘 AI가 잘 틀리는 이유

페이지 정보

작성자 SH5
작성일 12.12 17:31
52 조회
1 댓글
0 추천
0 비추천

본문

AI 도구 Gemini
프롬프트 https://youtu.be/m7AOMyHwA0g?si=_CAlMK0hH5tKmNOo 내용 요약

해당 영상은 **'요즘 AI가 잘 틀리는 이유'**에 대해 분석하며, 생성형 AI가 직면한 데이터 고갈 문제와 그로 인해 발생하는 신뢰성 저하 현상을 요약합니다.

주요 내용은 다음과 같습니다.

 

- 학습 데이터 고갈과 '자기 학습 루프' 문제 [00:21]

ChatGPT, Gemini 등 대규모 언어 모델(LLM)이 학습할 수 있는 공개 데이터가 2026년쯤부터 급격히 소진될 것으로 예상됩니다. 사실상 학습할 수 있는 공개 데이터는 이미 모두 학습한 상태입니다 [00:49].

공개 데이터가 부족해지면 AI는 **스스로 만든 데이터, 즉 합성 데이터(Synthetic Data)**를 학습하는 **'자기 학습 루프(Self-learning loop)'**에 빠지게 됩니다 [01:06].

이는 정보의 다양성을 떨어뜨리고, AI가 내놓는 정보의 오답과 오류를 증가시켜 결과적으로 품질 저하를 초래합니다 [01:14].

AI가 만든 데이터는 확률에 기반한 패턴만 있어 '확률 함정'에 빠지게 되며, 심지어 AI가 스스로 만든 웹사이트를 답변 근거로 제시하는 황당한 경우도 1,000건 넘게 확인되었습니다 [01:25].

 

- AI 신뢰성 저하와 높은 오류율 [01:53]

최근 유럽 방송 연맹 보고서에 따르면, ChatGPT, Gemini 등 주요 AI 모델 답변 중 절반 가까이에서 오류가 발견되었습니다 [02:00].

또 다른 연구에서는 주요 생성형 AI 모델 10개의 **오류율이 38.3%**에 달하는 것으로 나타났습니다 [02:20].

 

- 사용자의 과의존과 부작용 [02:29]

이미 우리 일상에서 AI 의존도가 높아져 업무나 과제에 이용하는 경우가 많으며, AI와 너무 강한 유대 관계를 맺어 현실에서의 이성적인 판단이 어려워지는 사례도 있습니다 [02:47].

특히 AI를 많이 사용하는 MG세대는 AI가 요약을 명확히 해주지 않고 다른 글을 끌어오거나, 의도와 벗어난 대답을 해 업무에 차질을 빚는 등 문제점을 느끼고 있습니다 [03:06].

양질의 데이터 확보를 가로막는 저작권 문제 [03:39]

AI 성능을 높이려면 인간이 정제한 질적으로 우수한 데이터(책, 기사 등)를 학습시켜야 하지만, 대부분의 창작물에 저작권 문제가 걸려있어 자유롭게 학습하기가 어렵습니다 [03:43].

실제로 챗GPT의 '지브리풍 사진 변환' 기능은 지브리 저작물을 동의 없이 학습한 것이 문제가 되어 중단되기도 했습니다 [03:53].

 

- 결론: 대비의 필요성 [04:02]

데이터 부족과 저작권 문제는 AI 품질 저하와 정보 왜곡으로 이어질 수 있습니다.

AI는 질문자가 원하는 답을 하기 위해 "모른다"가 없으므로 [04:15], 어떤 질문에도 믿게 되면 낭패를 볼 수 있습니다.

따라서 저작권 규제에 대한 논의와 함께 AI 활용 방법에 대한 대비가 필요한 시점입니다 [04:10].

 

영상 링크: 요즘 AI가 잘 틀리는 이유|크랩

 

 

댓글 1

이수님의 댓글

작성자 이수
작성일 12.12 17:34
요즘 부쩍 느끼는 게, 링크 글 요약해 달라고하면 엉뚱한 내용을 끌어다 요약하는 경우가 많아짐. 그리고 좀 더 학술적 내용을 요약할 경우에는 핵심을 못짚고 곁다리를 설명하는 경우도 있음. 결과물 신뢰도가 점점 내려가는 중.
전체 123 / 1 페이지
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색
회원가입