- 생성적 AI의 저하에 대한 경고
- 모델의 붕괴: 퇴행성 현상
- 인간 개입의 어려움
- 불확실한 미래: 도전과 가능한 해결책
Pinterest에서 나를 팔로우하세요!
생성적 AI의 저하에 대한 경고
최근 연구들은 생성 인공지능 개발에서 불안한 현상인 응답 품질 저하에 대한 경고를 발령했습니다.
전문가들은 이러한 시스템이 다른 AI가 생성한 데이터, 즉 합성 데이터로 훈련될 때, 불합리하고 무의미한 응답으로 끝나는 악순환에 빠질 수 있다고 지적했습니다.
이 질문이 제기됩니다: 어떻게 이 지점에 이르게 되며 이를 예방하기 위해 어떤 조치를 취할 수 있을까요?
모델의 붕괴: 퇴행성 현상
"모델의 붕괴"는 AI 시스템이 낮은 품질의 데이터로 훈련 사이클에 갇히는 과정을 의미하며, 이로 인해 다양성과 효과성이 감소합니다.
일리아 슈마일로프(Nature에 발표된 연구의 공동 저자)에 따르면, 이 현상은 AI가 자신의 출력을 먹이로 삼기 시작할 때 발생하며, 이는 편견을 지속시키고 유용성을 감소시킵니다. 장기적으로 이는 모델이 점점 더 동질적이고 덜 정확한 콘텐츠를 생성하게 만들 수 있으며, 자신의 응답을 반복하는 에코와 같습니다.
듀크대학교의 공학 교수 에밀리 웬거는 이 문제를 간단한 예로 설명합니다: 만약 AI가 개의 이미지를 생성하도록 훈련된다면, 가장 흔한 품종을 복제하려고 할 것이며, 덜 알려진 품종은 무시하게 됩니다.
이는 데이터의 품질을 반영할 뿐만 아니라, 훈련 데이터 세트에서 소수자들의 표현에 대한 중요한 위험을 제기합니다.
또한 읽기: 점점 더 똑똑해지는 인공지능과 점점 더 멍청해지는 인간들.
인간 개입의 어려움
상황의 심각성에도 불구하고, 해결책은 간단하지 않습니다. Shumailov는 모델의 붕괴를 방지하는 방법이 명확하지 않다고 언급하며, 실제 데이터와 합성 데이터를 혼합하는 것이 효과를 완화할 수 있다는 증거가 있다고 말합니다.
그러나 이것은 훈련 비용의 증가와 완전한 데이터 세트에 접근하는 데 더 큰 어려움을 의미합니다.
명확한 인간 개입 접근 방식의 부족은 개발자들에게 딜레마를 남깁니다: 인간이 정말로 생성적 AI의 미래를 통제할 수 있을까요?
RockingData의 CEO인 Fredi Vivas는 합성 데이터로 과도하게 훈련하면 AI가 자신의 부정확성에서 학습하여 "에코 챔버 효과"를 생성할 수 있다고 경고합니다. 이는 AI가 정확하고 다양한 콘텐츠를 생성할 수 있는 능력을 더욱 줄이는 결과를 초래합니다. 따라서 AI 모델의 품질과 유용성을 보장하는 방법에 대한 질문은 점점 더 긴급해지고 있습니다.
불확실한 미래: 도전과 가능한 해결책
전문가들은 합성 데이터의 사용이 본질적으로 부정적이지 않지만, 그 관리는 책임감 있는 접근 방식이 필요하다고 일치된 의견을 보이고 있습니다. 생성된 데이터에 워터마크를 구현하는 같은 제안은 합성 콘텐츠를 식별하고 필터링하는 데 도움이 될 수 있으며, 이를 통해 AI 모델 훈련의 품질을 보장할 수 있습니다.
그러나 이러한 조치의 효과는 대형 기술 기업과 더 작은 모델 개발자 간의 협력에 달려 있습니다.
생성 AI의 미래가 위태로운 상황에 처해 있으며, 과학 공동체는 합성 콘텐츠의 거품이 터지기 전에 해결책을 찾기 위해 시간과의 경쟁에 직면해 있습니다.
핵심은 AI 모델이 여전히 유용하고 정확하게 유지될 수 있도록 보장하는 강력한 메커니즘을 구축하는 것이며, 이를 통해 많은 사람들이 두려워하는 붕괴를 피할 수 있습니다.
무료 주간 별자리를 구독하십시오
게자리 궁수자리 물고기자리 물병자리 사자자리 쌍둥이자리 양자리 염소자리 전갈자리 처녀자리 천칭자리 황소자리