https://arxiv.org/abs/2501.09751
https://github.com/zjunlp/OmniThink
Machine writing with large language models often relies on retrieval-augmented generation. However, these approaches remain confined within the boundaries of the model’s predefined scope, limiting the generation of content with rich information. Specifically, vanilla-retrieved information tends to lack depth, utility, and suffers from redundancy, which negatively impacts the quality of generated articles, leading to shallow, repetitive, and unoriginal outputs. To address these issues, we propose OmniThink, a machine writing framework that emulates the human-like process of iterative expansion and reflection. The core idea behind OmniThink is to simulate the cognitive behavior of learners as they progressively deepen their knowledge of the topics. Experimental results demonstrate that OmniThink improves the knowledge density of generated articles without compromising metrics such as coherence and depth. Human evaluations and expert feedback further highlight the potential of OmniThink to address real-world challenges in the generation of long-form articles.
대규모 언어 모델을 사용한 기계 작문은 종종 검색 증강 생성에 의존합니다. 그러나 이러한 접근 방식은 모델의 사전 정의된 범위 내에 갇혀 풍부한 정보를 가진 콘텐츠 생성을 제한합니다. 특히, 일반 검색 정보는 깊이와 유용성이 부족하고 중복성이 문제가 되어 생성된 글의 품질에 부정적인 영향을 미치고 얕고 반복적이며 독창적이지 않은 결과를 초래합니다. 이러한 문제를 해결하기 위해 우리는 인간과 같은 반복적 확장 및 반성 과정을 모방하는 기계 작문 프레임워크인 OmniThink를 제안합니다. OmniThink의 핵심 아이디어는 학습자가 주제에 대한 지식을 점진적으로 심화하는 인지적 행동을 시뮬레이션하는 것입니다. 실험 결과는 OmniThink가 일관성 및 깊이와 같은 메트릭을 손상시키지 않으면서 생성된 글의 지식 밀도를 향상시키는 것으로 나타났습니다. 인간 평가 및 전문가 피드백은 긴 형식의 글 생성에서 실제 문제를 해결하기 위한 OmniThink의 잠재력을 더욱 강조합니다.소스 및 관련 콘텐츠
출처: “한국어로 번역해”. Gemini Advanced 2.0 Experimental Advanced. 2025.01.30.