본문 바로가기

Papers/KG

(2)
[Review] Evaluating Very Long-Term Conversational Memory of LLM Agents [Abstract] Long-term open domain Conversational memory에 대한 기존 연구는 최대 5개의 대화 세션에 걸친 컨텍스트 내에서 모델 응답을 평가하는 데 중점을 둔다. 장기 컨텍스트 대규모 언어 모델(LLM) 및 검색 증강 생성(RAG) 기술의 발전에도 불구하고 장기 대화에서의 효과는 아직 탐구되지 않았다. 이러한 연구 격차를 해결하기 위해 LLM 기반 에이전트 아키텍처를 활용하고 대화를 페르소나 및 시간 이벤트 그래프에 기반하여 고품질의 매우 장기적인 대화를 생성하기 위한 기계-인간 파이프라인을 도입했다. 또한 각 에이전트에 이미지를 공유하고 반응할 수 있는 기능을 갖추었다. 생성된 대화는 long-range consistency와 event graph 적용을 위해 ..
[Review] Text-to-Graph via LLM:pre-training, prompting, or tuning? 지식 그래프는 후속 분석을 위해 데이터를 구조화하는 가장 좋은 방법입니다. 문제는 현재 사용 가능한 대부분의 데이터가 비정형 텍스트 형태라는 것입니다. LLM은 비정형 텍스트를 Knowledge Graph로 변환하는 기능을 보여주었습니다. 하지만 제가 본 대부분의 예에서는 LLM이 어떤 Ontology/Schema를 사용할지 결정하도록 합니다. 일부는 어떤 속성을 사용할지에 대한 제한을 추가하기도 합니다. 다음과 같은 이유로 특정 Ontology/Schema를 준수하는 그래프를 만들 필요가 있습니다. 결과 그래프를 통해 다양한 쿼리를 생성해야 합니다. Schema에 대한 지식 없이 쿼리를 생성하는 것은 불가능에 가깝습니다. 허용 가능한 프롬프트의 크기가 증가함에도 불구하고 하나의 프롬프트로 처리할 수 없..