FlowiseAI RAG 채팅
FlowiseAI는 개발자가 맞춤형 LLM 오케스트레이션 흐름 및 AI 에이전트를 구축할 수 있는 로우코드 툴입니다. Gaia 노드를 LLM 서비스 제공자로 사용하도록 FlowiseAI 도구를 구성할 수 있습니다.
전제 조건
공개 URL을 통해 LLM 서비스를 제공하려면 Gaia 노드가 준비되어 있어야 합니다. 다음을 수행할 수 있습니다.
이 튜토리얼에서는 퍼블릭 노드를 사용하여 계속 플러그인을 구동합니다.
모델 유형 | API 기본 URL | 모델명 |
---|---|---|
잡담 | https://llama.us.gaianet.network/v1 | llama |
포함 | https://llama.us.gaianet.network/v1 | nomic |
FlowiseAI 서버 시작
FlowiseAI 가이드를 따라 로컬에 Flowise를 설치하세요.
npm 설치 -g flowise
npx flowise 시작
성공적으로 실행되면 http://localhost:3000 을 열어 Flowise AI 도구를 확인할 수 있습니다.
문서 QnA 챗봇 구축
플로우이즈AI를 사용하면 AI 에이전트를 위한 모든 워크플로우 구성 요소를 시각적으로 설정할 수 있습니다. FlowiseAI를 처음 사용하는 경우 템플릿 빠른 시작을 사용하는 것이 좋습니다. 실제로 플로우이즈 마켓플레이스에는 OpenAI와 관련된 수많은 템플릿이 있습니다. ChatOpenAI 구성 요소를 ChatLocalAI 구성 요소로 교체하기만 하면 됩니다.
플로우이즈 문서 QnA를 예로 들어보겠습니다. 문서를 기반으로 QnA 챗봇을 구축할 수 있습니다. 이 예에서는 GitHub 리포지토리에 있는 일련의 문서와 채팅하고자 합니다. 기본 템플릿은 OpenAI로 구축되었지만 이제 Gaia 노드에서 오픈 소스 LLM을 사용하도록 변경하겠습니다.
플로우이즈 문서 QnA템플릿 받기
왼쪽 탭에서 마켓플레이스를 클릭하면 모든 템플릿을 찾아볼 수 있습니다. 첫 번째로 사용할 템플릿은 Flowise Docs QnA입니다.
그런 다음 왼쪽 상단 모서리에 있는 이 템플릿 사용 버튼을 클릭하여 시각적 편집기를 엽니다.
채팅 모델 API 연결
ChatOpenAI 컴포넌트를 삭제하고 + 버튼을 클릭하여 ChatLocalAI를 검색한 다음 ChatLocalAI를 화면으로 드래그해야 합니다.
그런 다음 다음을 입력해야 합니다.
- 가이아 노드 기본 URL
https://llama.us.gaianet.network/v1
- 모델 이름
llama
다음으로 ChatLocalAI 컴포넌트를 필드에 연결합니다. 채팅 모델
에서 대화형 검색 QA 체인 컴포넌트입니다.
임베딩 모델 API 연결
기본 템플릿은 OpenAI 임베딩 컴포넌트를 사용하여 문서용 임베딩을 만듭니다. OpenAI 임베딩 컴포넌트를 LocalAI 임베딩 컴포넌트로 대체해야 합니다.
- Gaia 노드 기본 URL 사용
https://llama.us.gaianet.network/v1
를 기본 경로 필드에 입력합니다. - 모델 이름 입력
nomic-embed-text-v1.5.f16
를 모델 이름 필드에 입력합니다.
그런 다음 로컬AI 임베딩 컴포넌트와 필드 임베딩
에서 인메모리 벡터 스토어 컴포넌트입니다.
문서 설정
그런 다음 GitHub 컴포넌트를 통해 채팅 애플리케이션을 GitHub의 문서에 연결해 보겠습니다. 문서 GitHub 링크를 깃허브의 리포지토리 링크 필드에 추가합니다. 예를 들어 GaiaNet의 문서 링크를 입력할 수 있습니다: https://github.com/GaiaNet-AI/docs/tree/main/docs
.
사용해 보기
현재 채팅 플로우를 저장한 후 "GaiaNet 노드를 설치하는 방법"과 같은 질문을 보낼 수 있습니다.
보다 정확한 답변은 GaiaNet 문서를 기반으로 합니다.
더 많은 예제
플로우이즈 마켓플레이스에는 많은 예제가 있습니다. GaiaNet을 기반으로 플로우이즈 에이전트를 구축하려면 Chat OpenAI 및 OpenAI 임베딩 구성 요소를 GaiaNet 기본 URL로 바꾸기만 하면 됩니다.