본문 바로가기

LangChain4

로컬 머신(Local Machine, PC) 환경에서 ChatBot 구축 및 실행 방법 로컬 머신에서 실행되는 챗봇(ChatBot)을 구축하려면, 다음의 도구들을 사용할 수 있습니다.Llama 2: Meta의 오픈 소스 언어 모델Epsilla: 비슷한 맥락에서 사용될 수 있는 임의의 도구명으로 추정됨LangChain: 다양한 언어 모델을 체인으로 연결해주는 프레임워크Streamlit: 파이썬 애플리케이션을 웹 앱으로 빠르게 전환해주는 도구아래는 Llama 2, LangChain, Streamlit을 사용하여 로컬에서 실행 가능한 ChatBot을 구축하는 방법입니다.1. 환경 설정필요한 라이브러리를 설치합니다. pip을 사용하여 다음과 같이 설치할 수 있습니다.pip install torch transformers langchain streamlit2. Llama 2 모델 다운로드 및 설정L.. 2024. 9. 11.
LangChain 활용하여 문서 기반 응답 챗봇(Chatbot) 만들기 LangChain을 통해 문서 검색 챗봇을 만드는 가이드를 초보자도 따라할 수 있도록 단계별로 자세히 정리하겠습니다.1. 환경 설정 및 필요한 패키지 설치먼저 필요한 패키지를 설치합니다. 다음 명령어를 실행하세요.!pip install -q grobid-client langchain openai faiss-cpu PyPDF2 tiktoken2. OpenAI API Key 설정OpenAI API 키를 생성하고 환경 변수에 설정합니다.OpenAI API Key 생성 페이지에서 키를 생성합니다.아래 코드를 사용하여 키를 설정합니다.import openaiimport osos.environ["OPENAI_API_KEY"] = "your_openai_api_key_here"3. PDF 파일 다운로드 및 전처리예제.. 2024. 8. 12.
언어 모델 기반 애플리케이션 개발 프레임워크 LangChain LangChain은 언어 모델을 기반으로 하는 애플리케이션을 개발하기 위한 프레임워크입니다. 이를 통해 다음과 같은 특징을 갖는 애플리케이션을 개발할 수 있습니다. 문맥 인식: 언어 모델을 문맥 소스에 연결하여 응답을 생성합니다. (프롬프트 지시사항, 몇 가지 예시, 응답을 기반으로 하는 콘텐츠 등) 추론: 주어진 문맥을 기반으로 답변 방법이나 취해야 할 조치 등을 추론하는 데 언어 모델을 활용합니다. 이 프레임워크는 여러 구성 요소로 구성되어 있으며 다음과 같은 상호 작용을 확인할 수 있습니다. LangChain 패키지: Python 및 JavaScript 패키지로, 다양한 구성 요소에 대한 인터페이스 및 통합, 이러한 구성 요소를 연결하여 체인과 에이전트로 결합하는 기본 실행 시간 및 고성능 작업을 .. 2023. 11. 28.
벡터(Vector) DB 로컬환경 Docker 구성하고 데이터 추가 및 쿼리 벡터 DB를 로컬 환경에서 Docker를 사용하여 설정하고 데이터를 쿼리하는 과정을 단계별로 설명하겠습니다. 단계 1: Chroma DB GitHub 저장소 복제 Chroma DB를 로컬 머신으로 가져오기 위해 GitHub 저장소를 복제합니다. 이 저장소는 Chroma DB의 소스 코드를 포함하고 있습니다. 아래 명령어를 사용하여 저장소를 복제합니다. git clone https://github.com/chroma-core/chroma 이 명령어를 실행하면 현재 작업 디렉토리에 "chroma" 디렉토리가 생성되고 그 안에 Chroma DB 소스 코드가 복제됩니다. 단계 2: Docker를 사용하여 Chroma 실행 Chroma DB를 Docker 컨테이너로 실행합니다. Docker를 사용하면 Chroma.. 2023. 11. 10.
728x90