×
Community Blog AI 혁명의 점화 - RAG 및 LangChain과의 여정

AI 혁명의 점화 - RAG 및 LangChain과의 여정

이 글은 검색 증강 생성(RAG)과 LangChain의 혁신적인 개념을 탐구하면서 독자들에게 혁신적인 AI 혁명의 여정에 대한 통찰력 있는 탐험을 안내합니다.

인공지능(AI) 시대에는 방대한 데이터 세트에서 의미 있는 지식을 추출하는 것이 기업과 개인 모두에게 중요해졌습니다. 검색 증강 생성(RAG)은 AI의 기능을 대폭 강화하여 시스템이 사람과 유사한 텍스트를 생성할 뿐만 아니라 실시간으로 관련 정보를 가져올 수 있도록 지원하는 획기적인 기술입니다. 이러한 융합을 통해 문맥이 풍부하고 세부 사항이 정확한 응답을 생성합니다.

인공지능(AI)이라는 광활한 바다를 항해하는 흥미진진한 항해를 시작할 때, 우리를 안내할 다음 세 가지 축을 이해하는 것이 필수적입니다. 생성형 AI, 거대언어모델(LLM), LangChain, Hugging Face, 그리고 이 RAG(검색 증강 생성)의 유용한 애플리케이션이죠.

거대언어모델과 생성형 AI: 혁신의 엔진

이 여정의 핵심에는 거대언어모델(LLM)과 생성형 AI라는 혁신을 이끄는 두 가지 강력한 엔진이 있습니다.

거대언어모델(LLM)

1

Qwen, GPT 등과 같은 LLM은 인간과 유사한 언어를 대규모로 이해하고 생성할 수 있는 텍스트의 거인입니다. 이러한 모델은 방대한 텍스트 데이터 말뭉치를 학습하여 일관되고 문맥과 연관성이 있는 텍스트 문자열을 예측하고 생성할 수 있습니다. 번역에서 콘텐츠 제작에 이르기까지 다양한 자연어 처리 작업의 근간이 됩니다.

생성형 AI(GenAI)

생성형 AI는 AI 영역에서 교묘한 창작의 마법사라고 할 수 있습니다. 이미지, 음악, 그리고 가장 중요한 것은 텍스트와 같이 학습 데이터와 유사한 새로운 데이터 인스턴스를 생성하는 기술을 포괄합니다. 여기서 생성형 AI는 이전에 볼 수 없었던 새롭고 유익한 답변, 스토리 또는 아이디어를 만들어내는 AI의 능력을 의미합니다. 이를 통해 AI는 단순히 과거를 모방하는 것이 아니라 발명하고 혁신하며 영감을 얻을 수 있습니다.

LangChain: AI 심포니 오케스트레이션

2

LangChain은 다양한 AI 구성요소 간의 원활한 통합과 상호 작용을 가능하게 하는 구조를 세심하게 설계하는 AI 워크플로의 설계자 역할을 합니다. 이 프레임워크는 LLM 및 검색 시스템을 포함한 지능형 하위 시스템의 데이터 흐름을 연결하는 복잡한 프로세스를 간소화하여 정보 추출 및 자연어 이해와 같은 작업을 그 어느 때보다 쉽게 수행할 수 있게 해줍니다.

Hugging Face: AI 모델 메트로폴리스

3

Hugging Face는 AI 모델이 번성하는 번화한 대도시와 같습니다. 이 중앙 허브는 사전 학습된 방대한 모델을 제공하며, 머신러닝 탐색과 적용을 위한 비옥한 토양 역할을 합니다. 이 허브와 리소스에 액세스하려면 Hugging Face 계정을 만들어야 합니다. 이 단계를 거치면 광활한 AI의 세계로 가는 문이 열립니다. Hugging Face를 방문하여 가입하고 모험을 시작하세요.

RAG: 가속화된 인텔리전스를 위한 벡터 데이터베이스 활용하기

4

검색 증강 생성(RAG)은 생성형 AI의 창의적인 능력과 지식 검색의 정확성을 결합하여 명료할 뿐만 아니라 심층적인 정보를 제공하는 시스템을 만드는 정교한 AI 기술입니다. RAG의 잠재력과 효율성을 최대한 활용하기 위해 방대한 정보 저장소를 빠르게 검색할 수 있는 강력한 도구인 벡터 데이터베이스를 통합했습니다. 다음은 벡터 데이터베이스로 RAG가 작동하는 방식에 대한 향상된 분석입니다.

  1. 벡터 데이터베이스를 사용한 검색: RAG는 대규모 정보 말뭉치의 임베디드 표현을 담고 있는 벡터 데이터베이스를 쿼리하는 것으로 프로세스를 시작합니다. 이러한 임베딩은 문서나 데이터 스니펫의 의미적 본질을 캡슐화하는 고차원 벡터입니다. 벡터 데이터베이스를 통해 RAG는 이러한 임베딩을 초고속으로 검색하여, 마치 AI가 디지털 도서관을 빠르게 탐색하여 적합한 책을 찾는 것처럼, 주어진 검색어와 가장 관련성이 높은 콘텐츠를 정확히 찾아낼 수 있습니다.
  2. 컨텍스트를 통한 증강: 벡터 데이터베이스에서 검색된 관련 정보는 생성형 모델에 컨텍스트 증강으로 제공됩니다. 이 단계에서는 AI에 집중된 지식을 제공하여 창의적일 뿐만 아니라 문맥적으로 풍부하고 정확한 답변을 작성할 수 있는 능력을 향상시킵니다.
  3. 정보에 기반한 응답 생성: 이러한 맥락으로 무장한 생성 모델은 텍스트를 생성합니다. 학습된 패턴에만 의존하는 표준 생성 모델과 달리, RAG는 검색된 데이터에서 세부 사항을 엮어내어 상상력이 풍부하고 검색된 지식에 의해 입증된 결과물을 만들어냅니다. 따라서 생성 수준이 향상되어 보다 정확하고 유익하며 실제 맥락을 반영하는 응답을 얻을 수 있습니다.

벡터 데이터베이스의 통합은 RAG의 효율성의 핵심입니다. 기존의 메타데이터 검색 방법은 속도가 느리고 정확도가 떨어질 수 있지만, 벡터 데이터베이스는 매우 큰 데이터 세트에서도 문맥과 관련된 정보를 거의 즉각적으로 검색할 수 있습니다. 이러한 접근 방식은 귀중한 시간을 절약할 뿐만 아니라 AI의 응답이 가장 적절하고 최신의 정보에 근거하도록 보장합니다.

RAG의 능력은 챗봇, 디지털 비서, 정교한 연구 도구 등 정확하고 신뢰할 수 있으며 맥락에 기반한 정보 제공이 중요한 애플리케이션에서 특히 유용합니다. 단순히 설득력 있는 답변을 작성하는 것이 아니라 검증 가능한 데이터와 실제 지식에 기반한 콘텐츠를 생성하는 것이 중요합니다.

LangChain, Hugging Face, LLM, GenAI, 그리고 벡터 데이터베이스로 강화된 RAG에 대한 풍부한 이해로 무장한 우리는 이러한 기술을 현실로 구현할 코딩 모험의 문턱에 서 있습니다. 앞으로 살펴볼 Python 스크립트는 이러한 요소들의 시너지를 통해 창의성과 맥락뿐 아니라 공상 과학의 영역으로 여겨졌던 깊이 있는 이해력으로 반응할 수 있는 AI 시스템을 보여줄 것입니다. 벡터 데이터베이스를 사용하여 코딩을 준비하고 RAG의 혁신적인 힘을 경험해 보세요.

코딩 과정 시작하기

시작하기 전에: 필수 사항

이 기술 오디세이를 시작하기 전에 모든 준비가 완료되었는지 확인해 보겠습니다.

  • Linux 서버(GPU 카드가 장착되면 더 좋음) - 속도가 가장 중요합니다.
  • Python 3.6 이상 - 프로그래밍의 마술 지팡이.
  • pip 또는 Anaconda – 편리한 패키지 관리자.
  • GPU 카드가 있다면 NVIDIA 드라이버, CUDA Toolkit, cuDNN – GPU 가속을 위한 삼위일체.

전부 준비하셨나요? 좋습니다! 이제 본격적으로 시작해 보겠습니다.

코드 실행

Python 종속성을 신중하게 관리하면 AI 프로젝트를 안정적이고 신뢰할 수 있는 기반 위에 구축할 수 있습니다. 종속성이 제자리에 있고 환경이 올바르게 설정되었으면 스크립트를 실행하고 RAG와 LangChain의 성능을 실제로 확인할 준비가 된 것입니다.

이제 Python 스크립트를 실행하여 RAG가 작동하는 것을 확인할 수 있습니다.

무대 설정: 라이브러리 가져오기 및 변수 로드하기

LangChain 프레임워크와 Hugging Face의 Transformers 라이브러리를 사용하여 AI를 탐색하기 전에 안전하고 잘 구성된 환경을 구축하는 것이 중요합니다. 이러한 준비에는 필요한 라이브러리를 가져오고 환경 변수를 통해 API 키와 같은 민감한 정보를 관리하는 것이 포함됩니다.

from torch import cuda
from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_community.embeddings.huggingface import HuggingFaceEmbeddings
from transformers import AutoModelForCausalLM, AutoTokenizer
from langchain_community.llms.huggingface_pipeline import HuggingFacePipeline
from transformers import pipeline
from dotenv import load_dotenv

load_dotenv()

Hugging Face의 AI 모델로 작업할 때는 종종 Hugging Face API에 액세스해야 하며, 이를 위해서는 API 키가 필요합니다. 이 키는 Hugging Face 서비스에 요청할 때 고유 식별자로, 모델을 로드하고 애플리케이션에서 사용할 수 있도록 해줍니다.

환경을 안전하게 설정하려면 다음과 같이 하세요.

  1. Hugging Face API 키 받기: Hugging Face 계정을 생성한 후 계정 설정의 'Access Tokens' 섹션에서 API 키를 찾을 수 있습니다.
  2. API 키 보안: API 키는 민감한 정보이므로 비공개로 유지해야 합니다. 스크립트에 하드코딩하는 대신 환경 변수를 사용해야 합니다.
  3. .env 파일 만들기: .env 파일을 만듭니다. 이 파일에는 환경 변수가 저장됩니다.
  4. .env 파일에 API 키 추가: 텍스트 편집기로 .env 파일을 열고 다음 형식으로 Hugging Face API 키를 추가합니다.
HUGGINGFACE_API_KEY=your_api_key_here

your_api_key_here를 Hugging Face에서 얻은 실제 API 키로 바꿉니다.

모델 경로 및 구성 정의

modelPath = "sentence-transformers/all-mpnet-base-v2"
device = 'cuda' if cuda.is_available() else 'cpu'
model_kwargs = {'device': device}

여기서는 임베딩에 사용할 사전 학습된 모델의 경로를 설정합니다. 또한 빠른 계산을 위해 가능한 경우 GPU를 활용하고, 그렇지 않은 경우 기본값을 CPU로 설정하여 디바이스 설정을 구성합니다.

Hugging Face 임베딩 및 FAISS 벡터 스토어 초기화하기

embeddings = HuggingFaceEmbeddings(
    model_name=modelPath,
    model_kwargs=model_kwargs,
)

# Made up data, just for fun, but who knows in a future
vectorstore = FAISS.from_texts(
    ["Harrison worked at Alibaba Cloud"], embedding=embeddings
)

retriever = vectorstore.as_retriever()

선택한 모델과 구성으로 HuggingFaceEmbedding의 인스턴스를 초기화합니다. 그런 다음, 고차원 공간에서 효율적인 유사도 검색을 수행할 수 있는 FAISS를 사용해 벡터스토어를 생성합니다. 또한 임베딩을 기반으로 정보를 가져올 리트리버를 인스턴스화합니다.

채팅 프롬프트 템플릿 설정하기

template = """Answer the question based only on the following context:
{context}
Question: {question}
"""

prompt = ChatPromptTemplate.from_template(template)

여기서는 AI와의 상호작용을 구성하는 데 사용될 채팅 프롬프트 템플릿을 정의합니다. 여기에는 체인을 실행하는 동안 동적으로 채워질 컨텍스트와 질문을 위한 자리 표시자가 포함됩니다.

토큰화 및 언어 모델 준비하기

AI와 자연어 처리의 세계에서 토큰화 도구와 언어 모델은 텍스트를 의미 있는 행동으로 전환하는 역동적인 듀오입니다. 토큰화 도구는 언어를 모델이 이해할 수 있는 조각으로 분해하고, 언어 모델은 이러한 입력을 기반으로 언어를 예측하고 생성합니다. 이 과정에서 우리는 이러한 기능을 활용하기 위해 Hugging Face의 AutoTokenizer와 AutoModelForCausalLM 클래스를 사용하고 있습니다. 하지만 언어 모델을 선택할 때 한 가지 크기가 모든 것에 적합하지 않다는 점을 기억하는 것이 중요합니다.

모델 크기 및 연산 리소스

모델의 크기는 고려해야 할 중요한 요소입니다. Qwen-72B와 같은 큰 모델은 더 많은 파라미터를 가지므로 일반적으로 더 미묘한 텍스트를 이해하고 생성할 수 있습니다. 하지만 더 많은 연산 능력이 필요합니다. 하이엔드 GPU와 충분한 메모리를 갖추고 있다면 이러한 대형 모델을 선택하여 기능을 최대한 활용할 수 있습니다.

반면에 Qwen-1.8B와 같은 작은 모델은 표준 컴퓨팅 환경에서 훨씬 더 관리하기 쉽습니다. 이 작은 모델도 IoT 및 모바일 디바이스에서 실행할 수 있어야 합니다. 더 큰 모델만큼 복잡한 언어를 잘 포착하지는 못하지만, 여전히 뛰어난 성능을 제공하며 특수 하드웨어가 없는 사용자도 쉽게 접근할 수 있습니다.

작업별 모델

고려해야 할 또 다른 사항은 작업의 성격입니다. 대화형 AI를 구축하는 경우, 대화에 맞게 미세 조정되고 대화의 뉘앙스를 기본 모델보다 더 잘 처리할 수 있는 Qwen-7B-Chat과 같은 채팅 전용 모델을 사용하면 더 나은 결과를 얻을 수 있습니다.

추론 비용

모델이 클수록 하드웨어에서 더 많은 것을 요구할 뿐만 아니라 클라우드 기반 서비스를 사용하여 모델을 실행하는 경우 더 높은 비용이 발생할 수 있습니다. 각 추론은 처리 시간과 리소스를 차지하므로 대규모 모델로 작업하는 경우 비용이 더 늘어날 수 있습니다.

Qwen 시리즈

  • Qwen-1.8B: 적은 연산 능력이 필요한 작업에 적합한 작은 모델입니다. 강력한 GPU가 없는 컴퓨터에서 프로토타이핑 및 실행에 적합합니다.
  • Qwen-7B: 성능과 연산 요구 사항의 균형이 잡힌 중간 크기 모델입니다. 텍스트 생성 및 질의 응답을 포함한 다양한 작업에 적합합니다.
  • Qwen-14B: 언어 이해 및 생성에서 더 큰 뉘앙스를 지닌 더 복잡한 작업을 처리할 수 있는 더 큰 모델입니다.
  • Qwen-72B: 시리즈 중 가장 큰 모델로, 심층적인 언어 이해가 필요한 고급 AI 애플리케이션을 위한 최첨단 성능을 제공합니다.
  • Qwen-1.8B-Chat: 챗봇 및 기타 대화 시스템 구축을 위해 특별히 설계된 대화형 모델입니다.
  • Qwen-7B-Chat: Qwen-1.8B-Chat과 유사하지만 더 복잡한 대화를 처리할 수 있는 용량이 증가했습니다.
  • Qwen-14B-Chat: 정교한 대화 상호 작용이 가능한 고급 대화 모델입니다.
  • Qwen-72B-Chat: Qwen 시리즈 중 가장 고급 대화 모델로, 까다로운 채팅 애플리케이션을 위한 탁월한 성능을 제공합니다.

선택하기

어떤 모델을 사용할지 결정할 때는 사용 가능한 리소스와 프로젝트의 특정 요구 사항과 비교하여 더 큰 모델의 이점을 잘 따져보세요. 이제 막 시작했거나 소규모로 개발하는 경우에는 소규모 모델이 최선의 선택일 수 있습니다. 요구 사항이 커지거나 고급 기능이 필요한 경우 더 큰 모델로 업그레이드하는 것을 고려하세요.

Qwen 시리즈는 오픈소스이므로 다양한 모델을 실험하여 프로젝트에 가장 적합한 모델을 찾을 수 있다는 점을 기억하세요. 다른 모델을 사용하기로 결정한 경우 스크립트의 모델 선택 부분은 다음과 같습니다.

# This can be changed to any of the Qwen models based on your needs and resources
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B", trust_remote_code=True)
model_name_or_path = "Qwen/Qwen-7B"
model = AutoModelForCausalLM.from_pretrained(model_name_or_path,
                                             device_map="auto",
                                             trust_remote_code=True)

토큰화 도구와 인과 관계 언어 모델을 각각 AutoTokenizer와 AutoModelForCausalLM 클래스를 사용하여 Hugging Face에서 로드합니다. 이러한 구성 요소는 자연어 입력을 처리하고 출력을 생성하는 데 매우 중요합니다.

텍스트 생성 파이프라인 만들기

이 파이프라인은 이전에 로드된 언어 모델과 토큰화 도구를 사용하여 텍스트를 생성하도록 설계되었습니다. 파라미터를 세분화하고 텍스트 생성의 동작을 제어하는 데 있어 각 파라미터의 역할을 이해해 보겠습니다.

pipe = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer,
    max_new_tokens=8192,
    do_sample=True,
    temperature=0.7,
    top_p=0.95,
    top_k=40,
    repetition_penalty=1.1
)

hf = HuggingFacePipeline(pipeline=pipe)

텍스트 생성 파이프라인의 파라미터에 대한 설명:

  • max_new_tokens (8192): 이 파라미터는 출력에 생성할 수 있는 최대 토큰 수를 지정합니다. 토큰은 토큰화 도구에 따라 단어, 문자 또는 하위 단어가 될 수 있습니다.
  • do_sample (True): 이 파라미터를 True로 설정하면 모델에서 생성된 다음 토큰의 분포에서 확률적 샘플링을 활성화합니다. 이렇게 하면 생성된 텍스트에 무작위성과 다양성이 도입됩니다. False로 설정하면 모델은 항상 가장 가능성이 높은 다음 토큰을 선택하므로 결정론적이고 덜 다양한 출력이 생성됩니다.
  • temperature (0.7): 온도 파라미터는 샘플링 프로세스에 얼마나 많은 무작위성을 도입할지를 제어합니다. 온도 값이 낮을수록(0에 가까울수록) 모델의 선택에 대한 확신이 높아져 무작위 출력이 줄어들고, 온도 값이 높을수록(1에 가까울수록) 무작위성과 다양성이 증가합니다.
  • top_p (0.95): 이 파라미터는 누적 확률이 임계값 top_p 이상인 가장 가능성이 높은 토큰만 고려하는 기술인 핵 샘플링을 제어합니다. 이는 텍스트를 무의미하게 만들 수 있는 매우 낮은 확률의 토큰이 포함되는 것을 방지하여 다양하고 일관성 있는 텍스트를 생성하는 데 도움이 됩니다.
  • top_k (40): Top-k 샘플링은 샘플링 풀을 다음 토큰에 가장 가능성이 높은 k개로 제한합니다. 이렇게 하면 모델이 다음 텍스트를 생성할 때 고려할 토큰 집합을 더욱 세분화하여 결과물의 관련성과 일관성을 유지할 수 있습니다.
  • repetition_penalty (1.1): 이 파라미터는 모델이 동일한 토큰이나 문구를 반복하지 못하도록 하여 보다 흥미롭고 다양한 텍스트를 생성하도록 장려합니다. 값이 1보다 크면 이미 표시된 토큰이 나타날 확률이 낮아지므로 불이익을 받습니다.

원하는 파라미터로 파이프라인을 설정한 후 다음 코드 줄을 작성합니다.

hf = HuggingFacePipeline(pipeline=pipe)

파이프 객체를 HuggingFacePipeline으로 감쌉니다. 이 클래스는 LangChain 프레임워크의 일부이며, 파이프라인을 AI 애플리케이션 구축을 위한 LangChain의 워크플로에 원활하게 통합할 수 있게 해줍니다. 파이프라인을 래핑함으로써, 이제 리트리버 및 파서와 같은 LangChain의 다른 구성 요소와 함께 사용하여 더 복잡한 AI 시스템을 만들 수 있습니다.

이러한 파라미터를 신중하게 선택하면 보다 창의적이고 다양한 결과물을 원하거나 일관되고 집중된 텍스트를 목표로 하는 등 애플리케이션의 특정 요구 사항에 맞게 텍스트 생성의 동작을 미세 조정할 수 있습니다.

RAG Chain 제작 및 실행

아래 코드 스니펫은 초기 질문이 관련 정보를 검색하도록 유도한 다음 생성 프로세스를 보강하는 데 사용되어 입력 질문에 대한 정보에 기반하고 맥락에 맞는 답변을 제공하는 완전한 엔드투엔드 RAG 시스템을 나타냅니다.

1.  체인 제작:

chain = (
    {"context": retriever, "question": RunnablePassthrough()}
    | prompt
    | hf
    | StrOutputParser()
)

코드의 이 부분에서 일어나는 일은 다음과 같습니다.

  • 리트리버는 쿼리를 기반으로 관련 정보를 가져오는 데 사용됩니다. 리트리버의 역할은 데이터 세트 또는 문서 모음을 검색하여 질문과 가장 관련성이 높은 정보를 찾는 것입니다. 효율성을 위해 벡터 데이터베이스를 사용하는 경우가 많습니다.
  • _RunnablePassthrough() _는 질문을 수정하지 않고 단순히 전달하는 컴포넌트입니다. 이는 체인이 사용자가 입력한 질문을 직접 처리하도록 설계되었음을 시사합니다.
  • _프롬프트_는 여기에 자세히 표시되어 있지 않지만 파이프라인의 다음 단계인 Hugging Face 모델에 적합한 방식으로 입력된 질문과 검색된 컨텍스트의 형식을 지정하는 템플릿 또는 일련의 지침 역할을 할 가능성이 높습니다.
  • hf 변수는 응답을 생성할 수 있는 사전 학습된 언어 모델인 Hugging Face 파이프라인을 나타냅니다. 이 파이프라인은 이전 단계에서 형식이 지정된 입력을 가져와서 생성 기능을 사용하여 응답을 생성합니다.
  • _StrOutputParser()_는 출력 파서이며, 이 파서의 역할은 Hugging Face 파이프라인에서 원시 출력을 가져와 보다 사용자 친화적인 형식(아마도 문자열)으로 파싱하는 것입니다.

(파이프) 연산자를 사용하는 것은 이 코드가 함수형 프로그래밍 스타일, 특히 한 함수의 출력이 다음 함수의 입력이 되는 함수 구성 또는 파이프라인 패턴의 개념을 사용하고 있음을 의미합니다.

2.  체인 호출:

results = chain.invoke("Where did Harrison work?")

이 줄에서는 특정 질문으로 체인을 호출하고 있습니다: "Where did Harrison work?" 이 호출은 체인에 정의된 전체 작업 시퀀스를 트리거합니다. 리트리버는 관련 정보를 검색한 다음 프롬프트를 통해 질문과 함께 Hugging Face 모델에 전달합니다. 모델은 수신된 입력에 따라 응답을 생성합니다.

3.  결과 프린팅:

print(results)

생성된 응답은 StrOutputParser()에 의해 파싱되어 최종 결과로 반환된 다음 콘솔 또는 다른 출력으로 프린트됩니다.

마지막으로 리트리버, 프롬프트 템플릿, Hugging Face 파이프라인, 출력 구문 분석기를 연결하여 RAG 체인을 구축합니다. 질문으로 체인을 호출하면 결과가 프린트됩니다.

6

결론: AI 숙달을 위한 관문

여러분은 방금 RAG와 LangChain을 통해 AI의 세계로 크게 도약했습니다. 이 코드를 이해하고 실행함으로써, 여러분은 전례 없는 방식으로 정보를 추론하고 상호 작용할 수 있는 인텔리전트 시스템을 만들 수 있는 잠재력을 발휘하고 있는 것입니다.


이 문서는 원래 영어로 작성되었습니다. 원본 문서는 여기를 참조하세요.

0 0 0
Share on

Regional Content Hub

31 posts | 2 followers

You may also like

Comments