# LLM Chain

**LLM Chain 노드**는 지정된 프롬프트를 기반으로 LLM이 응답을 생성하도록 구성하는 가장 기본적인 체인 노드입니다.\
프롬프트와 모델만 설정하면 **모든 유형의 단일 질문 응답, 문장 생성, 요약, 변환 등 작업에 활용할 수 있는 범용 텍스트 생성 노드**입니다.&#x20;

***

### 주요 기능

* 사용자 정의 프롬프트 기반 LLM 응답 생성
* 다양한 자연어 처리 태스크에 유연하게 활용 가능
* Output Parser를 통해 **구조화된 출력 처리** 가능
* Prompt Chain의 구성 단위로 사용 가능

<figure><img src="https://2658622170-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FfkjMyYilRWTdXwhLDYHx%2Fuploads%2Fgit-blob-34d07e0ab96c46dc7d60c8b415b06725ee88693c%2F%EC%8A%A4%ED%81%AC%EB%A6%B0%EC%83%B7%202025-05-09%20171456.png?alt=media" alt=""><figcaption><p>WindyFlo LLM Chain</p></figcaption></figure>

### 입력값 (Inputs)

| 항목                   | 설명                            | 필수 여부         |
| -------------------- | ----------------------------- | ------------- |
| **Language Model**   | 문장 생성을 수행할 LLM                | 필수            |
| **Prompt**           | 출력 결과를 생성하기 위한 명령 또는 프롬프트 텍스트 | 필수            |
| **Output Parser**    | 결과를 구조화된 포맷(JSON 등)으로 변환하는 옵션 | 선택            |
| **Input Moderation** | 유해/부적절한 입력 차단 기능              | 선택            |
| **Chain Name**       | 체인에 이름을 지정할 수 있는 옵션           | 선택 (체인 관리 목적) |

***

### 출력값 (Outputs)

| 출력 항목                 | 설명                                              |
| --------------------- | ----------------------------------------------- |
| **LLM Chain**         | 기본 LLM 응답 텍스트 (기본 출력)                           |
| **Output Prediction** | Output Parser 적용 결과나 예측값 등 구조화된 출력 (옵션 선택 시 사용) |

***

### 활용 예시

1. **텍스트 생성**
   * 프롬프트: “{name}에 대한 소개 글을 작성해줘”
   * 입력값: `name = 'WindyFlo'` → LLM이 회사 소개 문장 생성
2. **형식 변환**
   * 이메일 → 회의록 요약, 텍스트 → JSON 변환 등 다양한 변환 작업에 활용
3. **간단한 추론 작업**
   * “다음 문장이 긍정인지 부정인지 판단해줘: {문장}” → Output Parser로 yes/no 추출 가능

***

### 사용 팁

* Prompt는 사용자 입력값과 매핑될 수 있도록 `{}` 변수를 활용해 동적으로 구성할 수 있습니다.
* Output Parser는 JSONSchema 기반 구조를 설계하거나, 커스텀 파서 노드와 연결하여 더 정교한 결과를 받을 수 있습니다.
* Prompt 설계 시 System 역할 포함 가능 (예: “You are a helpful assistant.”)

***

### 주의사항

* Prompt 내 `{input}` 같은 변수명은 실제 연결되는 값과 일치해야 합니다.
* Output Parser를 설정하지 않으면 LLM의 출력 결과는 **순수 텍스트 형태**로 반환됩니다.
* 출력 옵션에서 Output Prediction을 선택하지 않으면 예측값은 출력되지 않으며, 파서 로직도 무시됩니다.

***

LLM Chain은 WindyFlo에서 **가장 범용적이고 유연하게 사용 가능한 텍스트 생성 노드**입니다.\
질문 응답, 문장 작성, 포맷 변환, 감정 분석 등 모든 LLM 기반 작업의 시작점으로 활용됩니다.
