주요 컴포넌트tokenizerEmbedding LayerTransformer Decoder LayersOutput Layer컴포넌트 설명TokenizerTokenizer는 자연어 처리(NLP) 시스템에서 입력 텍스트를 처리하는 첫 번째 단계에서 활용되는 도구입니다. 이 과정에서 텍스트를 토큰(Token)이라는 최소 단위로 분할합니다. 자주 함께 쓰이는 문자 쌍을 병합해 서브 워드를 생성 합니다. 토큰은 단어, 부분 단어, 혹은 심지어 개별 문자일 수도 있습니다. 모델이 텍스트를 이해하고 처리하기 위해서는 먼저 이처럼 텍스트를 작은 단위로 나누는 과정이 필요합니다.token : 텍스트를 분할하는 최소 단위BPE (Byte Pair Encoding) Tokenizer의 동작 과정BPE 토크나이저는 텍스트 데..