이전 내용https://makenow90.tistory.com/56Transformer와 GPTTransformerGoogle에서 제안된 모델로, 번역과 같은 시퀀스 작업에 활용되며 LLM의 기초가 됩니다.인코더-디코더 구조를 사용하며, 병렬 처리 덕분에 효율적이고 강력한 성능을 발휘합니다.Attention 메커니즘을 중심으로 모든 입력 간의 관계를 파악하여 정보를 처리합니다.llm의 베이스가 되는 기술이라 보면된다.GPT-1OpenAI에서 개발한 모델로, Transformer의 디코더 부분을 활용하여 언어 생성과 이해 능력을 향상시켰습니다.사전 훈련 후 파인 튜닝을 통해 텍스트 생성, 번역, 요약 등 다양한 언어 작업에서 뛰어난 성능을 보였습니다.언어 모델링을 통해 다음 단어를 예측하는 방식으로 텍스트..