본문 바로가기

전체 글80

[LLaMA-Factory] PT&SFT 학습 데이터는 어떻게 만들어지는가? LLM 오픈소스 중 가장 유명한 LLaMA-Factory 를 파악하고 있다.그중 Pretrain(a.k.a PT) 과 Supervised Fine-Tuning(a.k.a SFT) 에서 학습 데이터를 어떤 형태로 만드는지 실무자로서 가장 궁금했다.추후에 회사 프로젝트에서 sLLM 을 학습해야 한다면 LLaMA-Factory 도 좋은 수단으로 생각했기 때문에 데이터는 어떤 형태로 구성되는지 소스 코드를 통해 상세하게 파악할 필요가 있었기 때문이다.본 포스팅은 오픈소스인 LLaMA-Factory 에서 PT, SFT 학습 시 학습 데이터를 어떻게 encode 하는지 그 과정과 결과를 소개한다.목차1. 실무자는 바쁘다.! 결론부터 말씀드릴게요.2. PT 학습 시 학습 데이터 형태3. SFT 학습 시 학습 데이터 .. 2025. 1. 22.
[논문 리뷰] 실무자를 위한 SAINT 논문 리뷰 SAINT 는 Riiid AI Research team 에서 2020년 2월 14일에 투고한 논문으로 학생의 지식 수준을 측정하는 목적의 Deep Learning Model 에 관한 내용이다.Transformer architecture 를 기반으로 Knowledge Tracing task 를 수행하였다.본 포스팅을 읽기 전에 필자가 이론편으로 업로드한 SAINT 와 SAINT+ 에 대해 먼저 확인하는 걸 추천한다.1. SAINT 논문 이론 링크 바로가기2. SAINT+ 논문 이론 링크 바로가목차1. 코드 재현을 위해 참고한 링크 소개2. 데이터셋 소개3. 데이터 Input 형태 확인4. 모델 구조5. 필자 리뷰 1. 코드 재현을 위해 참고한 링크 소개 먼저 필자가 재직하는 회사의 개발 서버는 cuda v.. 2025. 1. 18.
[논문 리뷰] CRKT 논문 리뷰 - 코드편 지난 포스팅에서는 객관식 문제에 대해 다양한 Input 을 활용하여 Knowledge Tracing task 를 수행한 CRKT 논문에 대해 소개했다.해당 논문은 github 코드가 굉장히 친절하게 짜여졌다.본 포스팅에서는 CRKT 논문 저자가 개발한 코드에 대해 설명하고자 한다.코드의 Flow 와 그 의미에 대해 상세히 다루도록 하겠다.목차1. CRKT github 소개2. Preprocessed DBE_KT22 dataset info. 3. Model Architecture 4. Model Train5. 필자 리뷰  1. CRKT github 소개github link: https://github.com/Soonwook34/CRKT/tree/main논문 저자인 박순욱님께서 개발 및 배포하신 코드코드 파.. 2025. 1. 11.
[논문 리뷰] CRKT 논문 리뷰 - 이론편 작년 12월에 EduTech 기업으로 이직 하여 12월 중순부터 EduTech 의 꽃이라 불리는(?) Knowledge Tracing 모델에 대해 리서치를 하고 있다.리서치 중 논문 내용도 좋고 github 코드도 친절하게 짜여진 CRKT 논문에 대해 소개하고자 한다.CRKT 논문은 이론편과 구현편 2가지로 나누어 포스팅 할 예정이다.본 포스팅 글은 이론편에 속한다.목차1. 논문 소개2. 문제 제기 및 해결 방안3. 학습 방법4. 모델 구조5. 성능 평가6. 필자 리뷰  1. 논문 소개논문명: Enhancing Knowledge Tracing with Concept Map and Response Disentanglement폴리인스퍼레이션에서 성균관대학교와 협업하여 개발한 KT Model(a.k.a CRK.. 2025. 1. 6.
EMNLP 2024 투고록 ③ - 논문 발표 금년도 EMNLP 학회에 논문을 투고했습니다~정확히는 EMNLP Industrial track 에 논문을 투고했는데요 !논문 작성부터 투고 및 마무리까지 어떤 과정으로 진행이 됐는지 기록을 남기고자 글을 올립니다~투고록은 총 3개의 게시글로 나눠 작성할 예정입니다.마지막으로 논문 Accept 후 논문 발표를 어떻게 준비했는지에 대해 상세하게 다루겠습니다.EMNLP 학회에 논문을 투고하고자 하는 분들께 도움이 되었으면 좋겠네요 :) 논문 투고 일정출처: https://2024.emnlp.org/calls/industry_track/날짜일정설명24년 7월 18일논문 제출논문 제출 마감 날짜24년 9월 5~11일RebuttalsReviewer 와 저자의 토론 기간24년 10월 1일Accept 논문 발표학회 등.. 2024. 11. 8.
EMNLP 2024 투고록 ② - Reviewer rebuttals 금년도 EMNLP 학회에 논문을 투고했습니다~정확히는 EMNLP Industrial track 에 논문을 투고했는데요 !논문 작성부터 투고 및 마무리까지 어떤 과정으로 진행이 됐는지 기록을 남기고자 글을 올립니다~투고록은 총 3개의 게시글로 나눠 작성할 예정입니다.두 번째로 논문 작성 후 Review 를 어떻게 대응했는지, 대응하는 Tip 은 무엇인지에 대해 상세하게 다루겠습니다.EMNLP 학회에 논문을 투고하고자 하는 분들께 도움이 되었으면 좋겠네요 :) 논문 투고 일정출처: https://2024.emnlp.org/calls/industry_track/날짜일정설명24년 7월 18일논문 제출논문 제출 마감 날짜24년 9월 5~11일RebuttalsReviewer 와 저자의 토론 기간24년 10월 1일A.. 2024. 11. 4.
EMNLP 2024 투고록 ① - 논문 작성 Process 금년도 EMNLP 학회에 논문을 투고했습니다~정확히는 EMNLP Industrial track 에 논문을 투고했는데요 !논문 작성부터 투고 및 마무리까지 어떤 과정으로 진행이 됐는지 기록을 남기고자 글을 올립니다~투고록은 총 3개의 게시글로 나눠 작성할 예정입니다.먼저 논문 작성 Process 에 대해 상세하게 다루겠습니다.EMNLP 학회에 논문을 투고하고자 하는 분들께 도움이 되었으면 좋겠네요 :) 논문 투고 일정출처: https://2024.emnlp.org/calls/industry_track/날짜일정설명24년 7월 18일논문 제출논문 제출 마감 날짜24년 9월 5~11일RebuttalsReviewer 와 저자의 토론 기간24년 10월 1일Accept 논문 발표학회 등록으로 채택된 논문 공지24년 .. 2024. 11. 2.
[논문 리뷰]LongSkywork: A Training Recipe for Efficiently Extending Context Length Continual Pretrain Training 시 Input contexts 구성을 어떻게 하는게 모델 성능 향상에 도움이 될지를 서치하던 중 발견한 논문이다.본 논문은 draft 하게 확인했기 때문에 상세한 내용 확인을 위해서는 직접 Detail check 이 필요하다.목차1. 논문의 목적2. 개요3. Methodology4. 실험 결과 1. 논문의 목적컨텍스트 길이 확장효율적인 훈련 방법 제안일반적인 장문 처리 능력 향상 2. 개요CIP와 SynL 방법을 통해 효율적으로 장문 컨텍스트 학습 데이터를 생성하고, 이를 통해 모델의 장문 처리 능력을 크게 향상LongSkywork는 최대 200,000 토큰의 컨텍스트를 처리할 수 있는 장문 LLM합성 데이터의 사용이 실제 수집된 장문 데이터보다 더 효과.. 2024. 10. 17.
[논문 리뷰]IN-CONTEXT PRETRAINING: LANGUAGE MODELING BEYOND DOCUMENT BOUNDARIES Large Language Model 을 사전학습 하기 위해서는 long input context 가 필요하다.최근 모델들은 대부분 8K 를 사용하는데 8K 만큼의 token 을 가진 Documents 는 적다.그래서 보편적인 방법으로 Document 를 이어붙여 8K 만큼 만들어준 뒤 모델을 학습시키는 방법을 사용한다.본 논문에서는 Document 를 어떻게 이어붙여야 성능 향상의 효과가 있는지를 실험한 내용이다.목차1. 논문 핵심 내용 요약2. 장점 & 단점 정리3. 코드 유무 확인 1. 논문 핵심 내용 요약LLM 학습 시 input contexts 구성할 때 문서의 type 을 고려하여 이어 붙여 모델을 학습하면 성능 향상 효과가 있다고 한다.본 논문에서는 수십억 개의 문서에서 반복 없이 모든 문서.. 2024. 10. 17.
[논문 리뷰]Magpie: Alignment Data Synthesis from Scratch by Prompting Aligned LLMs with Nothing Synthesis datasets 생성을 위한 레퍼런스 체크를 하던 중 Magpie 논문을 확인했다.LLM 의 특징을 활용하여 데이터셋을 생성하는게 흥미로웠다.직접 몇 가지 테스트를 해봤는데 되긴 하더라.다만... Domain specific task 에 대해서는 아쉬움을 느낀다.그래도 기왕 논문을 확인했으니 기록을 남긴다.논문 링크: arxiv 바로가기목차1. 논문 핵심 내용 요약2. 장점 & 단점 정리3. 코드 유무 확인 1. 논문 핵심 내용 요약a. 문제 제기모델을 효과적으로 학습하려면 고품질의 정렬된 데이터 세트가 필수적이다.기존의 데이터 수집 및 annotation 방법은 시간과 비용이 많이 든다.정렬된 고품질의 데이터를 생성하는 솔루션인 Magpie 제안Magpie 는 합성 데이터 생성을 완전.. 2024. 10. 1.
반응형