본문 바로가기
Natural Language Processing/etc...

LLM 공부를 위한 계획

by beeny-ds 2024. 2. 9.
벌써 설날이다. 이번 설날에는 휴일이 이틀 주어졌다.
이 기회를 활용해서 LLM 에 대한 공부를 할 계획이다.
어떤 공부를 할 건지 그 리스트와 공부 시간 계획을 공표(?)한다.
반드시 목표를 달성하리라~

Target 독자 : 설날에 목표를 달성하고자 하는 모든 사람 (동기부여가 됐으면 좋겠네요)


 

목차

1. 어떤 공부를 할 것인가

2. 언제 공부를 할 것인가


 

1. 어떤 공부를 할 것인가

LLM 학습을 위해 무엇을 알아야할까?

요즈음 LLM 학습은 3가지만 키워드만 알면 된다.

  1. Parameter-Efficient Fine-Tuning (a.k.a PEFT)
  2. Parallel and Distributed Training
  3. Trainer

3가지 키워드에 대한 개념과 어떻게 사용할 수 있는지 방법을 알아야 한다.

각각의 키워드에 대해 어떤 공부를 어떻게 할 건지 계획하겠다.

 

  1. Parameter-Efficient Fine-Tuning (a.k.a PEFT)
    • 어떤 공부를 ?
      • LoRA, QLoRA, P-Tuning, Prefix-Tuning
    • 어떻게 ?
      • huggingface peft library 에서 제공하는 기능 공부 (코드 Level)
  2. Parallel and Distributed Training
    • 어떤 공부를 ?
      • FSDP, TP, PP, DP, DDP, DeepSpeed ZeRO
    • 어떻게 ?
      • huggingface accelerate library 에서 제공하는 기능 공부 (코드 Level)
      • ms 의 deepspeed library 는 pass 한다.
  3. Trainer
    • huggingface trl library 에서 제공하는 Trainer 공부 (코드 Level)
      • trl : Transformer Reinforcement Learning

 

세 가지 공부는 한꺼번에 할 수 있다.

왜냐하면 LLM 을 학습하기 위해서는 효율적인 파라미터 학습과 효율적인 Device 사용을 병행해야 하고 이를 통제하는 객체가 Trainer 이기 때문이다.

그럼 언제 이 두 가지 코드 Level 의 공부를 할 건지 계획을 세워보자 

 


 

2. 언제 공부를 할 것인가

필자에게 주어진 시간은 2월 11일, 12일이다.

이틀 동안 해당 공부를 진행할 예정이다.

 

2월 9일~10일은 가족과 시간을 보내야 한다.

아마 11일 저녁에 자취방에 돌아올 것 같다.

그때부터 Input 을 왕창 넣을 예정이다.

 

많은 Input 에 의한 풍성한 Output 을 기대해 주기 바란다.


 

마무리,,

올 설에 약 15시간 정도 자유시간이 주어질 것 같다.

15시간을 알차게 써서 그동안 부족했던 코드 Level 의 LLM 학습을 보충할 예정이다.

계획을 잘 세워 목표를 달성하자.

반응형

댓글