본문 바로가기

Contents84

[ALiBi] Train Short, Test Long: Attention With Linear Biases Enables Input Length Extrapolation 본 논문에서는 별도의 모델 재학습 없이 모델을 추론할 때 학습할 때의 Max_Length 보다 더 많은 Input Token 을 처리할 수 있는 방법을 제시했다. 이 방법을 줄여서 ALiBi 라 한다. Fine-Tuning 으로 사용되는 LLM 인 LLAMA-2 와 같은 NLG 모델이 ALiBi 와 같은 구조를 사용한다. 적용 모델: Generation Model (LLM 에 적용되어 사용되고 있음) 논문 링크: https://arxiv.org/pdf/2108.12409.pdf 목차 배경 문제 제기 ALiBi 방법 모델의 구조 결론 참고 문헌 1. 배경 ALiBi 는 Positional Embedding Issue 인 Max Length 를 늘려주면 성능 하락이 발생하는 문제를 해결 기존 Transfor.. 2024. 1. 17.
클로바 노트로 회의록 작성하기 국내외 많은 기업에서 AI 제품을 런칭했다. 뉴스에 많이 나오는 AI 제품들. 필자가 직접 AI 제품을 써보고 리뷰(a.k.a AI써리)해보겠다. 이번 제품은 클로바 노트다. 클로바 노트를 업무에 활용해 보고 그 효율은 어떠한지 직접 적용해 봤다. 목차 클로바 노트란? 이런 경우 다들 겪어보지 않았는가 회의록 작성 시간 68% 감소 클로바 노트를 활용한 회의록 작성 Process 클로바 노트 무료 사용 횟수 1. 클로바 노트란? AI 음성 인식 기술을 바탕으로, 텍스트로 변환된 음성 기록을 확인하고 관리하는 서비스다. 클로바 노트 고객센터에서 말하는 클로바 노트를 활용한 예시로는 회의, 강의, 인터뷰, 상담 등 녹음이 필요할 때 대화 내용을 집중해서 듣거나 직접 참여해야 할 때 요약 내용을 확인하거나 필.. 2024. 1. 16.
LLAMA 모델 구조 파악 이전 포스팅에서는 'LLM 을 학습하기 위해 어떻게 학습 데이터를 만들어야 하는지' 에 관해 소개했다. 이번 포스팅은 Backbone 이 되는 LLM 으로 가장 많이 활용되는 LLAMA 모델의 구조에 대해 알아보도록 하겠다. ※ NLP 전문가 Level 의 연구자에게 도움이 되는 글임을 유의하길 바란다. 목차 Model Architecture a. LlamaModel 구조 i. Embedding Layer ii. Decoder Layer b. CausalLM Layer 참고 문서 1. Model Architecture a. LlamaModel 구조 i. Embedding Layer nn.embeding 하나만 사용한다. Encoder 모델의 Embedding layer 와 다르다. Encoder 모델의 .. 2024. 1. 8.
LLM 학습을 위한 데이터 생성에 대하여,, 이전 포스팅에서는 LLM 에 관한 전반적인 내용을 비전문가도 이해할 수 있도록 소개했다. 이번 포스팅은 'LLM 을 학습하기 위해 어떻게 학습 데이터를 만들어야 하는지' 에 관해 알아보도록 하겠다. 이전 포스팅과 달리 전문가 Level 의 연구자에게 도움이 되는 글이라는 점을 유의하길 바란다. 목차 sLLM 이란? Supervised Fine-Tuning 의 중요성 학습 데이터 생성 방법 학습된 모델의 예측 경향성 1. sLLM 이란? sLLM 은 small Large Language Models 의 줄인 말이다. 좀 이상하지 않은가? small Large 라는 표현이... 이상해도 어쩔 수 없다. 그냥 LLM 의 수식어로 small 이 들어갔다고 생각하자. LLM 인데 다소 작은 LLM 이라는 의미다... 2023. 12. 29.
ChatGPT Prompt 작성 팁 지난 포스팅에서는 LLM 의 치명적인 이슈인 할루시네이션을 줄이는 방법에 대해 알아봤다. 이번 글은 사용자가 원하는 답변을 얻기 위해 LLM 에 질문하는 방법인 Prompt 팁을 다루고자 한다. 단, 필자의 글은 Prompt 를 어떻게 구성해야 좋은지 경험적인 근거를 바탕으로 작성했음을 유의하길 바란다. 경험적 근거이기 때문에 정량적으로 판단하지 못했다. 지난 포스팅 링크: LLM 의 할루시네이션을 줄이는 방법 ※ 필자가 실제 프로젝트에서 수행한 결과를 바탕으로 Prompt 형식을 추천하였음. 좋은 Prompt 의 근거는 정량적 지표의 기준을 잡기 힘들었기 때문에 경험적 근거에 가까움 Prompt 팁 팁 리스트 Few-Shot Learning 이론은 LLM 의 할루시네이션을 줄이는 방법 에서 In-Con.. 2023. 12. 27.
LLM 의 할루시네이션을 줄이는 방법 지난 포스팅에서는 LLM 을 어떻게 만드는지(=학습하는지), LLM 의 단점은 무엇인지(단점: 할루시네이션) 그리고 할루시네이션을 줄이기 위한 학습 방법은 무엇인지 알아봤다. 이번 글은 LLM 의 단점인 할루시네이션을 줄이기 위한 전략을 다룬다. 전략이기 때문에 LLM 학습이 아닌 점을 참고하길 바란다. 지난 포스팅 링크: LLM 학습에 대한 고찰 ※ 글에서 언급하는 단어에 혼동이 있을 수 있습니다. ['인공지능 모델', 'Generation 모델', '모델'] 이라는 표현은 모두 ChatGPT 와 같은 LLM 을 의미합니다. ['Input', 'Input text'] 의 의미는 LLM 에 들어가는 글(=text)을 의미합니다. ['Output', 'Output text'] 의 의미는 LLM 에서 Inp.. 2023. 12. 27.
LLM 학습에 대한 고찰 ChatGPT 의 등장 이후 LLM 의 인기가 어마어마하다. 필자의 개인적인 생각으로는 2015년 알파고의 파급력보다 ChatGPT 의 파급력이 더 크다고 생각한다. 많은 Tech 기업에서는 자체 기술력으로 LLM 을 만들고 서비스할 수 있다고 광고하고 있다. 본 포스팅에서는 LLM 을 어떻게 학습할 수 있는지, 학습 방법 별 특징은 무엇인지 설명한다. 필자는 LLM 을 효율적으로 활용하기 위해서는 학습 방법을 이해해야 한다고 생각한다. 인공지능 모델은 학습한대로 예측하는 경향성을 띄기 때문이다. ※ 글에서 언급하는 단어에 혼동이 있을 수 있습니다. ['인공지능 모델', 'Generation 모델', '모델'] 이라는 표현은 모두 ChatGPT 와 같은 LLM 을 의미합니다. ['Input', 'Inpu.. 2023. 12. 26.
[쿠버네티스] kubectl 명령어 정리 개발자와 협업 중 쿠버네티스로 관리되는 API 를 사용하는 상황이 생겼다. 무언가 안 될때마다 찾아가는 건 비효율적이라 생각해서 적어도 무엇이 문제인지 알자.! 는 취지로 명령어를 사용했다. 그때 사용한 명령어를 복습차 정리한다. 명령어 간단 정리 쿠버네티스 Version 확인 kubectl version 리소스 생성 ( yaml 파일을 이용 ) kubectl apply -f {파일명} 리소스 목록 확인 kubectl get po # Pod 조회 (리소스 리스트 조회) kubectl get svc # Service 조회 kubectl get deploy # Deployment 조회 kubectl get all # 전부 조회 리소스 상세 조회 kubectl get po # Pod 조회로 이름 검색 kube.. 2023. 11. 5.
API 기초 이해하기 출처: brunch story 님의 블로그 개발자와 일하다보면 용어의 충돌이 발생한다. 간단한 예시로는 데싸가 말하는 아키텍처와 개발자가 말하는 아키텍처의 정의는 다르다. 이러한 용어를 이해할겸, 이러한 용어가 사용되는 분야(?)를 이해할겸 설명이 잘 된 블로그 글을 참고했다. (거의 똑같이 복붙했다.) 해당 블로그는 디자이너로 일하는 분의 블로그로 비개발자의 시선으로 설명이 아주 잘 되어 있다. API 기초 이해하기 를 참고하길 바란다. 감사의 말씀을 전합니다. :) API(Application Programming Interface) 란? API 는 키보드로 설명할 수 있다. 우린 키보드를 통해 컴퓨터를 동작한다. 키보드의 버튼을 누르면 → 키보드에서 컴퓨터로 전달되고 → 스크린에서 텍스트를 볼 수 .. 2023. 10. 29.
NVIDIA Triton 에 대한 고찰 인공지능 모델을 서빙하기 위해 NVIDIA Triton 를 많이 사용한다. NVIDIA Triton 란 무엇인고, 왜 사용하는지, 어떻게 사용하는지에 대한 간단한 설명과 예시를 다룬다. NVIDIA Triton 란 무엇인가? 인공지능 모델은 딥러닝의 발전으로 점점 커지고 성능도 향상되고 있다. 하지만 그만큼 추론 속도는 느려지고 많은 리소스가 필요하다. 더 좋은 GPU 를 사용하면 효과를 볼 수 있지만 많은 비용이 들기 때문에 어떻게 인공지능 모델을 효율적으로 운영할 수 있는지 연구가 계속 되고 있다. 비용을 줄이기 위한 방법으로는 모델 경량화와 같이 인공지능 모델의 크기를 줄이는 방법부터 효율적인 추론을 위한 ONNX, TensorRT 변환 등 다양한 방법이 있다. ONNX, TensorRT 변환의 경.. 2023. 10. 29.
반응형