Aastrago

이것만은 꼭! 반드시 알아야 할 AI 기술과 LLM 이슈

XIIIab 2024. 6. 28. 09:00


단 시간 일상에 스며든 '생성형 AI'

 

인공지능-AI

 

최근 일상 속에서 가장 많이 활용하는 어플 중 ‘ChatGPT’가 떠오르며, 많은 사람들은 이제 궁금한 것을 묻거나 업무에 활용할 때 검색 엔진이 아닌 ChatGPT를 활용하곤 합니다.

 


 

또한 대부분의 인터넷 사용자는 ChatGPT를 인지하고, 직접 사용해 본 경험이 있다고 하는데요. 이렇게 AI 앱에서 기사를 요약하거나 스토리를 창작하고 대화에 참여할 수 있게 되면서 대규모 언어 모델의 비중은 점점 더 커지고 있습니다.

 

현재 국내 기업의 약 41%는 인공지능 도입을 위한 프로젝트를 진행 중이거나 이미 업무에 활용하고 있으며, 나머지 40.8%의 기업들 역시 가까운 시일 내 인공지능을 도입을 검토하고 있는 것으로 나타났는데요. 약 10곳 중 8곳 이상의 기업들이 인공지능 도입을 장려하고 있습니다.


 

생성형 AI 확산은 LLM으로부터

 

거대언어모델-LLM
이미지 출처: AI타임스

2024년은 머신러닝·딥러닝 기반의 예측 모델뿐 아니라, 생성형 AI를 활용한 기술의 도입 비율이 크게 늘고 있는데요.

이러한 생성형 AI의 확산 경향은 거대 언어 모델(LLM)에서 특히 두드러지게 나타났습니다.

 

시스템의 성능과 활용 목적에 따라 차별화 포인트를 가지고 있는 여러 종류의 LLM 기반 서비스들이 등장하면서 가속화되는

AI의 흐름을 따라잡고, 비즈니스에 적절히 활용하기 위해서는 기본적인 이슈들에 대해 이해하는 것이 무엇보다 중요합니다.

 

이번 시간에는 최근 가장 핫한 언어 모델 중 하나인 LLM과 관련 이슈를 함께 살펴보도록 하겠습니다.


거대 언어 모델 LLM은 무엇일까?

 

자연어처리-NLP
이미지 출처: 게티 이미지 뱅크

LLM은 Large Language Model의 약자이며, ‘거대 언어 모델’이라는 말 그대로 인간의 언어를 이해하고 적합하게 생성되도록 훈련된 인공지능 모델입니다.

 

주로 딥러닝 알고리즘과 통계 모델링을 통해 자연어 처리(NLP)로 쓰이며, ‘대규모’의 언어 데이터를 미리 학습해서 문장 구조나 문접, 의미 등을 이해하고 생성할 수 있고, 단어의 유사성이나 문맥까지도 파악할 수 있습니다.

 

이러한 특징을 활용하여, 감정 분석· DNA 연구· 고객서비스· 챗봇· 온라인 검색 등 프롬프트가 주어지거나 질문을 받으면 응답으로 텍스트를 생성할 수 있는 응용 기술을 완료합니다.


 

반드시 알아야 할 LLM 관련 이슈

 

인공지능-AI
이미지 출처: theuxlabs

 

1. 생성형 AI와 LLM의 기초 개념과 트렌드

생성형 AI는 이미지, 텍스트, 음성 등 다양한 형태의 데이터를 사전학습하고, 다양한 형태로 창작물을 생성해 내는 모델들을 지칭하는데요.

 

그중에서도 초거대 언어 모델(Large Language Model, LLM)이란 언어 생성에 특화된 생성형 인공지능 모델들을 지칭합니다.

즉 초거대 언어 모델은 다양한 형태의 생성형 AI 중 한 가지 하위 분야라고 할 수 있습니다.

 

최근의 LLM들은 텍스트 데이터뿐만 아니라 이미지와 음성 등 다양한 형태의 데이터로 입출력이 가능한

'멀티 모달'(multimodal) 기능을 탑재하고 있어 다양한 형태로 창작이 가능해졌습니다.


LLM알고리즘-LLM
이미지 출처: Microsoft AI Tour

 

2. LLM의 핵심이 되는 기초 모델

LLM은 인터넷상에 존재하는 웹페이지 등의 거대한 양의 텍스트 데이터를 사전 학습한 기초 모델(foundation model)에 기반하고 있습니다.

 

여기서 기초 모델이 더욱 정확하고 자연스러운 답변을 생성해 내기 위해서는 모델 알고리즘뿐 아니라 사전학습 데이터의 질과 양 그리고 모델의 매개변수(파라미터)의 수가 결정적인 역할을 하는 것으로 알려져 있습니다.

 


 

프롬프트엔지니어링
이미지 출처: medium

 

3. LLM의 성능을 좌우하는 프롬프트 엔지니어링

프롬프트(Prompt)란 모델이 특정 질문이나 명령에 어떻게 응답해야 하는지를 정의하는 텍스트입니다.

 

프롬프트 엔지니어링은 모델에게 원하는 결과를 산출하도록 도와주는 역할을 합니다.

이는 모델이 특정 작업에 더 정확하게 반응하도록 유도하거나, 생성하는 결과물의 품질을 향상시키는 데 사용되는데요.

 

기초 모델이 사전 학습되지 않은 정보에 대해 부정확하거나 관련 없는 정보를 제공하는 현상을 방지하고

오류 없이 원하는 결과를 얻기 위한 핵심적인 전략입니다.


 

"생성형 AI과 LLM 활용에 필수인

GPU 리소스 매니지먼트"

 

 

GPU

 

위에서 살펴봤듯이, 여전히 생성형 AI 및 LLM에게서 가장 중요한 건 데이터 확보입니다. 방대한 양의 데이터가 수집 활용되기 때문에, 데이터를 끊김 없이 수집하고 구조화하는 과정에서 막대한 자원과 고성능 GPU 서버를 필요로 하게 됩니다. 특히, 다수의 팀이 새로운 모델을 개발 중인 기업의 경우 한정된 GPU 자원을 효과적으로 나누어줄 수 있는 방법을 고민해야 합니다.


astrago는 MIG 기반 GPU 분할

효율 중심 스케줄러로 효과적인

분배 방식을 적용합니다.


GPU분할-MIG-멀티인스턴스
이미지 출처: kipost
 

🔷MIG 기능 지원을 통한 활용성 최적화

멀티 인스턴스 GPU를 통해 고유한 메모리, 캐시, 멀티프로세서를 갖추고 완전하게 격리된 7개의 인스턴스로 파티셔닝할 수 있습니다. 이때 독립 인스턴스로 분할되기 때문에 다른 팀의 AI 모델에서 결함이 생기더라도, 같은 GPU를 사용하고 있는 부서의 AI 모델은 영향받지 않습니다.

 

또한 소규모부터 대규모까지 아우르는 워크 로드를 지원하므로, 서비스 품질이 보장되고 가속화된 리소스의 범위를 모든 사용자에게로 확장시킬 수 있습니다.


 

아스트라고-astrago
이미지 클릭 시 아스트라고 페이지 이동

🔶효율 중심 잡스케줄러

 

스프레드시트와 같이 수동으로 관리하던 작업 분배를 자체 스케줄러로 대체하여 자동화합니다.

 

이를 통해 관리자의 시간을 절약하고, GPU 서버 가동률을 높여서 동일 기간 동안 더 많은 워크 로드를 실행할 수 있습니다.

 


오늘은 초거대 언어 모델인 LLM의 개념과 다양한

이슈를 알아보며, 모델 알고리즘뿐만 아니라 끊임없는

데이터 확보와 품질의 중요성을 살펴보는데요.

 

씨이랩의 효율적인 GPU 인프라 관리 솔루션

astrago를 통해 기업 LLM 고도화에 집중해 보세요.👇

 

Email : astrago@xiilab.com

TEL: 02-6914-9369