본문 바로가기

Aastrago

(37)
AI 인프라 내 HW+SW 통합 관리 가능한 AstraGo HPE OneView 안녕하세요 AI 영상 분석 전문 씨이랩입니다😊 현재 많은 기업 및 연구 기관에서는 AI 인프라를 도입하며, 발전하는 AI 기술을 따라가기 위해 노력하고 있어요. 특히 하드웨어와 소프트웨어를 통합 관리 할 수 있는 니즈가 극대화되고 있어요. 이러한 이유는 비용 절감 및 효율성을 넘어, 관리자가 동시에 관리함으로써 사용자 경험을 개선시키고, 스케일링에 용이하게 하기 위함이에요! 따라서 오늘은 기업에서 왜 하드웨어 관리의 필요성을 느끼는지 어떤 지표가 중요한지 찬찬히 살펴보며, 동시에 ML 인프라 관리 솔루션인 AstraGo에서 HPE OneView를 통해 HW/SW 모니터링을 원 플랫폼으로 일원화하여 진행할 수 있는 방법에 대해 소개해드리겠습니다:)  AI 인프라에서 하드웨어 관리는 왜 필요할까요?AI 인..
AI 엔터프라이즈 배포속도를 향상시켜줄 추론 서비스 NVIDIA NIM 배경 이미지 출처: 엔비디아 안녕하세요 AI 영상 분석 전문 씨이랩입니다😊 현재 많은 기업과 조직들에서는 AI의 역량을 활용해 자체 온프레미스 데이터 센터에서 직원 생산성을 높이고, 혁신적인 AI 기반 사용자 경험을 창출하는데 많은 노력을 가하고 있어요. 이러한 AI 흐름에 따라 어디에서나 실행할 수 있는 AI 서비스가 주목받고 있어요. 대표적으로 NVIDIA NIM(NVIDIA Inference Microsoft)을 통해 다양한 기능을 활용할 수 있는데요! 이번 콘텐츠에서 NVIDIA NIM 소개와 함께 업계 동향을 짧게 소개해 드리는 시간을 가져볼게요. NVIDIA NIM의 탄생 배경과 그 가치많은 기업이 AI를 거의 필수적으로 도입을 하여 솔루션과 비즈니스 모델에 사용을 하고 있는 것을 쉽게 볼 ..
AI 워크로드 내 추론 과정을 간소화시켜줄 최적의 솔루션 NVIDIA TRITON 안녕하세요, AI 영상 분석 전문 씨이랩입니다😊 AI 프로젝트를 진행하면서 가장 큰 두 단락이 있어요. 바로 '학습'과 '추론'인데요. 적합한 데이터를 통해 모델을 학습시키고 나면, 인공지능 시스템이 학습한 지식이나 모델을 바탕으로 새로운 데이터를 분석하고 결론에 내리게 돼요. 우리는 이 과정을 AI 추론(Inference serving)이라고 부르게 되는데요! 학습은 AI의 기초를 형성하지만, 추론은 그 기초를 바탕으로 실제 문제를 해결하고, 새로운 상황에 적응하는데 필수적인 과정이기 때문에, AI 프로젝트 내에서는 학습보다 더 큰 파이를 차지하고 있는데요. 따라서 오늘은 AI 워크 로드에서 추론을 효율적이게 진행할 수 있는 방법을 알려주고자 해요. 모든 플랫폼에서의 고성능 추론을 위한 NVIDIA의..
딥러닝 모델을 최적화하는 방법 'AI 모델 경량화' "딥러닝 모델을 최적화하는 방법? "  안녕하세요, AI 영상 분석 전문 씨이랩입니다😊 AI 시장이 커지고, 많은 빅테크기업은 더 나은 성능과 효율성을 위한 딥러닝 모델을 끊임 없이 개선하고 최적화하고 있어요. 이때 딥러닝 모델개발과 배포 과정에서는 많은 시간과 비용의 리소스가 들게 되는데요. 딥러닝 모델의 크기와 연산량이 커짐에 따라 학습과 추론 과정에서 요구되는 자원과 비용은 증가하게 되고, 응용 모델이 개발됨에 따라 모바일 기기 등에서는 제한 정보 자원을 추론 지원 또한 요구되는데요. 따라서 AI 업계에서는 모델을 더 효율적으로 실행하고 저사양 하드웨어나 제한된 환경에서도 사용 가능하게 만드는 '모델 경량화'에 대해 큰 관심을 두고 있어요. 오늘은 AI 모델의 크기가 커질수록 함께 뜨거운 주목을 ..
AI 프로젝트에 GPU 활용을 극대화시켜줄 AstraGo 주요 기능과 고객 사례 안녕하세요, AI 영상 분석 전문 씨이랩입니다😊 오늘은 공공기관부터 엔터프라이즈사까지AI 비즈니스 파트너로서 많은 관심을 받고 있는GPU 인프라 관리 솔루션 ‘AstraGo’와 관련하여사용자 별 주요 장점과 실제 고객 사례를들려주는 시간을 가지겠습니다 :) ✅ AstraGo, 왜 필요할까요? 현재 빠른 속도로 발전하고 있는 AI 산업에서 GPU 입지와 수요는 나날이 증가하고 있어요. 심지어 수요 만큼 GPU 개수를 구하는 것도 적정 예산에 맞는 GPU를 찾는 것도 어려워지고 있죠.이러한 배경 덕분에 기업이나 조직에서는 최소한의 GPU를 구매하여 최대의 효율을 내기를 원하고 있어요. 그러기 위해서는 먼저, GPU를 실제 업무에 사용하는 ML 엔지니어들의 하루 업무 일과를 파악하는 것이 중요해요. 📌ML..
AI 알고리즘의 기본 개념과 학습 알고리즘의 작동 원리 안녕하세요 씨이랩입니다! 🧠컴퓨터로 두뇌를 만든다는 이야기처럼 시대가 거듭함에 따라 컴퓨터의 발달이 급격하게 이루어졌고, 지금의 인공지능(AI)은 사람의 능력과 비교가 어려울 정도로 탁월한 성능을 선보이고 있는데요. 인공지능의 다양한 학습 능력, 추론 능력, 지각 능력은 컴퓨터 시스템의 ‘알고리즘’을 통해 구현되고 있어요. 이 기계학습의 알고리즘을 이해한다면, AI를 포함하고 있는 딥러닝·머신러닝의 이해도 쉬울 것으로 기대되는데요. 오늘은 인공지능의 기초 원리에 대한 이야기를 하며, 인공지능이 구현되는 원리에 대해 알아보도록 해요! 인공지능 알고리즘이란 무엇인가?인공지능(AI)은 크게 기계나 컴퓨터 시스템이 인간처럼 지능적인 작업을 수행할 수 있도록 하는 기술과 이론을 의미해요. 다른 방식으로 표현하자..
머신러닝 딥러닝 모델의 성능 향상을 위한 파인 튜닝 전략 AI 기술이 발전함에 따라 우리는 더 똑똑하고 효율적인 시스템을 구축하고 있어요. 그러나 이러한 시스템들이 모든 상황에 완벽하게 적응하기 위해서는 기본 모델만으로는 충분하지 않은데요. 🚗자율주행차에 사용되는 AI 모델이 있다고 가정할 때, 기본적으로 인식할 수 있는 🛣️도로의 차선, 표지판 외에도 특정 도시의 복잡한 교통 상황이나 날씨 조건에 맞추려면 추가적인 학습이 필요한데요.  이때 필요한 것이 바로 ‘파인튜닝’이에요! 학습된 모델을 특정 작업이나 데이터셋에 맞게 조정하는 과정인 파인튜닝(Finetuning)을 통해 기본 모델의 성능을 극대화하고, 특정 업무에 맞는 최적화된 AI 솔루션을 만들 수 있어요. 그렇다면, AI 산업에서 등장하는 '파인튜닝(Finetuning)'이란 무엇일까요? 이번 콘..
LLM 개발을 더 간편하게! LangChain 랭체인 개념과 작동원리 ✅ 랭체인의 개념과 이해현재 AI 시장에는 LLM이 최신 소프트웨어 스택의 한 요소로 빠르게 부상했어요. 대표적으로 Open AI의 Chat GPT, 구글의 제미나이, 네이버의 하이퍼클로바 X 등의 LLM을 제외하고도 수많은 언어 모델이 거의 매일 새롭게 나타나고 있고, 각 모델마다 고유한 기능과 전문성을 갖추고 있어요. 하지만 LLM 기반 애플리케이션을 구축하기 위해서 개발자는 매개변수 조정부터 프롬프트 보강, 응답 조정에 이르기까지 고려해야 할 요소가 매우 많은데요. 이럴 때 원활한 AI 프로세스 파이프라인이 세팅되어 있으면 얼마나 좋을까요?😮 이 고민은 랭체인(RangChain)에서 해줄 수 있답니다! 이번 콘텐츠에서는 LLM과 상호 작용하는 탁월한 도구로 부상한 랭체인의 기본 개념과 정의에 대해..