1. 개요 (Overview)**MSA(마이크로서비스 아키텍처)**는 하나의 큰 애플리케이션을 독립적으로 배포 가능한 여러 개의 작은 서비스 단위로 나누어 구축하는 설계 방식입니다. 각 서비스는 특정 비즈니스 기능을 수행하며, 서비스 간에는 가벼운 통신 프로토콜(주로 HTTP/REST, gRPC, Message Queue)을 통해 상호작용합니다.기존의 모놀리식(Monolithic) 아키텍처가 모든 기능을 하나의 코드 베이스와 데이터베이스에 담았다면, MSA는 이를 기능별로 쪼개어 유연성과 확장성을 극대화한 것이 특징입니다.2. 주요 특징 (Key Characteristics)독립성 (Independence): 각 서비스는 독립적으로 개발, 배포, 확장이 가능합니다. 한 서비스의 수정이 다른 서비스에 직접..
1. 개요 (Overview)**온디바이스 AI(On-Device AI)**란 외부 서버나 클라우드를 거치지 않고 스마트폰, PC, 웨어러블, 자동차 등 기기 자체에서 인공지능 연산을 직접 수행하는 기술을 의미합니다. 기존의 클라우드 AI가 데이터를 서버로 전송하여 결과를 받아오는 방식이었다면, 온디바이스 AI는 기기 내부의 하드웨어(NPU 등)를 활용해 즉각적으로 결과를 도출합니다.2. 핵심 기술 스택 (Tech Stack)1) 하드웨어 레이어 (Hardware)NPU (Neural Processing Unit): AI 연산(행렬 연산)에 최적화된 전용 프로세서입니다. Apple의 Neural Engine, 퀄컴의 Hexagon, 삼성의 Exynos NPU 등이 대표적입니다.GPU & DSP: 그래픽 ..
1. 개요 (Overview)**HBM(고대역폭 메모리)**은 여러 개의 D램 칩을 수직으로 쌓아 올려 데이터 전송 속도를 혁신적으로 높인 고성능 메모리입니다. 기존 GDDR(Graphic DDR) 계열의 메모리가 가진 물리적 한계(공간 차지, 전력 소모, 대역폭 제한)를 극복하기 위해 개발되었으며, 주로 GPU(그래픽 처리 장치)와 같은 고성능 프로세서 바로 옆에 배치되어 '데이터 병목 현상'을 해결하는 역할을 합니다.2. 핵심 기술 스택 (Tech Stack)HBM의 성능을 가능하게 하는 핵심 제조 공정 및 기술은 다음과 같습니다.TSV (Through Silicon Via, 실리콘 관통 전극):D램 칩에 수천 개의 미세한 구멍을 뚫어 상하층 칩을 전극으로 직접 연결하는 기술입니다. 기존의 와이어 본..
1. 개요 (Overview)sLLM은 수천억 개의 매개변수(Parameter)를 가진 대형 언어 모델(LLM)과 달리, 대략 수십억 개에서 수백억 개(주로 1B~30B 사이)의 매개변수를 가진 경량화된 언어 모델입니다. '작지만 강력한' 모델을 지향하며, 특정 도메인이나 산업군에 특화된 학습을 통해 특정 작업에서 LLM에 준하는 성능을 내는 것이 목적입니다.배경비용 문제: GPT-4와 같은 초대형 모델은 운영 및 추론 비용이 막대함.보안 이슈: 민감한 데이터를 외부 클라우드 AI에 보내지 않고 내부적으로 처리하려는 수요 증가.속도 요구: 실시간 응답이 필요한 서비스나 단말기 자체(On-device) 처리가 필요함.2. 핵심 기술 스택 (Tech Stack)sLLM은 단순히 크기만 줄인 것이 아니라, 효..
1. 개요 (Overview)**RAG(Retrieval-Augmented Generation, 검색 증강 생성)**는 대규모 언어 모델(LLM)이 텍스트를 생성하기 전에 외부의 신뢰할 수 있는 지식 베이스에서 관련 정보를 **검색(Retrieval)**하여 그 내용을 바탕으로 답변을 **생성(Generation)**하는 기술입니다.LLM은 학습 데이터에 포함되지 않은 최신 정보나 기업 내부의 비공개 데이터를 알지 못하며, 사실이 아닌 정보를 그럴듯하게 말하는 '환각(Hallucination)' 현상이 발생할 수 있습니다. RAG는 모델을 재학습(Fine-tuning)시키지 않고도 외부 데이터를 참조하게 함으로써 이러한 한계를 극복합니다.2. RAG의 작동 원리 (Architecture)RAG의 프로세스..
1. 개요 (Overview)**LPU(Language Processing Unit)**는 생성형 AI, 특히 거대언어모델(LLM)의 추론(Inference) 단계를 가속화하기 위해 설계된 새로운 유형의 프로세서입니다. 미국의 AI 칩 스타트업인 **Groq(그록)**이 처음으로 제안한 개념으로, 기존의 GPU가 그래픽 처리나 AI 학습(Training)에 범용적으로 사용되는 것과 달리, LPU는 언어 모델의 순차적 토큰 생성 특성에 최적화되어 있습니다.핵심은 "지연 시간(Latency)"의 극단적인 단축과 "초당 토큰 처리량(Throughput)"의 극대화에 있습니다.2. 기술 스택 및 아키텍처 (Tech Stack & Architecture)LPU의 성능은 하드웨어와 소프트웨어의 긴밀한 통합에서 비롯..
1. 개요 (Overview)**서버리스(Serverless)**는 "서버가 없다"는 의미가 아니라, **"개발자가 서버를 관리할 필요가 없다"**는 의미입니다. 클라우드 서비스 제공업체(CSP)가 서버의 프로비저닝, 유지보수, 스케일링을 모두 담당하며, 개발자는 오직 애플리케이션의 **코드(함수)**나 로직만 작성하여 배포합니다.핵심 구성 요소FaaS (Function as a Service): 애플리케이션 로직을 작은 함수 단위로 쪼개어 이벤트가 발생할 때만 실행하는 방식입니다. (예: AWS Lambda)BaaS (Backend as a Service): 데이터베이스, 인증, 스토리지 등 백엔드의 기능을 API 형태로 빌려 쓰는 방식입니다. (예: Firebase, Auth0)2. 주요 기술 스택 ..
1. DX의 개요 (Overview)**디지털 전환(Digital Transformation, DX)**이란 단순히 아날로그 데이터를 디지털로 바꾸는 것(Digitization)이나 개별 업무 프로세스를 효율화하는 것(Digitalization)을 넘어, 디지털 기술을 사회 전반에 적용하여 전통적인 비즈니스 모델, 조직 문화, 고객 경험을 근본적으로 변화시키는 과정을 의미합니다.핵심 가치: 고객 중심의 가치 창출, 비즈니스 민첩성(Agility) 확보, 데이터 기반 의사결정.발전 단계: Digitization (전산화) → Digitalization (공정 디지털화) → Digital Transformation (비즈니스 모델 전환).2. DX 핵심 기술 스택 (Technology Stack)DX를 구현..
- Total
- Today
- Yesterday
- 스마트안경
- on-device ai
- 구글
- 카카오
- HTML
- CSS
- SSR
- prompt engineering
- 멀티모달
- CSR
- It용어
- AI
- 엣지컴퓨팅
- MSA
- TypeScript
- Nextjs
- react
- LLM
- 협력
- HBM
- sLLM
- 웹기초
- Javascript
- java
- Rag
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |