LLM 14

LLM (Large Language Model) 대규모 언어 모델

1. 개요LLM은 대규모 데이터 학습을 통해 인간 언어를 처리, 이해, 생성하는 AI 모델로, Transformer 기반 신경망을 활용하여 다양한 산업에서 활용됨2. LLM의 개념 및 구조 가. 개념LLM 정의: 대규모 데이터셋을 학습하여 인간 언어를 이해하고 생성하는 AI 모델 ​기술 기반: Transformer 신경망 구조를 사용하며, 수억~수십억 개의 파라미터를 포함 ​나. 개념도Transformer 모델의 Encoder와 Decoder 구조. Encoder는 입력 텍스트를 분석하고, Decoder는 이를 바탕으로 출력 텍스트를 생성Self-Attention은 문맥을 고려한 관계 분석을 가능하게 하며, 병렬 처리로 속도를 향상시킴​다. LLM 주요 기능 구분주요 내용텍스트 생성사용자 요청에 맞는 자..

<문> 멀티모달 및 옴니모달 AI

1. 개요멀티모달 AI: 텍스트·이미지·음성·영상 등 복수 모달 데이터를 결합·이해·생성하는 AI로, 모달별 특화 모델을 결합·융합해 성능과 문맥 이해를 향상시키는 기술 옴니모달 AI: 초기부터 모든 모달(시각·청각·촉각 등)을 단일 통합 표현공간에서 학습하여, 인간 지각에 가까운 일관된 세계 모델과 실시간 상호작용 능력을 지향하는 차세대 통합 AI 패러다임 2. 멀티모달 / 옴니모달 개념 가. 멀티모달 개념· 정의: 서로 다른 유형의 데이..

<문> 멀티 모델 체이닝(Multi‑Model Chaining)

1. 개요ㅇ 멀티 모델 체이닝 : 서로 다른 AI/ML 모델·에이전트를 연쇄적으로 연결하여, 이전 단계 출력물을 다음 단계 입력으로 사용함으로써 복합·고난도 업무를 단계별로 해결하는 오케스트레이션 기술 ㅇ 특징 : 목적별 특화 모델(텍스트 LLM, 비전 모델, 검색·도구 에이전트 등)을 조합하여 정확도 향상, 비용·지연 최소화, 장애 시 폴백 등 운영 효율을 극대화하는 엔터프라이즈 지향 아키텍처 2. 멀티 모델 체이닝 가. 개념정의 : 하나의 요청을 여러 단계로 분해하고, 각 단계에 최적화된 상이한 모델 또는 에이전트를 순차·병렬로 호출하여 최종 결과를 생성하는 체인형 LLM·ML 파이프라인 구조 목적 : 단일 LLM이 처리하기 어려운 장기 추론, 복합 툴 호출, 멀티모달 인지(텍스트+이미지+음성) 등..

LLM의 근간 'Attention is All You Need'

인공지능 기술의 폭발적인 성장 중심에는 트랜스포머(Transformer) 아키텍처라는 거대한 혁신이 있었습니다. 'Attention is All You Need'라는 논문 제목이 증명하듯, 어텐션 메커니즘은 이제 자연어 처리(NLP)를 넘어 컴퓨터 비전(CV)과 멀티모달(Multimodal) 영역까지 아우르는 현대 인공지능의 핵심 엔진으로 자리 잡았음​어텐션 메커니즘은 모델이 입력을 처리할 때 '어떤 부분에 더 집중해서 볼 것인가?'를 결정하는 단계입니다. 이를 위해 모델은 입력 데이터를 세 가지의 서로 다른 벡터인 Query(Q), Key(K), Value(V)로 변환하여 계산함​자세한 내용은 첨부 논문 확인 하세요.