<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Deep Learning &#8211; KGG Studio</title>
	<atom:link href="https://blog.kggstudio.com/category/dev/deep-learning/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.kggstudio.com</link>
	<description>개발자 테크 블로그</description>
	<lastBuildDate>Wed, 08 Apr 2026 09:00:52 +0000</lastBuildDate>
	<language>ko-KR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://blog.kggstudio.com/wp-content/uploads/2025/05/cropped-K-1-32x32.png</url>
	<title>Deep Learning &#8211; KGG Studio</title>
	<link>https://blog.kggstudio.com</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">244941309</site>	<item>
		<title>딥러닝(1) &#8211; 기초 개념</title>
		<link>https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/</link>
					<comments>https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/#respond</comments>
		
		<dc:creator><![CDATA[TimTam]]></dc:creator>
		<pubDate>Wed, 08 Apr 2026 06:16:37 +0000</pubDate>
				<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Dev]]></category>
		<category><![CDATA[딥러닝]]></category>
		<category><![CDATA[딥러닝용어]]></category>
		<category><![CDATA[머신러닝용어]]></category>
		<guid isPermaLink="false">https://blog.kggstudio.com/?p=387</guid>

					<description><![CDATA[약 인공지능 / 강 인공지능 AI의 종류 딥러닝의 계층 모델 학습방법 지도학습(Supervised Learning) &#8211; 문제과 답(Label)을 알려주고, 유사성을 알아서 파악하라고(훈련) 한뒤 또 다른 문제를 주고 답을 예측하게하는것 비지도학습(Unsupervised Learning) &#8211; 문제만 주고 답을 알아서 찾으라는 형태. 준지도학습(Semi-Supervised Learning) &#8211; 학습데이터에 답이 있는것도 있고 없는것도 상당히 많이 존재할때 사용 강화학습(Reinforcement Learning) &#8211; 문제를 주고 먼저 풀게한뒤 ... <a title="딥러닝(1) &#8211; 기초 개념" class="read-more" href="https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/" aria-label="딥러닝(1) &#8211; 기초 개념에 대해 더 자세히 알아보세요">더 읽기</a>]]></description>
										<content:encoded><![CDATA[
<p>약 인공지능 / 강 인공지능</p>



<h3 class="wp-block-heading">AI의 종류</h3>



<ul class="wp-block-list">
<li>규칙기반 AI &#8211; 미리 작성된 일련의 규칙이나 알고리즘에 의해 작동되는 AI</li>



<li>머신러닝 &#8211; <strong>데이터를 통해 모델을 학습</strong>시키고, 학습시킨 모델로 <strong>예측(Regression)</strong>이나 <strong>분류(Classification)</strong>를 수행. <strong>데이터의 양과 품질</strong>이 모델 성능에 중요한 영향을 미침. 주로 이미지 및 음성 인식, 자연어 처리, 데이터 기반 예측.</li>



<li>딥러닝 &#8211; <strong>인공 신경망</strong>을 활용하여 <strong>정보를 처리하고 전송하는 방식</strong>을 <strong>시뮬레이션</strong> 하도록 설계된 알고리즘. 주로 이미지 및 음성 인식, 자연어 처리, 자율적 의사결정 등이 있다.</li>
</ul>



<h4 class="wp-block-heading">딥러닝의 계층</h4>



<ul class="wp-block-list">
<li>입력층 (Input Layer): 현실에서 데이터 축적 > 데이터 불러오기 > 데이터 전처리</li>



<li>은닉층 (Hidden Layer):</li>



<li>출력층 (Output Layer): 모델이 예측한 결과를 보는순간</li>
</ul>



<h3 class="wp-block-heading">모델 학습방법</h3>



<p>지도학습(Supervised Learning) &#8211; 문제과 답(Label)을 알려주고, 유사성을 알아서 파악하라고(훈련) 한뒤 또 다른 문제를 주고 답을 예측하게하는것</p>



<ul class="wp-block-list">
<li>회귀(Regression) &#8211; 추세를 예측하는것. 그래프에있는 추세선을 Regression Line 이라고 함.</li>



<li>분류(Classification) &#8211; 말 그대로 분류하는것.</li>
</ul>



<p>비지도학습(Unsupervised Learning) &#8211; 문제만 주고 답을 알아서 찾으라는 형태. </p>



<ul class="wp-block-list">
<li>Clustering &#8211; 입력 데이터를 기준으로 비슷한 특징을 가진 데이터끼리 군집(Cluster)로 나누는 알고리즘. (=그룹화)</li>



<li>Dimension Reduction &#8211; 주요값을 분류하고 불필요한 정보 삭제</li>
</ul>



<p>준지도학습(Semi-Supervised Learning) &#8211; 학습데이터에 답이 있는것도 있고 없는것도 상당히 많이 존재할때 사용</p>



<ul class="wp-block-list">
<li><strong>예시:</strong> 수만 장의 흉부 X-ray 사진이 있을 때, 의사가 일일이 &#8220;이건 폐렴, 이건 정상&#8221;이라고 적어주는 데는 엄청난 시간과 비용이 듭니다.</li>



<li>이때 의사가 라벨링한 <strong>소량의 데이터</strong>와 라벨링되지 않은 <strong>대량의 데이터</strong>를 함께 학습시키면, 적은 비용으로도 지도학습에 가까운 성능을 낼 수 있습니다.</li>
</ul>



<p>강화학습(Reinforcement Learning) &#8211; 문제를 주고 먼저 풀게한뒤 잘했는지 못했는지 feedback 와 reward를 주면 이 feedback과 reward를 통해 학습 함.</p>



<h3 class="wp-block-heading">클러스터링(Clustering)</h3>



<ul class="wp-block-list">
<li>K-means: K개의 mean(평균, 중심) 값을 입력해서 K 갯수 만큼 분류하는 알로리즘. 어떤 중심점과 가까운지를 기준으로 클러스터링하다보니 복잡한 형태에서는 원하는 형태로 그룹화가 되지 않을수도있다.</li>



<li>DBSCAN (밀도 기반 군집화) &#8211; 데이터가 많이 몰려있는 부분을 선 고려하여 그룹화 시킴. 구체적으로 보면 임의의 점 P(Sample)을 기준으로 특정거리 (Epsilon) 내에 점이 M(Min samples) 개 이상이 있다면 하나의 군집으로 간주. 같은 클러스터내의 점P들을 e-이웃(Epsilon-neighborhood)라고 부르며 같은 cluster 안에 이웃이 M개 이상이면 <strong>핵심 샘플</strong> or <strong>핵심 지점</strong> 이라 부른다.</li>
</ul>



<div>
<figure class="wp-block-image size-large is-resized"><img fetchpriority="high" decoding="async" width="1024" height="382" data-attachment-id="388" data-permalink="https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/image-63/#main" data-orig-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5.png" data-orig-size="1339,500" data-comments-opened="1" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="image" data-image-description="" data-image-caption="" data-medium-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-300x112.png" data-large-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-1024x382.png" src="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-1024x382.png" alt="" class="wp-image-388" style="aspect-ratio:2.680697018039023;width:1140px;height:auto" srcset="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-1024x382.png 1024w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-300x112.png 300w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5-768x287.png 768w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-5.png 1339w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>
</div>



<p>Outlier Detection (이상치 탐지): 데이터가 일반적인 군집과는 너무 멀리 많이 떨어져서 고립되어있는경우 이를 이상치(outlier)라고 부른다.</p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" width="1024" height="732" data-attachment-id="389" data-permalink="https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/image-64/#main" data-orig-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6.png" data-orig-size="1042,745" data-comments-opened="1" data-image-meta="{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;0&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}" data-image-title="image" data-image-description="" data-image-caption="" data-medium-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-300x214.png" data-large-file="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-1024x732.png" src="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-1024x732.png" alt="" class="wp-image-389" style="aspect-ratio:1.3989156189297074;width:613px;height:auto" srcset="https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-1024x732.png 1024w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-300x214.png 300w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6-768x549.png 768w, https://blog.kggstudio.com/wp-content/uploads/2026/04/image-6.png 1042w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Dimensional Reduction (차원 축소): 고차원 데이터를 저차원인 새로운 데이터로 변환하는것.</p>



<p>Discrete (이산형): 하나씩 셀 수 있는 형태</p>



<h3 class="wp-block-heading">현실에서 사용되는 Transformer의 Decoder 기반 모델</h3>



<p>Transformer를 공장으로 보면 Encoder와 Decoder는 공장안에있는 기계라고 보면 됨. Transformer는 이 기계들을 잘 조합하여 만든 <strong>전체 신경망 아키텍쳐</strong>.</p>



<ul class="wp-block-list">
<li>Transformer: 데이터 간의 관계를 한꺼번에 파악하는 어텐션(Attention) 매커니즘을 핵심으로 하는 신경망 구조</li>



<li>Encoder: 입력된 문장 전체를 읽고 그 의미와 문맥을 수치화된 정보(Vector)로 응축하는 <strong>[이해 도구]</strong></li>



<li>Decoder: 인코더가 만든 정보나 이미 생성했던 단어들을 바탕으로, 다음에 올 가장 적절한 단어를 하나씩 예측해 내뱉는 <strong>[생성 도구]</strong></li>



<li>etc 도구: Transformer에는 Positional Encoding, Feed-Forward Network (FFN), Residual Connectoin, Layer Normalization 등 도구가 더 있다.</li>
</ul>



<p>Attention Macanism (어텐션 매커니즘): 문장 속 단어끼리의 연관성(가중치)를 계산하는 수학적 원리로 <strong>엔진</strong> 역할을 중심으로,<br>Positional Encoding(<strong>번호표</strong>)로 순서를 정하고, FFN(<strong>가공기</strong>)로 의미를 분석하고 Residual &amp; Layer Norm(<strong>안전장치</strong>)로 전체 공정을 안정화 하는 구조로 되어있음.</p>



<p>GPT, LLaMa, PaLM, Gemini, Mistral 등.</p>



<figure class="wp-block-image is-resized"><img decoding="async" src="https://encrypted-tbn1.gstatic.com/licensed-image?q=tbn:ANd9GcQtABSnkZF9VnXIziqmNSA2GzqUnw5T1DevqJPst7taFYUFUSCC6sdoqoVRh3sNA15xEx76AO1bfHw8aRf0dJXxt5j5qw45glR0YSBRcVwnXGCnDf8" alt="" style="aspect-ratio:1.779344101811062;width:1040px;height:auto"/></figure>



<h3 class="wp-block-heading">언어모델 학습방법</h3>



<h4 class="wp-block-heading">Pre-train (사전학습) &#8211; &#8220;세상의 상식을 배우는 의무교육&#8221;</h4>



<p>모델이 아무것도 모르는 상태에서 인터넷에 있는 방대한 데이터를 통째로 읽으면 <strong>언어의 규칙과 상식</strong>을 배우는 단계.</p>



<ul class="wp-block-list">
<li>학습데이터: 위키, 뉴스, 블로그, 소스 코드 등 초대형 단어 뭉치 (Raw Text)</li>



<li>학습방법: <strong>다음에 올 단어 맞추기</strong> 무한 반복</li>



<li>결과: 문법을 깨우치고, &#8220;지구는 둥글다&#8221; 같은 상식을 갖게 되지만, 정작 &#8220;내 질문에 친절하게 대답해&#8221; 같은 특정 목적은 아직 모르는 상태.</li>
</ul>



<h4 class="wp-block-heading">Fine-tuning (미세 조정) &#8211; &#8220;특정 업무를 배우는 전공 연수&#8221;</h4>



<p>사전 학습이 끝난 모델을 가져와서 우리가 원하는 목적을위해 추가로 학습시키는 단계.</p>



<ul class="wp-block-list">
<li>학습데이터: <strong>질문-답변 쌍</strong>이나 <strong>요약문</strong>, <strong>번역문</strong> 처럼 사람이 정성스럽게 많은 소량의 고품질 데이터.</li>



<li>학습방법: <strong>모델에게 이제부터는 질문이 들어오면 이런식으로 대답해야 해</strong> 라고 가이드라인을 준다.</li>



<li>결과: 챗봇이 되거나 (ChatGPT), 법률 상담가, 코딩 도우미 등 전문적인 도구로 변신.</li>
</ul>



<h4 class="wp-block-heading">RLHF(Reinforcement Learning from Human Feedback) &#8211; 사람의 피드백으로 강화 학습</h4>



<p>ChatGPT를 완성시킨 가장 핵심이 되는 기법</p>



<h5 class="wp-block-heading">RLHF가 필요한 이유?</h5>



<ul class="wp-block-list">
<li>사전 학습이 끝난 모델은 지식은 많지만, 유해한 답변을 내놓을 수 있음.</li>



<li>세상에 모든 질문에 정답을 만드는것을 불가능.</li>



<li>인간의 판단(Feedback)을 수식화 하여 모델에게 전달하는 방법으로 해결</li>
</ul>



<h5 class="wp-block-heading">ChatGPT의 보상 모델 활용 방법</h5>



<ul class="wp-block-list">
<li><strong>작동 원리</strong>: 모델이 질문 하나에 4~5개의 답변을 생성 후, Ranking을 정함.</li>



<li><strong>학습</strong>: 이 순서 데이터를 바탕으로 <strong>보상 모델</strong> 학습 시킴. <strong>보상 모델</strong>은 인간이라면 이 답변에 몇접을 줄것인지 예측하는 인간대역.</li>



<li><strong>효과</strong>: 사람은 상당히 적은수의 샘플에만 순위를 매기면 됩니다. 보상 모델이 완성되면, 이후에는 수억개의 데이터에 대해 <strong>인간 대신 자동으로 보상을 계산</strong>해줍니다.</li>



<li><strong>스스로 학습</strong>: 이제 역으로 모델이 보상모델을 상대로 연습게임을 하면서 고득점을 획득하기위한 방법을 연구하면서, 가중치를 개선합니다.</li>
</ul>



<h3 class="wp-block-heading">Machine Learning Architecture Process (머신러닝 아키텍쳐)</h3>



<p>머신러닝은 아래의 플로우 차트 가집니다. 설명은 차트 아래에.</p>



<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">graph LR
    %% 1단계: 데이터 준비
    subgraph Step1 ["데이터 준비"]
        direction TB
        A1[데이터 수집] --> A2[데이터 정제]
        A2 --> A3[데이터 레이블링]
        A3 --> A4[데이터 분석 및 시각화]
    end

    %% 2단계: 모델링
    subgraph Step2 ["모델링"]
        direction TB
        B1[피쳐 엔지니어링] --> B2[모델 설계]
        B2 --> B3[모델 학습]
    end

    %% 3단계: 모델 평가
    subgraph Step3 ["모델 평가"]
        direction TB
        C1[모델 검증] --> C2[성능 개선]
    end

    %% 4단계: 모델 배포
    subgraph Step4 ["모델 배포"]
        direction TB
        D1[배치 인퍼런스] --> D2[온라인 인퍼런스]
        D2 --> D3[엣지 인퍼런스]
    end

    %% 단계 간 가로 연결
    Step1 --> Step2
    Step2 --> Step3
    Step3 --> Step4</pre></div>



<ul class="wp-block-list">
<li>데이터 준비: 학습 시킬 데이터를 만들고 모으는 과정</li>



<li>데이터 정제: 데이터 수집을 통해 확보한 데이터는 일관되지 않고 규칙적이지 않을 가능성이 높아 <strong>데이터 정제(Data Cleansing) 프로세스</strong>를 통해 누락된 데이터를 채우고 불필요한 데이터를 제거함</li>



<li>데이터 레이블링: 해당 데이터가 무엇을 뜻하는시 <strong>라벨</strong>을 달아주고 <strong>태그</strong>를 달아주는 과정. 이 정보를 통해 모델이 학습하므로 잘못된 정보가 있으면 모델 성능이 크게 떨어지게 된다.</li>



<li>데이터 분석 및 시각화: 다양한 값이나 그래프를 통해 <strong>이상치 식별</strong>, <strong>상관관계</strong> 및 <strong>편향</strong> 분석, <strong>가설 수립</strong> 및 변경, <strong>데이터 패턴</strong> 확인.</li>



<li>피쳐 엔지니어링: 특징 선택, 특징 샘플링, 특징 변환(문자열orObject를 숫자로), 특징추출, 특징구성(기존 특징을 활용해 새로운 특징을 생성하는 과정 예: 지출종류가 여러가지있으면 총 지출이라는 특징을 만들어줄수있다)</li>



<li>모델 설계:</li>
</ul>



<h3 class="wp-block-heading">MLOps</h3>



<div class="wp-block-merpress-mermaidjs diagram-source-mermaid"><pre class="mermaid">flowchart TD
    %% 외부 컴포넌트 정의
    Repo[코드 저장소]
    Lake[데이터 레이크]
    Monitor[모니터링]
    Feature[피쳐 스토어]
    Analysis[데이터 분석]
    
    %% 7번 조건을 위한 투명한 중간 기착지 (Junction)
    J(( ))
    style J fill:transparent,stroke:transparent,color:transparent

    %% 중앙 ML 파이프라인 그룹 (세로 정렬)
    subgraph Pipeline [ML 파이프라인]
        direction TB
        D1[데이터 준비] --> D2[모델링] --> D3[모델 평가] --> D4[모델 배포]
    end

    %% 1. 상단: 코드 저장소 &lt;-> 그룹
    Repo &lt;--> Pipeline

    %% 2. 좌측: 데이터 레이크 -> (중간 지점) -> 그룹
    Lake --> Pipeline

    %% 3. 우측: 그룹 &lt;-> 모니터링
    Pipeline --> Monitor

    %% 4. 하단: 그룹 &lt;-> 피쳐 스토어
    Pipeline &lt;--> Feature

    %% 5. 모니터링 -> 데이터 분석
    Monitor --> Analysis

    %% 6. 피쳐 스토어 -> 데이터 분석
    Feature --> Analysis

    %% 7. 데이터 분석 아래쪽 -> 2번 화살표 중간(J)으로 연결
    Analysis --> Lake</pre></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.kggstudio.com/%eb%94%a5%eb%9f%ac%eb%8b%9d1-%ea%b8%b0%ec%b4%88-%ea%b0%9c%eb%85%90/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">387</post-id>	</item>
	</channel>
</rss>
