[AI 101] GPT – 창의적인 글을 쓰는 AI
GPT 완벽 가이드! 자기회귀 생성 모델, 마스크된 어텐션, GPT-1/2/3/4 진화 과정부터 ChatGPT의 RLHF 기술, 코드 생성 90%, 변호사 시험 상위 10%, 멀티모달 GPT-4까지. 생성형 AI 시대의 시작.
![[AI 101] GPT – 창의적인 글을 쓰는 AI](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_01.jpg?fit=768%2C768&ssl=1)
GPT 완벽 가이드! 자기회귀 생성 모델, 마스크된 어텐션, GPT-1/2/3/4 진화 과정부터 ChatGPT의 RLHF 기술, 코드 생성 90%, 변호사 시험 상위 10%, 멀티모달 GPT-4까지. 생성형 AI 시대의 시작.
![[AI 101] BERT – 양방향으로 언어를 이해하는 AI](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_01.jpg?fit=768%2C768&ssl=1)
BERT 완벽 가이드! 양방향 Transformer 인코더, 마스크 언어 모델(MLM), 다음 문장 예측(NSP), 토큰/세그먼트/위치 임베딩부터 파인튜닝, Google 검색 10% 향상, 감정 분석 96.3%, 질의응답 F1 93%, 의미론적 검색까지.
![[AI 101] Transformer – AI 혁명의 시작](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_02.jpg?fit=768%2C406&ssl=1)
Transformer 완벽 가이드! Attention 메커니즘, Self-Attention, Multi-Head Attention 8개 헤드, 위치 인코딩, 병렬 처리 10배 빠름부터 BERT, GPT-3/4, ChatGPT 작동 원리까지. AI의 미래가 여기에.
![[AI 101] CNN과 RNN의 결합 – 복합 모델의 무한한 가능성](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_03.jpg?fit=768%2C512&ssl=1)
CNN-LSTM 하이브리드 모델 완벽 가이드! 직렬/병렬/주의 메커니즘 결합, TimeDistributed, 양방향 LSTM부터 동영상 행동 인식 97%, 의료 영상 94%, Deepfake 탐지 98%, 주가 예측까지.
![[AI 101] RNN과 LSTM – 시간을 기억하는 AI의 마법](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_01_01.jpg?fit=768%2C326&ssl=1)
RNN 순환 신경망 완벽 가이드! 은닉 상태, 기울기 소실, LSTM 3개 게이트, GRU 2개 게이트, 주가 예측, 기계 번역, 감정 분석까지. 시계열 데이터 처리의 모든 것.
![[AI 101] CNN – 이미지를 이해하는 AI의 비밀](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_02.jpg?fit=768%2C406&ssl=1)
CNN 합성곱 신경망 완벽 가이드! 필터, 커널, Max Pooling, Stride, Padding부터 AlexNet, ResNet-50, 얼굴 인식 99.6%, 자율주행까지. 전이 학습과 실전 코드 총정리.
![[AI 101] 퍼셉트론에서 딥러닝까지 – 신경망의 모든 것](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_03.jpg?fit=768%2C512&ssl=1)
Perceptron 작동 원리부터 XOR 문제, MLP 은닉층, ReLU/Sigmoid/Tanh 활성화 함수까지! 딥러닝이 ‘딥’한 이유와 ResNet 152층 비밀. Python 코드와 실전 신경망 설계 완벽 가이드.
![[AI 101] 과적합과 과소적합 – 완벽한 균형으로 AI 성능 2배 높이기](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_01_01.jpg?fit=768%2C326&ssl=1)
Overfitting vs Underfitting 완벽 비교! L1/L2 정규화(Lasso, Ridge), Dropout, Early Stopping으로 모델 성능 20%p 향상. Training 99% → Test 65% 문제 해결 완벽 가이드.
![[AI 101] 모델 학습과 최적화 – AI가 스스로 똑똑해지는 4가지 비밀](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_02.jpg?fit=768%2C406&ssl=1)
손실함수(MSE, Cross-Entropy), 경사하강법, 학습률, 역전파 완벽 정리! Adam 최적화부터 연쇄법칙, Gradient Descent 수식까지. PyTorch 실전 코드와 하이퍼파라미터 튜닝 총정리.
![[AI 101] 선형회귀와 분류 – 모든 머신러닝 알고리즘의 시작점](https://i0.wp.com/doyouknow.kr/wp-content/uploads/2025/11/AI101_02_03.jpg?fit=768%2C512&ssl=1)
Linear Regression, Logistic Regression, Decision Tree, Random Forest 완벽 비교! MSE, 시그모이드 함수, Gini, 앙상블 기법까지. scikit-learn 실전 코드와 Kaggle 우승 전략 총정리.