|

딥러닝의 커튼을 열다: AlexNet – ImageNet 우승으로 시작된 AI 혁명


2012년 9월, 세상이 깜짝 놀랐습니다. ImageNet Large-Scale Visual Recognition Challenge (ILSVRC)에서 한 팀이 오류율 15.3%를 달성했습니다. 그 전까지 최고 성적은 26.2%였습니다. 단순히 10% 정도의 개선이 아니라, 40% 이상의 엄청난 향상이었습니다.

이 충격적인 결과를 만든 것이 바로 AlexNet입니다. Alex Krizhevsky와 Ilya Sutskever, 그리고 Geoffrey Hinton이 작성한 논문 “ImageNet Classification with Deep Convolutional Neural Networks“는 딥러닝 시대의 개막을 알리는 포성이었습니다.

DBN(Deep Belief Network)이 이론적 가능성을 보여줬다면, AlexNet은 현실의 벽을 부순 혁명입니다. 6년 동안 아무도 풀 수 없던 컴퓨터 비전 문제를, GPU 두 개와 깊은 신경망만으로 해결해버렸습니다. 수십 년간 이어져 온 AI의 겨울, 그 끝이 보이지 않던 암흑기에 한 줄기 빛이 터져 나왔고, 이 사건을 계기로 학계와 산업계는 ‘딥러닝’이라는 새로운 세계에 눈을 뜨게 됩니다.

이 글은 AlexNet이 어떻게 현대 딥러닝의 시대를 열었는지, 그 안에 담긴 혁신적 기술들을 상세히 파헤칩니다. AlexNet이 왜 특별한지, 어떤 비밀 무기들을 사용했는지, 그리고 이 모델이 2024년 현재까지도 왜 중요한 의미를 갖는지 완벽히 분석합니다.



Table of Contents


🎯 그 많던 AI 천재들은 왜 고양이 사진을 못 구분했을까?

AlexNet 이전, 컴퓨터에게 이미지 인식이란 ‘넘사벽’ 과제였습니다. 컴퓨터는 이미지를 그저 거대한 숫자(픽셀 값)의 배열로 볼 뿐, 우리는 ‘고양이’라고 바로 알아보는 사진도 컴퓨터에겐 의미 없는 숫자의 나열에 불과했죠.

과학자들은 이미지에서 ‘특징(feature)’을 추출하는 정교한 알고리즘(SIFT, HOG 등)을 만들기 위해 수많은 노력을 기울였습니다. 사람이 직접 “고양이의 특징은 뾰족한 귀, 동그란 눈, 그리고 수염이야!”라고 하나하나 가르치는 방식이었죠. 하지만 세상의 모든 사물, 모든 변화무쌍한 상황에 대한 특징을 사람이 다 정의하는 건 불가능에 가까웠습니다. 조명, 각도, 가려짐 등 조금만 조건이 바뀌어도 인식률은 곤두박질쳤습니다.

이때, Geoffrey Hinton과 그의 제자들은 발상을 전환합니다. “컴퓨터가 스스로 이미지의 특징을 학습하게 만들면 어떨까?” 이것이 바로 딥러닝과 합성곱 신경망(Convolutional Neural Network, CNN)의 핵심 아이디어입니다. 그리고 이 아이디어를 증명해 보인 것이 바로 AlexNet입니다.


🌑 2012년 이전: 컴퓨터 비전의 암흑기

SIFT와 Bag-of-Words의 왕국

AlexNet 이전, 컴퓨터 비전은 손으로 만든 특징(Hand-crafted Features)의 시대였습니다. 가장 유명한 것이 SIFT(Scale-Invariant Feature Transform)입니다. David Lowe가 1999년 발명한 이 알고리즘은 Fisher Vectors를 조합하여 사용했습니다.

이 파이프라인은 30년 동안 업계의 표준이었습니다. 2006년 DBN이 이론적 돌파를 보였지만, SIFT + SVM은 여전히 실무에서 가장 안정적이었습니다.

ImageNet의 성장

하지만 시대는 바뀌고 있었습니다. 2009년 Fei-Fei Li와 팀이 ImageNet을 출시했습니다. 1,500만 개의 고해상도 이미지, 22,000개의 카테고리를 가진 이 데이터셋은:

  • 그 이전 MNIST (60,000): 손글씨 숫자만
  • CIFAR-10 (60,000): 32×32 작은 이미지
  • Caltech-101 (9,000): 단 101개 카테고리

과 비교하면 혁명적으로 거대했습니다.

2010년부터 ILSVRC(ImageNet Large-Scale Visual Recognition Challenge)가 시작되었습니다. 1,000개 카테고리에서 120만 개 이미지를 분류하는 과제였습니다.

정체된 성능

2010-2011년, 최고의 팀들이 도전했지만 성능 개선은 극도로 더디었습니다:

연도방법Top-5 오류율
2010Sparse Coding28.2%
2011SIFT + Fisher Vectors25.7%
2011또 다른 SIFT + FV25.3%

1년에 1% 정도씩만 개선되고 있었습니다.

“더 이상 개선할 수 없는 벽이 있다”는 생각이 지배적이었습니다. 신경망? “2006년 DBN 이후 별로 발전이 없지 않나”라고 생각하는 사람이 대부분이었습니다.

그때 나타난 것이 AlexNet입니다.


🏆 ImageNet: 데이터가 만든 기적

“큰 데이터 + 깊은 신경망”

AlexNet 논문의 핵심 통찰:

“Until recently, datasets of labeled images were relatively small — on the order of tens of thousands. But objects in realistic settings exhibit considerable variability, so to learn to recognize them it is necessary to use much larger training sets.”

번역하면:

“이제 우리는 충분한 데이터를 가졌다. 깊은 신경망을 학습시킬 수 있다.”

AlexNet의 성공 공식:

  1. 큰 데이터: 120만 개 × 1,000 클래스
  2. 깊은 모델: 8개 층, 6,000만 파라미터
  3. GPU 컴퓨팅: NVIDIA GTX 580 두 개
  4. 혁신적 기법: ReLU, Dropout 등

ImageNet의 특징

ILSVRC-2010 데이터셋:

  • 학습 세트: 120만 이미지
  • 검증 세트: 5만 이미지
  • 테스트 세트: 15만 이미지
  • 클래스: 1,000개

이미지는 256×256 고해상도였습니다. 당시로서는 엄청난 크기였습니다.

기울기 소실 문제의 해결책

여기서 핵심 질문: “왜 지금까지 깊은 신경망이 안 됐는가?”

답: 기울기 소실(Vanishing Gradient)

1980년대부터 알려진 이 문제는:

  • tanh나 sigmoid 활성화 함수 사용
  • 깊은 층을 통해 역전파
  • 기울기가 점점 0으로 수렴
  • 깊은 층은 거의 학습이 안 됨

AlexNet은 이것을 ReLU로 해결했습니다.


🏗️ AlexNet의 아키텍처: 8개 층의 혁명

전체 구조

AlexNet의 아키텍처는 의외로 단순명확합니다:

총 파라미터: 6,000만 개
총 뉴런: 65만 개

두 개 GPU의 분업

AlexNet의 개성 중 하나가 GPU 병렬화입니다. GTX 580은 3GB 메모리만 가지고 있었고, 전체 모델은 메모리가 부족했습니다.

해결책: 네트워크를 두 개 GPU에 분산

흥미로운 현상: GPU 1은 색상에 무관한 특징을, GPU 2는 색상 특화 특징을 학습했습니다.

이 설계로 인한 개선:

  • Top-1 오류율: 1.7% 감소
  • Top-5 오류율: 1.2% 감소

⚙️ AlexNet의 5가지 혁신적인 비밀 무기

AlexNet은 단순히 네트워크를 깊게 쌓기만 한 모델이 아닙니다. 당시의 기술적 한계를 극복하기 위한 5가지 천재적인 아이디어의 집약체였죠.

1) ReLU: 죽어가던 뇌세포를 깨운 마법의 스위치

초기 신경망은 ‘시그모이드(Sigmoid)’나 ‘하이퍼볼릭 탄젠트(tanh)’ 같은 활성화 함수를 사용했습니다. 이 함수들은 뇌의 뉴런처럼 입력 신호가 특정 임계값을 넘으면 활성화되는 방식을 모방했죠. 하지만 네트워크가 깊어질수록 문제가 발생했습니다. 역전파 과정에서 그래디언트(기울기)가 점점 0에 가까워져 사라지는 ‘그래디언트 소실(Vanishing Gradient)’ 문제가 발생하여 학습이 거의 이루어지지 않았습니다.

AlexNet은 이 문제를 ReLU(Rectified Linear Unit) 라는 아주 간단한 함수로 해결했습니다. ReLU는 입력이 0보다 크면 그대로 출력하고, 0보다 작으면 0을 출력하는, 마치 ‘On/Off 스위치’ 같은 단순한 구조입니다. 이 단순함 덕분에 그래디언트가 죽지 않고 끝까지 잘 전달될 수 있었고, 학습 속도는 기존 대비 무려 6배나 빨라졌습니다.

활성화 함수특징AlexNet 이전AlexNet 이후
Sigmoid/tanh복잡한 곡선 형태, 그래디언트 소실 문제 발생주로 사용됨거의 사용 안 함
ReLU단순한 직선 형태, 그래디언트 소실 문제 해결거의 사용 안 됨표준으로 자리 잡음

2) 드롭아웃(Dropout): 잊어버리는 천재의 공부법

6,000만 개가 넘는 파라미터를 가진 거대한 AlexNet은 ‘과적합(Overfitting)’이라는 함정에 빠지기 쉬웠습니다. 과적합이란 모델이 훈련 데이터에만 너무 익숙해져서, 마치 시험 범위의 문제와 답만 달달 외운 학생처럼 조금만 새로운 문제가 나와도 풀지 못하는 현상을 말합니다.

AlexNet은 드롭아웃이라는 기법으로 이 문제를 해결했습니다. 드롭아웃은 훈련 중에 특정 비율의 뉴런을 무작위로 ‘꺼버리는(0으로 만드는)’ 기술입니다. 마치 팀 프로젝트를 할 때 일부 팀원이 예고 없이 빠지는 것과 같죠. 이런 환경에서는 특정 ‘에이스’ 뉴런에만 의존할 수 없게 되고, 나머지 뉴런들이 각자 더 똑똑해지고 서로 협력하는 방법을 배우게 됩니다. 이 ‘잊어버리는’ 과정 덕분에 모델은 더 강건해지고 일반화 성능이 크게 향상되었습니다.

3) 데이터 증강(Data Augmentation): 120만 장을 2억 5천만 장처럼 쓰는 마법

딥러닝 모델은 ‘데이터를 먹고 자란다’는 말이 있을 정도로 많은 양의 훈련 데이터가 필수적입니다. AlexNet은 120만 장이라는 당시로서는 방대한 ImageNet 데이터를 사용했지만, 6,000만 개의 파라미터를 학습시키기엔 여전히 부족했습니다.

연구팀은 데이터 증강 기법을 통해 이 문제를 해결했습니다. 원본 이미지를 좌우로 뒤집고, 무작위로 잘라내는(cropping) 등의 간단한 변형을 통해 훈련 데이터의 양을 2048배나 뻥튀기했습니다. 또한, 이미지의 RGB 채널 값을 변화시켜 조명 조건에 강인한 모델을 만들었죠. 이는 마치 한 권의 문제집을 여러 번 풀되, 풀 때마다 숫자나 조건을 살짝 바꿔서 새로운 문제처럼 만들어 푸는 것과 같은 효과를 냈습니다.

4) GPU 병렬 처리: 불가능을 가능하게 한 하드웨어

당시 GPU 메모리 기술은 AlexNet이라는 거대한 모델을 통째로 올리기에는 턱없이 부족했습니다. NVIDIA의 GTX 580 GPU 하나의 메모리는 고작 3GB였거든요. 연구팀은 이 한계를 극복하기 위해 모델을 두 개의 GPU에 나누어 올리는 기상천외한 방법을 사용했습니다.

두 GPU는 특정 계층에서만 서로 데이터를 주고받으며, 마치 두 개의 뇌가 협력하듯 병렬로 계산을 수행했습니다. 이 아이디어 덕분에 AlexNet은 당시 기술의 한계를 뛰어넘는 거대한 규모를 가질 수 있었고, 이는 딥러닝 모델의 규모와 성능이 비례한다는 중요한 사실을 증명하는 계기가 되었습니다.

5) 겹침 풀링(Overlapping Pooling) & LRN(Local Response Normalization)

이 외에도 AlexNet은 풀링(Pooling) 레이어에서 영역을 겹치게 하여 에러율을 미세하게 낮추었고(겹침 풀링), 특정 뉴런의 반응이 너무 강해지는 것을 막는 ‘지역 반응 정규화(Local Response Normalization, LRN)’ 기법도 사용했습니다. 지금은 LRN 대신 배치 정규화(Batch Normalization) 같은 더 발전된 기술들이 사용되지만, 당시에는 모델의 안정성과 성능을 높이는 중요한 역할을 했습니다.


⚡ ReLU: 신경망의 진정한 각성

ReLU: 가장 단순한 혁명

AlexNet의 가장 중요한 혁신은 바로 ReLU(Rectified Linear Unit) 활성화 함수입니다:

이것이 뭐가 대단한가? 보이는 것처럼 단순합니다.

f(x)=max(0,x)f(x) = \max(0, x)

기존 활성화 함수:

  • Tanh: (f(x)=tanh(x)f(x) = \tanh(x)) – S자형, 기울기 작음
  • Sigmoid: (f(x)=11+exf(x) = \frac{1}{1+e^{-x}}) – S자형, 포화(saturate)됨

반면 ReLU:

  • 음수: 0
  • 양수: 그대로 통과

기울기 소실 문제의 해결

왜 이게 중요한가?

Tanh 사용:
깊은 층을 통과할 때마다 기울기 × 0.2 (대략)
10개 층: 0.2^10 = 약 0.00001 (거의 0)
→ 깊은 층은 거의 학습이 안 됨

ReLU 사용:
깊은 층을 통과해도 기울기 = 1 또는 0
→ 활성화된 뉴런은 정상적인 기울기 전달
→ 깊은 층도 학습 가능!

벤치마크: 시각적 증거

AlexNet 논문에는 CIFAR-10에서의 수렴 속도 비교가 있습니다:

활성화 함수25% 오류율 도달 시간
Tanh약 2,000 에포크 (6배 느림)
ReLU약 330 에포크(기준)

ReLU는 tanh보다 6배 빠릅니다!

다른 말로, AlexNet이 5-6일 학습 시간에 완료될 수 있었던 것은 ReLU 덕분입니다. 만약 tanh를 썼다면:

  • 5-6일 × 6 = 30-36일
  • 실무적으로 불가능

현대의 해석

2024년 현재, ReLU는:

  • 기본 표준 활성화 함수
  • 수백억 개 모델이 사용
  • 거의 모든 딥러닝 라이브러리에 포함

당시로서는 혁명, 지금은 상식입니다.


🖥️ GPU 병렬 처리: 불가능을 가능하게

GPU의 등장

AlexNet이 나올 수 있었던 또 다른 핵심은 NVIDIA GPU입니다.

당시 상황:

  • 2012년 CPU: Intel Core i7, 4-8개 코어
  • 2012년 GPU: NVIDIA GTX 580, 512개 코어

CPU 대비 GPU는 50-100배 더 많은 병렬 처리 능력을 가졌습니다.

특히 2D 합성곱 연산(2D Convolution)은 GPU에 매우 적합했습니다:

  • 수십억 개의 동일한 연산
  • 메모리 접근 패턴이 규칙적
  • 대규모 병렬화에 완벽

AlexNet의 GPU 구현

AlexNet 저자들은:

“우리는 매우 최적화된 2D 합성곱 GPU 구현을 직접 작성했고, 공개했다.”

결과:

  • 학습 시간: 5-6일 (GTX 580 두 개)
  • CPU로 했다면: 수개월

역사적 의미

AlexNet은 GPU 시대의 시작을 알렸습니다:

  • 이전: “신경망은 너무 느려서 실무 불가능”
  • AlexNet: “GPU면 1주일이면 된다”
  • 현대: GPU 없이 딥러닝 불가능

이는 NVIDIA의 주가를 10배 이상 올렸습니다 (장기적으로).


🎲 Dropout: 과적합 방지의 마법

과적합의 악몽

AlexNet은 60,000,000 파라미터를 가졌습니다.

학습 데이터: 1,200,000 이미지

비율을 계산하면:

파라미터 대비 데이터: 120만 ÷ 6천만 = 0.02

즉, 데이터 포인트 1개당 파라미터 0.02개입니다.

이것은 엄청난 과적합의 위험을 의미합니다. 모델이 단순히 학습 데이터를 “암기”할 수 있다는 뜻입니다.

Dropout: 무작위 신경 제거

해결책이 Dropout입니다. Geoffrey Hinton의 2012년 논문에서 소개되었습니다.

개념:

  1. 각 학습 배치마다
  2. 은닉층의 뉴런을 확률 0.5로 무작위 제거
  3. 선택된 뉴런만 학습 진행

효과

Dropout의 동작 원리:

  • 각 뉴런이 “다른 뉴런에 의존할 수 없음”
  • 강제로 더 “견고한 특징” 학습
  • 마치 여러 모델을 앙상블하는 효과

결과:

  • 학습 곡선: 수렴에 2배 시간 필요
  • 테스트 성능: 놀라운 개선

AlexNet에서:

  • Dropout 없음: 심각한 과적합
  • Dropout 있음: 일반화 성능 대폭 향상

기적의 공식

AlexNet 논문:

“Dropout roughly doubles the number of iterations required to converge, but greatly improves the generalization performance.”

번역: “학습은 느려지지만, 정말 잘 일반화된다”


📊 성능: 40년 역사를 뒤집다

충격의 결과

ILSVRC-2010 (AlexNet이 사용한 데이터):

순위방법Top-1 오류율Top-5 오류율
1위AlexNet (CNN)37.5%17.0%
2위SIFT + FV45.7%25.7%
3위Sparse Coding47.1%28.2%

개선율:

  • Top-1: 45.7% → 37.5% = 8.2%p 개선 (18% 상대 개선)
  • Top-5: 25.7% → 17.0% = 8.7%p 개선 (34% 상대 개선)

💥 2012년의 충격: ILSVRC 2012 결과

ILSVRC-2012 (공식 대회):

순위방법Top-5 오류율
1위AlexNet 앙상블15.3%
2위SIFT + FV26.2%

충격: 무려 10.9%p 격차!

이는 마치 스포츠에서 오렴픽 기록을 10% 이상 경신하는 것과 같습니다. 40년 동안 1년에 1% 정도씩 개선되던 것이, 한 번에 40% 이상 개선되었습니다.

무려 10%가 넘는 오류율 감소는 그야말로 충격이었습니다. 이전까지 조금씩 성능을 개선하던 다른 팀들과 달리, AlexNet은 완전히 다른 차원의 결과를 들고나온 것입니다. 이 사건 이후, 컴퓨터 비전 분야의 모든 연구는 딥러닝으로 전환되었고, AI의 겨울은 끝났으며, 우리가 아는 딥러닝의 시대, AI의 시대가 활짝 열렸습니다.

시간이 만든 증거

알렉스넷 논문의 표현:

“All of our experiments suggest that our results can be improved simply by waiting for faster GPUs and bigger datasets to become available.”

이것이 정확했습니다:

네트워크 깊이의 중요성

AlexNet은 깊이가 중요하다는 것을 증명했습니다:

“Our network’s performance degrades if a single convolutional layer is removed. For example, removing any of the middle layers results in a loss of about 2% for the top-1 performance.”

즉:

  • 모든 5개 Conv 층: 37.5% 오류율
  • Conv 층 1개 제거: 약 40% 오류율

깊이 = 성능

이 통찰이 이후 ResNet, VGG 등의 초깊은 네트워크로 이어집니다.


🚀 AlexNet이 바꾼 세상

직접적 영향: “수십 년 역사를 뒤집다”

AlexNet 이후:

2012-2013: CNN이 표준이 됨

이전: SIFT + SVM (권장)
이후: Deep CNN (필수)

2014: VGGNet이 AlexNet의 깊이를 확장

  • AlexNet: 8개 층
  • VGGNet: 19개 층
  • 성능: 7.3% 오류율 (AlexNet 대비 2배 향상)

2015: ResNet이 극도의 깊이 해결

  • 152개 층
  • 3.6% 오류율 (ILSVRC 정복)
  • Kaiming He: “Residual Learning”이라는 새 개념

2017: Vision Transformers 등장

  • CNN 없이 Transformer 사용
  • 성능: 1% 대
  • AlexNet의 정신 계승: “깊은 모델 + 큰 데이터”

산업적 영향

AI 기업들의 설립 또는 성장:

회사설립/성장핵심
OpenAI2015딥러닝 기반 생성 AI
DeepMindGoogle 인수 2014AlphaGo는 CNN 기반
Tesla자율주행비전 기반 자동차 제어
Meta이미지 인식추천 시스템

GPU 시장의 폭발:

연도NVIDIA 주가이유
2012기준AlexNet 발표
20153배GPU 수요 폭증
202010배언어 모델 성장
2023100배+생성 AI 붐

학계의 반응

2012년 이후 신경망 논문 수:

연도arXiv 신경망/CV 논문 수 (추정)
2012수백 개
2015수천 개
2020수만 개
2024수십만 개

AlexNet의 성공 이후, 모든 연구자가 GPU + 깊은 신경망을 표준으로 삼았습니다.


🎓 결론: 왜 AlexNet이 특별한가

역사적 포지셔닝

시점기술성공문제
2006DBN이론적 가능성느림, 확장 어려움
2012AlexNet실제 성공여전히 해결 과제
2015+ResNet 등대규모 실용화점진적 개선

AlexNet은 “이론과 현실의 다리”였습니다.

AlexNet의 세 가지 혁신

1. 이론적 혁신: ReLU

  • 기울기 소실 문제 해결
  • 깊은 신경망 학습 가능

2. 기술적 혁신: GPU 병렬화

  • 1주일 학습 가능
  • 실무적 관점에서 현실화

3. 데이터 혁신: ImageNet 활용

  • 충분한 대규모 데이터
  • 과적합 극복 + 일반화 학습

세 가지가 동시에 만난 결과

이 세 가지 중 하나만 부족했어도:

  • ReLU 없음: 기울기 소실로 학습 실패
  • GPU 없음: 5-6주 필요 (실무 불가능)
  • ImageNet 없음: 과적합 문제로 성능 부족

모든 혁신의 시작점

AlexNet 이후 현대 AI의 모든 발전은 이 공식을 따릅니다:

깊은 모델 + 대규모 데이터 + 효율적 학습 = 성능 향상

  • 2012: AlexNet (8층, 120만 이미지)
  • 2017: Transformer (12층, 수십억 토큰)
  • 2022: GPT-3 (96층, 수조 토큰)
  • 2024: GPT-4 (? 층, ? 토큰)

모두 같은 원리입니다.

결론: 전설의 시작, 모든 것은 AlexNet으로부터

AlexNet은 단순히 하나의 뛰어난 모델이 아닙니다. 빅데이터(ImageNet), 하드웨어(GPU), 그리고 알고리즘(CNN+혁신들)이라는 3가지 요소가 어떻게 시너지를 내어 AI의 새로운 시대를 열 수 있는지를 보여준 상징적인 사건입니다.

AlexNet이 제시한 ReLU, 드롭아웃, 데이터 증강, GPU 활용 등의 기본 원칙은 이후 등장한 VGG, ResNet, Transformer 등 수많은 후배 모델들에게 그대로 이어지며 현대 딥러닝의 근간을 이루고 있습니다. 우리가 오늘날 사용하는 이미지 검색, 자율주행, 의료 AI 등 거의 모든 시각 지능 기술의 DNA에는 AlexNet의 유산이 깊숙이 새겨져 있는 셈입니다.

AlexNet 논문의 마지막 문단:

“We have shown that it is possible to train a network large enough and deep enough to achieve record results on a highly challenging dataset. Our network is larger and deeper than any previously trained neural network on this task… our results suggest that we are far from saturation in terms of the improvement that can be achieved with a larger network, more data, and faster training.”

즉: “우리는 겨우 시작했을 뿐이다”

12년 후, 이것이 정확했습니다. AlexNet의 정신은:

“깊게, 크게, 더 크게”

이 정신이 2024년 생성 AI까지 이어집니다.

결국 AlexNet의 이야기는 우리에게 중요한 교훈을 줍니다. 때로는 기존의 방식을 과감히 버리고, 불가능해 보이는 문제에 새로운 관점으로 도전하는 것이 세상을 바꾸는 혁신을 만든다는 것을 말이죠.


🔗 참고 자료

📄 원본 논문 및 공식 자료

🌐 관련 자료


🔍 같이 보기 (내부 링크)

딥러닝의 역사:

AlexNet 이후 발전:

기초 개념:

관련 주제:

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다