Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Update application.md #171

Open
wants to merge 3 commits into
base: master
Choose a base branch
from

Conversation

fliklab
Copy link
Contributor

@fliklab fliklab commented Oct 17, 2019

단어 변경 1차

기본적인 치환으로 수정가능한 단어 위주로 업데이트하였습니다.

  • 인자→인수
  • 인풋→입력
  • 아웃풋→출력(값)
  • 글로벌 → 전역(전역 평균값 풀링)
  • 세대 → 에폭
  • 레이어 → 층(중간 층, 컨볼루션 층, 완전연결층)
  • Dense 레이어 → 완전연결 층(fully connected layer와 동일 의미)
  • 컨볼루션 레이어 → 합성곱 층
  • 텐서플로우→Tensorflow
  • 리파지토리→저장소

단어 변경 1차

인자→인수
인풋→입력
(인풋의 형태→인풋 형태)
(디폴트 인풋 사이즈 → 기본 입력 크기)
(인풋 채널→입력 채널)
아웃풋→출력(값)
(4D 텐서 출력, 모델의 출력값 등)
텐서플로우→Tensorflow
글로벌 → 전역(전역 평균값 풀링)
레이어 → 층(중간 층, 컨볼루션 층, 완전연결층)
Dense 레이어 -> 완전연결층
컨볼루션->합성곱
인풋->입력
@fliklab fliklab closed this Oct 17, 2019
@fliklab fliklab reopened this Oct 17, 2019
@@ -20,11 +20,11 @@
- [DenseNet](#densenet)
- [NASNet](#nasnet)

위의 아키텍쳐 전부는 모든 백엔드(TensorFlow, Theano, and CNTK)와 호환가능하고, 인스턴스화 시 `~/.keras/keras.json`의 케라스 구성에 세팅된 이미지 데이터 포멧에 따라 모델이 만들어집니다. 예를 들어, 만약 `image_data_format=channels_last`로 세팅이 되어있다면, 이 리포지토리에서 불러온 모든 모델은 "Height-Width-Depth"의 텐서플로우 데이터 포맷 형식에 따라서 만들어집니다.
위의 아키텍쳐 전부는 모든 백엔드(TensorFlow, Theano, and CNTK)와 호환가능하고, 인스턴스화 시 `~/.keras/keras.json`의 케라스 구성에 세팅된 이미지 데이터 포멧에 따라 모델이 만들어집니다. 예를 들어, 만약 `image_data_format=channels_last`로 세팅이 되어있다면, 이 저장소에서 불러온 모든 모델은 "Height-Width-Depth"의 Tensorflow 데이터 포맷 형식에 따라서 만들어집니다.
Copy link
Contributor

@Denny-Hwang Denny-Hwang Oct 28, 2019

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

위의 아키텍쳐는 모든 백엔드(TensorFlow, Theano, and CNTK)와 호환가능하고, 인스턴스화 될 때 ~/.keras/keras.json의 케라스 구성에 세팅된 이미지 데이터 포멧에 따라 모델이 만들어집니다.

  • 아키텍쳐 전부는 -> 아키텍쳐는
  • 인스턴스화 시 -> 인스턴스화 될 때

라고 수정해 보았습니다.

for layer in base_model.layers:
layer.trainable = False

# 모델을 컴파일합니다 (*꼭* 레이어를 학습불가 상태로 세팅하고난 *후*에 컴파일합니다)
# 모델을 컴파일합니다 (*꼭* 층을 학습불가 상태로 세팅하고난 *후*에 컴파일합니다)
Copy link
Contributor

@Denny-Hwang Denny-Hwang Oct 28, 2019

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

학습불가 상태-> 학습불가 상태(layer.trainable = False)

'학습불가 상태'라는 말만 보면 이해하기 어려울 것 같으므로
이렇게 위에 있는 코드를 같이 써주면 더 이해하기 좋을 것 같은데 어떻게 생각하시나요?

model.compile(optimizer='rmsprop', loss='categorical_crossentropy')

# 모델을 새로운 데이터에 대해세대간 학습합니다
# 모델을 새로운 데이터에 대해서에폭 학습합니다
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

새로운 데이터에 대해서 -> 새로운 데이터를 이용하여

# 레이어 이름과 레이어 인덱스를 시각화하여
# 얼마나 많은 레이어를 고정시켜야 하는지 확인합니다:
# 층의 이름과 층의 인덱스를 시각화하여
# 얼마나 많은 층을 고정시켜야 하는지 확인합니다:
for i, layer in enumerate(base_model.layers):
print(i, layer.name)

# 가장 상위 2개의 inception 블록을 학습하기로 고릅니다,
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

블록을 학습하기로 고릅니다 -> 블록을 학습하기위해 선택합니다
or
블록을 학습하기로 고릅니다 -> 블록을 학습합니다

@@ -193,9 +193,9 @@ model = InceptionV3(input_tensor=input_tensor, weights='imagenet', include_top=T
| [NASNetMobile](#nasnet) | 23 MB | 0.744 | 0.919 | 5,326,716 | - |
| [NASNetLarge](#nasnet) | 343 MB | 0.825 | 0.960 | 88,949,818 | - |

상위-1과 상위-5 정확성은 ImageNet의 검증 데이터셋에 대한 모델의 성능을 가리킵니다.
상위-1과 상위-5 정확도은 ImageNet의 검증 데이터셋에 대한 모델의 성능을 가리킵니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

정확도은 -> 정확도는

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

2 participants