Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

nlp/audio_data_augmentation_tutorial.py 오타 수정 #643

Closed
wants to merge 4 commits into from
Closed
Show file tree
Hide file tree
Changes from 3 commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
4 changes: 2 additions & 2 deletions beginner_source/audio_data_augmentation_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -345,8 +345,8 @@ def plot_specgram(waveform, sample_rate, title="Spectrogram", xlim=None):
# 전화 녹음 모의 실험하기
# ---------------------------
#
# 이전 기술들을 혼합하여, 반향있는 방의 사람들이 이야기하는 배경에서 전화 통화하는
# 것 처럼 들리는 오디오를 모의 실험할 수 있습니다.
# 이전 기술들을 혼합하여, 반향 있는 방의 사람들이 이야기하는 배경에서 전화 통화하는
# 것처럼 들리는 오디오를 모의 실험할 수 있습니다.
#

sample_rate = 16000
Expand Down
2 changes: 1 addition & 1 deletion beginner_source/blitz/cifar10_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -31,7 +31,7 @@
있습니다: '비행기(airplane)', '자동차(automobile)', '새(bird)', '고양이(cat)',
'사슴(deer)', '개(dog)', '개구리(frog)', '말(horse)', '배(ship)', '트럭(truck)'.
그리고 CIFAR10에 포함된 이미지의 크기는 3x32x32로, 이는 32x32 픽셀 크기의 이미지가
3개 채널(channel)의 색상로 이뤄져 있다는 것을 뜻합니다.
3개 채널(channel)의 색상으로 이뤄져 있다는 것을 뜻합니다.

.. figure:: /_static/img/cifar10.png
:alt: cifar10
Expand Down
8 changes: 4 additions & 4 deletions beginner_source/blitz/neural_networks_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -25,7 +25,7 @@
- 학습 가능한 매개변수(또는 가중치(weight))를 갖는 신경망을 정의합니다.
- 데이터셋(dataset) 입력을 반복합니다.
- 입력을 신경망에서 전파(process)합니다.
- 손실(loss; 출력이 정답으로부터 얼마나 떨어져있는지)을 계산합니다.
- 손실(loss; 출력이 정답으로부터 얼마나 떨어져 있는지)을 계산합니다.
- 변화도(gradient)를 신경망의 매개변수들에 역으로 전파합니다.
- 신경망의 가중치를 갱신합니다. 일반적으로 다음과 같은 간단한 규칙을 사용합니다:
``새로운 가중치(weight) = 가중치(weight) - 학습률(learning rate) * 변화도(gradient)``
Expand Down Expand Up @@ -132,7 +132,7 @@ def forward(self, x):
# 손실 함수 (Loss Function)
# -------------------------
# 손실 함수는 (output, target)을 한 쌍(pair)의 입력으로 받아, 출력(output)이
# 정답(target)으로부터 얼마나 멀리 떨어져있는지 추정하는 값을 계산합니다.
# 정답(target)으로부터 얼마나 멀리 떨어져 있는지 추정하는 값을 계산합니다.
#
# nn 패키지에는 여러가지의 `손실 함수들 <http://pytorch.org/docs/nn.html#loss-functions>`_
# 이 존재합니다.
Expand All @@ -150,7 +150,7 @@ def forward(self, x):
print(loss)

########################################################################
# 이제 ``.grad_fn`` 속성을 사용하여 ``loss`` 를 역방향에서 따라가다보면,
# 이제 ``.grad_fn`` 속성을 사용하여 ``loss`` 를 역방향에서 따라가다 보면,
# 이러한 모습의 연산 그래프를 볼 수 있습니다:
#
# ::
Expand All @@ -164,7 +164,7 @@ def forward(self, x):
# 미분되며, 그래프 내의 ``requires_grad=True`` 인 모든 Tensor는 변화도가
# 누적된 ``.grad`` Tensor를 갖게 됩니다.
#
# 설명을 위해, 역전파의 몇 단계를 따라가보겠습니다:
# 설명을 위해, 역전파의 몇 단계를 따라가 보겠습니다:

print(loss.grad_fn) # MSELoss
print(loss.grad_fn.next_functions[0][0]) # Linear
Expand Down