1. เรียนรู้
  2. /
  3. Courses
  4. /
  5. Python으로 시작하는 TensorFlow

Connected

Exercises

기울기를 활용한 최적화

최소화하려는 손실 함수 $y = x^{2}$가 주어져 있어요. 서로 다른 x 값에서 GradientTape() 연산으로 기울기(경사)를 구해 이를 최소화할 수 있습니다. 기울기가 양수이면 x를 줄이면 손실이 감소하고, 기울기가 음수이면 x를 늘리면 손실이 감소해요. 이것이 경사 하강법의 원리입니다.

The image shows a plot of y equals x squared. It also shows the gradient at x equals -1, x equals 0, and x equals 1.

실전에서는 고수준 tensorflow 연산을 사용해 경사 하강법을 자동으로 수행합니다. 하지만 이 연습에서는 x 값이 -1, 1, 0일 때 기울기를 직접 계산해 볼 거예요. 사용할 수 있는 연산은 GradientTape(), multiply(), Variable()입니다.

คำแนะนำ

100 XP
  • 초기값 x0로 x를 변수로 정의하세요.
  • 손실 함수 y를 x에 x를 곱한 값으로 설정하세요. 연산자 오버로딩은 사용하지 마세요.
  • y를 x에 대해 미분한 기울기를 반환하도록 함수를 설정하세요.