1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Nhập môn TensorFlow bằng Python

Connected

Bài tập

Những rủi ro của cực tiểu cục bộ

Xem đồ thị của hàm mất mát sau, loss_function(), có một cực tiểu toàn cục (điểm chấm ở bên phải) và vài cực tiểu cục bộ, gồm cả điểm chấm ở bên trái.

Đồ thị của một hàm một biến với nhiều cực tiểu cục bộ và một cực tiểu toàn cục.

Trong bài tập này, bạn sẽ cố gắng tìm cực tiểu toàn cục của loss_function() bằng keras.optimizers.SGD(). Bạn sẽ làm việc này hai lần, mỗi lần với một giá trị khởi tạo khác nhau cho đầu vào của loss_function(). Lần đầu, bạn dùng x_1, một biến có giá trị khởi tạo 6.0. Lần hai, bạn dùng x_2, một biến có giá trị khởi tạo 0.3. Lưu ý loss_function() đã được định nghĩa và có sẵn.

Hướng dẫn

100 XP
  • Đặt opt để dùng bộ tối ưu stochastic gradient descent (SGD) với learning rate 0.01.
  • Thực hiện tối ưu (minimization) với hàm mất mát loss_function() và biến có giá trị khởi tạo 6.0, x_1.
  • Thực hiện tối ưu (minimization) với hàm mất mát loss_function() và biến có giá trị khởi tạo 0.3, x_2.
  • In x_1 và x_2 dưới dạng mảng numpy và kiểm tra xem các giá trị có khác nhau không. Đây là các điểm cực tiểu mà thuật toán tìm được.