• Bài giảng Tối ưu hóa - Chương 8: Proximal Gradient Descent (And Acceleration) - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 8: Proximal Gradient Descent (And Acceleration) - Hoàng Nam Dũng

    What good did this do? You have a right to be suspicious . may look like we just swapped one minimization problem for another. Key point is that proxh(·) is can be computed analytically for a lot of important functions h1. Note: I Mapping proxh(·) doesn’t depend on g at all, only on h. I Smooth part g can be complicated, we only need to comp...

    pdf50 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 273 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 7: Subgradient Method - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 7: Subgradient Method - Hoàng Nam Dũng

    Improving on the subgradient method In words, we cannot do better than the O(1="2) rate of subgradient method (unless we go beyond nonsmooth first-order methods). So instead of trying to improve across the board, we will focus on minimizing composite functions of the form f (x) = g(x) + h(x) where g is convex and differentiable, h is convex a...

    pdf34 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 238 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 6: Subgradients - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 6: Subgradients - Hoàng Nam Dũng

    Why subgradients? Subgradients are important for two reasons: I Convex analysis: optimality characterization via s monotonicity, relationship to duality. I Convex optimization: if you can compute subgrad you can minimize any convex function.

    pdf36 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 246 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 5: Gradient Descent - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 5: Gradient Descent - Hoàng Nam Dũng

    Exact line search We could also choose step to do the best we can along direction of negative gradient, called exact line search: t = argmins≥0 f (x − srf (x)): Usually not possible to do this minimization exactly. Approximations to exact line search are typically not as efficient as backtracking and it’s typically not worth it.

    pdf31 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 379 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 4: Line search method - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 4: Line search method - Hoàng Nam Dũng

    Lựa chọn độ dài bước Để tìm cực tiểu địa phương với độ chính xác vừa phải có thể ta phải tính rất nhiều lần hàm mục tiêu f và gradient Vf. Chiến lược thực tế hơn đó là chúng ta tìm các độ dài bước đủ tốt theo nghĩa hàm mục tiêu phải giảm đủ nhiều. Lựa chọn độ dài bước Để tìm cực tiểu địa phương với độ chính xác vừa phải có thể ta phải tính rất ...

    pdf54 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 325 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 3: Bài toán tối ưu không ràng buộc - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 3: Bài toán tối ưu không ràng buộc - Hoàng Nam Dũng

    Tổng quan về thuật toán Các thuật toán đều đòi hỏi được cung cấp một điểm xuất phát Xo. + Từ đó thuật toán tạo ra chuỗi X1, X2,. • Thuật toán sẽ dừng lại nếu không có sự cải thiện hay có vẻ nghiệm đã xấp xỉ đủ tốt. Có 2 chiến thuật cơ bản để tính điểm tiếp theo XK+1 từ điểm hiện tại xk, đó là line search và trust region.

    pdf47 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 388 | Lượt tải: 1

  • Bài giảng Tối ưu hóa - Chương 2: Các kiến thức cơ sở - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 2: Các kiến thức cơ sở - Hoàng Nam Dũng

    More operations preserving convexity • Affine composition: if f is convex, then g(x) = f(Ax + b) is convex • General composition: suppose f = h ◦ g, where g : Rn → R, h : R → R, f : Rn → R. Then: I f is convex if h is convex and nondecreasing, g is convex I f is convex if h is convex and nonincreasing, g is concave I f is concave if h is con...

    pdf76 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 301 | Lượt tải: 0

  • Bài giảng Tối ưu hóa - Chương 1: Giới thiệu về tối ưu hóa - Hoàng Nam DũngBài giảng Tối ưu hóa - Chương 1: Giới thiệu về tối ưu hóa - Hoàng Nam Dũng

    Bill Gates nói v• to¡n học America’s young people must come to see science and math degrees as key to opportunity. If we fail at this, we won’t be able to compete in the global economy. — Bill Gates, 2007 Speaking to LinkedIn Executive Editor Daniel Roth, Mr Gates said: “I do think of basic knowledge of the sciences, math skills, economics —...

    pdf30 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 269 | Lượt tải: 0

  • Đề thi cuối kỳ học kỳ I môn Toán ứng dụng - Mã đề 1912.2019.0010 - Năm học 2019-2020 - Đại học Sư phạm Kỹ thuật thành phố Hồ Chí MinhĐề thi cuối kỳ học kỳ I môn Toán ứng dụng - Mã đề 1912.2019.0010 - Năm học 2019-2020 - Đại học Sư phạm Kỹ thuật thành phố Hồ Chí Minh

    Câu 1 (1,5 điểm) Kim tự tháp X có hình chóp tứ giác đều, nhưng vì bị ăn mòn và mất trộm phiến đá trên đỉnh nên kim tự tháp X không còn chóp như hình vẽ. Đo kích thước X bằng thước đo có sai số tương đối là 3% và thu được 𝑎 ≈ 28 𝑚; 𝑏 ≈ 195 𝑚; ℎ ≈ 145 𝑚. Tính gần đúng tổng diện tích 4 mặt xung quanh và mặt trên của kim tự tháp X thì thu đư...

    pdf2 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 249 | Lượt tải: 0

  • Đề thi cuối kỳ học kỳ I môn Toán 3 - Năm học 2017-2018 - Đại học Sư phạm Kỹ thuật thành phố Hồ Chí MinhĐề thi cuối kỳ học kỳ I môn Toán 3 - Năm học 2017-2018 - Đại học Sư phạm Kỹ thuật thành phố Hồ Chí Minh

    Chuẩn đầu ra của học phần (về kiến thức) Nội dung kiểm tra [CĐR G2.2]: Tính được đạo hàm và tích phân hàm vectơ. [CĐR G2.3]: Vận dụng lý thuyết về đạo hàm và vi phân của hàm nhiều biến, của hàm vectơ vào các bài toán trong kỹ thuật [CĐR G2.4]: Tính được các tích phân bội, tích phân đường, tích phân mặt. Tính được đại lượng đặc trưng của trư...

    pdf2 trang | Chia sẻ: thanhle95 | Ngày: 15/07/2021 | Lượt xem: 290 | Lượt tải: 0