On this page
Introduction to Optimum Design
12. Numerical Method for Constrained Optimum Design
-
이 장의 주요내용:
평탄 제약조건 비선형 최적화 문제를 풀기 위한 수치 알고리즘의 기본적인 단계 설명
평탄 제약조건 비선형 최적화 문제에서 강하 방향과 강하 단계의 개념 설명
제약조건 비선형 최적화 문제의 선형화와 선형계획법 부문제 정의
제약조건 비선형 최적화 문제를 풀기 위한 순차 선형계획법(SLP) 사용
제약조건 비선형 최적화 문제에 대하여 2차식 계획법 부문제의 정의와 탐색방향을 위한 풀이
비선형 제약조건 최적화 문제를 풀기 위한 최적화 알고리즘 사용
Optimal design과 Constrained Optimization 개념
Unconstrained Optimization
제약 조건 없이 목표 함수를 최적화 하는 문제를 다룸
대표적인 방법: Steepest Desent Method, Conjugate Gradient Method, Newton Method, DFP(Davidon-Fletcher-Powell), BFGS(Broyden-Fletcher-Goldfarb-Shanno) 등
목표는 반복적으로 설계 포인트(Design point)를 업데이트하여 최적의 해에 도달하는 것.
Constrained Optimization
제약 조건이 추가된 상황에서 최적화 문제를 해결
제약 조건의 만족 여부를 각 반복 단계(Iteration)마다 확인 필요
문제 해결 방법
목표 함수와 제약 조건 함수를 선형화(Linearization)하여 단순화
제약 조건 위반 시 설계 포인트를 수정하여 제약 조건을 만족하도록 조정
수치적(Numerical) 접근 방식이 사용되며, 높은 차원(N-Dimensional Space)에서는 시각적 방법이 불가능하므로 반복적 계산에 의존
Linearization
Taylor Series Expansion을 통해 목표 함수와 제약 조건을 1차 도함수 기반으로 선형화
2차 이상의 고차항(Higher-Order Terms)은 무시, 반복적으로 업데이트를 통해 정확도를 높임
목표는 선형화된 방정식을 이용하여 현재 설계 포인트에서 다음 포인트로 이동
Iteration Process
초기 점(Start Point)에서 시작하여 선형화된 문제를 반복적으로 해결
제약 조건 영역(Feasible Region) 내에서 최적 해를 찾는 과정
오차(Tolerance) 허용 범위 내에 도달하면 수렴(Convergence)으로 간주
예제
목적 함수: \(f(x_1, x_2) = x_1^2 + x_2^2 - 3x_1x_2\)
제약 조건
\(g_1(x)=\frac{1}{6}x_1^2+\frac{1}{6}x_2^2-1\le 0\)
\(g_2(x)=-x_1\le 0\)
\(g_3(x)=-x_2\le 0\)
초기 점: \((x_1, x_2) = (1, 1)\)
선형화 후 각 반복 단계에서 제약 조건을 만족하는 새로운 설계 포인트 계산
결론
Constraint Optimization은 실제 공학 문제에서 필수적인 과정이며, 일반적으로 수학적 접근과 수치적 방법의 조합이 필요
반복적인 선형화와 업데이트를 통해 최적 해에 가까워짐
교재 TF 문제
Section 12.2 Linearization of the Constrained Problem
Linearization of cost and constraint functions is a basic step for solving nonlinear optimization problems. (T) - 비선형 최적화 문제는 선형화(linearization)를 통해 단순화된 하위 문제를 반복적으로 해결하는 방식으로 접근. 목적 함수와 제약 조건을 선형화하면 각 반복에서 선형 문제로 변환할 수 있다.
General constrained problems cannot be solved by solving a sequence of linear programming subproblems. (F) - 일반적인 constrained problem는 연속적인 선형 프로그래밍(subproblems)을 해결하여 근사적으로 풀 수 있다. 이 방법은 Sequential Linear Programming (SLP) 알고리즘의 핵심 원리이다.
In general, the linearized subproblem without move limits may be unbounded. (T) - 선형화된 하위 문제에서 이동 제한(move limit)이 없으면, 선형 문제의 특성상 해가 무한대로 발산하거나 제한되지 않을 수 있다. 따라서 이동 제한이 필요하다.
The SLP method for general constrained problems is guaranteed to converge. (F) - SLP 방법은 항상 수렴을 보장하지 않는다. 이동제한, 초기 조건, 문제의 비선형성 등에 따라 발산하거나 적절한 해를 찾지 못할 수 있다.
Move limits are essential in the SLP procedure. (T) - move limit은 선형화의 유효성을 보장하고, 하위 문제에서 무한 발산(unbounded)을 방지하기 위해 필수적이다. 이를 통해 적절한 지역 근사를 유지할 수 있다.
Equality constraints can be treated in the SLP algorithm. (T) - 등식 제약 조건은 SLP 알고리즘에서 Lagrange 승수 또는 기타 선형화 기법을 사용하여 다룰 수 있다. 이는 제약 조건을 만족시키면서 최적화를 수행하는 데 사용된다.
Section 12.7 The CSD Method - 생략
기말대비
Quiz 2
Unconstrained optimization problems are classfied as 1D (or line search) problems and multidimensional problems. (T)*
1D minimization problem can be solved by interval halving method, golden section method, or polynomial interpolation method. (T) - 1D line search?
After initial bracketing, the interval halving method requires three additional function evaluations to reduce the interval of uncertainty (F)* - 3이 아닌 2
After initial bracketing, the golden section method require one additional function evaluations to reduce the interval of uncertainty (T)
“Robust quadratic fit-sectioning algorithm” by Brent uses a golden section method whenever possible. Otherwise, use quadratic polynomial approximation. (F) - Poly 쓸 수 있으면 무조건 Poly 먼저 쓴 뒤 골든섹션
Steepest descent directions are orthogonal to each other. Moreover, the steepest descent direction is orthogonal to the iso-cost surface. (T)
Conjugate directions are orthogonal to each other. The conjugate direction at the \(k^{th}\) point is orthogonal to the gradient of the cost function at the \((k-1)^{th}\) point. (F)* - 각 방향끼린 직교하지 않음, 목적함수의 k+1과는 직교, k-1과는 직교 x
The conjugate gradient method can converge to the optimal point with n iterations or less for a quadratic function of n design variables. (T)
The condition number of Hessian matrix (symmetric and positive definite) is defined as the ratio of the smallest to the largest eigenvalue. (F)* \(\frac{\lambda_{max}}{\lambda_{min}}\) 이다.
The minimum value of the condition number is zero. (F) - 최소는 1이다.
그림 주어지고 steepest descent direction \(\tilde{d}^0\), the fastest function increasing direction \(\tilde{g}^0\) at the point \(x^0\) 그리는 문제 나옴.
알고리즘 주어지고 빈칸 채워넣는 문제 나옴.