|
|
Optimization MT
Optimization MT (OPTMT)为函数的无约束优化提供了一套工具。它有许多特性,包括广泛选择的下降算法、步长方法和“动态”算法切换。
Optimization MT 2.0
OPMT旨在优化功能。它有许多特性,包括广泛选择的下降算法、步长方法和“动态”算法切换。默认选择允许您以最少的编程工作量使用优化。你只需提供要优化的函数和初始值,剩下的由OPMT来做。
2.0版本比以往任何时候都更容易使用!
- 新的语法选项消除了对PV和DS结构的需求:
- 所需代码减少了25%。
- 运行时间减少20%。
- 简化用法。
- 可选的动态参数使得向目标函数添加模型参数之外的额外数据参数变得简单而透明。
- 更新的文档和示例。
- 完全向后兼容OPTMT 1.0
平台: Windows, Mac, and Linux.
需求: GAUSS/GAUSS Engine/GAUSS Light v16 or higher.
关键特征
下降方法
- BFGS (Broyden, Fletcher, Goldfarb and Powell)
- DFP (Davidon, Fletcher and Powell)
- Newton
- Steepest Descent
行搜索方法
- STEPBT
- Brent’s method
- HALF
- Strong Wolfe’s Conditions New!
优势
灵活
- 有界参数。
- 指定固定参数和自由参数。
- 动态算法切换。
- 计算所有导数、导数的子集,或者不计算任何导数。
- 轻松传递模型参数以外的数据作为额外的输入参数。
有效
- 线程和线程安全
- 避免对目标函数和导数进行相同计算的选项。
- GAUSS中用户定义过程的惊人速度加速了您的优化问题。
信任
- 30多年来,领先的研究人员一直相信GAUSS 优化包中高效和数字合理的代码,使他们保持在其领域的前沿。
详细
新手用户通常会将这些选项中的大部分保留为默认值。然而,当处理更困难的问题时,它们可以是一个很大的帮助。
控制项 |
Parameter bounds |
类型的简单参数界限:lower_bd ≤ x_i ≤ upper_bd |
Descent algorithms |
BFGS, DFP, Newton and Steepest Descent. |
Algorithm switching |
根据经过的迭代次数、目标函数的最小变化或线搜索步长,指定要切换的下降算法。 |
Line search method |
STEPBT (quadratic and cubic curve fit), Brent’s method, half-step or Strong Wolfe’s Conditions. |
Active parameters |
控制哪些参数是活动的(待估计的),哪些参数应该固定为初始值。 |
Gradient Method |
计算分析梯度,或让OPTMT使用向前、中心或向后差分方法计算数值梯度。 |
Hessian Method |
计算一个分析的Hessian,或者让OPTMT使用向前、中心或向后差分方法计算一个数值的Hessian。 |
Gradient check |
将用户提供的函数计算的分析梯度与数值梯度进行比较,以检查分析梯度的正确性。 |
Random seed |
将用户提供的函数计算的分析梯度与数值梯度进行比较,以检查分析梯度的正确性。 |
Print output |
控制是否打印迭代输出(或打印频率)以及是否打印最终报告。 |
Gradient step |
高级功能:控制用于计算数值一阶和二阶导数的步长的增量大小。 |
Random search radius |
尝试随机搜索时的半径。 |
Maximum iterations |
收敛的最大迭代次数。 |
Maximum elapsed time |
收敛的最大分钟数。 |
Maximum random search attempts |
随机线搜索尝试的最大允许次数。 |
Convergence tolerance |
当方向向量的变化小于这个量时,就实现了收敛。 |
| CALL or EMAIL
有关GAUSS的更多信息,请联系我们的销售代表:
400-621-1085
021-50391087
或点击下面的图片,在线提交购买咨询信息
留言询价 |
Aptech Systems, Inc.是GAUSS软件的制造商。
©2019 Aptech Systems, Inc. All rights reserved
|
|
|