Sdü Optimizasyon Teorisi ve Teknikleri 20.11.2017 ders notu
Sdü Optimizasyon Teorisi ve Teknikleri 20.11.2017 ders notu
Örnek1-Aşağıdakilerden hangileri doğrudur ?
a) Direk arama yöntemleri aotimizasyon fonksiyonu farklılaşmadığı zaman kullanılır.(Doğru)
b)Gradient f(x,y) x, y e ait en dik boşluktur.(Doğru)
c)Hessian bir Jacobian matrisidir.(İkinci derecen türev)(Doğru)
d)Optimizasyon fonksiyonunun ikinci derece türevi optimal noktayıbelirtmek için kullanılır.(Yanlış)
![](https://cdn-images-1.medium.com/max/800/1*2FOpqOW8jZk9DEwa--d99A.jpeg)
![](https://cdn-images-1.medium.com/max/800/1*Tflt-ldSTOGN8nsLECWU4A.png)
![](https://cdn-images-1.medium.com/max/800/1*wNaQAkwF3ajJ25BtWx_ydQ.png)
Çok Boyutlu Parçaçık Metotları(Multidimensional Gradient Methods)
a.) Steepest Descent Metodu
b.) Newton Raphson Metodu
c.) Gauss Metodu
Steepest Descent Metodu
![](https://cdn-images-1.medium.com/max/800/1*les5VdxL7byhEWqZzkXP-w.png)
![](https://cdn-images-1.medium.com/max/800/1*D-iGCSDz0vMS9x1Naowh0g.jpeg)
Newton Raphson Metodu
f(x) = 0 formundaki denklemleri çözmek için kullanılır.
![](https://cdn-images-1.medium.com/max/800/1*jgK93HeP3S-oj4NoDWfxbQ.png)
![](https://cdn-images-1.medium.com/max/800/1*gbd5eiznZ5weB8MSyaCRCA.png)
![](https://cdn-images-1.medium.com/max/800/1*z7_FD1zH-G8GTvXj5S_Evw.png)
Taylor Serisi buradaki linkten ne olduğuna bakabilrsiniz.
![](https://cdn-images-1.medium.com/max/800/1*QaR2k1G54VBcnSaq_NpLtA.png)
Gauss Metodu
![](https://cdn-images-1.medium.com/max/800/1*UdNZg7-06cYduJQB7e1heA.png)