OPTIMIZACIÓN RESTRINGIDA Y MÉTODOS DE APROXIMACIONES LINEALES

Page 1

INSTITUTO UNIVERSITARIO POLITÉCNICO “SANTIAGO MARIÑO” SEDE BARCELONA INGENIERIA / SISTEMAS

OPTIMIZACIÓN RESTRINGIDA Y MÉTODOS DE APROXIMACIONES LINEALES

Profesor:

Alumno:

Ing. Diógenes Rodríguez Brito

Barcelona, Agosto del 2020

Benjamín Ruiz C.I: 27.947.275


Índice Introducción………………………………………………..……1 Método del Gradiente.¿Qué es el Gradiente, cuáles son sus propiedades y aplicaciones?................................................2 Método Jacobiano. ..............................................................4

Método y Condiciones de Kun Tucker. ................................5 Método de los Multiplicadores de Lagrange…………………9 Métodos de Aproximaciones Lineales……………………….11 Método de Giffith Stwart………………………………..……..12 Técnica de Variables Separables…………………………….13 Conclusión………………………………………………...........15 Referencias……………………………………………..….......16


Introducción Tenemos como tema principal a un conjunto de temas educativos sobre la optimización en esta revista. Este tipo de problemas se presentan en la vida diaria de las personas debido a que todo pude relacionarse de cierta forma. La optimización trata sobre determinar valores de ciertas variables que se presenten o intervengan en algún tipo de actividad, proceso o sistema intervienen en un proceso o sistema para lograr obtener el mejor resultado posible. Como cualquier situación, problema o ejercicio no solamente nos centramos en resolverlo de la forma mas rápida posible, sino la que traerá mas beneficios o sea la mas eficiente.


Método del Gradiente. Es un algoritmo utilizado en la física y matemática. ¿Qué es el Gradiente? El Gradiente es un campo escalar o una magnitud física. Indica lo que varia una determinada magnitud física al desplazarse hacia una determinada dirección o una determinada distancia. Propiedades.

∇= Nabla d= Derivada de

∇F= Nabla de F Formula:

∇F= dF/dx * i + dF/dy * dF/dc * k Aplicaciones. Ejercicio 1.

Deducir las formulas del “método de gradiente”. Más precisamente, es el método del descenso en el sentido del anti gradiente. De un sistema de ecuaciones lineales a un problema de optimización. Sea A ∈ Mn(R) una matriz real simétrica, y sea b ∈ Rn . Definimos f : R^ n → R mediante la fórmula:


Denotemos por u al vector A−1b. Entonces para cada x ∈ R^n

En particular, si A es estrictamente positiva definida, entonces f(x) > f(u) para cada x ∈ R^n \ {0}.

Usamos la igualdad b = Ax:

Aplicamos la simetría de A:


Método Jacobiano. Es un método iterativo en el análisis numérico, usado para resolver sistemas de ecuaciones lineales del tipo. Consiste en usar fórmulas como iteración de punto fijo. La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. “A” efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de “x” de la solución del sistema.

La sucesión se construye descomponiendo la matriz del sistema “A” en la forma siguiente:

Donde “D”, es una matriz diagonal y “R” es la suma de una matriz triangular inferior “L” y una matriz triangular superior “U”, luego R= L+U. Partiendo de Ax= b, podemos reescribir dicha ecuación como:

Luego Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma:

Donde “k” es el contador de iteración, Finalmente tenemos:


Método y Condiciones de Kun Tucker. Son requerimientos necesarios y suficientes para que la solución de un problema de programación matemática sea óptima. Consideremos el siguiente problema general:

Min f(x) Sujeto a

gi(x) <= 0 , i= 1,…,m hj(x) = 0 , j= 1,…,l Donde f(x) es la función objetivo a minimizar, gi(x) son las restricciones de desigualdad y hj(x) son las restricciones de igualdad, con m y l el número de restricciones de desigualdad e igualdad, respectivamente. Condiciones de regularidad. Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en “x*” Cualificación de la restricción de MangasarianFromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en “x*”


Las condiciones de K-T son:

(Los reciben el nombre de multiplicadores de K-T)

Si se trata de máximo Si se trata de mínimo

Geométricamente, indican que en un punto de posible máximo, el gradiente de la función objetivo es combinación lineal positiva de los gradientes de las restricciones saturadas en . De igual forma, indican que en un punto de posible mínimo, el gradiente de la función objetivo es combinación lineal negativa de los gradientes de las restricciones que se saturan en . Nomenclatura: Diremos que un punto satisface K-T para máximo cuando satisface las condiciones de K-T con Diremos que un punto satisface K-T para mínimo cuando satisface las condiciones de K-T con Explicación:

Condición 1: Obliga a que el gradiente de la función objetivo en x0 sea combinación lineal de los gradientes de las restricciones en x0 . Condición 2: Obliga a que los multiplicadores de K-T asociados a restricciones NO saturadas en x0 sean nulos. Veámoslo: •

Si la restricción gi está saturada en x0: ( gi(x0) = 0) entonces: λi gi(x0) = 0 para cualquier valor de λi

Si la restricción gi NO está saturada en x0: ( gi(x0) < 0) entonces la única posibilidad para que λi gi(x0) = 0 es que λi = 0

Condición 3: Cuando el punto satisface K-T para máximo, todos los multiplicadores deben ser positivos. Cuando el punto satisface K-T para mínimo, todos los multiplicadores deben ser negativos. Condición 4: El punto x0 debe satisfacer todas las restricciones del problema, es decir, debe pertenecer al conjunto de soluciones factibles del problema.


Ejercicio. Un monopolista puede comprar hasta 17,25 onzas de un compuesto químico a 10$. A un costo de 3$/onza el compuesto químico se procesa de una onza de producto 1 o bien, a un costo de onza 5$/onza. El compuesto se procesa en una onza de producto 2. Si se produce x1 onzas de producto 1, este se vende a un precio de $30-x1 por onza. Si se producen x2 onzas de producto 2, este se vende a un precio de $50-2x2 por onza. Determine como puede maximizarse las ganancias del monopolista. Datos

X1= Onzas a producir del producto 1 X2= Onzas a producir del producto 2 X3= Onzas procesadas del compuesto químico Max Z= X1 (30-X1) + X2 (50-2X2)-3X15x2-10X3 X1+X2-X3<=0

X3<= 17.25 1.

A 30-2X1-3-λ1=0 B 50-4X2-5-λ1=0 C -10+λ1-λ2=0


2. Νi [bi-gi(X)]=0 d Ν1 (-X1-X2+X3)=0 e Ν2 (17.25-X3)=0 f Ν1>=0 g Ν2>=0 Al hacer uso de las condiciones K-T para resolver los PNL, es útil notar que cada multiplicador Ν� ≼ 0. debido a esto para hallar los valores de X1, X2,X3 Ν1Ν2 consideramos: Caso 1: Ν1 = Ν2 = 0 Caso 2: Ν1 =0 Ν2 > 0 Caso 3: Ν1 > 0 Ν2 = 0

Caso 4: Îť1 > 0 Îť2 > 0 Entonces: Caso 1: Îť1 = Îť2 = 0 Este caso no ocurre debido a que se violarĂ­a la ecuaciĂłn C. Caso 2: Îť1 =0 Îť2 > 0 Si Îť1 =0, entonces C implica que Îť2 = −10. Esto violarĂ­a la ecuaciĂłn G. Caso 3: Îť1 > 0 Îť2 = 0 De C, se obtiene Îť1 =10. Ahora A produce X1=8.5 y B da X2=8.75. De D, se obtiene X1+X2=X3, asĂ­ que X3 = 17.25. Por consiguiente, X1=8.5 ; X2=8.75 ; X3 = 17.25 ; Îť1 =10 ; Îť2 = 0 satisface las condiciones K-T. Caso 4: Îť1 > 0 Îť2 > 0 El caso 3 produce una soluciĂłn Ăłptima, asĂ­ que no es necesario considerar este caso.


Método de los Multiplicadores de Lagrange. Es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Ejercicio. Determinar los puntos en la esfera x^2 +y^2+z^2=4 que están más cercanos al punto (3,1,-1) la distancia al punto (3,1,-1)

Para hacer más sencilla la operación se maximiza o minimiza el cuadrado de la distancia:

la restricción:

De acuerdo con el método de los multiplicadores de Lagrange, se resuelven las ecuaciones y el resultado es:

La manera más sencilla de resolver estas ecuaciones es dejar x, y, z en función de lambda y luego sustituimos en la ecuación (4). En primer lugar se observa que Porque si λ=1 obtenemos un resultado absurdo en la ecuación (1). Ahora de la ecuación (1) obtenemos:


y lo mismo sucede con las ecuaciones (2) y (3):

Sustituyendo en la ecuaciรณn (4)

Se obtiene

Entonces, los puntos (x,y,z) son:

Uno de ellos es el mรกs lejano (mรกximo de la funciรณn), y se puede observar que el punto mรกs cercano es:


Métodos de Aproximaciones Lineales. En matemática. es una aproximación de una función cualquiera usando una transformación lineal Ejercicio. Encuentre la aproximación lineal para f en z= 2, con la función z^3

L(x)= Aproximación lineal de la función f’(z)= “f” prima (derivada de “f”)

Resolver: L(x)= f(z) + f’(z)*(x-z) Se sustituyen los valores de z L(x)= f(2) + f’(2)*(x-2)

f(z)=z^3 f(1)= 2^3= 8 f’(1)= 3X2^2=36 L(z)= 8+ 36 *(x-2) L(z)= 8+ 36x – 72 (Siendo la aproximación lineal de la función)


Método de Giffith Stwart. El método de programación lineal secuencial, pese a su gran potencialidad, presenta algunos efectos indeseables (principalmente oscilaciones si la solución del problema no se encuentra condicionada por un numero suficientemente alto de restricciones) Para paliar estos efectos y acelerar la convergencia se realizan numerosas mejoras en este algoritmo. Este método procede de la siguiente manera:


Técnica de Variables Separables. El método de separación de variables se refiere a un procedimiento para encontrar una solución completa particular para ciertos problemas que involucran ecuaciones en derivadas parciales como serie cuyos términos son el producto de funciones que tienen las variables separadas. El método sirve para encontrar soluciones parciales completas, no soluciones generales, dependientes de un conjunto numerable de constantes arbitrarias, lo cual permite resolver tanto problemas de valor inicial como problemas de frontera e incluso problemas que involucran condiciones de los dos tipos. Ejemplo: Una ecuación diferencial de primer orden de la forma Se dice que es separable o que tiene variables separables Ejercicio: Considere la ecuación diferencial:

Encontrar la solución general

La ecuación se escribe de la forma:


Separamos variables obteniendo:

Integrando

De forma que:

Soluciรณn general:


Conclusión Como muchos método matemáticos la optimización puede aplicarse a muchos aspectos presentes en la vida de cualquier individuo, sea para resolver problemas, situaciones, etc.. Que requieran algún tipo de método de búsqueda como los valores de máximos y mínimos. 

La optimización no es un método de búsqueda exacto, se caracteriza por ejemplo: el método de Newton donde se buscan valores de ceros y raíces cuyo método de búsqueda dependiendo de los valores iniciales pueden evitar lograr la resolución del problema, es decir, alejándose del valor cero.

Cada uno de los métodos tiene distintas formas de trabajar incluso dentro de los mismos, es decir, con el paso de los años los métodos se van adaptando disminuyendo su rango de error y aumentando su probabilidad de exactitud.


Referencias BibliogrĂĄficas W. Karush (1939). Minima of Functions of Several Variables with Inequalities as Side Constraints. M.Sc. Dissertation. Dept. of Mathematics, Univ. of Chicago, Chicago, Illinois. H. W. Kuhn,Tucker, A. W., Proceedings of 2nd Berkeley Symposium, Nonlinear programming, University of California Press, 1951, Berkeley Avriel, Mordecai (2003). Nonlinear Programming: Analysis and Methods. Dover Publishing. ISBN 0-486-43227-0. R. Andreani, J. M. MartĂ­nez, M. L. Schuverdt, On the relation between constant positive linear dependence condition and quasinormality constraint qualification. Journal of optimization theory and applications, vol. 125, no2, pp. 473-485 (2005).


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.