OPTIMIZACIÓN RESTRINGIDA Y METODOS DE APROXIMACIONES LINEALES

Page 1

Aprende los mejores mĂŠtodos para optimizaciones lineales.

Explora nuevos mĂŠtodos para obtener resultados viables

Opten la mejorar ayuda para resolver tus funciones.


Índice

Gradiente………………………..….Pág. 2 Aplicación………………….........…Pág. 3 Método Jacobiano………………...Pág. 4-5

Editorial Esta revista fue realizada para apoyar el desarrollo matemático y de lógica. Ademasde ser asignación para la asignatura de optimización de sistemas del 9no semestre de Ingeniería de la Universidad Santiago Mariño Autor Angel Aponte Agosto del 2020 Todos los derechos reservados

Método y condiciones de kun Tucker………………………….….Pág. 6-7 Método de los Multiplicadores de Lagrange……….............................Pág. 8 Métodos de Aproximaciones Lineales……………………………...Pág. 9 Método de Giffith Stwart………….Pág. 10 Técnica de Variables Separables..Pág. 11 Conclusiones…………………….....Pág. 12 Referencia Bibliográfica………..…Pág. 13


INTRODUCCIÓN

Optimizamos una función por ser compleja, siempre basándonos en el mismo principio de encontrar un vector x que minimice una función de objetivo f(x), sujeto a ciertas restricciones en desigualdades que generalmente son expresadas en gk(x) <=0, donde k=1,…, m y x es un vector de variables independientes. Cuando estas funciones no presenta restricciones, es suficiente utilizar los métodos que tratamos en la unidades anteriores, u algunos otros métodos de optimización sin restricciones. Es por ello que la presenta revista que tratamos algunas de las categorías de la optimización de sistemas y aproximaciones lineales. Con estos métodos buscaremos acercarnos a los resultados reales y correctos de los objetos a estudiar.


Gradiente Que es gradiente? es una medida de que tan grande y pequeña puede ser una pendiente, este un algoritmo luego de ser definido puedes conseguir de forma automática encontrar el valor mínimo o máximo de una función. Inicialmente para realizar una función de gradiente deber definir una tasa de aprendizaje, este es el numero de iteraciones que indica cuantas veces se repetirá el algoritmo, se toma este valor y se suma o resta hasta conseguir.


APLICACIÓN PARA ELIMINAR EL RUIDO EN IMÁGENES •

EN LUGAR DE MINIMIZAR UNA FUNCIÓN F:RN→RF:RN→R UTILIZANDO UNA SUCESIÓN DE PUNTOS X(K)∈RNX(K)∈RN, VAMOS A MINIMIZAR UN FUNCIONAL J:V→RJ:V→R DONDE VV ES EL ESPACIO DE IMÁGENES (UN ESPACIO DE FUNCIONES CONTINUAMENTE DIFERENCIABLES) UTILIZANDO UNA SUCESIÓN DE IMÁGENES U(K)(X)U(K)(X).

EL FUNCIONAL JJ SE OBTIENE SUMANDO DOS TÉRMINOS, J=J1+ΛJ2J=J1+ΛJ2. EL PRIMER TÉRMINO ES EL TÉRMINO DE FIDELIDAD QUE OBLIGA A QUE LA IMAGEN FINAL NO SEA MUY DISTINTA DE LA IMAGEN INICIAL. EL SEGUNDO TÉRMINO ES EL TÉRMINO DE REGULARIZACIÓN QUE UTILIZAMOS PARA REALIZAR LA ELIMINACIÓN DE RUIDO.

UNA ELECCIÓN HABITUAL DEL TÉRMINO DE FIDELIDAD ES EL FUNCIONAL CONVEXOJ1(U)=12∥U−U0∥2=12∫Ω|U(X)−U0(X)|2DXJ1(U)=12‖U−U0‖2=12∫Ω|U(X)−U0(X)| 2DXDONDE ΩΩ ES EL CONJUNTO DE PIXELS Y U0U0 ES LA IMAGEN INICIAL.

COMO TÉRMINO DE REGULARIZACIÓN UTILIZAMOSJ2(U)=12∥∇U∥2=12∫Ω|∇U(X)|2DXJ2(U)=12‖∇U‖2=12∫Ω|∇U(X)|2DXQUE TAMBIÉN ES CONVEXO.

EL PROBLEMA A RESOLVER ES: ENCONTRAR UN MÍNIMO U∗∈VU∗∈V DE J:V→RJ:V→R, ES DECIR, RESOLVERMINU∈V12∫Ω|U(X)−U0(X)|2DX+Λ12∫Ω|∇U(X)|2DX.MINU∈V12∫Ω|U(X)−U0(X )|2DX+Λ12∫Ω|∇U(X)|2DX.AQUÍ, Λ>0Λ>0 ES UN PARÁMETRO QUE CONTROLA LA RELACIÓN ENTRE LA FIDELIDAD Y LA REGULARIZACIÓN.

PARA USAR EL MÉTODO DEL GRADIENTE NECESITAMOS EL GRADIENTE DE JJ, QUE ES∇J(U(X))=U(X)−U0(X)−ΛΔU(X).∇J(U(X))=U(X)−U0(X)−ΛΔU(X).ENTONCES, APLICANDO EL ALGOTIMO OBTENEMOSU(K+1)(X)=U(K)(X)−Τ(U(K)(X)−U0(X)−ΛΔU(K)(X))


Método Jacobiano

Es un método que se usa para resolver métodos de ecuaciones lineales del tipo ax=b. Se puede usar en 2 situaciones:

1) Para resolver ecuaciones lineales donde el número de ecuaciones es grande y cada ecuación tiene pocas variables.

2) En caso de que las condiciones que tengas no se cumplan, se puede aplicar este método pero será probable utilizar métodos directos como eliminación gaussiana


Método Jacobiano

• 1. Primero se determina la ecuación de recurrencia. Para ello se ordenan las ecuaciones y las incógnitas. De La ecuación i se despeja la incógnita i. En notación matricial se escribirse como:

Donde x es el vector de incógnitas.

• 2. Se toma una aproximación para las soluciones y a esta se le designa por xo

• 3. Se itera en el ciclo que cambia la aproximación.


Método y condiciones kun tucker Son una generalización de los multiplicadores de langrage para restricciones de desigualdad.

Las restricciones de desigualdad se cambian a una restricción de igual introduciendo una variable de holgura o multiplicador de langrage. Los puntos que minimizan a F sujeta las restricciones están dentro de los puntos críticos de I. Las derivadas parciales de la función I, respecto a X y Y se deben igualar a cero. Deben considerarse que las restricciones de desigualdad estén activas en el optimo, entonces se trata como una desigualdad asignándole un multiplicador de langrage. Si la restricción esta inactiva el multiplicador de langrage se hace cero


MĂŠtodo y condiciones kun tucker Ejemplo: Paso 1: Formamos la funciĂłn Lagrangiana Paso 2: Por las condiciones de Kuhn-Tucker

Paso 3: Se testean o revisan las condiciones de Kuhn-Tucke


MĂŠtodo de los Multiplicadores de Lagrange.


Métodos de Aproximaciones Lineales. Es un método abierto que consiste en que si nos da una función que este igualado a un valor real, esa ecuación la igualamos a 0 y transformamos nuestra nueva función, donde se realiza una tabulación para hallar los valores que ocurren en la raíz , se realiza la suma de los 2 valores de X donde ocurrió el cambio de signo y se dividen entre 2.


Método de Giffith Stwart. Este método de programación lineal secuencial, pese a su gran potencial presenta algunos efectos indeseables ( principalmente oscilaciones si la solución del problema no se encuentra condicionada por un numero suficientemente alto de restricciones), para paliar estos efectos y acelerar la convergencia se realizan numerosas mejoras en este algoritmo. Kelley [19601 desarrolla el método del plano secante, en el cual se retienen en iteraciones sucesivas las restricciones linealizadas precedentes.


Técnica de Variables Separables Es un método para resolver ecuaciones diferenciales sencillas. Este es considerado unos de los métodos mas sencillos para resolver ecuaciones diferenciales de primer orden, es decir una ecuación diferencial que posee una derivada. La principal característica para este método es que la ecuación diferencial sea separable.


CONCLUSIONES

Luego de realizar un estudio sobre la optimización restringida y las aproximaciones puedo concluir que en las matemáticas no todas las funciones pueden tener un valor exacto, pero si lo suficientemente cerca para ser considerado viable. Existen muchos métodos que nos pueden ayudar a llegar a este valor exacto para asegurar una correcta resolución de cada función, y todos proporcionan resultados similares. A medida que se itera, podemos estar cada vez mas cerca de lo real, teniendo encuentra que no siempre existen mínimos o máximos globales, por lo que no siempre una función puede ser completamente de ayuda para ciertos tipos de funciones.


REFERENCIAS BIBLIOGRÁFICAS

• https://www.zweigmedia.com/MundoReal/calctopic1/linearapprox.html • https://es.wikipedia.org/wiki/Aproximaci%C3%B3n_lineal • https://es.scribd.com/document/257581357/Metodo-Griffith-and-Stuart-Pnl • https://saia.psm.edu.ve/


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.