REVISTA EDUCATIVA
Optimización Sin Restricciones
13 Noviembre 2015
Edición Especial
ESTUDIANTIL
Imagina, Descubre y Crece por una Educación Diferente
Instituto Universitario Politécnico “Santiago Mariño”
Maximizar
Minimizar
Métodos De Optimización
Ejercicios Resueltos Optimización
Métodos
Optimización sin restricciones con dos mas variables
Importancia Revistaeducativa
Revistaeducativa
PSMmaracay
EDITORIAL Hoy
en día nos enfrentamos a
problemas complejos de optimización los cuales no sabemos como afronta es por esta razón que estudiaremos la teoría y métodos que se utilizan para enfrentar problemas
de
optimización
sin
restricciones. .
AUTORES:
En este aporte nos dará una breve
descripción de la teoría y métodos que se
MARCO SARMIENTO
utilizan para enfrentar problemas de
ALICIA CASAMAYOR
optimización no-lineales sin restricciones, así como también los métodos dentro de
la optimización. Existe toda una metodología que permite tratar problemas de optimización no-lineales
con
restricciones
como
problemas de optimización no-lineales sin restricciones,
la
no
presencia
de
restricciones puede ser vista en un comienzo como un grave limitación, es
por esta razón del porque dedicamos tiempo a resolver este tipo de problemas desde e punto de vista de la optimización. Para comprender la optimización es necesario definir condiciones suficientes y necesarias para llevar a cabo una solución optima.
JOSÉ CASTELLANOS
ÍNDICE Historia
3
Optimización
4
Problemas de Optimización
5
Clasificación de Problemas de Optimización
5
Optimización Sin Restricciones
6
Características
7
Campo de Aplicación
7
Importancia de Optimización Sin Restricciones
8
Función de una o mas Variables
9
Métodos De La Optimización
10
Área de Aplicación
10
Tipos de Métodos
11
Métodos Directos
12
Métodos De Búsqueda Rejilla
12
Métodos De Univalente
13
Métodos Simplex Flexible
13
Método Newton
14
Método Langraje
16
Ejercicios
18
Casos Prácticos
HISTORIA Pierre de Fermat y Joseph Louis Lagrange encontraron cálculos basados en fórmulas identificadas como Óptimas mientras que Isaac Newton y Carl Friedrich Gauss propusieron métodos iterativos para el movimiento hacia un óptimo históricamente, el primer término para la optimización fue programación lineal, debido a George B
Dantzig
aunque mucho de la teoría había sido
introducida por Leonid Kantorovich en Dantzig publicó el algoritmo Simplex (Simple) en y John von Neumann desarrolló la teoría de la dualidad en el mismo año El
término programación en este contexto no se
refiere a la programación
de computadoras Más bien el
término viene del uso de programa por el ejército de Estados
Unidos al referirse a la propuesta de entrenamiento y planificación logística, el cual fue el problema estudiado por Dantzig en aquel entonces
Página 3
OPTIMIZACIÓN E
n matemáticas, estadísticas,
ciencias empíricas, ciencia de la computación o economía, es la selección del mejor elemento (con respecto a algún criterio) de un conjunto de elementos disponibles. En el caso más simple, un problema de optimización consiste en maximizar o minimizar una función real eligiendo sistemáticamente valores de entrada (tomados de un conjunto permitido) y computando el valor de la función. La generalización de la teoría de la optimización y técnicas para otras formulaciones comprende un área grande de las matemáticas aplicadas. Incluye el descubrimiento de los "mejores valores" de alguna función objetivo dado un dominio definido, incluyendo una variedad de diferentes tipos de funciones objetivo y diferentes tipos de dominios.
Un problema de optimización puede ser representado de la siguiente forma Dada: Una función f : A R donde A es un conjunto de números reales. Buscar: Un elemento x0 en A tal que f(x0) ≤ f(x) para todo x en A ("minimización") o tal que f(x0) ≥ f(x) para todo x en A ("maximización"). Tal formulación es llamada un problema de optimización o un problema de programación matemática (un término no directamente relacionado a la programación de computadoras, pero todavía en uso por ejemplo en la programación lineal.
Muchos problemas teóricos pueden ser modelados en este esquema general. usando esta técnica en los campos de física y visión por computadora se refieren a la técnica como minimización de la energía, del valor de la función f representando la energía del sistema que está siendo modelado. Típicamente, A es algún subconjunto del espacio Euclidiano Rn, con frecuencia especificado por un conjunto de restricciones, igualdades o desigualdades que los elementos de A tienen que satisfacer. El dominio A de f es llamado el espacio de búsqueda o el conjunto de elección, mientras que los elementos de A son llamados soluciones candidatas o soluciones factibles. La función f es llamada, diversamente, una función objetivo, función de costo (minimización), función de utilidad indirecta (minimización), función de utilidad (maximización), o, en ciertos campos, función de energía, o energía funcional. Una solución factible que minimice (o maximice, si este es el propósito) la función objetivo, es llamada una solución óptima. Por convenio, el formato estándar de un problema de optimización está declarado en términos de minimización. Generalmente, a menos que ambas, la función objetivo y la región factible sean convexas en un problema de minimización, puede haber varios mínimos locales, donde un mínimo local x* se define como un punto para el cual existe algún δ > 0, donde para todo x tal que
la expresión:
es verdadera
Página 4
Los problemas de optimización se expresan a menudo con una notación especial.
Pasos para la resolución de problemas de optimización Maximizar o Minimizar la función
A continuación se muestran algunos ejemplos.
Mínimo y Máximo valor de una función Considere la siguiente notación:
Esta denota el valor mínimo de la función objetivo cuando x se selecciona del conjunto de números reales El valor mínimo en este caso es 1 y ocurre para
Clasificación De Problemas De Optimización
Relacionar las distintas variables del problema, en el caso de que haya más de una variable. •
De acuerdo a la forma de f(x) y las restricciones:
Se despeja una variable de la ecuación y se – sustituye en la función de modo que nos quede una sola variable. –
De modo similar, la notación
pregunta por el valor máximo de la función objetivo 2x, cuando x puede ser cualquier número real. En este caso, no existe tal máximo si la función objetivo es infinita, luego la respuesta en "infinito“ o "indefinido".
• Se deriva la función y se iguala a cero, para hallar los extremos locales. –
¿SABÍAS QUÉ?
Se realiza la 2ª derivada para comprobar el resultado obtenido.
Un Problema de Optimización
–
•
–
•
Optimización no restringida: El problema de optimización no tiene restricciones Optimización restringida: El problema de optimización tiene restricciones
Optimización unidimensional: función objetivo de una variable Optimización multidimensional: función objetivo de varias variables
Según el número de funciones objetivo – –
Maximizar y Minimizar el valor de una variable
De acuerdo a la presencia o no de restricciones
Según su dimensional dad: –
Consiste en:
Programación Lineal: f(x) y las restricciones son lineales Programación No-lineal: f(x) es no-lineal y las restricciones pueden ser no-lineales
Optimización con un objetivo: Una sola función objetivo Optimización con múltiples objetivos: varias funciones objetivo
Página 5
OPTIMIZACIÓN SIN RESTRICCIONES
Es el problema de minimizar una función sin la existencia de restricciones. Esta función puede ser de una o más variable. La no presencia de restricciones puede ser vista en un comienzo como una grave limitación, sin embargo, la razón del porque dedicamos tiempo a resolver este tipo de problemas desde el punto de vista de la optimización, es que existe toda una metodología que permite tratar problemas de optimización no-lineales con restricciones como problemas de optimización no-lineales sin restricciones. El método sin restricciones puede ayudar en gran manera a la solución de ciertas clases de problemas complejos en el área de ingeniería causando un impacto significativo en la solución de ciertos Problemas y su formulación matemática es la siguiente: En optimización sin restricciones se minimiza una función objetivo que depende de variables reales sin restricciones sobre los valores de esas variables. La formulación matemática es: (OSR) = _minx--- f(x) ∈IRn Donde f es una suficientemente regular.
función
Se intenta encontrar una curva que ajuste algunos datos experimentales, por ejemplo medidas y1, . . . , y m de una señal tomadas en los tiempos t1, . . . , tm.
Desde los datos y el conocimiento de la aplicación, se deduce que la señal tiene un comportamiento exponencial y oscilatorio, y se elige modelarlo por la función:
Φ(t, x) = x1 + x2e−(x3−t)2/x4 + x5 cos(x6t) Los números reales xi, i = 1, . . . , 6 son los parámetros del modelo. Se desea seleccionarlos de manera que los valores del modelo Φ(tj, x) ajusten los datos observados yj tanto como sea posible. Para establecer el objetivo como un problema de optimización, se agrupan los parámetros xi en un vector de incógnitas (x1, . . . , x6)t y se definen los residuos rj(x) = yj − Φ(tj, x), j= 1, . . .,m Que miden la discrepancia entre el modelo y los datos observados. La estimación de x se obtendrá resolviendo el problema: (MC)=_minx∈IR6 f(x) = r(x)tr(x)/2 Este es un problema de mínimos cuadrados no lineales, que es un caso especial de optimización sin restricciones. Si el numero de medidas es grande (por ejemplo 105), la evaluación de f o sus derivadas para un valor concreto del vector de parámetros x es bastante caro desde el punto de vista computacional.
¿SABÍAS QUÉ? Una buena técnica de optimización de variables es fundamental por al menos tres razones Las restricciones se pueden incluir dentro de la función objetivo, por lo que la dimensionalidad del problema se reduce a una variable. Algunos problemas sin restricciones, inherentemente incluyen una única variable. Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de búsqueda unidireccional en sus algoritmos
Página 6
Aprendiendo un poco mas.! Características de Problemas de Optimización
Campo de la Aplicación
La Optimización puede ser aplicada en cualquier área donde se busque o desee realizar una actividad de forma eficaz y eficiente, sin perder datos relevantes ni tiempo, los campos donde la optimización es el mejor elemento para cubrir soluciones son como por ejemplos: Ciencia de la administración
Matematica
Ciencia de la computación
Los problemas de optimización sin restricciones permiten resolver situaciones de mayor complejidad transformándolas en situaciones fáciles de resolver
Estadisticas
METODO OPTIMIZAR PROBLEMA M
I
N
N
O
I
A
E
R
T
M
Z
X
Z
T
I
I
A
I
Q
T
O
P
R
M
P
F
A
D
Q
O
P
R
O
B
O
S
A
M
E
L
P
Página 7
Importancia de la Optimización Sin Restricciones La Optimización sin restricciones son importantes porque:
Permiten introducir muchos conceptos y explorar ideas que se usarán en problemas NLP
Antes de la aparición de los ordenadores de alta velocidad, los métodos de optimización estaban prácticamente limitados a los métodos indirectos en los cuales el cálculo del extremo potencial estaba restringido al uso de derivadas y las condiciones necesarias de optimalizad.
Página 8
Función de dos Variables Es una regla de correspondencia que asigna a cada pareja de números reales (x,y) un solo un numero real z El conjunto de parejas ordenadas para as cuales la regla de correspondencia da un numero real se llama dominio de la función. El conjunto de valores z que corresponden a los pares ordenados se llama imagen o contradominio. Una función de dos variables se denota usualmente con la notación z = f (x, y) Las variables x, y se llaman variables independientes, y z se llama variable dependiente. La gráfica de una función de dos variables es el conjunto de puntos con coordenadas (x, y, z) en donde (x, y) está en el dominio de f y z = f (x, y). Este conjunto de puntos forma una superficie en el espacio tridimensional.
Función de varias Variables
Como el dominio de f es un conjunto de puntos del plano x, y, y puesto que cada par ordenado (x, y) del dominio de f corresponde a solo un valor de z, ninguna recta perpendicular al plano x,y puede El deseo de intersectar a la grafica de f en abordar problemas del mundo real, nos conduce a mas de un punto. tomar en cuenta que, en general, cualquier situación Ejemplo ilustrativo 1 o fenómeno requiere de más de una variable para su precisa descripción. Por La función f del ejemplo 1 es ejemplo, el volumen de un el conjunto de todos los pares cilindro depende del radio ordenados de la forma (P, z) de la base y de su altura; la posición de un móvil en un tales que momento determinado z=v25- x2 -y2 requiere para su exacta especiación, además Por tanto, la grafica de f es la del tiempo, de las tres semiesfera en el plano x y por coordenadas espaciales. Si adicionalmente se requiere arriba de este cuyo centro es el la velocidad a la cual se origen y tiene radio 5. Esta desplaza, tendremos una semiesfera se muestra en la función vectorial f que a cada vector de cuatro figura 1. componentes (ubicación espacial y tiempo) le asigna la velocidad V del móvil en ese punto y en ese instante:
f(x; y; z; t) = v Observamos entonces que de acuerdo con la situación especifica que queramos describir, requerimos el tipo de función adecuada. Según si el dominio D y el rango R son subconjuntos de R; R2 o R3 las funciones se clasifican de la siguiente forma:
En cada caso, donde aparece R3 lo podemos sustituir por R2 y el nombre se conserva. En consecuencia, la grafica de una función f de dos variables es una superficie que consta de todos los puntos del espacio tridimensional cuyas coordenadas cartesianas están determinadas por las ternas ordenadas de números reales (x, y, z).
Las denominaciones escalar o vectorial se refieren a si la imagen de la función es un numero o es un vector. Ejemplo: la función g esta definida por g (x, y, z) = x2+y2-z ntonces el paraboloide circular z= x2+y2 Mostrado en la figura, es la superficie de nivel de g en 0. La superficie de nivel de g en el numero k tiene la ecuación z + k = x2 + y2 , un paraboloide circular cuyo vértice es el punto (0,0 –k) sobre el eje z. en al figura muestra las superficies de nivel para k igual a -4,-2, 0, 2 y 4
Página 9
MÉTODOS DE LA OPTIMIZACIÓN
Es
una
rama
de
las
matemáticas, consistente en el uso de modelos matemáticos, estadísticos y algoritmos con objeto de realizar un proceso de toma de decisiones. Frecuentemente trata del estudio de complejos sistemas reales, con la finalidad de mejorar (u optimizar) su funcionamiento. La investigación de operaciones permite el análisis de la toma de decisiones teniendo en cuenta la escasez de recursos, para determinar cómo se puede optimizar un objetivo definido, como la maximización de los beneficios o la minimización de costos.
AREA DE APLICACION: Algunas personas se verían tentadas a aplicar métodos matemáticos a cuanto problema se presentase, pero es que ¿acaso siempre es necesario llegar al óptimo? Podría ser más caro el modelar y el llegar al óptimo que a la larga no nos dé un margen de ganancias muy superior al que ya tenemos.
EJEMPLO La empresa EMX aplica Métodos de optimización y gasta por el estudio y el desarrollo de la aplicación $100 pero luego de aplicar el modelo observa que la mejora no es muy diferente a la que actualmente tenía. Podríamos pues indicar que la investigación de operaciones sólo se aplicará a los problemas de mayor complejidad, sin olvidar que el simple uso de los métodos de optimización. trae un costo, que de superar el beneficio, no resultará económicamente práctico, algunos ejemplos prácticos donde usar métodos de optimización. resulta útil son:
En el dominio combinatorio, muchas veces la enumeración es imposible. Por ejemplo, si tenemos 200 trabajos por realizar, que toman tiempos distintos y solo cuatro personas que pueden hacerlos, enumerar cada una de las combinaciones podría ser ineficiente (aparte de desanimarte). Luego los métodos de secuenciación serán los más apropiados para este tipo de problemas. De igual manera, los M.O. es útil cuando en los fenómenos estudiados interviene el azar. La noción de esperanza matemática y la teoría de procesos estocásticos suministran la herramienta necesaria para construir el cuadro en el cual se optimizará la función económica. Dentro de este tipo de fenómenos se encuentran las líneas de espera y los inventarios con demanda probabilística. Con mayor motivo, la investigación de operaciones se muestra como un conjunto de instrumentos precioso cuando se presentan situaciones de concurrencia. La teoría de juegos no permite siempre resolverlos formalmente, pero aporta un marco de reflexión que ayude a la toma de decisiones. Cuando observamos que los métodos científicos resultan engorrosos para nuestro conjunto de datos, tenemos otra opción, simular tanto el comportamiento actual así como las propuestas y ver si hay mejoras sustanciales. Las simulaciones son experiencias artificiales
Es importante resaltar que la investigación de operaciones no es una colección de formulas o algoritmos aplicables sistemáticamente a unas situaciones determinadas. Si se cae en este error, será muy difícil captar en condiciones reales los problemas que puedan deducirse de los múltiples aspectos de esta disciplina, la cual busca adaptarse a las condiciones variantes y particulares de los diferentes sistemas que puede afrontar, usando una lógica y métodos de solución muy diferentes a problemas similares mas no iguales.
Página 10
Estos métodos pueden agruparse en dos grandes clases: Métodos de optimización basados en derivadas Métodos de optimización basados en derivadas
Métodos de optimización no basados en derivadas
Sin derivadas es un área de creciente interés por su potencial
Métodos básicos de descenso •
Son técnicas básicas utilizadas en la solución iterativa de problemas de minimización sin restricciones
relación con aplicaciones en otras disciplinas, dado que es frecuente
no contar con una expresión explícita
•
Ofrecen la forma más simple y directa de resolver estos problemas
de
Ofrecen en términos prácticos una referencia con relación a la dificultad de implementación y velocidad de convergencia En general, las técnicas avanzadas se comparan con estas técnicas básicas
Estructura básica de los métodos básicos de descenso
Se inicia en un punto, x0
sino
experimentales o
sólo
datos
simulaciones
computacionales. Por lo tanto el objetivo general de este plan es desarrollar
•
funciones
involucradas en el problema de optimización
•
las
nuevos
algoritmos
eficientes y robustos basados en
estrategias adecuadas, analizando su convergencia y validando los mismos
mediante
implementaciones
y
experimentación numérica
Se determina la dirección de descenso mediante una regla fija (Primera diferencia entre algoritmos) Luego, se busca el mínimo en esa dirección (Búsqueda lineal)
¿Sabias Que?
Un problema de programación lineal está dado por una función lineal de varias variables que debe ser optimizada (maximizada o minimizada) cumpliendo con cierto número de restricciones también lineales.
Página 11
Ahora Bien..
CONOZCAMOS!!
MÉTODOS DIRECTOS No hacen uso de la información proporcionada por las derivadas Bajo estas circunstancias, estos métodos se pueden usar con bastante efectividad, pero son muy ineficientes comparados con los métodos discutidos en las siguientes secciones.
Tienen la ventaja de que estos métodos son muy simples de entender y muy fáciles de ejecutar Para llevar a cabo los métodos directos de minimización numérica solamente se usa el valor de la función objetivo. Se comienza con un valor inicial de x y se continúa seleccionando valores de x de acuerdo con una estrategia pre-seleccionada. El proceso termina cuando
Donde el superíndice k designa el número de iteración y ε es la tolerancia pre especificada o criterio de tolerancia
N
o hacen uso de la información proporcionada
por las derivadas. Bajo estas circunstancias, estos métodos se pueden usar con bastante efectividad, pero son muy ineficientes comparados con los métodos basados en derivadas. Tienen la ventaja de que estos métodos son muy simples de entender y muy fáciles de programar
MÉTODOS DE BUSQUEDA ALEATORIA Un método aleatorio simplemente selecciona un vector inicial , evalúa la función objetivo en ese punto y entonces aleatoriamente selecciona otro vector . Tanto la dirección de búsqueda como la longitud de búsqueda son elegidas simultáneamente. Después de una o más etapas, el valor de f ( ) se compara con el mejor valor previo de f(x) y se toma la decisión de continuar o terminar el procedimiento. Existen diversas variaciones de este algoritmo, aunque estrictamente hablando sólo se alcanza la solución cuando k → ∞, pero desde un punto de vista práctico, si el objetivo tiene una forma muy plana se pueden encontrar soluciones subóptimas bastante aceptables.
Tienen la ventaja de que estos métodos son muy simples de entender y muy fáciles de ejecutar
Página 12
MÉTODOS DE BUSQUEDA EN REJILLA Los métodos básicos de diseño de experimentos discutidos en muchos textos de estadística, se pueden aplicar también a minimización de funciones.
MÉTODOS SIMPLEX FLEXIBLE
Se pueden seleccionar una serie de puntos alrededor de un punto base de referencia, de acuerdo a algunos de los diseños del tipo que se muestra en la siguiente figura.
Este método se basa en una figura regular (conocida simplex) como base. Así dimensiones tal figura debería triángulo equilátero.
Después se pasa al punto que más mejora la función objetivo y se continúa la búsqueda.
Los experimentos se localizan de tal manera que la función objetivo se evalúa en cada uno de los vértices que forman la figura geométrica.
Sin embargo el sistema es muy ineficaz, por ejemplo con n=10 y una búsqueda factorial a tres niveles deberíamos realizar -1=59048 evaluaciones de la función objetivo, lo cual es obviamente prohibitivo.
tomar como en 2 ser un
Los valores de la función objetivo obtenida en cada uno de los vértices se comparan entre sí rechazando el peor valor de todos formando una nueva figura geométrica por reflexión del peor de los puntos respecto a los que no han sido rechazados.
Otro método muy sencillo de optimización consiste en seleccionar n direcciones fijas de búsqueda.
MÉTODOS DE BÚSQUEDA UNIVARIANTE
Para N variables, (habitualmente los ejes coordenados) de tal manera que f(x) se minimiza de forma secuencial usando búsquedas unidimensionales en cada una de las direcciones previamente seleccionadas. El método suele ser bastante ineficaz incluso llegando a puntos muy alejados del óptimo de los cuales no puede salir.
REVISTA DIGITAL OPTIMIZACIÓN Página 13
METODO NEWTON H I S T O R IA F ue descrito por I saac N ewton
En De analysi per aequationes numero terminorum infinitas ('Sobre el análisis mediante ecuaciones con un número infinito de términos', escrito en 1669, publicado en 1711 por William Jones) y en De metodis fluxionum et serierum infinitarum (escrito en 1671, traducido y publicado como Método de las fluxiones en 1736 por John Colson)
E l método de N ewton- R aphson Es llamado así por el matemático inglés Joseph Raphson (contemporáneo de Newton) se hizo miembro de la Royal Society en 1691 por su libro "Aequationum Universalis", publicado en 1690, que contenía este método para aproximar raíces. Newton en su libro Método de las fluxiones describe el mismo método, en 1671, pero no fue publicado hasta 1736, lo que significa que Raphson había publicado este resultado 46 años antes. Aunque no fue tan popular como los trabajos de Newton, se le reconoció posteriormente
Sin embargo, su descripción difiere en forma sustancial de la descripción moderna presentada más arriba: - Newton aplicaba el método solo a polinomios, y no consideraba las aproximaciones sucesivas xn, sino que calculaba una secuencia de polinomios para llegar a la aproximación de la raíz x. Finalmente, Newton ve el método como puramente algebraico y falla al no ver la conexión con el cálculo. Isaac Newton probablemente derivó su método de forma similar aunque menos precisa del método de François Viète. La esencia del método de Viète puede encontrarse en el trabajo del matemático persa Sharaf al-Din al-Tusi.
El método de Newton hace uso de la aproximación de segundo orden de la función utilizando las derivadas segundas con respecto a cada una de las variables independientes. De esta forma es posible tener en cuenta la curvatura de la función en el punto e identificar las mejores direcciones de búsqueda. El mínimo de f(x) se obtiene diferenciando la aproximación cuadrática de f(x) con respecto a cada una de las variables e igualando a cero.
Página 14
¿QUÉ ES EL METODO DE NEWTON? Es
un método abierto, en el sentido de que no está garantizada su convergencia global. La única manera de alcanzar la convergencia es seleccionar un valor inicial lo suficientemente cercano a la raíz buscada. Así, se ha de comenzar la iteración con un valor razonablemente cercano al cero (denominado punto de arranque o valor supuesto). La relativa cercanía del punto inicial a la raíz depende mucho de la naturaleza de la propia función; si ésta presenta múltiples puntos de inflexión o pendientes grandes en el entorno de la raíz, entonces las probabilidades de que el algoritmo diverja aumentan, lo cual exige seleccionar un valor puesto cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método, una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones hasta que el método haya convergido lo suficiente. Sea f: [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimos para cada número natural
n
Donde f ' denota la derivada de f. Nótese que el método descrito es de aplicación exclusiva para funciones de una sola variable con forma analítica o implícita conocible. Existen variantes del método aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etcetera.
Convergencia del Método El orden de convergencia de este método es, por lo menos, cuadrático. Existen numerosas formas de evitar este problema, como pudieran ser los métodos de aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen.
Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual no siempre es posible. Por ello también se puede modificar el algoritmo tomando una función auxiliar g(x) = f(x)/f'(x), resultando:
Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si f(x) no es fácilmente derivable. Por otro lado, la convergencia del método se demuestra cuadrática para el caso más habitual sobre la base de tratar el método como uno de punto fijo: si g '(r)=0, y g''(r) es distinto de 0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de estos métodos. Nótese de todas formas que el método de Newton-Raphson es un método abierto: la convergencia no está garantizada por un teorema de convergencia global como podría estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el teorema de convergencia local.
Página 15
MÉTODO LANGRAJE Para optimizar una función de distintas
variables existe una serie de métodos y uno de ellos es el de Lagrange, un procedimiento
para
encontrar
Método de los multiplicadores de Lagrange
los
llamados así en honor máximos y mínimos de funciones de a múltiples variables sujetas a restricciones. Este
método
reduce
el
problema
restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas
ecuaciones pueden ser resueltas más
JosephLouisLagrange.
fácilmente.
Es un procedimiento para encontrar los Su demostración involucra derivadas máximos y mínimos de funciones de parciales, o bien usando diferenciales múltiples variables totales, o sus parientes cercanos, la regla sujetas a restricciones de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.
Existen en todas las ramas de la ciencia, en la Física, en la Matemática, en la Química, en la Astronomía, en Biología, en Economía etc. Situaciones en las que conociendo un conjunto de datos experimentales en un cierto intervalo de la variable independiente, esto es, conociendo una cierta cantidad de datos tabulados, se hace preciso encontrar una función que verifique todos esos datos y permita, por consiguiente, predecir la existencia de otros valores con la aproximación adecuada.
Página 16
MÉTODO DEL GRADIENTE CONJUGADO
Xk entonces:
¿SABÍAS QUÉ? El método de Newton (conocido también como el método de Newton-Raphson o el método de NewtonFourier). Es un algoritmo eficiente para encontrar aproximaciones de los ceros o raíces de una función real
Página 17
Pรกgina 18
Caso Prácticos Calcular las derivadas parciales de:
a) f(x,y)= 𝑥 2 ´ + 2𝑦 + 3𝑥𝑦2 b) f(x,y)= 2𝑥 2 − 4𝑥 2 𝑦 + 5𝑦 c) f(x,y)= 3𝑥 2 − 𝑥 + 𝑥𝑦 a) f(x,y)= 𝑥 2 ´ + 2𝑦 + 3𝑥𝑦2
𝜕𝑓 = 2𝑥 + 0 + 3𝑦 2 𝜕𝑥 𝜕𝑓 = 2x + 3𝑦 2 𝜕𝑥 𝜕𝑓 = 0 + 2 + 6xy 𝜕𝑦
b) f(x,y)= 2𝑥 2 − 4𝑥 2 𝑦 + 5𝑦 𝜕𝑓 = 4𝑥 − 8𝑥𝑦 + 0 𝜕𝑥 𝜕𝑓 = 0 − 4𝑥 2 + 5 𝜕𝑦 c) f(x,y)= 3𝑥 2 − 𝑥 + 𝑥𝑦 𝜕𝑓 1 𝑦 = 6𝑥 − + 𝜕𝑥 2 𝑥 2 𝑥𝑦
𝜕𝑓 𝑥 =0−0+ 𝜕𝑦 2 𝑥𝑦 Página 19
Caso PrĂĄcticos Se lanza un nuevo producto al mercado. El volumen de ventas x se incrementa como una funciĂłn del tiempo t y despuĂŠs tambiĂŠn de la cantidad A gastada en la campaĂąa publicitaria. Si, con T medido en meses y A en dĂłlares.
đ?‘Ľ = 200 5 − đ?‘’ −0,002 đ??´ 1 − đ?‘’ −đ?‘Ą Calcule dx/da. EvaluĂŠ estas derivadas cuando t=1 y A=400 e interprĂŠtalas
đ?‘Ľ = 200 5 − đ?‘’ −0,002 đ??´ 1 − đ?‘’ −đ?‘Ą đ?œ•đ?‘Ľ = 200 5 − đ?‘’ −0,002 đ??´ . 1 − đ?‘’ −đ?‘Ą đ?œ•đ?‘Ą đ?œ•đ?‘Ľ = 200 5 − đ?‘’ −0,002.400 . đ?‘’ −đ?‘Ą đ?œ•đ?‘Ą đ?œ•đ?‘Ľ = 200 5 − đ?‘’ −0,002.400 . đ?‘’ −1 đ?œ•đ?‘Ą đ?œ•đ?‘Ľ đ?œ•đ?‘Ľ = 200 5 − đ?‘’ −0,8 . đ?‘’ −1 = = 334,81 đ?‘‰đ?‘‚đ??ż/đ?‘€đ??¸đ?‘† đ?œ•đ?‘Ą đ?œ•đ?‘Ą
En funciĂłn de 0 đ?œ•đ?‘Ľ = 200 1 − đ?‘’ −đ?‘Ą ). (5 − (đ?‘’ −0,002 đ??´ .1 ) đ?œ•đ?‘Ž = 200(1 − đ?‘’ −đ?‘Ą )(0 − −0,002 . đ?‘’ −0,002 đ??´ ) = 200 1 − đ?‘’ −đ?‘Ą (đ?‘’ −0,002 đ??´ )
= 200 1 − đ?‘’ −đ?‘Ą (đ?‘’ −0,002.400 ) = 200 0,632 0,4493 = 56,79$ El volumen mĂĄximo de producciĂłn en un mes es: =334,81 El ingreso neto de las ventas es de: =56,79$ PĂĄgina 20
Caso PrĂĄcticos Calcula dos nĂşmeros que cumplan que al sumarlos resulte 10 y la resta de uno de ellos menos el inverso del otro sea mĂnima CondiciĂłn: x + y = 10, de donde y= 10 - x CondiciĂłn: x + y= 10, de donde y = 10 - x La funciĂłn:
F (x,y)= x F(x)= x -
1 đ?‘Ś
1 10−đ?‘Ś
→ F(x)=
−đ?‘Ľ 2 +10đ?‘Ľâˆ’1 10−đ?‘Ľ
→ F´(x)=
đ?‘Ľ 2 +20đ?‘Ľ+99 10−đ?‘Ľ 2
F’(x)=0 → x=9, x=11 −2 (10−đ?‘Ľ)3
F´(x)=
PĂĄgina 21
Sin Restricciones
Instituto Universitario Politécnico “Santiago Mariño” Extensión Maracay AUTORES: JOSÉ CASTELLANOS ALICIA CASAMAYOR MARCO SARMIENTO Prof.: Lic. Luis Aponte
Página 22