Revista optimizacion

Page 1

REPUBLICA BOLIVARIANA DE VENEZUELA INSTITUTO UNIVERSITARIO POLITECNICO “SANTIAGO MARIÑO” EXTENSION MARACAY ESTADO ARAGUA

Prof.: Luis Aponte Optimización de Operaciones

Maracay, 13 junio 2014

Autores: David mora C.I 19.24.7275 Carlos Castillo C.I 20.108.470


de dos variables.

Para que una función como f = z (x,y) tenga un mínimo o máximo relativo, tres condiciones deben ser satisfechas : Las derivadas parciales de primer orden deben simultáneamente ser iguales a cero. Ello indica que en un punto dado 8ª,b) llamado “punto crítico”, la función no esta creciendo ni decreciendo con respecto a los ejes principales sino a una superficie relativa. Las derivadas parciales de segundo orden deben ser negativas cuando ellas son evaluadas en el punto crítico (a,b) para un máximo relativo y positivas para un mínimo relativo. Ello asegura que la función es cóncava y moviéndose hacia abajo en relación a los ejes principales en el caso de un máximo relativo y la función es convexo y moviéndose hacia arriba en relación a los ejes principales en el caso de un mínimo relativo. El producto de las derivadas parciales de segundo orden en el punto crítico deben exceder el producto de las derivadas parciales cruzadas también evaluadas en dicho punto. Esta condición adicional es necesaria para evitar un punto de inflexión o punto de silla.


Mínimo

Máximo

Punto de Silla



en una aproximación de las derivadas parciales por expresiones algebraicas con los valores de la variable

dependiente

en

un

limitado

número

de

puntos

seleccionados. de la aproximación, la ecuación diferencial

parcial que describe el problema es reemplazada por un número finito de ecuaciones algebraicas, en términos de los valores de la variable dependiente en puntos seleccionados.


Los métodos Quasi-Newton, se utilizan si la derivada de la función objetivo es difícil de calcular, o ésta viene dada de forma numérica. Se basan en sustituir las derivadas por aproximaciones en diferencias finitas.

La idea fundamental de los métodos Quasi-Newton es intentar construir una aproximación de la inversa del Hessiano, usando información obtenida durante el proceso de descenso Estos métodos son similares a los métodos de gradiente conjugado en el sentido de que se basan principalmente en propiedades de las funciones cuadráticas.


Cuando

el polinomio que conviene es de 2º grado la interpolación recibe el nombre de cuadrática. El polinomio interpolador es único, luego como se encuentre da igual., sin embargo, a veces los cálculos son muy laboriosos y es preferible utilizar un método que otro. A la vista de los datos se decide.


El resultado del proceso de construcción de un modelo es una ecuación. El procedimiento de construcción del modelo experimental y la secuencia experimental son usados en la búsqueda de una región para la respuesta de mejora que es el método de ascendencia rápida . Aquí se usaran diseños experimentales factoriales o fraccionados la economía y simplicidad del diseño pueden ser muy importantes. El diseño de experimentos es un procedimiento que construye una secuencia de experimentos para obtener una región de mejora que constituya un método de mejora ascendente.

Así el resultado total de operaciones puede involucrar más de un experimento. Uno de los principios que asumimos es que el modelo se puede representar en un plano lo cual es una aproximación razonable de un sistema inicial en la región X1, X2, X3,…Xk .


1. Decidimos un modelo de primer orden apropiado a un plano o un hiperplano usando el diseño ortogonal. Dos niveles de diseño pueden ser los apropiados aunque las corridas centrales sean las más recomendadas. 2. Calcular una trayectoria de ascenso pronunciado si se quiere maximizar la respuesta (máximo incremento). Si se requiere la mínima respuesta, uno debe calcular la trayectoria descendente (máximo decremento)..

3. La conducta experimental corre separada de la trayectoria. Esto es que se tiene una corrida y se realizan otras para comparar los resultados. Los resultados normalmente muestran los valores de la respuesta mejorada. Para alguna región la mejora desciende y eventualmente desaparece. Frecuentemente la primera corrida es tomada cerca del perímetro del diseño.(Se busca el valor de 1 para la variable más importante y así se confirma el experimento).


4. Para algún punto tenemos una aproximación del máximo o del mínimo que se localiza en la trayectoria. Se elige la base del segundo experimento. El diseño puede ser otra vez de primer orden. Se toma las corridas centrales para probar la curvatura y los grados de libertad.

5. Se realiza un segundo experimento se ajusta a los datos. Se realiza la prueba de carencia de ajuste. Si la carencia de ajuste no es significativa, se obtiene una segunda trayectoria de un nuevo modelo. Esto generalmente se llama corrección a medio camino. Se conducen experimentos sencillos o replicados para obtener una segunda trayectoria. Es una razón por la cual la mejora no es tan fuerte como en la primera trayectoria. Después que la mejora va disminuyendo se elaboran experimentos y procesos de optimización más sofisticados.


DESARROLLO DEL PROCEDIMIENTO:

El movimiento en Xj en la trayectoria de ascenso pronunciado es proporcional a la magnitud de los coeficientes de regresión bj con la dirección tomada de los signos de los coeficientes. La trayectoria descendente necesita que la dirección sea opuesta al signo del coeficiente. POR EJEMPLO: si se produce una ecuación Y = 20+3 X1 -1.5 X2 . La trayectoria es en X1 positiva y en X2 negativa. Además X1 se mueve el doble de X2 por cada unidad. La figura 1 indica la naturaleza de la trayectoria de ascenso pronunciado para este ejemplo. La trayectoria esta dad por los renglones nota que la trayectoria es perpendicular a la línea de respuesta constante. Para K = 3 las líneas se convierten en planos y la trayectoria se mueve perpendicular a estos planos. Mientras la trayectoria que se obtiene del movimiento de Xj es proporcional a los coeficientes de regresión bj. Quizá el lector entienda mejor en base al desarrollo matemático del procedimiento.


1.- El ascenso pronunciado es la primera técnica de optimización. Funciona si empezamos en un punto alejado del óptimo. Si usas un un punto en el extremo de la superficie de respuesta el ascenso pronunciado lo conseguirás moviéndote muy poco del punto de salida.

2.- En ocasiones es útil hacer observaciones individuales en cada punto de la trayectoria, replicas u otras corridas.

3.- También se pueden aplicar otras técnicas de optimización. Existen algunos métodos para el ascenso más rápido.

4.-

Algunos diseños se ajustan después de las primeras mediciones, dependiendo de los resultados obtenidos. Se debe tener cuidado porque es fácil perder la región del optimo.


¿Qué hay sobre la segunda fase? Si se modifica el sistema o se ajusta después de la primera lectura, el resultado no dará información sobre la primera etapa de experimentación. Se deben tener presentes los grados de libertad para saber si es útil el ajuste posterior o nos causara más problemas. Si tenemos un grado de libertad la función será cuadrática y esto determina la curvatura. En este caso la metodología del ascenso o descenso pronunciado se vuelve ineficiente.: Cuando los términos de segundo orden estén relacionados y además estén al cuadrado son dominantes y no podemos hablar de ascenso pronunciado. Si los términos de segundo orden son estadísticamente significativo entonces aproximaremos con los de primer orden siempre y cuando sea razonable una estrategia de experimentación.

¿Qué pasa después del ascenso pronunciado? La mejora en la calidad implica análisis y diseño de experimentos, cuando es exitosa es una experiencia interactiva. si la curvatura y la interacción se encuentran entonces el procedimiento de ascenso pronunciado será truncado. En este punto el investigador está seguro de encontrar mejores condiciones en ajustar a un segundo modelo. El diseño de primer orden de dos niveles con corridas centrales incrementa la posibilidad de estimar términos de segundo orden.


La elección de los rangos de los factores es una decisión importante y no debe ser tomado a la ligera. Si se hace una decisión descuidada se obtiene un ineficiente proceso de optimización. Desde el principio se deben establecer las unidades en las que cada variable será medida y claro que el conocimiento en el sistema será una de las claves de la elección. Se debe usar la información disponible, más actual. Un cambio en la escala no cambia la dirección de los factores pero si puede cambiar la trayectoria de ascenso; un cambio de magnitud de un factor. Suponiendo que tenemos una situación ideal donde X1 es el tiempo y X2 es la temperatura y la estructura de la regresión que involucra un beneficio es la siguiente.

Donde Beta es el coeficiente correspondiente a (+1, -1) donde la temperatura es de 50 oC y el tiempo de 1.0 hr. supongamos que el investigador A elige los rangos (+1,-1) mientras el investigador B elige 50 oC pero .5 del tiempo de nuevo en (+1,-1). El modelo para el investigador B estará dado por


Suponga que el investigador A elige los factores en el rango r1,r2,…rK y el investigador B elige los valores en el rango r´1,r´2,…r´k , donde aj =rj/r´j. Se refiere a que los movimientos relativos a lo largo de la trayectoria son como siguen: Δ1 , Δ2 ,… ΔK y Δ´1 Δ{2 ,…, Δ{k para el investigador A y B respectivamente son Δ j/ Δ´j = a2j para j=1,2,…k Con lo anterior sabemos que no importa que investigador establezca la escala de los factores sino de cuanto conocimiento tenga del sistema que maneja. Como lo vimos anteriormente cada sistema en particular nos permite una mejor elección del rango de los factores dependiendo que tan estudiado este el sistema. Un vistazo general nos dice que podemos obtener una mejora con ascenso pronunciado si tenemos varias trayectorias posibles para la mejora. El método en si mismo nos enseña a elegir cada vez mejor los rangos en los que se deben mover los factores particularmente donde la meta es la optimización.



E

ste método introduce una nueva variable escalar

desconocida, el multiplicador de LaGrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena

E

n

los

problemas

de

optimización,

los

multiplicadores de LaGrange, nombrados así en honor a Joseph Louis LaGrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.


L

o

propuso

Joseph

Louis

LaGrange (1736-1813), un matemático nacido en Italia. Sus multiplicadores lagrangian tienen aplicaciones en una variedad de campos, incluyendo el físico, astronomía y económica. La lectura de una obra del astrónomo inglés Edmund Halley despertó su interés, y, tras un año de incesante trabajo, era ya un matemático consumado. nombrado profesor de la Escuela de Artillería, en 1758 fundó una sociedad, con la ayuda de sus alumnos, que fue incorporada a la Academia de Turín.

En

su

obra

Miscelánea

taurinensia, escrita por aquellos años, obtuvo, entre otros resultados, una ecuación diferencial general del movimiento y su adaptación para el caso particular del movimiento rectilíneo, y la solución a muchos problemas de dinámica mediante el cálculo de variantes.

Realizó

un trabajo sobre el equilibrio lunar, donde razonaba la causa de que la Luna siempre mostrara la misma cara, le supuso la concesión, en 1764, de un premio por la Academia de Ciencias de París. En 1795 se le concedió una cátedra en la recién fundada École Normale, que ocupó tan solo durante cuatro meses. Dos años más tarde, tras la creación de la École Polytechnique, LaGrange fue nombrado profesor, y quienes asistieron a sus clases las describieron como «perfectas en forma y contenido»


El método de los Multiplicadores de LaGrange, es un procedimiento para encontrar los máximos y mínimos de funciones de múltiples variables sujetas a restricciones. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al número de restricciones, y cuyas ecuaciones pueden ser resueltas más fácilmente. El método dice que los puntos donde la función tiene un extremo, condicionado con n restricciones, están entre los puntos estacionarios de una nueva función sin restricciones construida como una combinación lineal de la función y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores.

La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una función implícita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero.

una función definida en un conjunto abierto n-dimensional {x ∈ Rn}. Se definen s restricciones gk (x) = 0, k=1,..., s, y se observa (si las restricciones son satisfechas) . Se procede a buscar un extremo para h:

Lo que es equivalente a:

Demostración Los multiplicadores desconocidos λk se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e. gk=0), lo que implica que f ha sido optimizada.


IDENTIFICAR, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función restricción donde la función principal tiene extremos.

INTERPRETAR gráficamente los resultados obtenidos empleando el método de multiplicadores de LaGrange.

APROXIMAR las soluciones del problema a partir de la observaciones cuádricas y curvas de nivel para distintos valores de la variable z.

APROXIMAR las soluciones del problema a partir de la observación en el simulador, de las curvas de nivel de la función principal y la curva correspondiente a la función condicionante.

VISUALIZAR

algunas superficies cuádricas y curvas de nivel para distintos valores de la variable z.

ADQUIRIR habilidad en la resolución de problemas de optimización en un ambiente computacional.


Como en el caso no restringido en el que usamos la matriz Hessiana y el criterio de Sylvester para determinar la naturaleza de los puntos críticos, en presencia de multiplicadores de LaGrange existe un método análogo para descubrir si un punto crítico v0 es máximo, mínimo, o punto silla.

 Si |H|>0 entonces v0 es un máximo local en f limitada a S  Si |H|<0 entonces v0 es un mínimo local en f limitada a S  Si |H|=0 entonces el criterio no concluye nada


Examinamos

los determinantes de las submatrices en la diagonal de orden mayor o igual a 3:  Si todos ellos son mayores que 0, tenemos un mínimo local en v0.  Si el primer subdeterminantes de tamaño 3x3 es mayor que cero, el siguiente (el de 4x4) es menor que cero, y de esa manera los subdeterminantes van alternando su signo, tenemos un máximo local en v0

 Si todos los subdeterminantes son distintos de cero, pero no siguen ninguno de los dos patrones anteriores, tenemos un punto silla en v0.

 Si no se da ninguno de los tres casos anteriores, el criterio no concluye nada.


.

Un problema clásico en economía es la forma de maximizar la utilidad pese a limitaciones de recursos, como el tiempo y el dinero. El método lagrangiano utiliza una técnica proveniente del

cálculo para medir de modo matemático la forma en que los consumidores pueden lograr satisfacción máxima y los negocios pueden maximizar el beneficio (o minimizar los costos) con los límites dados.


Función El método la grangiano aplica cálculo diferencial, el cual implica el cálculo de derivadas parciales, y hasta temas de optimización restringida. El propietario de un negocio, por ejemplo, puede utilizar esta técnica para maximizar el beneficio o minimizar los costos dado que el negocio tiene sólo una cierta cantidad de dinero para invertir. Un consumidor hipotético, que, por ejemplo, deriva la utilidad de coleccionar libros y CD, podría utilizar este método para determinar la forma de obtener el número óptimo de libros y CD, dado que sólo tiene US$100 de ingresos disponibles para gastar.

Basado en los resultados de un análisis la grangiano, una persona o empresa tiene una base empírica para tomar decisiones sobre la maximización continua de la utilidad teniendo en cuenta los cambios de las restricciones externas. Un incremento del precio en un artículo favorito, por ejemplo, podría llevar a que el consumidor compre una cantidad más baja de ese artículo o que trabaje más horas para conseguir más ingresos y costear el precio más alto00000000

El multiplicador la grangiano, representado en la ecuación por la letra minúscula griega lambda, representa la tasa de cambio en la utilidad relativa al cambio en la restricción de presupuesto. En economía, esto se conoce como el valor o utilidad marginal, el aumento en la utilidad ganada por un aumento en la restricción de presupuesto.


Una teoría clave en la economía neoclásica, la base de la mayoría del pensamiento económico tradicional, es que los consumidores y negocios son actores racionales que se esfuerzan por maximizar su utilidad. En el lado del consumidor, esto significa obtener el nivel más alto de satisfacción por los bienes y servicios consumidos. Para los negocios, la utilidad máxima significa maximizar el beneficio. Los economistas reconocen que las personas y empresas tienen necesidades ilimitadas, pero sólo existen

recursos finitos para satisfacer esas necesidades. Los consumidores tienen ingresos limitados para comprar los bienes y servicios que deseen y las empresas tiene sólo tierra, trabajo y capital limitado para crear sus productos. Estos recursos limitados, entonces, presentan restricciones. El reto es la forma de lograr la satisfacción o beneficio máximo en base a sus restricciones dadas. Otro reto para las empresas es el de minimizar los costos de producción mientras alcanzan los niveles esperados de

producción. El método lagrangiano proporciona una forma de resolver cuantitativamente estos problemas, a los que algunos economistas se refieren como problemas de optimización con restricciones.


MÉTODOS PARA LA DETERMINACIÓN DEL SIGNO DE UNA FORMA CUADRÁTICA NO RESTRINGIDA AUTOVALORES DE UNA MATRIZ A (matrices simétricas) Se trata de obtener las raíces de la ecuación característica: A- = 0 donde A es la matriz cuadrada de orden n, es la matriz identidad de orden n. DEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE DEFINIDA POSITIVA DEFINIDA NEGATIVA SEMIDEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE

i > 0, i=1,...,n i < 0, i=1,...,n

SEMIDEFINIDA POSITIVA

i0, i=1,...,n con al menos un j =0 y un k>0 , 1k,jn

SEMIDEFINIDA NEGATIVA

i0, i=1,...,n con al menos un j =0 y un k<0 , 1k,jn

INDEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE INDEFINIDA

i >0 j<0

NULA CONDICIÓN NECESARIA Y SUFICIENTE

NULA

i = 0, i=1,...,n

AUTOVALORES DE UNA MATRIZ A (matrices simétricas) Se trata de obtener las raíces de la ecuación característica: donde A es la matriz cuadrada de orden n, es la matriz identidad DEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE DEFINIDA POSITIVA DEFINIDA NEGATIVA SEMIDEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE SEMIDEFINIDA POSITIVA

SEMIDEFINIDA NEGATIVA

A- = 0 de orden n.

i > 0, i=1,...,n i < 0, i=1,...,n

i0, i=1,...,n con al menos un j =0 y un k>0 , 1k,jn i0, i=1,...,n con al menos un j =0 y un k<0 , 1k,jn

INDEFINIDAS CONDICIÓN NECESARIA Y SUFICIENTE INDEFINIDA NULA CONDICIÓN NECESARIA Y SUFICIENTE NULA

i >0 j<0

i = 0, i=1,...,n


Planteamiento: Opt. F(x) s. a: hi(x)=bi , con i= 1, ..., m. Las ecuaciones son funcionalmente independientes: rg(Jh(x))=m para al menos un punto x  Dh, siendo n>m , n= nº de variables, y m=nº de restricciones. Para una función lagrangiana como ésta:, las condiciones de primer orden (necesarias) y las de segundo orden(suficientes), es decir, tras haber cumplido las de primer orden, son las siguientes, siempre que L(x,)C2 en (x*,*).

CONDICIÓN NECESARIA DE ÓPTIMO (primer orden) L(x*,*)= CONDICIÓN SUFICIENTE DE MÁXIMO LOCAL (2º orden) HL(x*,*) DEFINIDA NEGATIVA

CONDICIÓN SUFICIENTE DE MÍNIMO LOCAL (2º orden) HL(x*,*) DEFINIDA POSITIVA


C.S. DE EXTREMO LOCAL (segundo orden)

HL( x* , *) DEFINIDA NEGATIVA  ( x* , *) MAXIMO LOCAL de L(x,  )  * x MAXIMO LOCAL de F(x) sujeta a h(x) = b

HL( x* ,  *) DEFINIDA POSITIVA  ( x* ,  *) MINIMO LOCAL de L(x,  )  * x MINIMO LOCAL de F(x) sujeta a h(x) = b


La matriz hessiana de la función lagrangiana es: Si las m primeras columnas de la matriz jacobiana de las restricciones en el punto crítico, Jh(x*), son L.I.(linealmente independientes: determinante distinto de cero) las condiciones planteadas actuarán como condición necesaria y suficiente. Si las m primeras columnas de la matriz jacobiana de las restricciones en el punto crítico, Jh(x*), son L.D.(linealmente dependientes, determinante formado por esas m columnas es nulo) las condiciones planteadas actuarán sólo como condición suficiente.

Ejemplo de construcción de los menores orlados: Opt. F(x1, x2, x3, x4, x5) sujeto a: h1(x1, x2, x3, x4, x5)=b1 h2(x1, x2, x3, x4, x5)=b2 Se trata de un problema de 5 variables y 2 restricciones.(n=5, m=2). La matriz hessiana es una matriz de 7 por 7 (5+2). Los menores orlados a calcular son los de orden r = m+1, ..., n = 3, 4, 5. Hay que calcular tres menores orlados, los de orden 3, 4 y 5 (serán

determinantes de orden 5, 6 y 7 respectivamente): H3* , H4* , H5* .


L((x1, x2, x3, x4, x5)= = F(x1, x2, x3, x4, x5)+ 1  b1 - h1(x1, x2, x3, x4, x5)+ 2  b2 h2(x1, x2, x3, x4, x5) Suponiendo que en el punto crítico (x*, *), la matriz hessiana de la función lagrangiana es la siguiente:

HL( x* , *) =

1 2 0 5 4 -1 2

2 3 -1 0 0 0 3

0 -1 4 1 3 0 1

5 0 1 7 9 2 11

4 0 3 9 8 4 3

-1 0 0 2 4 0 0

2 3 1 11 3 0 0

Para formar el H3* se toman las tres primeras filas y tres primeras columnas de la matriz hessiana de la función lagrangiana en el punto crítico, y se orlan con las tres primeras columnas de la matriz jacobiana de las restricciones con signo cambiado, y las tres primeras filas de la matriz jacobiana de las restricciones traspuesta con signo cambiado ("con signo cambiado" dado como está construida la función lagrangiana del problema. Para los menores orlados de orden 4 y 5 se hará lo mismo, pero en vez de tomar 3 filas y 3 columnas, se tomarán 4 y 5, respectivamente. Nótese que el menor orlado de orden 5 es el determinante de la matriz hessiana de la función lagrangiana.


Para H3*

HL( x ,  ) = *

*

1 2 0 5 4 -1 2

2 3 -1 0 0 0 3

0 -1 4 1 3 0 1

5 0 1 7 9 2 11

0 -1 4 1 3 0 1

5 0 1 7 9 2 11

4 0 3 9 8 4 3

-1 0 0 2 4 0 0

2 3 1 11 3 0 0

H*3 =

1

2

0

-1

2

2 0 -1 2

3 -1 0 3

-1 4 0 1

0 0 0 0

3 1 0 0

Para H4*

HL( x* , *) =

1 2 0 5 4 -1 2

2 3 -1 0 0 0 3

4 0 3 9 8 4 3

-1 0 0 2 4 0 0

2 3 1 11 3 0 0

H*4 =

1 2 0 5 -1 2

H5* = │HL│ NOTA: Como las m, 2, primeras columnas de Jh(x) son L.I., las condiciones enunciadas anteriormente actúan como CN y S.

1 0  0 2 3

2 3 -1 0 0 3

0 -1 4 1 0 1

5 0 1 7 2 11

-1 0 0 2 0 0

2 3 1 11 0 0


1º.- Planteamiento de la siguiente ecuación:

HLxx - I - Jh( x* )

- Jht ( x* )

0

con   M mxm

 i > 0 i  1, 2,, n  DEFINIDA POSITIVA  i < 0 i  1, 2,, n  DEFINIDA NEGATIVA  i  0 i  1, 2,, n,  i > 0 y  j  0  SEMIDEFI NIDA POSITIVA  i  0 i  1, 2,, n,  i  0 y  j  0  SEMIDEFINIDA NEGATIVA  i > 0 y  j < 0  INDEFINIDA


La

matriz hessiana de la función lagrangiana representa a una forma cuadrática restringida a un subespacio. La forma cuadrática viene representada por la submatriz HLxx y el subespacio viene caracterizado por el producto de la matriz jacobiana de las restricciones en x* por el vector de incrementos infinitesimales de las variables igualado a un vector nulo de Rm (m= nº de restricciones), es

decir, por la expresión, Jh(x*) dx = 0. Este sistema de ecuaciones lineales que caracterizan a un subespacio vectorial permite despejar m dxj en función del resto. Se sustituyen estos dxj en el polinomio cuadrático de la forma cuadrática q(dx)= dxt HLxx dx. Después se considera que la forma cuadrática ya no está definida en Rn , pues sólo dependerá de (n-m) dxi , por lo que se determinauna matriz simétrica de orden (n-m) que representa a la

forma cuadrática restringida.Se estudia el signo de dicha matriz considerándola como la de una forma cuadrática no restringida.Por tanto, los pasos a seguir son:

1º.- Planteamiento del sistema de m ecuaciones Jh(x*) dx = 0. 2º.- “Resolución” del sistema compatible indeterminado (Cramer) despejando m variables, dxj , en función de las (n-m) restantes. 3º.- Sustitución de esas variables en el polinomio cuadrático dxt HLxx dx . 4º.- Obtención de la matriz simétrica de orden (nm) que represente a la forma cuadrática restringida. 5º.- Estudio del signo de la matriz obtenida en el paso anterior mediante alguno de los métodos ya explicados para formas cuadráticas no restringidas (autovalores, menores principales conducente...).


Polinomio de Taylor Sea f(x) una función derivable hasta orden n en x = c. • El polinomio de Taylor de f(x) en x = c es Pn(x) = f(c) + f0(c)1! (x − c) + f00(c)2! (x − c)2 + ··· + f(n)(c)n! (x − c)n .

Cuando c = 0, resulta el polinomio de McLaurin

Pn(x) = f(0) + f0(0)1! x + f00(0)2! x2 + ··· + f(n)(0) Propiedad: Si Pn(x) es el polinomio de Taylor de orden n de f(x) en x = c, entonces se cumple Pn(c) = f(c), P0n(c) = f0(c), P00n (c) = f00(c),..., P(n) n (c) = f(n)(c).

Aplicación Los polinomios de Taylor permiten aproximar el valor de una función f(x) para x próximos a c. Observa que para construir el polinomio de Taylor usamos únicamente valores de f y sus derivadas (consecutivas) en x = c.



Ejercicio 8 calcular derivadas parciales Calcular las derivadas parciales de: a) f(x, y)=x2+2y+3xy2 b) f(x, y)=2x2 -4x2y+5y c) f (x, y)= 3 đ?‘‹2 − đ?‘Ľ + đ?‘Ľđ?‘Ś Resultado a a) f (x, y)= đ?‘Ľ2 + đ??&#x;^ 2đ?‘Ś + 3đ?‘Ľ đ?‘Ś2 >>> đ?‘‘đ?‘“ đ?‘‘đ?‘Ľ đ?‘‘đ?‘“ đ?‘‘đ?‘Ś

= f^= 2x + 0 + 3 1. Y (2) = 2x + 3 y2 = f^= 0 + 2 + 3x 2y = 2 + 6 xy Resultado b

đ?‘‘đ?‘“ đ?‘‘đ?‘Ľ đ?‘‘đ?‘“ đ?‘‘đ?‘Ś

= đ??&#x; ^ đ?’™ = đ?&#x;’đ?’™ − đ?&#x;–đ?’™đ?’š + đ?&#x;Ž

= đ??&#x; ^ đ?’š = đ?&#x;Ž − đ?&#x;’ đ?’™ đ?&#x;?. đ?&#x;? + đ?&#x;“ = −đ?&#x;’ đ?’™đ?&#x;? + đ?&#x;“ Resultado c f (x, y) =

3đ?‘Ľđ?‘Ś đ?‘Ľ2+đ?‘Ś2

đ?‘‘đ?‘“ 3đ?‘Ś đ?‘Ľ2 + đ?‘Ś2 − 3 đ?‘Ľđ?‘Ś (2đ?‘Ľ) =đ?‘“ đ?‘Ľ= đ?‘‘đ?‘Ľ đ?‘Ľ2 + đ?‘Ś2 2 3 đ?‘Ľ2 đ?‘Ś + 3 đ?‘Ś3 − 6 đ?‘Ľ2 đ?‘Ś −3 2 đ?‘Ś + 3 đ?‘Ś3 = = đ?‘Ľ2 + đ?‘Ś2 2 đ?‘Ľ2 + đ?‘Ś2 2 đ?‘‘đ?‘“ 3đ?‘Ś. 1 đ?‘Ľ2 + đ?‘Ś2 − 3 đ?‘Ľđ?‘Ś (2đ?‘Ś) =đ?‘“ đ?‘Ś= đ?‘‘đ?‘Ś đ?‘Ľ2 + đ?‘Ś2 2 3 đ?‘Ľ3 đ?‘Ś + 3đ?‘Ľ đ?‘Ś2 − 6 đ?‘Ľ2 đ?‘Ś −3 3 − 3đ?‘Ľ đ?‘Ś2 = = đ?‘Ľ2 + đ?‘Ś2 2 đ?‘Ľ2 + đ?‘Ś2 2


Ejercicio 2 Calcula dos nĂşmeros que cumplan que al sumarlo resulte 10 y la

resta de uno de ellos menos el inverso del otro sea mĂ­nima

SoluciĂłn CondiciĂłn: x + y = 10, de donde y= 10-x

La funciĂłn: f (x )= đ?‘Ľ −

f (x, y)= đ?‘Ľ − 1 10− đ?‘Ś

>>>

1 đ?‘Ś

f (x)=

−đ?‘Ľ2+10 đ?‘Ľâˆ’1 10−đ?‘Ľ

AsĂ­, f^ (x)=

đ?‘Ľ2+20 đ?‘Ľ+99 (10−đ?‘Ľ)2

f “(x )=

−2 (10− đ?‘Ľ)3

>>> >>>>

SoluciĂłn: X= 11, Y= -1

f^ (x )= 0 f “( 9 ) <0

>>>> f “(11) >0


. .

EJERCICIO 06 Resolver Aplicando Método de Lagrange. Una compañía puede

destinar su planta a la elaboración de dos tipos de productos A y B. Obtiene una utilidad de 04 dólares por unidad de A y de 6 dólares por unidad de B. Los números de unidades de los 02 tipos que puede producir mediante la planta están restringidos por la educación de transformación del producto, que es: x 2 + y2 + 2x + 4y – 4 =0 Con x, y los números de unidades (en miles) de A y B,

respectivamente,

producidas

por

semana.

Determine

las

cantidades de cada tipo que deben producirse a fin de maximizar

la utilidad. Solución: Beneficio: 4x+6y Ecuación de Lagrange:

  4x  6 y  ( x  y  2x  4 y  4) 2

2

Bx=

4  2x  2  0

By=

6  2y  4  0


3  y2

2  x 1 y 

3x  1 2

1 x  (3x  1) 2  2 x  2(3x  1)  4  0 4 13x 2  26 x  23  0; 2

12 13  2 *13 6 * 36  13 X    .66 2 *13 13 X=.66 ; Y= .49

Bxx  2 Byy  2 Bxy  0

H 2  42  0 Máximo El beneficio es de H1  0 5.58 $.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.