Revistaoptimizacioncamiloluis

Page 1

Camilo Valderrama| Luis Hergueta

1-6-2015


Página |1

Contenido CONCEPTO .........................................................................................3 HISTORIA DE LAGRANGE ....................................................................4 EL METODO LAGRANGE .....................................................................4 OBJETIVOS .........................................................................................5 CARACTERISTICAS ..............................................................................5 CAMPO DE APLICACIÓN .....................................................................6 IMPORTANCIA ...................................................................................6 METODO DE LAGRANGE .....................................................................7 OPTIMIZACION DE FUNCIONES SIN RESTRICCIONES ............................9 OBJETIVOS ....................................................................................... 10 CARACTERISTICAS ............................................................................ 10 CAMPO DE APLICACION ................................................................... 11 IMPORTANCIA ................................................................................. 11

OPTIMIZACION SIN RESRICCIONES

METODO DE FUNCIONES SIN RESTRICCIONES ................................... 12 SUDOKU ........................................................................................ 17 EJERCICIOS SAIA ............................................................................... 18

Optimización Sin Restricciones


Página |2

Creando Soluciones… Optimización Sin Restricciones


Página |3

CONCEPTO En matemáticas, estadísticas, ciencias empíricas, ciencia de la computación, o economía, optimización matemática (o bien, optimización o programación matemática) es la selección del mejor elemento (con respecto a algún criterio) de un conjunto de elementos disponibles. En el caso más simple, un problema de optimización consiste en maximizar o minimizar una función real eligiendo sistemáticamente valores de entrada (tomados de un conjunto permitido) y computando el valor de la función. La generalización de la teoría de la optimización y técnicas para otras formulaciones comprende un área grande de las matemáticas aplicadas. De forma general, la optimización incluye el descubrimiento de los "mejores valores" de alguna función objetivo dado un dominio definido, incluyendo una variedad de diferentes tipos de funciones objetivo y diferentes tipos de dominios. Un problema de optimización puede ser representado de la siguiente forma Dada: una función f: A  R donde A es un conjunto de números reales.

dominio A de f es llamado el espacio de búsqueda o el conjunto de elección, mientras que los elementos de A son llamados soluciones candidatas o soluciones factibles. La función f es llamada, diversamente, una función objetivo, función de costo (minimización), función de utilidad indirecta (minimización), función de utilidad (maximización), o, en ciertos campos, función de energía, o energía funcional. Una solución factible que minimice (o maximice, si este es el propósito) la función objetivo, es llamada una solución óptima. Por convenio, el formato estándar de un problema de optimización está declarado en términos de minimización. Generalmente, a menos que ambas, la función objetivo y la región factible sean convexas en un problema de minimización, puede haber varios mínimos locales, donde un mínimo local x* se define como un punto para el cual existe algún δ > 0, donde para todo x tal que

la expresión

es verdadera; es decir, en alguna región alrededor de

Buscar: un elemento x0 en A tal que f(x0) ≤ f(x) para todo x en A ("minimización") o tal que f(x0) ≥ f(x) para todo x en A ("maximización").

x* todos los valores de la función son mayores que o

Tal formulación es llamada un problema de optimización o un problema de programación matemática (un término no directamente relacionado a la programación de computadoras, pero todavía en uso por ejemplo en la programación lineal). Muchos problemas teóricos y del mundo real pueden ser modelados en este esquema general. Problemas formulados usando esta técnica en los campos de física y visión por computadora se refieren a la técnica como minimización de la energía, hablando del valor de la función f representando la energía del sistema que está siendo modelado.

Un gran número de algoritmos propuestos para

Típicamente, A es algún subconjunto del espacio Euclidiano Rn, con frecuencia especificado por un conjunto de restricciones, igualdades o desigualdades que los elementos de A tienen que satisfacer. El

convergencia en tiempo finito a la solución óptima real

iguales al valor en ese punto. El máximo local se define de modo similar.

resolver problemas no-convexos – incluyendo a la mayoría

de

los

solucionadores

disponibles

comercialmente – no son capaces de hacer una distinción entre soluciones óptimas locales y soluciones óptimas rigurosas, y tratan a las primeras como soluciones actuales del problema original. La rama de las matemáticas aplicadas y el análisis numérico que se responsabiliza

con

el

deterministas

que

son

desarrollo

de

algoritmos

capaces

de

garantizar

de un problema no-convexo se llama optimización global.

Optimización Sin Restricciones


Página |4

HISTORIA DE LAGRANGE

E

l método LaGrange lo propuso Joseph

Paris, por su trabajo sobre el Equilibrio Lunar.

Louis

matemático

En 1975 se le concede una cátedra en la recién

nacido en Italia (1736). Este método

fundada Ecole Normale, que ocupo tan solo

también

como

durante cuatro meses. Dos años más tarde fue

Multiplicadores LaGrange, tienen aplicaciones

nombrado profesor, y quienes asistieron a sus

en una variedad de campos, incluyendo el físico,

clases las describieron como “perfectas en forma

astronómico y el campo económico. Su interés

y contenido”.

por la matemática dio inicio a través de la

Sus enseñanzas sobre cálculo diferencial forman

lectura a una obra del astrónomo ingles Edmund

la base de sus obras Teoría de las Funciones

Halley, tras un año de incesante trabajo, era ya

Analíticas

un de la Escuela de Artillería, en 1758 fundo una

Numéricas (1798). En 1810 da inicio a una

sociedad, con la ayuda de sus alumnos, que fue

revisión de su Teoría, pero solo pudo concluir

incorporada a la Academia de Turín.

dos terceras partes antes de su muerte (1813).

LaGrange

LaGrange,

realizo

un

conocido

distintos

trabajos

y

Resolución

de

Ecuaciones

e

investigaciones, como una ecuación diferencial

EL METODO LAGRANGE

general del movimiento y su adaptación para el

Es un procedimiento para encontrar los máximos

caso particular del movimiento rectilíneo, y la

y mínimos de funciones de múltiples variables

solución

a

sujetas a restricciones. Este método reduce el

muchos

problema restringido con n variable, donde k es

problemas

de

igual al número de restricciones, y cuyas

dinámica

ecuaciones pueden ser resueltas más fácilmente.

mediante

el

El método dice que los puntos donde la función

cálculo

de

tiene

variantes.

En

restricciones,

le

estacionarios

un

restricciones construida como una combinación

premio por la

lineal de la función y las funciones implicadas

Academia

de

en la restricciones, cuyos coeficientes son los

Ciencias

de

multiplicadores

1764,

se

otorga

un

extremo, están de

una

condicionado

con

entre

los

nueva

función

k

puntos sin

Optimización Sin Restricciones


Página |5

OBJETIVOS

CARACTERISTICAS

 Visualizar algunas superficies cuadráticas y curvas de nivel para distintos valores de la variable z.  Identificar, a través de los simuladores, los puntos (x,y) sobre la curva correspondiente a la función restricción donde la función principal tiene extremos.  Aproximar las soluciones del problema a partir de la observación en el simulador, de las curvas de nivel de la función principal y la curva correspondiente a la función condicionante.  Interpretar gráficamente los resultados obtenidos empleando el método de Multiplicadores de LaGrange.  Adquirir habilidad en la resolución de problemas

de

optimización

en

 El método de eliminación de variables no resulta operativo cuando el problema tiene muchas restricciones o las restricciones son complejas, por lo que resulta muy útil este método.  Los Multiplicadores de LaGrange es un método alternativo que además proporciona más información sobre el problema.  Todos los óptimos que verifiquen las condiciones de regularidad establecidas tiene asociados los correspondientes multiplicadores.  El Teorema de LaGrange establece una condición necesaria de optimizar (bajo las condiciones de regularidad).

un

ambiente computacional.

Optimización Sin Restricciones


Página |6

CAMPO DE APLICACIÓN

IMPORTANCIA

El método de LaGrange se puede aplicar en

El

todas las ramas de la ciencia, como por

procedimiento matemático nos ayuda a

ejemplo,

química,

encontrar los máximos y mínimos de

astronomía, bilogía, economía, etc. Una vez

funciones de varias variables sujetas a

que se conoce un conjunto de datos

restricciones.

experimentales en un cierto intervalo de la

problemas de Optimización Dinámica, la

variable independiente, esto es, conociendo

resolución de un problema de interpolación

una cierta cantidad de datos tabulados, se

lleva a un problema de algebra lineal en el

hace preciso encontrar una función que

cual se debe resolver un sistema de

verifique todos esos datos y permita, por

ecuaciones. Usando como base monoica

consiguiente, predecir la existencia de toros

estándar para el polinomio interpolador, se

valores con la aproximación adecuada. El

llega a la matriz de Vandermonde. Eligiendo

método de la interpolación de LaGrange es

una base distinta, la base de LaGrange,

de gran importancia en el análisis numérico.

llegando así a la forma más simple de matriz

física,

matemática,

de

Método

de

Para

identidad,

LaGrange

las

como

soluciones

pudiéndose

de

resolver

inmediatamente.

Optimización Sin Restricciones


PĂĄgina |7

METODO DE LAGRANGE Vamos a analizar el mĂŠtodo a travĂŠs de un ejemplo. Consideremos la funciĂłn đ?‘“(đ?‘Ľ, đ?‘Ś) = đ?‘Ľ 3 + đ?‘Ś 3 , (0,0) es el Ăşnico punto crĂ­tico. (0,0) no es mĂĄximo ni mĂ­nimo. Para ver esto basta tomar đ?‘Ś = 0, đ?œ– > 0đ?‘Ś − đ?œ–. Cerca de (0,0) đ?‘“(đ?œ–, 0) vale −đ?œ– 3 < 0. Asiđ?‘“(0,0) ≼ đ?‘“(đ?‘Ľ, đ?‘Ś) cerca de (0,0) es falso, y đ?‘“(0,0) ≤ đ?‘“(đ?‘Ľ, đ?‘Ś) cerca de (0,0) es falso el punto es de silla. Sin embargo en el conjunto {(đ?‘Ľ, đ?‘Ś)/đ?‘Ľ 2 + đ?‘Ś 2 ≤ 1}, al ser cerrado y acotado se alcanza el mĂĄximo y el mĂ­nimo. Como {(đ?‘Ľ, đ?‘Ś)/đ?‘Ľ 2 + đ?‘Ś 2 ≤ 1} es abierto se pueden calcular bien las parciales. El problema estĂĄ en {(đ?‘Ľ, đ?‘Ś)/đ?‘Ľ 2 + đ?‘Ś 2 = 1}. La pregunta es, ÂżCĂłmo se calculan os extremos de đ?‘Ľ 3 + đ?‘Ś 3 restringido al conjunto đ?‘Ľ 2 + đ?‘Ś 2 = 1? Problema: extremos de đ?‘“(đ?‘Ľ, đ?‘Ś) = đ?‘Ľ 3 + đ?‘Ś 3 , sujeto a la restricciĂłn đ?‘Ľ 2 + đ?‘Ś 2 − 1 = 0. Se construye el mĂŠtodo LaGrange: đ??ż(đ?‘Ľ, đ?‘Ś, Îť ) = f(x, y) = Îť g(x, y) = đ?‘Ľ3 + đ?‘Ś3 − Îť (đ?‘Ľ2 + đ?‘Ś2 − 1) đ?œ•đ??ż đ?œ•đ?‘Ľ đ?œ•đ??ż đ?œ•đ?‘Ś

Se buscan los puntos crĂ­ticos,

= 3đ?‘Ľ 2 − 2Îť x = 0 = 3đ?‘Ś 2 − 2Îť y = 0

de la primera ecuaciĂłn se tiene

đ?œ•đ??ż

2 2 {đ?œ•Îť = −(đ?‘Ľ + đ?‘Ś − 1) = 0

đ?&#x;‘đ?’™đ?&#x;? − đ?&#x;?Îť x = x(3x − 2Îť ) = 0 AsĂ­ tenemos que puede ser đ?‘Ľ = 0 đ?‘œ đ?‘?đ?‘–đ?‘’đ?‘› 3đ?‘Ľ − 2Îť = 0 De la tercera ecuaciĂłn đ?‘Ľ = 0 → đ?‘Ś = Âą1 Que mirando en la segunda ecuaciĂłn đ?‘Ś=1

đ?‘Ś = −1

3 − 2Îť = 0 → Îť =

3 2

3 + 2Îť = 0 → Îť = −

3 2

Proporciona los puntos 3

3

(0,1, 2) (0, −1, − 2) La otra posibilidad en la primera ecuaciĂłn es que đ?‘Ľ ≠0 3đ?‘Ľ − 2Îť = 0 3x = 2Îť

OptimizaciĂłn Sin Restricciones


PĂĄgina |8 Mirando en la segunda ecuaciĂłn (al igual que hicimos en la primera) puede ser

đ?‘Ś = 0 đ?‘œ đ?‘?đ?‘–đ?‘’đ?‘› 3đ?‘Ś − 2Îť = 0 Y de nuevo de la tercera ecuaciĂłn đ?‘Ś = 0 → đ?‘Ľ = Âą1 De donde se obtiene đ?‘Ľ=1 →Ν=

3 2

đ?‘Ś = −1 → Îť = −

3 2

Que nos proporciona los puntos

3 3 (1,0, ) (−1,0, − ) 2 2 TambiĂŠn puede ser, mirando en la segunda ecuaciĂłn đ?‘Ś ≠0 3đ?‘Ś − 2Îť = 0 3y = 2Îť Y por tanto, eliminando el caso x = 0 que ya hemos visto

3đ?‘Ľ = 2Îť 3y = 2Îť → x = y Que de acuerdo con la tercera ecuaciĂłn nos da 3 3√2 Îť= đ?‘Ľ=Âą 2 4 ObteniĂŠndose los puntos

(

√2 √2 3√2 , , ) 2 2 4

(−

√2 √2 3√2 ,− ,− ) 2 2 4

Hemos obtenido asĂ­ 6 puntos crĂ­ticos del tipo (x, y, Îť) o si se quiere del tipo (x, y) con multiplicador de LaGrange asociado Îť (đ?‘Ľ, đ?‘Ś): (1,0)(0,1)(−1,0)(0, −1)( 33 3 3 − − 22 2 2 Ahora por simple comparaciĂłn de valores Îťâˆś

√2 √2 √2 √2 , )(− ,− ) 2 2 2 2

3√2 4

−

3√2 4

đ?‘“(1,0) = đ?‘“(0,1) = 1 đ?‘“(−1,0) = đ?‘“(0, −1) = −1 √2 √2 √2 đ?‘“( , ) = ≅ 0.7 2 2 2

đ?‘“ (−

√2 √2 √2 ,− ) = − ≅ −0.7 2 2 2

AsĂ­ (1, 0) y (0, 1) son mĂĄximos globales y (-1, 0) y (0, -1) mĂ­nimos globales.

OptimizaciĂłn Sin Restricciones


PĂĄgina |9

OPTIMIZACION DE FUNCIONES SIN RESTRICCIONES

A estaban

ntes de la apariciĂłn de los

Los mĂŠtodos indirectos tienen la ventaja

ordenadores de alta velocidad,

inherente de que la

los mĂŠtodos de optimizaciĂłn

generalmente

prĂĄcticamente

limitados

a

mĂĄs

convergencia

rĂĄpido

incluso

es aun

los

cuando se utilicen mĂŠtodos numĂŠricos para

mĂŠtodos indirectos en los cuales el cĂĄlculo

calcular las derivadas. Sin embargo, en

del extremo potencial estaba restringido al

problemas de ingenierĂ­a esta ventaja es

uso de derivadas y la condiciĂłn necesaria de

muchas veces neutralizada por la falta de

optimalidad. Los modernos ordenadores han

interĂŠs de determinaciones precisas de la

hecho posible los mĂŠtodos directos, esto es

funciĂłn objetivo debido la falta de precisiĂłn

la bĂşsqueda de un Ăłptimo por comparaciĂłn

de los coeficientes que muchas veces se

sucesiva de los valores de la funciĂłn f(x) en

utiliza.

una secuencia de puntos �1, �2, �3 ‌ sin la

Los mĂŠtodos directos, tienen la ventaja de

necesidad de hacer intervenir derivadas

que pueden tratar fĂĄcilmente con problemas

analĂ­ticas.

que incluyan discontinuidades, puntos de

Para llevar a cabo los mĂŠtodos directos de

inflexiĂłn y puntos finales. TambiĂŠn el

minimizaciĂłn numĂŠrica solamente se usa el

carĂĄcter de f(x) en las vecindades de un

valor de la funciĂłn objetivo. Se comienza

extremo es fĂĄcilmente estudiable.

con un valor inicial de x y se continĂşa seleccionando valores de x de acuerdo con una estrategia pre-seleccionada. El proceso termina

đ?‘“(đ?‘Ľ đ?‘˜+1 ) − đ?‘“(đ?‘Ľ đ?‘˜ ) < đ?œ€

cuando

donde el superĂ­ndice k designa el nĂşmero de iteraciĂłn

y

đ?œ€

es

la

tolerancia

pre-

especificada o criterio de tolerancia.

OptimizaciĂłn Sin Restricciones


P á g i n a | 10

OBJETIVOS Para que una función de dos variables tenga un mínimo o máximo relativo, tres condiciones deben ser satisfecha: Las derivadas parciales de primer orden deben simultáneamente ser iguales a cero. Ello indica que en un punto dado (ab) llamado “punto crítico”, la función no está creciendo ni decreciendo con respecto a los ejes principales sino a una superficie relativa. Las derivadas parciales de segundo orden deben ser negativas cuando ellas son evaluadas en el punto crítico (a,b) para un máximo relativo y positivas para un mínimo relativo. Ello asegura que la función es cóncava y moviéndose hacia abajo en relación a los ejes principales en el caso de un máximo relativo y la función es convexo y moviéndose hacia arriba en relación a los ejes principales en el caso de un mínimo relativo. HUMOR GRAFICO 1

El producto de las derivadas parciales de segundo orden evaluadas en el punto crítico debe exceder el

producto de las derivadas parciales cruzadas también evaluadas en dicho punto. Esta condición adicional es necesaria para evitar un punto de inflexión o punto de silla.

CARACTERISTICAS  En muchos problemas las restricciones se pueden incluir dentro de la función objetivo, por lo que la dimensionalidad del problema se reduce a una variable.  Algunos problemas sin restricciones, inherentemente incluyen una única variable.  Las técnicas de optimización con y sin restricciones, generalmente incluyen pasos de búsqueda unidireccional en sus algoritmos.

Optimización Sin Restricciones


P á g i n a | 11

CAMPO DE APLICACION La optimización puede ser aplicada en cualquier área donde se busque o desee realizar una actividad de forma eficaz y eficiente, sin perder datos relevantes ni tiempo, los campos donde la optimización es el mejor elemento para cubrir soluciones son como por ejemplo, matemática, estadística, ciencias empíricas, ciencia de la computación, ciencia de la administración, optimización matemática, etc.

IMPORTANCIA Los métodos de optimización sin restricciones son importantes porque:  Hay problemas que se pueden formular sin restricciones.  Permiten introducir muchos conceptos y explorar ideas que se usaran en problemas NLP.  Muchos

problemas

de

optimización utilizan

alguna

fase

algoritmos

sin

restricciones.  Algunos pueden como

problemas NLP reformularse problemas

sin

restricciones.

Optimización Sin Restricciones


P ĂĄ g i n a | 12

METODO DE FUNCIONES SIN RESTRICCIONES

En la siguiente funciĂłn encontrar los puntos crĂ­ticos y determinar si estos son mĂĄximos o mĂ­nimos relativos, puntos de inflexiĂłn o puntos de silla: đ?‘“(đ?‘Ľ, đ?‘Ś) = 3đ?‘Ľ 3 − 5đ?‘Ś 2 − 225đ?‘Ľ + 70đ?‘Ś + 23 SoluciĂłn: Cuando la primera derivada e igualĂĄndola a 0: đ?‘“đ?‘Ľ = 9đ?‘Ľ 2 − 255 = 0

đ?‘“đ?‘Ś = −10đ?‘Ś + 70 = 0

Resulta: đ?‘Ľ = Âą5, đ?‘Ś = 7. Entonces los puntos crĂ­ticos serĂĄn: (5, 7) y (5, 7) La segundas derivadas (sin evaluarlas o testearlas) đ?‘“đ?‘Ľđ?‘Ľ = 18đ?‘Ľ

đ?‘“đ?‘Śđ?‘Ś = −10

đ?‘“đ?‘Ľđ?‘Ś = đ?‘“đ?‘Śđ?‘Ľ = 0

Evaluando el punto crĂ­tico (5,7): đ?‘“đ?‘Ľđ?‘Ľ (5,7) = 18(5) = 90

đ?‘“đ?‘Śđ?‘Ś (5,7) = −10 2

ÂżCumple đ?‘“đ?‘Ľđ?‘Ľ (5,7). đ?‘“đ?‘Śđ?‘Ś (5,7) > [đ?‘“đ?‘Ľđ?‘Ś (5,7)] ? 90. (−10) < [0]2 (no cumple) Entonces este punto crĂ­tico no es ni mĂĄximo ni mĂ­nimo. Puesto que đ?‘“đ?‘Ľđ?‘Ľ đ?‘Śđ?‘“đ?‘Śđ?‘Ś (evaluadas en este punto crĂ­tico) tienen signo diferente, se concluye que este punto es un punto de silla. Evaluando el punto crĂ­tico (-5,7) đ?‘“đ?‘Ľđ?‘Ľ (−5,7) = 18(−5) = −90

đ?‘“đ?‘Śđ?‘Ś (−5,7) = −10 2

ÂżCumple đ?‘“đ?‘Ľđ?‘Ľ (−5,7). đ?‘“đ?‘Śđ?‘Ś (−5,7) > [đ?‘“đ?‘Ľđ?‘Ś (−5,7)] ? −90. (−10) > 0 (Si cumple) 2

Dado que se cumple đ?‘“đ?‘Ľđ?‘Ľ (−5,7). đ?‘“đ?‘Śđ?‘Ś (−5,7) > [đ?‘“đ?‘Ľđ?‘Ś (−5,7)] y ademĂĄs, đ?‘“đ?‘Ľđ?‘Ľ , đ?‘“đ?‘Śđ?‘Ś < 0 entonces el punto de anĂĄlisis es un mĂĄximo.

OptimizaciĂłn Sin Restricciones


P 谩 g i n a | 13

Optimizaci贸n Sin Restricciones


P 谩 g i n a | 14

Optimizaci贸n Sin Restricciones


P 谩 g i n a | 15

Optimizaci贸n Sin Restricciones


P 谩 g i n a | 16

Optimizaci贸n Sin Restricciones


P 谩 g i n a | 17

SUDOKU

Optimizaci贸n Sin Restricciones


P á g i n a | 18

Ejercicios SAIA Ejercicio 1 Una empresa ha decidido mejorar su seguridad instalando 9 alarmas. Un especialista en el tema señala que dada la estructura de la empresa sólo puede optar por dos tipos de alarmas, de tipo A o de tipo B; además, afirma que la seguridad de la empresa se puede expresar como la décima parte del producto entre el número de alarmas de tipo A instaladas y el cuadrado del número de alarmas instaladas de tipo B. ¿Cuántas alarmas de cada tipo se deben instalar en la empresa para maximizar su seguridad?

a. Determinar la función  Llamemos x a las alarmas de tipo B instaladas, con lo que las alarmas de tipo A serán (9-x)  La seguridad de la empresa viene expresada por la función f(x)=(9-x)x2/10=(9x2-x3)/10 b. Calcular el máximo  Calculamos f'(x)=(18x-3x2)/10  Resolvemos la ecuación: f'(x)=0. Soluciones: x=0, x=6  Calculamos f''(x)=(18-6x)/10 y su signo en estos valores. El máximo se obtiene en x=6 c. Criticar las soluciones  Deberemos instalar 6 alarmas de tipo B y 3 de tipo A

Ejercicio 2 La utilidad obtenida por cada 100 mililitros de crema dental es da (p1 - 60) centavos y la utilidad por cada tubo de 150 milímetros es de (p2 - 90) centavos. Por tanto, la utilidad P (en miles de centavos, porque las demandas son en miles) obtenida vendiendo x1 tubos de 100 milímetros y x2 tubos de 150 milímetros está dada por:

En Consecuencia:

Y asi mismo En la utilidad máxima

Esto es.

Optimización Sin Restricciones


P á g i n a | 19

Resolviendo estas dos ecuaciones, obtenemos p1 = 100 y p2 = 125. También

Puesto que son negativas, los precios p1 = 110 c y p2 = 125c, le producirán una utilidad máxima a la compañía. Con estos valores de p1 y p2 las demandas son de x1 = 45 y x2 = 25 (en miles por semana). También surgen problemas en los cuales necesitamos encontrar los valores máximos y mínimos de una función f(x1, x2,..., xn) de varias variables. de nuevo, resolvemos tales problemas haciendo toda las derivadas parciales iguales a cero:

Esto nos da n ecuaciones que deben resolver para las variables x1, …,xn . El punto resultante es el punto crítico de f. Ejercicio 3 Calcula dos números que cumplan que al sumarlos resulte 10 y la resta de uno de ellos menos el inverso del otro sea mínima.

Optimización Sin Restricciones


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.