optimizacion multivariable

37
Dirección General de Institutos Tecnológicos Instituto Tecnológico de Veracruz Departamento de Ingeniería Química y Bioquímica PROYECTO 2 “Métodos de optimización utilizados en la columna” DISEÑO DE PROCESOS 2 EQUIPO #6 Gutiérrez Limón María Esther Santos Rodríguez María Magdalena Torralba Galán Valeria Vela Luz Dirce Ludvika Zamudio López Stephanie

Upload: jasiel-yair-cortazar-alcaraz

Post on 25-Dec-2015

72 views

Category:

Documents


0 download

DESCRIPTION

Taller de Aspen

TRANSCRIPT

Page 1: Optimizacion Multivariable

Dirección General de Institutos Tecnológicos

Instituto Tecnológico de Veracruz

Departamento de Ingeniería Química y Bioquímica

PROYECTO 2

“Métodos de optimización utilizados en la columna”

DISEÑO DE PROCESOS 2

EQUIPO #6

Gutiérrez Limón María Esther

Santos Rodríguez María Magdalena

Torralba Galán Valeria

Vela Luz Dirce Ludvika

Zamudio López Stephanie

PROFESOR

REYNA ARREDONDO TOLEDO

Mayo 2011, H. Veracruz, Ver

Page 2: Optimizacion Multivariable

DISEÑO DE PROCESOS II

OPTIMIZACION MULTIVARIABLE

INTRODUCCION

Los métodos clásicos de optimización son útiles para encontrar la solución óptima de funciones continuas y diferenciables. Estos métodos son analíticos y hacer uso de las técnicas del cálculo diferencial en la localización de los puntos óptimos. Debido a que algunos de los problemas prácticos que involucran como objetivo funciones que no son continuas y / o diferenciales, las técnicas de optimización clásicas tienen un alcance limitado en la aplicaciones prácticas.

Los problemas de optimización multivariable pueden ser clasificados como deterministas y estocásticos.

1. METODOS DETERMINISTICOS. Métodos deterministas siguen un determinado patrón de búsqueda y no implica ningún paso adivinado o al azar. Métodos deterministas pueden clasificarse en métodos de búsqueda directa e indirecta. Los métodos directos de búsqueda no requieren derivados (gradientes) de la función. Los métodos indirectos derivados pueden ser obtenidos numéricamente más que analíticamente.

Los métodos directos de búsqueda. Un ejemplo de un método de búsqueda directa es una búsqueda univariable, como se ilustra en la Figura 1. Todas las variables, excepto una son fijas y el resto de la variable se ha optimizado. Una vez que el punto mínimo o máximo se ha alcanzado, esta variable es fija y otra variable optimizados, con el resto de las variables que se fija. Este se repite hasta que no haya nuevas mejoras en la función objetivo. Figura 1 ilustra una de dos dimensiones de búsqueda en la que se fijan por primera vez x1 y x2optimizado. Entonces x2 es fijo y x1 optimizado, y

así sucesivamente hasta que no haya más la mejora en la función objetivo se obtiene. En Figura 1., la búsqueda de variables es capaz de localizar el mundial óptimo. Es fácil ver que si el punto de partida para la búsqueda en la Figura 1. ha sido en un menor valor dex1, entonces la búsqueda se ha

Page 3: Optimizacion Multivariable

DISEÑO DE PROCESOS II

localizado el óptimo local, más que el óptimo global. Para buscar problemas multivariable de optimización, a menudo la única manera de garantizar que el óptimo global se ha alcanzado es para iniciar la optimización desde diferentes puntos iniciales.

Figura 1. Búsqueda univariable

Otro ejemplo de una búsqueda directa es una secuencia simple de búsqueda. El método utiliza una geométrica regular forma (una cara) para generar direcciones de la búsqueda. En dos dimensiones, la forma más simple es un triángulo equilátero. En tres dimensiones, es un tetraedro regular. El objetivo la función se evalúa en los vértices de la simple, como se ilustra en la Figura 2. La función objetivo debe ser evaluada en los vértices A, B y C. La dirección general de búsqueda se proyecta fuera del peor vértice (en este caso el vértice A) a través del centro de gravedad de los restantes vértices (B y C), la figura 3.8a. Una nueva forma simple mediante la sustitución de las peores vértice de un nuevo punto de que es la imagen del espejo de la simple (vértice D), como se muestra enFigura 3.8a. Entonces vértices D sustituye vértice A, vértice A es un punto inferior. Los vértices simples para el siguiente paso son B, C y D. Este proceso se repite para los sucesivos, se mueve en forma de zigzag, como se muestra en la Figura 2b. La dirección de búsqueda se puede cambiar como se ilustra en la figura 2c. Cuando el simple está cerca del óptimo, puede haber alguna repetición de simple, con la búsqueda dando vueltas en círculos. Si este es el caso, entonces el tamaño de la simple debe reducirse.

Page 4: Optimizacion Multivariable

DISEÑO DE PROCESOS II

a) b) c)

Figura 8. La búsqueda simple

Los métodos indirectos de búsqueda. Los métodos indirectos de búsqueda utilizan derivados (pendientes) de la función objetivo. Los derivados se pueden obtener analíticamente o numéricamente. Hay muchos métodos disponibles para la búsqueda indirecta. Un ejemplo es el método de descenso más rápido en la reducción al mínimo problema. La dirección de máxima pendiente es la búsqueda de dirección que da la tasa máxima de variación de la función objetivo desde el punto actual. El método se ilustra en la Figura 3. Un problema con esta búsqueda método es que el tamaño de paso adecuado no se conoce, y esto es, en circunstancias cuando el gradiente puede cambiar significativamente durante la búsqueda. Otro problema es que la búsqueda puede ralentizar significativamente ya que llega al punto óptimo. Si se realiza una búsqueda de la máxima una función objetivo, entonces la búsqueda es un análogo de empinado ascenso.

Figura 3. Método de descenso

Page 5: Optimizacion Multivariable

DISEÑO DE PROCESOS II

El método de descenso más rápido utiliza sólo de primer orden derivados para determinar la dirección de búsqueda. Por otra parte, El método de Newton para la optimización de una sola variable puede ser adaptado para llevar a cabo la optimización multivariable, teniendo ventaja de los dos primeros-y los derivados de segundo orden para obtener una mejor dirección de búsqueda. Sin embargo, de segundo orden derivados deben ser evaluados, ya sea analíticamente o numéricamente, y las funciones multimodal puede hacer que el método inestable. Por lo tanto, si bien este método puede ser muy potente, también tiene algunas dificultades prácticas. Una de las dificultades fundamentales con las prácticas tanto en el directo y los métodos indirectos de búsqueda es que, dependiendo de la forma del espacio de soluciones, la búsqueda puede encontrar óptimos locales, más que el óptimo global. A menudo, la única manera de garantizar que el óptimo global se ha alcanzado es iniciar la optimización de los diferentes puntos inicial y repita el proceso.

2. MÉTODOS ESTOCÁSTICOS DE BÚSQUEDA. En todos los de la optimizaciónmétodos discutidos hasta el momento, el algoritmo busca en el objetivo función que buscan mejorar la función objetivo en cada paso, utilizando la información como degradados. Por desgracia, como ya se señaló, este proceso puede significar que la búsqueda es atraída hacia un óptimo local. Por otro lado, los métodos estocásticos de búsqueda utilizan para guiar la elección al azar la búsqueda y puede permitir el deterioro de la función objetivo durante la búsqueda. Es importante reconocer que una de búsqueda al azar no significa una búsqueda de dirección. Métodos estocásticos de búsqueda generan una ruta de acceso al azar a la solución sobre la base de las probabilidades. Mejora de la función objetivo se convierte en el último lugar de el objetivo inmediato, y un cierto deterioro en el objetivo función es tolerada, especialmente durante las primeras etapas de la búsqueda. En la búsqueda de un mínimo en el objetivo función, en lugar de buscar siempre el de intentar ir cuesta abajo, los métodos estocásticos permiten la búsqueda también a veces van hacia arriba. Del mismo modo, si la función objetivo debe ser maximizada, métodos estocásticos permite la búsqueda a veces ir cuesta abajo. A medida que la optimización progresa, la capacidad del algoritmo para aceptar el deterioro en el objetivo función es eliminada gradualmente. Esto ayuda a reducir el problema de estar atrapado en un óptimo local.

Métodos estocásticos no necesita información auxiliar, como los derivados, con el fin de curso. Sólo se requieren una función objetivo para la búsqueda. Esto significa que métodos estocásticos pueden manejar los problemas en los que el cálculo de los derivados sería complejo y causar métodos deterministas al fracaso.

Page 6: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Dos de los métodos estocásticos más populares son simuladas algoritmos genéticos y recocidos.

Recocido simulado. Recocido simulado emula el proceso físico de recocido de metales. En el proceso físico a altas temperaturas, las moléculas del líquido pueden moverse libremente con respecto a los demás. Si el líquido se enfría lentamente, la movilidad térmica se pierde. Los átomos son capaces de que se alinean y forman cristales perfectos. Este cristal estado es uno de mínima energía para el sistema. Si el metal líquido se enfría rápidamente, no llega a este estado sino que termina en un estado policristalino o amorfo tener una energía más alta. Así que la esencia del proceso de refrigeración es lenta, el tiempo suficiente para permitir la redistribución de los átomos al perder la movilidad para llegar a un estado de energía mínima.

Con este proceso físico de la mente, un algoritmo puede se sugirió en el que un sistema se mueve de un punto a otro, con el cambio resultante en el objetivo función de E1 a E2. La probabilidad de este cambio se puede suponer que siguen

una relación similar a la Boltzmann distribución de probabilidad (el mantenimiento de la analogía con un recocido física):

P=exp [−(E2−E1 )/T ] …………………….1.

Donde P es la probabilidad, E es la función objetivo (la analogía de la energía) y T es un parámetro de control (la analogía de la temperatura de hibridación). Relaciones distintas que la ecuación anterior puede ser utilizada. Si la función objetivo es minimiza y E2 es menor que E1 (es decir, el objetivo función de mejora

como resultado de la medida), entonces la probabilidad de la ecuación es mayor que la unidad. En tales casos, el movimiento se le asigna arbitrariamente a una probabilidad de la unidad, y el sistema siempre debe aceptar tal movimiento. Si la probabilidad de la ecuación 1., es 0, el movimiento se rechaza. Si la probabilidad de la ecuación 1., es 0, el movimiento se rechaza. Si la probabilidad es entre cero y la unidad (es decir, la función objetivo empeora como consecuencia del movimiento), entonces el criterio que se necesita para dictar si el movimiento es aceptado o rechazado.

Un punto de corte arbitrario (por ejemplo, rechazar cualquier movimiento con una probabilidad de menos de 0,5) se podría hacer, pero el valor más adecuado es

Page 7: Optimizacion Multivariable

DISEÑO DE PROCESOS II

probable que cambio de un problema a otro. En cambio, la analogía con recocido física se mantiene, y la probabilidad de La ecuación 1., se compara con la salida de un azar generador de números que crea un número aleatorio entre cero y la unidad. Si la ecuación 1. predice una probabilidad mayor que el generador de números aleatorios, entonces el movimiento se acepta. Si es menor, entonces el movimiento es rechazado y otro movimiento se intenta en su lugar. Por lo tanto, la ecuación 1., determina si un movimiento es aceptado o rechazado. En este Así, el método siempre aceptará una bajo paso cuando minimizando una función objetivo, aunque a veces se da un paso hacia arriba.

Sin embargo, como la optimización avanza, la posibilidad de aceptar movimientos que resultan en un deterioro de la función objetivo debe ser eliminada gradualmente. Este es la función del parámetro de control (la analogía de temperatura) en la ecuación 1. El parámetro de control disminuyó gradualmente, lo que resulta en la probabilidad del a ecuación 1., disminuyendo gradualmente para los movimientos en los que la función objetivo se deteriora. Cuando esto se compara con el número aleatorio, poco a poco se hace más probable que la medida será rechazada. Un programa de recocido requiere que controla cómo el parámetro de control se reduce de alto a valores bajos.

Por lo tanto, la forma en que el algoritmo funciona es establecer un primer valor para el parámetro de control. En este ajuste del parámetro de control, una serie de movimientos se hacen al azar. La ecuación 1., determina si una jugada personal es aceptada o rechazada. El parámetro de control (recocido temperatura) se baja y una nueva serie de azar se mueve, y así sucesivamente. A medida que el parámetro de control (temperatura de tratamiento) se baja, la probabilidad de deterioro de la aceptación en la función objetivo, según lo dictado por la ecuación 1., disminuye. De esta manera, la aceptabilidad para la búsqueda de moverse hacia arriba en la minimización o cuesta abajo durante la maximización se supriman gradualmente.

Si bien recocido simulado puede ser muy poderosa en la solución de problemas difíciles de optimización con muchos locales óptimos, que tiene una serie de desventajas. Inicial y final los valores del parámetro de control, un programa de recocido y el número de movimientos al azar para cada configuración del controlparámetro debe ser especificado. Además, debido a que cada búsqueda esal azar, el proceso puede repetirse varias veces para garantizar que una búsqueda adecuada del espacio de soluciones se han hecho.Esto puede ser muy útil para proporcionar un número de soluciones en la región del óptimo global, en lugar de una solución única. Este tipo de soluciones múltiples a continuación, se puede seleccionar no sólo en función de los costes, sino

Page 8: Optimizacion Multivariable

DISEÑO DE PROCESOS II

también en muchas otras cuestiones, tales como la complejidad del diseño, control, seguridad, etc. en adelante, que son difíciles de incluir en la optimización.

Los algoritmos genéticos.

Los algoritmos genéticos sacan su inspiración biológica evolución a diferencia de todos los métodos de optimización discutida hasta ahora, que se mueven de un punto a otro, se mueve un algoritmo genético de un conjunto de puntos (llamados una población) a otro conjunto de puntos. Las poblaciones de cadenas (la analogía de los cromosomas) se crean para representar un conjunto subyacente de parámetros (por ejemplo, temperaturas, presiones o concentraciones). Un algoritmo genético simple explota tres operadores básicos: reproducción, cruce y mutación.

La reproducción es un proceso en el que los miembros individuales de una población se copian en función del objetivo función con el fin de generar nuevos conjuntos de población. El creador se inspira en la "selección natural" y la supervivencia "del más apto". La forma más fácil de entender la reproducción es hacer una analogía con una rueda de la ruleta. En una rueda de una ruleta, la probabilidad de selección es proporcional al área de las ranuras de la rueda. En un algoritmo genético, la probabilidad de reproducción es proporcional a la aptitud (la función objetivo). Aunque el procedimiento de selección es estocástico, las cadenas más en forma se les dan una mejor oportunidad de selección (supervivencia). El operador de reproducción puede implementar en un algoritmo genético muchos.

Crossover implica la combinación de material genético a partir de dos padres exitosos para formar dos hijos (los niños). Crossover consiste en cortar dos cadenas padre en los puntos al azar y combinar de manera diferente a la nueva forma descendencia. El punto de cruce se genera aleatoriamente. Crossover trabaja como operador de búsqueda local y se extiende en buenas propiedades de entre la población. La fracción de nueva población generada por cruce es generalmente grande (como se observa en la naturaleza) y es controlado estocásticamente.

La mutación crea nuevas cadenas de forma aleatoria cambiante (mutación) partes de las cadenas, pero (como con la naturaleza) con una baja probabilidad de ocurrir. Un cambio al azar se hace en uno de los genes con el fin de preservar la diversidad. La mutación crea una nueva solución en el entorno de un puntosometido a mutación.

Un algoritmo genético trabaja en primer lugar generar una primera población al azar. La población se evalúa de acuerdo a su aptitud (valor de la función objetivo).

Page 9: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Una reproducción operadora proporciona entonces una población intermedia mediante la selección estocástico, pero sesgada hacia la supervivencia de la los más aptos. Operadores de cruce y mutación son aplicados a la población intermedia para crear una nueva generación de la población. La nueva población se evalúa de acuerdo a su estado físico y la búsqueda continúa con su posterior reproducción, cruce y la mutación hasta que la población se reúne el criterio de convergencia necesario (generalmente la diferencia entre el valor de aptitud media y máxima o el número de de las generaciones).

De esta manera, los algoritmos genéticos crear mejores soluciones por reproducción, cruce y mutación que tales candidatos de soluciones mejoran de una generación a la siguiente. El algoritmo evoluciona a lo largo de muchas generaciones y, finalmente, converge en la cadena más fuerte. Una búsqueda en paralelo reduce la posibilidad de ser atrapado en un óptimo local.

Las principales fortalezas de los métodos de búsqueda estocástica que se que puedan hacer frente a los problemas de optimización más difícil y la garantía de encontrar una solución óptima. Otro de la gran ventaja es que, si el espacio de soluciones es muy irregular, pueden producir una gama de soluciones con cerca de óptima rendimiento, más bien un punto único y óptimo. Esto abre una gama de soluciones para el diseñador, en lugar de tener sólo una opción. Sin embargo, hay desventajas con métodos estocásticos de optimización también. Pueden ser muy lentitud en la convergencia y por lo general deben adaptarse para resolver problemas particulares. Adaptación de los métodos específicos para adaptarse a las aplicaciones las hace mucho más eficiente.

OPTIMIZACION MULTIVARIABLE SIN RESTRICCIONES

Page 10: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Una función de una variable f (x) se dice que tiene un mínimo relativo o local en x = x * si f (x *) ≤ f (x * + h) para todos los valores lo suficientemente pequeños positivos y negativos de h. Del mismo modo, un punto x * se llama un máximo relativo o local si f (x *) ≥ f (x * + h) para todos los valores de h suficientemente cercanos a cero. Una función f (x) se dice que tiene un mínimo global o absoluto en x * si f (x *) ≤ f (x) para todo x, y no sólo para todo x cerca de x *, en el dominio sobre el cual f (x) se define. Del mismo modo, un punto x * será un máximo global de f (x) si f (x *) ≥ f (x) para todo x en el dominio. Figura 4., muestra la diferencia entre los puntos óptimos locales y globales.

Figura 4. Mínimos relativos y globales

Un problema de optimización de una sola variable es aquella en la cual el valor de x = x * se encuentran en el intervalo [a, b] tal que x * minimiza f (x).

En esta sección consideramos las condiciones necesarias y suficientes para el mínimo o máximo de una función sin restricciones de varias variables. Antes de ver estas condiciones, consideramos la expansión de la serie de Taylor de una función multivariable.

Definición. Rth diferencial de f. Si todas las derivadas parciales de la función f a través de r ≥ 1 existen y son continuas en un punto X *, el polinomio

Ec. 2

Page 11: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Es llamada rth diferencial de f en X*. Tenga en cuenta que hay r sumatorias y un hi se asocia a cada suma en la ecuación. (2).

Por ejemplo, cuando r=2 y n=3, tenemos

La expansión de las series de Taylor de una función f(x) sobre un punto X* está dado por

Donde el último término viene dado por

Donde 0 ˂ θ ˂ 1 y h= X - X*.

Teorema 1

Condición necesaria. Si f(x) tiene un punto extremo (máximo o mínimo) en X=X* y si las primeras derivadas parciales de f(x) existen en X*, entonces

Ec. 3

Ec. 4

Page 12: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Prueba. Supongamos que una de las primeras derivadas parciales, por ejemplo el kth, no se anula en X *. Entonces, por el teorema de Taylor:

Esto es

Desde d2 f (X∗+θ h) es de orden hi2, los términos de orden h dominaran los

términos de orden superior para pequeñas h. Así el signo de f ( X∗+h )−f ¿ es

decidido por el signo de hK ∂ f ¿. Supongamos que ∂ f ¿ >0. Entonces el signo de (X∗+h )−f ¿ será positivo para hK>0 y negativo para hK<0.Esto significa que X* no

puede ser un punto extremo. La misma conclusión puede ser obtenida incluso si asumimos que ∂ f ¿¿0. Dado que esta conclusión está en contradicción con la declaración original que X* es un punto extremo, podemos decir que ∂ f∂ X K

=0 en X=X*. Por lo tanto el teorema está aprobado.

Teorema 2 Condición suficiente

Una condición suficiente para que un punto estacionario X * sea un punto extremo es que la matriz de las segundas derivadas parciales (matriz hessiana) de f (x) evaluada en X * es (i) definida positiva cuando X * es un punto mínimo relativo, y (ii) es definida positiva cuando X * es un punto máximo relativo.

Prueba: Del teorema de Taylor, se puede escribir

Ec. 5

Page 13: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Puesto que X* es un punto estacionario, las condiciones necesarias se dan (Teorema 1)

Por lo tanto la ecuación. (2.10) se reduce a

Por lo tanto, el signo de

Será el mismo que el de

Donde la segunda derivada parcial de ∂2 f (X )∂xi ∂ x

,es continua en la sección de X*,

Tendrá el mismo signo que (∂2 f (X )∂ xi∂ xj

)¿para todas las h suficientemente pequeñas. Así, si

f ( X∗+h )−f ¿será positivo, y por lo tanto X* será un mínimo relativo, si

Ec. 6

Ec. 7

Page 14: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Es positivo. Esta cantidad Q es una forma cuadrática y se puede escribir en forma matricial como

Donde

Es la matriz de las segundas derivadas parciales y es llamada la matriz Hessiana de f(x).

Se sabe de álgebra matricial que la forma cuadrática de las ecuaciones (7) o (8) será positiva para todos los h si y sólo si [J] es definida positiva en X = X*. Esto significa que una condición suficiente para que el punto estacionario X* sea un mínimo relativo es que la matriz hessiana evaluada en el mismo punto sea definida positiva. Esto completa la prueba para el caso de minimización. Al proceder de una manera similar, se puede demostrar que la matriz hessiana será definida negativa si X* es un punto máximo relativo.

Nota: Una matriz A será definida positiva si todos sus valores propios son positivos, es decir, que todos los valores de ּג que satisfacen la ecuación determinan tal

Debe ser positiva. Similarmente, la matriz [A] será definida negativa si sus valores propios son negativos.

Otra prueba que se puede utilizar para encontrar el definitud positiva de una matriz de orden n consiste en la evaluación de los factores determinantes.

Ec. 8

Ec. 9

Ec. 10

Page 15: Optimizacion Multivariable

DISEÑO DE PROCESOS II

La matriz A será definida positiva si y sólo si todos los valores de A1, A2, A3,. . ., An son positivos. La matriz A será definida negativa si y sólo si el signo de Aj es (-1) j para j = 1, 2,. . ., n. Si algunos de los Aj son positivos y el resto de Aj son cero, la matriz A será semidefinida positiva.

Ec. 11

Page 16: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Caso semidefinido

Teorema 2.5

Que las derivadas parciales de f de todas las ordenes hasta el orden k ≥ 2 escontinua en el entorno de un punto estacionario X*, y.

De manera que dkf | X = X * es el primer diferencial no nulo de orden superior de f en X *. Si es aun k, (i) X* es un mínimo relativo si dkf | X = X * es definido positivo, (ii) X* es definido un máximo relativo si dkf | X = X * es definido negativo, y (iii) si dkf | X = X * es semidefinido (pero no definido), no hay ninguna conclusión general que se pueda sacar. Por otro lado, si k es impar, X * no es un punto extremo de f (X).

Punto de silla

En el caso de una función de dos variables, f (x, y), la matriz hessiana no podrá ser definida positiva ni negativa en un punto (x *, y *) en el que

En tal caso, el punto (x *, y *) se denomina punto de silla. La característica de un punto de silla es que corresponde a un mínimo relativo o máximo de f (x, y) con respecto a una variable, por ejemplo, x (la otra variable que se fija en y = y *) y un máximo o mínimo relativo de f (x, y) con respecto a la segunda variable y (la otra variable que se fija en x *).

Page 17: Optimizacion Multivariable

DISEÑO DE PROCESOS II

METODO LAGRANGE

METODO DE LAGRANGE

Las características del método de Lagrange establecen su uso inicialmente para un problemas de 2 variables y una constante.

Problema con 2 variables y una constante

Reducir f (x1 , x2)

Sujeto a g(x1 , x2)

Para este problema la condición necesaria de un punto extremo es X=X*

( ∂ f∂ x1−∂ f /∂ x2∂ g/∂ x2

∂g∂ x1 )¿(x1

¿ , x2¿)

Ecuación 1

Definir una cantidad λ llamado el múltiplo de lagrange:

λ=−∂ f /∂ x2∂ g/∂ x2

¿(x1¿ , x2¿) Ecuación 2

La ecuación 1 puede ser expresada

∂ f∂ x1

+λ ∂g∂x1

¿x1¿, x1¿=0 Ecuación 3

Page 18: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Y la ecuación 2 puede ser escrita como:

∂ f∂ x2

+λ ∂g∂x2

¿x1¿, x1¿=0 Ecuación 4

La ecuación tiene que ser satisfecha en el punto extremo eso es:

g(x1 , x2)∨f (x1 , x2) =0 Ecuación 5

Las ecuaciones 3 y 5 representan las condiciones necesarias para el punto

(x1¿ , x2¿ ) para ser un punto extremo nótese que la derivada parcial ∂ g∂ x2

∨(x1¿ , x2¿ )

no debe ser cero para ser capaz de definir λ por medio de la ecuación 2. Esto es debido a la variación d x2fue expresada en términos de d x1 en la derivación de la

ecuación 1. De otra manera si se expresa d x1 en termino de d x2 , se deben

obtener los requerimientos que ∂ g∂ x1

∨(x1¿ , x2¿ ) deben ser distintos a cero para

definir λ la derivación de las condiciones necesarias por el método de lagrange requiere que la menor de las derivadas parciales de g(x1 , x2)∨¿ debe ser distinta a cero en un punto extremo.

Las condiciones necesarias de las ecuaciones 3 a la 5 son constituyen comúnmente una función L conocida como la función de lagrange.

l (x , y , λ )=f (x1 , x2 )+∂ g(x1 , x2) Ecuación 6

Page 19: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Por tratarse de l una funcion de 3 variables x1 , x2 ,, λ las condiciones necesarias son:

∂L∂ x1

(x1 , x2 , λ )= ∂ f∂ x1

(x1 , x2 )+λ ( ∂g∂x1 ) (x1 , x2 )=0 Ecuación 7

∂L∂ x2

(x1 , x2 , λ )= ∂ f∂ x2

(x1 , x2 )+λ ∂ g∂ x2

(x1, x2 )=0 Ecuacion 8

∂l∂ λ

(x1 , x2 , λ )=g ( x1 , x2 )=0 Ecuación 9

Page 20: Optimizacion Multivariable

DISEÑO DE PROCESOS II

METODO KUHN-TUCKER

OPTIMIZACION

La optimización puede considerarse como la búsqueda d la mejor solución (solución óptima) de un problema. El termino mejor aquí depende del contexto en el que se trabaje, podría significar solución que minimiza los costes, o maximiza los beneficios, o que hace que la distancia recorrida sea mínima, etc.

Esta primera reflexión sobre lo que se entiende por optimización refleja claramente las importantísimas e indudables aplicaciones de esta área de las matemáticas a un amplio espectro de problemas; aplicaciones que surgen en la práctica totalidad de las ciencias.

El abordar un problema real de optimización supone básicamente dos etapas:

Determinar el modelo matemático que rige el problema. Resolver dicho problema usando una serie de técnicas matemáticas.

Lógicamente, se buscan modelos sencillos que puedan resolverse con las herramientas analíticas y de cálculo disponibles. El precio pagado por la simplicidad puede ser la falta de fiabilidad de las conclusiones del modelo; por esa razón resulta recomendable su comparación con observaciones empíricas del problema real.

Los problemas que pueden ser resueltos mediante la optimización matemática son aquellos que pueden expresarse en la forma:

Terminología:

Page 21: Optimizacion Multivariable

DISEÑO DE PROCESOS II

X es un vector de n componentes reales conocido como vector de variables de decisión.

F(x) es una función de n variables que se conoce como función objetivo. El conjunto D se conoce como región factible o conjunto de soluciones

factibles. Los problemas de optimización también se conocen como programas

matemáticos.

El objetivo de la optimización matemática es, por tanto, encontrar máximos y mínimos de funciones de varias variables sujetas a una serie de restricciones.

Llegar a plantear un problema de optimización supone:

Elegir las variables de decisión. Un excesivo número de variables puede aumentar la complejidad del problema, por lo que puede prescindirse de los factores con efectos mínimos sobre el modelo.

Determinar la función objetivo. En algunas situaciones varias funciones pueden adaptarse al modelo, de la elección realizada puede depender la efectividad del sistema.

Determinar las limitaciones o restricciones que han de imponerse a las variables para de esta forma obtener el espacio de soluciones factibles. Debe tenerse presente lo siguiente:

o Omitir restricciones puede hacer que la solución del problema

cambie totalmente.o Evitar imponer restricciones contradictorias, que hacen que el

problema no tenga solución.o Controlar las restricciones redundantes, ya que no afectan a la

solución pero pueden aumentar la complejidad del cálculo.o Deben usarse unidades de medida consistentes. Un error que suele

ser común es utilizar diferentes unidades de medida en distintas restricciones.

Sinónimos de la optimización; son las expresiones economizar, distribución de recursos, limitación de recursos, toma de las mejores decisiones, etc.

Page 22: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Teorema karush-kuhn-tucker

Desde un punto de vista práctico, los problemas con restricciones de desigualdad pueden ajustarse mejor a situaciones reales. Puede pensarse que una restricción de igualdad significa agotar completamente cierto recurso: en cambio, la misma restricción en forma de desigualdad resulta más realista, ya que indica la disponibilidad del recurso pero no obliga a agotarlo completamente. El estudio de este tipo de problemas ha sido más reciente que el de los problemas sin restricciones o con restricciones de igualdad. De hecho, el más importante de los resultados expuestos aquí, el conocido como teorema de Kuhn-Tucker, fue publicado en 1951.

La forma estándar de los problemas con restricciones de desigualdad es la siguiente:

Las desigualdades estrictas pueden conducir a problemas sin solución: por esa razón son excluidos de la formulación de estos problemas. Esta exclusión que en principio parece una limitación importante, no lo es tanto desde un punto de vista práctico ya que difícilmente se encuentran desigualdades estrictas en casos reales. Por otra parte, se supone siempre que las desigualdades tienen el signo <= y el termino de la derecha es nulo, fácilmente se puede conseguir expresar las restricciones en esta forma si fuese necesario.

Page 23: Optimizacion Multivariable

DISEÑO DE PROCESOS II

CONDICIONES NECESARIAS DE Kuhn-Tucker

Teorema de Kuhn-Tucker

Se presentan ahora las condiciones necesarias de optimización que constituyen la generalización de las dadas por LaGrange para problemas con restricciones de desigualdad. Para poder aplicarlas, es necesario en primer lugar que todas las funciones que intervienen en el problema admitan derivadas parciales de primer orden continuo.

Teorema:

Dado un problema de la forma

Que tiene un mínimo local en el punto y. si los vectores gradientes de las

restricciones saturadas en y son linealmente independientes en y entonces cada

restricción saturada tiene asociado un número li>=0 (conocido como

multiplicador de Kuhn-Tucker) de tal forma que:

Page 24: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Para que en la expresión anterior intervengan todas las restricciones se asocian multiplicadores nulos a las restricciones no saturadas, para ello se imponen las condiciones:

Algunas observaciones sobre este resultado que conviene destacar son las siguientes:

Para poder aplicar el resultado es importante que el problema esté planteado en la forma que aparece en el teorema; de no ser así, los signos de los multiplicadores podrían ser diferentes.

Debe también verificarse la hipótesis de regularidad que obliga a que los gradientes de las restricciones saturadas sean linealmente independiente en el óptimo. De no ser así el punto podría no verificar el teorema, como ocurría en el caso de restricciones de igualdad.

Los multiplicadores de Kuhn-Tucker también se conocen como variables duales del problema.

Para problemas de maximización se tendría un resultado similar, con la única diferencia de que los multiplicadores deben ser negativos.

El teorema sirve, igual que el teorema de Lagrange, para determinar los posibles óptimos de un problema; para ellos, habría que resolver un sistema de n + m incógnitas. Una vez resuelto este sistema habría que

seleccionar aquellas soluciones que verifican las desigualdades. Por analogía con los problemas con restricciones de igualdad, a estos puntos se les conoce como puntos estacionarios.

Con las condiciones expuestas hasta ahora no se está en disposición de asegurar que dicho punto corresponda realmente a un mínimo local del problema. Se hace necesario, por tanto, el estudio de condiciones suficientes de optimización.

CONDICIONES SUFICIENTES DE OPTIMIZACION

Una vez seleccionadas las posibles soluciones de un problema de optimización con restricciones de desigualdad, deben estudiarse condiciones suficientes que permitan decidir si realmente los puntos localizados corresponden a verdaderas soluciones

Page 25: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Caso convexo

Teorema:

Si el problema s convexo, entonces las condiciones necesarias de Kuhn-Tucker son demás suficientes.

Condiciones de segundo orden

Las condiciones suficientes de segundo orden, aplicables a todos los problemas cuyas funciones sean derivables parcialmente hasta orden 2 y con derivadas, son las mismas que en los problemas con restricciones de igualdad considerando solamente las restricciones que en el posible optimo tienen asociados multiplicadores no nulos.

APLICACIONES DE LAS CONDICIONES DE Kuhn-Tucker

Interpretaciones económicas de los multiplicadores de Kuhn-Tucker

Los multiplicadores de Kuhn-Tucker, al igual que los multiplicadores de Lagrange en el caso de restricciones de igualdad son calculados simultáneamente a los puntos óptimos. Además de servir para utilizar las condiciones de optimización de segundo orden y para indicar las restricciones que se encuentran saturadas, tienen una clara interpretación económica.

Dado el óptimo de un programa con restricciones de desigualdad, podría plantearse un programa equivalente eliminando las restricciones no saturadas y expresando en forma de igualdad las saturadas. De forma que la interpretación dada para problemas con restricciones de igualdad, sigue siendo válidas en este caso, lo que significa que los multiplicadores de Kuhn-Tucker miden la variación que sufre el valor óptimo de problema al modificar sus restricciones.

Si en una restricción g (x) <=b se aumenta el valor del parámetro b, el espacio

de soluciones factibles aumenta. Por lo tanto, al buscar el mínimo sobre un conjunto más amplio, e valor óptimo de la función objetivo puede decrecer, pero en ningún caso crecer. En el caso de problemas de máximos la situación es la inversa: Al aumentar las restricciones también puede aumentar el valor óptimo. Estas consideraciones confirman que:

Todo mínimo debe lleva asociado multiplicadores mayores o iguales que cero.

Page 26: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Todo máximo debe llevar asociado multiplicadores menores o iguales a cero.

En términos económicos, pueden considerarse los multiplicadores de Kuhn-Tucker como unos parámetros que en cierta forma miden el costo de la mejora del valor óptimo, obtenida al modificar la correspondiente restricción. Actúan por tanto como un sistema de precios. Una buena política económica estaría orientada a obtener una mejora de optimo mayor que el costo de obtenerla.

Si se pensase en las restricciones de desigualdad como la disponibilidad en una empresa de ciertos recursos:

Un multiplicador nulo en una de las restricciones, indicaría que el correspondiente recurso no se ha agotado (restricción no saturada). De forma, que no tendría ningún coste para la empresa utilizar una mayor cantidad de ese recurso.

En cambio, si el multiplicador de una restricción es no nulo, dicho recurso ha sido agotado completamente (restricción saturada), de forma que el disponer de una cantidad adicional del recurso supone un costo para la empresa. El multiplicador no mide el precio real del recurso, sino el rendimiento que se puede obtener al aumentar su disponibilidad.

CASOS PRACTICOS

Southgate, 1990.

Desarrolla un modelo agrícola para la preservación de las zonas forestales y muestra que las condiciones de Kuhn-Tucker en el modelo sugieren que la gestión de las tierras de labranza existentes también sea afectada por el desarrollo de la infraestructura.

Gupta-Stahl, 1994.

La operación de un sistema de cómputo de red, por ejemplo Internet, se puede ver como problema de la asignación de recursos, y se puede analizar usando las técnicas de la economía matemática. Si definimos un sistema de cómputo en red general y traducimos esa disposición a un modelo de una economía. Las preferencias de usuarios se toman como primitivos, y los servidores (proporcionando a servicios de la base de datos incluyendo la hospitalidad y las noticias o los servicios de cómputos) en la red e ven como empresas productivas con las colas de entrada de información con prioridad. Cada servidor tiene un precio de alquiler para sus servicios según la clase de prioridad. Se caracterizan

Page 27: Optimizacion Multivariable

DISEÑO DE PROCESOS II

asignaciones optimas del sistema, y derivamos las fórmulas para utilizar precios de alquiler de la superior prioridad tales que las demandas individuales agregadas del usuario no excedan niveles óptimos y en las expectativas del tiempo de espera este correcto. Se propone un proceso de ajuste en ejecución descentralizado del precio. Algunos resultados de un estudio de la simulación se presentan y se discuten. Las medidas del beneficio para cada servidor se pueden utilizar para dirigir decisiones de la inversión.

Lau-Pahlke-Rutherford, 1997.

Se describen los modelos no lineales generales dinámicos de la formulación y solución del equilibrio en la programación y los formatos mezclados de la complementariedad. Su objetivo es pedagógico. Las ecuaciones esenciales para algunos modelos se presentan en un formato compacto y accesible, junto con los programas de computadora que concretamente ilustran los modelos.

Presentan dos métodos de aproximación para los modelos infinitos del horizonte. Las formulaciones de modelos alternativas se ilustran con un modelo simple de Ramsey basado en formas funcionales específicas, y se compara la precisión de cómputo de los métodos alternativos del objetivo. Finalmente, se ilustra como el marco dinámico del equilibrio se puede extender para tratar un problema económico práctico. Aquí se considera la puesta en práctica de impuestos ambientales acelerar la transición de convencional a las fuentes de energía no convencionales.

McCarl- Spreen, 1997.

La validación modelo es importante en cualquier análisis empírico. Los modelos de programación son con frecuencia validados superficiales. Sin embargo, la validación es necesaria para pronosticar y los acercamientos a modelo prescriptivos de la validación varían extensamente.

El propósito es probar como es un modelo que responde a su propósito previsto. Dos acercamientos de la validación pueden ser utilizados: validación por la construcción y validación por resultados. La validación por la construcción afirma el modelo fue construido correctamente y por lo tanto es válido. La validación por resultados se refiere a los ejercicios donde las salidas del modelo se comparan sistemáticamente contra observaciones verdaderas del sistema.

El experimento dual de la viabilidad implica el probar s los precios sombra observados son factible en las condiciones Kuhn-Tucker.

Page 28: Optimizacion Multivariable

DISEÑO DE PROCESOS II

Bibliografía:

Robin Smith “Chemical Process” Design and Integration, edit. McGraw Hill (2005)

Singiresu S. Rao “Engineering Optimization” 4ta edic. John Wiley & Sons (2009)

http://www.angelfire.com/ak6/publicaciones/kuhn_tucker.pdf

http://structio.sourceforge.net/guias/proglin/proglin001.html