PORTAFOLIO DE SIMULACION EDGAR J. URQUIJO RASCÓN Profesor: Dr. José Benito Franco Urrea
20-8-2013
ÍNDICE Información institucional Introducción Modelo Montecarlo Sistemas artificiales, abiertos y cerrados. Distribución Erlang Distribución Binomial Distribución Gama Distribución Beta Distribución f Distribución t Sistemas de probabilidad estocástico Distribuciones Discretas Distribuciones Binomial Distribución Hipergeométrica Distribución Multinomial Distribución Poisson. Distribución de muestreo. Modelo MM1 Modelo MMS MatLab Exposiciones Conclusión Bibliográfica
INFORMACIÓN INSTITUCIONAL Misión La misión de UNIDEP es formar profesionales de éxito que cuenten con las actitudes, habilidades y conocimientos que demanda el sector productivo de la región. Visión La Universidad del Desarrollo Profesional es una institución de educación superior de calidad, que ofrece programas presenciales y semis presenciales de bachillerato, profesional asociado, licenciatura, posgrado, diplomados y cursos en México y en el extranjero. Se distingue por facilitar a sus egresados la incorporación al mercado de trabajo, apoyada en una estrecha vinculación con el sector productivo y en planes de estudio pertinentes y dinámicos. Es reconocida por su modelo educativo profesionalizan te, por la flexibilidad de su oferta académica impartida en ciclos continuos y por horarios y cuotas accesibles, acordes a la disponibilidad de tiempo y recursos económicos del alumno. Cuenta con profesores de amplia experiencia profesional y educativa. Sus instalaciones dentro de la ciudad permiten el fácil acceso. Cuenta con un modelo de administración sistematizado, participativo, operado por personal que es recompensado por su desempeño efectivo que le permite maximizar las aportaciones de sus socios y mantener finanzas sanas
Introducción En los modelos de simulación siempre se tiene como antecedente el uso de estadística ya que el carácter aleatorio de los mismos hace necesario que se haga uso de distribuciones de probabilidad. Es decir, un modelo de simulación involucra la recolección de datos para la construcción del modelo, para tal objetivo se requiere contestar algunas preguntas como: ¿Con qué información contamos? Hasta hace algunos años, el principal problema era que no existía información concentrada, había que diseñar estrategias para su obtención y sobre todo ser suficientemente creativos para buscar fuentes alternas de información. En consecuencia, un fracaso común en los estudios de simulación que no son bien delimitados en la etapa de planeación, se debe a que de la simulación se extraen más datos de los necesarios o de los que pueden validarse con los datos disponibles. Algunas preguntas que pueden apoyar este proceso son: ¿Qué datos son necesarios? ¿Cómo se obtendrán esos datos? ¿Qué tiempo aproximado tomará la realización de cada etapa de la obtención de datos? ¿Con qué información y cómo se validarán los resultados de la simulación? ¿Cuáles configuraciones del modelo se deberían correr? ¿Cuántas y qué tan grandes deben ser las corridas? Para recolectar información de la estructura del sistema y los procedimientos de operación, es necesario hacer las siguientes consideraciones: No es suficiente un solo documento o la entrevista con una persona. Para el analista en simulación es fundamental hablar con tantos expertos en el sistema como sea necesario, para obtener un entendimiento completo del sistema a modelar. Parte de la información proporcionada será invariablemente incorrecta. Si cierta parte del sistema es particularmente importante, entonces al menos se requerirán dos expertos en el sistema. Los procedimientos de operación del sistema pueden no estar formalizados. La recolección de datos (si es posible) sirve para especificar los parámetros del modelo y las distribuciones de probabilidad (por ejemplo para el tiempo de falla y el tiempo de reparación de la máquina). La simulación de un sistema o proceso donde hay componentes que inherentemente son aleatorios, requiere la generación de variables aleatorias.
¿Qué es simulación? Según el diccionario de la RAE simular es: “Representar algo, fingiendo o imitando lo que no es.” Según el Handbook of Simulation (1998) es una imitación de las operaciones de un sistema o proceso real a lo largo del tiempo (Sistemas complejos). Tomas H. Naylor la define así: Simulación es una técnica numérica para conducir experimentos en una computadora digital. Estos experimentos comprenden ciertos tipos de relaciones matemáticas y lógicas, las cuales son necesarias para describir el comportamiento y la estructura de sistemas complejos del mundo real a través de largos periodos de tiempo. En sentido más estricto H. Maisel y G. Gnugnoli, definen simulación como: Simulación es una técnica numérica para realizar experimentos en una computadora digital. Estos experimentos involucran ciertos tipos de modelos matemáticos y lógicos que describen el comportamiento de sistemas de negocios, económicos, sociales, biológicos, físicos o químicos a través de largos periodos de tiempo. Robert E. Shannon, define simulación como: Simulación es el proceso de diseñar y desarrollar un modelo computarizado de un sistema o proceso y conducir experimentos con este modelo con el propósito de entender el comportamiento del sistema o evaluar varias estrategias con las cuales se puede operar el sistema. Cuando alguien tiene la responsabilidad de conducir un sistema dado, como por ejemplo: un banco, una ciudad, un sistema de transporte, etc., debe tomar continuamente decisiones acerca de las acciones que ejecutará sobre el sistema. Estas decisiones deben ser tales que la conducta resultante del sistema satisfaga de la mejor manera posible los objetivos planteados. Para poder decidir correctamente es necesario saber cómo responderá el sistema ante una determinada acción. Esto podría hacerse por experimentación con el sistema mismo; pero factores de costos, seguridad y otros hacen que esta opción generalmente no sea viable. A fin de superar estos inconvenientes, se reemplaza el sistema real por otro sistema que en la mayoría de los casos es una versión simplificada. Este último sistema es el modelo a utilizar para llevar a cabo las experiencias necesarias sin los inconvenientes planteados anteriormente.
Al proceso de experimentar con un modelo se denomina simulación. Al proceso de diseñar el plan de experimentación para adoptar la mejor decisión se denomina optimización. Si el plan de experimentación se lleva a cabo con el solo objeto de aprender a conducir el sistema, entonces se denomina entrenamiento o capacitación. En este punto, es conveniente plantear las siguientes definiciones: · Sistema: Conjunto de objetos o ideas que están interrelacionados entre sí como una unidad para la consecución de un fin (Shannon, 1988). También se puede definir como la porción del Universo que será objeto de la simulación. · Modelo: Un objeto X es un modelo del objeto Y para el observador Z, si Z puede emplear X para responder cuestiones que le interesan acerca de Y (Minsky). · Simulación: Simulación es el proceso de diseñar un modelo de un sistema real y llevar a cabo experiencias con él, con la finalidad de aprender el comportamiento del sistema o de evaluar diversas estrategias para el funcionamiento del sistema (Shannon, 1988). Aplicaciones de la simulación La simulación es conveniente cuando: · No existe una formulación matemática analíticamente resoluble. Muchos sistemas reales no pueden ser modelados matemáticamente con las herramientas actualmente disponibles, por ejemplo la conducta de un cliente de un banco. · Existe una formulación matemática, pero es difícil obtener una solución analítica. Los modelos matemáticos utilizados para modelar un reactor nuclear o una planta química son imposibles de resolver en forma analítica sin realizar serias simplificaciones. No existe el sistema real. Es problema del ingeniero que tiene que diseñar un sistema nuevo. El diseño del sistema mejorará notablemente si se cuenta con un modelo adecuado para realizar experimentos. · Los experimentos son imposibles debido a impedimentos económicos, de seguridad, de calidad o éticos. En este caso el sistema real está disponible para realizar experimentos, pero la dificultad de los mismos hace que se descarte esta opción. Un ejemplo de esto es la imposibilidad de provocar fallas en un avión real para evaluar la conducta del piloto, tampoco se puede variar el valor de un impuesto a para evaluar la reacción del mercado. · El sistema evoluciona muy lentamente o muy rápidamente. Un ejemplo de dinámica lenta es el problema de los científicos que estudian la evolución del
clima. Ellos deben predecir la conducta futura del clima dado las condiciones actuales, no pueden esperar a que un tornado arrase una ciudad para luego dar el mensaje de alerta. Por el contrario, existen fenómenos muy rápidos que deben ser simulados para poder observarlos en detalles, por ejemplo una explosión. Entre las posibles desventajas de la simulación se pueden citar: · El desarrollo de un modelo puede ser costoso, laborioso y lento. · Existe la posibilidad de cometer errores. No se debe olvidar que la experimentación se lleva a cabo con un modelo y no con el sistema real; entonces, si el modelo está mal o se cometen errores en su manejo, los resultados también serán incorrectos. · No se puede conocer el grado de imprecisión de los resultados. Por lo general el modelo se utiliza para experimentar situaciones nunca planteadas en el sistema real, por lo tanto no existe información previa para estimar el grado de correspondencia entre la respuesta del modelo y la del sistema real. Actualmente la simulación presta un invalorable servicio en casi todas las áreas posibles, algunas de ellas son: · Procesos de manufacturas: Ayuda a detectar cuellos de botellas, a distribuir personal, determinar la política de producción. · Plantas industriales: Brinda información para establecer las condiciones óptimas de operación, y para la elaboración de procedimientos de operación y de emergencias. · Sistemas públicos: Predice la demanda de energía durante las diferentes épocas del año, anticipa el comportamiento del clima, predice la forma de propagación de enfermedades. · Sistemas de transportes: Detecta zonas de posible congestionamiento, zonas con mayor riesgo de accidentes, predice la demanda para cada hora del día. · Construcción: Predice el efecto de los vientos y temblores sobre la estabilidad de los edificios, provee información sobre las condiciones de iluminación y condiciones ambientales en el interior de los mismos, detecta las partes de las estructuras que deben ser reforzadas. · Diseño: Permite la selección adecuada de materiales y formas. Posibilita estudiar la sensibilidad del diseño con respecto a parámetros no controlables. · Educación: Es una excelente herramienta para ayudar a comprender un sistema real debido a que puede expandir, comprimir o detener el tiempo, y
además es capaz de brindar información sobre variables que no pueden ser medidas en el sistema real. · Capacitación: Dado que el riesgo y los costos son casi nulos, una persona puede utilizar el simulador para aprender por sí misma utilizando el método más natural para aprender: el de prueba y error.
Método Montecarlo El método de Monte Carlo es un método no determinístico o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Monte Carlo (Principado de Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un generador simple de números aleatorios. El nombre y el desarrollo sistemático de los métodos de Monte Carlo datan aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la computadora. El uso de los métodos de Monte Carlo como herramienta de investigación, proviene del trabajo realizado en el desarrollo de la bomba atómica durante la Segunda Guerra Mundial en el Laboratorio Nacional de Los Álamos en EE. UU. Este trabajo conllevaba la simulación de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutronesen el material de fisión. Esta difusión posee un comportamiento eminentemente aleatorio. En la actualidad es parte fundamental de los algoritmos de Raytracing para la generación de imágenes 3D. En la primera etapa de estas investigaciones, John von Neumann y Stanislaw Ulam refinaron esta ruleta rusa y los métodos "de división" de tareas. Sin embargo, el desarrollo sistemático de estas ideas tuvo que esperar al trabajo de Harris y Herman Kahn en1948. Aproximadamente en el mismo año, Enrico Fermi, Nicholas Metropolis y Ulam obtuvieron estimadores para los valores característicos de la ecuación de Schrödinger para la captura de neutrones a nivel nuclear usando este método. El método de Monte Carlo proporciona soluciones aproximadas a una gran variedad de problemas matemáticos posibilitando la realización de experimentos con muestreos de números pseudoaleatorios en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A diferencia de los métodos numéricos que se basan en evaluaciones en N puntos en un espacio M-dimensional para producir una solución aproximada, el método de Monte Carlo tiene un error absoluto de la estimación que decrece como
en virtud del teorema del límite central.
Orígenes del método. La invención del método de Monte Carlo se asigna a Stanislaw Ulam y a John von Neumann. Ulam ha explicado cómo se le ocurrió la idea mientras jugaba un solitario durante una enfermedad en 1946. Advirtió que resulta mucho más simple tener una idea del resultado general del solitario haciendo pruebas múltiples con las cartas y contando las proporciones de los resultados que computar todas las posibilidades de combinación formalmente. Se le ocurrió que esta misma observación debía aplicarse a su trabajo de Los Álamos sobre difusión de neutrones, para la cual resulta prácticamente imposible solucionar las ecuaciones íntegro-diferenciales que gobiernan la dispersión, la absorción y la fisión. “La idea consistía en probar con experimentos mentales las miles de posibilidades, y en cada etapa, determinar por casualidad, por un número aleatorio distribuido según las probabilidades, qué sucedería y totalizar todas las posibilidades y tener una idea de la conducta del proceso físico”. Podían utilizarse máquinas de computación, que comenzaban a estar disponibles, para efectuar las pruebas numéricas y en efecto reemplazar el aparato experimental del físico. Durante una de las visitas de von Neumann a Los Álamos en 1946, Ulam le mencionó el método. Después de cierto escepticismo inicial, von Neumann se entusiasmó con la idea y pronto comenzó a desarrollar sus posibilidades en un procedimiento sistemático. Ulam expresó que Monte Carlo “comenzó a tener forma concreta y empezó a desarrollarse con todas sus fallas de teoría rudimentaria después de que se lo propuse a Johnny”. A principios de 1947 Von Neumann envió una carta a Richtmyer a Los Álamos en la que expuso de modo influyente tal vez el primer informe por escrito del método de Monte Carlo. Su carta fue encuadernada junto con la respuesta de Richtmyer como un informe de Los Álamos y distribuida entre los miembros del laboratorio. Von Neumann sugería aplicar el método para rastrear la generación isótropa de neutrones desde una composición variable de material activo a lo largo del radio de una esfera. Sostenía que el problema era adecuado para el ENIAC y estimaba que llevaría 5 horas calcular la acción de 100 neutrones a través de un curso de 100 colisiones cada uno. Ulam estaba particularmente interesado en el método Monte Carlo para evaluar integrales múltiples. Una de las primeras aplicaciones de este método a un problema determinista fue llevada a cabo en 1948 por Enrico Fermi, Ulam y von Neumann cuando consideraron los valores singulares de la ecuación de Schrödinger.
Sistemas artificiales Son aquellos elaborados por el hombre, ejemplo el sistema de transporte, sistemas de comunicaciones, el sistema de acueductos.
Sistemas abiertos. Los sistemas abiertos son aquellos que interactúan con sus ambientes, todos los sistemas que contienen organismos vivos son abiertos. Sistemas cerrados. Es muy difícil encontrar un sistema cerrado, pues este no interactúa con el ambiente, se manejan de forma teórica para realizar experimentos en los laboratorios. La distribución Erlang La distribución de Erlang es una distribución de probabilidad continua con una amplia aplicabilidad debido principalmente a su relación con la exponencial y la distribución gamma dada por la suma de un numero de variables aleatorias independientes que poseen la misma distribución exponencial. La distribución Erlang se aplica en modelos de sistemas de servicio masivo, ejemplo: en situaciónes donde el servicio tiene que realizar dos operaciones c/u con tiempo de servicio exponencial. La distribución Erlang es el resultado del trabajo realizado por el matemático danés Agner Krarup Erlang (1878-1929) quien fue un pionero en la aplicación de métodos estadísticos, para el análisis de las redes telefónicas. La distribución binomial. En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli. La distribución gamma. Es una distribución adecuada para modelizar el comportamiento de variables aleatorias continuas con asimetría positiva. Es decir, variables que presentan una mayor densidad de sucesos a la izquierda de la media que a la derecha, en su expresión se encuentran dos parámetros, siempre positivos, y de los que depende su forma y alcance por la derecha y también la función gama, responsable de la convergencia de la distribución.
La distribución beta. La distribución beta es posible para una variable aleatoria continua que toma valores en el intervalo (0,1) lo que la hace muy apropiada para modelar proporciones. En la interferencia, bayesiana, por ejemplo, es muy utilizada como distribución a priori cuando las observaciones tienen una distribución binomial. La distribución F. Otra de las distribuciones importantes asociadas a la normal es la que se define como el cociente de dos variables con distribución Ji-cuadrado divididas por sus respectivos grados de libertad, n y m. en este caso la variable aleatoria sigue una distribución F de Snedecor de parámetros n y m. hay muchas aplicaciones de la F en estadística, y en particular, tiene un papel importante en las técnicas del análisis de la varianza y del diseño de experimentos. La distribución t. La distribución t de Student se construye como un cociente entre un normal y la raíz de una Ji-cuadrado independientes. Esta distribución desempeña un papel importante en la inferencia estadística asociada a la teoría de muestras pequeñas. Se usa habitualmente en el contraste de hipótesis para la media de una población, o para comparar las medias de dos poblaciones, y viene definida por sus grados de libertad, n. Sistemas de simulación Estocástico. Un sistema o proceso estocástico es el cual su comportamiento es nodeterminístico. Esto significa que el estado subsecuente del sistema se determina tanto por las acciones predecibles del proceso, como por un elemento aleatorio. La mayoría, si no todos, los sistemas de la vida real son estocásticos. Su comportamiento puede ser medido y aproximado a distribuciones y probabilidades, pero rara vez pueden ser determinados por un solo valor (por ende no-determinísticos). Por ejemplo, el tiempo que un cajero de un banco requiere para procesar un depósito de un cliente depende de varios factores (algunos de ellos pueden ser controlados, otros no, algunos son medibles, otros no). Pero al final realizando un conjunto de observaciones del tiempo de procesamiento de cada deposito del cajero, puede permitir ajustar los tiempos a una distribución y ¨predecir¨ cual será el tiempo de proceso en un modelo de simulación por eventos discreto.
Distribuciones de probabilidad discretas Distribución binomial En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli. Distribución hipergeométrica En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de la categoría A en una muestra sin reemplazo de n elementos de la población original. Distribución multinomial En teoría de probabilidad, la distribución multinomial es una generalización de la distribución binomial. La distribución binomial es la probabilidad de un número de éxitos en N sucesos de Bernoulli independientes, con la misma probabilidad de éxito en cada suceso. En una distribución multinomial, el análogo a la distribución de Bernoulli es la distribución categórica, donde cada suceso concluye en únicamente un resultado de un número finito K de los posibles, con
probabilidades (tal que con n sucesos independientes. Entonces sea la variable aleatoria
para i entre 1 y K y
); y
, que indica el número de veces que se ha
dado el resultado i sobre los n sucesos. El vector
sigue una
distribución multinomial con parámetros n y p, donde
.
Nótese que en algunos campos la distribución categórica y multinomial se encuentran unidas, y es común hablar de una distribución multinomial cuando el término más preciso sería una distribución categórica.
Distribución de poisson En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo. Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles). Distribución de muestreo Fórmula para cuando no se conoce el tamaño de la población:
Fórmula para cuando se conoce el tamaño de la población:
Donde: “n”: es el tamaño de la muestra. “Z”: es el nivel de confianza. “p”: es la variabilidad positiva. “N”: es el tamaño de la población. “E”: es la precisión o error. Se requiere realizar un estudio sobre los niveles de colesterol en la sangre en mujeres y hombres adultos de entre 35 y 50 años. a) ¿De qué tamaño debe elegirse una muestra representativa para realizar dicho estudio con un nivel de confianza de 95% si se acepta un margen de error del 6%?
p=0.5 Z=1.96
q=0.5 E=0.06 (
) ( (
(
)(
)(
)
) )
b) Una población del tamaño de la Cd. de México (15, 175,862 habitantes). ¿De qué tamaño deberá elegirse una muestra representativa para realizar dicho estudio con un nivel de confianza, del 95% y un m.e. 6%?
p=0.5 q=0.5 Z=1.95 (95%) E=6% = 0.06 ( ( ( (
) ( )(
)(
)( )(
)( ) ( )( )
) )(
) ( ) )(
(
)
)
Modelo MM1 ( (
)
)
S = Servidores S=1 Ls = Lenght system, cantidad de clients que hay en el sistema. Ws = Wait system, tiempo de espera del sistema (tiempo de espera + tiempo de servicio). Lq = Lenght queue, longitud de cola (cantidad de clientes formados en la cola) Wq= Wait queue, el tiempo que espera el cliente en la cola, (desde que llega hasta que empieza el servicio)
Po= Psubcero, se refiere a la probabilidad de que el sistema este vacío.
)
)
) (
)
) ( )
) (
)
) Po = 1Este sistema para que sea estable tiene que ser más rápido el tiempo de servicio que la velocidad de llegada de clientes.
Problemas de ejercicio 3.- La empresa “movies tonight” es un establecimiento típico de rentas de video y DVD para clientes. Durante las noches entre semana los clientes llegan a una tasa promedio de 1.25 de clientes por minuto. El dependiente del mostrador puede atender un promedio de 2 clientes por minuto.
)
)
(
)(
)
) (
)
( (
) )
(
)
) ( (
) )
(
)
(
)(
)
)
(
(
)(
)
)
) Po = 1Po = 1 - 0.62 = 0.38
4.- Spedy oil proporciona un servicio de un solo canal de cambio de aceite y lubricante de automóviles. Las llegadas nuevas ocurren a una tasa de 2.5 carros por hora, y la tasa media de servicio es de 5 carros por hora.
)
)
(
)( )
)
(
)
( (
) )
(
)
)
(
)
) (
)
(
(
)(
)
)
(
(
)(
)
)
) Po = 1Po = 1- 0.5 = 0.5 5.- La taza de llegada de estudiantes al mostrador de una biblioteca es de 10 alumnos por minuto, en el mostrador hay una sola persona y atiende con una taza de 5 minutos por persona.
= )
)
(
)(
)
) (
)
( (
) )
( )
) (
)
(
(
)
)(
)
)
(
( )
(
)( )
Po = 1-
)
)
Po = 1- 0.83 = 0.17 Modelo MMS (
) (
)
)
( )
∑
( )
(
(
) ( ) (
) (
)
)
) ( ) (
) (
)
)
Problemas de ejercicio.
)
)
1.- En un hospital llegan 10 clientes cada hora y un solo servidor puede atender 8 clientes cada hora, si se colocan 2 servidores, determinar: )
( )
∑
(
∑
(
)
( )
)
(
(
)
(
)
)
(
(
)
(
(
)
( )
(
)(
)
) )
(
(
(
) )
)
(
)
(
)
) ( ) (
) (
)
)( ) (
)
( (
) ( ( )
( )( ( ) ( (
) )
( ) ( (
)
(
)
)(
(
)
)
(
)
) )
)(
)
(
)(
)
) ( ) (
) ( (
[ ( [
) )
]
) ( ( (
)
) )
]
[ [
(
)
] ]
)
0.08012 MatLab. MATLAB (abreviatura de MATrix LABoratory, "laboratorio de matrices") es una herramienta de software matemático que ofrece unentorno de desarrollo integrado (IDE) con un lenguaje de programación propio (lenguaje M). Está disponible para las plataformasUnix, Windows y Mac OS X. Entre sus prestaciones básicas se hallan: la manipulación de matrices, la representación de datos y funciones, la implementación de algoritmos, la creación de interfaces de usuario (GUI) y la comunicación con programas en otros lenguajes y con otros dispositivos hardware. El paquete MATLAB dispone de dos herramientas adicionales que expanden sus prestaciones, a saber, Simulink (plataforma de simulación multidominio) y GUIDE (editor de interfaces de usuario - GUI). Además, se pueden ampliar las capacidades de MATLAB con las cajas de herramientas (toolboxes); y las de Simulink con los paquetes de bloques (blocksets). Es un software muy usado en universidades y centros de investigación y desarrollo. En los últimos años ha aumentado el número de prestaciones, como la de programar directamente procesadores digitales de señal o crear código VHDL. Exposiciones Equipo 1 VENTAJAS DE LOS LENGUAJES DE SIMULACIÓN (EXPOSICIÓN) El proceso evolutivo de los lenguajes de simulación ha sido largo y extenso. Empezó a finales de la década de los 50’s. en un principio los lenguajes que se desarrollaron eran de propósito general. Sin embargo poco a poco los estudiosos de este tema se dieron cuenta de la gran
similitud que existía entre las diferentes situaciones o sistemas que se simulaban. Lo anterior condujo obviamente al desarrollo de lenguajes de propósito especial, los cuales en la actualidad tienen una gran demanda y su proceso de comercialización ha sido amplio y extenso. Entre las ventajas principales de estos lenguajes de simulación, se pueden mencionar las siguientes: REDUCCIÓN EN LA TAREA DE PROGRAMACIÓN. Con los lenguajes de simulación, el tiempo dedicado a la programación del modelo se reduce considerablemente. Existen algunos paquetes como GPSS, en los que con un número muy reducido de estatutos, se pueden simular sistemas que en otro lenguaje como FORTRAN, requerirían una gran cantidad de estatutos y subrutinas. MEJOR DEFINICIÓN DEL SISTEMA. A través de los lenguajes de simulación, se facilita la tarea de definir las diferentes entidades que interactúan dentro del sistema. También con estos lenguajes se determina con mayor facilidad las interrelaciones que existen entre las entidades que forman el sistema. MAYOR FLEXIBILIDAD PARA CAMBIOS. Con los lenguajes generales como FORTRAN, el proceso de cambios puede ser largo y tedioso. Sin embargo, con el uso de lenguajes de simulación, los cambios son una tarea simple y rutinaria. MEJOR DIFERENCIACIÓN DE LAS UNIDADES QUE FORMAN EL SISTEMA. El uso de lenguajes de simulación facilita determinar o definir las características y atributos de una entidad. Con las entidades bien definidas y diferenciadas, se aumenta y mejora el entendimiento del sistema a simular. SE RELACIONAN MEJOR LAS ENTIDADES. Con las entidades bien definidas, los lenguajes de simulación permiten relacionar mejor a cada una de las entidades, es decir, se determina más fácilmente, las relaciones que las entidades guardan entre si y el análisis de cada una de ellas. BIBLIOGRAFÍA •
AUTOR/ES, Raúl Coss Bu
•
CAPITULO, Ventajas de los lenguajes de simulación.
•
PAGINAS, P, 123-124.
•
LIBRO, SIMULACIÓN UN ENFOQUE PRACTICO.
•
EDITORIAL, LIMUSA.
FACTORES A CONSIDERAR EN LA SELECCIÓN DE UN LENGUAJE DE SIMULACION La selección de un lenguaje de simulación generalmente está supeditada al tipo de computadora que se tiene disponible, es decir, en la mayoría de las veces ya se cuenta con cierta configuración de hardware. Por consiguiente, conociendo la computadora que se va a usar, los factores a considerar en la selección del lenguaje serian: Los manuales disponibles. Es muy importante considerar la facilidad de entender e interpretar los manuales disponibles. Compilador del lenguaje. Es necesario investigar la compatibilidad del compilador del lenguaje con la computadora disponible. La documentación y diagnóstico de errores. Es conveniente analizar la forma en que el lenguaje reporta las inconsistencias y los errores de lógica. La eficiencia. Uno de los factores principales a considerar en la selección de un lenguaje es su eficiencia de operación. Dentro de la eficiencia se considera el tiempo de organizar, programar, compilar y ejecutar. Los costos involucrados. Entre los costos que origina la adquisición de un paquete se pueden mencionar: El costo de instalación, el costo de mantenimiento y actualización del software y el costo de operación. Conocimiento del lenguaje. Otro factor importante a considerar en la selección del lenguaje, es el conocimiento y dominio que de éste tengan las personas o analistas encargados de realizar los estudios de simulación. Justificación económica. Finalmente, y el mas importante de todos, es la justificación económica del lenguaje de simulación. A este respecto, es conveniente señalar que la adquisición de un paquete se debe de considerar como un proyecto de inversión, donde los beneficios que se derivan de tal adquisición, deben de compensar la inversión y los gastos que origina.
FACTORES A CONSIDERAR EN EL DESARROLLO DE MODELO DE SIMULACION.
Se han identificar las variables que intervienen en el sistema y que son de interés para nuestro modelo. Variables exógenas Variables endógenas VARIABLES EXÓGENAS
Son variables externas al modelo. Se consideran variables de entrada. Se pueden dividir en dos grupos Variables controlables Variables incontrolables
VARIABLES ENDÓGENAS A aquella variables (dependiente o independiente) generada dentro de un modelo y, por lo tanto, cuyo valor se determina por alguna de sus relaciones. Por ejemplo. El gasto en consumo se considera una variable endógena a un modelo de determinación de la renta ya que este depende de otras variables, que si se consideraría exógena (como el sueldo). ESPECIFICACIÓN DE LAS RESTRICCIONES DE LAS VARIABLES DE DECISIONES. Incluso en el caso de que la variables sean controlables, están limitadas o restringidas a cierto límites se debe de tener cuidado con las restricciones. DESARROLLAR UNA ESTRUCTURA PRELIMINAR DEL MODELO. Para evaluar la efectividad de un sistema se debe identificar una medida o medidas de comportamiento (o ejecución) para juzgarlo, si se minimiza una, la otra aumentara. ELECCIÓN DE UN LENGUAJE DE PROGRAMACIÓN. GPSS Cualquier sistema por simular en este lenguaje se debe describir mediante un diagrama de bloques que representan las actividades, unidos mediante líneas que representan la frecuencia que seguirán un grupo de transacciones, que a su vez se muestra a través de los bloques. SLAM
Su realización requiere que el usuario represente el sistema mediante diagrama, realizados sobre diversos nodos y actividades, esto puede ayudar al usuario para definir el sistema y para comprender mejor el problema, SLAM es un descendiente de GASP IV que ofrece también recursos de simulación de redes y continuos, estando ambos codificados en FORTRAN, desde los lenguajes orientados a los procesos, existen representación de modelo en bloques como GPSS y SIMAN y los basados en redes como Q-GERT y SLAM.
Conclusión Espero y haya sido de su completo agrado el trabajo realizado en este portafolio de evidencias se intentó capturar toda la esencia del curso en un claro y resumido documento que guarde los resultados de los estudios y esfuerzos realizados para acreditar dicha materia, que trata sobre la simulación de proyectos en los cuales podemos ahorrarnos muchos recursos, entre tiempo esfuerzo y dinero, al simularlos con algún software como el empleado en este curso que fue ProModel, el cual nos ayudo en la resolución de problemas de simulación, fue muy dinámica la clase con toda clase de trabajos que reforzaron nuestro conocimiento teórico y práctico y que logro darnos una excelente visión de lo que es la simulación, es bueno tener una herramienta así, ya que nos catapulta a otros niveles académicos en los que podemos ir tranquilamente adelantados en estos campos, quedo muy satisfecho con lo obtenido y aprendido en este curso. Bibliografía TIPO
TITULO
AUTOR
EDITORIAL/REVISTA
AÑO
Libro
Simulación, un enfoque práctico.
Coss Bu, Raúl
Limusa
2002
Libro
Simulación y análisis de Sistemas con ProModel
Eduardo García Dunna
Pearson
2006
Libro
Probabilidad y Douglas C. estadística aplicada Montgomery a la ingeniería.
McGraw-hill
2011
Libro
Simulation modeling and analysis
Law, Averill y Kelton David
McGraw-hill
2000
Libro
Introducción a la simulación y a la teoría de colas
Ricardo Cao Abad
Netbiblo
2002