jueves, 12 de abril de 2007

Resumen de la lectura 1 en equipo

CATEDRÁTICO: EFREN OSORIO RAMÍREZ.


MATERÍA: SIMULACIÓN.


HORA: 9-10 HRS.


“ RESUMEN DE LA LECTURA 1”


INTEGRANTES:


ALATRISTE HERNÁNDEZ MARÍA DEL PILAR. 03220990


ALCALÁ LAVARIEGA CARLOS ALBERTO. 03220991


HERNÁDEZ HERNÁNDEZ YOQZAN. 03221080


RAMÍREZ ANGELES RUBÉN. 03221160


TEJOCOTE ROMERO ALDO. 03221202.


MARISOL MARTINEZ.


RESUMEN DE LA LECTURA 1

Procedimientos de la conferencia de simulación del invierno 2003.

La simulación es una herramienta de gran alcance para el análisis de los nuevos diseños de un sistema, sus modificaciones realizadas a dichos sistemas existentes y propuestas; cambios a las reglas de funcionamiento.

Este papel proporciona una introducción a la simulación, el modelar y los conceptos principales proporciona a la simulación subyacente también un papel importante.
Un acontecimiento es una ocurrencia instantánea que cambia el estado de los modelos.

Hay muchos tipos y clases de simulación. Esto cubre casi todas las simulaciones discutido en la conferencia de la simulación del invierno. Excluye Monte - Carlo - , mecanografiar las simulaciones en una hoja de balance (los estudios del muestreo, financieros y arriesgan análisis, y así sucesivamente).
También se puede definir a una entidad como un objeto en el modelo.

Un modelo es una representación de un sistema o de un proceso. Dicho modelo incorpora tiempo y cambios que ocurren en un cierto plazo. Casi todos los modelos del discreto-acontecimiento son estocásticos. Los cuales contienen algunos componentes que se modelan como una distribución estadística. Esto introduce a la variación al azar en un modelo, realizándolo en un experimento estadístico o de muestreo.

Un modelo puede incorporar lógica, matemáticas y aspectos estructurales del sistema o del proceso. Además un modelo del discreto-acontecimiento es uno que estado cambia solamente en las horas discretas llamó tiempos del acontecimiento

.Un modelo de simulación es una descripción de un proceso o del sistema, incluye generalmente los parámetros que permiten modelar para ser configurable, es decir, para representar un número, sistema, algo o configuraciones de proceso. Como modelo descriptivo, podemos utilizar una simulación modelada para experimentar, evaluar, comparar, cualquier número de alternativas del sistema.

Predicción del funcionamiento del sistema e identificación del sistema

¿Cuándo se debemos utilizar la simulación?

1.-Cuando no hay un modelo analítico simple, hoja de balance, o parte posterior al cálculo.

La simulación permite la experimentación con un modelo de un sistema.

Un modelo de la simulación proporciona el único método para estudiar nuevos, no existentes sistemas dinámicos complejos, ya sea analítico o estático (hoja de balance), el modelar prevé en el mejor de los casos un modelo bajo de la exactitud. Por otra parte, las simulaciones son a menudo desperdiciadoras de tiempo, los datos no son disponibles o son costosos de obtener, además de que el tiempo para un estudio confiable disponible, debe ser suficiente antes de empezar a tomar decisiones.

El software de la simulación y la tecnología puede agregar demasiado detalle a un modelo y pueden contribuir a su desarrollo, dando por resultado la original en las metas del proyecto

Un buen modelo de la simulación proporciona no sólo las medidas numéricas del funcionamiento del sistema, sino que también proporcionan la penetración en el funcionamiento del sistema.

Las simulaciones son conducidas por los especialistas internos en muchos compañías así como por muchos ingenieros, lo cual se logra consultando compañías de servicios. Algunas compañías se especializan en el ofrecimiento de servicios de simulación. Estos grupos o compañías pueden proveer la maestría de la simulación y el desarrollo, modelo, la experiencia.
Las simulaciones son conducidas casi siempre en equipo, y no individualmente

El analista de simulación: debe de tener Habilidades y manejo de software. Ya que para un analista de simulación, el conocimiento de un paquete es de gran ayuda. Los modelos se deben desarrollar en un paquete conveniente,
Cada proyecto de la simulación procede a través de un sistema de fases, las cuales conducen a una meta lo cual hace que el proyecto sea acertado.

Tres consideraciones totales importantes son: Límite y alcance modelo, Nivel del detalle, Alcance del proyecto. El límite o el alcance del modelo se determinan cuando se está adentro del modelo, o hacia fuera. El nivel del modelo de detalle especifica cómo se modela el una entidad profundizado

Con la información desarrollada durante la formulación del problema, el analista de la simulación debe desarrollar estimaciones del tiempo del proyecto para su desarrollo, verificación, validación, experimentación y análisis, los cuales son los pasos de una simulación. El sistema de asunciones y de datos acordados es, esencialmente, el modelo conceptual.

Después de todo, su propósito es comunicar un sistema de requisitos de las asunciones y de los datos entre todos los miembros del equipo de la simulación. El trabajo de proyecto consiste en el desarrollo del modelo y recolección de datos. El resultado final es un modelo de trabajo con cliente-el cual proporcionó y validó datos.

El desarrollo del modelo consiste, en una cáscara de nuez, de dos actividades importantes:

1. El desarrollo de las estructuras de datos para representarlos en el modelo.
2. la traducción de las asunciones que modelaban en el documento. El analista de la simulación, debe representan los datos y sus correlaciones como por medio de un software

Las fuentes de datos incluyen las bases de datos, expedientes manuales, automáticos sistemas de colección de datos, muestreando estudios y tiempo estudios.

A menudo las pruebas o las intervenciones pueden demostrar que datos aparece ser datos y cuales no. Con algunos tipos de datos, el analista puede decidir si utiliza los datos reales como entrada en dicha simulación.

Verificación y validación del modelo. En esta fase el analista de la simulación verifica el modelo, y trabajando con el cliente, valida el modelo. Si se encuentran problemas, en el modelo o en los datos, se corrigen ambos.
En la verificación del modelo, el analista de la simulación comprueba con numerosas para ver si el modelo coincide con las asunciones del Documento.

Todas las salidas del modelo deben tener sentido y deben ser razonables sobre una gama parámetros de entrada.

La validación del modelo se consigue con el cliente implicado. Después de convencer de que el modelo es exacto y verificado, el analista de la simulación debe conducir hacia un modelo cuidadoso el cual tendrá una revisión con el equipo del cliente.

Si un miembro del equipo está presente en las reuniones para presentar los resultados modelo, ese miembro del equipo debe estar presente en la validación, repasar reuniones. Las técnicas numerosas se pueden utilizar durante la validación modelo, incluyendo (1) uso de animaciones y de otras representaciones visuales para comunicar las asunciones modelo, (2) medidas hechas para salir del funcionamiento, o para una representación de la configuración de un sistema existente o un diseño inicial, de modo que los miembros del equipo puedan juzgar el carácter razonable del modelo.

Diseño experimental. Antes de conducir experimentos de la simulación, el analista debe decidir entre un número de ediciones, las cuales son:

1. Los parámetros de la entrada que se variarán, su gama y combinaciones legítimas.

2. Runlength modelo (cuanto tiempo va a funcionar la simulación),

3. Análisis del estado estacionario,

4. Número de réplicas.

Otros modelos con menos variabilidad inherente han requerido solamente 3 a 5 réplicas. Cada uno es modelo dependiente. Los modelos de la simulación se utilizan generalmente para realizar comparaciones de grandes alternativas, y quizás evaluar estando adentro con mayor detalle un número pequeño (1 o 2) de alternativas recomendadas. El documento de las asunciones debe incluir la descripción de variaciones del modelo previstas, incluyendo gama de cada parámetro modelo de la entrada.

Análisis El análisis se basa en las medidas acordadas del sistema funcionamiento.

Para la brevedad, se asume que los datos están disponibles en aspecto de la simulación del interés. Aunque estos tiempos de la espera tienen valores para la validación modelo, no contribuyen al modelo de la entrada. Los elementos de datos apropiados para a recoger un modelo de la entrada son típicamente lpara mantener épocas.

Entrada mezclada, univariate, time-independent.
Todos los ramas incluyen este modelo particular. Un modelo conducido de la entrada genera simplemente un proceso; eso es idéntico a los valores recogidos de los datos para no confiar en un modelo paramétrico.

El modelo remontar-conducido de la entrada para el proceso de la llegada es generado teniendo llegadas, lo cual ocurre al mismo tiempos que se observan valores. La mitad superior de la taxonomía contiene modelos, eso es la muy independiente del tiempo. Estos modelos habrían podido ser designado los modelos de Monte Carlo.

Los ejemplos de modelos discretos univariables incluyen la distribución binomial y una distribución degenerada con toda su masa en un valor.

La mitad inferior de la taxonomía contiene proceso estocástico modelos. Estos modelos son de uso frecuente, los cuales se usan para solucionar problemas en el nivel de sistema, además de la porción como entrada, modela para las simulaciones con los elementos estocásticos. Los modelos son clasificados por cómo se miden en el tiempo (discreto/continuo), espacio del estado (discreto/continuo) y si es el modelo inmóvil a tiempo. El primer ejemplo determina un modelo de la entrada por tiempos del servicio, y el segundo ejemplo determina un modelo de la entrada para un proceso de la llegada. 3.1.

Mantener el modelo de Tiempo Considera un modelo servicio de n D 23 recogidos a determinar un modelo de la entrada en una simulación del discreto-acontecimiento de un sistema que hace cola.

El p - el valor puede, sin embargo, ser bastante pequeño en comparación a la colección de datos adicional de la autorización. 5 10 15 20 0 50 100 150 Observación Número Servicio Tiempo Cuadro 2: Mantener Tiempo contra número de la observación Hay un número de otro gráfico y de métodos estadísticos para determinar independencia.

Ningunos eran estadístico significativos para los datos del tiempo del servicio.

La decisión siguiente que necesita ser tomada es :
si a el modelo es paramétrico o no paramétrico de la entrada o si debe ser utilizado. . Hay docenas de opciones para un paramétrico univariate modelo por los tiempos del servicio.

.La Generación de un proceso para la simulación es de forma directa (Leemis 1991). Hay muchos modelos paramétricos potenciales para no estacionario procesos de la llegada.

El modelador de la simulación de 4 discrete-event marco Esta sección contiene una descripción de un diagrama que se ha desarrollado, para describir el proceso de construir un modelo de la simulación del discreto-acontecimiento.

Al evitar describir unos o más números en nuestras descripciones de estos sistemas, asumimos que hay números múltiples en los sistemas. Las descripciones de estos sistemas pedidos siguen. X0 es un sistema de las semillas para un generador del número al azar, uno para cada corriente usada en la puesta en práctica del modelo de la simulación del discreto-acontecimiento. U es un sistema de números al azar creado usando generador Gr del número al azar para transformar las semillas en el sistema X0 a los números al azar.

5.- es un sistema de los datos de entrada (variantes aleatorias) creados cerca de la aplicación del modelo I, de la entrada al sistema de al azar números U. Y es un sistema de datos de la salida generados aplicándose el modelo L de la lógica al sistema de los datos de entrada V. los datos de la salida son típicamente dependientes, aunque el modelo de la probabilidad para cada observación individual es a menudo idéntico para un análisis de estado estacionario una vez el modelo de la simulación se calienta

D es un sistema de valores de los datos del sistema recogidos, de elementos encendidos apropiados del sistema del interés, los cuales estan adentro con orden para construir un modelo I.

.Éstas son las siete fuentes del error asociadas a la simulación del discreto-acontecimiento que modela proceso.

Gr es un generador del número al azar usado para transformar las semillas en el sistema X0 para fijar el U. I es el modelo de la entrada usado para transformar el sistema de números al azar U al sistema de los datos de entrada V. el proceso de transformar U a V se conoce como al azar generación de la variante aleatoria. El modelo de la entrada está a menudo determinado analizando un sistema de los datos D.
L es el modelo de la lógica que captura asunciones, hecho sobre el sistema en transformaciones (a menudo formulado como algoritmos) que se utilizan para transformar el sistema de los datos de entrada V al sistema de los datos Y. de la salida.

El conector del sistema de los datos Y de la salida y el sistema de estimaciones del punto de las medidas del funcionamiento O implican que hacer uso de computo en la estadística, que son funciones del sistema de los datos Y (e.g., medio de la salida de la muestra, punto medio de la muestra, o variación de la muestra). El Cr denota los procedimientos de la colección de datos del sistema del interés. Es crucial recoger los elementos de datos apropiados del sistema.


Al denotar las asunciones hechas en el sistema de interés. Estas asunciones se utilizan para crear el modelo L de la lógica que describe la operación del sistema, cabe destacar que el funcionamiento es desconocido, lo cual hace necesario típicamente el uso de una simulación del discreto-acontecimiento análisis para un sistema complejo. Si el modelo podría ser simulado para una longitud infinita del tiempo, y de un modelo infinitamente grande podía ser recogido en el sistema del interés, entonces el error entre ambos sería un valor constante inducido solamente por error lógica-que modela.

Equivalente, los números en el sistema Y se dibujan matemáticamente de un modelo insuperable de la probabilidad.

En la base de cualquier simulación, un modelo implica las cantidades de valores, los cuales son imprevisibles y por lo tanto se deben muestrear de un número determinado de observaciones.

Todos los modelos de la simulación cupieron en esta descripción. La simulación de la hoja de balance implica simplemente el uso de una hoja de balance para representar el modelo, hace el muestreo y realizar los cómputos.

.Las hojas de balance son utilizadas por mucha gente. Estas herramientas son gran alcance y poder, ciertamente se pueden utilizar para desarrollar una amplia gama de los modelos de la simulación, pero en muchos casos una hoja de balance es más simple y más intuitiva para utilizar.

¿Por que se usa en una hoja de balance en la simulación? .
Utilizaremos la plataforma de la simulación del término para referirnos al ambiente de software a desarrollar, probar y funcionaba a experimento de la simulación.

El más popular las hojas de balance tienen estas características. Representaciones de la base de datos y acceso de base de datos.

Las hojas de balance son unicas - casi todass tiene un formatos del archivo, el cual se han estandarizado, así que los archivos escritos por una hoja de balance pueden generalmente ser importado por otros. Consecuentemente, reveladores y usuarios la pueden pasa fácilmente a modelos de la simulación a partir del uno a otro. Para estas razones, la hojas de balance son una plataforma atractiva para la simulación. Hay un número de publicaciones que discuten la simulación de la hoja de balance.


¿Cuándo es apropiado usar una hoja de balance?

Ciertas situaciones que modelan se prestan bien a la puesta en práctica en una hoja de balance. De hecho, plasmar cálculos en una hoja de balance se puede considerar un modelo. Generalmente, éstos los modelos tienen los parámetros o variables que valores son desconocidos y asumidos.

Modelos estocásticos. En algunos casos, los parámetros desconocidos son realmente al azar, variables es decir un valor que no se puede predecir, es decir, los modelos son modelos estocásticos. Muchos modelos estocásticos se encuentran dentro de las finanzas (propiedades inmobiliarias incluyendo y seguro), la logística y la ingeniería se pueden setup convenientemente en una hoja de balance para simulación

Análisis de la sensibilidad para los modelos de la hoja de balance. Otra situación donde es útil la simulación de la hoja de balance implica hacer qué si el análisis de la sensibilidad para los modelos que tienen parámetros desconocidos que no sean necesariamente al azar.

Si son solamente uno o dos parámetros implicados, los modelos pueden utilizar el comando de la tabla del Menú de los datos para evaluar la medida de funcionamiento, cuando cada valor de parámetro en una colección de valores posibles es substituido en el modelo.

En modelos verdaderos de la hoja de balance, hay normalmente muchos parámetros desconocidos, así como medidas de funcionamiento múltiples.

La solución a este enigma es la simulación. Muestreando estos valores el desconocido enigma de distribuciones apropiadas, puede hacer qué el análisis del modelo se realice con una gran cantidad de parámetros desconocidos.

La simulación es una técnica útil cuando el número de los parámetros desconocidos son moderados o grandes.

¿Cómo se emplea el set up en una hoja de balance

Generalmente, cada célula en un modelo de la hoja de balance se puede clasificar en tres tipos de cantidades:

Entradas al modelo.

Cómputos intermedios. Estas células contienen cálculos que están implicados en el modelo.

Salidas del modelo. Estas células contienen las observaciones respecto a cantidades del interés uno buscan del modelo.

La mayoría de los modelos que se pueden organizar de esta manera pueden representarse en una hoja de balance.

Setup el modelo. El primer paso es construir el modelo en la hoja de balance usando los valores definidos para todos los parámetros y otras entradas.

Tercero, identificar los datos de la salida para el modelo. Realmente, el modelar consiste en saber si el funcionamiento es deseado dea cuerdo a las medidas cuando se crea el modelo.

Crear el funcionamiento de simulación Es útil distinguir dos tipos de experimentos de la simulación:

1.- simulaciones estáticas que repliegan el experimento independientemente, produciendo la independiente, distribuida idénticamente observaciones.

2.-simulaciones dinámicas que se producen en una serie de tiempo de observaciones dependientes.

¿Cuándo no es aconsejable utilizar la hoja de balance en la simulación?

Las hojas de balance son herramientas de gran alcance, convenientes para la simulación que modela, pero tienen cuatro limitaciones importantes:

1.- Solamente las estructuras de datos simples están disponibles.

2.- algoritmos complejos que son difíciles de poner en ejecución.

3.- Las hojas de balance son más lentas que un cierto almacenaje de los alternativas.

4.- los datos son limitados.

Cada célula puede contener datos o una fórmula. En una cierta simulación, se necesitan datos más elaborados de las estructuras tales como listas y árboles son necesarios.

Es decir, la hoja de balance debe interpretar la situación antes de que pueda ser ejecutada.

Así, las hojas de balance son ineficaces en su uso de la memoria.

Sin embargo, algunos modelos que evalúan la confiabilidad de sistemas altamente confiables, requiere tamaños de muestra muy grandes - en millones de observaciones.

Los prototipos pueden ser construidos y funcionar rápidamente en una hoja de balance. Si el prototipo demuestra que la simulación no trabaja bien en la hoja de balance, entonces puede ser movida a una plataforma apropiada.



CONCLUSIONES
Las hojas de balance proporcionan una plataforma útil para muchos modelos de la simulación.

Las razones de esta falta de aprovechamiento de la simulación son muchas. A veces, los encargados o los analistas no están actualizados con el software de la simulación.

Los modelos financieros se pueden poner en ejecución eficientemente en una hoja de balance. Las hojas de balance son una plataforma útil para los problemas de la simulación, incluyen el prototipo de modelos que son relativamente pequeños y diseñados para proporcionar una prueba del concepto.
PRÁCTICA ACERTADA DE LA SIMULACIÓN
Introducción
Si te han encargado la ejecución de un estudio de la simulación, no puedes saberlo, sino que tienes absolutamente un trabajo desafiador en tus manos. (Es seguro compartir esto con tu jefe para un poco de condolencia profesional o, si eres afortunado, un aumento bien merecido.) Tener éxito con la tarea que te han asignado, tú necesitará una combinación increíble de habilidades cuantitativas y cualitativas, de muchos de ayuda de muchas áreas de tu organización, y de una habitación de herramientas y de técnicas de permitir tu trabajo. Mucho se ha escrito y se ha investigado en el área pasada, dando por resultado un arsenal sobresaltado de modelar/de técnicas y de software del análisis para realizar estudios de la simulación. Tu selección de la metodología que utilizarás y los instrumentos de apoyo para hacer el trabajo contribuirán al éxito de tu proyecto. Sin importar el acercamiento estás tomando y el producto eres el usar, aunque, el tener éxito con la simulación requiere mucho más. Mientras que resulta, muchos de estos aspectos suplementarios pueden influenciar tu probabilidad de hacer un buen trabajo mayor que los métodos y las herramientas tradicionalmente discutidos disponible para ti.
2 ¿QUÉ LO HACE MEDIO DEL “ÉXITO”?
Primero, es importante identificar cómo el éxito será definido. En los mejores panoramas, un proyecto acertado de la simulación es uno que entrega la información útil en el momento apropiado para apoyar una decisión significativa (véase el cuadro 1).
2.1 La información correcta
El aspecto más importante de presentar la información correcta es mirarlo de la perspectiva de las audiencias para quienes se ha pensado. Pensar de lo que necesitan saber y de porqué necesitan saber, en el contexto de lo que van a hacer con esta información para entregar valor a tu negocio. Intentar anticipar las preguntas que puede ser que hagan. Y recordar, su opinión del sistema que estás estudiando está limitada para ser diferente la tuya, así que tomar la época de introducirlas a cómo miras cosas, y explorar cómo esto diferencia de su perspectiva. Puedes necesitar crear animaciones más elegantes o diseñar informes de encargo, por ejemplo, para comunicarse lo que estás haciendo y lo que has aprendido fácilmente y con eficacia. La naturaleza de la información que es necesaria puede variar, incluso en diversas horas dentro de un proyecto. Cuando emprendes tu viaje de la simulación, una de tus primeras tareas debe ser definir esto tan explícitamente como sea posible, teniendo presente que hay muchos componentes que pueden tener un interés en tu trabajo. Los que hacen y las decisiones de la influencia estarán ciertamente interesados en los datos que se asocian típicamente a un estudio de la simulación (duraciones de ciclo, costes, utilizaciones del recurso, etc.). Más allá de esta información obvia, aunque, puede mentir otros tipos que sean igualmente importantes. La animación del proceso simulado pudo ser dominante al éxito del estudio, apoyando la validación modelo e influenciando responsables. Las opciones que eran inexploradas o desechado rápidamente debe ser documentado de modo que otros sepan ambos qué lo hiciste (o no hizo) y porqué tomaste esas decisiones. También debes confiar en que los instintos que has desarrollado sobre el sistema pudieron estar como o más valioso que los de los “expertos” con quién has consultado. Una de las grandes ventajas de asignar a alguien para realizar un estudio de la simulación es la perspectiva que tienen en el sistema. Mientras que la gente que es de ejecución o que pone de un proceso/de un sistema en ejecución tiene una maestría del gran detalle referente a su área, el analista de la simulación gana una descripción de alto nivel - mientras que todavía entiende el proceso en un nivel justo del detalle.

2.2 La sincronización correcta
La sincronización de cuando puedes entregar la información significativa también es crítica al éxito de un proyecto. Una respuesta de alta fidelidad que es demasiado atrasada influenciar una decisión no es tan buena como cortar la estimación que ayuda al tiempo. Observar, también, que esto se aplica a través de un estudio, no apenas en su terminación. Si puedes proporcionar penetraciones preliminares en el comportamiento de un sistema temprano en un proyecto, los dueños del diseño pudieron cambiar las opciones que consideran o que ajustan el foco de los esfuerzos de la simulación.
2.3 La decisión correcta
El tercer aspecto de tener éxito puede estar fuera de tu control, pero es importante para que entiendas. A saber, para que el proyecto tenga éxito de tus esfuerzos, necesitas influenciar una decisión importante. El trabajo maravilloso de la simulación, el análisis avanzado, y la animación ojo-que ase, todo el tiempo de funcionamiento terminado siguen siendo de ningún valor si no se entregan a la persona adecuada en el contexto idóneo. Si eres perito en la política corporativa, probablemente encontrarás fácil calcular hacia fuera quiénes es la gente adecuada y en qué medida ella se traslapa con las que' ve identificado como responsables importantes. (Asombrosamente, estas listas diferencian a veces.) si no, después como tu proyecto se mueve adelante, debes trabajar para identificar donde está la energía y para adaptar tus comunicaciones para poner la información derecha delante de estos individuos. Cuando presentas cualquier información de tu estudio, también debes considerar el ambiente de la decisión: donde están las áreas sensibles, existen qué preconcepciones, y cuál es realmente importante. Se inician muchos estudios de la simulación “prueban” que una línea de conducta prevista correcta. Si tu análisis concluye por el contrario, entonces el ambiente que caminarás en voluntad esté considerablemente más desafiador que casos donde hay mentes abiertas. En tal situación, que debes intentar para descubrir temprano en el proyecto, debes asignar la hora adicional para el análisis adicional después de que sea tu proyecto “termine,” apenas en caso de que descubres que la sabiduría existente era equivocada y la munición adicional de la necesidad de hacer tu caso.
3¿DONDE PODRÍAS IR MAL?
¿Alcanzar esta meta de tener éxito con la simulación, dos preguntas se parecen las más relevantes, a saber cómo pueden las cosas ir mal y qué debes hacer para hacer que vayan bien? Como sucede a menudo, mientras que no puedes tener control sobre todos los aspectos relevantes de tu trabajo, puede ser inestimable entender la importancia de ellos mientras que planeas tus esfuerzos y diseñas tus informes y presentaciones.
3.1 Abordar el problema incorrecto
A veces, la equivocación más grande se incurre en al principio de un estudio de la simulación. Si tu organización o cliente ha escogido el problema incorrecto para explorar con la simulación, puede ser que seas puesto en un de riesgo elevado de la falta antes de que hayas hecho tu primer tecleo del ratón. Uno de los lugares interesantes en donde ocurre éste es cuando la simulación se utiliza para probar lo que “se sabe ya” o decidido. En algunas firmas, ciertos umbrales de la adquisición capital requieren un estudio de la simulación, aunque puede ser que sea iniciado bien después de que las comisiones firmes con una línea de conducta particular se hayan hecho. Si te cargan con uno de estos tipos de proyectos, eres o realmente afortunado (es decir, el plan que está ya en lugar correcto)… o estás en una situación muy peligrosa. Desafortunadamente, no sabrás cuál es el caso hasta que terminas tu trabajo. Particularmente debido a la animación que acompaña la mayoría de la simulación estudia, otro peligro se presenta al identificar a candidato proyecta. Una vez que un analista haga perito en la ejecución de estudios de la simulación, el puede bajar en la trampa que “cuando tienes un martillo (simulación), toda parece un clavo (oportunidad de la carrera).” Ciertamente, muchos problemas requieren la simulación; las decisiones necesarias pueden ser tomadas con eficacia solamente mirándolos con la perspectiva de un análisis de la simulación. Sin embargo, otros problemas se pueden solucionar fácilmente usando otras herramientas, tales como análisis que hace cola, optimización, o cálculos simples de la hoja de balance. Cuando estás a punto de emprender un proyecto de la simulación, una parte posterior del paso y una comprobación minuciosa la mejor herramienta de esa simulación para el trabajo. Si algo una poder más simple proporciona la misma calidad de resultados, después evitar el coste del estudio de la simulación y utilizar el apropiado herramienta. Los tipos mas comunes de estudios equivocados de la simulación, aunque, son ésos donde está demasiado ambicioso o mal definido el alcance. Es difícil calcular hacia fuera donde los límites deben estar en un sistema complejo, puesto que se parece a menudo que todo podría ser un factor importante en funcionamiento. Debes trabajar difícilmente temprano en un proyecto para descubrir qué excluir del estudio; mientras que es duro decir “no,” puede ser críticamente importante estar dispuesto a hacer tan.
3.2 Trabajando en el problema correcto… en el Tiempo incorrecto
Para aumentar la ocasión de proporcionar una buena respuesta en el tiempo derecho, puedes necesitar pensar cuidadosamente cuándo comenzar un proyecto de la simulación y de si frenar, aunque tú has establecido ímpetu. Si los diseñadores del sistema/del proceso todavía están considerando ideas extensamente que diferencian, o son reunión de reflexión para que cómo solucione algunos de los problemas fundamentales en el sistema, después él puede ser prematuro realizar más que un análisis rudimentario. Es más difícil identificar problemas que miden el tiempo una vez que un proyecto esté en curso. Si hay cambios regulares y significativos a la naturaleza del proyecto, sentirás los efectos puesto que tendrás que volver a trabajar tu modelo. Es duro, aunque, saber si o cuándo debes detenerse brevemente el trabajo de la simulación dejas a equipo de proyecto hacer más diseño preliminar. O, puede ser que tu mejor valor sea utilizar la simulación para muy áspero-cortó el análisis, poniendo encendido el asimiento el estudio más detallado que fue cargado inicialmente. Hay también peligro en el otro lado del espectro de la sincronización, donde un estudio de la simulación se comienza demasiado tarde para ser acertado. Esto comienza a menudo con una llamada aterrada de un encargado de proyecto, que dice que el “absolutamente debe tener comenzar hecho simulación ahora!” ¡Por supuesto, la respuesta natural es traer la simulación al rescate! Desafortunadamente, el montar a caballo de la caballería sobre la colina está llevando raramente las computadoras portátiles con los modelos terminados, validados, y verificados de la simulación. Si te presentan con una petición como ésta, tú debe conducir cuidadosamente al encargado de proyecto con cuál es factible estar de valor. A menudo, esto implicará la negociación intensa, donde el encargado de proyecto desea un detallado, análisis cuidadoso hecho rápidamente y el analista de la simulación debe centrarse en cuál es puede razonablemente ser hecho de modo que el proyecto comience hacia fuera con metas alcanzables.
3.3 Faltando las señales de peligro de las “aflicciones de los datos”
Preguntar a cualquier analista experimentado de la simulación cuáles es la agravación, aspecto desafiador, peligroso de un proyecto, y eres probable oír “datos” en la contestación. Según Ricki Ingalls, encargado de fabricación de la estrategia para la computadora de Compaq, “es la gerencia de datos que toma la mayor parte del tiempo… conseguir los datos, funcionándola, entonces analizándola” (Andel 1999). Las aflicciones de los datos son algo análogas a la historia de Goldilocks y de los tres osos: puedes tener demasiado poco, demasiado, o apenas la cantidad derecha… y todavía encontrarse en apuro.
3.3.1 Demasiados pocos datos
Lo más a menudo posible, si hay problemas con datos, es una carencia de la información. Mantener las épocas, probabilidades de la producción, tarifas del defecto, porcentajes de la reanudación, y muchos otros aspectos importantes de las dinámicas de un sistema no se pueden recoger para otros propósitos del negocio. Porque conseguir estos datos puede ser muy desperdiciador de tiempo, es crítico establecer tus necesidades de los datos tan temprano en un estudio como sea posible y determinarlas si existen los datos inmediatamente. Tu duración estimada del proyecto pudo variar antes de 100% o más, basado en lo que encuentras cuando vas a buscar números.
3.3.2 Demasiados datos
En tu búsqueda para los datos, puedes encontrar el problema opuesto, que hay lejano demasiado de él. Mientras que la información particular que necesitas puede existir, incluso quizás electrónicamente en una base de datos u hoja de balance, puedes pasar los días que intentan localizarla en medio de todos los otros datos que estén con ella. En esta circunstancia, es imprescindible encontrar ayuda alguien que está bien informado sobre los datos y que puedes educar sobre tus necesidades exactas. Dependiendo de cómo los datos serán utilizados, puedes también necesitar una cierta ayuda de IS en extraer los datos. Por ejemplo, si utilizas una herramienta que quepa distribuciones a los datos para el uso con la simulación, después necesitarás probablemente transferir los datos a una forma intermedia. Si es así pedir estos recursos temprano de modo que no se conviertan en un impedimento a guardar tu proyecto el mover de en-horario delantero.
3.3.3 ¿Apenas la cantidad correcta, pero qué significa?
A veces, puedes funcionar realmente a través de un caso donde la cantidad de datos empareja de cerca tus necesidades. Cuando sucede esto, parecerá la navegación lisa. Sin embargo, cuando miras los datos, ser seguro entender lo que realmente significa. Qué piensas en cuando dices duraciones de ciclo, por ejemplo, puede ser muy diferente de los datos que se almacenan en una tabla del ciclo-tiempo, que pudo incluir tiempo de espera, los tiempos de la interrupción, y otras características que se modelan por separado en la simulación.
3.4 Dejar la ventana del cierre de la oportunidad
El riesgo de la falta más grande y lo más extensamente posible discutido con la simulación es que no acabarás el trabajo el tiempo. Crear un modelo válido, útil de la simulación es esencialmente un proyecto del desarrollo del software, con riesgos y desafíos similares. Volviendo a nuestra definición del éxito, la sincronización de la información puede ser tan importante como la calidad de información -si la decisión tomada antes de que comiences tu análisis, tú pudo también archivar tus archivos y moverse encendido al algo más. Hay razones innumerables por las que los proyectos de la simulación son atrasados en entregar resultados. Cuatro trampas particulares, de consideración especial.
3.4.1 El conseguir perdido detalladamente
Una de las trampas más fáciles a caer en está consiguiendo enganchó en modelar. El arte de la simulación implica el determinar de qué nivel del detalle se requiere para apoyar las metas del proyecto. Es resistente hacer la esta derecha, aunque, porque no puedes decir a menudo si el detalle sea necesario hasta que lo has desarrollado; y una vez que se haga el trabajo, es duro justificar el quitar de él si es poco importante. Siempre que sea posible, errar en el lado de guardar el simple modelo, a menos que tengas el lujo de la holgura significativa en tu horario. Es generalmente más importante que puedas realizar un cierto nivel del análisis de un sistema en una manera oportuna que correr el riesgo del no tener ningún resultado para entregar cuando él es necesario. Para evitar esta trampa, encontrar a colega que puede escuchar con frecuencia ti repasa tu trabajo. Que la mayoría de los proyectos, es de mérito se sienten abajo con esta persona por lo menos dos o tres por una semana, generalmente por solamente 15 minutos si organizas la discusión bien. A veces, el tiempo será de mérito para las penetraciones que encuentras por tener que explicar lo que estás haciendo algún otro, aunque he/she no preguntas ni no contribuyes directamente cualquier cosa. Si el detalle está siendo conducido por ésos externos al proyecto (ejemplo, responsables, clientes), entonces preparar cuidadosamente una explicación del riesgo al horario del proyecto asociado al detalle agregado. Si es posible, realizar un análisis de la sensibilidad en el área en la pregunta; si las modificaciones significativas (ejemplo, 15-30%) al proceso no cambian perceptiblemente tus variables de la decisión, después es inverosímil que capturar los matices finos del sistema será significativo. A veces, la necesidad de la fidelidad modelo adicional es conducida por un deseo de animaciones más realistas. Mientras que muchos analistas de la simulación ven esto en fecha el valor de menor importancia para resolver sus metas, la calidad de la animación puede ser muy importante en recomendaciones del proyecto con eficacia que se comunican. De nuevo, el planeamiento y las comunicaciones tempranos pueden ser críticos, de modo que puedas construir un horario razonable del proyecto que incorpora la suficiente hora para todos los aspectos del esfuerzo.
3.4.2 Dejar el análisis para el extremo
Hay una idea falsa común que la ejecución de un estudio de la simulación implica una secuencia de los pasos (ejemplo, definición del proyecto, formulación modelo, verificación, validación, análisis). Por el contrario, todos los elementos de un proyecto de la simulación se deben realizar en varias ocasiones a través del esfuerzo, creciendo en alcance mientras que progresa el modelo. En la opinión tradicional, los proyectos sufren de un foco demasiado fuerte en el modelo (y quizás la animación), de modo que después de que el inevitable retrase y los problemas, allí no son ningún tiempo a la izquierda para funcionar panoramas. En lugar, hacen frente al analista con un plazo de la presentación que sea firme y poco tiempo para experimentar, para analizar, o pensar. En lugar, debes programar el proyecto en fases completas. Los jalones intermedios, espaciados no más que cerca de dos semanas aparte en un medio al proyecto grande, deben incluir las metas específicas para el modelo, la animación, los datos, y el análisis. Para el momento en que alcances el 25% pasado de tu tiempo en el proyecto, debes haber tratado las aplicaciones básicas del análisis la longitud, el tiempo de calentamiento, el etc. funcionados y debes haber realizado ya análisis preliminar en el modelo para un número de diversos panoramas.
3.4.4 Probando en el final del proyecto como con análisis, la verificación del modelo se debe realizar a través de un proyecto.
Porque es aún más aburrida y sin interés que analizando la simulación, es fácil dejar la prueba para tarde adentro el proyecto. ¡No hacerlo! La simulación puede ser una influencia de gran alcance en responsables. Si alcanzas las conclusiones basadas en un modelo culpable, has hecho una mayor deservicio a tu organización que si la simulación no había sido realizada en todos. Pensar de un plan de prueba temprano en el proyecto y revisarlo como progresas. Entregar un “estado” del gravamen modelo, que califica los varios segmentos del modelo con respecto calidad y a lo completo, debe ser una parte estándar de tu proyecto de la simulación en cada jalón.
4 ¿CÓMO PODERIAS TENER ÉXITO?
¡Con todos estos desafíos, es una maravilla que cualquier persona podría posiblemente hacer todo el esto! Pero hay algunos hábitos simples que puedes desarrollar que puede alzar tu probabilidad del éxito substancialmente.
4.1 Establecer un foco claro
El éxito o la falta de un estudio de la simulación comienzan con establecer un alcance razonable y el planeamiento subsiguiente del proyecto. La especificación del estudio debe ser formalizada obteniendo fines de conexión en objetivos enfocados. La falta de obtener estas comisiones, o establecer los objetivos que son demasiado vagos, puede instalar el proyecto para la falta antes de que comience. En muchos casos, el responsable o el iniciador del proyecto - referiremos te/te/te como “el cliente,” aunque ella es a menudo interna a tu organización-no sabe cuál esperar del equipo de la simulación. Asimismo, el equipo de la simulación no sabe a menudo qué espera de él. Es extremadamente importante que el cliente y el equipo de la simulación convengan y adhieren al alcance del proyecto. Si el alcance cambia, estas modificaciones se deben ser convenidas en y sus impactos reconocer por el cliente y el equipo de la simulación. El encargado de proyecto de la simulación debe obtener horario y la relevación del coste si requieren los recursos, el tiempo, o al personal adicional para terminar la simulación el tiempo y según las nuevas especificaciones. El proyecto debe también abarcar la animación en el nivel apropiado del detalle. La animación demuestra una comprensión del sistema que es estudiado y provee de credibilidad la gerencia mayor; por lo tanto, debe siempre ser una consideración mientras que planea el alcance y el horario para el proyecto. Muchas veces, el cliente puede incluso estar menos interesado en los resultados reales; pero si la animación mira impresionante, un mínimo, a equipo de la simulación gana credibilidad inmediata con cualquier resultado de la salida que siga.
4.2 Planear cuidadosamente y a fondo
Una vez que se haya establecido el alcance del proyecto, según lo mencionado anterior, debes identificar requisitos de los datos. Cuanto anterior consigues a manija en qué datos eres necesarios, más pronto la reunión de los datos puede comenzar. Como cualquier profesional de la simulación sabe, la colección y los análisis de datos duran a menudo que construyendo el modelo sí mismo. Dado los objetivos del proyecto, los prototipos de los informes impresos de ejecución pueden también ser diseñados y ser convenidos en de modo que el modelo sea seguro calcular la estadística apropiada durante la simulación. Las cantidades innecesarias de reanudación pueden ser evitadas si el modelo sabe delante de tiempo qué estadística necesita ser recogida. La diferencia puede incluso ser tan simple como teniendo que solamente utilizar una diversa construcción que de la arena. Es.modela; e.g. una hornada contra un módulo del fósforo en también imperativo que planeas el proyecto en un nivel apropiado del detalle. El encargado de proyecto debe desarrollar un plan del proyecto usando una estructura de la interrupción del trabajo. Este acercamiento es caracterizado rompiendo tareas importantes en las más pequeñas con tiempos de la tarea y los recursos requeridos para terminar cada tarea. Los ejemplos de las tareas que recopila y que analiza que se deben explicar en el plan son:
§ Qué anima el modelo
§ Qué construye el modelo,
§ Datos de salida.
Un ejemplo de una interrupción para recopilar y analizar datos sería:, datos del tiempo del proceso del frunce datos de la llegada del frunce del analiza datos de proceso del analista de datos de la llegada, el del tiempo. El encargado debe también programar los jalones para cada uno de estas tareas importantes, además de los jalones para las subtareas. El horario se debe repasar continuamente por el encargado de proyecto y se debe también repasar por los miembros del proyecto. El cliente debe ser dado actualizaciones frecuentes referentes al horario: cómo está procediendo el proyecto y si o no los jalones están siendo conocidas.
4.3 Construir un Tiempo de línea realista
Las caídas típicas a evitar en proyectos de manejo de la simulación incluyen la subestimación de la hora, verificación del para tres tareas principales: colección de datos del que realiza funcionamientos del análisis. Según lo mencionado anterior, la colección de datos toma inevitable que anticipado más de largo. Si el horario está consiguiendo firmemente, otra trampa es hacer menos verificación o a solamente hace una verificación del nivel superior. Particularmente en caso de que el modelo incluye lógica compleja, o donde el diseño modelo del alcance o del sistema cambió perceptiblemente durante el proyecto, el proceso de verificar que el modelo haga realmente lo que lo piensas ha supuesto para hacer (a/k/a que elimina errores) puede ser aburrido y muy desperdiciador de tiempo. Cuando creas el horario del proyecto, debes ser seguro construir tiempo de la verificación adentro en los intervalos regulares; para un proyecto grande, tanto como el 20% a el 30% del tiempo puesto a un lado para modelar deben ser asignados específicamente como probando y eliminando errores de tiempo. Si la hora apropiada no se asigna para la verificación, el tiempo puede “sangrar” en el tiempo que fue asignado para los funcionamientos del análisis. Hasta que se realiza el primer funcionamiento verdadero del análisis, el tiempo de cálculo requerido para un funcionamiento es desconocido, que todavía no explica el número de réplicas, un período del calentamiento para un sistema no-que termina, y el diseño múltiple señala en un experimento, aún menos los análisis apropiados para determinar todo el antedicho. En un esfuerzo de acabar el proyecto sobre horario, la reacción del impulso es hacer menos o funcionamientos más cortos, que pueden producir resultados inválidos. Además, no bastante tiempo se da un plazo a menudo para un análisis apropiado de la sensibilidad del sistema para proveer al cliente del valor el proyecto de la simulación previsto para proporcionar. ¡La ironía es que los resultados de la simulación son la razón que el proyecto fue emprendido en el primer lugar! Para evitar esta trampa, diseñar los detalles de tu análisis en la primera oportunidad, no más adelante que cuando el modelo es el cerca de 75% completo. Entonces valorar de nuevo el tiempo que has puesto a un lado para el análisis final, basado en cuánto tiempo tus funcionamientos tomarán, tan bien como las nuevas perspectivas tienes en cuántos panoramas evaluarás. En los proyectos donde realizarás análisis de la optimización, esto también sería un buen rato de comenzar a refinar el número y de buscar las gamas para tus controles (variables de la entrada) y de realizar algunas optimizaciones iniciales para predecir cuánto tiempo tomarán cuando se termina el modelo.
4.4 Repasar y valorar de nuevo constantemente
El modelo y otros delibérales se deben repasar temprano y a menudo, con más intensidad mientras que el proyecto acerca a la terminación. Los pensamientos estructurados con los colegas y los clientes son ideales para descubrir problemas con lógica o errores en el modelo. En un pensamiento estructurado, los pasos del modelo construyen y explican la lógica modelo, cómo las áreas fueron abstraídas, y qué asunciones fueron hechas. Los colegas pueden precisar maneras más fáciles de lograr las porciones del modelo o aún de precisar una interpretación incorrecta del sistema bajo estudio. Además, el equipo de la simulación debe repasar las especificaciones, los análisis de datos, la animación, los informes impresos de ejecución, y las presentaciones modelo del cliente. A través de la duración del proyecto, la flexibilidad es importante. Mientras que las situaciones se presentan por ejemplo cambios del alcance, problemas con la colección de datos, o carencia de la disponibilidad experta del tema, el equipo de la simulación debe buscar nuevas maneras de solucionar problemas o el trabajo alrededor de ellas. Más importantemente, como se presentan estas situaciones deben también ser preguntadas en relación con a si o no son constantes con la motivación verdadera para el proyecto.
5 ¿QUÉ PUEDES HACER AHORA?
Mientras que todo el esto puede sonar bueno “para mi proyecto siguiente,” hay muchas tareas que se pueden lograr inmediatamente. Si tu metodología de la simulación no tiene ya uno, bosquejar un contorno para un proyecto típico de la simulación y utilizar esto como plantilla para la estructura de la interrupción del trabajo de proyectos actuales y futuros. Condensar actual y las metas futuras del proyecto a reflejar fácil-a-recuerdan lemas por ejemplo, “él son la duración de ciclo estúpida” para que el equipo entero a permanecer se centrara en las metas. Conducir una revisión de par, o el seguimiento estructurado, tan pronto como una oportunidad se presente. Finalmente, consultar algunas de las referencias enumeradas en este papel para ganar penetraciones adicionales en cómo tener éxito como analista de la simulación (bancos 1998, Brunner y otros. 1998, Ferrin y LaVecchia 1998, Rohrer y bancos 1998).
BIOGRAFÍAS DEL AUTOR
DEBORAH A. SADOWSKI maneja el campus del desarrollo de Pittsburgh para el software de Rockwell. Ella ha llevado a cabo posiciones numerosas en el desarrollo, el entrenamiento, y consultar con el software de Rockwell y modelar de los sistemas. El DEB recibió sus grados de B.S. y de M.S. en la ingeniería industrial y la investigación de operaciones de la universidad de estado de Pennsylvania. Ella representa actualmente la sociedad de la computadora de IEEE en la junta directiva de WSC. La MARCA R. GRABAU es encargado en el grupo de investigación de operaciones en Limitedbrands. Previamente, él era el plomo de funcionamiento de la unidad del gobierno para la simulación que modelaba en Accenture. Él tiene más de 11 años de experiencia el aplicar de la simulación que modela en intervenciones que consultan en el transporte, farmacéutico, telecomunicaciones, la fabricación, el gobierno, e industrias al por menor. La marca era el recipiente del departamento 2000 de la concesión el modelar y de la simulación de la defensa y de las 2000 concesiones el modelar y de la simulación de la fuerza aérea de Estados Unidos.
VERIFICACIÓN Y VALIDACIÓN DE LOS MODELOS DE LA SIMULACIÓN
EXTRACTO
En este papel discutimos la verificación y la validación de los modelos de la simulación. Cuatro diversos acercamientos a la validez modelo que decide se describen; se presentan dos diversos paradigmas que relacionan la verificación y la validación con el proceso modelo del desarrollo; se definen las varias técnicas de la validación; se discuten la verificación modelo conceptual del validez, modelo, la validez operacional, y la validez de los datos; se da una manera de documentar resultados; un procedimiento recomendado para la validación modelo se presenta; y la acreditación se discute brevemente.



1 INTRODUCCIÓN
Los modelos de la simulación se están utilizando cada vez más en solucionar de problema y en la toma de decisión. Los reveladores y los usuarios de estos modelos, los responsables que usan la información derivada de los resultados de estos modelos, y los individuos afectados por las decisiones basadas en tales modelos son todos referidos derecho a si son un modelo y sus resultados “corrigen”. Esta preocupación se trata con la verificación y la validación modelo. La verificación modelo se define a menudo como “asegurándose de que el programa de computadora del modelo automatizado y su puesta en práctica están correctos” y son la definición adoptada aquí. La validación modelo se define generalmente para significar la “justificación que un modelo automatizado dentro de su dominio de la aplicabilidad posee una gama satisfactoria de la exactitud constante con el uso previsto del modelo” (Schlesinger y otros. 1979) y es la definición usada aquí. Un modelo a veces se acredita con la acreditación modelo. La acreditación modelo se determina si un modelo satisface especificó los criterios modelo de la acreditación según un proceso especificado. Un asunto relacionado es credibilidad modelo. La credibilidad modelo se refiere a desarrollar en usuarios (potenciales) la confianza que requieren para utilizar un modelo y en la información derivó de ese modelo. Un modelo se debe desarrollar para un propósito específico (o uso) y su validez determinado con respecto a ese propósito. Si el propósito de un modelo es contestar a una variedad de preguntas, la validez del modelo necesita ser determinada con respecto a cada pregunta. Los sistemas numerosos de condiciones experimentales se requieren generalmente definir el dominio de la aplicabilidad prevista de un modelo. Un modelo puede ser válido para un sistema de condiciones experimentales e invalido en otro. Un modelo se considera válido para un sistema de condiciones experimentales si la exactitud del modelo está dentro de su gama aceptable, que es la cantidad de exactitud requerida para el propósito previsto del modelo. Esto requiere generalmente que las variables de salida del modelo del interés (es decir, las variables modelo usadas en contestar a las preguntas que el modelo se está desarrollando para contestar) estén identificadas y que su cantidad requerida de exactitud esté especificada. La cantidad de exactitud requerida se debe especificar antes de comenzar el desarrollo del modelo o muy temprano en el proceso modelo del desarrollo. Si las variables del interés son variables al azar, después las características y las funciones de las variables al azar tales como medios y variaciones son generalmente cuál está de interés primario y son qué se utiliza en la determinación de la validez modelo. Varias versiones de un modelo se desarrollan a menudo antes de obtener un modelo válido satisfactorio. La justificación que un modelo es válido, es decir, realizando la verificación y la validación modelo, se considera ser un proceso y es generalmente parte del proceso modelo del desarrollo. Es a menudo demasiado costosa y desperdiciadora de tiempo determinarse que un modelo es absolutamente válido sobre el dominio completo de su aplicabilidad prevista. En lugar, se conducen las pruebas y las evaluaciones hasta que se obtiene la suficiente confianza que un modelo se puede considerar válida para su uso previsto (Sargent 1982, 1984). Si una prueba se determina que un modelo no tiene suficiente exactitud para un sistema de condiciones experimentales, después el modelo es inválido. Sin embargo, la determinación que un modelo tiene suficiente factores para las condiciones experimentales numerosas no garantiza que un modelo es válido por todas partes en su dominio aplicable. Las relaciones del coste (una relación similar sostiene para la cantidad de tiempo) de realizar la validación modelo y el valor de un modelo al usuario en función de la confianza modelo se demuestran en el cuadro 1. El coste de la validación modelo es generalmente significativo, especialmente cuando se requiere la confianza modelo extremadamente alta.
El resto de este papel se organiza como sigue: La sección 2 presenta los acercamientos básicos usados en decidir validez modelo; La sección 3 describe dos diversos paradigmas utilizado en la verificación y la validación; La sección 4 define técnicas de la validación; Las secciones 5, 6, 7, y 8 discuten datos validez, validez modelo conceptual, modelo automatizado verificación, y validez operacional, respectivamente; Sección 9 describe una manera de documentar resultados; La sección 10 da un procedimiento recomendado de la validación; La sección 11 contiene una breve descripción de la acreditación; y presentes de la sección 12 el resumen.
2 ACERCAMIENTOS BASICOS
Hay cuatro acercamientos básicos para decidir a si el modelo de la simulación es válido o inválido. Cada uno de los acercamientos requiere a equipo modelo del desarrollo conducir verificación y validación como parte del desarrollo modelo proceso, que se discute abajo. Un acercamiento, y con frecuencia usado, está para el desarrollo modelo equipo sí mismo para tomar la decisión si una simulación el modelo es válido. Se toma una decisión subjetiva basada en resultados de las varias pruebas y evaluaciones conducidas como parte del proceso modelo del desarrollo. Sin embargo, está generalmente mejorar para utilizar uno de los dos acercamientos siguientes, dependiendo en qué situación se aplica. Si el tamaño de convertirse del equipo de la simulación el modelo no es grande, un acercamiento mejor que el arriba está para tener los usuarios del modelo implicado pesadamente con equipo modelo del desarrollo en la determinación de la validez del modelo de la simulación. En este acercamiento el foco de quién se determina la validez del modelo de la simulación debe moverse de los reveladores modelo a los usuarios modelo. También, esto ayudas del acercamiento en la credibilidad modelo. Otro acercamiento, generalmente llamado “verificación independiente y validación” (IV&V), aplicaciones un tercer (independiente) partido para decidir si el modelo de la simulación es válido. Los terceros son independiente de ambos el desarrollo de la simulación equipos y el patrocinador/los usuarios modelo. Este acercamiento debe ser utilizado normalmente al desarrollar la simulación en grande modelos, que tienen generalmente uno grande o varios equipos implicados en desarrollar el modelo de la simulación. También, este acercamiento es de uso frecuente cuando un coste grande se asocia al problema que el modelo de la simulación se está desarrollando para y/o ayudar en la credibilidad modelo. En este acercamiento los terceros necesitan tener una comprensión cuidadosa de cuáles es el propósito previsto del modelo de la simulación. Hay dos maneras comunes que IV&V es conducido por los terceros. Una forma es conducir IV&V simultáneamente con el desarrollo del modelo de la simulación. La otra manera es conducir IV&V después de que se haya desarrollado el modelo de la simulación. De la manera concurrente de conducir IV&V, el equipo modelo del desarrollo recibe la entrada del equipo de IV&V con respecto la verificación y a la validación mientras que está siendo el modelo convertido. Así, el desarrollo de un modelo de la simulación no debe progresar más allá de cada etapa del desarrollo si el modelo no está satisfaciendo los requisitos de la verificación y de la validación. Es la opinión del autor que esto es el mejor de las dos maneras. De la otra manera, donde se conduce IV&V después de que el modelo se haya desarrollado totalmente, la evaluación realizado puede extenderse simplemente de evaluar la verificación y validación conducida por el desarrollo modelo equipo a realizar una verificación y una validación completas esfuerzo. Wood (1986) describe experiencias sobre esta gama de la evaluación por terceros en energía modela. Una conclusión que las marcas de madera son ésa que realiza un IV&V completo el esfuerzo después de que la simulación se haya desarrollado totalmente es extremadamente costoso y desperdiciador de tiempo para se obtiene qué. La opinión de este autor es que si IV&V va a ser conducido en un modelo terminado de la simulación entonces es generalmente la mejor a evaluar solamente la verificación y la validación que tiene ya realizado. El acercamiento pasado para determinarse si es un modelo válido es utilizar un modelo que anota (véase, e.g., a Balci (1989), Gass (1993), y Gass y Joel (1987)). Las cuentas (o pesos) son determinado subjetivo al conducir varios aspectos del proceso de la validación y entonces combinado para determinar categoría las cuentas y una cuenta total para la simulación modelan. A el modelo de la simulación se considera válido si su guardapolvo y categoría las cuentas son mayor que algunas cuentas que pasan. Este acercamiento se utiliza raramente en la práctica. Este autor no cree en el uso de anotar modelos para determinar validez porque (1) puede un modelo recibir una cuenta que pasa pero tener un defecto que necesite corregirte, (2) el objeto de este acercamiento tiende ser ocultado y este acercamiento aparece así ser objetivo, (3) las cuentas que pasan se deben decidir en alguno (generalmente) la manera subjetiva, y (4) las cuentas pueden causar encima la confianza en un modelo o se utilice para discutir que es un modelo mejorar que otros.


3 PARADIGMAS
En esta sección presentamos y discutimos los paradigmas que se relacionan verificación y validación al proceso modelo del desarrollo. Hay dos maneras comunes de ver esta relación. Una forma utiliza una visión simple y la otra utiliza un complejo visión. Banks y otros. (1988) trabajos repasados usando ambos estas maneras y concluido que la manera simple más claramente ilumina la verificación y la validación modelo. Presentamos a paradigma de cada manera que este autor ha desarrollado. el paradigma de la manera simple se presenta primero y es éste paradigma preferido del autor. Considerar la versión simplificada del desarrollo modelo procesar en el cuadro 2 (Sargent 1981). El problema la entidad es el sistema (verdadero o propuesto), idea, situación, política, o fenómenos de ser modelado; el modelo conceptual es la representación matemática/lógica/verbal (imitador) de la entidad del problema se convirtió para un estudio particular; y el modelo automatizado es el modelo conceptual puesto en ejecución en una computadora. El modelo conceptual se desarrolla a través un análisis y una fase el modelar, el modelo automatizado se convierte con fase de la programación y de la puesta en práctica de una computadora, e inferencias sobre la entidad del problema son obtenidos conduciendo experimentos de la computadora en modelo automatizado en la fase de la experimentación. Ahora relacionamos la validación y la verificación modelo con esta versión simplificada del proceso que modela. (Véase el cuadro 2.) La validación modelo conceptual se define como determinándose que subyacente de las teorías y de las asunciones el modelo conceptual está correcto y eso la representación modelo de la entidad del problema es “razonable” para previsto propósito del modelo. Verificación modelo automatizada se define como asegurando eso la computadora programación y puesta en práctica del modelo conceptual está correcto. La validación operacional se define como determinándose que el comportamiento de la salida del modelo tiene suficiente exactitud para el propósito previsto del modelo sobre el dominio de la aplicabilidad prevista del modelo. La validez de los datos se define como asegurándose de que los datos necesarios para la construcción de maquetas, evaluación modelo y prueba, y conducir el modelo los experimentos para solucionar el problema están adecuados y correctos. Cuadro 2: Versión simplificada del proceso que modela el sistema. Se desarrollan las teorías del sistema abstrayendo qué se ha observado del sistema y presumiendo de los datos y de los resultados del sistema. Si un modelo de la simulación existe de este sistema, entonces presumiendo de sistema las teorías se pueden también hacer de datos de la simulación y resultados. Las teorías del sistema son validadas realizándose validación de la teoría. La validación de la teoría implica la comparación de las teorías del sistema contra datos y resultados del sistema encima el dominio la teoría es aplicable para determinarse si hay acuerdo. Este proceso requiere experimentos numerosos ser conducido en el sistema verdadero. Ahora discutimos el mundo de la simulación, que demuestra a (levemente) complicó más el proceso modelo del desarrollo que el otro paradigma. Un modelo de la simulación debe solamente convertirte para un sistema de objetivos bien definidos. el modelo conceptual es la representación matemática/lógica/verbal (imitador) del sistema desarrollado para los objetivos de un estudio particular. La especificación del modelo de la simulación es una descripción detallada escrita del diseño del software y especificación para programar y poner en ejecución modelo conceptual en un sistema informático particular. el modelo de la simulación es el modelo conceptual que funciona en a sistema informático tales que los experimentos pueden ser conducidos en el modelo. Los datos y los resultados del modelo de la simulación son los datos y los resultados de los experimentos conducidos (experimentando) en el modelo de la simulación. El modelo conceptual es convertido modelando el sistema, donde la comprensión del sistema se contiene en las teorías del sistema, para los objetivos del estudio de la simulación. La simulación el modelo es obtenido poniendo el modelo en ejecución en el sistema informático especificado, que incluye la programación modelo conceptual que especificaciones se contienen en especificación modelo de la simulación. Las inferencias sobre el sistema son obtenidas conduciendo experimentos de la computadora (experimentación) en el modelo de la simulación.
(la validación del ex-modelo se define como determinándose que las teorías y las asunciones subyacentes el modelo conceptual son constantes con ésas en las teorías del sistema y que el modelo la representación del sistema es “razonable” para el propósito previsto del modelo de la simulación. Verificación de la especificación se define como asegurando que el diseño del software y la especificación para programar y poner el conceptual en ejecución el modelo en el sistema informático especificado es satisfactorio. La verificación de la puesta en práctica se define como asegurando eso el modelo de la simulación se ha puesto en ejecución según especificación modelo de la simulación. La validación operacional es definido como determinándose que el comportamiento de la salida del modelo tiene suficiente exactitud para el propósito previsto del modelo encima el dominio de la aplicabilidad prevista del modelo. Este paradigma demuestra los procesos para ambos que se convierten teorías válidas del sistema y modelos válidos de la simulación.
Ambos se logran con procesos iterativos. Para convertirse las teorías válidas del sistema, que están generalmente para un propósito específico, el sistema primero se observan y entonces la abstracción está realizada de qué se ha observado para convertirse propuesto teorías del sistema. Estas teorías se prueban para la corrección conduciendo experimenta en el sistema para obtener datos y resultados a comparar contra el sistema propuesto teorías. Las nuevas teorías propuestas del sistema pueden ser presumidas de los datos y de las comparaciones hechos, y también posiblemente de la abstracción realizada en la observación adicional del sistema, y estas nuevas teorías propuestas requerirán nuevos experimentos que se conducirán en el sistema para obtener los datos para evaluar la corrección de éstos propusieron el sistema teorías.
Este proceso se repite hasta que un sistema satisfactorio de teorías validadas del sistema se ha obtenido. Para convertirse un modelo válido de la simulación, varias versiones de un modelo es convertido generalmente antes de obtener un válido satisfactorio modelo de la simulación. Durante cada iteración modelo, modelar se realizan la verificación y la validación. Este proceso es similar a el que está para el otro paradigma excepto hay más detalle dado en este paradigma.
4 TÉCNICAS DE LA VALIDACIÓN
Esta sección describe varias técnicas de la validación y pruebas usadas en la verificación y la validación modelo. La mayor parte de las técnicas descritas aquí se encuentran en la literatura, aunque algunos se pueden describir levemente diferentemente. Ellas pueden ser utilizadas subjetivas u objetivas. Por “objetivo,” significamos con un cierto tipo de prueba estadística o procedimiento matemático, e.g., pruebas o confianza de la hipótesis intervalos. Una combinación de técnicas está generalmente utilizada. Estas técnicas se utilizan para validar y verificar los submodelos y el modelo total. Animación: Se exhibe el comportamiento operacional del modelo gráficamente como los movimientos modelo con tiempo. Para ejemplo los movimientos de partes a través de una fábrica durante a el funcionamiento de simulación se demuestra gráficamente. Comparación a otros modelos: Varios resultados (e.g., salidas) del modelo de la simulación que es validado se comparan a los resultados de otros modelos (válidos). Por ejemplo, (1) simple los casos de un modelo de la simulación se comparan a los resultados sabidos de los modelos analíticos, y (2) el modelo de la simulación se compara a otros modelos de la simulación se han validado que. Pruebas degeneradas: La degeneración del comportamiento del modelo es probado por la selección apropiada de valores del entrada y parámetros internos. Por ejemplo, hace el promedio el número en la coleta de un solo servidor continúa aumentando en un cierto plazo cuando la tarifa de llegada es más grande que ¿tarifa de servicio? Validez del acontecimiento: Los “acontecimientos” de ocurrencias del el modelo de la simulación se compara a los del sistema verdadero para determinarse si son similares. Por ejemplo, comparar número de muertes en una simulación del cuerpo de bomberos. Pruebas de la condición extrema: La estructura modelo y la salida debe ser plausible para extremo e inverosímil combinación de niveles de factores en el sistema. Por ejemplo, si los inventarios del en-proceso son cero, salida de la producción debe ser cero. Validez de la cara: Preguntando a individuos bien informados sobre el sistema si es el modelo y/o su comportamiento razonable. Por ejemplo, es la lógica en el conceptual modelo corregir y es las relaciones de la entrada-salida del modelo razonable. Validación de datos histórica: Si es histórico los datos existen (o si los datos se recogen en un sistema para el edificio o a de prueba el modelo), parte de los datos se utiliza para construir el modelo y los datos restantes se utilizan para determinarse (prueba) si el modelo se comporta como el sistema. (Esto que prueba se conduce conduciendo la simulación modelar con cualquier muestras de distribuciones o de rastros (Balci y Sargent 1982a, 1982b, 1984b).) Métodos históricos: Los tres métodos históricos de la validación es racionalismo, empiricismo, y economía positiva. Racionalismo asume que cada uno sabe si las asunciones subyacentes de un modelo son verdades. Las deducciones de la lógica se utilizan de estas asunciones para desarrollar corregir el modelo (válido). Empiricismo requiere cada asunción y resultado empírico que se validará. Positivo la economía requiere solamente que el modelo pueda predecir el futuro y no se refiere a las asunciones de un modelo o estructura (relaciones o mecanismos causales). Validez interna: Vario réplica (funcionamientos) de un estocástico el modelo se hace para determinar la cantidad de (interno) variabilidad estocástica en el modelo. Una cantidad grande de la variabilidad (carencia de la consistencia) puede hacer los resultados del modelo ser cuestionables y si es típico de la entidad del problema, puede preguntar la conveniencia de la política o del sistema siendo investigado. Validación gradual: Naylor y Finger (1967) propuestos combinar los tres métodos históricos de racionalismo, empiricismo, y economía positiva en un gradual proceso de la validación. Este método de la validación consiste en (1) desarrollando las asunciones del modelo en teoría, observaciones, y el conocimiento general, (2) validando el modelo asunciones en lo posible empírico probándolos, y (3) comparando (prueba) las relaciones de la entrada-salida del modelo al sistema verdadero. Gráficos operacionales: Valores del vario funcionamiento medidas, e.g., el número en coleta y porcentaje de los servidores ocupados, se demuestran gráficamente mientras que el modelo funciona con tiempo; es decir, los comportamientos dinámicos del funcionamiento los indicadores se exhiben visualmente como el modelo de la simulación los funcionamientos con hora de asegurar los están correctos. Variabilidad del parámetro - análisis de la sensibilidad: Esto la técnica consiste en el cambiar de los valores de la entrada y parámetros internos de un modelo para determinar el efecto sobre el comportamiento o salida del modelo. Las mismas relaciones deben ocurrir en el modelo como en el sistema verdadero. Esos parámetros que son sensibles, es decir, causan cambios significativos adentro el comportamiento o la salida del modelo, se debe hacer suficientemente exacto antes de usar el modelo. (Esto puede requerir iteraciones en el desarrollo modelo.) Validación profética: El modelo se utiliza para predecir (pronóstico) el comportamiento del sistema, y entonces la comparación están hecho entre el comportamiento del sistema y el pronóstico del modelo para determinarse si son iguales. Los datos del sistema puede venir de un sistema operacional o ser obtenido cerca el conducir experimenta en el sistema, e.g., pruebas en práctica. Rastros: El comportamiento de diversos tipos de entidades específicas en el modelo se remontan (seguido) a través del modelo para determinar si la lógica del modelo está correcta y si se obtiene la exactitud necesaria. Pruebas: Individuos que están bien informados sobre las operaciones del sistema que es modelado estar preguntado si pueden discriminar entre el sistema y el modelo salidas. (Schruben (el an o 80) contiene las pruebas estadísticas para el uso con las pruebas de Turing.)
5 VALIDACIÓN DE DATOS
Discutimos validez de los datos aun cuando que no se considera a menudo ser parte de la validación modelo porque es generalmente difícil, desperdiciador de tiempo, y costoso obtener suficiente, exacto, y los datos apropiados, y son a menudo la razón eso tentativas a válido un modelo. Los datos son necesarios para tres propósitos: para construir el modelo conceptual, para validar el modelo, y para realizar experimentos con validado modelo. En la validación modelo nos referimos solamente con los datos para los primeros dos propósitos. Para construir un modelo conceptual debemos tener suficiente datos sobre la entidad del problema para desarrollar las teorías que pueden ser construían el modelo, para desarrollar matemático y lógico relaciones para el uso en el modelo que permitirá modelo para representar adecuadamente la entidad del problema para su propósito previsto, y para probar las asunciones subyacentes del modelo. En datos adicionales, del comportamiento ser necesario en entidad del problema que se utilizará en el paso operacional de la validez de comparar el comportamiento de la entidad del problema con el modelo comportamiento. (Generalmente, estos datos son datos de la entrada-salida del sistema.) Si los datos del comportamiento no son confianza modelo disponible, alta no se puede obtener generalmente porque suficiente operacional la validez no puede ser alcanzada. La preocupación con datos es ésa apropiada, exacta, y los suficientes datos están disponibles, y si algunas transformaciones de los datos se hacen, por ejemplo la desagregación, se realizan correctamente. Desafortunadamente, no hay mucho a las cuales poder hecho asegurarte de que los datos estén correctos. El mejor que puede ser hecho es desarrollar los buenos procedimientos para recoger y mantener los datos, prueban los datos recogidos usando técnicas tales como cheques de consistencia internos, y los defienden para los afloramientos y se determinan si están correctos. Si la cantidad de datos es grande, una base de datos debe ser convertido y ser mantenido.
6 VALIDACIÓN DEL MODELO CONCEPTUAL
La validez modelo conceptual está determinando eso (1) las teorías y las asunciones subyacentes el modelo conceptual son corregir y (2) la representación del modelo del problema entidad y la estructura del modelo, la lógica, y el matemático y las relaciones causales son “razonables” para el propósito previsto del modelo. Las teorías y las asunciones subyacentes el modelo debe ser el usar probado matemático análisis y métodos estadísticos en datos de la entidad del problema. Los ejemplos de teorías y de asunciones son las linearidades, independencia de datos, y las llegadas son Poisson. Ejemplos de los métodos estadísticos aplicables son distribuciones apropiadas a datos, estimando valores de parámetro de los datos, y trazar datos para determinarse si los datos son inmóviles.
Además, todas las teorías usadas se deben repasar para asegurarlas fueron aplicados correctamente; por ejemplo, si es una cadena de Markov utilizado, hace el sistema tienen la característica de Markov, y son ¿los estados y las probabilidades de la transición correctas? Después, cada submodelo y el modelo total deben ser evaluado para determinarse si están razonables y correctos para el propósito previsto del modelo. Esto debe incluir determinándose si las relaciones apropiadas del detalle y del agregado se han utilizado para el propósito previsto del modelo, y si estructura, lógica, y matemático apropiados y se han utilizado las relaciones causales. La validación primaria las técnicas usadas para estas evaluaciones son validación de la cara y rastros. La validación de la cara tiene expertos en el problema la entidad evalúa el modelo conceptual para determinarse si es correcto y razonable para su propósito. Esto requiere generalmente examinar el organigrama o el modelo gráfico, o sistema de las ecuaciones modelo. El uso de rastros es el seguir de entidades a través de cada submodelo y del modelo total a determinar si la lógica está correcta y si la exactitud necesaria se mantiene. Si los errores se encuentran en el conceptual modelar, debe ser revisada y validación modelo conceptual realizado otra vez.
7 VERIFICACIÓN COMPUTARIZADA DEL MODELO
La verificación modelo automatizada asegura a eso la computadora programación y puesta en práctica del modelo conceptual estar correcto. El factor principal que afecta la verificación es si una lengua de la simulación o una programación de alto nivel la lengua tal como FORTRAN, C, o C++ se utiliza. El uso de una lengua especialmente propuesta de simulación generalmente dará lugar a tener pocos errores que si un de uso general se utiliza la lengua de la simulación, y con fines generales la lengua de la simulación dará lugar generalmente a tener menos errores que si una programación de alto nivel de fines generales se utiliza la lengua. (El uso de una lengua de la simulación también reduce generalmente el tiempo de programación requerido y la cantidad de flexibilidad.) Cuando se utiliza una lengua de la simulación, la verificación está sobre todo tratado a asegurar a eso una simulación sin error se ha utilizado la lengua, eso que la lengua de la simulación tiene puesto en ejecución correctamente en la computadora, de que probado (para la corrección) el pseudo generador del número al azar ha sido puesto en ejecución correctamente, y se ha programado el modelo correctamente en la lengua de la simulación. Las técnicas primarias se determinaban que el modelo se ha programado correctamente se estructuran caminos y los rastros. Si se ha utilizado un lenguaje de programación de alto nivel, entonces el programa de computadora se debe haber diseñado, convertido, y puesto en ejecución usando técnicas encontró en software ingeniería. (Éstos incluyen las técnicas tales como objeto diseño orientado, programación estructurada, y programa la verificación de la modularidad.) en este caso se refiere sobre todo con la determinación de que funciona la simulación (e.g., tiempo-fluye el mecanismo, pseudo generador del número al azar, y generadores al azar de la variante aleatoria) y la computadora el modelo se ha programado y se ha puesto en ejecución correctamente. Hay dos acercamientos básicos para la simulación de prueba software: parásitos atmosféricos que prueban y que prueban dinámicos (Fairley 1976). En los parásitos atmosféricos que prueban el programa de computadora se analiza para determinarse si está correcto usando las técnicas tales que el camino estructurado, corrección impermeabilizan, y el examinar características de la estructura del programa. En la prueba dinámica el programa de computadora se ejecuta bajo diversas condiciones y los valores obtuvieron (ésos incluyendo generados durante la ejecución) se utiliza para determinarse si el programa de computadora y sus puestas en práctica están correctas. Las técnicas de uso general en la prueba dinámica son los rastros, investigaciones de las relaciones de la entrada-salida usando diversa validación técnicas, cheques de consistencia internos, y reprogramación componentes críticos para determinarse si los mismos resultados se obtienen. Si hay una gran cantidad de variables, una pudo agregar algunas de las variables para reducir el número de las pruebas necesitadas o tipos del uso de ciertos de diseño de experimentos (Kleijnen 1987). Es necesario estar enterado mientras que comprueba la corrección del programa de computadora y de su puesta en práctica que errores encontrado puede ser causado por los datos, el modelo conceptual, el programa de computadora, o la puesta en práctica de la computadora. Para una discusión detallada sobre la verificación modelo, ver Whitner y Balci (1989).
8 VALIDACIÓN OPERACIONAL
La validación operacional se está determinando si la simulación el comportamiento modelo de la salida tiene la exactitud requerida para el propósito previsto del modelo sobre el dominio del aplicabilidad prevista del modelo. Está donde aquí mucho de la prueba y la evaluación de la validación ocurren. Desde el modelo de la simulación se utiliza en la validación operacional, cualquier deficiencia encontrado puede ser causado por qué fue desarrollada adentro pasos de los que están implicados en desarrollar la simulación modelo incluyendo desarrollar las teorías de los sistemas o tener datos inválidos. Todas las técnicas de la validación discutidas en la sección 4 ser aplicable a la validez operacional. Qué técnicas y si utilizarlas objetivo o deben subjetivo ser decidido por el equipo modelo del desarrollo y el otro partidos interesados. El afectar principal de la cualidad operacional la validez es si la entidad del problema (o el sistema) es observable, donde observable los medios está posible recoger datos sobre el comportamiento operacional de la entidad del programa. La tabla 1 da una clasificación de los acercamientos de la validación en validez operacional.
El comparar de los medios de la “comparación” prueba de los comportamientos de la entrada-salida del modelo y del sistema, y “explorar los medios del comportamiento modelo” de examinar la salida comportamiento del modelo usando técnicas apropiadas de la validación e incluye generalmente variabilidad y sensibilidad del parámetro análisis. Varios sistemas de condiciones experimentales del dominio de la aplicabilidad prevista del modelo debe ser utilizado para la comparación y explorar modelaron comportamiento. Para obtener un alto grado de confianza en un modelo y sus resultados, comparaciones del modelo y entrada-salida del sistema comportamientos para varios diversos sistemas de experimental las condiciones se requieren generalmente. Hay tres acercamientos básicos utilizados: (1) se toma una decisión subjetiva basado encendido usando los gráficos de los datos del comportamiento del modelo y del sistema, (2) utilizar los intervalos de la confianza, y (3) las pruebas de la hipótesis del uso. Él es preferible utilizar intervalos de la confianza o pruebas de la hipótesis para las comparaciones porque éstos permiten decisiones objetivas. Sin embargo, no es con frecuencia posible en la práctica a utilizar cualquiera de estos acercamientos porque (a) las asunciones estadísticas requerido no puede ser satisfecho o solamente con grande dificultad (las asunciones generalmente necesarias son independencia de datos y la normalidad) y/o (b) allí es escasa cantidad de datos del sistema disponibles que causan el estadístico resultados a no ser “significativos” (e.g., la longitud de una confianza el intervalo se convirtió en la comparación del sistema y modelar los medios está a grande para cualquier utilidad práctica). Consecuentemente, el uso de gráficos es el más de uso general acercamiento para la validez operacional. Cada uno de estos tres acercamientos se discuten en las subdivisiones siguientes
8.1 Comparaciones gráficas de datos
Los datos del comportamiento del modelo y del sistema se representan gráficamente para los varios sistemas de condiciones experimentales para determinarse si el comportamiento de la salida del modelo tiene suficiente exactitud para propósito previsto del modelo. Tres tipos de gráficos se utilizan: histogramas, diagramas de la caja (y barba), y gráficos del comportamiento usar diagramas de la dispersión. (Véase Sargent (1996a, 2001b) para una cuidadosa discusión sobre el uso de éstos para la validación modelo.) Ejemplos de un histograma y de un diagrama de la caja, tomados de Lowery (1996), se dan en los cuadros 4 y 5, respectivamente, y ejemplos de los gráficos del comportamiento, tomados de Anderson y Dan Sargent (1974), en los cuadros 6 y 7. Una variedad de los gráficos que usan diversos tipos de (1) miden por ejemplo medio, variación, máximo, distribución, y serie de épocas de una variable, y (2) relaciones entre (a) dos medidas de una sola variable (véase el cuadro 6) y (b) de medidas de dos se requieren las variables (véase el cuadro 7). Es importante que las medidas y las relaciones apropiadas se utilicen en validar un modelo y ése se determine con respecto a propósito previsto del modelo. Ver Anderson y Sargent (1974) y Lowery (1996) por ejemplos de sistemas de gráficos utilizado en la validación de un modelo de la simulación. Estos gráficos se pueden utilizar en la validación modelo en diferente maneras. Primero, el equipo modelo del desarrollo puede utilizar los gráficos en el proceso modelo del desarrollo para hacer a juicio subjetivo encendido si es modelo suficientes la exactitud para su piensa propósito. En segundo lugar, pueden ser utilizados en la técnica de la validez de la cara donde piden los expertos hacer juicios subjetivos encendido si un modelo posee suficiente exactitud para su propósito previsto. Tercero, los gráficos puede ser utilizado en las pruebas de Turing y cuarto en IV&V. Observamos esa independencia de datos no se requiere aquí.

8.2 Intervalos de la confianza
Intervalos de la confianza (c.i.), intervalos simultáneos de la confianza (s.c.i.), y las regiones comunes de la confianza (j.c.r.) puede ser obtenido para las diferencias entre los medios, variaciones, y distribuciones de diversas variables de salida del modelo y de sistema para cada sistema de condiciones experimentales. Estos c.i., s.c.i., y j.c.r. se pueden utilizar como la gama modelo de la exactitud para la validación modelo.
Para construir la gama modelo de exactitud, un estadístico procedimiento que contiene una técnica estadística y un método de la colección de datos se debe desarrollar para cada sistema de experimental condiciones y para cada variable del interés. El estadístico las técnicas usadas se pueden dividir en dos grupos: (1) univariables técnicas estadísticas y (2) técnicas estadísticas multivariables. Las técnicas univariables se pueden utilizar para desarrollar c.i., y con el uso de la desigualdad de Bonferroni (ley y Kelton 2000), s.c.i. Las técnicas multivariate se pueden utilizar a desarrollar s.c.i. y j.c.r. Paramétrico y no paramétrico las técnicas pueden ser utilizadas. El método de colección de datos debe satisfacer asunciones de la técnica estadística que es utilizada. Las técnicas y la colección de datos estadísticas estándares métodos usados en el análisis de la salida de la simulación (Banks y otros. 2000 y la ley y Kelton 2000) se puede utilizar para convertirse la gama modelo de la exactitud, e.g., los métodos de réplica y medios (sin traslapo) de la hornada. Es generalmente deseable construir la gama modelo de exactitud con las longitudes del c.i. y el s.c.i. y los tamaños de el j.c.r. tan pequeño como sea posible. Más cortas son las longitudes o más pequeño los tamaños, el el más útil y significativo el modelo la gama de la exactitud estará generalmente. Las longitudes los tamaños (1) son afectados por los valores de los niveles de la confianza, variaciones de las variables de salida del modelo y de sistema, y los tamaños de muestra, y (2) puede ser hecho más pequeño disminuyendo la confianza niveles o aumento de los tamaños de muestra. Una compensación necesita ser hecho entre los tamaños de muestra, la confianza nivela, y las estimaciones de la longitud o de los tamaños de la gama modelo de la exactitud, las curvas de la compensación es decir, de c.i., de s.c.i. o de j.c.r. se pueden construir a ayuda en el análisis de la compensación. Detalles en el uso de c.i., de s.c.i., y de j.c.r. para operacional la validez, incluyendo una metodología general, se contiene en Balci y Sargent (1984b). Una breve discusión encendido el uso de c.i. para la validación modelo también se contiene en ley y Kelton (2000).
8.3 Prueba de la hipótesis
Las pruebas de la hipótesis se pueden utilizar en la comparación de medios, variaciones, distribuciones, y serie de tiempo de las variables de salida de un modelo y de un sistema para cada sistema de experimental condiciones para determinarse si el comportamiento de la salida del modelo tiene una gama aceptable de la exactitud. Una gama aceptable de la exactitud es la cantidad de exactitud que se requiera de un modelo para ser válido para su propósito previsto. El modelo H1 es inválido para la gama aceptable de la exactitud bajo sistema de condiciones experimentales. Dos tipos de errores son posibles en hipótesis de prueba. El primer, o el tipo error, está rechazando la validez de un válido el modelo y el segundo, o el tipo error de II, está aceptando la validez de un modelo inválido. La probabilidad de uno, se llama el riesgo del constructor modelo, y laátipo error de I, el , se llama el riesgo del usuario modelo probabilidad de el tipo error de II, (Balci y Sargent 1981). En la validación modelo, el riesgo del usuario modelo está extremadamente importante y debe ser mantenido pequeño. Así ambos el tipo I y el tipo errores de II se deben considerar cuidadosamente cuando usar la hipótesis que prueba para la validación modelo. La cantidad de acuerdo entre un, que esëmodelo y un sistema puede ser medido por una medida de la validez, el elegido tales que la exactitud modelo o la cantidad de el acuerdo entre el modelo y el sistema disminuye como el valor de los aumentos de la medida de la validez. El aceptable la gama de la exactitud se puede utilizar para determinar un aceptable gama de la validez, 0 < ë < *. La probabilidad de laë aceptación de un modelo que es válido, El PA, se puede examinar en función de la medida de la validez usando una curva característica de funcionamiento (Johnson 1994). El cuadro 8 contiene diversa característica de funcionamiento tres curvas para ilustrar cómo el tamaño de muestra de observaciones afecta PA en funció . Como puede ser visto, un inexacto el modelo tiene una alta probabilidadëdel de ser aceptado si un pequeño el tamaño de muestra de observaciones se utiliza, y un modelo exacto tiene una probabilidad baja de ser aceptado si una muestra grande el tamaño de observaciones se utiliza.
La localización y la forma de la característica de funcionamiento las curvas son una función de la técnica á = 0, es decir ë elegido para el áestadística que es utilizado, el valor del *, y la muestra tamaño de observaciones. Una vez la característica de funcionamiento se construyen las curvas, los intervalos para el usuario modelo del riesgo del constructor modelo pueden ser á) y el ë del riesgo (âel *á dado * como sigue: ëdeterminados para un < del riesgo del áel constructor modelo < *) el primer paso en la prueba de la hipótesis esâ(1 - indicar las hipótesis que se probarán: 0 < del riesgo del usuario modeloâ )ë( < *. El modelo H0 es válido para la gama aceptable de la exactitud bajoâ sistema de condiciones experimentales. Así hay una relación directa entre el riesgo del constructor, riesgo del usuario modelo, gama aceptable de la validez, y la muestra tamaño de observaciones. Una compensación entre éstos debe ser hecho al usar hipótesis prueba en la validación modelo. Los detalles de la metodología para usar hipótesis prueban en comparar los datos de la salida del modelo y de sistema para las validaciones modelo se dan en Balci y Sargent (1981). Ejemplos del uso de esta metodología en la prueba de los medios de la salida para la validación modelo se da adentro Balci y Sargent (1982a, 1982b, 1983).
9 DOCUMENTACIÓN
La documentación en la verificación y la validación modelo es generalmente crítico en el convencimiento de usuarios de la “corrección” de un modelo y sus resultados, y se deben incluir en la simulación documentación modelo. (Para una discusión general encendido la documentación de modelos computarizados, considera Gass (1984).) Se desea la documentación detallada y sumaria. La documentación detallada debe incluir específicos en las pruebas, las evaluaciones hechas, los datos, los resultados, el etc. 7. Desarrollar la documentación de la validación para la inclusión adentro la documentación modelo. la documentación sumaria debe contener una evaluación separada tabla para la validez de los datos, validez modelo conceptual, verificación modelo de la computadora, validez operacional, y resumen total. Ver la tabla 2 para un ejemplo del tabla de la evaluación de la validez modelo conceptual. (Por ejemplos de dos otras tablas de la evaluación, ver a Sargent (1994, 1996b).) Las columnas de la tabla 2 son que se explica por sí mismo excepto para la columna pasada, que refiere a la confianza los evaluadores tienen en los resultados o las conclusiones. Éstos están a menudo expresado como bajo, medio, o colmo. 8. Si se va el modelo a ser utilizado durante tiempo, desarrollar un horario para la revisión periódica del modelaron validez. Algunos modelos se desarrollan para el uso repetido. Un procedimiento para repasar la validez de estos modelos sobre su los ciclos vitales necesitan ser desarrollados, según lo especificado en el paso 8. Ningún procedimiento general no puede ser dado, pues cada situación es diferente. Por ejemplo, si no hay datos disponibles en el sistema cuando un modelo fue desarrollado y validado inicialmente, entonces el revalidación del modelo debe ocurrir antes de cada uso del modelo si nueva comprensión de los datos o del sistema ha ocurrido desde la validación pasada. PROCEDIMIENTO RECOMENDADO 10 Este autor recomienda que, como mínimo, el siguiente los pasos se realicen en la validación modelo: 1. Tener un acuerdo hecho antes de convertirse modelar entre (a) el equipo modelo del desarrollo y (b) los patrocinadores del modelo y (si es posible) usuarios que especifica el acercamiento básico de la validación y un sistema mínimo de técnicas específicas de la validación ser utilizado en el proceso de la validación. 2. Especificar la cantidad de exactitud requerida de modelaron variables de salida del interés para uso previsto del modelo antes de comenzar desarrollo del modelo o muy temprano en proceso modelo del desarrollo. 3. Probar, donde sea posible, las asunciones y teorías subyacentes el modelo. 4. En cada iteración modelo, realizar por lo menos la validez de la cara en el modelo conceptual. 5. En cada iteración modelo, por lo menos explorar modelaron comportamiento usando el modelo automatizado. 6. En por lo menos la iteración modelo pasada, hacer las comparaciones, si es posible, entre el modelo y el sistema datos del comportamiento (salida) por lo menos dos sistemas de experimental condiciones, y preferiblemente más. ACREDITACIÓN 11 El departamento de la defensa (DoD) se ha movido a la acreditación modelos de la simulación. Definen la acreditación en DoDD 5000.61 como la “certificación oficial que un modelo, simulación, o la federación de modelos y de simulaciones es aceptable para el uso para un uso específico.” La evaluación para la acreditación es conducido generalmente por un tercer (la independiente) el partido, es subjetivo, e incluye a menudo no sólo la verificación y validación pero artículos tales como documentación y cómo de uso fácil la simulación es. Las siglas VV&A son utilizado para la verificación, la validación, y la acreditación. RESUMEN 12 La verificación y la validación modelo son críticas en el desarrollo de un modelo de la simulación. Desafortunadamente, no hay sistema de pruebas específicas que se pueden aplicar fácilmente para determinar la “corrección” de un modelo. Además, ningún algoritmo existe para determinarse qué técnicas o procedimientos a utilizar. Cada simulación el proyecto presenta un nuevo y único desafío.


ANÁLISIS DE LA SALIDA DE LA SIMULACIÓN
EXTRACTO
Discutimos los métodos para estadístico analizar la salida de discreto-acontecimiento o de las simulaciones estocástico de Monte Carlo. Ambos que terminan y las simulaciones de estado estacionario se consideran.
1 INTRODUCCIÓN
Finalmente has acabado tan el desarrollar de tu modelo de la simulación. Pasaste las horas incontables que desarrollaban una comprensión de los procesos subyacentes, recogiendo los datos, cabiendo los datos a las varias distribuciones de la probabilidad, y codificación y el eliminar errores tu programa de la simulación. Seleccionaste cuidadosamente a medida de funcionamiento fieltro eras apropiado de evaluar el sistema, y tu programa hace salir una estimación de esto medida. Entonces funcionaste el programa de la simulación una vez, y los resultados se parecían indicar eso si el diseño del sistema en tu el programa fue puesto realmente en la práctica, él se realizaría pozo. Demostraste a tu jefe los resultados, que entonces te dieron la luz verde para poner este diseño del sistema en ejecución. Sin embargo, una vez que el sistema estuviera en lugar, se realizó mal, en absoluto como los resultados que obtuviste de tu una simulación funcionamiento. ¿Qué fue mal? Muchas simulaciones incluyen la aleatoriedad, que puede presentarse en una variedad de maneras. Por ejemplo, en una simulación de un sistema de fabricación, los tiempos de transformación requeridos en una estación puede seguir una distribución dada de la probabilidad o los tiempos de llegada de nuevos trabajos pueden ser estocásticos. En a depositar la simulación, los clientes llegan al azar las épocas y la cantidad de tiempo pasada en una caja es estocástica. Vueltas del futuro en simulaciones financieras ser al azar. Debido a la aleatoriedad en los componentes que conducen a la simulación, su salida es también técnicas al azar, tan estadísticas debe ser utilizado analizar los resultados. El dato-análisis los métodos en cursos introductorios de la estadística asumen típicamente que los datos son independientes y distribuidos idénticamente (i.i.d.) con una distribución normal, pero los datos de la salida de las simulaciones no son a menudo i.i.d normales. Por ejemplo, considerar tiempos de espera del cliente antes de ver una caja en un banco. Si un cliente tiene un tiempo de espera inusualmente largo, entonces voluntad siguiente del cliente probablemente también, tan los tiempos de espera de los dos clientes son dependientes. Por otra parte, clientes el llegar durante la hora del almuerzo tendrá generalmente más de largo tiempos de espera que los clientes que entran en otras veces, tan los tiempos de espera no se distribuyen idénticamente a través de día. Finalmente, los tiempos de espera son siempre positivo y a menudo sesgado a la derecha, con un modo posible en cero, tan esperando los tiempos no se distribuyen normalmente. Por estas razones una no puede analizar a menudo la simulación hecha salir usando el clásico las técnicas estadísticas se convirtieron para los datos normales de i.i.d. En esta clase particular, examinaremos algunos métodos estadísticos para diseñar y analizar experimentos de la simulación. En la sección siguiente que comenzamos distinguiendo entre dos tipos de medidas de funcionamiento: el terminar (o transeúnte) y de estado estacionario (o infinito-horizonte o duradero). Estos dos los tipos de medidas requieren diversas técnicas estadísticas a analizar los métodos de los resultados, y de las revisiones de la sección 3 para analizar salida de terminar simulaciones, mientras que sección 4 cubre las técnicas para las simulaciones de estado estacionario. En la sección 5 discutimos la valoración de las medidas de funcionamiento múltiples, y la sección 6 cubre brevemente otros métodos útiles para analizar salida de la simulación. Algunas observaciones que concluyen son dadas en la sección 7.
2 MEDIDAS DE FUNCIONAMIENTO
Uno de los primeros pasos en cualquier estudio de la simulación es el elegir medidas de funcionamiento de calcular. Es decir qué ¿las medidas serán utilizadas de evaluar cómo “bueno” es el sistema? Por ejemplo, el funcionamiento de un sistema que hace cola puede ser medido por tu número previsto de los clientes servidos en un día, o nosotros puede utilizar el coste diario del promedio duradero como una medida del funcionamiento de una cadena de fuente. Hay sobre todo dos tipos de medidas de funcionamiento para los sistemas estocásticos, que ahora describimos brevemente: 1. Medidas de funcionamiento transitorias, también conocidas como las medidas el terminar o del finito-horizonte, evalúan la evolución del sistema sobre un horizonte finito del tiempo. 2. Las medidas de funcionamiento de estado estacionario describen cómo el sistema se desarrolla sobre un horizonte infinito del tiempo. Éstos también se conocen como duradero o infinito-horizonte medidas. Una simulación en la cual un transitorio (respectivamente, de estado estacionario) se estima la medida se llama una simulación del transeúnte (respectivamente, simulación de estado estacionario). Ahora describimos estos conceptos en más profundidad.
2.1 Medidas de funcionamiento transitorias
Definición: Una simulación que termina es una para el cual hay un acontecimiento “natural” B que especifica la longitud del tiempo en cuál está interesado uno para el sistema. El acontecimiento B ocurre a menudo cualquier a la vez señalan más allá de cuál ningún útil se obtiene la información, o cuando se limpia el sistema “hacia fuera.” Por ejemplo, si estamos interesados en el funcionamiento de un sistema durante las primeras 10 unidades del tiempo de la operación de un día, entonces B denotaría el acontecimiento unidades de esa 10 vez de tiempo del sistema han transcurrido. Si deseamos determinar primera vez en la cual una coleta tiene por lo menos 8 clientes, entonces B es el acontecimiento la primera vez de la longitud 8 que alcanzan de la coleta. (Véase la ley y Kelton 2000, sección 9.3, para más detalles.) Puesto que estamos interesados en el comportamiento del sistema sobre solamente un horizonte finito del tiempo, las “condiciones iniciales” I (es decir, las condiciones bajo las cuales el comienzo del sistema) pueden tener un impacto grande en la medida de funcionamiento. Por ejemplo, comienzo de las simulaciones que hace cola a menudo sin los clientes presentes, cuál sería el I en este ajuste. En una simulación transitoria, tenemos el siguiente. Meta: Para calcular _ D E.X/; (1) donde está una representación X de la variable al azar (al azar) funcionamiento del sistema sobre un cierto horizonte finito. Ahora examinamos algunos ejemplos del funcionamiento transitorio medidas. Ejemplo 1: Considerar contener del vestíbulo del banco máquina de caja automática (atmósfera). El vestíbulo está solamente abierto durante horas de oficina de actividades bancarias normales, a que está 9:00 5:00 P.M., así que los clientes pueden tener acceso theATMonly durante ésos épocas. Cualquier cliente en el vestíbulo en 5:00 P.M. será permitido para terminar a sus transacciones, pero a ningunos nuevos clientes no será prohibido el pulg. Dejar Z ser el número de usar de los clientes la atmósfera en un día, y nosotros podemos estar interesados en la determinación las medidas de funcionamiento que terminan siguientes: • ETZU, el valor previsto del Z. Para poner cosas adentro el marco de (1), fijamos X D Z. • PfZ _ 500g D ETI. Z _ 500/U, que es probabilidad que por lo menos 500 clientes utilizan Atmósfera en un día, donde I. La a es la función del indicador de un acontecimiento A, que adquiere el valor 1 si A ocurre, y 0 de otra manera. En la notación de (1), X D I. Z _ 500/en este caso. Las condiciones iniciales puede ser que sea que el sistema comienza hacia fuera vaciar cada día, y el acontecimiento que termina B es que está más allá 5:00 P.M. y allí no es no más de cliente en el vestíbulo. Puede ser que definamos alternativomente Z para ser el promedio tiempo de espera (en segundos) de los primeros 50 clientes en un día. Podemos entonces definir las medidas de funcionamiento siguientes: • ETZU, el valor previsto del Z. en este caso, X D Z en la notación de (1). • PfZ _ 30g D ETI. Z _ 30/U, que es la probabilidad que el tiempo de espera medio del primer 50 clientes no son no más de 30 segundos. Aquí, X D I. Z _ 30/adentro (1). En este caso puede ser que especifiquemos las condiciones iniciales I para ser que el comienzo del sistema hacia fuera vacia cada día, y terminar el acontecimiento B es que 50 clientes han acabado sus esperas (si cualesquiera) en línea.
2.2 Medidas de funcionamiento de estado estacionario
Ahora consideramos medidas de funcionamiento de estado estacionario. Dejado Y D. Y1; Y2; Y3; : : : /ser proceso estocástico de a (tiempo discreto) representación de la salida de una simulación. Por ejemplo, si el vestíbulo que contiene la atmósfera en nuestro ejemplo anterior es ahora abrirte 24 horas al día, entonces Yi pudo representar esperar época del cliente del ith puesto que la atmósfera fue instalada. Dejado Fi.yjI/D P.Yi _ yjI/para i D 1; 2; : : : , donde como antes, I representa las condiciones iniciales del sistema en el tiempo 0. Observar ese Fi. _ jI/es la función de distribución de Yi dado la inicial condiciona el I. Ahora estamos interesados en comportamiento del sistema sobre un horizonte infinito del tiempo, y él está a menudo el caso que los efectos de las condiciones iniciales yo llegan a ser insignificantes después de que haya transcurrido un suficientemente de largo plazo.
Definición: Si
(2)
para toda la y y para cualquier condición inicial I, entonces F.y/está llamó la distribución de estado estacionario del proceso Y. Si Y es una variable al azar con la distribución F, decimos que Y tiene la distribución de estado estacionario, y nosotros escribimos a veces esto como , que se lee como “Yi converge adentro distribución al Y.”
La interpretación de (2) es ésa para todos i suficientemente grande,
; para toda la y: (3)
El valor de i para el cual la aproximación sostiene depende mucho en el sistema particular que es simulado. Nota eso (3) no significa que los valores del Yi son todos iguales para i grande, pero algo ése la distribución de Yi (dado las condiciones iniciales I) está cerca de F para el I. grande. De hecho, la variable al azar de estado estacionario Y (y también el Yi para i grande) puede inmóvil tener un montón de variabilidad. Cuando es Y una variable al azar con la distribución F, E.Y/es un steadystate medida de funcionamiento. Puede ser demostrado debajo de grande ¡generalidad ese como para todo inicial condiciones I cuando (2) sostiene. El cuadro 1 da un ejemplo de la densidad funciona fi que acerca a una cierta densidad limitadora f como i consigue más grande. Muchos sistemas no tienen un estado constante. Por ejemplo, considerar nuestro ejemplo anterior de una atmósfera que sea accesible solamente durante horas de oficina. Dejar Yi ser el tiempo de espera del cliente del ith a llegar puesto que la atmósfera fue instalada. Entonces, el proceso Y no tiene un estado constante porque el primer cliente de cada día no tiene siempre ninguna espera, mientras que otros clientes pueden tener que esperar. Por ejemplo, suponer sirven 500 clientes en el primer día, así que el día 2 comienza con el cliente 501, que no tiene ninguna espera puesto que hay nadie delante de él en ese día, así que (2) no puede sostener. En el otro mano, si las atmósferas eran 24 accesible al día, entonces un constante el estado puede existir. En el ejemplo antedicho donde está solamente disponible la atmósfera de 9:00 a 5:00 P.M., podemos poder obtener un proceso Y que tiene un estado constante si definimos el Yi diferentemente. Particularmente, suponer que Yi es el tiempo de espera medio de todos los clientes en el día del ith puesto que se convirtió la atmósfera primero operacional. Entonces, Y puede tener un estado constante. (Todavía puede no si la distribución del número de clientes en un día depende del día particular de la semana, o si hay variaciones estacionales, en este caso (2) no puede sostener.)
Ejemplo 2: Considerar la atmósfera de antes, pero ahora suponer que él accesible toda la hora. Dejar Yi ser el número de clientes sirvió en el día del ith de la operación, y suponer que en un cierto plazo, el sistema “coloca abajo” en estado constante; ¡es decir, Yi D! ¡Y como i! 1. Nosotros ahora puede estar interesado en la determinación del estado estacionario siguiente medidas de funcionamiento:
• , que es el número de estado estacionario previsto de los clientes servidos en un día;
• , que es probabilidad de estado estacionario esa por lo menos 400 clientes se sirven en un día. Una vez más podemos dejar las condiciones iniciales que denoto que el sistema comienza operaciones en el primer día sin clientes presentar, y en un cierto plazo, los efectos de las condiciones iniciales “lavarte lejos.”

3 ANÁLISIS DE SALIDA PARA SIMULACIONES TRNSEUNTES
Ahora discutimos cómo analizar la salida de un transeúnte simulación. Recordar nuestra meta es calcular _ D E.X/, donde X es una variable al azar que representa el funcionamiento del sistema sobre un cierto horizonte finito con condiciones iniciales I. El acercamiento básico a estimar _ con la simulación es como sigue:
Método: Generar n _ 2 réplicas de i.i.d de X, opinión X1; X2; : : : ; El Xn, y forma el perito (del punto)
(4)
Generamos réplicas de i.i.d de X funcionando independiente simulaciones del sistema bajo estudio. Hacemos repliega independiente usando corrientes sin traslapo de números al azar del generador de número aleatorio. Nosotros asegurar las réplicas son distribuidos idénticamente comenzando cada simulación que usa la misma inicial condiciona I y usar la misma dinámica para gobernar la evolución del sistema.
Si (que es casi siempre el caso adentro práctica), la ley (fuerte) de las garantías grandes de los números con la probabilidad 1. Así, si el tamaño de muestra n es bastante grande elegido, N X.n/estará cercano a _. ¿Pero cómo cerca está N X.n/_? El límite central el teorema (CLT) proporciona una respuesta. Específicamente, dejar _2 denotar la variación de X, es decir, y asumirla ese 0 < _2 < 1. A veces también referimos al estándar desviación de X, que es . También, dejar
(5)
cuál es la variación de la muestra de X1; : : : ; El Xn, y es perito de _2. La desviación de estándar de la muestra es , de el cual es un estimado . Una variante del CLT estándar afirma que para n grande,
(6)
donde N.a; el b denota una variable al azar normal que tiene significar que a y la variación b y los medios de D_ “tiene aproximadamente la misma distribución que.” La aproximación adentro (6) está generalmente ¡razonable para n _ 50, y ella llega a ser exacto como n! 1. Ahora utilizamos (6) derivar un intervalo de la confianza para _. Primero definir el nivel 1-_ de la confianza; típicamente, uno elige _ }: 1, 0.05 o 0.01. Entonces, miramos para arriba en una z-tabla z constante _ z1-_=2 para el cual PfN.0; 1 _ zg D 1 - _=2; e.g., z D 1:65 cuando _ }: 1, z D 1:96 cuando _ }: 05, y z D 2:58 cuando _ }: 01. Virtualmente introductorio el libro de la estadística proporciona una z-tabla; también ver la tabla T.1 de la ley y Kelton (2000) o tabla A.3 de Banks y otros. (2001). Entonces 1 - _ D Pf-z _ N.0; 1 _ zg _ _-z de P _ pn S.n/ . N X.n/- _/_ z_ (7) _N 2 X.n/de D P _ _ _ zS.n/ __ del pn; (8) del donde la aproximación adentro (7) sigue para n grande (6). Observar que (8) implica eso cuando n es grande, el intervalo _N X.n/- zS.n/ pn ; N X.n/C zS.n/ pn _ (9) tiene áspero probabilidad 1-_ de contener el medio verdadero _, y llamamos el intervalo en (9) un 100.1-_/% aproximado intervalo de la confianza para _. Así, llegamos el siguiente: Procedimiento para construir los intervalos de la confianza para el transeúnte medida _ 1. Especificar un nivel 1-_ de la confianza y un tamaño de muestra n que es grande. También, mirar para arriba en una z-tabla valor de z tales que PfN.0; 1 _ zg D 1 - _=2. Típicamente, uno elige _ }: 1, 0:05 o 0:01, y uno debe elegir n _ 50. 2. Generar las réplicas X1 de n i.i.d; X2; : : : ; Xn. 3. Usar los puntos de referencias de n X1; X2; : : : ; El Xn, calcula el medio N el usar de X.n/de la muestra (4) y la muestra el usar de la variación S2.n/(5). 4. Uso (9) de construir 100.1 - un _/% aproximados intervalo de la confianza para _. Una interpretación del con- aproximado del 100.1-_/% el intervalo del fidence para _ adentro (9) es que somos altamente confidentes (es decir, aproximadamente 100.1 - el _/% confidentes) que el verdad el medio _ miente en el intervalo (9). Así, un intervalo de la confianza proporciona una forma de límites del error para nuestro perito N X.n/de _. El Hn de media anchura del intervalo de la confianza adentro (9) está Hn D zS.n/ pn ; (10) es decir, el intervalo de la confianza adentro (9) es N X.n/_ Hn. Puede demostrarte que S.n/_ _ para n grande, para la muestra clasificar los aumentos de n, las disminuciones de media anchura en la tarifa 1=pn. En el detalle, éste significa eso para obtener un significativo adicional figura de la exactitud (es decir, exactitud del aumento por un factor de 10), necesitamos aumentar el tamaño de muestra n en un factor de 100. Así, el perito N X.n/converge _ algo lentamente. Si construimos usar del intervalo de la confianza 9) ( sobre pasos, la probabilidad es aproximadamente 1-_ que el intervalo contendrá _. Es decir si repetimos éstos caminan los tiempos independientes de m, éste nos darán m diferente intervalos de la confianza. Algunos de ellos contendrán (la cubierta) _, y otros no. La teoría dice eso aproximadamente .1 - _/m de los intervalos de m debe cubrir _. En la práctica, aunque, no sucede esto siempre. La aproximación adentro ¡nuestro CLT (6) llega a ser solamente exacto como el tamaño de muestra n! 1, la cobertura es tan solamente aproximadamente 1 - _ para grande pero n finita, es decir, P _ _ 2 _ N X.n/- zS.n/ pn ; N X.n/C zS.n/ __ del pn _ 1 - _: (11)
4 ANÁLISIS DE SALIDA PARA SIMULACIONES DE ESTADO ESTACIONARIO
Ahora discutimos la valoración del funcionamiento de estado estacionario medidas. Hay dos casos a considerar: 1. Proceso del tiempo discreto: Y D. Yi V i D 1; 2; : : : / es un proceso de la salida con un rato número-valorado el índice, y nuestra meta es estimar (y producir intervalos de la confianza para) _, donde _ se define tales eso 1 m m XiD1 ¡Yi! _ (13) ¡como m! 1. 2. proceso del Continuo-tiempo: Y D. Y .s/ V s _ 0 es proceso de la salida con un índice continuo-valorado del tiempo, y deseamos estimar (y producir confianza intervalos para) _, donde _ se define tales que 1 s Z s 0 ¡Y .u/ du! _ (14) ¡como s! 1. Vimos previamente en la sección 2.2 algunos ejemplos de medidas de estado estacionario para un proceso del tiempo discreto. Por ejemplo, Yi podía ser el tiempo de espera del cliente del ith a a el sistema que hace cola, así que _ representa el de estado estacionario esperada tiempo de espera. Ahora damos un ejemplo de un continuo-tiempo proceso. Ejemplo 4: Suponer que es la atmósfera de antes accesible 24 horas al día, y dejar Y.s/denotan el número de los clientes que esperan en línea en el tiempo S. Definimos proceso estocástico Y D del continuo-tiempo. Y .s/ V s _ 0, y si se asume que Y tiene un estado constante (que no sería el caso si la distribución del número de customers waiting dependemos de la hora), entonces podemos estar interesados adentro calculando _ definió adentro (14), que en este caso es el duradero número tiempo-medio de esperar de los clientes. Otros la medida posible es lim ¡s! 1 1 s Z s 0 I. Y .u/ _ un du; cuál es la fracción duradera del tiempo que por lo menos los clientes están esperando. 4.1 Las dificultades del análisis de la salida de de estado estacionario Simulaciones Nos concentraremos en los procesos del tiempo discreto (continuoustime los procesos se pueden manejar de una manera similar). Nuestro la meta es estimar y producir los intervalos de la confianza para parámetro de estado estacionario _. Primero, examinamos cómo producir un perito del punto para _. Como podemos ver adentro (13), el parámetro _ puede ser visto como el nivel medio duradero de Yi. Así, si fijamos N Y .M/ D 1 m m XiD1 Yi; entonces N Y .m/ es un perito constante para _, en el sentido eso ¡N Y .M/! _ ¡como m! 1. Es decir funcionando una simulación “larga” (es decir, tomando m grande) dará lugar a un perito N Y .m/ eso está “cercano” a _. Por lo tanto, el problema de construir el perito para _ se soluciona fácilmente. Sin embargo, la tarea de construir un intervalo de la confianza para _ es más delicado. Para virtualmente todos razonablemente se comportó los sistemas que poseen un estado constante único, uno pueden demostrar eso un teorema de límite central para N Y .m/ es válido; es decir, existe un N_ constante tales que P.M. N_ . N Y .m/ - _/D_ N.0; 1 (15) para m suficientemente grande. Definición: El parámetro N_2 se llama el tiempo-medio constante de la variación de la simulación de estado estacionario. Desafortunadamente, no es tan directa utilizar el CLT en (15) construir un intervalo de la confianza para _. El problema miente en el hecho de que es una cuestión no trivial para estimar N_ (o equivalente N_2). La variación S2.n/de la muestra adentro (5) utilizó a la estimación _2 en el ajuste de la transitorio-simulación es solamente válida para los datos de i.i.d. En simulaciones de estado estacionario, Y1; Y2; : : : ser típicamente no i.i.d. Así, no podemos utilizar (5) aplicado a Y1; Y2; : : : para estimar N_2. 4.2 Método de réplicas múltiples El método de ofertas múltiples de las réplicas un escape de esta dificultad de estimar N_. Suponer eso más bien que simulando uno largo replegar de la longitud m, nosotros simulan r réplicas independientes, cada uno de la longitud k D m=r. Nosotros debe elegir r pequeño, dice 10 _ r _ 30, de modo que k sea grande. Necesitamos k grande puesto que estamos interesados en el duradero comportamiento del proceso Y. Alcanzamos la independencia del réplicas usando corrientes sin traslapo de al azar números para las diversas réplicas. Porque ahora tenemos las observaciones independientes de r, podemos formar una variación de la muestra a través de las réplicas. Ésta es la idea básica subyacente el método de réplicas múltiples. Para j D 1; : : : ; r, dejaron Yj; 1; Yj; 2; : : : ; Yj; k sea las observaciones de k de la réplica del th de j (independiente), y dejar X0j D 1 k k XiD1 Yj; i ser el medio de la muestra formado de la réplica del th de j. Entonces X01; X02; : : : ; X0r son observaciones de i.i.d con E.X0j/_ _ para cada j D 1; 2; : : : ; r, si k es suficientemente grande en virtud de (13). Podemos utilizar tan estadística clásica para formar un punto perito e intervalo de la confianza usando las observaciones X01; X02; : : : ; X0r. Específicamente, dejar N X0.r/D 1 r r XjD1 X0j y S02.r/D 1 r - 1 r XjD1 . X0j - N X0.r//2 ser la variación del medio de la muestra y de la muestra, respectivamente, de el X0j. Entonces, una confianza aproximada de 100.1 - del _/% el intervalo para _ se da cerca _N X0.r/- tS0.r/ banda ; N X0.r/C tS0.r/ banda _; donde t _ tr-1; 1-_=2 se elige tales que PfTr-1 _ tg D 1-_=2 y Tr-1 es una variable al azar del Estudiante-t con r -1 grados de libertad. Virtualmente toda la estadística introductoria los libros proporcionan las t-tablas que dan valores de t para vario _ y grados de libertad; también ver la tabla T.1 de la ley y Kelton (2000) o tabla A.5 de Banks y otros. (2001). (Aquí utilizamos el punto crítico de una t-distribución más bien que una distribución normal estándar porque el número r de las réplicas son a menudo pequeñas.)
Un problema importante con el método de réplicas múltiples es eso, mientras que la técnica permite la valoración simple de la variación, múltiple-replegar el perito N X0.r/puede ser contaminado perceptiblemente por la presencia de la inicialización diagonal. Específicamente, la ley de números grandes garantiza eso X0j D 1 k k XiD1 Yj; ¡i! _ ¡como k! 1. Sin embargo, puesto que cada replegar está típicamente comenzado con una condición inicial I que es anormal de estado constante (e.g., las simulaciones que hacen cola se comienzan a menudo sin los clientes presentes), sigue a menudo eso para cualesquiera k finita, E “1 k k XiD1 Yj; i#6D _: Así, concluimos que si el número de las réplicas r es grande concerniente a la longitud k del funcionamiento de cada réplica, entonces el perito N X0.r/puede ser perceptiblemente en polarización negativa. Una solución parcial a este problema es utilizar inicial-datos canceladura, que ahora describimos. Suponer que nosotros de alguna manera puede determinar las primeras observaciones de c de la simulación son contaminado perceptiblemente, es decir, no no mismo el representante de estado constante. También, suponer que es todo el withi de Yi de las observaciones > c contaminado no perceptiblemente. Entonces en cada réplica, suprimiremos las primeras observaciones de c al calcular el medio de la muestra de la réplica. Específicamente, para cada uno réplica j D 1; 2; : : : ; r, dejaron Xj D 1 k - c k x iDcC1 Yj; i ser el medio de la muestra de las observaciones (no-contaminadas) Yj; cC1; Yj; cC2; : : : ; Yj; k, en la réplica J. Después de simular las réplicas de r, cálculo N X.r/D 1 r r XjD1 Xj y S2.r/D 1 r - 1 r XjD1 . Xj - N X.r//2; cuál es la variación del medio de la muestra y de la muestra, respectivamente, del Xj. Entonces, 100.1 - un _/% aproximados el intervalo de la confianza para _ se da cerca _N X.r/- tS.r/ banda ; N X.r/C tS.r/ banda _: Para más detalles en la canceladura de los inicial-datos, incluyendo alguno la heurística para determinar c, considera la sección 9.1 de la ley y de Kelton (2000). Un problema con la canceladura de los inicial-datos está ése en cada uno de las réplicas de r, tenemos que suprimir observaciones de c. Así, estamos lanzando lejos un total de observaciones del rc sobre todos de las réplicas. Si utilizamos solo-replegar el algoritmo (es decir, uno con r D 1), entonces suprimiríamos solamente un total de observaciones de c.
4.3 Replegar los métodos
Típicamente en la práctica, cuando p es grande, Yi y YiCp es casi la independiente para cada I. por ejemplo, supone que es Yi el tiempo de espera del cliente del ith en un sistema que hace cola. Entonces contábamos con que el tiempo de espera del 100o cliente a ser casi independiente del 10mo cliente tiempo de espera. Ahora suponer que nosotros funcionar una simulación de la longitud m, dándonos las observaciones Y1; Y2; : : : ; Ym. Suponer que agrupamos las observaciones en n grande, hornadas sin traslapo de m, cada uno del tamaño b (tan m D NOTA), donde consiste la primera hornada de las primeras observaciones de b, la segunda hornada consiste en observaciones siguientes de b, y así sucesivamente. Si b se elige para ser grande, entonces la mayor parte de las observaciones en una hornada deben estar casi independiente la mayor parte de de las observaciones en cualquier otra hornada. La única dependencia que esencialmente existe está entre las observaciones en dos hornadas adyacentes. Observaciones en hornadas eso no es adyacente es casi independiente. Por otra parte, si computamos el medio de la muestra de cada uno de las hornadas, entonces los medios de la muestra deben ser casi independientes cuando el tamaño de hornada b es grande. También, cada medio de la muestra será cerca de distribuido normalmente para b grande, puesto que es una muestra medio y satisface tan un CLT (véase (15)). Usar el antedicho las observaciones, ahora presentamos el método de medios de la hornada. El método de hornada significa construir intervalos de la confianza en simulaciones de estado estacionario 1. Seleccionar un total para funcionar la longitud m, que es grande. También, seleccionar un número de hornadas N. (Schmeiser 1982 sugerir elegir 10 _ n _ 30.) 2. Funcionar una simulación que genera un total de observaciones de m. Esto da lugar a las observaciones Y1; Y2; : : : ; Ym. 3. Entonces agrupar las observaciones de m en las hornadas de n, cada uno del tamaño b D m=n. Para j D 1; 2; : : : ; n, el th de j se calcula el medio de la hornada como N Yj .b/ D 1 b jb X lD.j-1/bC1 Yl: Observar que N Yj .b/ es el medio de la muestra de las observaciones de b en la hornada del th de j. 4. Entonces tratamos N Y1.b/; N Y2.b/; : : : ; N Yn.b/como observaciones de i.i.d (la nota que no son, pero debe ser razonablemente cerrarte para los tamaños de hornada grandes b) y utilizar estadística clásica para construir un intervalo de la confianza. Específicamente, cálculo NN Y .N; b D 1 n n XjD1 N Yj .b/ D 1 m m XiD1 Yi; y S2.n; b D 1 n - 1 _N Yj .b/ - NN Y .n de n XjD1; b/_2 como la variación del medio de la muestra y de la muestra, respectivamente, de los medios de la hornada de n, y de un aproximado 100.1 - el intervalo de la confianza del _/% para _ es _ NN Y .N; b - tS.n; b pn ; NN Y .N; k C tS.n; b pn _; donde t _ tn-1; 1-_=2 se elige tales que PfTn-1 _ tg D 1-_=2 para Tn-1 una variable al azar del Estudiante-t con n - 1 grado de libertad. Puede ser demostrado que en virtualmente todo el presentarse de las situaciones en la práctica, el método de medios de la hornada producirá válido ¡intervalos de la confianza como b! 1. Más específicamente, P _ _ 2 _ NN Y .N; b _ tS.n; b ___ 1 del pn - _ para el tamaño de hornada b suficientemente grande. Podemos modificar fácilmente el procedimiento antedicho para incorporar canceladura de los inicial-datos en lugar de otro recogiendo un total de las observaciones de m C c y quitar la primera c contaminaron observaciones. Entonces aplicar el método de medios de la hornada con los puntos de referencias restantes de m. Cuando el usar solo-repliega método tal como medios de la hornada, necesitamos solamente suprimir un total de las observaciones de c, en comparación con rc al usar el método de réplicas múltiples con las réplicas de r. Whitt (1991) proporciona un análisis matemático que rinda básicamente siguiente: Regla del pulgar: Solo replegar los procedimientos tienden a ser mejor (según lo medido por el error de la media cuadrada del el perito de estado estacionario) que múltiple-procedimientos. Ha habido muchos de trabajo reciente sobre mejoras a hornada-significa el método descrito arriba. Ver Schmeiser y Song (1996) para un examen. 4.4 Otros métodos Hay numeroso otros métodos para estadístico analizar la simulación hizo salir en el contexto de estado estacionario. Éstos incluyen espectral (e.g., Anderson 1994), regenerador (grúa y Iglehart 1975, Shedler 1993), y serie de tiempo estandardizada los métodos (Schruben 1983), solamente estas técnicas requieren más las matemáticas sofisticadas a entender y pueden estar algo más difícil de poner en ejecución. Para una descripción de éstos otras técnicas, consideran a Bratley, a Fox y a Schrage (1987) o Ley y Kelton (2000). Finalmente, 1994) presentes de Nakayama ( procedimientos de dos etapas para obtener confianza de la fijo-anchura intervalos en simulaciones de estado estacionario.
5 FUNCIONAMIENTO MÚLTIPLE QUE ESTIMA MEDIDAS
Considerar nuestro ejemplo anterior de una atmósfera que sea accesible solamente entre 9:00 y 5:00 P.M., y suponer que deseamos para calcular el • _1, el número previsto de clientes sirvió en a día; • _2, la probabilidad que el número sirvió en un día está por lo menos 1000; • _3, la cantidad prevista de dinero retirada de la atmósfera en un día. Éstas son todas medidas de funcionamiento transitorias, y suponen utilizamos la misma simulación para estimar las 3 medidas cerca réplicas de funcionamiento de la independiente de n. Dejar X1; denoto el número de clientes sirvió en la réplica del ith. Dejado X2; i sea 1 si por lo menos sirven 1000 clientes en el ith réplica, y 0 de otra manera. Dejar X3; i sea la cantidad de dinero retirado en la réplica del ith. Después de funcionar réplicas de n, suponer que construimos a intervalo de la confianza del 95% para cada _s, s D 1; 2; 3. Dejarte denotar el intervalo de la confianza del 95% para los _s, así que si funcionamos un número suficientemente grande n de réplicas, entonces Pf_s 2 ISG _ 0:95 para cada s D 1; 2; 3. Pero qué puede decimos alrededor la cobertura común de los 3 intervalos de la confianza; es decir, qué es Pf_s 2 es; para todo el s D 1; 2; ¿3g? Más generalmente, suponer que estamos estimando q significamos _s, s D 1; 2; : : : ; q, y para cada los _s, construimos a 100.1 - los _s/% intervalo de la confianza son. Qué puede decimos sobre Pf_s 2 está; para todo el s D 1; 2; : : : ; ¿qg? Bonferroni la desigualdad proporciona un límite más bajo para esta probabilidad: Pf_s 2 es; para todo el s D 1; 2; : : : ; qg _ 1 - q XsD1 _s: Así, en nuestro ejemplo anterior en el cual teníamos tres 95% los intervalos de la confianza, la desigualdad de Bonferroni implican probabilidad común que los tres intervalos de la confianza contienen sus medios verdaderos respectivos son por lo menos los 85%. Por lo tanto, nuestro el nivel común de la confianza para los tres intervalos es menos que nivel de la confianza para cualquier solo intervalo. Si deseamos el empalme confianza a ser por lo menos el 95%, entonces puede ser que fijemos _s }: 01 para cada S. Esto rendiría confianza del individuo el 99% intervalos, con la probabilidad común siendo por lo menos 0.97. Así, para tener alta confianza de nuestro individuo los intervalos de la confianza contienen sus medios respectivos, nosotros necesitan para construir los intervalos individuales de la confianza con uniforme niveles más altos de la confianza. A menudo, uno desea comparar diversos sistemas para ver cuál uno es “lo más mejor posible.” Por ejemplo, podemos tener 5 los diseños posibles para un sistema de fabricación, y nosotros deseamos para determinarse por cuál tiene la producción prevista más alta día. Hay la literatura substancial en este asunto, mucha de él en las áreas de los procedimientos de selección supuestos y de los procedimientos del multiplecomparison. Para una descripción de estos métodos, ver Goldsman y Nelson (2001).
6 OTROS MÉTODOS ÚTILES
Ahora discutimos brevemente algunas otras técnicas que puedan ser útil para las simulaciones. Técnicas de la Variación-reducción (VRTs), que también se conocen como eficacia-mejora las técnicas, pueden conducir a los peritos de la simulación con más pequeño error (variación) por típicamente cualquiera el recoger adicional información de los funcionamientos de simulación o de cambiar o de controlar la manera de la cual se funciona la simulación. Alguno de el VRTs más ampliamente utilizado incluye el siguiente: Números al azar comunes del • (e.g., ver la sección 11.2 de la ley y de Kelton 2000) puede mejorar simulaciones comparando dos o más sistemas funcionando simulaciones de los varios sistemas usando igual corriente de números al azar. Esto induce generalmente correlación positiva entre los peritos que resultan, cuál puede ser ventajoso al estimar diferencias de las medidas de funcionamiento entre los sistemas. Variantes aleatorias antitéticas del • (e.g., ver la sección 11.3 de la ley y Kelton 2000) puede mejorar resultados de la simulación un solo sistema induciendo correlaciones negativas entre los pares de réplicas. • El método de variantes aleatorias del control (e.g., ver la sección 11.4 de la ley y de Kelton 2000) recoge adicional datos durante la simulación, del donde el medio se saben los datos recogidos adicionales. Por ejemplo, en una simulación que hace cola, una sabe a menudo medio de la distribución del service-time, y tan uno la fuerza recoge además los tiempos al azar del servicio eso se genera durante la simulación. Los datos recogido típicamente se correlaciona con la simulación la salida, y esta correlación se pueden explotar a obtener un perito con una variación más baja que perito estándar. Muestreo de la importancia del • (Hammersley y Handscomb 1964, Glynn e Iglehart 1989) está a menudo utilizado en simulaciones del raro-acontecimiento, por ejemplo para analizar el almacenador intermediario desborda en redes de comunicaciones y fallos del sistema de sistemas fault-tolerant. En estos ajustes, el acontecimiento del interés, típicamente algo la clase de falta, ocurre muy raramente, e importancia el muestreo cambia la dinámica del sistema a hacer el acontecimiento ocurrir más con frecuencia. Imparcial los peritos son recuperados multiplicándose cerca un factor de la corrección conocido como la probabilidad - cociente. Heidelberger (1995) y Nicola, Shahabuddin y 2001) importancia-muestreos de la revisión de Nakayama (métodos para las simulaciones del raro-acontecimiento de hacer cola y sistemas de la confiabilidad. El otro VRTs incluye el muestreo estratificado, Monte condicional Carlo, y el partir. Se describen éstos y otros métodos en el capítulo 11 de la ley y Kelton (2000) y capítulo 2 de Bratley, Fox y Schrage (1987). Uno está a menudo interesado en estimar derivados de medidas de funcionamiento con respecto a parámetros del sistema. Por ejemplo, en un sistema de la confiabilidad, uno puede desear saber el derivado del Horario de Greenwich al fallo del sistema con respecto al porcentaje de averías de un componente. Esta información puede ser útil en sistemas que diseñan identificando los componentes en los cuales para enfocarse para mejorar funcionamiento total. También, derivado la información se puede utilizar con una cierta simulación-optimización métodos (e.g., Andradóttir 1998). Técnicas para estimar los derivados que usan la simulación incluyen análisis de la perturbación (Glasserman 1991; Ho y Cao 1991; Fu y Hu 1997) y el método de probabilidad-cociente o de la cuenta-función (Reiman y Weiss 1989; Rubinstein 1989; Glynn 1990).
7 CONCLUSIONES
Hemos descrito algunas técnicas para estadístico analizar la salida de una simulación. Es importante tener presente que los métodos presentados aquí son todo el asintótico válidos, así que las longitudes grandes del funcionamiento son necesarias asegurarse de que las inferencias válidas están dibujadas. Además de las referencias dadas a través del papel, otros recursos que cubren análisis de la simulación-salida en el clude Banks (1998), Banks y otros. (2001), Fishman (2001), Melamed y Rubinstein (1998), y Ross (2002). RECONOCIMIENTOS Thisworkwas apoyado por el National Science Foundation bajo concesiones DMI-9624469 y DMI-9900117.
Esta clase particular introduce algunas de las ideas, de las ediciones, de los desafíos, de las soluciones, y de las oportunidades en decidir a cómo experimentar con los modelos de la simulación para aprender sobre su comportamiento. El planeamiento cuidadoso, o el diseñar, de los experimentos de la simulación es generalmente un gran rato de la ayuda, el ahorrar y esfuerzo proporcionando maneras eficientes de estimar los efectos de cambios en las entradas del modelo en sus salidas. Tradicional experimental-diseñe los métodos se discuten en el contexto de los experimentos de la simulación, al igual que las preguntas más amplias que pertenecen a los experimentos de la computadora-simulación del planeamiento.

1 INTRODUCCIÓN

la carne verdadera de un proyecto de la simulación está funcionando sus modelos y está intentando entender los resultados. Hacer tan con eficacia, usted necesita planear a continuación antes de hacer los funcionamientos, puesto que apenas diversas cosas que intentan para considerar qué sucede pueden ser una manera muy ineficaz de procurar aprender sobre los comportamientos de sus modelos (y esperanzadamente los sistemas). El planeamiento cuidadoso de cómo usted va a experimentar con sus modelos compensará generalmente dividendos grandes en términos de cómo usted aprende con eficacia sobre los sistemas y de cómo usted puede ejercitar sus modelos más lejos.
Esta clase particular mira tal experimental-diseña ediciones en el amplio contexto de un proyecto de la simulación. El término "diseño experimental" tiene connotaciones específicas en su interpretación tradicional, y mencionaré algunos de éstos abajo, en la sección 5. Pero también intentaré cubrir las aplicaciones planear sus simulaciones en un contexto más amplio, que consideran los desafíos y las oportunidades especiales que usted tiene al conducir un experimento computarizado de la simulación más bien que un experimento físico. Esto incluye cuestiones del propósito total del proyecto, qué las medidas de funcionamiento de la salida deben ser, cómo usted utiliza los números al azar subyacentes, midiendo cómo los cambios en las entradas pudieron afectar las salidas, y buscando para una cierta clase de configuración de sistema óptima. Las cuestiones específicas de este tipo pudieron incluir: ¿las configuraciones modelo del??Que deben usted funcionando?
Cuanto tiempo deben los funcionamientos ser? Universidad de Russell R. Barton The Smeal de la administración del negocio el parque de la universidad de la universidad de estado de Pennsylvania, PA 16802, los E.E.U.U. ¿??How que muchos funcionamientos deben usted hacer? ¿el??Como debe usted interpretar y analizar la salida? ¿Cuál es la manera más eficiente de hacer los funcionamientos? Estas preguntas, entre otras, son de lo que usted trata al intentar diseñar experimentos de la simulación. Mi propósito en esta clase particular es llamar su atención a estas ediciones e indicar en términos generales cómo usted puede ocuparse de ellos. No entraré gran profundidad en muchos de detalles técnicos, sino le refiero en lugar de otro a cualquiera de varios textos en la simulación que lo hagan, y a las clases particulares y a las revisiones en este tema en este y a los procedimientos recientes de la conferencia de la simulación del invierno.



¿2 CUÁL ES EL PROPÓSITO DEL PROYECTO?

Aunque se parece como consejo obvio bonito, puede ser que lleve el mencionar que usted debe estar claro sobre cuáles es el último propósito de hacer su proyecto de la simulación en el primer lugar. Dependiendo de cómo se contesta esta pregunta, usted puede ser conducido a diversas maneras de planear sus experimentos. Peor, la falta de hacer (y la respuesta) la cuestión de apenas cuál el punto de su proyecto es pueden dejarle a menudo a la deriva sin ninguna manera organizada de realizar sus experimentos. Por ejemplo, iguale si hay apenas un sistema de interés de analizar y de entender, allí todavía podría ser preguntas como longitud funcionada, el número de funcionamientos, la asignación de números al azar, y la interpretación de resultados, pero no hay cuestiones de las cuales las configuraciones modelo a funcionar. Asimismo, si hay justo algunas configuraciones modelo del interés, y ellas se ha dado usted (o sea obvio), entonces el problema de experimental-diseña es similar a la situación del configuración simple. Sin embargo, si usted está interesado más generalmente en cómo los cambios en las entradas afectan las salidas, entonces hay claramente las cuestiones de las cuales las configuraciones a funcionar, tan bien como las preguntas mencionadas en el párrafo anterior. Asimismo, si usted está buscando para una configuración de entradas que maximice o reduzca al mínimo una cierta medida de funcionamiento dominante de la salida, usted necesita decidir muy cuidadosamente a que las configuraciones usted funcionarán (y a que usted no). La realidad es que a menudo usted no puede ser totalmente seguro cuáles son sus últimas metas hasta que usted consigue en un pedacito. A menudo, sus metas pueden cambiar como usted va adelante, generalmente llegando a ser más ambiciosas mientras que usted trabaja con sus modelos y aprende sobre su comportamiento. Las buenas noticias son que como sus metas llegan a ser más ambiciosas, qué usted aprendió de sus experimentos anteriores puede ayudarle a decidir a cómo proceder con sus experimentos futuros.


¿CUÁLES SON LAS MEDIDAS RELEVANTES DE OUTPUTPERFORMANCE?

La mayoría del software de la simulación produce muchos de salida numérica por defecto, y usted puede especificar generalmente la salida adicional que no pudo ser entregada automáticamente. Mucha de esta salida mide cantidades tiempo-basadas tradicionales como duraciones del tiempo o cuentas de entidades en varias localizaciones. Cada vez más, aunque, las medidas como coste o de valor añadido económico-basadas se están haciendo disponibles, y esté de interés amplio. El planear a continuación cerciorarse de usted conseguir hacer salir medidas que usted necesita es obviamente importante si los funcionamientos son desperdiciadores de tiempo realizar. Una pregunta fundamental se relaciona con el marco de tiempo de su simulación funciona. A veces hay manera natural u obvia de comenzar la simulación, y una manera igualmente natural u obvia de terminarla. Por ejemplo, un centro de la llamada pudo estar abierto a partir del 8a.m. a 8p.m. pero continúe funcionando como necesario después de que 8 P.M. para servir todos invite el asimiento (en coleta) en 8 P.M.. En tal caso, a menudo llamado una simulación que termina, no hay pregunta del diseño sobre comenzar o parar su simulación - éstos son parte y el paquete de la especificación modelo sí mismo. (a propósito, usted debe tomar cuidado para conseguir esta parte de modelar apenas tan a la derecha como los aspectos más obvios como valores de la lógica y del entrada-para'metro, puesto que la manera de la cual se comienza y se para una simulación puede a veces tener impacto importante en los resultados.) Por otra parte, el interés puede estar en (también llamado infinito-horizonte) el comportamiento duradero del sistema, en que caso es un claro no más largo cómo comenzar o parar la simulación (se parece sin embargo claro que la longitud del funcionamiento tendrá que ser comparativamente larga). Continuando el ejemplo del llamar-centro, quizás sus horas van a ampliarse a 24 horas al día, siete días a la semana; en este caso usted necesitaría una simulación de estado estacionario estimar las medidas de funcionamiento relevantes. Sin importar el marco de tiempo de la simulación, usted tiene que decidir qué aspectos de las salidas del modelo usted desea. En una simulación estocástica usted realmente quisiera saber todos sobre las distribuciones de la probabilidad de la salida, pero eso está pidiendo a manera demasiado en los términos del número y quizá de la longitud de los funcionamientos. Usted tiene que colocar tan generalmente para las varias medidas sumarias de las distribuciones de salida. Tradicionalmente, la gente se ha centrado en estimar el valor previsto (o el medio) de la distribución de salida, y ésta puede estar de gran interés. Por ejemplo, saber algo sobre la producción cada hora media es obviamente importante. Pero las cosas con excepción de medios pudieron ser interesantes también, como la desviación de estándar de la producción cada hora, o la probabilidad que la utilización de máquina para el período de la simulación estará sobre 0.80. En otro ejemplo usted puede ser que observe la longitud máxima de la coleta de partes en un almacenador intermediario en alguna parte para planear el espacio; en esta conexión puede ser que sea más razonable buscar un valor (llamado un quantile) debajo de el cual la longitud máxima de la coleta bajará con la probabilidad, por ejemplo, 0.95. Incluso si usted desea promedios simples justos, los específicos pueden afectar cómo se construye su modelo. Por ejemplo, si usted desea apenas el número tiempo-medio de partes en una coleta, usted necesitaría seguir la longitud de esta coleta pero no los tiempos de la entrada de piezas en la coleta. Sin embargo, si usted desea las piezas medias del tiempo pasan en la coleta, usted necesitan observar su época de la entrada para computar su tiempo en coleta. Piense tan de antemano de exacto lo que usted quisiera que saliera de su simulación; es más fácil no hacer caso de cosas que usted tiene que ir detrás y conseguir cosas usted se olvidó. (por otra parte, pidiendo todo fuera de su funcionamiento, incluyendo el fregadero de la cocina, puede tener efectos infelices el tiempo del cómputo.)


¿4 CÓMO DEBE USTED UTILIZAR Y ASIGNAR LOS NÚMEROS AL AZAR SUBYACENTES?

La mayoría de las simulaciones son estocásticas, es decir, implique las entradas al azar de distribuciones de la probabilidad para representar cosas como tiempos del servicio, épocas entre llegadas, y decisiones de pass/fail. El software de la simulación tiene instalaciones para generar observaciones de tales distribuciones, que confían en la raíz en un generador del randomnumber que bate fuera de una secuencia de los valores entre 0 y 1 que se suponen para comportarse como si son independientes y se distribuyen uniformemente en el intervalo [ 0, 1 ]. Tales generadores están en el hecho fijado, los fórmulas recurrentes que siempre le dan la misma secuencia de números "al azar" en la misma orden (a condición de que usted no elimina las semillas del defecto para estos generadores). El desafío en desarrollar tales generadores es que se comportan según lo previsto, en un sentido estadístico, y que tienen una longitud larga del ciclo antes de que doblen detrás en sí mismos y repitan la misma secuencia encima otra vez. estado alrededor por muchas décadas y se documenta bien en libros como la caja, cazador, y Hunter (1978) o Montgomery (1997). Una de las metas principales del diseño experimental debe estimar cómo los cambios en factores de la entrada afectan los resultados, o las respuestas, del experimento. Mientras que estos métodos fueron desarrollados con experimentos físicos en mente (como usos agrícolas o industriales), pueden ser utilizados bastante fácilmente en experimentos del computersimulation también, según lo descrito más detalladamente en el capítulo 12 de la ley y de Kelton (2000). En hecho, usarlos en la simulación presenta varias oportunidades para la mejora que sean difíciles o imposibles utilizar en experimentos físicos. Como ejemplo básico de tales técnicas, suponga que usted puede identificar apenas dos valores, o los niveles, de cada uno de sus factores de la entrada. No hay prescripción general en cómo fijar estos niveles, pero usted debe fijarlos para estar "enfrente de" en naturaleza pero no tan extremo que son poco realistas. Si usted tiene factores de la entrada de k, hay así 2k diversas combinaciones de los factores de la entrada, cada uno que define una diversa configuración del modelo; esto se llama un diseño factorial 2k. Refiriendo a los dos niveles de cada factor como "-" y "+" llano, usted puede formar qué se llama una matriz del diseño que describe exactamente cuáles cada uno de las diversas configuraciones modelo 2k es en términos de sus niveles del factor de la entrada. Por ejemplo, si hay k = 3 factores, usted tendría 23 = 8 configuraciones, y la matriz del diseño estaría como en la tabla 1, con Ri denotando la respuesta de la simulación de la configuración del ith. Tabla 1: La matriz del diseño para un experimento factorial 23 funciona (i) la respuesta 1 - - - R1 2 del factor 3 del factor 2 del factor 1 + - - R2 3 - + - R3 4 + + - R4 5 - - + R5 6 + - + R6 7 - + + R7 8 + + + R8 los resultados de tal experimento se puede utilizar en muchas maneras. Por ejemplo, el efecto principal del factor 2 en el ejemplo antedicho se define como la diferencia media en respuesta cuando este factor se mueve desde su "-" llano a su "+" llano; puede ser computado aplicando las muestras en la columna del factor 2 a las respuestas correspondientes, agregando, y después dividiéndose por 2k-1 = 4: (- R1 - R 2 + R 3 + R 4 - R 5 - R 6 + R 7 + R 8)/4. Los efectos principales de los otros factores se computan semejantemente. Además, usted puede preguntar si el efecto de un factor pudo depender de una cierta manera del nivel de unos o más otros factores, que serían llamados interacción entre los factores si se parecen estar presentes. Para computar las inter interacciones de los resultados experimentales, usted "multiplica" las columnas de los factores implicados rema por fila (como muestras multipliqúese "+," desemejante de muestras multipliqúese a "-"), aplican las muestras que resultan a las respuestas correspondientes, agregan, y se dividen por 2k-1 = 4. Por ejemplo, la interacción entre los factores 1 y 3 sería (+R 1 - R 2 + R 3 - R 4 - R 5 + R 6 - R 7 + R 8)/4. Si una interacción está presente entre dos factores, después el efecto principal de esos factores no se puede interpretar en el aislamiento. Cuál trae para arriba la aplicación limitaciones de estas clases de diseños. Hay diseños subyacentes de un modelo linear-regresión específico como éstos, que tienen presente un término de independiente-variable el implicar de cada factor en sus el propios (linear), y entonces los cruz-productos posibles entre los niveles del factor, representando interacciones. Como interacciones sugeridas, significativas núblese la interpretación de efectos principales, puesto que la presencia del producto cruzado hace el efecto principal no más de largo ser una medida exacta del efecto de mover este factor desde su "-" llano a su "+" llano. Una forma alrededor de esta limitación es especificar un modelo subyacente más elaborado y más general de la regresión, y permite más que apenas dos niveles para cada factor de la entrada. Esto da lugar a diseños más complejos, que se deben instalar y analizar de maneras más sofisticadas; vea que experimental-diseñe las referencias citadas anteriormente. Otra dificultad con diseños lleno-factoriales es que si el número de factores se convierte en moderado grande uniforme, el número de funcionamientos estalla (es, después de todo, literalmente exponencial en el número de factores). Una manera alrededor de esto es utilizar se saben qué pues los diseños fraccionario-factoriales en los cuales solamente una fracción (a veces apenas una fracción pequeña) de todas las factor-combinaciones posibles se funciona. Usted debe tomar cuidado, sin embargo, escoger el subconjunto de los funcionamientos muy cuidadosamente, y allí es prescripciones específicas en cómo a haga esto en las referencias citadas anterior. La desventaja de hacer solamente una fracción de los funcionamientos es que usted tiene que dar para arriba la capacidad de estimar por lo menos algunas de las interacciones potenciales, y más pequeño es el número de funcionamientos el menos es el número de interacciones que usted puede estimar.

Una limitación final de estas clases de diseños es que las respuestas son variables al azar, al igual que todas las salidas de simulaciones estocásticas. Así, sus estimaciones de cosas como efectos e interacciones principales están conforme a la variación posibilidad considerable. Desemejante de experimentos físicos, aunque, usted tiene el lujo en la simulación de replegar (independientemente repetición) los funcionamientos muchas veces de reducir esta variación, o quizás de replegar el conjunto diseñe muchas veces de conseguir muchos las estimaciones a independientes e idénticamente distribuidas de los efectos y de las interacciones principales, que se podrían entonces combinar para formar, por ejemplo, un intervalo de la confianza en los efectos y las interacciones principales previstos de la manera generalmente. Esto es un buen acercamiento para determinar si un efecto o una interacción principal está realmente presente - si el intervalo de la confianza para él no contiene cero, entonces aparece que está realmente presente. Hay ciertamente muchas otras clases de diseños factoriales más sofisticados que qué he descrito aquí; vea las referencias citadas anterior para los ejemplos.

5.2 ¿Qué entradas son importantes? ¿Cuáles no son?

Según lo mencionado arriba, si el número de factores es moderado grande uniforme, el número de las combinaciones posibles del factor-nivel estalla simplemente lejano más allá cualquier cosa remotamente práctico. Es inverosímil, aunque, que todos sus factores de la entrada son realmente importantes en términos del tener un impacto importante en las salidas. Por lo menos, habrá probablemente diferencias grandes entre sus factores en términos de su impacto en sus respuestas. Puesto que es el número de factores que causa la explosión en el número de combinaciones, sería el más provechoso identificar temprano en el curso de la experimentación que los factores son importantes y que no son. Los factores poco importantes se pueden entonces ser fijos en un cierto valor razonable y caer de la consideración, y la investigación adicional se puede hacer en los factores importantes, que estarán menos en número. Hay varios tales diseños de la factor-investigacio'n en la literatura (véase las referencias citadas anterior), y pueden ser extremadamente provechosas en transformar un número algo desesperado grande de funcionamientos en algo que es eminentemente manejable. 5.3 Los diseños más experimentales de los métodos y de Metamodels de la Respuesta-Superficie, incluyendo ésos mencionados arriba, se basan en una asunción algebraica del regresión-modelo sobre la manera que los factores de la entrada afectan las salidas. Por ejemplo, si hay dos factores (X1 y X2, opinión) que se piensan para afectar una respuesta Y de la salida, usted puede ser que aproxime esta relación por el modelo de la regresión
Y = 
0 + 
1X1 + 
2X2 + 
3X1X2 + 
4X1
2 + 
5X2
2 + 

¿Dónde? los coeficientes de j son desconocidos y se deben estimar de alguna manera, y los? Una representación al azar del término del error cualquier inexactitud tal modelo pudo tener en aproximar la respuesta real Y del simulación-modelo. Puesto que en este caso el modelo antedicho de la regresión es una aproximación a otro modelo (su modelo de la simulación), la regresión es un "modelo de un modelo" y así que a veces se llama un metamodel. Y puesto que un diagrama de la situación antedicha (con dos variables independientes de la entrada) sería una superficie tridimensional que representa las respuestas de la simulación, esto también se llama una superficie de la respuesta. Los parámetros del modelo son estimados haciendo funcionamientos de simulación en los varios valores de la entrada para el Xj, registrando las respuestas correspondientes, y entonces usar la regresión least-squares estándar para estimar el coeficiente que los sistemas de valores de la entrada se utilizan para hacer los funcionamientos para generar los "datos" para el ajuste de la regresión es exactamente sí mismo experimental-diseña la pregunta, y hay métodos numerosos en las referencias citadas arriba. Una referencia más comprensiva en este tema es Box y Draper (1987). En la simulación, un metamodel estimado de la respuesta-superficie puede responder a varios diversos propósitos. Usted podría (literalmente) tomar derivados parciales de él para estimar el efecto de cambios pequeños en los factores en la respuesta de la salida, y cualquier interacción que pudiera ser presente como modelado demostraría para arriba naturalmente. Usted podría también utilizar el del estimado como poder para la simulación, y explora muy rápidamente muchas diversas combinaciones del entrada-factor-nivel sin tener que funcionar la simulación. Y usted podría intentar optimizar (maximice o reduzca al mínimo, como apropiado) el modelo cabido para darle un sentido de donde la mejor entrada-factor combinación pudo estar.


¿6 CUÁL ES LA "MEJOR" COMBINACIÓN DE ENTRADAS?

Usted tiene a veces una sola medida de funcionamiento de la salida que sea de importancia de eliminación en comparación con las otras salidas (diversas salidas pueden estar en conflicto con uno a, como la deseabilidad de la alta utilización de máquina y de las coletas cortas). Ésta pudo ser una medida de importancia económica directa, como beneficio o coste. Si usted tiene tal medida, usted quisiera probablemente buscar una combinación del factor de entrada que optimiza esta medida (e.g., maximiza beneficio o reduce al mínimo coste). Matemáticamente, esto puede tomar la forma de una cierta clase de búsqueda a través del espacio de las combinaciones posibles del factor. Para una revisión de los métodos subyacentes, vea a Andradóttir (1998); para un examen comprensivo en la teoría y práctica, vea que Fu (2002) y los comentarios y el RejoindThis que sobrevienen es una orden alta, de cualquiera de varias perspectivas. Si hay muchos de factores de la entrada, la dimensión del espacio de la búsqueda es alta, requiriendo muchos de simulaciones en los muchos de diversos puntos. Y en la simulación estocástica, las respuestas están conforme a la incertidumbre, que debe considerado al decidir a cómo lo más mejor posible proceder con su búsqueda. Afortunadamente, varios métodos heurísticos de la búsqueda se han desarrollado que "muévale" a partir de un punto de promesa, y toman estas decisiones basadas en un anfitrión de la información que está disponible. Y ahora estamos comenzando a ver algo de estos métodos cifrados en software del comercializable y de uniforme integrado adentro con algunos productos del simulación-software. Por ejemplo, vea a Glover, kelly, y a Laguna (1999).


CONCLUSIONES

Mi propósito aquí ha sido hacerle enterado de las ediciones en los experimentos de la simulación que conducían que merecen su atención cercana. Un imprevisto, golpear-o-falta el curso de la experimentación con un modelo de la simulación puede a menudo ser frustración, ineficaces, y en última instancia inútiles. Por otra parte los estudios cuidadosamente previstos de la simulación pueden rendir la información valiosa sin una cantidad indebida de esfuerzo de cómputo o (más importantemente) de su tiempo. De hecho, iría en cuanto decir que cualquier estudio de la simulación sin los aspectos de los diseñar-de-experimentos ha malgastado probablemente el esfuerzo probable-considerable que entró modelar, puesto que es justo no que difícilmente hacer por lo menos algo diseñar y analizar un experimento informativo; su computadora pudo necesitar moler lejos por un rato, pero ése es barato comparado al tiempo que usted pone en modelar, y comparó a la significación de las decisiones que basado en qué se aprende de los experimentos de la simulación.


CÓMO CONDUCIR Un ACERTADO
EXTRACTO

En esta clase particular damos un acercamiento definitivo y comprensivo para conducir un estudio acertado de la simulación. Los asuntos que se discutirán incluyen la formulación, colección y análisis del problema de datos, desarrollando un modelo válido y creíble, modelando fuentes de la aleatoriedad del sistema, diseño y análisis de los experimentos de la simulación, y gerencia de proyecto.

1 Estudio de la simulación de la INTRODUCCIÓN A es una actividad sofisticada del sistema-análisis que requiere a analista tener, en un mínimo, conocimiento de la teoría del metodología de la simulación (validación modelo, seleccionando distribuciones de la probabilidad de la entrada, diseño y análisis de los experimentos de la simulación, etc.), de las probabilidades, de la estadística, de la gerencia de proyecto, y de las operaciones detalladas del sistema que es estudiado. El modelo "que programa" representa los solamente 25 a 50 por ciento del trabajo en un estudio sano de la simulación, a pesar de el hecho de que muchas organizaciones opinión la simulación como poco más que un ejercicio complicado en la programación de la computadora. Por otra parte, muchas de la gente que realiza la simulación "estudios" no tienen ningún entrenamiento formal de la simulación con excepción en del uso de un producto particular de la simulación. En esta clase particular, damos un acercamiento seven-step detallado para conducir un estudio acertado de la simulación. Muchas de las ideas presentadas aquí se basan en la ley y Kelton (2000) y en los cursos del cortocircuito de la simulación presentados por el autor desde 1977. Una referencia adicional en los principios de modelar de la simulación es bancos, Carson, Nelson, y Nicol (2001). El resto de este papel se organiza como sigue. La sección 2 da definiciones de los conceptos importantes para la simulación que modela y la sección 3 discute un acercamiento seven-step que incorpore estos conceptos. Finalmente, en la sección 4 discutimos diecisiete trampas críticas en modelar de la simulación.


2 DEFINICIONES DE CONCEPTOS IMPORTANTES

Ahora discutimos algunos conceptos importantes que necesiten ser tratados en cualquier estudio de la simulación. La verificación se refiere a determinar si el modelo conceptual de la simulación (asunciones modelo) se ha traducido correctamente a una computadora "programa," es decir, eliminando errores del programa de computadora de la simulación. Aunque la verificación es simple en concepto, eliminar errores de un programa en grande de la simulación es una tarea difícil y ardua debido al número potencialmente grande de las trayectorias del programa. Las técnicas para eliminar errores de los programas de la simulación incluyen estructurados-walkthrough del programa, del uso de un rastro o de una depuración interactiva, y de la animación. La validación es el proceso de determinar si un modelo de la simulación es una representación exacta del sistema, para los objetivos particulares del estudio. Si un modelo es "válido," entonces puede ser utilizado para tomar decisiones sobre el sistema similares a las que serían hechas si era factible y rentable experimentar con el sistema sí mismo. La credibilidad es cuando se aceptan un modelo de la simulación y sus resultados como "corrija" por el responsable (o el encargado) y el otro personal dominante del proyecto. La validez no implica credibilidad y viceversa. Por ejemplo, un modelo válido o técnico correcto no se pudo utilizar en el proceso decisionmaking si las asunciones dominantes del modelo no son entendidas y no son convenidas con por el responsable. Inversamente, un modelo creíble basado en una animación tridimensional impresionante no pudo ser técnico sano. El modelar de la entrada es una edición estadística que se refiere a determinar qué distribución de la probabilidad representa lo más mejor posible una fuente de la aleatoriedad del sistema. Las distribuciones normales o uniformes de la probabilidad serán raramente un buen modelo por la época de realizar una cierta tarea. El análisis de la salida es una edición estadística que se refiere a estimar las medidas verdaderas de un modelo de la simulación (no necesario el sistema) del funcionamiento. Los asuntos del interés en análisis de la salida incluyen longitud del funcionamiento de simulación, la longitud del período del calentamiento (si cualquiera), y el número de las réplicas modelo independientes (que usan diversos números al azar).


ACERCAMIENTO de 3 SEVEN-STEP PARA CONDUCIR UN ESTUDIO

ACERTADO de la SIMULACIÓN en el cuadro 1 presentamos un acercamiento seven-step para conducir un estudio acertado de la simulación. Las actividades que ocurren en cada paso se discuten en las secciones siguientes.

El problema del??The del interés es indicado por el decisionmaker. Observe que cuando el responsable primero inicia un estudio de la simulación, el problema exacto que se solucionará no está indicado a veces exacto o aún no está entendido totalmente. Así, como procede el estudio y se obtiene una comprensión mejor, esta información se debe comunicar al responsable que puede reformular el problema conducido, con el encargado de proyecto, los analistas de la simulación, y a los expertos de la tema-materia (sMEs) en la atención. Las cosas siguientes se discuten en esta reunión: Los objetivos totales del estudio. preguntas específicas de?.?The que se contestarán por el estudio. Sin tal especificidad, es imposible determinar el nivel apropiado del detalle modelo. Las medidas de funcionamiento que serán utilizadas para evaluar la eficacia de diversas configuraciones de sistema. Diversa medida de funcionamiento dictará a veces diversos niveles del detalle modelo [ vea la ley y Kelton (2000, pp. 678-679) para un ejemplo ]. 1 alcance de 2?.?The del modelo. configuraciones de sistema de?.?The que se modelarán. Esta información es necesaria determinar la generalidad que se debe construir en el programa de computadora de la simulación. marco de tiempo de?.?The para el estudio y los recursos requeridos. Los proyectos de la simulación toman generalmente más tiempo que estimado originalmente, porque la lógica del sistema resulta ser más compleja que el pensamiento y porque hay retrasa en conseguir la información y los datos requeridos. También, una dificultad importante en muchos proyectos es el malentendido del responsable de la cantidad de tiempo y de recursos requeridos para realizar el estudio. 4 3.2 paso 2. Recoja Información/Data y construya una información modelo conceptual del??Colecto sobre la estructura del sistema y los procedimientos de funcionamiento. ?.?No escogen la persona (o el documento) son suficientes. Así, será necesario que los analistas de la simulación hablen con muchos diversos sMEs para ganar una comprensión completa del sistema que se modelará. ?.?Some de la información provista por los sMEs será invariable incorrecto - si cierta parte del sistema es particularmente importante, entonces por lo menos dos sMEs deben ser preguntados. los procedimientos de funcionamiento de?.?Sistema no pueden ser formalizados. Datos del?Colectó (si es posible) para especificar los parámetros y las distribuciones modelo de la probabilidad (e.g., por el tiempo a la falta y el tiempo a la reparación de una máquina). Dos trampas importantes en este respeto están substituyendo una distribución de la probabilidad por su valor medio percibido y el uso de un documento inadecuado de la distribución (e.g., normal, uniforme, o triangular) las asunciones, los algoritmos, y los resúmenes modelo de los datos en un modelo conceptual escrito (o el "documento de las asunciones"). Ésta es una actividad absolutamente crítica que se salta a menudo - la comunicación verbal es muy propensa a los errores. El modelo conceptual debe incluir el siguiente: Una sección de la descripción que contiene las metas totales del proyecto, las ediciones específicas que se tratarán, y las medidas de funcionamiento de interés. Proceso-fluye o el diagrama de la sistema-disposicio'n (si es apropiado). Descripciones detalladas de cada subsistema (en el formato de la bala para la revisión fácil en el paso 3) y cómo obran recíprocamente. ?.?What que simplificaban asunciones fueron hechos y porqué. Un modelo de la simulación debe ser una simplificación o una abstracción del sistema verdadero, con apenas bastante detalle para contestar a las cuestiones del interés. ?.?Summaries de los datos de entrada modelo - los detalles técnicos y los cálculos complicados de mathematical/statistical deben estar en apéndices. El modelo conceptual debe ser legible por el responsable así como por los analistas y los sMEs. ?.?Sources de la información importante o polémica, para poder confirmar esta información por un partido interesado. datos del funcionamiento del??Collect del sistema existente (si cualquiera) a utilizar para la validación modelo en el paso 5. El nivel del??The del detalle modelo debe depender del siguiente: objetivos de.?Project. Medidas de?.?Performance de interés. Disponibilidad de? Data. Preocupaciones de?.?Credibility - en algunos casos puede ser que sea necesario poner más detalle en el modelo que sea dictado terminantemente desde un punto de vista de la validez. apremios de?.?Computer. ?.?Opinions de sMEs. Éste es uno de los métodos mostimportant para determinarse qué aspectos del impacto verdadero del sistema más en medidas de funcionamiento de interés y, así, tienen que ser modelados cuidadosamente. ?.?Time y apremios del dinero. el??There no debe ser una correspondencia una por entre cada elemento del modelo y cada elemento del sistema. Comience con un modelo "simple" y embellezcalo según lo necesitado. El detalle modelo innecesario pudo dar lugar en tiempo de ejecución modelo excesivo, en un plazo faltado, o a obscurecer esos factores del sistema que son realmente importantes. ??Interact con el responsable (y el otro personal dominante del proyecto) sobre una base regular, que tiene las ventajas siguientes: .Ayudas se aseguran de que el problema correcto esté solucionado - el modelo más grande para el problema incorrecto estará de poco valor al responsable. El interés del responsable de?.? En y la implicación con el estudio se mantienen, que son muy importante para el éxito del proyecto. El modelo de?.? Es más creíble porque el decisionmaker entiende y conviene con las asunciones del modelo. 3.3 3.4 3.5 Paso 3. ¿Es el modelo conceptual válido? del??Perform estructurado caminar-por del modelo conceptual ante una audiencia que incluye el encargado de proyecto, los analistas, y los sMEs. Esta actividad crítica, que se llama validación del conceptual-modelo, se salta muy a menudo. ?.?Helps se aseguran de que las asunciones del modelo sean correctas y completas. interacción de?.?Fosters entre los miembros del equipo de proyecto - teniendo miembros del equipo de proyecto lea el modelo conceptual en sus el propio se recomienda pero no es definitivamente suficiente. propiedad de?.?Promotes del modelo, que puede ayudar a disminuir problemas políticos. lugar de?.?toma antes de que la "programación" comience a evitar la reprogramación significativa más adelante. los errores o las omisiones del??If se descubren en el modelo conceptual, que es virtualmente siempre el caso, entonces el modelo conceptual deben ser actualizados antes de proceder a la programación en el paso 4. Paso 4. Programe el??Programa modelo el modelo conceptual en un lenguaje de programación del generalpurpose (e.g., C o C++) o en un producto comercial del simulación-software. Varias ventajas de un lenguaje de programación son familiaridad, mayor control de programa, y un coste de compra más bajo del software. Por otra parte, el uso de un producto comercial de la simulación reducirá tiempo de "programación" y coste total del proyecto. Hay dos tipos principales de productos comerciales del simulación-software: fines generales (e.g., la arena, extiende, SIMUL8, y SLX) y uso orientado (e.g., AutoMod, Flexsim, Favorable-Modelo, SIMPROCESS, y TESTIGO). ??Verificación (elimine errores) el programa de computadora. Paso 5. ¿Es el modelo programado válido? el??If allí es un sistema existente, después compara medidas de funcionamiento de un modelo de la simulación del sistema existente con las medidas de funcionamiento comparables recogidas del sistema existente real (véase el paso 2). Esto se llama validación de los resultados, y es la técnica modelo tiempo mas importante de la validación que está disponible. Varios ejemplos del mundo real de esta técnica se dan en ley y Kelton (2000, los análisis de los pp. 2Sensitivity se debe realizar en el modelo programado para ver qué factores modelo tienen el impacto más grande en las medidas de funcionamiento y, así, tienen que ser modelados cuidadosamente [ vea la ley y Kelton (2000, pp. 278-279) ]. 3.6
paso 6. Diseñe, conduzca, y analice el??para de los experimentos de la simulación cada configuración de sistema del interés, decida sobre ediciones tácticas tales como longitud del funcionamiento de simulación, longitud del período del calentamiento (generalmente necesario si el comportamiento del steadystate de un sistema está de interés), y el número de réplicas modelo independientes. Una trampa importante aquí es hacer una réplica del modelo de la simulación de una cierta longitud arbitraria y después asumir que la estadística de la salida que resulta es, en hecho, las medidas de funcionamiento verdaderas para el modelo. Recomendamos que un intervalo de la confianza esté construido para una medida de funcionamiento de interés. El? Analiza los resultados y decide a si se requieren los experimentos adicionales. 3.7
Paso 7. El documento y presenta los resultados de la simulación que la documentación del? el para el modelo (y el estudio asociado de la simulación) debe incluir el modelo conceptual (crítico para la reutilización futura del modelo, que es particularmente importante en la comunidad de la defensa donde se hacen la mayoría de los análisis usando modelos de la herencia), una descripción detallada del programa de computadora, y las conclusiones de los resultados para el estudio actual. la presentación final del??The para el estudio de la simulación debe incluir animaciones y una discusión del proceso modelo de la validación del edificio para promover la credibilidad modelo. 4 TRAMPAS

¿EN LA SIMULACIÓN QUE SE MODELA?

Discutimos diecisiete trampas críticas en la simulación que modela, que se agrupan en cuatro categorías. 4.1 ??Failure el modelar y de la validación para tener un sistema bien definido de objetivos al principio del??Misunderstanding del estudio de la simulación por el??Failure de la gerencia a comunicarse con el responsable en un??Failure regular de la base para recoger el buen nivel del??Inappropriate de los datos del sistema del detalle modelo - éste es uno de los errores más comunes, particularmente entre los nuevos analistas??Treating un estudio de la simulación como si fuera sobre todo un ejercicio en la computadora que programaba 79-281). Si la validación de los resultados es acertada, entonces también presta credibilidad al modelo de la simulación. ??Regardless de si hay un sistema existente, los analistas de la simulación y los sMEs debe repasar los resultados de la simulación para el carácter razonable. Si los resultados son constantes con cómo perciben el sistema funcionan, entonces el modelo de la simulación se dicen tener validez de la cara. el??Lack del conocimiento del software de la simulación del??Inappropriate de la metodología y también de la probabilidad y de la estadística 4.2 de la simulación del software de la simulación - demasiado inflexible o demasiado difícil de utilizar el??Belief que el "software fácil de utilizar supuesto" requiere un nivel inferior de la capacidad técnica - sin importar el software usado, un alambique tiene que ocuparse de las ediciones tales que formulación del problema, qué datos a recoger, la validación, el etc modelo. ??"Blindly" con software sin entender sus asunciones subyacentes, que pudieron ser??Misuse mal documentado de la animación - tomar una decisión importante sobre el sistema del interés basó sobre todo en ver una animación por un período del tiempo corto, más bien que en base de un análisis estadístico cuidadoso de la simulación haga salir la aleatoriedad del sistema de los datos que modela 4.3??Replacing una distribución de la probabilidad de la entrada por su opción mala del??Incorrecto de las distribuciones de la probabilidad de la entrada - normal o las distribuciones uniformes serán raramente uso más??Cavalier correcto de la distribución triangular cuando los datos del sistema podrían ser recogidos - las distribuciones triangulares no pueden representar exactamente una fuente de la aleatoriedad que función de la densidad tiene una cola derecha larga, una situación común en la práctica 4.4 Diseño y análisis del? de los resultados de la simulación - tratar de los experimentos de la simulación estadística de la salida de la simulación como si ella fuera el??Failure modelo verdadero de las medidas de funcionamiento para tener un período del calentamiento en que el comportamiento de estado estacionario del sistema está de datos hechos salir (correlacionados)? analizando del interés a partir de una réplica de los fórmulas que usan modelo de una simulación que asumen independencia - las variaciones pudieron ser subestimadas grueso

INTRODUCCIÓN PRÁCTICA

ABSTRAIGA la combinación de la optimización y las tecnologías de la simulación han considerado un crecimiento rápido en años recientes. Una búsqueda de Google en la "optimización de la simulación" vuelve más de seis mil páginas donde aparece esta frase. El contenido de estas páginas se extiende de los artículos, las presentaciones de la conferencia y los libros al software, trabajo patrocinado y consulta. Ésta es un área que ha chispeado tanto interés en el mundo académico como en ajustes prácticos. En este papel, primero resumimos algunos de los acercamientos más relevantes se han desarrollado que con el fin optimizan sistemas simulados. Después nos concentramos en el acercamiento metaheuristic de la negro-caja que conduce el campo de usos prácticos y proporcionamos algunos detalles relevantes de cómo este acercamiento se ha puesto en ejecución y se ha utilizado en software comercial. Finalmente, presentamos un ejemplo de la optimización de la simulación en el contexto de un modelo de la simulación desarrollado para predecir riesgo del funcionamiento y de la medida en un problema verdadero de la selección del proyecto del mundo.







1 INTRODUCCIÓN

la optimización de la simulación modela repartos con la situación en la cual el analista quisiera encontrar cuáles de muchos sistemas de las especificaciones modelo (es decir, los parámetros de la entrada y/o asunciones estructurales) conduzca posiblemente al funcionamiento óptimo. En el área del diseño de experimentos, los parámetros de la entrada y las asunciones estructurales asociados a un modelo de la simulación se llaman los factores. Las medidas de funcionamiento de la salida se llaman las respuestas. Por ejemplo, un modelo de la simulación de una facilidad de fabricación puede incluir factores tales como número de máquinas de cada tipo, de los ajustes de la máquina, de la disposición y del número de los trabajadores para cada nivel de habilidad. Las respuestas pueden ser duración de ciclo, trabajar-en-progresan y utilización del recurso. En el mundo de la optimización, los factores se convierten en variables de la decisión y las respuestas se utilizan para modelar un objetivo función y apremios. Mientras que la meta del diseño experimental es descubrir que los factores tienen el efecto más grande en una respuesta, la optimización busca la combinación de los niveles del factor que reduce al mínimo o maximiza una respuesta (conforme a los apremios impuestos ante factores y/o respuestas). Volviendo a nuestro ejemplo de la fabricación, podemos desear formular un modelo de la optimización que intente reducir al mínimo la duración de ciclo manipulando el número de trabajadores y de máquinas, mientras que inversión de capitales de restricción y los costes operacionales así como mantener un nivel mínimo de la utilización de todos los recursos. Un modelo para este problema de la optimización consiste en las variables de la decisión asociadas al trabajo y a las máquinas así como una medida de funcionamiento basada en una duración de ciclo obtenida de funcionar la simulación de la facilidad de fabricación. Los apremios se formulan con las variables y las respuestas (es decir, utilización de la decisión de recursos). En el contexto de la optimización de la simulación, un modelo de la simulación puede estar sin embargo como de "mecanismo que dé vuelta a parámetros de la entrada en medidas de funcionamiento de la salida" (Law y Kelton, 1991). Es decir el modelo de la simulación es una función (que forma explícita es desconocida) que evalúa el mérito de un sistema de especificaciones, representada típicamente según lo fijado de valores. Viendo un modelo de la simulación como función ha motivado una familia de acercamientos para optimizar las simulaciones basadas en superficies y metamodels de la respuesta. Una superficie de la respuesta es una representación numérica de la función que el modelo de la simulación representa. Una superficie de la respuesta es construida registrando las respuestas obtenidas de funcionar el modelo de la simulación sobre una lista de los valores especificados para los factores de la entrada. Una superficie de la respuesta es esencialmente un diagrama que caracteriza numéricamente la función desconocida. Por lo tanto, una superficie de la respuesta no es una representación algebraica de la función desconocida. Un metamodel es un modelo algebraico de la simulación. Un metamodel aproxima la superficie de la respuesta y por lo tanto los optimizadotes la utilizan en vez del modelo de la simulación para estimar funcionamiento. La regresión linear estándar ha sido y continúa siendo una de las técnicas más populares usadas para construir metamodels en la simulación. Más recientemente, los metamodels basados en redes de los nervios (Laguna y Martí, 2002) y Kriging (van Beers y Kleijnen, 2003) también se han desarrollado y se han utilizado para estimar las respuestas basadas en factores de la entrada. Una vez que un metamodel se obtenga, en principio, los procedimientos deterministas apropiados de la optimización se pueda aplicar para obtener una estimación del grado óptimo (Fu, 2002).

2 ACERCAMIENTOS CLÁSICOS PARA LA OPTIMIZACIÓN


Identifican 4 acercamientos principales para las simulaciones óptimas: los algoritmos estocásticos al azar de la aproximación de la optimización de la trayectoria de la muestra de la búsqueda de la metodología superficial (secuencial) estocástica de la respuesta de la aproximación (acercamientos gradiente-basados) (también conocida como contrapartes estocásticas) procuran mímico el método de la búsqueda del gradiente usado en la optimización determinista. Los procedimientos basados en esta metodología deben estimar el gradiente de la función objetiva para determinar una dirección de la búsqueda. Los problemas variables continuos de las blancos estocásticas de la aproximación debido a su relación cercana con el gradiente más escarpado de la pendiente buscan. Sin embargo, esta metodología se ha aplicado a los problemas discretos (véase e.g. a Gerencsér, 1999). La metodología secuencial de la superficie de la respuesta se basa en el principio de los metamodels del edificio, pero hace tan de una manera localizada. La "superficie local de la respuesta" se utiliza para determinar una estrategia de la búsqueda (e.g., mudanza a la dirección estimada del gradiente) y se repite el proceso. Es decir los metamodels no procuran caracterizar la función objetiva en el espacio entero de la solución pero concentrarse algo en el área local que la búsqueda está explorando actualmente. Un método al azar de la búsqueda se mueve a través del espacio de la solución aleatoriamente seleccionando un punto de la vecindad del punto actual. Esto implica que una vecindad se debe definir como parte de desarrollar un algoritmo al azar de la búsqueda. La búsqueda al azar se ha aplicado principalmente a los problemas discretos y su súplica se basa en la existencia de las pruebas teóricas de la convergencia. Desafortunadamente, estos resultados teóricos de la convergencia significan poco en la práctica donde su más importante encontrar soluciones de la alta calidad dentro de una longitud del tiempo razonable que garantizar convergencia al grado óptimo en un número infinito de pasos. La optimización de la trayectoria de la muestra es una metodología que explota el conocimiento y la experiencia desarrollados para los problemas continuos deterministas de la optimización. La idea es optimizar una función determinista que se base en variables al azar de n, donde está el tamaño n de la trayectoria de la muestra. En el contexto de la simulación, el método de números al azar comunes se utiliza para proporcionar la misma trayectoria de la muestra para calcular valores del excedente de la respuesta los diversos de los factores de la entrada. La optimización de la trayectoria de la muestra debe su nombre al hecho de que la solución óptima estimada que encuentra está basada en una función determinista construida con una trayectoria de la muestra obtenida con un modelo de la simulación. Generalmente, n necesita ser grande para que el problema de la optimización que aproxima esté cerca del problema original de la optimización (Andradóttir, 1998). Mientras que estos cuatro acercamientos explican la mayoría de la literatura en la optimización de la simulación, no se han utilizado para desarrollar la optimización para el software de la simulación. (2002) identifica solamente un caso (SIMUL8's OPTIMZ) donde un procedimiento similar a un método de la superficie de la respuesta se ha utilizado en un paquete comercial de la simulación. En detalle, él cotiza la descripción corta siguiente de OPTIMZ del Web site de SIMUL8's: "OPTIMIZ utiliza tiempos múltiples de la facilidad de los ensayos del ` de SIMUL8's para construir una comprensión de la simulación superficie de la respuesta del ` '. (el efecto que las variables, en la combinación, tienen en el resultado). ¡Hace esto muy rápidamente porque no funciona cada combinación posible! Utiliza tecnología de red de los nervios para aprender la forma de la superficie de la respuesta de un sistema limitado de funcionamientos de simulación. Entonces utiliza más funcionamientos para obtener una información más exacta mientras que acerca a soluciones óptimas potenciales." Desde que el artículo de fue publicado, sin embargo, SIMUL8 ha abandonado el uso de OPTIMZ, trayendo abajo a cero el número de usos prácticos de los cuatro métodos mencionados arriba. Andradóttir (1998) da la explicación siguiente para la carencia de las puestas en práctica (comerciales) prácticas de los métodos mencionados arriba: "aunque la optimización de la simulación ha recibido una cantidad justa de atención de la comunidad de investigación en años recientes, los métodos actuales requieren generalmente una cantidad considerable de sofisticación técnica de parte del usuario, y requieren a menudo una cantidad substancial de tiempo de computadora también." El software comercial principal de la simulación emplea metaheuristics como la metodología de la opción para proporcionar capacidades de la optimización a sus usuarios. Exploramos este acercamiento a la optimización de la simulación en la sección siguiente



ACERCAMIENTO de 3 METAHEURISTIC A LA OPTIMIZACIÓN de la SIMULACIÓN

Ahora los días paquete de software casi cada discreto-acontecimiento o simulación comercial de Monte Carlo contiene un módulo de la optimización que realice una cierta clase de búsqueda para los valores óptimos de los parámetros de la entrada más bien que apenas realice la valoración estadística pura. Esto es un cambio significativo a partir de 1990 en que ningunos de los paquetes incluyeron tal funcionalidad. Como otros progresos en las puestas en práctica comerciales del interfaz de la informática de la investigación de operaciones (e.g., ésos asociados a solucionar problemas combinatorios grandes de la optimización) de la optimización de la simulación los procedimientos han llegado a ser solamente prácticos con el aumento exponencial de las demostraciones del computatFigure 1 que el acercamiento de la negro-caja a la optimización de la simulación favoreció por procedimientos basó en la metodología metaheuristic. En este acercamiento, el optimizador metaheuristic elige un sistema de los valores para los factores de los parámetros de la entrada (es decir, o las variables de la decisión) y las aplicaciones que las respuestas generaron por el modelo de la simulación para tomar decisiones con respecto la selección de la energía de ensayo siguiente del ional de la solución y al avance en la investigación metaheuristic. El acercamiento metaheuristic a la optimización de la simulación se basa en ver el modelo de la simulación como evaluador de la función de la caja negra.


La mayoría de los motores de la optimización encajados en software comercial de la simulación se basan en acercamientos evolutivos. La excepción más notable es el algoritmo de la optimización en el TESTIGO, que se basa en estrategias de la búsqueda del recocido y de la búsqueda simulados del tabú. (incidentemente, el recocido simulado se puede ver como caso de un procedimiento al azar de la búsqueda; su desventaja principal es el tiempo de cómputo requerido para encontrar soluciones de una calidad razonablemente alta.) Los acercamientos evolutivos buscan el espacio de la solución construyendo y después desarrollando una población de soluciones. La evolución se alcanza por medio de los mecanismos que crean nuevas soluciones de los ensayos fuera de la combinación de dos o más soluciones que estén en la población actual. La transformación de una sola solución en una nueva solución de ensayo también se considera en estos acercamientos. Los ejemplos de los acercamientos evolutivos utilizados en software comercial se demuestran en la tabla 1. La ventaja principal del excedente evolutivo de los acercamientos que ésas basaron en el muestreo de la vecindad de una sola solución (e.g., recocido simulado) son que son capaces de explorar un área más grande del espacio de la solución con un número más pequeño de las evaluaciones de la función objetiva. Puesto que en el contexto de la optimización de la simulación la evaluación de la función objetiva exige el funcionar del modelo de la simulación, el poder encontrar soluciones de la alta calidad temprano en la búsqueda es de importancia crítica. Un procedimiento basado en vecindades que exploran sería eficaz si el punto de partida es una solución.

3.1 Se representan la representación y la combinación de la solución los métodos que se diseñan para combinar soluciones en un acercamiento metaheuristic evolutivo dependen de las soluciones de la manera. Definimos una solución al problema de la optimización como sistema de valores dados a las variables de la decisión (es decir, los parámetros de la entrada al modelo de la simulación, también llamado los factores). Para las soluciones del continuouFor representadas por variables continuas, las combinaciones lineares se utilizan a menudo como mecanismo para crear nuevas soluciones de ensayo. Por ejemplo, OptQuest utiliza el esquema siguiente: los problemas de s, una solución son dados por un sistema de números verdaderos. Para los problemas puros del número entero, una solución es representada por un sistema de valores del número entero. Un caso especial de los problemas del número entero, llamado Boolean, es ésos donde las variables de la decisión pueden tomar solamente dos valores: cero y uno. Otras representaciones de la solución incluyen permutaciones, donde están valores los parámetros de la entrada del número entero se requieren para ser todo diferentes. Los problemas complicados han mezclado representaciones de la solución con las variables de la decisión representadas con aquí continuos y discretos valores así como el??x''???r(x''???x del??x'???r(x''???x ') (2) x ' del??x'???r(x''???x ') (1) x de las permutaciones x) (3) y son las soluciones que eran combinadas, y r es un número al azar en la gama (0, 1). Cuando un diverso número al azar se utiliza para cada uno variable en la solución, el mecanismo de la combinación crea nuevas soluciones de ensayo muestreando los rectángulos demostrados en el cuadro 2, que representa la combinación de dos soluciones, '' 1 del x'?x de x y x2, para generar tres soluciones de ensayo x3, x4, y x5 en un espacio de dos dimensiones. Para limitar la generación de nuevas soluciones de ensayo a la línea definida por x1 y x2, el mismo número al azar r se utiliza para generar los valores para cada uno variable en las soluciones que son combinadas. Este procedimiento linear de la combinación, sugerido en la conexión con la metodología de la búsqueda de la dispersión, es más general que los algoritmos genéticos supuestos del crossIn "linear, aritmético, medio o intermedio", los métodos usados para combinar soluciones se llaman los operadores de la cruce. Han sugerido a muchos operadores de la cruce para los usos específicos en ajustes tales como optimización no lineal y combinatoria. Por ejemplo, si las soluciones son representadas por una secuencia binaria, el operador de la cruce del uno-punto puede ser utilizado. Un punto de la cruce se selecciona al azar y entonces dos nuevas soluciones de ensayo se generan a partir de dos soluciones existentes, como demostrado en el cuadro 3. el punto de la cruce en el cuadro 3 entre la 7ma y 8va variable binaria encima en la literatura genética del algoritmo.






El operador de la cruce en el cuadro 3 puede ser utilizado para combinar no sólo secuencias binarias sino también para combinar las soluciones representadas por variables de número entero generales. Cuando las soluciones son representadas por permutaciones, sin embargo, el operador de la cruce debe ser modificado, porque el que esta' ilustrado en el cuadro 3 puede dar lugar a las nuevas soluciones de ensayo que no son permutaciones. Una modificación simple da lugar al operador siguiente. Después de seleccionar un punto de la cruce, la permutación se copia de la primera solución existente hasta el punto de la cruce, entonces la otra solución existente se explora y se agrega el número siguiente si no está todavía en la nueva solución de ensayo. El papeles de las soluciones existentes entonces se cambian para generar una segunda solución.
3.2 El uso de los metamodels del uso de los optimizadores de Metamodels Metaheuristic como filtros con la meta de defender fuera de las soluciones que se predicen para ser inferior comparó típicamente a la mejor solución sabida actual. Laguna y Martí (2002) precisan la importancia de usar metamodels durante la búsqueda metaheuristic para la solución óptima: "puesto que las simulaciones son de cómputo costosas, el proceso de la optimización podría buscar el espacio de la solución más extensivamente si podía eliminar rápidamente de las soluciones del lowquality de la consideración, donde la calidad se basa en la medida de funcionamiento que es optimizada." OptQuest utiliza redes de los nervios para construir un metamodel y después aplica reglas predefinidas a filtra hacia fuera soluciones potencialmente malas. Los puntos principales que necesitan ser resueltos en una puesta en práctica tal como ésta son: la arquitectura de las reglas de filtración de la frecuencia de la colección y del entrenamiento de datos de la red de los nervios la arquitectura de la red de los nervios debe ser bastante general poder manejar una variedad amplia de situaciones, puesto que la red de los nervios entrenada se convierte en el metamodel para el modelo de la simulación que evalúa la función objetiva. Al principio del proceso de la optimización, no hay datos disponibles entrenar a la red de los nervios. Sin embargo, como progresa la búsqueda, los datos llegan a estar disponibles porque las nuevas soluciones de ensayo son evaluadas funcionando el modelo de la simulación. Por lo tanto, un sistema tal como OptQuest debe decidir a cuando bastantes datos se han recogido para accionar el entrenamiento de la red de los nervios. Una vez que se haya entrenado la red de los nervios, puede ser utilizada para filtrar propósitos. Suponga que x es una nueva solución de ensayo. También suponga que x * es la mejor solución encontrada hasta ahora en la búsqueda. Deje el f(x) ser el valor de la función objetiva asociado a la solución x. Es decir el f(x) es la respuesta generada por el modelo de la simulación cuando x se utiliza como los parámetros de la entrada. También deje sea el valor predicho de la función objetiva para una solución x. Es decir está el valor obtenido evaluando el metamodel con la solución x. Las reglas de filtración se basan en el cálculo siguiente (para un problema de la minimización): ¿f? ¿(x) f? ¿(x) d = f? (x) - f(x *) (5) la pregunta principal ahora está: ¿cómo grande d tendría que ser para eliminar x de la consideración adicional? La respuesta a esta pregunta dependería probablemente del error de la predicción del metamodel y de un parámetro a la velocidad de la compensación y a la exactitud de la búsqueda. El cuadro 5 representa el proceso metaheuristic de la optimización con un filtro del metamodel.



3.3 Los apremios una característica importante en software de la optimización de la simulación son la capacidad de especificar apremios.

Los apremios definen la viabilidad de las soluciones de ensayo. Los apremios se pueden especificar como expresiones matemáticas (como en el caso de la programación matemática) o como declaraciones basadas en lógica (como en el caso de la lógica del constreñimiento que programa). En el contexto de la optimización de la simulación, los apremios se pueden formular con factores o respuestas de la entrada. Suponga que un modelo de la simulación de Monte Carlo está construido para predecir el funcionamiento de una lista de proyectos. Los factores en este modelo son un sistema de las variables que representan los proyectos seleccionados para la lista. Un número de estadística para definir funcionamiento puede ser obtenida después de funcionar el modelo de la simulación. Por ejemplo, el medio y la variación en las vueltas son dos respuestas que están disponibles después de funcionar la simulación. Los valores del porcentaje están también disponibles de la distribución empírica de vueltas. Entonces, un problema de la optimización se puede formular en términos de factores y de las respuestas, donde unas o más respuestas se utilizan para crear una función objetiva y donde los apremios se formulan en términos de factores y/o de respuestas. Si los apremios en un modelo de la optimización de la simulación dependen solamente de parámetros de la entrada entonces una nueva solución de ensayo se puede comprobar para saber si hay viabilidad antes de funcionar la simulación. Una solución de ensayo infeasible se puede desechar o se puede traz factible cuando su viabilidad depende solamente de los apremios formulados con parámetros de la entrada. OptQuest, por ejemplo, tiene un mecanismo para traz soluciones infeasible de este tipo en los factibles. Por otra parte, si los apremios dependen de respuestas entonces la viabilidad de una solución no se sabe antes de funcionar la simulación. En nuestro problema de la selección del proyecto, por ejemplo, un constreñimiento que especifique que la variación de las vueltas no debe exceder un límite deseado no puede ser hecho cumplir antes de que se ejecute la simulación. Todos los optimizadores pueden permitir apremios implícito, penalizando la función objetiva perceptiblemente si un constreñimiento de la salida es violado por un funcionamiento de simulación, como una función de la barrera. Ese método puede requerir comprobar la salida con minuciosidad para asegurar que los apremios fueron satisfechos de hecho. Además, un cierto software de la optimización (e.g., OptQuest) permite apremios explícitos en respuestas de la misma manera que los apremios de la entrada están expresados. EJEMPLO de la SELECCIÓN del PROYECTO de 4 BUDGET-CONSTRAINED en esta sección, nos ampliamos sobre el ejemplo que introdujimos arriba y demostramos las ventajas de la optimización de la simulación usando la bola cristalina para la simulación y OptQuest para la optimización. El problema se puede indicar como sigue. Una compañía está considerando el invertir en 5 diversos proyectos y quisiera determinar un nivel de la participación en cada proyecto:
Se construye un modelo bajo de la optimización donde la función objetiva consiste en el maximizar del valor actual neto previsto de la lista mientras que guarda la desviación de estándar del NPV menos de 10.000 M$. El modelo bajo tiene 5 variables continuas limitado entre 0 y 1 para representar el nivel de la participación en cada proyecto. También tiene dos apremios, uno que limite la inversión total y uno que limite la variabilidad de las vueltas. Por lo tanto, uno de los apremios se basa solamente en factores de la entrada y el otro se basa solamente en una respuesta. Los resultados de optimizar el modelo bajo con OptQuest se resumen en el cuadro 6.


La compañía quisiera comparar el funcionamiento del caso bajo con los casos que permiten flexibilidad adicional y que definen riesgo de diversas maneras. Por lo tanto, ahora formulamos un caso del "aplazamiento" que consista en el permitir que de los proyectos comiencen en cualesquiera de los primeros tres años en el horizonte del planeamiento de 10 años. El número de las variables de la decisión ha aumentado a partir del 5 a 10, porque ahora el modelo debe elegir la hora de salida para cada proyecto además de especificar el nivel de la participación. Es interesante precisar eso en un ajuste determinista, el modelo de la optimización para el caso del aplazamiento hizo 15 variables binarias asociar a las horas de salida. El modelo también tendría más apremios que el modo bajo, para asegurar que la hora de salida de cada proyecto ocurre en solamente uno fuera de tres años posibles. Deje el yit igualar 1 si la hora de salida para el proyecto i es el año t e igualar 0 de otra manera. Entonces el sistema siguiente de apremios sería agregado a un modelo determinista de la optimización: y11 + y12 + y13 = 1 y21 + y22 + y23 = 1 y31 + y32 + y33 = 1 y41 + y42 + y43 = 1 y51 + y52 + y53 = 1 sin embargo, en nuestro ajuste de la optimización de la simulación, necesitamos solamente agregar 5 más variables para indicar que las horas de salida y no más de apremios no son necesarios. La única cosa que es necesaria es explicar las horas de salida en que estos valores se pasan al modelo de la simulación. Si el modelo de la simulación tiene la información con respecto a las horas de salida, entonces simulará la lista sobre el horizonte del planeamiento por consiguiente. El resumen de los resultados para el caso del aplazamiento se demuestra en el cuadro 7.


Comparando los resultados del aplazamiento encajonan y el caso bajo, es inmediatamente evidente que la flexibilidad de tener en cuenta diversas horas de salida ha dado lugar a un aumento en el NPV previsto. La nueva lista es tal que retrasa la inversión en OHW hasta el tercer año y no invierte cualquier cosa en OWF, para el cual el nivel de la participación era el 40% en el caso bajo. Los resultados en el cuadro 7 también demuestran que el 10mo porcentaje de la distribución de vueltas es 36.096 M$. Esta información se utiliza para modelar nuestro tercer y pasado caso. Animado por los resultados obtenidos con el modelo para el caso del aplazamiento, la compañía quisiera encontrar los niveles de la participación y las horas de salida para un modelo que procura maximizar la probabilidad que el NPV es 47.455 M$. Este nuevo la "probabilidad modelo del éxito" cambia la definición del riesgo de fijar un máximo en la variabilidad de las vueltas a maximizar la probabilidad de obtener un NPV deseado. El nuevo modelo tiene el mismo número de variables y de pocos apremios que el anterior, porque el constreñimiento que controló el máximo














Los resultados en el cuadro 8 demuestran que el nuevo modelo de la optimización tiene el efecto de "empujar" la distribución de NPVs a la derecha, es decir, a las vueltas más grandes. Por lo tanto, aunque la variabilidad ha excedido el límite que fue utilizado en el caso bajo para controlar riesgo, la nueva lista no es más aventurada que los primeros dos si consideramos que con una alta probabilidad el NPV será por lo menos tan grande como el NPV previsto en el caso del aplazamiento. En hecho, el 10mo porcentaje de la nueva distribución de vueltas es más grande que el que esta' en el cuadro 7.



5 CONCLUSIONES

En este papel, hemos introducido los conceptos dominantes asociados al área de simulaciones óptimas. Comenzamos mirando los acercamientos que los investigadores han investigado por muchos años. Para la mayor parte, estos acercamientos no han encontrado uso en software comercial. Entonces discutimos el acercamiento metaheuristic a la optimización de la simulación. Éste es el acercamiento usado extensamente en usos comerciales y nos centramos en los aspectos que son relevantes a su puesta en práctica, a saber: la representación y la combinación de la solución, el uso de metamodels y la formulación de apremios.

capitulo11
El extracto.
Los métodos de quasi-monte carlo (qmc) son técnicas numéricas para estimar a integrales dimensionales grandes, usualmente sobre el hiper-cubo de la unidad. pueden ser aplicados, al menos en el principio, para cualquier simulación cuya meta es estimar uno la esperanza matemática. esto cubre un rango muy amplio de aplicaciones en este periódico, revisamos una cierta cantidad de los conceptos claves de los métodos de quasi-monte carlo de unaperspectiva amplia, con el énfasis en algunos resultados recientes. visitamos reglas de la cuadrícula adentro los tipos diferentes de espacios y marca las conexiones en medio estas reglas y redes digitales, así cubriendo la dos mayoría los métodos qmc ampliamente usados.

1 introducción.
Al correr una simulación estocástica en una computadora, lo la aleatoriedad requerida
( usualmente seudo) es producida por uno aleatorio el generador de número (rng), cuya salida es una secuencia (o la corriente) de números reales entre 0 y 1, esta secuencia se supone que imita una realización típica de uno la secuencia de independiente e idénticamente distribuido (i.i.d.) las variables aleatorias uniformemente distribuidas encima el intervalo .0; el 1/. el programa de simulación luego puede ser mirado como una f complicada de función que transforma esta corriente de números verdadero u d .u0; el u1; el u2; : : : en un valor de salida f .u/ frecuentemente, la meta de la simulación es estimar una esperanza matemática que puede estar escrita tan




ECUACIÓN 1

Donde las s es un entero que representa el número de llamadas para el rango requerido por la simulación en el caso dónde este número de llamadas es aleatorio e ilimitado, lo podemos hacer simplemente mire s como el infinito, y asuma ese el número de los uniformes que son realmente usados por la simulación es finito con probabilidad un. si la n la simulación independiente corre es realizado, con carrera yo utilizando el corriente aleatorio ui 2 t0; 1 / s, para el anteproyecto-internet 0; : : : ; n  1, el calculador monte carlo (megaciclo) de es

ECUACION 2
EACUACION 3

E s asumido finito a todo lo largo de este periódico, y obedece el centrallimit theorempn.qn  / = ) n.0; el 1/. el error qn así converge en la tasa op.=el pn/ la idea de métodos de quasi-monte carlo (qmc) es para reemplazar el ui aleatorio de puntos por un set de puntos
pn d fu0; : : : ;  1g t0; 1 / s que cubren el hiper-cubo de la unidad t0; 1 / s más uniformemente que puntos aleatorios típicos las dos clases principales de métodos para construir tal punto los sets son redes digitales y cuadrículas de integración (niederreiter
1992b, sloan y joe 1994, l'ecuyer y lemieux 2002) explicaremos cómo trabajan en la sección 3.
la lata esta pulsación de métodos la / convergencia op.1 pn ¿la tasa? la respuesta teórica breve es sí. una forma estándar para el salto el error de integración y obtienen su tasa de convergencia es por la desigualidad de koksma-hlawka y sus generalizaciones
(niederreiter 1992b, hickernell 1998a) la idea es para considere a abanach spacef de funciones con k de normala k, donde  la k de la f de la k mide la variabilidad de f, y una medida d.pn / de la discrepancia (o la poco uniformidad) de pn, escogido adentro uno muy que el peor caso que error determinista atase jqn j  la k de la f de la k d.pn / sujeta para toda f 2 f. luego, para f de funciones con variabilidad definida se garantiza que el error converge al menos como ayuno (asintóticamente) como d.pn /. se sabe que hay sets del punto pn (construido por las reglas de la cuadrícula y digital las redes) para cuál o.d.pn d o. n  1.ln n / s  1 / (niederreiter 1992b). si imponemos la condición adicional que pm pn
¡cuandoquiera m < n, tan ese limn!1 pn representa un infinito la secuencia de n de primera parte del pointswhose apunta es pn para cada n, luego la mejor tasa sabida se convierte en o.d.pn d o. n  1.ln n / s /. en ambos casos, esta tasa le gana a la o. n 1=2 / asintóticamente. Sino para los valores prácticos de n (el punto de vista, n  109), la o. n 1.ln n s 1/ gana sólo si las s de dimensión no exceden 7 o 8. qmc los métodos han sido mostrados para abatir megaciclo estándar con toda seguridad los problemas adentro hasta 1000 dimensiones o más. sin embargo, lo o. n 1.ln n s  1 la tasa de / convergencia entrañó por la koksma la desigualidad hlawka no sacia para explicar este éxito una explicación adicional crucial recibirá en la sección 2: apenas, qmccan stillwork bastante bien si f puede ser aproximado por una suma de funciones dimensionales en punto bajo en los métodos clásicos qmc, pn es uno puramente determinista el punto colocado, así es que el calculador qn tiene discordia de cero y lo el error (o el prejuicio) qn es difícil de estimar adentro aleatorios los métodos qmc, pn son aleatorizados de un modo que retiene su uniformidad alta sobre t0; 1 / s estando ocupado como un set, mientras cada uno de sus puntos tienen la distribución uniforme sobre t0; 1 / s cuando ocupado individualmente luego, qn se convierte en uno imparcial el calculador de , esperanzadamente con discordia más pequeña que lo el standardmcestimator. para estimar la discordia y quizá compute un intervalo de confianza adelante , uno le puede aplicar m las aleatorizaciones independientes para el mismo pn, y el cómputo xn y s 2 x, la discordia de muestra término medio y de la prueba de la m correspondiendo (independientes) valores de qn luego, etxnu d y ets2
xu d vartqnu d mvartxn u (l'ecuyer y lemieux 2000). un ejemplo simple de tal aleatorización es uno aleatorio cambio modulo 1, propuesto por cranley y patterson
(1976): genere una u del punto sola uniformemente distribuida sobre t0; 1 / s y lo añaden a cada punto de pn, coordinatewise, modulo 1 desde que todos los puntos de pn son intercambiados por lo mismo la cantidad, el set retiene la mayor parte de su estructura y su uniformidad. otro ejemplo es un cambio digital aleatorio en base b: genere otra vez un solo u d .u1; : : : ; nosotros / uniformemente encima t0; 1 / s, de escritura la expansión digital de adentro basan b de cada uno de su se coordina, punto de vista u j d p1 ' d1 d j;`b  ', luego agregue a d j;` el modulo la b para lo ' el dígito th de la expansión digital en b baja de la j th coordine de cada punto ui 2 pn para b d 2, el digitwise la adición modulo b se convierte en un o exclusivo del bitwise, cuál debe rápido actuar una computadora una propiedad interesante de esta aleatorización está que si el hiper-cubo t0; 1 / s están subdivididas en bq1clas cajas rectangulares cqs del mismo tamaño dividiendo en partes el eje j th en partes iguales bq j para cada uno j, para alguna culombio de entero j  0 (tal partición es designada uno q-equidissection en b baja del hiper-cubo de la unidad, donde culombio d .q1; : : : ; qs / ), luego el número de cajas que contienen los puntos de la m, para cada entero m, están inalterados por la aleatorización en particular, si cada caja contiene lo mismo
el número de punto de pn antes de la aleatorización, luego eso también hace después de la aleatorización. en este caso, decimos eso
pn es q-equidistributed en b baja. varias otra aleatorización los métodos existen y las mayorías son adaptadas a tipos especiales de sets del punto; la sede, e.g., l'ecuyer y lemieux (2002) y owen (2003).
Pues los sets aleatorizados del punto qmc, la tasa de convergencia de la hora del este. de discordia qn /2u fácilmente puede palpitar eso de estándar megaciclo, especialmente si la f de función es suave. por ejemplo, si la f sea la clase sobolev de funciones en t0; 1 / s cuyas derivadas mixto parcial di f de  k del jij de orden todo tenga norma de euclides kdi f k2  1, luego el sorbo inf pn f 2f.et.qn sobre lo la k de la n /2u/1=2 d o. = s  1=2 / donde el infimum está ocupado todo aleatorizó que el punto coloca a pn (bakhvalov 1962, heinrich y
nowak 2002) cuando = las s de la k son grandes, esto lo está mucho mejor que la o. n 1=2/ por otra parte, aglutine construcciones fondeándose esta tasa de convergencia para cualquier k y s no están disponibles, y la constante oculta podría ser grande. el resto de este periódico es organizado como sigue. Adentro sección 2, nosotros la retentiva la descomposición funcional de análisis de varianza de una f de función y discos la importancia de considerar lo las proyecciones dimensionales inferiores al estudiar la uniformidad de un set del punto pn en la sección 3, damos las definiciones y esboce algunas propiedades antiácidas de reglas de la cuadrícula y las redes digitales. las versiones aleatorizadas de estos apuntan sets, y correspondiendo las expresiones de discordia y los saltos, son también examinados. Ashort la conclusión completa el periódico. 2 la descomposición anova. la descomposición funcional de análisis de varianza (hoeffding 1948, owen 1998, liu y owen 2003) escribe f como f .u / d el f1 de índice de precios al consumidor;:::;el sg; yo 6d fi .u / donde cada fi dependa sólo el fui; yo 2 yo g, el de fi se integran para el cero y son ortogonales, y la discordia se descompone como 2  f1 d pi;:::;sg 2 yo dónde 2 el anteproyecto-internet vart fi .u/u para u uniformemente distribuida sobre t0; 1 / s. vea las referencias para definiciones explícitas de estos fi y las propiedades adicionales para cada set de coordenadas yo, pn dejado./ denoto lo la proyección de pn sobre el subespacio determinó por ahí yo. Si hay una j determinada de subconjuntos de f1; : : : ; el sg de cardinality muy más pequeño que 2s y algo semejante que pi2j 2 yo 2, luego sacia para construir a pn tan ese el proyección pn.yo el / es altamente uniforme con todo yo 2 j, para adelgazar lo los términos importantes de discordia 2 i. esto cuesta generalmente menos esfuerzo a logre que tener todo proyección pn.yo / altamente el uniforme la j determinada de proyecciones importantes depende por supuesto adelante la f de función en este contexto, se dice que de una f función tiene efectiva dimensione d a prorrata en el sentido de superposición si pjij (owen 1998). si está próximo a 1, thismeans que la f es sana aproximada por una suma de d-dimensional (o menos) las funciones. por ejemplo, un polinomio multivariable de d de grado tiene d efectiva de dimensión a prorrata 1 en el sentido de superposición (d d 1 para una función lineal, d d 2 para una función cuadrática, etc.) las simulaciones de la vida real
a menudo involucre funciones dimensionales altas con punto bajo efectivo la dimensión proporcionada cerca de 1. las técnicas especiales también puede usarse para cambiar f para reducir lo efectivo la dimensión, sin cambiar (spanier y maíz 1994,






sumatoria
Donde el v1; : : : ; vs 2 rs son linealmente independientes sobre r yzs ls. la aproximación de por qn con el nodo colocado pn d ls \ t0; 1 / s son uno designado una regla de la cuadrícula (korobov 1959, sloan y joe 1994) la condición zs ls le da a entender eso ls es periódico con período 1 a lo largo de cada uno de las coordenadas de s. deje v ser la matriz cuyas filas son los vectores de la base el v1; ; los vs y v 1 su inversa. el ht de columnas
1; : : : ; el ht las s de v 1 forme una base de la cuadrícula dual, definida como l
s d fh 2 hidrógeno rs v v 2 z para toda v 2 ls g, donde representa el scalar, M el producto uno tiene a zs ls iff l
s (si y sólo si)  zs iff todo las entradas de v 1 son entero. cuando esto cree, n d det.v  1/ y todas las entradas de v son múltiplos de 1 = n. el rango de la cuadrícula es la r menor algo semejante aquél puede encontrar una base del v1 de la forma; : : : ; el vr; el erc1; ; es, donde j es la unidad j th vectorial en s-dimension. en particular, una regla de la cuadrícula de rango 1 tiene una base de la forma v1 d ; : : : ; como / = n y v j d e j para j > 1, donde una j 2 el cinc para cada j. es una regla korobov si el v1 tiene el especial la forma v1 d .1; uno; el a2 la n a la última; : : : ; como  1 n a la última para una cierta cantidad un 2 cinc el punto colocó a pn de una cuadrícula korobov la regla también puede estar escrita como pn d f.x1; : : : ; xs n algo semejante que x1 2 el cinc y hacha de la x j d j 1 la n a la última para toda j > 1g. esto es el set de todos los vectores de valores sucesivos producidos por ahí uno el generador lineal (lcg) del congruential con n de módulo y el multiplicador uno, de todos los estados iniciales posibles (incluyendo 0) en este caso, los puntos son fáciles de enumerar acostumbrando lo la recurrencia. la proyección ls .i / de ls sobre el subespacio determinó por anteproyecto-internet fi1; : : : ; yo  la g soy también una cuadrícula, con punto pn determinado.yo el / una regla de rango 1 es con creces normal en la proyección iff gcd.n; una j d 1 para todo lo que j, y un korobov rige está completamente
iff gcd.n de siempre en la proyección y estacionario en la dimensión; una d 1 (l'ecuyer y lemieux 2000) creo que 1 eduque el set del punto pn en dimensiones s d 2 para una regla de la cuadrícula korobov con n d 1021 y una d 90 lo vector v1 d .1=1021; el 90=1021 / y v2 d .0; 1 / es una base de la cuadrícula esta regla es con creces normal en la proyección y estacionario en la dimensión. la uniformidad y regularidad alta de los puntos sobre la unidad cuadran es ostensible. la proyección de pn en cada uno de las dos coordenadas dan el set de equidistante enseña con el dedo pn.f1g / d pn.f2g / d f0; 1 = n; : : : ; .n  1 / = ng cabe construir secuencias de cuadrícula l1s
La estructura de la cuadrícula de pn y cada uno de sus proyecciones pn.yo insinúo que sus puntos pertenecen a un número limitado de los hiper-aviones paralelos equidistantes en dos dimensiones, estos los hiper-aviones son líneas, tan ilustradas en figura 1 queremos la distancia entre estos hiper-aviones a ser pequeña, en orden para evitar rebanadas grandes de espacio eso no contiene punto. Esto la distancia para pn.yo acierto a igualar uno sobre el euclidean la longitud de un vector más breve de poco cero en la cuadrícula dual l
s .i / computarlo es a menudo llamado la prueba espectral (knuth 1998). se usa comúnmente para evaluar la calidad de lcgs, y la lata sea usado adentro en exactamente la misma forma para cuadrículas de integración. Para el ejemplo, para cada uno que adentro un poco arbitrariamente seleccionó j de clase de subconjuntos de f0; : : : ; s 1g, uno podría computar la longitud ' .i / del vector más breve de poco cero en l
s .i /, lo divide por ahí uno el salto superior en el mejor valor posible que puede ser logrado para una cuadrícula arbitraria con puntos de la n por unidad de volumen en dimensiones ji j, para obtener un valor normalizado en medio 0 y 1 para cualquier yo, oye, s.i /, y luego tome el peor caso mini2j s.i / como una figura de mérito para la cuadrícula idealmente, esta figura de mérito debería estar como cerca de 1 tan posible. para la cuadrícula de figura 1, uno tiene a s. f1; 2g d 0:958 y s. f1g d s. f2g d 1. l'ecuyer y lemieux (2000) provea más letras menudas y el explícito korobov que las reglas seleccionaron por este tipo de criterio en más que dos dimensiones. otra posibilidad podría ser tomar una medida ponderada del s.i / varias otras medidas de uniformidad tienen estado propuesto y usado para seleccionar cuadrículas de integración; la sede, e.g., (sloan y joe 1994, hellekalek 1998, hickernell 1998b, lemieux y l'ecuyer 2001).

3.2 fourier expansion de f y la discordia

Pues al azar lattice intercambiado cuadrícula al azar intercambiada retiene su estructura de la cuadrícula. Para esta razón, aplicándole un cambio aleatorio modulo 1 para una integración la cuadrícula provee un set aleatorizado del punto con uno la estructura agradable que facilita análisis matemático de lo el error y la discordia. Más precisamente, escribamleos al fourier la expansión de f.

Los términos en (4) eso concuerdan con hidrógeno pequeño de vectores representa la cañería maestra tiende (los componentes de baja frecuencia) de la función la f y es usualmente más importante que la alta frecuencia los unos (el hidrógeno grande). Reparo en que la descomposición (5) es más fina el mismo dado en la sección 2, en el sentido que cada uno 2 yo correspondo para la suma de términos en (5) para el hidrógeno cuyo poco cero las coordenadas son esas con indices en yo. la expresión (6) sugiere las medidas de discrepancia de la forma p06dh2l s w.h/ o sup06dh2l s w.h / para la cuadrícula de integración ls, donde lo w.h de pesos (idealmente) pudo estar escogido para decrecer con la norma de hidrógeno proporcionalmente con los valores adelantados de j fo h/j2.. en la práctica, estos pesos están escogidos algo arbitrariamente, porque los coeficientes fourier son duros anticipar, excepto quizá más trabajo es necesario en esa dirección. si le llevamos el w.h / igual a 1 = khk2 multiplicado por uno asigne constante de normalización que depende en el escenario.

3.3 reglas en la serie formal.

En la cuadrícula lo definido anteriormente citado, las coordenadas vectoriales está dentro la r y las combinaciones lineales de los vectores de la base se acaban z. pero cuadrículas de integración también puede estar definido adentro diferente los espacios. Por ejemplo, podemos reemplazar r y z por el anillo lb de serie formal laurent con coeficientes en zb y por el anillo zbtzu de polinomios con coeficientes en zb, respectivamente, donde la b es un entero arbitrario mayor que 1 y zb es el anillo del residuo de entero modulo b (niederreiter
1992b, l'ecuyer 2003, lemieux y l'ecuyer 2003).

sumatoria

a sí obtenido, donde v1.z/; : : : ; vs .z / están en .lb/s es designado uno la cuadrícula polinómica de integración bajo la condición adicional ese .zbtzu/s ls. una salida haciendo mapas ' v lb! la r puede estar definida por ahí
La regla polinómica (plr) de la cuadrícula utiliza el set del nodo pn d ' .ls t0; 1 / s d ' .ls \ lb;0 /, donde lb;0 d lb a la última, zbtzu. la mayor parte de las propiedades de reglas comunes de la cuadrícula tienen las contrapartes en el contexto de plrs. los vectores de la base forman una v matricial con filas v1.z/; : : : ; vs .z /, cuya v 1 inversa tiene columnas
h1.z/t; : : : ; hs .z/t que forman una base de la cuadrícula dual l
s d fh.z / 2 .lb/s v h.z/v.z / 2 zbtzu para todo v.z / 2 ls g; donde h.z v.z / d ps el hidrógeno del jd1 j .z/v j .z/. los factores determinantes det.ls / d det.v / y det.l
s / d det.v  1 d 1 = det.ls / hace no depende de la elección de base la condición .zbtzu/s ls es crucial para garantizar tan todas las inversas definido arriba haga exista aún cuando la b no es un florecimiento (i.e., cuando zb no es uno el campo). esta condición sujeta a iff v 1 exista y demás sus entradas son polinomios. luego, det.l s / es una p. polinómica z /, lo el número de puntos es n d bk donde la k es el grado de p. z /, y cada uno coordina de cualquier v.z vectorial / 2 ls tiene la forma
v.z / d p.z / = p. z / para algún p.z/ polinómico. el rango de la regla es la r menor algo semejante que allí es una base del v1.z/ de la forma; : : : ; vr .z/; el erc1; ; los es. Uno korobov plr es una regla de rango 1 con p.z/v1.z / d 1; a.z/; a2.z / la a la última p. z/; : : : ; como  1.z / a la última p. z //, donde p. z / es un polinomio de k de grado sobre zb, teniendo a una = p. 1 inversa multiplicativa z / en lb, y a.z / 2 zbtzu = .p / (los polinomios con grado menos que la k). tal regla equivale a usar el set del punto pn d f '..p0.z/; : : : ; ps 1.z // = p. z // algo semejante que p0.z / 2 zbtzu = .p/g donde p j .z / d a.z/p j  1.z / a la última p. z / con todo j, i.e., la imagen por ahí ' de todos los vectores de valores sucesivos producido por un lcg polinómico con módulo p. z/ y el multiplicador a.z /, de toda inicial indica p0.z/. para lo la causa especial donde b d 2 (el caso más interesante), esto concuerda con usar todos los ciclos de una información retroactiva lineal cambia de posición el registro (lfsr) o tausworthe electrógeno con característica la polinómica p. z / (el de tezuka 1995, el de lemieux y l'ecuyer 2003).

3.4 equidis tribucion y medidas de uniformidad

Para las reglas polinómicas de la cuadrícula ordene el regreso de que pn es llamado q-equidistributed en b baja, para uno culombio de vector de entero d .q1; : : : ; qs /  0, si cada uno boxean de la de t0; 1 / s contiene el mismo número de puntos de pn, a saber los puntos del bt donde  el q1 de la k t d  los qs si n d bk. si esto cree para q1 d d qs d ' para una cierta cantidad '  1, tenemos s-distribución con ' los dígitos de exactitud (tezuka
1995), y lo más grande algo semejante ' es llamado la s-dimensional la resolución de pn. Este valor no puede exceder a bk sc. estas definiciones también se aplican a las proyecciones: para el anteproyecto-internet el fi1; : : : ; yo g f1; : : : ; sg, el pn determinado.yo / es .qi1; : : : ; qi  / - el equidistributed si cada caja del .qi1; : : : ; qi  / - la equidissección de t0; 1 /  contiene a 2t que .i / enseña con el dedo de pn.yo /, donde la k  t .i / d qi1 c: : : c qi. la abertura de resolución de anteproyecto-internet bk =  c ' yo, donde ' yo soy lo  - dimensional la resolución de pn.yo el /.

ECUACION 8

Para h.z / d .h1.z/; : : : ; hs .z // 2 zbtzu, donde deg.h j / son lo el grado del hidrógeno polinómico j .z / y convención deg.0 d 1by. deje a
1  culombio d min06dh.z/2l
s kh.z/k; la longitud de lo el vector más breve de poco cero en la cuadrícula dual bajo la suposición esa b es de primera, es a la que se resultó ser en l'ecuyer (2003) que pn es q-equidistributed iff
1  1. en particular, la s-dimensional la resolución de pn es igual a logb min06dh.z/2l s kh.z/k0 esto el vector más breve con relación al kh.z/k0 de función de distancia es relativamente fácil de computar (tezuka 1995, alta costura y l'ecuyer 2000).
la t-value de pn también puede ser obtenida computando la longitud de un vector más breve de poco cero en la cuadrícula dual, con una definición diferente de longitud. para h.z / 2 zbtzu, defina kh.z/k por ahí

Ecuación

Y dejado 
1 d min06dh.z/2l
s kh.z/k. luego la t-value de
pn es igual a k  s c 1  logb 
1 (niederreiter y pirsic 2001, l'ecuyer 2003). después del debate en la sección 2 y parecido a lo que sugerimos para las reglas comunes de la cuadrícula, uno puede considerar para los criterios de uniformidad de plrs del forma 1j d maxi2jyo (la peor abertura de resolución de caso) o maxi2j t
ji j = ti o maxi2j .ti t ji j /, donde j es una clase seleccionada de sets yo, ti soy la t-value para pn.yo /, t ji j un salto inferior en lo mejor t-value posible en ji j dimensiona, y con la convención ese 0=0 d 1. la elección de j es otra vez arbitraria y uno la materia de compromiso. si la j contiene sets de más, no sólo el criterio de selección será más valioso para computar, pero el mejor valor que puede lograr será mayor, y por eso el criterio se volverá menos exigente para lo la equidistribución de las proyecciones más importantes. Otro los tipos de criterios de uniformidad se discuten, e.g., en l'ecuyer y lemieux (2002).

3.5 estreman reglas en la serie formal sobre zb nosotros ahora consideramos una cuadrícula de la forma
ecuacion 9

donde c1.z/; : : : ; ck .z / son vectores de la k de ls b;0 independientes sobre zb, y pn dejado d ' .cs / t0; 1 / s, donde ' está definido como antes aquí, la cuadrícula está definida sobre zb en lugar de sobre como adentro (7) el pn determinado contiene exactamente n d bk los puntos bien definidos, porque cs ls b;0 para definir la cuadrícula dual, nosotros primero definimos uno (poco conmutativo) el producto en lb por ahí ésta es una cuadrícula sobre zb, i.e., ¿puede estar escrito como c?s d fh.z / d p j d1 xihj .z / algo semejante que xi 2 zb para cada uno yo la g para alguna base h1.z/; : : : ; ¿el hidrógeno .z /, dónde es la dimensión de c?las s sobre zb. las propiedades equidistribution pueden ser determinadas computando las longitudes de vectores más breves en esta cuadrícula dual, tan para plrs (l'ecuyer 2003) específicamente, al menos para ¿aplíquele una capa de imprimación a b, pn es q-equidistributed iff min06dh2c? culombio s khk  1, ¿la resolución de pn es igual a logb min06dh2c?s khk0, y ¿su t-value es igual a la k  s c 1  logb min06dh2c?s khk.

3.7 expresiones de discordia y saltos para randomized las redes y las reglas de la cuadrícula en la serie formal al azar intercambiando un set en lb concuerda con añadirse uno la serie formal aleatoria para toda serie en el set, añadiéndose los coeficientes correspondientes en zb. en el set del punto pn, esto transpone para un cambio digital aleatorio en b baja. Como mencionado en la introducción, este tipo de conservas de cambio la equidistribución de cada q-equidissection en b baja una expresión de discordia parecido a (6) está disponible para (al azar) la cuadrícula digitalmente intercambiada domina en la serie formal (lemieux y l'ecuyer 2003, l'ecuyer y lemieux 2002) la expansión fourier y los coeficientes son bywalsh repuesto la expansión y los coeficientes tan para las reglas comunes de la cuadrícula, estas expresiones sugieren que las cuadrículas de integración deberían sea seleccionado a fin de que su cuadrícula dual no contiene en seco
los vectores al azar intercambiando un set del punto provee uno imparcial el calculador de con una cantidad mínima de aleatorización y "la perturbación" del punto colocado sin embargo, más aleatorización la lata en algunos casos reduce la discordia. Owen (1995) ha propuesto un método de aleatorización llamado anidado la pelea uniforme, para redes digitales, que al azar combina el f0 de valores; : : : ; b 1g acostumbró para el ui de dígitos; j;`, independientemente para cada j coordinada, como sigue uno acostumbra una primera permutación para tuvo 1 para ' > 1, uno acostumbra uno la permutación diferente para cada valor posible de lo precedente' ui de  1 dígitos; j;1 el ui; j;`1 para mezclar la primera parte' los dígitos así requiere .1 c b c cb '  1 permutaciones / s, y todas estas permutaciones son independientes. owen (1997) le muestra eso pues alisado bastantes funciones (de quién se mezcló las derivadas parciales satisfacen una condición lipschitz) la discordia está en o. n 3.log n s. con un cambio digital aleatorio, lo el salto es o. n 2.log n s / en lugar de eso (l'ecuyer y lemieux 2002). sin embargo, la anidada pelea uniforme es bastante más caro para tener aplicación que el cambio digital. varios otro menos las peleas caras han estado propuestas de quién tiene importancia de mentira de aleatorización en alguna parte de entre estos dos; vea owen (2003) para una visión general y un debate.



CAPITULO 12
EL EXTRACTO.
Un modelo de aporte es una colección de distribuciones juntos
Con cualquier parámetros asociados que son usados como hombre primitivo
Los aportes en un modelo de simulación. La incertidumbre de modelo de aporte surge
Cuando una no está completamente segura qué distribuciones y / o
Los parámetros a usar. Este manual de instrucción intenta proveer un sentido
De por qué uno debería considerar incertidumbre de aporte y qué
Los métodos pueden usarse para ocuparse de eso.

1 INTRODUCCIÓN.

Considere los siguientes ejemplos artificiales de problemas de decisión
Donde la simulación puede jugar un papel. (Cualquier parecido Para las personas verdaderas es enteramente coincidental.)

El ejemplo 1: Bruce Lee corre una panadería que está abierta de 6am hasta 3pm todos los días. Durante ese tiempo los clientes llegan Según un Poisson procese en la tasa 3. La tasa 3 difiere De día en día en una moda del i.i.d., y en cualquier día dado
Es gama distribuida con parámetros > 0 y
> 0, así
Que la densidad de 3 en x > 0 es proporcional para  x del  1e de la x.
Un miembro de la administración solo le puede servir a un cliente en una cantidad
Del tiempo que es exponencialmente distribuido con término medio  1.
Las veces de servicio son independientes de uno otro y del proceso de llegada, y los días sucesivos son independientes de uno u Otro. Bruce quiere decidir cuántos personal es necesario Para servirle a los clientes tan ese sobre el tiempo a largo plazo en menos 90 % de Los clientes esperan 1 minuto o menos en línea antes de estar servidos.

El ejemplo 2: Steve Russell corre una tienda de vino que es Abra de 11am hasta 8pm todos los días. Durante esos clientes de tiempo Llegue según un proceso Poisson en la tasa. Lo La tasa  es fija, pero no es conocido con seguridad. Sin Embargo, la incertidumbre es bien modelada asumiendo que eso  es gama Distribuido con parámetros y (los mismos valores como en La panadería de Bruce Lee). Un miembro de la administración solo le puede servir a un cliente En una cantidad de tiempo que es exponencialmente distribuido Con término medio  1 (otra vez el mismo valor tan en Bruce Lee La panadería). Las veces de servicio son independientes de uno otro y Del proceso de llegada, y los días sucesivos son independientes De uno otro. Steve quiere decidir cuántos personas son necesarias para servirle a los clientes sobre el tiempo a largo plazo al menos90 % de espera de clientes 1 el minuto o menos en línea antes de ser
Servido. La estructura de estos dos sistemas, siendo multiservidor Las colas, es lo mismo. Además, los clientes llegan concordando Para un proceso Poisson en cualquier día dado, y tiene lo La misma distribución de tiempo de servicio. La diferencia miente adentro lo La incertidumbre se asoció con la tasa de llegada del Poisson El proceso. En el Ejemplo 1 esta toma de incertidumbre la forma de uno Variando tasa de llegada, donde la tasa de llegada difiere en uno sabido La moda. En el Ejemplo 2 la tasa de llegada es lo mismo de día Hoy, pero no sabemos el valor exacto.

¿Es este lo mismo de dos problemas? En otras palabras, La lata que analizamos los sistemas usando función idéntica

¿Las medidas y los métodos de estimación de intervalo?
Creo que la respuesta es no.
Para saber por qué, consideremos el cálculo de La fracción a largo plazo de clientes que esperan pues 1 minuto o Menos. Supongo que observamos una de las tiendas para ' los días. Deje a Ni y Si ser el número de clientes que llegan a lo La tienda, y el número de clientes que alcanzan repara en 1
El minuto o menos, en el día yo respectivamente, el Anteproyecto-Internet 1; : : : ; `. Luego La fracción de clientes que esperan pues 1 minuto o menos encima de los días
EXPRESIONES MATEMATICAS

Como puede verse dividiendo ambos el numerador y denominador Por ahí ' y aplicándole la ley de los números grandes fuerte
Para ambos.
Ahora especialicemos para Example 1. El condicionamiento adelante La tasa de llegada 3 y destinando un resultado estándar para Poisson Los procesos que encontramos eso

EXPRESION
Donde el 9 proviene del hecho que la tienda está abierta para 9 Las horas. Hay varias formas para computar o aproximarse El ES1. Uno le podría aplicar teoría del queueing, pero lo haremos en lugar de eso Use simulación. Específicamente, uno puede imaginar disimular lo Las operaciones de la panadería para un gran número de días '. En el día Primero generamos un 3i de realización de 3 de su distribución, Y luego simula una cola del multiservidor con tasa de llegada 3i para el resto del día. Lo simulado aleatorio
Variable .S1; : : : ; De S / es luego variables aleatorias del i.i.d. con
La discordia finita, y así es que podemos construir un intervalo de confianza
Para ES1 en la moda usual. Vemos que podemos proceder En exactamente la moda a la que estamos acostumbrados en guiar La simulación experimenta. Interesantemente, la situación no es Como el claro hirió por ejemplo 2.

Considere cómo podemos computar EN1 por ejemplo 2.
En este caso no hay necesidad para poner en forma en  desde que es uno
La cantidad determinista. De un resultado estándar para PoissonLos procesos, EN1 D 9. ¿Pero cuál es este valor? No hacemos
Sepa para seguro porque no sabemos el valor de. Nosotros Tenga el mismo problema con ES1 de cómputo. Podríamos Usar simulación para estimarla para cualquier constante de , pero

¿De qué aprecia debería ser usado? Si escogemos a un soltero
¿El valor para? O debería que probamos el valor de  antes de
¿La operación de cada día como hicimos en el Ejemplo 1? Si lo somos
Para realizar tal muestreo, luego a qué deberíamos reportarnos
¿El usuario de simulación? ¿Un intervalo de confianza como antes? Si
¿Entonces, cómo debiese ser tal intervalo de confianza interpretado?
Las respuestas para estas preguntas difieren a merced de quién
Usted pregunta, porque este problema es una causa especial de lo
El problema de incertidumbre de modelo de aporte y no hay general
El acuerdo en relación a la forma de proceder.
La clase general de este problema puede ser expresada comoEntiende. Simulación nmodelo confía en la especificación de lo
Las funciones. Una función de distribución empírica (o una cierta cantidad
La versión alisada de eso) es una elección modelo particular.
La incertidumbre de parámetro luego guarda relación con el valor de la distribución
La función en los observados puntos.
El problema es complicado por el hecho que para cualquier El modelo fijo de aporte, la simulación sólo puede reportar estima de Las medidas de función. En particular, la simulación se forja De variables aleatorias que aseguran que la estimación resultante Es también aleatorio. Esta forma de aleatoriedad es la que Es muy familiar. Toma nombres diversos, dependiendo En quién usted habla con, incluyendo incertidumbre estadística, La incertidumbre estocástica, la simulación e incertidumbre aleatoriaLa incertidumbre. Esta forma de incertidumbre puede ser con la que se contrastó La incertidumbre de modelo de aporte tan descrito anteriormente citado, que también tiene El múltiplo nombra incluir incertidumbre estructural, subjetivoEs digno de notar ese rato que discutimos estoEl problema en el contexto de simulación estocástica, el problema No es único para este campo. Por ejemplo, aun si uno estuviera paraAplique las fórmulas del queueing a aproximar la funciónMida por ejemplo 2 arriba, uno todavía debe negociar con loEl ofwhat de asunto a reportar, y howto decida cuándo Steve RussellTiene a bastantes miembros de la administración. Con fórmulas deterministas un
No más largo tiene que ocuparse de incertidumbre de simulación, excepto uno
El silencio tiene que ocuparse de incertidumbre de modelo de aporte.
Como un segundo ejemplo, el campo de análisis del riesgo tiene
Agarrado firmemente con este asunto durante algún tiempo; (1996)
La simulación.
Como un tercer ejemplo, hay ahora un área conocido como
La optimización robusta que se ocupa de problemas de optimización
Con restricciones, donde los parámetros de la optimización
El problema (no las variables de decisión) - se asume - miente
En un punto de vista elíptico de la L. Estos métodos requieren eso cualquier
La decisión sea factible con relación a las restricciones para cualquier
La elección de los parámetros en L. Asumiendo el problema
Es de "minimice" tipo, luego minimizan el máximum
El valor posible del objetivo, donde el máximum interior
Es sobre los valores de los parámetros. La optimización robusta
Los métodos son por consiguiente muy conservador en su acercamiento.
No obstante, para muchos problemas de que uno no ve mucho
Un deterioro en el valor óptimo que es reportado, y lo
Las soluciones recomendables son mucho más robustas para las perturbaciones
En los parámetros que es el caso para una solución generada
Dado que los parámetros toman un valor solo. Mucho
Del trabajo en este área asigna desarrollarse eficiente
Los algoritmos de solución. Ven Ben-Tal y Nemirovski (1998)
Ben-Tal y Nemirovski (2000) para los detalles y los ejemplos.
Considero ahora las dos preguntas en el título de esto
El periódico. ¿Primer, por qué nos importa? La respuesta para esta pregunta
Está bien comprendido, y se discute debajo. En Segundo Lugar, Qué
¿Deberíamos hacer acerca de eso? La respuesta para esta pregunta es menos
Aclare, y muchas respuestas han estado propuestas. Cualquier método
Para ocuparse de aporte que la incertidumbre debe satisfacer al menos lo
Después de los requisitos.
" La diapositiva  El método debería ser comprendida Por usuarios.
" La validez  El método debería basarse en una firma El principio básico estadístico que los expertos están de acuerdo es razonable.
" Implementability  que El método idealmente debería ser Capaz para ser aplicado a un rango de problemas fuera Cualquier necesidad para la intervención docta en cada aplicación. " La eficiencia  que El método no debería requerir uno La cantidad excesivamente grande de tiempo de cómputo. Este periódico examina los métodos que han sido sugeridos
Para ocuparse de incertidumbre de aporte y es organizado tan Entiende.

¿2 POR QUÉ NOS IMPORTA?.

En este pasaje exploramos un ejemplo involucrando a la M / M/1 Haga cola. Nuestra meta es explicar la motivación para explícitamente Ocupándose de incertidumbre de modelo de aporte. Nuestra presentación es Motivado por el ejemplo presentado en Barton y Schruben (2001) y se elabora en adentro Barton et al. (2002), aunque
Presentamos los conceptos claves en una manera diferente. En particular,
Trabajamos con clases paramétricas de distribuciones tan a los que se opuso
Para las funciones de distribución empíricas, y considere el caso
Donde la simulación es "perfecta", i.e., El error de simulación es 0.

EXPRESION

Los where8is la función de distribución acumulativa de un estándar La variable aleatoria normal. Aquí (1) sigue desde  n de la O es Normalmente distribuido. Diferenciando, obtenemos la densidad
De f .O  n /  1 para x > 0 tan

EXPRESION

Donde ‑ sea la densidad de una variable aleatoria normal estándar.
La densidad (2) es tramada para valores diversos de n en Figura 1.

GRAFICA

Es importante para comprender lo que estas densidades dicen Nosotros. Para cualquier constante de n, la densidad da un sentido De lo que nuestra "simulación" experimento podría predecir para lo El tiempo estatal en novio término medio de estancia temporal. La altura de la densidad, Como siempre, da un sentido de qué tan probablemente un valor dado debe
Ocurre. Algunas observaciones están en orden.

1. Como la n aumenta, las densidades se hacen a la derecha y Concéntrese alrededor de 1, indicando eso pues n grande Somos propensos a predecir un valor muy cerca para lo Corrija valor de 1. Esto es tan esperado porque como La n aumenta  n de la O! Con probabilidad 1.

2. Las densidades no son pesadamente concentradas, constantes para Los valores moderadamente grandes de n. Por eso es muy Probablemente que prediremos aprecia para el steadystateEl tiempo de espera término medio que es realmente diferenteDe 1, simplemente por nuestro error en la estimaciónDe la tasa de llegada. Necesitamos un valor muy grande de
N, i.e., Una cantidad significativa de datos, a asegurar a gran altura La exactitud.

3. Las densidades están algo sesgadas, especialmente para Los valores pequeños de n, tan tan la mayor parte de la probabilidad Los concentrados alrededor de los valores significativamente más pequeño Que 1. Tan diagonal es más probablemente significativo, parejo paran moderadamente grande. Típicamente, la simulación se usa para proveer entendimiento profundo tan ese
Una decisión puede ser hecha. En el Ejemplo 2 por encima de la decisión
Es cuántos personal para contratar para asegurar al cliente satisfactorio
El servicio. El principal motivo que nos importa acerca del modelo de aporte
La incertidumbre es que nos puede conducir a una decisión incorrecta.
Si menospreciamos la llegada verdadera tasa en el Ejemplo 2,
Luego no lo haremos probablemente salario bastantes miembros de la administración para asegurar
Las veces del satisfactorywaiting. Ifwe estime demasiado la llegada verdadera
Evalúe luego proveerá mejor servicio que esperó
(No tal mala cosa), pero en el costo financiero de contratar
Demasiados empleados. Mientras estos asuntos no pueden ser tan críticos
En una panadería o una tienda de vino, son de más conciérnale cuando
Uno se ocupa de un centro de llamada de servicio de emergencia, para
El ejemplo.

3 EL ARMAZÓN.

Consideremos un armazón medianamente general que dará rienda suelta a que Un debate concreto de los asuntos. Este armazón es Esencialmente tan propuesto en Cheng (1994) con una parte pequeña
La extensión para tener previsto incertidumbre modelo, y otro desaire La modificación de notación para reducir confianza en el greco
¡El alfabeto! Tenemos el deseo de computar D f .m0; 0 /, donde la función
La f depende de dos variables. Los primeros índices variables de la m
Una (potencialmente el infinito del uncountably) clase de modelos. La segunda variable  2 < p representa un set dimensional finito De parámetros. Para una m modelo dada, uno no puede necesitar Todos los parámetros de la p desde los modelos diversos requieren más o menos
Los parámetros. Por ejemplo, la distribución normal tiene 2 Los parámetros mientras lo exponencial tenga sólo 1.El m0 de cantidades y  0 representan el modelo "verdadero"Y sus parámetros asociados. La noción de un modelo "verdadero" Y el set de parámetros es contrario a una filosofía Bayesian.
Cuando nos tratamos de métodos Bayesian modificaremos loEl debate consecuentemente. La f de función se fondea, para cada m Y , el valor exacto de la medida deseada de función
Eso sería obtenido de una simulación con discordia de cero.
Un modelo de simulación está disponible eso puede estar acostumbrado a
La estimación f .m;  . Específicamente el modelo de simulación puede ser El efecto de incertidumbre de parámetro es usar un 2k El diseño de factorial. En este acercamiento hay k (el punto de vista) diferente Los parámetros que deben estar ajustados. La meta es determinar Cuál los parámetros o las combinaciones de parámetro tienen uno El efecto significativo en la salida. Si tales parámetros pueden ser Identificados, luego podemos decidirnos ya sea coleccionar más datosPara ayudar a mejorar la exactitud de estimaciones de estos aporte
Los parámetros o no. Supongo que restringimos atención para 2 posibles
Los valores (por todas partes) para cada parámetro. Entonces allí Es 2k trasfondos posibles de parámetro que podrían ser considerados. Uno luegocorre un experimento de simulación en cada uno de estosLostrasfondos de parámetro, y los usos los resultados para decidir el cual Las combinaciones de parámetro tienen un impacto significativo en lo
La medida de función de salida. Quizá el máximo problema con este acercamiento es eso
Para números grandes de k de parámetros, un diseño de factorial puede requerirUna cantidad tremenda de computación, i.e., El acercamientoNo se eficiente. Uno luego podría usar un factorial fraccionadoEl diseño, u ocultándole métodos para reducir la dimensionalidadDel problema (Kleijnen 1998). Sin embargo, a estas alturas Comienza a volverse necesario para tener guía docta adelante Cómo proceder, a fin de que corremos en dificultades con implementability. Hay también otros asuntos como la selección De los niveles altos y bajos de cada parámetro.Estos y varios otros asuntos se discuten en Kleijnen (1994), Kleijnen (1996), Kleijnen (1998). Kleijnen también
En breve menciona análisis de incertidumbre, primordialmente en un trasfondo
Guste esos de Ejemplo 3, donde no hay error de simulación,
Sino que también en el caso general donde el error de simulación es el presente.
El análisis de incertidumbre implica al azar probando el aporte
Los parámetros antes de cada simulación corren, pero entonces teniendo aplicación
Los parámetros constantes durante la carrera. Kleijnen (1994)
También da que algunas referencias para temprano trabajar eso implementan
Tal análisis de incertidumbre, predominantemente en el caso dónde
Los modelos son deterministas a fin de que el error de simulación no es
Presente.








5 RECIENTEMENTE PROPUSIERON MÉTODOS.

Nosotros el nowturn para algunos de los métodos más recientemente propuestos Para ocuparse de incertidumbre de modelo de aporte en presencia de
El error de simulación. El método más cercano para tan descrito en la sección previa Estaba descrito en Freimer y Schruben (2002). Freimer
Y Schruben dé dos diseño de métodos de experimentos para Decidiéndose cuánto datos a la colecta en primer lugar o más parámetros. Ambos de sus métodos iterativamente buscan para uno La cantidad de datos tan ese la diferencia en los resultados de lo El experimento de simulación es estadísticamente indistinguible Los valores extremos de los trasfondos de parámetro. Los valores extremos
Hacen una selección son los puntos finales de intervalos de confianza para Los parámetros. En otras palabras, van en busca de una cantidad De datos de entrada que es asegurar esa discordia de simulación Domina ambos diagonal y la discordia de modelo de aporte. Su El acercamiento es ciertamente implementable (requiere sólo a unos cuantos Los aportes con holgura sobreentendidos del usuario de simulación y lo El descanso del método está automatizado). Desafortunadamente, ambos De sus acercamientos puede requerir una cantidad grande de computación.

Además, usan repetido hipótesis experimenta Cuál, mientras no irrazonable y ciertamente común adentro La literatura, es una fuente potencial de interés. Finalmente, Lo La cantidad de datos reportado según lo solicitado está relacionada con simulación La discordia, y no para una tolerancia de error prescribió por ahí lo El usuario.
.
5.1 ACERCAMIENTOS DE DELTA-METHOD.

Empezando con Cheng (1994) y continuando con Cheng Y Holanda (1997), Cheng y Holanda (1998), Cheng Y Holanda (2003), Cheng y Holanda se han desarrollado
Un armazón y varios métodos para ocuparse de aporteModele incertidumbre. El armazón dado por Cheng (1994) Ha sido adoptado por varios autores incluyendo a Zouaoui Y Wilson (2001b), Zouaoui y Wilson (2001a). (EstoEl armazón está ligeramente extendido en § 3.) El armazón Supone que el m0 modelo es especificado con seguridad, pero Que los parámetros  no son. Los parámetros son a menudoAsumido para sera proximadamente normalmente distribuido tal cual El caso, bajo la regularidad suave pone en forma, cuando el máximum La probabilidad se usa para estimar  0. Cheng (1994), Cheng y El uso de Holanda (la sede, e.g (1997) el método del delta., Henderson
2000, Henderson 2001) determinar el primer pedido llama adentro La discordia combinada de simulación y el aporte modelan discordia (4). El prejuicio (3) no es considerado en estos periódicos tempraneros. Dan calculadores para los términos de discordia de primer orden. Ellos Meencuentro con que los estimadores sufren cuando hay un gran número De parámetros inciertos. Para ocuparse de este problema también Dé un acercamiento paramétrico del bootstrapping que está descrito
Debajo con otros métodos del bootstrapping. Cheng y Holanda (1998) introducen dos nuevos métodos Para estimar el modelo de simulación combinada y de aporte La discordia, otra vez ignorando prejuicio. La primera parte de estos métodos Implica dos etapas, donde el vector La filosofía global detrás de estos métodos es para Coloque una anterior distribución en las modelos de aporte y los parámetros De una simulación, actualice la anterior distribución para una parte trasera La distribución basada en datos disponibles, y sólo luego carrera uno El experimento de simulación. La distribución subsecuente cuantifica La incertidumbre en la m de modelo de aporte y los parámetros. El pollito (2001) recomienda a implementar a un Bayesian Modele promedio (el Pañero 1995). El promedio de modelo Bayesian

RESUMEN CAPITULO 14

Este periódico provee practicas de simulación con un concepto en cómo la simulación de acontecimiento discreto el software surte efecto. los temas incluyen sistemas de acontecimiento discreto; las entidades,los recursos, las operaciones y de elementos de control; la simulación corre; los estados de entidad; la entidad escora; y la gerencia de la lista de entidad la implementación de estas ideas genéricas adentro automod, slx, y extend están descritos. el escrito concluye con varios ejemplos de "por qué tiene importancia" para modeladores para saber cómo sus obras del software de simulación, incluyendo la cobertura de siman (arena), promodel, y gpss/h así como las otras tres herramientas.

Un método de" caja negra " es a menudo es tomada en la enseñanza y el estudio del software de simulación de acontecimiento discreto las características externas del software son estudiadas, pero la fundación sobre la cual el software es basado no es hecho caso o es mencionado sólo brevemente las opciones hechas en la puesta en práctica de la fundación no podrían ser estudiadas en absoluto y relacionadas a la ejecución de modelo de paso de step by. El modelo por lo tanto no podría ser capaz de estudiar cosas detenidamente cuando afrontado con tales necesidades como el desarrollo de accesos buenos para modelar situaciones complejas, usando instrumentos interactivos para venir a un entendimiento rápido de condiciones de error que surgen durante el desarrollo modelo, y la utilización de instrumentos interactivos para verificar que la lógica de sistema compleja ha sido capturada correctamente en un modelo. el objetivo de este papel, entonces, es describir el sostén lógico de simulación de acontecimiento discreto e ilustrar este material en términos de varias puestas en práctica de software de simulación discrete event.


Este papel es una versión revisada de un papel llamado de modo idéntico de la conferencia de simulación 1996 de invierno (schriber y 1996 brunner), el papel 1996 cubrió las reglas de dirección de lista de entidad " y por qué esto importa " para siman (la lengua que es la base de la arena), promodel, y gpss/h. una versión dilatada del material 1996 que contiene figuras, organigramas, y la explicación adicional puede ser encontrada en schriber y brunner (1998).

1.2 la estructura del papel

En secciones 2, 3 y 4 comentamos la naturaleza de discreto - la simulación de acontecimiento; la simulación básica construye como entidades, recursos, elementos de control, y operaciones; y ejecución modela. las secciones 5 y 6 tratan con estados de entidad y estructuras de datos de dirección de entidad. la sección 7 habla de tres puestas en práctica específicas de reglas de dirección de entidad.
la sección 8 explora " por qué esto importa. "

1.3 terminología y convenciones.

En todas partes de este papel usamos términos(condiciones) que definimos así como términos(condiciones) reservados por los reveladores de instrumentos de simulación particulares. los términos(las condiciones) que definimos son bold faced sobre el primer empleo términos(condiciones) específicos de instrumento son escritos con mayúscula o, donde apropiado, son explicados detalladamente en todos los comandos.

Acerca de la simulación de evento-discreto

2.1 la vista de mundo de flujo-transacción.

La vista de mundo de flujo de transacción " a menudo proporciona la base para la simulación de acontecimiento discreto en esta vista mundial, un sistema es visualizado como consistiendo en las unidades discretas de tráfico que se mueven ("el flujo") del punto para señalar en el sistema compitiendo el uno con el otro para el empleo de recursos escasos a veces llaman las unidades de tráfico "transacciones", dando lugar a la frase " el flujo de transacción. " numerosos sistemas encajan la descripción precedente. incluido son mucha fabricación, el manejo de material, el transporte, la asistencia médica, civil, el recurso natural, la comunicación, la defensa, y sistemas de informática, y la formación de una cola de espera sistemas en general.

2.2 la naturaleza de simulación de acontecimiento discreto.

Una simulación de acontecimiento discreto es el que en el cual el estado de un modelo se cambia en sólo un discreto, pero posiblemente arbitrario, puesto de puntos de tiempo simulados. dos o más unidades de tráfico a menudo tienen que ser manipuladas en el punto de tiempo mismo tal circulación "simultánea" a la vez señala es alcanzado por manipulando las unidades de tráfico en serie en aquel punto de tiempo esto a menudo conduce a complejidades lógicas en discreto - a la simulación de acontecimiento porque esto levanta preguntas sobre la orden(el pedido) en la cual dos o más unidades de tráfico deben ser manipuladas en cierta época el punto.


2.3 el acontecimiento discreto que modela lenguas los desafíos afrontados por un modelo se intensifica para el diseñador de una lengua que modela.

El diseñador debe tomar las exigencias lógicas de simulación de acontecimiento discreto en consideración de un modo generalizado las opciones y compensaciones existen. por consiguiente, aunque las lenguas de simulación de acontecimiento discreto sean similares en amplios términos(condiciones), ellos pueden y típicamente diferenciarse en detalles sutiles pero importantes.

3 entidades, recursos, controlan elementos, y operaciones.

L a entidad de término es usada aquí designar una unidad de tráfico ("una transacción"). las entidades instigan y responden a acontecimientos un acontecimiento es un acontecimiento que cambia el estado de un modelo (o el sistema). en un modelo de un sistema que llena orden, por ejemplo, la llegada de una orden(un pedido), que es un acontecimiento, podría ser simulada por trayendo a una entidad en el modelo hay dos tipos posibles de entidades, aquí mencionó entidades externas y entidades internas entidades externas son aquellos cuya creación y movimiento explícitamente son pedidos por el modelo al contrario entidades internas son creadas y manipuladas implícitamente por el software de simulación sí mismo por ejemplo, entidades internas podrían ser usadas en algunas lenguas simular fracasos de máquina, mientras que entidades externas podrían ser usadas simular el empleo de máquinas.
el recurso de término designa un elemento de sistema que proporciona el servicio (como un taladro, un vehículo automatizado dirigido, o el espacio en un parachoques de entrada) los usuarios de recursos son por lo general entidades. ( por ejemplo, una entidad de proceso de ocupación reclama el espacio en un parachoques de entrada, luego captura un vehículo automatizado dirigido para moverlo al parachoques de entrada.) los recursos por lo general son limitados por capacidad, entonces las entidades compiten por su empleo y a veces deben esperar para usarlos, experimentando el retraso por consiguiente el elemento de control de término designa un construir que apoya otros tipos de retraso o alternativas lógicas basadas en el estado de un sistema los elementos de control pueden tomar la forma de interruptores, mostradores, valores de datos de usuario, y los valores de datos de sistema incorporaron en el instrumento de modelado. el control complejo puede confiar en expresiones valoradas por verdad que usan las combinaciones aritméticas y/o booleanas de elementos de control, una operación es un paso realizado por o sobre una entidad mientras esto se mueve por un sistema las operaciones aplicables a un barco en un puerto podrían ser estos: llegue al puerto; solicite(reugue) una litera; capture una litera; solicite(reugue) un remolcador; capture un remolcador; son tirados en la litera; libere el remolcador; carga de carga; solicite(reugue) un remolcador; son sacados la litera; libere la litera; son tirados en el agua abierta; libere el remolcador; marchar.




4 LA descripción de ejecución modela.

4.1 experimentos, réplicas, y carreras.

Un proyecto de simulación es compuesto de experimentos los experimentos son diferenciados por el empleo de alternativas en la lógica de un modelo y/o datos. una regla de parte-sequencing alterna podría ser intentada, por ejemplo, en el modelo de un sistema de producción, y/o la cantidad de varios tipos de máquinas podría ser variada. o el número de carga y descarga de literas en un puerto podría ser variado cada experimento consiste en una o varias réplicas (pruebas(juicio)) una réplica es una simulación que usa la lógica modela del experimento y datos, pero un juego diferente de números aleatorios, y tan productos los resultados diferentes estadísticos que entonces pueden ser analizados a través de un juego de réplicas, una réplica implica el inicializando del modelo, la carrera de ello hasta que una condición que termina carrera sea encontrada, y resultados que hacen un informe.
Este se divide en fases llamadas procesos.

4.2 Dentro de un proceso

Durante una carrera el reloj de simulación (un valor de datos internamente manejado, almacenado) rastrea el paso de tiempo simulado (a diferencia del tiempo de reloj de la pared) el reloj avanza en pasos discretos (típicamente de tamaño desigual) durante la carrera. después de que todas las acciones posibles han sido tomadas en un tiempo dado simulado, el reloj es avanzado al tiempo del siguiente acontecimiento más temprano entonces las acciones apropiadas son realizadas en este nuevo tiempo simulado, etc.

La ejecución de una carrera por lo tanto toma la forma de un lazo de dos fases: " realice todas las acciones posibles en la corriente el tiempo simulado, " seguido " del avance el reloj simulado, " con estas dos fases repetidas una y otra vez hasta que una condición que termina carrera sea encontrada. aquí respectivamente llaman la fase de movimiento de entidad a las dos fases (emp) y la fase de actualización de reloj (cup).

5.1 el estado activo.

El estado activo es el estado de la entidad actualmente en movimiento. Maniobras de sólo una entidad de en cualquier instante de reloj de pared el tiempo esta entidad progresa a través de sus operaciones sin escalas hasta que encuentre un retraso luego emigra para una alternativa el estado alguna otra entidad luego se convierte en la siguiente entidad activa.

5.2 el estado listo.
Durante un movimiento de entidad la fase allí puede estar más que una entidad en condición de mover, y pero las entidades sólo pueden moverse (esté en el estado activo) un por un. el estado listo es el estado de entidades esperando a entrar en el estado activo durante la fase actual de movimiento de entidad.


5.3 el estado de retraso de tiempo.

el estado de retraso de tiempo es el estado de entidades en espera de un futuro sabido disimuló el tiempo a ser alcanzado tan ese ellos la lata luego () la interlineación el estado listo. una "parte" entidad está dentro uno el estado de retraso de tiempo, por ejemplo, mientras en espera del futuro el tiempo simulado en el cual una operación siendo realizado en eso por una máquina se acabará.

5.4 el estado atrasado en condición

El estado atrasado en condición es el estado de entidades atrasadas hasta que algunos especificaron la condición sucede, e.g., uno "la parte" la entidad podría esperar en el estado atrasado en condición hasta su vuelta viene a usar una máquina. las entidades atrasadas en condición está removido automáticamente de la condición el estado atrasado cuando las condiciones le permiten.

5.5 el estado dormant
Algunas veces gusta para meter a entidades en un estado de cuál no escapada se desencadenará automáticamente por ahí los cambios de adentro modelan condiciones le llamamos a este estado el dormant el estado. las entidades estatales a dormant confían en modelo supplied la lógica para transferirlos del estado inactivo de regreso al estado listo las entidades de tarjetas de elaboración podrían ser puestas en un estado inactivo, por ejemplo, hasta una entidad del operador decide cuál el boleto de trabajo para jalar después.

6.1 la entidad activa.

La entidad activa forma una "lista" anónima consistiendo sólo de la entidad activa. la entidad estatal en la voz activa se mueve sin escalas hasta encontrar una operación que lo mete en otro indique (los reembarques eso para otro la lista) o lo quita de lo modelo. Una entidad estatal a ready luego se convierte en la siguiente voz activa indique a la entidad. a la larga no hay posibilidad de más acción en el tiempo actual.
.


6.3 la lista futura de acontecimientos.

Las entidades en el estado de retraso de tiempo pertenecen a una lista sola en cuál está inserto al principio de su tiempo basado. Esta lista, designado los acontecimientos futuros lista (la bilis) aquí, es usualmente ordenado por rango aumentando tiempo de maniobra de entidad. (el tiempo de maniobra es el tiempo simulado en el cual una entidad es programado para intentar moverse otra vez.) en el tiempo de inserción de entidad en la bilis, el tiempo de maniobra de la entidad se calcula por ahí añadiéndole el valor del reloj de simulación a lo sabido (probada) la duración del retraso basado en tiempos. después de que una fase de movimiento de entidad se acabe, el reloj la fase de actualización establece el valor del reloj para el tiempo de maniobra de lo más alto la entidad ordenada por rango de la bilis (el tiempo menor de maniobra.

6.4 atrasan a listas.

Las listas de retraso son listas de entidades en lo atrasado el estado estas entidades están esperando a que una condición venga aproximadamente (e.g., aguardando su turno para usar una máquina) así es que pueden sea transferido automáticamente en el estado listo en lo los acontecimientos del día escoran las listas de retraso, cuáles son generalmente creados automáticamente por el software de simulación, está bajo la dirección de acostumbrar relacionó aguardada de espera o encuestada si un retraso puede relacionarse fácilmente para los acontecimientos en el modelo eso podría resolver la condición, luego relacionó lata de espera úsese para operar la lista de retraso. por ejemplo, suponga uno los cambios de estado de la máquina de ocupado para haraganear. en la respuesta, el software automáticamente puede quitar a la siguiente entidad de espera de la lista correcta de retraso y opción de venta eso en dinero contante y sonante el estado en la lista de acontecimientos del día. la aguardada relacionada es lo el acercamiento prevaleciente acostumbró manejar retrasos condicionales. si la condición de retraso es demasiado complicada para relacionarse fácilmente para los acontecimientos que lo podrían resolver, dio el voto que esperando puede ser usado.

6.5 listas operadas por usuario.

Las listas operadas por usuario son listas de entidades en el dormant el estado, el modelador debe tomar medidas para establecer tales listas y provee la lógica necesitada para transferir a las entidades a y de las listas. (el software subyacente no tiene la forma para sepa por qué son las entidades metidas en las listas operadas por usuario y así no tiene base para remover entidades de tales listas.)

7 La implementación en tres herramientas.
Las herramientas escogidas para comentario en los detalles de implementación es automod, versión 9 (phillips 1997); slx, liberación 1 (henriksen 1999); y extend, versión 4.1 (krahl
y lamperti 1997) una versión previa de este periódico siman (pegden, (schriber y brunner 1996) cubierto shannon y sadowski, 1995), promodel (la corporación promodel
1995), y / el hidrógeno de spges (crain y henriksen 1999) en el detalle similar. estos cinco están entre más que cuarenta las herramientas reportaron en 2001 para la simulación de acontecimiento discreto (el galanteador 2003) algunas otras herramientas podrían ser mejor adecuado que cualquier de estos para las actividades particulares de modelado, pero piensan eso estas herramientas son descriptivas.


Las listas son colocadas inmediatamente en el . La inserción la regla es apestar primero por la prioridad (la prioridad es un atributo incorporado de cada carga) y entonces primero en entrar primero en salir dentro de la prioridad cuando el cel se vuelve vacío, el retraso de condición la lista (la sede debajo de) es comprobada, y las cargas pueden ser transferidas de allí para el cel esto continúa hasta el cel es vacíe y ninguna de las más cargas pueden ser transferidas.

7.1.3. las listas de retraso (dl) son listas de cargas de espera para reclamar aptitud de un elemento finito de aptitud (un recurso o elemento de control como un recurso individual, la cola, el bloque, en dirección opuesta, o el proceso). cada elemento finito de aptitud dentro el modelo le tiene a un dl asociado con a él la aguardada que resulta de este mecanismo se relaciona esperando. cada vez que la aptitud es liberada, una carga de la cabeza del dl del elemento se hace tentativamente colocado en el cel (pero uno el placeholder queda sobre el dl) , cuando ese load es encontrado durante el emp, intenta reclamar la aptitud pedida si fracasa (por ejemplo porque quiere dos unidades pero sólo uno es gratis). Inmediatamente después de esta evaluación, si allí una aptitud, la siguiente carga en el dl es colocada en el cel.

7.1.4 la lista de retraso de condición

Para la aguardada condicional aparte de los cinco casos enumerados arriba, automod tiene una espera hasta declaración que los resultados en la aguardada encuestada espere hasta las condiciones puede ser los operadores utilizadores combinados bolean si una carga ejecuta uno espere hasta y la condición es falsa, la carga es acomodada en un automod global solo la lista llamó la condición la lista de retraso (cdl).Después de que el cel haya sido vaciado, pero antes de la simulación el reloj progresa, todas las cargas en el cdl son movidas para el cel (realmente, el cdl "se convierte en" el cel) si allí ha sido un cambio estatal para al menos un elemento de lo mismo el tipo general (e.g. la cola) que cualquier carga en el cdl es en espera de (este mecanismo está primordialmente "empadronado" adentro lo el sentido en el cual ese término es usado en este periódico, aunque lo el mecanismo global de disparo se relaciona.) si el cel es ahora poco vacío luego el emp vuelve a la carga si la condición a la que un cel load está esperando es falsa, las maniobras automod que load de la lista actual de acontecimiento de regreso al cdl.m el cdl en algunos casos puede quedar vaciado
las veces múltiples durante un emp hasta eventualmente el cel se vacía sin haber provocado un cambio estatal relatado para cualquier carga en el cdl. una taza luego ocurre Bpor el potencial para la migración repetitiva de la lista con espera hasta, el vendedor de automod promueve el uso de listas de orden u otros mecanismos de control explícitos para maneje complejo esperando

l 7.1.6 Automod tiene un número de construcciones materiales de manejo que es integrado con movimiento de carga. para los sistemas del vehículo hay tres otros tipos de listas carga en carga ready las listas (lrl) (una lista por el sistema del vehículo) está esperando ser escogido levantado por un vehículo. las cargas reclamaron (pero todavía no escogido arriba) por un vehículo resida en el vehículo del vehículo lista de reclamo (vcl) afirmaron que las cargas que han sido recogidas residen adelante vehicle onboard list del vehículo (vol) el vehículo luego se convierte en la "carga" en ejecución y se mueve entre automod las listas (la bilis, cel, y posiblemente dls) en lugar de la carga.

7.2 slx
slx es un lenguaje jerárquico en el cual los hombres primitivos incorporados está en un nivel inferior que la mayoría de lenguajes de simulación, facilitando la definición del usuario (o el desarrollador) del comportamiento de muchos elementos de sistema. esta filosofía del diseño da rienda suelta a que lo el desarrollador slx para crear más alto nivel modelando herramientas cuyas las construcciones precisamente han definido aún comportamiento modificable los equivalentes para los términos genéricos para usuarios de lowlevel slx recibe en mesa 2.
por ejemplo, slx acostumbra el control variables a actuar como elementos de control. el "control" el modificador puede estar apegado a una variable global o local de cualquier tipo de datos (el entero, verdadero, la cuerda, etc.), (una variable local es análogo para un atributo en otras herramientas.) reparo en que slx tiene dos tipos de objetos: la voz activa y el pasivo un objeto en ejecución es distinguido de un pasivo objete por la presencia de acciones declaraciones  ejecutables  en la definición de clase de un objeto en ejecución (aun sin acciones, los objetos pasivos son útiles en su derecho, funcionando como las estructuras complicadas de datos creados por el usuario.)

7.2.1 el current events chain.

la lista de acontecimientos del día es nombrada el current events Caín (el centro de intercambio de productos básicos) en slx, los miembros del centro de intercambio de productos básicos reciben lo interesante nombre a los duendes traviesos ¿qué es un duende travieso? slx desintegra el concepto de una voz activa objete (con sus datos locales asociados) de un duende travieso cuál es la "entidad en movimiento" que ejecuta las acciones, lleva su propia entidad programando datos, y emigra de lista para escorar. el efecto de esta disociación es que un objeto solo la lata "propio" más que un duende travieso. todos los duendes traviesos poseídos por un soltero la parte del objeto los datos locales del objeto (los atributos) para el ejemplo, una aplicación de este "paralelismo local" característica (en comparación con el "paralelismo global" ofrecido por ahí forme un clon o desdoble acciones en otros lenguajes) es el uso de un segundo duende travieso para disimular un tiempo de obstáculo mientras el original el disco de goma está esperando a alguna condición activar un objeto nuevo crea a un duende travieso y lanza a ese duende travieso hacia las acciones. en muchos casos no adicionales los discos de goma están alguna vez creados, y la combinación de uno el objeto en ejecución y sus formas duendes traviesas el equivalente para una entidad en la terminología de este periódico. (los objetos pasivos tienen ninguna de las acciones y por eso propio ninguno de los duendes traviesos.)
los duendes traviesos recién activados duendes traviesos, dejando la bilis debido a una actualización del reloj, y duendes traviesos reactivados (vea a 7.2.4) son colocados inmediatamente en el centro de intercambio de productos básicos el centro de intercambio de productos básicos es salida en orden de entrada ordenada por rango por la prioridad, el centro de intercambio de productos básicos slx está vacío cuando un emp fenece.

7.2.2 la lista futura de acontecimientos.

El slx que los acontecimientos futuros la lista (la bilis) está como acontecimientos futuros
apunta en la lista otras herramientas los discos de goma llegan en la bilis en el tiempo el estado atrasado ejecutando una declaración de avanzada el slx cup quitará a los duendes traviesos múltiples de lo fec si están atados para el tiempo más anticipado de maniobra, insertando ellos uno por uno en su lugar correcto en el centro de intercambio de productos básicos porque los hombres primitivos de bajo nivel en slx no incluyen los períodos de inactividad por fallas o aun la generación duende traviesa repetitiva (las llegadas programadas), toda actividad en el slx fel se desarrolla como especificó por el desarrollador del modelo slx , sin embargo, si un usuario está usando un modelo (o un constructor modelo) que contiene el nivel más alto que los hombres primitivos definieron por un desarrollador, los acasos son que toda clase de cosas frisan detrás de las escenas, escondidas de vista del usuario ecuánime más alto.

7.2.3 delay escora.

Las listas de retraso (a través de la espera (dl) son listas de duendes traviesos esperando hasta) para estado cambia en cualquier combinación de control las variables y la simulación cronometran valor. una aguardada duende traviesa para una condición compuesta involucrando dos o más control las variables se encuentran enumeradas en más que un dl. todo nivel más alto las construcciones definidas por desarrolladores pueden usar este mecanismo, cada uno controla variable (cuál puede ser una variable local, adentro cuál caso allí es uno para cada objeto en la clase) tiene uno dl separado se asoció con eso, un dl es ordenado por rango por orden de inserción. el contenido entero de un dl está removido cuandoquiera el control asociado la variable cambia valor y está inserto uno de cada vez en
el centro de intercambio de productos básicos , las condiciones son también tentativamente removidas de cada uno de los rangos.
.
7.2.4 se sedimenta y aguardada manejada por usuario.

slx manipula al estado inactivo en una forma única. la lista y suspendiendo eso, todo en la misma operación, slx quebranta esta operación en dos pedazos, el disco de goma y ejecuta uno reactiva declaración en él. a menudo, el disco de goma no podría formar parte de ninguno de los sets (tan largo como un puntero para ha sido escondido en reserva a alguna parte) o de uno o más sets un desarrollador slx fácilmente puede definir uno manejado por usuario la construcción de la lista, los sets utilizadores, la espera, y se reactivan como los bloques constructivos, eso las mímicas esos de otros lenguajes ofrezca características únicas del suyo.
.
7.2.2 la lista futura de acontecimientos.

E l slx que los acontecimientos futuros la lista (la bilis) está como acontecimientos futuros
apunta en la lista otras herramientas. los discos de goma llegan en la bilis en el tiempo el estado atrasado ejecutando una declaración de avanzada el slx cup quitará a los duendes traviesos múltiples de lo fec si están atados para el tiempo más anticipado de maniobra, insertando ellos uno por uno en su lugar correcto en el centro de intercambio de productos básicos porque los hombres primitivos de bajo nivel en slx no incluyen los períodos de inactividad por fallas o aun la generación duende traviesa repetitiva (las llegadas programadas), toda actividad en el slx fel se desarrolla como especificó por el desarrollador del modelo slx. sin embargo, si un usuario está usando un modelo (o un constructor modelo) que contiene el nivel más alto que los hombres primitivos definieron por un desarrollador, los acasos son que toda clase de cosas frisan detrás de las escenas, escondidas de vista del usuario ecuánime más alto.
7.2.4 se sedimenta y aguardada manejada por usuario.
slx manipula al estado inactivo en una forma única. en lugar de moviendo al duende travieso del estado activo a uno manejado por usuario la lista y suspendiendo eso, todo en la misma operación, slx quebranta esta operación en dos pedazos primer, que el duende travieso debería unir un set excepto unir un set automáticamente no suspende al duende travieso, el disco de goma no podría formar parte de ninguno de los sets (tan largo como un puntero para que ha sido escondido en reserva a alguna parte) o de uno o más sets, un desarrollador slx fácilmente puede definir uno manejado por usuario la construcción de la lista, los sets utilizadores, la espera, y se reactivan como los bloques constructivos, eso las mímicas esos de otros lenguajes que ofrezca características únicas del suyo.

LA DISTRIBUCION DE LOS SISTEMAS DE SIMULACIÓN


ABSTRACTO

Una apreciación global de tecnologías tuvo relación con distribuir la ejecución de programas de la simulación por los procesadores múltiples se presenta. Aquí, el énfasis particular se pone adelante discreto las simulaciones de evento. La Arquitectura Nivelada Alta (HLA) desarrolló por el Departamento de Defensa en los Estados Unidos se describe para proporcionar un ejemplo concreto de un contemporáneo primero acérquese a la simulación distribuida. El resto de este papel se enfoca dirección, un problema central, a tiempo acerca de la sincronización de cómputos en diferente los procesadores. Cronometre ampliamente que los algoritmos de dirección se caen en dos categorías, termed la sincronización conservadora y optimista.
Un estudio de algoritmos conservadores y optimistas se presenta la convergencia en los principios fundamentales y los mecanismos. Finalmente, la dirección de tiempo en el HLA se discute como unos medios para ilustrar cómo esta norma apoya ambos acercamientos a la sincronización.






INTRODUCCION


Aquí, el término distribuyó la simulación se refiere a distribuir la ejecución de una sola carrera de un programa de la simulación por los procesadores múltiples. Esto abarca varios diferentes las dimensiones. Una dimensión involucra la motivación por distribuir la ejecución. Un paradigma, a menudo se refirió a como la simulación paralela, preocupaciones la ejecución de la simulación en un sistema de la computadora herméticamente acoplado, por ejemplo, un supercomputer o un multiprocesador de memoria compartido. Aquí, la razón principal por distribuir la ejecución es para reducir la longitud de tiempo para ejecutar la simulación. En principal, distribuyendo la ejecución de un cómputo por los procesadores de N, uno puede completar el cómputo a tiempos de N más rápidamente que si se ejecutara en un solo procesador. Otra razón por distribuir la ejecución en esto la moda es permitir ejecutar las simulaciones más grandes que podría ejecutarse en una sola computadora. Cuando confinó a un solo sistema de la computadora, no puede haber bastante memoria para realizar la simulación. Distribuyendo la ejecución por las máquinas múltiples la memoria permite de muchos los sistemas de la computadora ser utilizado. Otra dimensión que diferencia la simulación distribuida los paradigmas son la magnitud geográfica encima de que el la simulación ejecuta. A menudo las simulaciones distribuidas son ejecutadas encima de las áreas geográficas anchas. Esto es particularmente útil cuando el personal y/o recursos (por ejemplo, bases de datos o los medios especializados) es incluido en la simulación distribuida el ejercicio. La ejecución distribuida elimina la necesidad para éstos el personal y recursos para ser físicamente el colocado, representando unas economías del costo enormes. Distribuido simulaciones que operan encima de la Internet tiene crean un el mercado enorme para la industria del juego por dinero electrónica. A el contrario que las simulaciones de la actuación extremas, altas pueden ejecute en computadoras del multiprocesador confinadas a un solo armario o cuarto de la máquina. Cerca la proximidad es necesaria a reduzca el retraso para las comunicaciones del enterrar-procesador que podría degradar por otra parte severamente la actuación. Estas simulaciones de la actuación altas requieren a menudo demasiado la comunicación entre los procesadores, haciendo geográficamente la ejecución distribuida demasiado ineficaz. Históricamente, el término distribuyó que la simulación se ha usado a menudo para referirse a geográficamente las simulaciones distribuidas, mientras la simulación paralela tradicionalmente se referido a simulaciones ejecutadas adelante un la computadora paralela herméticamente acoplada, sin embargo, con nuevo los paradigmas computando como los racimos de puestos de trabajo y el reja computando, esta distinción se ha puesto menos clara, para que nosotros usamos que el solo término distribuyó la simulación aquí para referirse a todas las categorías de ejecución distribuida.
El resto de este papel es organizado como sigue. Primero, una vista histórica de tecnología de la simulación distribuida y cómo ha evolucionado encima del último veinte a treinta años se presentan brevemente. La Arquitectura Nivelada Alta es presentada para introducir aspectos de un acercamiento contemporáneo a la simulación distribuida. El resto de este papel enfoca en el problema de la sincronización, y dirección de tiempo algoritmos que se han desarrollado para dirigirse esto el problema. Un tratamiento más detallado, comprensivo de éstos los temas se presentan en (Fujimoto 2000). Ciertas secciones de este material del préstamo tutelar presentó en (Fujimoto 2001).


PERSPECTIVA HISTÓRICA

La tecnología de la simulación distribuida ha desarrollado grandemente independientemente en por lo menos tres comunidades separadas: la actuación alta que computa la comunidad, la defensa, la comunidad, y la industria de Internet/gaming. Cada uno de éstos se discuten brevemente luego. La simulación distribuida en la informática de la actuación alta la comunidad originó en los tarde 1970 y temprano 1980, enfocando en los algoritmos de la sincronización (ahora se refirió a como la dirección de tiempo). El algoritmo de la Sincronización por la mayor parte, se diseñó para que el distribuido la ejecución para producir los mismos resultados exactamente como un secuencial la ejecución del programa de la simulación, excepto (esperanzadamente) más rápidamente. Los algoritmos iniciales utilizaron lo que es sepa llamado un paradigma conservador, mientras significando se usaron los mecanismos bloqueando para no asegurar ninguna sincronización los errores (evento descompuesto que procesa) ocurrió. La inicial los algoritmos fechan atrás a los tarde 1970 con el trabajo seminal por (Chandy y Misra 1978), y (Bryant 1977), entre otros, quién se acredita con formular la sincronización primero el problema y desarrollando las primeras soluciones. Estos algoritmos están entre una clase de algoritmos que son hoy llamados las técnicas de la sincronización conservadoras. En principios del 1980 trabajo seminal por Jefferson y Sowizral desarrolló el Time Urdimbre algoritmo (Jefferson 1985). La Warp de Time es importante porque definió el principio las estructuras usaron ampliamente en una clase de algoritmos el termed la sincronización optimista. Conservador y optimista las técnicas de la sincronización forman el centro de un grande el cuerpo de trabajo que involucra la simulación de evento discreta paralela las técnicas, y mucho del trabajo subsecuente en el campo es basado en esta investigación inicial.
El trabajo de la comunidad de la defensa en la simulación distribuida los sistemas fechan atrás al SIMNET (Simulador que Conecta una red de computadoras) el proyecto. Mientras la informática de la actuación alta la comunidad estaba principalmente interesada con reducir la ejecución tiempo, la comunidad de la defensa se preocupaba por integrar las simulaciones de entrenamiento separadas para facilitar el interoperability y el software rehúsa.

EL NIVEL ALTO DE LA ARQUITECTURA

La Arquitectura Nivelada Alta (HLA) se desarrolló en el medio 1990. Se piensa que promueve rehusé e interoperation de simulaciones. El esfuerzo de HLA era basado adelante el establezca como premisas que nadie la simulación podría satisfacer todos los usos y las aplicaciones para la comunidad de la Defensa. El intento del HLA es proporcionar una estructura que los apoyos rehúsan de diferente las simulaciones, reduciendo el costo finalmente y tiempo requirió para crear un ambiente sintético para un nuevo propósito. Una introducción al HLA se presenta en (Kuhl, Weatherly, el al del et. 1999). Aunque desarrolló en el contexto de aplicación de la defensa, se pensaba que el HLA tenía la pertinencia por un el rango ancho de áreas de aplicación de simulación, incluso la educación, y entrenando, el análisis, la ingeniería y la función igual, a una variedad de niveles de resolución. Éstos ampliamente las áreas de la aplicación difiriendo indican la variedad de requisitos eso fue considerado en el desarrollo y evolución del HLA.

REGLAS DEL HLA

Las reglas de HLA resumen los principios importantes detrás del HLA (IEEE Std 1516-2000 2000). Las reglas son dividido en dos grupos: la federación y federa las reglas. Las federaciones se exigen definir a un Modelo de Objeto de Federación (FOM) especificado en el Objeto la Plantilla Ejemplar (OMT) el formato. El FOM caracteriza la información (los objetos) eso es visible por más de uno federe. Durante la ejecución de la federación, toda la representación del objeto debe residir dentro del federa (no el RTI). Único federa pueda ponga al día el attribute(s) de cualquier caso de un objeto a cualquiera el tiempo dado. Esto federa es el termed el dueño del atributo, y la propiedad puede transferir de uno federe a otro durante la ejecución de la federación vía la propiedad los servicios de dirección definieron en la Interfaz La especificación. Toda la información intercambia entre el federa las tomas ponen vía el RTI que usa los servicios definió en los HLA unen la especificación.

Modelos del objeto

HLA objetan que modelos son descripciones del sharable esencial los elementos de la federación en ‘objetan las condiciones de '. El HLA se dirige hacia el interoperability; de en el HLA, objeto se piensan que modelos enfoquen en la descripción del los aspectos críticos de simulaciones y federaciones que son compartido por una federación. El HLA no pone los constreñimientos en el volumen de los modelos del objeto. El HLA requiere que cada uno federa y documento de la federación su objeto modelo que usa un objeto normal la plantilla ejemplar (IEEE Std 1516.2-2000 2000). Se piensa que estas plantillas son el los medios para información abierta que comparte por la comunidad facilitar rehúsan de simulaciones.

La Especificación de la Interfaz

Los HLA unen que la especificación describe los servicios del runtime con tal de que al federa por el RTI, y por el federa al RTI (IEEE Std 1516.3-2000 2000). Hay seis clases de servicios. Los servicios de dirección de federación ofertan que las funciones básicas exigieron a crear y a operar una federación. La dirección de la declaración repara apoye eficaz la dirección de intercambio de los datos a través de la información con tal deque por federa definiendo los datos ellos quieren proporcione y requiera durante una ejecución de la federación. Los servicios de dirección de objeto proporcionan creación, la tachadura, la identificación y otros servicios al nivel del objeto. La propiedad la dirección repara los apoyos el traslado dinámico de propiedad de object/attributes durante una ejecución. La dirección de Tiempo repara sincronización de apoyo de runtime el intercambio de datos de simulación. Finalmente, distribución de los datos la dirección repara el apoyo la asignación de ruta eficaz de datos entre federa durante el curso de una ejecución de la federación. Los HLA unen que la especificación define la manera estos servicios se acceden, ambos funcionalmente y en una aplicación la interfaz de programador (API).

DIRECCION DE TIEMPO

La dirección de Tiempo se preocupa por asegurar que la ejecución de la simulación distribuida se sincroniza propiamente. Esto es particularmente importante para simulaciones usadas para el análisis (como el entrenamiento opuesto dónde errores que no son perceptible a humanos que participan en el ejercicio puede ser aceptable). La dirección de Time no sólo asegura eso se procesan los eventos en un orden correcto, pero también las ayudas a asegure eso repitió ejecuciones de una simulación con el las mismas entradas producen los mismos resultados exactamente. Actualmente, cronometre las técnicas de dirección como aquéllos describió aquí no se usa típicamente entrenando las simulaciones dónde incorrecto las clasificaciones de evento y ejecuciones de simulación de non-repeatable normalmente puede tolerarse. Normalmente Cronometre los algoritmos de dirección asumen el la simulación consiste en una colección de procesos lógicos (LPs) eso comunica intercambiando los mensajes del timestamped o eventos. En el contexto del HLA, cada uno federa puede verse como un solo LP. La meta de la sincronización el mecanismo es asegurar que cada LP procesa los eventos en el orden del timestamp. Este requisito es llamado el constreñimiento de causalidad local. Eventos ignorando que contienen exactamente la misma estampa de tiempo, puede mostrarse que si cada LP adhiere al constreñimiento de causalidad local, ejecución del el programa de la simulación en una computadora paralela producirá exactamente los mismos resultados como una ejecución en un secuencial computadora dónde todos los eventos se procesan el orden de la estampa a tiempo. Esta propiedad también ayuda asegurar que la ejecución de la simulación el respetable es; uno sólo necesita asegure el cómputo asociado con cada evento es el respetable.

CONCERVACION DEL TIEMPO DE DIRECCION


Los primeros algoritmos de la sincronización eran basados en el conservador los acercamientos. La tarea principal de cualquier conservador el protocolo es determinar cuando es “seguro” para procesar un evento. Se dice que un evento está seguro cuando enlata una garantía ningún evento que contiene una estampa de tiempo más pequeña será después recibido por este LP. Los acercamientos conservadores hacen no le permita a un LP procesar un evento hasta que haya sido garantizado estar seguro. Al corazón de más algoritmos de la sincronización conservadores es el cómputo para cada LP de un Más bajo Límite en la Stamp de Time (LBTS) de mensajes futuros que pueden después se reciba por ese LP. Esto permite el mecanismo a determine qué eventos están seguros procesar.

Los Mensajes nulos y Anulación del Bloqueo

Los algoritmos describieron en (Bryant 1977; Chandy y Misra 1978) estaba entre los primeros algoritmos de la sincronización eso fue desarrollado. Ellos asumen el topología indicando qué LPs envían mensajes a que otros son fijos y prior conocido a la ejecución. Es supuesto que cada LP envía los mensajes con las estampas de tiempo non-decrecientes, y la comunicación la red asegura que los mensajes se reciben en el mismo orden que les enviaron. Esto garantiza eso los mensajes en cada eslabón entrante de un LP llegan al timestamp el orden. Esto implica que el timestamp del último mensaje recibido en un eslabón es un más bajo límite en el timestamp de cualquier mensaje subsecuente que se recibirá después en ese eslabón. Así, los LBTS valoran para un LP es simplemente el mínimo entre el LBTS valora de su entrante los eslabones.

El Próximo Evento aprovechándose de la Información de Timestamp

La desventaja principal con el algoritmo del mensaje nulo es él puede generar un número excesivo de mensajes nulos. Considere una simulación que contiene dos LPs. Suponga que los dos son bloqueado, cada uno ha alcanzado la simulación tiempo 100, y cada uno tiene un igual del lookahead a 1. Suponga los próximos un proceso el evento en la simulación tiene una estampa de tiempo de 200. El nulo el algoritmo del mensaje producirá mensajes nulos intercambiados entre el LPs con tiempo estampa 101, 102, 103, y así sucesivamente. Esto continuará hasta que los LPs adelanten a tiempo de la simulación 200, cuando el evento con tiempo estampa 200 puede procesarse ahora. Deben enviarse cien mensajes nulos y deben procesarse entre los dos LPs antes del mensaje non-nulo puede procesarse. Esto es claramente muy ineficaz. El problema se pone severo más aun si hay muchos LPs. El problema principal es el algoritmo usa sólo el tiempo de la simulación actual de cada LP y lookahead para predecir la estampa de tiempo mínima de mensajes que podría generar en el futuro. Para resolver este problema, nosotros observamos que el pedazo importante de información que se requiere es la estampa de tiempo del próximo evento del un proceso dentro de cada LP. Si el LPs pueda reconocer colectivamente que este evento tiene la estampa de tiempo 200, todo el LPs podría adelantar inmediatamente de la simulación tiempo 100 para cronometrar 200. Así, el tiempo del próximo el evento por la simulación entera proporciona la información crítica eso evita el “tiempo que se arrastra” el problema en el nulo el algoritmo del mensaje. Esta idea se explota en más adelantado los algoritmos de la sincronización.

EL TIEMPO OPTIMISTA DE LA DIRECCION

En contraste con acercamientos conservadores que evitan las violaciones del constreñimiento de causalidad local, los métodos optimistas permiten las violaciones para ocurrir, pero puede descubrir y recuperar de ellos. La oferta de los acercamientos optimista dos ventajas importantes encima de las técnicas conservadoras. Primero, ellos pueden aprovecharse de los grados mayores de paralelismo. Si dos eventos podrían afectar nosotros, pero los cómputos son tales que ellos realmente no hagan, los mecanismos optimistas pueden procesar los eventos concurrentemente, mientras los métodos conservadores deben ser secuenciales la ejecución. Segundo, el mecanismo conservador generalmente cuenta en la aplicación la información específica (por ejemplo, distancie entre los objetos) para determinar qué eventos están seguros a el proceso. Mientras los mecanismos optimistas pueden ejecutar más eficazmente si ellos se aprovechan de la tal información, ellos son menos confiados en la tal información para la ejecución correcta. Esto permite el mecanismo de la sincronización para ser más transparente al programa de la aplicación que los acercamientos conservadores, el desarrollo del software simplificando. En el otro dé, los métodos optimistas pueden requerir los cómputos más arriba que los acercamientos conservadores, llevando a cierto, las degradaciones de la actuación. El Time Urdimbre mecanismo (Jefferson 1985) es el método optimista bien conocido. Cuando un LP recibe un evento con el timestamp más pequeño que uno o más eventos él ya ha procesado, rueda atrás y reelabora aquéllos los eventos en el orden del timestamp. Rodante atrás un evento involucra restaurando el estado del LP a lo a que existió antes de procesando el evento (se toman los puntos de control para este propósito), y “el unsending” mensajes enviados atrás por los rodamos los eventos. Un mecanismo elegante llamado los anti-mensajes es con tal de que a “el unsend” los mensajes. Un anti-mensaje es una copia doble de un previamente el mensaje enviado. Siempre que un anti-mensaje y su emparejando (positivo) el mensaje es los dos guardados en la misma cola, el se anulan dos (aniquiló). A “el unsend” un mensaje, un la necesidad del proceso sólo envía el anti-mensaje correspondiente. Si el mensaje positivo emparejando ya se ha procesado, el proceso del receptor se rueda atrasado, mientras produciendo adicional posiblemente los anti-mensajes. Usando este procedimiento del recursive todos se borrarán efectos del mensaje erróneo en el futuro.

La Dirección de Tiempo en el HLA

El HLA proporciona un juego de servicios para apoyar la dirección de tiempo. Una consideración principal definiendo estos servicios era la observación que diferente federa puede usar los mecanismos de dirección de tiempo locales diferentes y tiene diferente los requisitos para mensaje que pide y tarda. Dos las categorías mayores surgieron. Una clase de simulaciones sea diseñado a los ambientes virtuales creados por entrenar y la prueba y evaluación (por ejemplo, hardware-en-el-vuelta) las aplicaciones.
La ejecución de estas simulaciones es el paced por el wallclock tiempo, y algoritmos de la sincronización para garantizar la clasificación de estampa de tiempo de eventos no se usa típicamente. Los retrasos bajos, predecibles logrando para transmitir los mensajes son importantes. Una segunda clase de simulaciones es aquéllos que requieren los algoritmos de la sincronización, en parte asegurar apropiado, pidiendo de eventos, y en parte como un medios para asegurar eso las ejecuciones son los repeatable, es decir, las ejecuciones múltiples del la misma simulación con las mismas entradas rinde exactamente el los mismos resultados. Estas simulaciones pueden usar evento caminado o tiempo anduvo los mecanismos de la ejecución localmente. Era prevea que alguno federa puede estar ejecutando adelante un paralelo el procesador, y puede estar usando al conservador u optimista los mecanismos de la sincronización dentro de su federe. El HLA cronometran se diseñaron los servicios de dirección para acomodar esta variedad ancha de aplicaciones. Hay dos elementos principales del tiempo de HLA los servicios de dirección: el mensaje pidiendo, y adelanto de tiempo los mecanismos. El HLA apoya dos tipos de pedir: reciba la comunicación pedida, y orden de estampa de tiempo. Con reciba la comunicación pedida, ninguna garantía se proporciona por el RTI acerca del orden que los mensajes son entregado a un federe; ellos se entregan esencialmente en el orden que ellos se reciben. Esto minimiza la latencia a transmita los mensajes a través del RTI, y es la clasificación típicamente usado para el entrenamiento del real-tiempo ejerce y prueba y las aplicaciones de la evaluación. Con la clasificación de estampa de tiempo, cada uno el mensaje se asigna por el remitente una estampa de tiempo, y mensajes se entrega al federe el orden de la estampa a tiempo. En algunas situaciones en que el RTI puede necesitar al pulidor el mensaje pida para garantizar que no recibirá un mensaje después con una estampa de tiempo más pequeña antes de entregarlo al federe. Así, la latencia por transmitir los mensajes puede ser más grande al usar la clasificación de estampa de tiempo. El orden de estampa de Tiempo normalmente se usa para aplicaciones del análisis que son a menudo no los paced por el wallclock cronometran dónde la clasificación correcta de los eventos y ejecución del repeatable son importantes. Los HLA cronometran los mecanismos de antemano se comprenden por un ponga de servicios por adelantar la simulación (o lógico) tiempo.
Un protocolo se define donde federa la demanda un adelanto de tiempo, y el RTI emite una Time Adelanto Concesión cuando el la demanda puede honrarse. El RTI asegura que un federe es no adelantó a tiempo de la simulación T, hasta que pueda garantizar que ninguna estampa de tiempo pidió los mensajes con más tarde llegue con la estampa de tiempo menos de T.

CONCLUSIONES

Empezando con la investigación y esfuerzos de desarrollo en el 1970, investigue en los sistemas de la simulación distribuidos ha madurado durante los años. Mucha de la investigación temprana en esto el área se motivó puramente por las consideraciones de la actuación. Como las velocidades del procesador aumentar a han continuado un exponencial el paso, actuación solo se ha vuelto menos de un el factor motivando en los recientes años. Para muchos problemas tal como la simulación de redes de gran potencia como la Internet, la actuación sigue siendo un objetivo motivando principal, sin embargo, mucho interés en esta tecnología hoy los tallos de las promesas de economías del costo que son el resultado de modelo reuse. Las normas como IEEE 1516 para la Arquitectura Nivelada Alta demuestre el interés extendido en el uso de la tecnología de la simulación distribuida para este propósito. ¿Cuál es el futuro para la tecnología? Es interesante para especular. Un camino potencial es enfocar en las aplicaciones. Actuación alta que computa los restos un mercado del nicho que los blancos un manojo de importante, cómputo las aplicaciones intensivas. Para los impactos más anchos en la sociedad, uno debe parezca a la función y jugando industria dónde distribuyó la tecnología de la simulación ha visto el más extendido el despliegue, e impacta en la sociedad. Otra vista es observar ese software se maneja a menudo por los adelantos en la tecnología del hardware, y parece al computar surgir las plataformas para definir la dirección la tecnología se volverá. En esta luz, las posiciones de la informática ubicuas fuera como un surgir área dónde la simulación distribuida puede encabezarse. Para el ejemplo, ejecución de simulaciones distribuidas en portátil las computadoras hacen necesario examen de consumo de poder porque la vida de la batería es un constreñimiento mayor en los tales sistemas. El reja computar todavía es otro saliendo el acercamiento dónde las simulaciones distribuidas pueden surgir y pueden tener un impacto.

CENTRO DE SIMULACIÓN PLANEANDO: LOS MÉTODOS, DESAFÍOS, Y OPORTUNIDADES
ABSTRACTO

Los modelos estocásticos usando para planear llaman los funcionamientos del centro, el horario llamada centro personal eficazmente, y analiza proyectado la actuación no es un nuevo fenómeno, mientras fechando atrás a Erlang trabaje en el vigésimo siglo temprano. Sin embargo, varios los factores han conspirado para aumentar la demanda para recientemente llame el análisis de simulación de centro.

*La complejidad creciente en el tráfico de la llamada, acopló con el uso casi ubicuo de Asignación de ruta Habilidad-basado.
*El cambio rápido en los funcionamientos debido a aumentó la fusión y actividad de adquisición, la volatilidad comercial, las opciones del outsourcing, y el cliente múltiple los cauces (el teléfono telefónico, que sale entrante, mande electrónicamente, tejido, charla) para apoyar.
*El escritorio computando más barato, más rápido, combinó con las llamada centro simulación aplicaciones especializadas eso es ahora comercialmente disponible.


INTRODUCCIÓN: “¿POR QUÉ SE LLAMAN CENTROS?”

La tendencia en nuestra economía de fabricar hacia se documentan bien los servicios. Una faceta notable de esto la transición hacia los servicios ha sido la explosión del llame la industria del centro. Mehrotra (1997) define los centros de la llamada como “Cualquier grupo de quien el negocio principal está hablando en el teléfono con clientes o perspectivas.” En este papel, nosotros nos referiremos a los individuos como que hablan por teléfono con clientes “agentes.” Mientras el tamaño de la industria es con precisión difícil a determine, una plétora de estadísticas de las fuentes diversas refleja ese hecho que ésta es una industria global grande y creciente.
La mayoría que aturde: Mandelbaum (2001) cita un estudio que un estimó 3% de la población de Estados Unidos trabaja en esta industria. Más reciente: una explosión de llamada del outsourced centros que saltan a en India, las Filipinas, el Caribe, y América Latina, sirviendo a los clientes extranjeros en el Estados Unidos y Europa Occidental así como creciendo doméstico las necesidades del mercado.

DIRECCIÓN DEL CENTRO, LOS DESAFÍOS Y LA NECESIDAD PARA MODELOS


Esos responsable para la cara de centros de llamada gerente un mismo el juego difícil de desafíos. A un nivel alto, ellos deben golpear un equilibrio entre tres intereses compitiendo poderosos.

En una base diaria, mientras guardando simultáneamente los costos, la calidad de servicio, y satisfacción del empleado, estos ejecutivos, y gerentes deben (implícitamente o explícitamente) la respuesta varias preguntas importantes para que la decisión modelos de apoyo sea valiosa:

Cuántos agentes nosotros debemos tener en el personal
¿Qué habilidades particulares?
¿Cómo nosotros debemos fijar?
¿Cómo nosotros debemos cruz-entrenar a nuestros agentes?

¿COMO SE USA LA SIMULACION EN LOS CENTROS?

Hay tres maneras mayores que la simulación se utiliza dentro de la industria de centro de llamada:
1. el Análisis de la Simulación tradicional: Una simulación modelo se construye para analizar un funcionamiento específico, con las entradas obtuvieron de una variedad de fuentes de los datos.
2. la Aplicación incluido-la Asignación de ruta de ACD/CTI:
Muchas de los ACD principales y aplicaciones de CTI incluya una simulación de la asignación de ruta para proporcionar las visiones a derrotando el plan diseña sobre el impacto de diferente las decisiones.
3. la Aplicación incluido-Agente Scheduling: Ya un problema de planificación complejo (vea Andrews y Sacerdotes 1989 para una discusión más detallada), la llamada centro agente fijar óptimo es más aun complejo cuando llama y agentes son los no homogéneos. Muchos software de planificación comercial las aplicaciones, incluso el desarrollado por los autores la compañía de ', haga uso de simulación como la parte de su artefacto de optimización global.

CENTRO DE SIMULACIÓN MODELADO

Armazón

El desafío más grande de llamada centro simulación planear es la definición y organización de entradas ejemplares.
En las secciones debajo de, nosotros discutimos estas áreas de la entrada importantes en más detalle. En el proceso, nosotros usaremos nuestro ejemplo planee para ilustrar estos conceptos modelados.

Las Entradas de la llave: Las Definiciones de la cola, Tiempo, El período, y Derrotando la Lógica

Los ladrillos básicos de un llamada centro simulación modelo es las llamadas, los agentes, y el período de tiempo durante que el centro de la llamada está abierto. A su vez, la lógica de la asignación de ruta básica conecta la manera durante que las llamadas actúan recíprocamente con las personas ese período de tiempo.
Los llamada centro simulación modelos típicos contienen más que una cola (como los solos modelos de la cola ordinariamente se reparte con analíticamente) y corre para un período de un día, uno, semana, o las semanas múltiples.
Nuestro modelo del ejemplo es para un centro de llamada de Colecciones. Como es típico para los centros de la llamada, este funcionamiento es la parte de un más grande el contexto comercial en que acreedores que los archivos de ' están siendo supervisado en una base regular para la delincuencia potencial. Una vez un cliente entra en la delincuencia, varias cosas, pase: (un) se agrega la información sobre la cuenta a una lista de perspectivas para una llamada de las colecciones Que sale; (b) ellos son notificado sobre el estado de su crédito por el correo; y (c) adicional pueden ponerse las limitaciones en la cuenta.

Las Entradas de la llave:

Las Previsiones de la llamada Las previsiones de la llamada son manejadas típicamente por una combinación de histórico los datos, modelo de serie de tiempo, y el juicio especialista. Allí es dos tipos del comandante de previsiones de la llamada: llame los volúmenes y El Manejo del promedio Time. Los dos se requieren para cualquier básico llame la simulación del centro. Debido a la telecomunicación e industrias de centro de llamada ' la historia de usar M/M/n estatal firme hace cola las fórmulas para derivar el número de agentes necesitado para cada intervalo de tiempo, ha sido de costumbre traducir las previsiones de volumen de llamada en los valores de ë para las llegadas de Poisson y AHT prevé en ì los valores durante los tiempos de servicio Exponenciales.

El asa media del tiempo Forecasts


Como mencionado antes, más modelos de centro de llamada asumen eso tiempos de manejo de llamada son exponencialmente distribuidos. Nosotros recomendaría usar la información del distributional más exacta sobre el manejo de la llamada cronometra siempre que posible.
Por ejemplo, es común encontrar la llamada del soporte técnica centre para que llama tiempos del manejo es bi-modal (fácil los casos con una media más corta, casos más duros con uno más largo).
Sin embargo, la razón primaria que la industria de centro de llamada acepta que la asunción de tiempos del manejo exponenciales es porque los ACD y dispositivos de CTI (la fuente primaria para los datos de volumen de llamada históricos) guarden sólo medio manejo tiempos al nivel del intervalo. Con una carestía de segundo consistente la información del momento disponible, nosotros hemos aceptado así esta asunción mucho más a menudo que nos gustaría; en particular, nosotros hemos modelado los tiempos del manejo exponenciales en el ejemplo numérico presentó en Sección 5.
La nota: en este papel, nosotros nos referimos para Promediar el Manejo Tiempo, o AHT. Sin embargo, al obtener los datos de ACD los informes, no es raro encontrar dos campos que son entonces sumado para computar AHT juntos: La media Charla Time (“ATT”) y Después del Trabajo de la Llamada (“ACW”).


Llave Entra: Agente Schedules


Los horarios del agente pueden pensarse de como una serie de actividades el lugar tomando encima del curso de un día. Por ejemplo, un agente que viene a trabajar a las 8:00 es para un cambio de la nueve-hora puede tomar un descanso del 15-minuto a las 9:45 es, el almuerzo a las 11:30 es, un curso de entrenamiento en línea de 1:00-2:00 pm, y un rompa a 3:15 pm antes de dejar el trabajo a 5:00 pm.

Las Entradas de la llave: El abandono
Modelo y Parámetros

El abandono es uno de los temas calurosamente debatidos en llame dirección del centro e investigación. Hay dos básico preguntas a que deben contestarse eficazmente en el orden la conducta de abandono de cliente ejemplar:
1. para qué la tolerancia del cliente es esperando, y a qué punto esta caída del cliente quiere a y ¿por eso deje la cola?
2. cómo probable es el cliente para volver a llamar, y después de ¿cuánto tiempo? Muchos investigadores (por ejemplo Hoffman y Harris 1986, Andrews, y Sacerdotes 1993) ha examinado el desafío de modelando estos problemas de ambos un punto empírico de la vista y de una perspectiva analítica.


Las Entradas de la llave: Agente Skills

Nuestra definición de “Agente Skills” se comprende de tres comandantes los tipos de entradas para cada agente o grupo de agentes:
1. ¿qué llamadas son la agente capaz de manejar?
2. dado una opción de llamadas esperar múltiple, qué legue el asa del agente (“llame la prioridad”)
3. cómo el testamento rápido el agente puede manejar cada uno el tipo de llamada, y qué a menudo lega la resolución del agente el problema con éxito (“llame la habilidad”)
Cuando combinó con derrotar lógica y previsiones de la llamada, estos atributos especifican totalmente que los que planean para ser simulado.





Otras Consideraciones Modeladas

Encogimiento

Se sabe bien que una cierta cantidad de tiempo del agente será perdido, o en los bloques grandes (los unanticipated cambian las cancelaciones, las ausencias del día parciales por las razones personales) o en pequeño los bloques (las llegadas tarde al centro de la llamada, los descansos extra-largos, los viajes al baño). Hay una distinción importante entre dos diferente los tipos de tiempo del agente perdido. En una mano, tiempo del agente que se conoce para ser perdido anterior a la creación y publicación de un horario no lleva puesto el impacto adicional esencialmente el la simulación ejemplar más allá del hecho que este agente particular no es incluido en el horario.


El Detalle adicional para las Colas que salen

Cuando nosotros hemos discutido antes, los workflow asociaron con Las llamadas que sale son muy diferentes que la lógica para Hacia el interior las colas. En el fondo, este tallos de la diferencia modelados del el hecho que las llamadas entrantes son caracterizadas por una llegada aleatoria el modelo; en el contraste, el modelo marcando que sale puede estar fijado excepto cada llamada ofrece un resultado aleatorio (el derecho la fiesta conecta, la fiesta mala conecta, ninguna respuesta). Además, como discutido en Sección 3 sobre, la actuación, métrica asociado con las colas Que sale es bastante diferente (RPCs global logró, en lugar del la cola y estadística de abandono a que se usan típicamente evalúe las colas Entrantes). En el orden a eficazmente estimación el número y modelo de RPCs, modelos de la simulación requieren la información sobre las probabilidades que un dial dado logra un RPC que típicamente varía por tiempo de día como bien cuando el AHT asoció con un RPC.

CONTROLE LAS TÉCNICAS DE LAS VARIANTES PARA LA MONTE CARLO SIMULATION

ABSTRACTO

En este papel nosotros presentamos una apreciación global de resultados clásicos sobre la técnica de la reducción variante de variantes del mando. Nosotros damos énfasis a aspectos de la teoría a que es de importancia el practicante, así como presentando las aplicaciones pertinentes.

INTRODUCCIÓN

El método de variantes del mando es el más ampliamente uno de las técnicas de la reducción variantes usadas. Su popularidad descansa adelante la facilidad de aplicación, la disponibilidad de mandos, y en la intuición recta de la teoría subyacente.
Para guardar la presentación simple, nosotros ideamos los resultados para el caso dónde el parámetro a ser estimado es un el escalar en la escena de terminar las simulaciones, aunque la teoría se extiende a la multi-contestación que pone y al el contexto de simulación de sostener-estado. El énfasis está en crear los intervalos de confianza válidos y en entender la variación reducción lograda por el estimator. Para el resto de Sección 1 nosotros perfilamos el papel y discute la literatura pertinente. En la segunda sección nosotros presentamos la formulación básica de variantes del mando que incluye el hallazgo el coeficiente del mando óptimo y creando un asymptotically el intervalo de confianza válido. Porque el coeficiente del mando óptimo es generalmente desconocido, nosotros discutimos la pérdida de reducción variante causada por su estimación y introduzca la idea de factor de pérdida.
La sección 3 regalos la relación entre el mando las variantes y el método de regresiones. Esta relación es útil para obtener una expresión sobre la variación limitando del estimator de variante de mando de que usa una estimación el coeficiente de variantes de mando óptimo. Nosotros también mostramos el la relación entre la menor regresión de los cuadrados y mando las variantes.
En Sección 4, nosotros discutimos el método de medios del lote como un la manera de superar el prejuicio introdujo en las variantes del mando el estimator cuando las mando variantes coeficiente necesidades óptimas para ser estimado. Nosotros cerramos esa sección presentando un el asymptotically el intervalo de confianza válido.
La sección 5 tratos con las variantes del mando non-lineales. Nosotros showthat que éstos teclean de esquemas del mando son los nomore eficaz, por lo que se refiere a la reducción variante, que las variantes del mando lineales. En la última sección nosotros presentamos algunas aplicaciones de controle las variantes en el reino de finanzas. Nosotros hacemos el uso de los ejemplos para ilustrar el problema más general de encontrando y seleccionando las variantes del mando. La literatura en la teoría y aplicaciones de mando las variantes son bastante extensas, y nosotros no pensamos proporcionar una lista exhaustiva aquí. El papel por Nelson (1990) y el trabajo de Loh (1995) contenga una lista muy completa de pertinente las referencias. Nosotros también recomendamos el papel de Lavenberg y Welch (1981) que fue el primero en dar un completo y exposición rigurosa de variantes del mando. A un más el nivel introductoria, los libros por el Bratley et al. (1987) y La ley y Kelton (1991) proporcione los principios de mando las variantes.

LA COMPROBACIÓN, APROBACIÓN, Y CERTIFICACIÓN DE PLANEAR Y APLICACIONES DE LA SIMULACIÓN
Osman Balci
El departamento de Informática
660 Vestíbulo de McBryde, MAESTRO DE CEREMONIAS 0106,
La Tecnología de Virginia
Blacksburg, VA 24061, E.E.U.U.,
1 INTRODUCCIÓN
Un modelo es una representación o abstracción de algo como una entidad, un sistema o una idea. La simulación es el acto de experimentar con o ejercer modelo o un número de modelos bajo los objetivos diversos incluso la adquisición, el análisis, y entrenando. Por ejemplo, si el objetivo del análisis es predecir la actuación de un plan del sistema complejo,
nosotros experimentamos con modelo o un juego distribuido de modelos que representan el plan del sistema. Si los predijimos la actuación se usa tomando una decisión de adquisición, el proceso se llama la adquisición simulación-basado. Si el entrenamiento el objetivo es enseñarles a los comandantes militares cómo hacer las decisiones bajo un guión del combate, nosotros ejercemos a un modelo o un juego distribuido de modelos de una manera interactiva usando los aprendices como la parte de la simulación. Nosotros nos referimos a un específico la simulación creó para un objetivo particular como un planear
y simulación (M&S) la aplicación.
Muchos tipos de aplicaciones de M&S existen como continuo, el discreto-evento, distribuído, el hardware-en-el-vuelta, el software-en-el-vuelta, humano-en-el-vuelta, Monte Carlo, y los ambientes sintéticos. Cada M&S aplicación tipo propone sus propios desafíos técnicos para la Comprobación, Aprobación, y Certificación.
La Comprobación de las condiciones y Aprobación (V&V) es de forma consistente definido para entidad cualquier a que ellos se aplican. Permita a x ser esa entidad como modelo, la simulación, el software, los datos, sistema especialista, o un artefacto del vida-ciclo (el producto) tal como la especificación de requisitos, modelo conceptual, el plan, la especificación, o el módulo ejecutable. Entonces, V&V puede ser definido genéricamente como sigue:
La Comprobación de x se trata de la valoración de transformacional la exactitud de los x y direcciones el la pregunta de “nosotros estamos creando los x corrigen”
• La Aprobación de x se trata de la valoración de conductual
o exactitud del representación l del x y. Las direcciones la pregunta de “Es nosotros que creamos el x correcto?”
• Para la entidad cualquier para ser sujetado a V&V, sustituya el nombre de la entidad en lugar de x sobre, las definiciones sostendrán.
El acreditamiento se define en el Departamento de Defensa (DoD) la comunidad de M&S como “la certificación oficial que un modelo, simulación, o federación de modelos y simulaciones es aceptable para el uso para un propósito específico” (DoDI 1996).
Por otro lado, la Organización Internacional para la Estandarización (ISO) define acreditamiento y certificación como sigue (Rae, Robert, y Hausen 1995):
El acreditamiento es un “el procedimiento por que un autoritario el cuerpo da el reconocimiento formal que un cuerpo o la persona es competente llevar a cabo específico
las tareas.”
• La Certificación de • es un “el procedimiento por que un tercero la fiesta da la convicción escrito que un producto, el proceso, o el servicio conforma a las características especificadas.”
Las definiciones de ISO anteriores chocan con las definiciones normalmente usado por el DoD la comunidad de M&S. Al mejor de nuestro conocimiento, toda la ingeniería disciplina, educativo el sector, y otras áreas usan estas condiciones como definido por ISO.
Por consiguiente, nosotros usamos la terminología de ISO en este papel.
2 PRÁCTICA PROPUESTA PARA M&S
EL ACREDITAMIENTO Y CERTIFICACIÓN
Cuando la definición de ISO indica, la certificación debe ser dirigido por una tercera fiesta a dónde la primera fiesta se refiere El M&S aplicación patrocinador y la segunda fiesta se refiere a M&S aplicación diseñador. Claro, la certificación es
significante cuando dirigió de una manera independiente. A logre la verdadera independencia, el IEEE Standard 1012 (IEEE 1998) requiere la independencia técnica, directiva, y financiera como descrito debajo.
La Independencia técnica implica que la certificación agente determina, prioriza, y horarios sus propias tareas y esfuerzos.







3 M&S VIDA CICLO EVALUACIÓN
LOS PROCESOS PARA LA CERTIFICACIÓN

Un M&S desarrollo vida ciclo describe el cianotipo de el desarrollo y especifica los roductos de trabajo a ser creados bajo los procesos designados junto con los integramos
Las actividades de V&V. Un ciclo de vida se necesita críticamente al modularize y estructura el desarrollo procese y proporcione la valiosa guía para la dirección del proyecto. Un ciclo de vida es también exigido mostrar las actividades de V&V como integrado dentro del proceso de desarrollo basado en el principio qué dictados con que V&V debe ir de la mano el ciclo de vida de desarrollo (Balci 1997).
Un M&S desarrollo vida ciclo con los procesos de la evaluación para la certificación coexistente se presenta en Figura 2.
El ciclo de vida consiste en siete fases. Una fase se define para tener un producto de trabajo de entrada (o artefacto), un trabajo del rendimiento el producto (o artefacto), y un proceso creaba el rendimiento el producto del producto de la entrada. Una fase que depende se dirige en el modelo de ciclo de vida empleado. Muchos ciclo de vida
modelos existen, mientras incluyendo el desarrollo exploratorio, incremental, el desarrollo, el prototyping, el desarrollo reusar-basado, muévase en espiral, y cascada.
Aunque un proceso de la evaluación se nombra después del rendimiento el producto de trabajo de la fase correspondiente, la evaluación, el proceso debe evaluar más del producto de trabajo de rendimiento. Un proceso de la evaluación se define para medir y
evalúe una fase de ciclo de vida particular (un) el producto de trabajo de rendimiento,
(b) el proceso usó creando el producto de trabajo de rendimiento, y (c) las características del proyecto (es decir, las personas, la documentación, planeando, la convicción de calidad, la madurez de capacidad).
Los tres Ps (el Producto, Procese, Proyecto) de software diseñando normalmente se envían a para la medida del software y certificación. Voas (1999) los regalos un software triángulo de certificación de calidad como que incluye los tres Ps El producto, el Proceso, y Personal, y abogados que la certificación puede aproximarse de cualquier uno de estos aspectos, pero una combinación de todos los tres proporcionará el equilibrio mejor.
La calidad del producto es el grado a que el producto posee un juego deseado de características. El primer producto a característica de calidad “la exactitud del producto” se evalúa por la verdad del producto evaluando y validez. La verdad del producto es evaluado dirigiendo comprobación del producto y producto la validez es evaluada dirigiendo la aprobación del producto. Nosotros refiérase como simplemente a la comprobación del producto y aprobación del producto V&V a lo largo del ciclo de vida de desarrollo.
La calidad del proceso es el grado a que el proceso posee un juego deseado de características. El juego de deseó las características dependen de las metodologías del proceso y técnicas empleadas por el M&S aplicación diseñador.
La calidad del proyecto es el grado a que el proyecto posee un juego deseado de características. La calidad del proyecto se evalúa evaluando una variedad de características incluir la dirección de la configuración, la calidad de la documentación, humano, la dirección del recurso, la madurez de capacidad de personal, planeando, la calidad, y dirección de calidad.
El Ambiente de la Evaluación (EE) el sistema del software (Orca 2003) puede usarse para facilitar la aplicación del la metodología de la evaluación (el Balci et al. 2002a). EE es un Webbased los client/server distribuyeron sistema del software estructurado basado en la Java 2 Edición de la Empresa (J2EE) el industrialización la arquitectura. El 128-pedazo encriptó los Enchufes Seguros La capa (SSL) se usa la tecnología para proporcionar afiance la comunicación entre el servidor de EE y el usuario de EE. EE les permite a las personas geográficamente dispersadas que dirijan complejo las evaluaciones de una manera colaborativa.


3.1 PROCESO DE LA EVALUACIÓN EJEMPLAR CONCEPTUAL

Una simulación el Modelo Conceptual es el modelo formulado en la mente del modelar y especificó en una variedad de comunicativo los formularios quisieron a los usuarios diferentes como gerentes, analistas, y diseñadores. El ejemplo comunicativo los formularios incluyen animación, audio, el mapa, el diagrama, el dibujo, la ecuación, gráfico, imagen, texto, y video. El proceso modelado conceptual involucra el examen
del universo de discurso, formulación del problema, la definición del sistema, identificación del Stakeholders y sus necesidades, y especificación de Intencional Usa (Balci y Ormsby 2000) para que la aplicación de M&S será construido. La simulación pueden usarse los modelos conceptuales (un) como un labre con herramienta para controlar requisitos de M&S y volumen por el M&S gerente, (b) para evaluar los conceptos de la simulación para la minuciosidad y errores, (c) como una fundación para M&S diseñe, y
(d) verificar y validar el M&S diseñan (DMSO 2000).


El proceso de la evaluación ejemplar conceptual evalúa el la credibilidad del modelo conceptual creada dirigiendo el proceso modelado conceptual. El proceso integra
las evaluaciones de: (un) la calidad ejemplar conceptual, (b) conceptual el proceso modelado, y (c) M&S proyectan las características relacionado a ciclo de vida fase 1.
3.2 M&S Requisitos Evaluación Proceso
Identificando propiamente y especificar los requisitos son críticamente importante. La M&S Requisitos Especificación el documento se vuelve el punto de referencia durante el resto de el ciclo de vida de desarrollo. Si el punto de referencia (es decir, los requisitos) se formula inadecuadamente, las referencias todo subsecuentes hecho a los requisitos puede ser erróneo.
El M&S requisitos evaluación proceso evalúa la credibilidad de los requisitos de M&S creada dirigiendo los requisitos que diseñan el proceso basaron adelante el la simulación el modelo conceptual. El proceso integra el las evaluaciones de: (un) la M&S requisitos calidad, (b) los requisitos el proceso diseñando, y (c) M&S proyectan las características
relacionado a ciclo de vida fase 2.
Un ciclo de vida por el M&S Requisitos Diseñar es presentado en Figura 3. Las actividades de V&V mostradas en la Figura 3 se llevan a cabo como la parte de la M&S requisitos evaluación el proceso.
Los requisitos de M&S pueden evaluarse en un colavoracion la manera como la parte de la M&S aceptabilidad valoración global usando un proyecto de EE como pintado en Figura 4.






Las técnicas de V&V siguientes (Balci 1998) puede ser
usado para la M&S requisitos evaluación:

La Comprobación del escritorio
La Comprobación de la documentación
Enfrente la Aprobación
Las inspecciones
Las revisiones
Walkthroughs

3.3 M&S Plan Evaluación Proceso

Este proceso evalúa la credibilidad del plan de M&S creado dirigiendo el proceso del plan basado adelante el El M&S requisitos especificación documento. El proceso integra las evaluaciones de: (un) M&S diseñan la calidad, (b) M&S diseñan el proceso, y (c) M&S proyectan las características relacionado a ciclo de vida fase 3.
Un M&S aplicación plan bastante grande se descompone en los módulos para superar la complejidad de desarrollo y evaluación. Cada M&S módulo plan especificación
se sujeta a la evaluación. Además de evaluar diseñe la exactitud realizando V&V, las características de calidad, como lo siguiente también se evalúa: el reusability, el maintainability, el extensibility, el interoperability, la portabilidad, el testability, traceability, understandability, y utilidad. EE puede usarse para la evaluación del plan colaborativa como la parte de la M&S aceptabilidad valoración global como pintado
en Figura 4. UNA jerarquía de indicadores puede crearse para evaluar la calidad del plan, proceso del plan, y proyecto las características. Los expertos de la materia pueden asignarse a evalúe los indicadores de la hoja. Algunos echan hojas pueden evaluarse los indicadores realizando V&V, análisis, o la medida directa.
Las técnicas de V&V siguientes (Balci 1998) puede ser usado para M&S diseñe la evaluación:

La auditoria
La Comprobación del escritorio
La Comprobación de la documentación
Enfrente la Aprobación
Las inspecciones
Las revisiones

La Independencia directiva implica que la certificación agente informa al M&S aplicación patrocinador independientemente de la organización del diseñador.
La Independencia financiera implica que la certificación agente se asigna su propio presupuesto para el M&S la certificación y no confía en el desarrollo de M&S el presupuesto.
Bajo nuestra práctica propuesta, esas compañías u organizaciones interesado sirviendo como la certificación de M&S agentes aplican a la autoridad de acreditamiento.
El acreditamiento la autoridad examina la madurez del solicitante la certificación normal procesa y las calificaciones de el personal importante que ejecutará los procesos de la certificación.
Basado en los resultados del examen, el acreditamiento, la autoridad da el reconocimiento formal que el agente del solicitante es competente llevar a cabo el normal procesa y proporciona certificación que es imparcial, justa, costo eficaz, y consistente.
La autoridad de acreditamiento establece y publica un ponga de criterio por acreditar a M&S certificación agentes. El criterio debe incluir: la madurez de la certificación normal del solicitante los procesos, las credenciales del personal importante que ejecutará la certificación procesa, y la verdadera independencia del agente.
La práctica propuesta se necesita proporcionar los cheques y los equilibrios exigieron minimizar la aplicación de M&S los riesgos de patrocinador.
Por ejemplo, muchas compañías sirven como ISO 9000 certificación agentes. Estos agentes examinan los procesos de un la compañía y certifica que la compañía es dócil con
el ISO 9000 normal. El ISO 9000 agentes de la certificación es acreditado por una autoridad de acreditamiento. Un directorio de ISO 9000 cuerpos de acreditamiento se proporcionan a (el http: / / www.praxiom.com/accrediters.htm). La certificación es el premio independiente de un “el Certificado”, un “la Foca de Aprobación” o un “Mark de Conformidad” formalmente atestando que una aplicación de M&S cumple específico el criterio de calidad bajo un juego de usos intencionales prescritos. El premio independiente se considera por la aplicación de M&S.


Turing Test
Walkthroughs
El causa-efecto Graphing
Controle el Análisis
- Llamando el Análisis de la Estructura
- El Análisis del Proceso coexistente
- El Análisis de Flujo de mando
- El Análisis de la Transición estatal
El Análisis de los datos
- El Análisis de Dependencia de datos
- Los datos Fluyen el Análisis
El Análisis de Fault/Failure
El Análisis de la interfaz
- El Análisis de la Interfaz ejemplar
- El Análisis de Interfaz de usuario
El Análisis semántico
El Análisis estructural
La Evaluación simbólica
El Análisis de la sintaxis
La Valoración de Traceability


3.4 M&S Módulos Evaluación Proceso ejecutable

Este proceso evalúa la credibilidad del ejecutable Módulos de M&S creados dirigiendo la aplicación el proceso basó en la M&S plan especificación. El proceso integra las evaluaciones de: (un) M&S ejecutable la calidad de los módulos, (b) el proceso de aplicación, y (c) M&S proyecte características relacionadas a ciclo de vida fase 4. Un módulo de M&S puede llevarse a cabo por un equipo, agrúpese, o subcontratarte. El proceso de aplicación crea módulos ejecutables que pueden evaluarse usando
las técnicas de la comprobación dinámicas siguientes (Balci 1998):

La Comprobación de aceptación
La Comprobación del alfa
La Comprobación de aserción
La Comprobación de la beta
Fondo-a la Comprobación
La Comprobación de la comparación
La Comprobación de complacencia
- La Comprobación de la autorización
- La Comprobación de la actuación
- La Comprobación de seguridad
- La Comprobación de las normas
· Poniendo a punto
· La Comprobación de la ejecución
- El ejecución Supervisando
- El ejecución Perfilando
- El Trazado de la ejecución

· La Fault/Failure Inserción Comprobación
· La Comprobación del campo
· Funcional (Negro-Box)Testing
· Las Comparaciones gráficas
· La Comprobación de la interfaz
- Los datos Unen la Comprobación
- La Comprobación de la Interfaz ejemplar
- La Comprobación de Interfaz de usuario
· La Comprobación de objeto-flujo
· La Comprobación de la partición
· La Aprobación de Predictive
· La Comprobación del producto
· La Comprobación de la regresión
· El Análisis de sensibilidad
· La Comprobación de la Entrada especial
- La Comprobación de Valor de límite
- Equivalencia que Divide la Comprobación
- La Comprobación de la Entrada extrema
- La Comprobación de la Entrada no válido
- El real-Time Entró la Comprobación
- La Comprobación de la Entrada automotor
- La Comprobación de tensión
- Rastro-manejado la Comprobación de la Entrada
Las Técnicas estadísticas
Estructural (Blanco-Box)Testing
- La Comprobación de la rama
- La Comprobación de la condición
- Los datos Fluyen la Comprobación
- La Comprobación de la vuelta
- La Comprobación del camino
- La Comprobación de la declaración
La Comprobación de Submodel/Module
La Depuración simbólica
Cima-abajo la Comprobación
Visualization/Animation

3.5 Aplicación de M&S integrada

El Proceso de la evaluación de los integramos Aplicación de M&S creada dirigiendo la integración el proceso basó en los módulos de M&S ejecutables. El proceso integra las evaluaciones de: (un) integró M&S la calidad de la aplicación, (b) el proceso de la integración, y (c) M&S proyecte características relacionadas a ciclo de vida fase 5.
3.6 M&S Resultados Evaluación Proceso
Este proceso evalúa la credibilidad de los resultados de M&S producido dirigiendo la experimentación / el ejercicio el proceso basó en la aplicación de M&S integrada. El
el proceso integra las evaluaciones de: (un) M&S resulta la calidad, (b) la experimentación de M&S / el proceso del ejercicio, y (c) M&S proyectan características relacionadas a ciclo de vida fase 6.
(Amontona el al del et. 2001; La ley y Kelton 2000)
. Las metodologías de la contestación-superficie pueden usarse a encuentre la combinación óptima de valores del parámetro qué aumenta al máximo o minimiza el valor de una contestación inconstante.
. Pueden emplearse los planes factoriales para determinar el efecto de varias variables de la entrada en un rendimiento inconstante.
. Pueden llevarse a cabo las técnicas de la reducción variantes para obtener la exactitud estadística mayor para la misma cantidad de simulación.
. Alineando y pueden utilizarse las técnicas de la selección por comparar los sistemas alternativos.
. El método de repetición, el método de medios del lote, el método regenerador, y otros pueden usarse para el análisis estadístico de datos de rendimiento de simulación.
El proceso de la experimentación puede evaluarse usando
una jerarquía de indicadores incluso lo siguiente:
. Este proceso evalúa la credibilidad de los resultados presentados producido dirigiendo el proceso de la presentación basado en los resultados de M&S producidos. El proceso integra las evaluaciones de: (un) presentó la calidad de los resultados, (b) la presentación
y (c) M&S proyectan características relacionadas
a ciclo de vida fase 7.
El proceso de la presentación involucra el
. La interpretación del M&S resulta,
. La documentación del M&S resulta, y
. La comunicación del M&S resulta a la decisión fabricantes.

Basado en el M&S presentado resulta, los fabricantes de decisión formule las decisiones importantes incluso la adquisición de un ejército el sistema, distribuyendo los recursos escasos, seleccionando un negocio, la estrategia, o entrenando el personal militar.
Un modelo descriptivo es un modelo que describe la conducta de un sistema sin cualquier juicio de valor en el °goodness¡± o °badness¡± de tal conducta. Toda la simulación modelos son los modelos descriptivos. Por consiguiente, resultados de la simulación debe interpretarse. Por ejemplo, experimentando con una aplicación de M&S, nosotros podemos estimar la probabilidad de muerte como un 95% intervalo de confianza [0.89  Pkill  0.93].
Este resultado de M&S debe interpretarse por los analistas para determinar si es un °good¡± Pkill o un °bad¡± uno.
El proceso de la presentación también involucra la documentación de los resultados de M&S. La calidad de la documentación puede ser evaluado usando una jerarquía de indicadores incluso la accesibilidad, la exactitud, la integridad, la consistencia, la claridad,
(el unambiguity y understandability), maintainability, la portabilidad, y legibilidad.
El problema de comunicación entre técnico y deben reconocerse las personas non-técnicas y el M&S deben comunicarse los resultados a los fabricantes de decisión en un entendible el formulario sin cualquier jerga técnica.
Debido a la complejidad de algún M&S resulta, mientras fallando a propiamente interprete, documente, y comunique el M&S los resultados pueden llevar a las decisiones malas a pesar de que los resultados de M&S son suficientemente creíbles.

4 COMENTARIOS CONCLUYENDO

Deben atarse los V&V y actividades de la certificación a un M&S desarrollo vida ciclo. V&V no es un organice pero una actividad continua llevó a cabo de la mano con el desarrollo de M&S a lo largo del ciclo de vida entero.
El uso de una M&S desarrollo vida bien-estructurada ciclo es extremamente importante para dirigir eficazmente el V&V y actividades de la certificación. Para el nuevo M&S aplicación desarrollo, coexistente la certificación se recomienda. Para la certificación de un ya la aplicación de M&S desarrollada con o sin las modificaciones, algunos de los procesos de la evaluación pueden dirigirse dependiendo del M&S Intended los Usos. Eficaz y detallado la documentación y la prueba embala, datos de la prueba, y prueba procedimientos usados durante el desarrollo deben proporcionarse a facilite la certificación de un M&S ya desarrollados la aplicación.
La certificación exitosa requiere a la agente de la certificación para tener el acceso lleno a la aplicación de M&S con su asociado la documentación y datos. Sin embargo, el diseñador de M&S no tiene totalmente mando lleno de la aplicación de M&S y poderío
coopere proporcionando el material requerido e información al agente de la certificación. A veces, diseñadores vea la certificación como una actividad de apreciación de actuación, y ellos temen que su reputación y potencial el fondo futuro está a la estaca si el agente de la certificación identifica los problemas. Por consiguiente, ellos a veces muestran ningún deseo de cooperar y compórtese de una manera del adversarial contra la certificación independiente el personal del agente. El M&S aplicación patrocinador tiene un papel crítico resolviéndose este problema (el Balci et al. 2002b).



EVENTO AVANZADO QUE FIJA LA METODOLOGÍA
2 LO ABSTRACTO DE GRÁFICOS DE SIMULACIÓN

Esta sección dará una definición formal de SEGs. El la definición se ilustrará en un ejemplo simple.
Los Gráficos de Evento de simulación (SEGs) es una representación gráfica una de la tres simulación mayor las vistas mundiales, el evento, fijando. Este papel describe cuatro planeando avanzado técnicas que le permite al practicante de la simulación recoger un el gran trato de información al desarrollo relativamente pequeño y/o procesando el más allá de esfuerzo eso de desarrollo el modelo.


2.1 DEFINICIÓN

Los Gráficos de Evento de simulación modelan la dinámica de discreto los sistemas de evento. Nosotros usaremos la anotación de (Yucesan y Schruben 1992). De acuerdo con, para un gráfico G, defina:
V(G) el juego de vértices de evento en G
Es(G) el juego de fijar los bordes en G
EC(G) el juego de cancelar los bordes en G Uno de los tres acercamientos principales a la simulación de evento discreta planear es el evento que fija la vista mundial, vea
(La grúa, el al del et. 2000). una ventaja importante a este mundo la vista es su velocidad ejecutando a modelos de sistemas congestionado (Schruben y Roeder 2003).
Además, Simulación
Los Gráficos de evento (SEGs), un tipo de evento que fija la simulación, puede representar a los modelos grandes sólidamente, y lata se analice usando optimización y teoría del gráfico.
La ƒµG incidencia función en G, asociando un el par pedido de vértices con cada borde en G Los pares de vértices en ƒµG no necesitan ser distintos. Una simulación el gráfico se define como el cuádruplo pedido G = (V(G), Es(G), Ec(G), ƒµG). El vértices V(G) represente los eventos que ocurren, mientras causando un cambio en el estado del sistema.

El (dirigió) afila Es(G) y Ec(G) indique las relaciones entre los eventos, como especificado por ƒµG. Este papel describe las técnicas modeladas avanzadas que está disponible en el evento que fija la vista mundial. Sección 2 formalmente define SEGs para ayudar el desarrollo de secciones futuras.
Sección 3 introduce las ideas de repeticiones simultáneas y dilatación de tiempo para la optimización de la simulación; La sección 4 ilustran el análisis de perturbación infinitesimal (IPA) de SEGs; La sección 5 informes los recientes resultados usando la programación de matemática junto con SEGs; y Sección 6 describe continuado
trabaje estimando la conducta de evento rara. Permita a R+ ser el juego de real non-negativo los números, y permita
Los ESTADOS denotan el juego de posibles estados por el estar debajo de modelo. Entonces nosotros definimos los datos siguientes puestos en un índice adicionalmente por los juegos en G:




Mesa 2: Los Cambios del estado y Parámetros para los Eventos en
el SEG de la Cola de G/G/s ponga de condiciones del borde asociadas con el borde e:
El evento los parámetros de Evento de cambios Estatales
ENTRE EN Q=Q+1,
ID=ID+1,
W[ID]=CLK
EMPIECE Q=Q-1, R=R-1,
NEXT=NEXT+1
EN
DEJE R=R+1,
W[IN]=W[IN] -
2.2 ejemplo
A lo largo de este papel, el término que del se usará para referirse a una especificación completa de una región del plan o espacio de la búsqueda. Así, un sistema dónde s = 3 son un diferente modelo que uno dónde s = 4.
Considere un G/G/s queueing sistema simple. El estado de este sistema el número de trabajos que esperan ser servido es, Q, y el número de servidores disponibles, R. El juego de todos los posibles ESTADOS para este modelo son {(Q,R): Q = 0, 1, 2,c, R = 0, 1,c,s}. las variables estatales Adicionales son W[i], el tiempo que el cliente del ith se pasa en el sistema; ID, el cliente, el número de identificación; EN, el cliente ID del
cliente actualmente en el servicio (el último en haber empezado o el servicio completado); PRÓXIMO, el cliente ID del próximo, cliente para empezar el servicio; y CLK, el reloj de la simulación, tiempo. El (el azar) tiempos de cliente son los ta, y tiempos de servicio son los ts.
3 REPETICIONES SIMULTÁNEAS
Y DILATACIÓN DE TIEMPO
Las ideas de repeticiones simultáneas y dilatación de tiempo se propuso formalmente en (Schruben 1997). Simultáneo las repeticiones permiten el múltiplo (el parameterized) corre para ser hecho durante la misma ejecución de la simulación. Esto es probable a cause los eventos futuros listan (FEL) para volverse sumamente grande; sin embargo, es realmente posible tomar la ventaja de la lista grande que usa la dilatación de tiempo.
El juego de vértices de evento V(G) consiste en los eventos ENTRE, EMPIECE, y LICENCIA. Ec(G) =.; la planificación los bordes Es(G) se muestra en Mesa 1. Fundamentalmente, la dilatación de tiempo aumenta el scaleh de gtime para guiones que están realizando al pariente malamente a los otros.
Esto se hace castigando los guiones menos prometedores. Mientras la simulación no deja de coleccionar completamente los datos para estos guiones, no se pasa el tanto tiempo adelante ellos pero intenta mejorar las estimaciones para las configuraciones más prometedoras.
Los resultados experimentales han mostrado el simultáneo las repeticiones y dilatación de tiempo pueden encontrar correcto rápidamente las soluciones (para problemas dónde la respuesta es conocida) con relativamente poco expendió el esfuerzo del computacional.
Mesa 1: Los bordes para el SEG de Cola de G/G/s
El par de Vértice de borde
1 ENTRA. ENTRE
2 ENTRAN. LA SALIDA
3 SALIDA. LA LICENCIA
4 LICENCIA. LA SALIDA
El estatal cambia F y parámetros de evento P para cada uno el evento se da en Mesa 2.
En (Schruben 1997), la dilatación de tiempo simplemente hace que, él los cambios la balanza de tiempo. Varias colas de M/M/1 son simultáneamente simulado con las proporciones del descargo diferentes para determinar la 4X proporción del capacita/reléase. Es decir, la llegada del trabajo (el descargo) proporción que produce el medio tiempo del ciclo es cuatro tiempos el trabajo crudo que procesa tiempo. Si i W es el medio trabajo tarde para la proporción del descargo i y P es un factor de escalar exponencial, la balanza de tiempo para el sistema con la proporción del descargo i El borde condiciona el C, tiempo tarda T, las prioridades de evento, ƒ¡ (asociado con el borde que el schedules/cancels el evento), y atributos del borde UN se da en Mesa 3.
Inicialmente, R = s, Q = 0, CLK = 0, y el ENTRE en el evento las salidas la carrera de la simulación. multiplicado por ()4 P I W. . (Por ejemplo, P=2 si i W <4 y P=4 por otra parte.) Los descargos para las proporciones menos prometedoras son fijado a tiempo para los puntos más tarde, y, en el efecto, menos simulación tiempo está gastado en ellos. Los resultados muestran grandiosamente que la inmensa mayoría de los eventos ejecutó durante la carrera es asociada con la °correct¡± descargo proporción.

4 PERTURBACIÓN INFINITESIMAL
EL ANÁLISIS

El análisis de perturbación infinitesimal (IPA) es una técnica que se ha estudiado durante muchos años. Permite la simulación el practicante para estimar las pendientes de la contestación (con respecto a varios parámetros) para el sistema planeado con un solo la carrera. En el contraste, el finito diferenciando requiere dos carreras a encuentre la contestación derivativo para un solo parámetro. Mientras la mayoría de los resultados de IPA se ha desarrollado para Generalizó
El último objetivo es encontrar el arreglo con el
el tiempo del trabajo esperado más pequeño en el sistema. Desde que no puede ser garantizó que cada carrera encontrará el arreglo óptimo, el objetivo de °working¡± es aumentar al máximo la probabilidad de seleccionar el sistema correcto. En este ejemplo, la calidad de un arreglo es basado adelante un la medida de distancia Di entre i ejemplar y su competidor mejor. Adicionalmente, la muestra vi. variante de los esperamos la medida de la actuación es calculada. Cada i ejemplar se asigna una cuenta de V, y se selecciona para la ejecución con la probabilidad V encima de la suma de todas las cuentas. Esto modelos de los favores con la distancia más pequeña miden D
también aquéllos con la variación mayor (para intentar reducir la variación).
La discusión siguiente usará la anotación de (Freimer y Schruben 2001a, 2001b). Considere un M/M/1 hacen cola con tiempo de servicio de media ¥è. Permita sea una realización de i¡¯s del trabajo repara tiempo, mientras usando la semilla aleatoria ¥ø. Si ¥è se aumentaran por. ¥è, este tiempo de servicio se





aumentaria el camino para el número de trabajos en el sistema (esperando y en el servicio) para la cola de M/M/1. El número aumenta cuando un trabajo llega y disminuye cuando un trabajo termina el servicio.
El área bajo la línea sólida es el retraso total experimentado por los trabajos en el sistema del unperturbed. El área bajo las líneas golpeadas el retraso adicional experimentado está por los trabajos debido al aumento en ¥è. es importante a la nota que los retrasos adicionales son cumulativos en un período ocupado:
El tercer trabajo en un período ocupado tendrá que esperar para el adicional el servicio cronometra los trabajos 1 y 2 experimentado, y testamento también se tarde por su propio aumento en tiempo de servicio. Los trabajos en el sistema El artefacto de la simulación ejecuta un evento de los seleccionamos planee, y entonces reevalúa a qué modelo debe
escoja luego. La pi de probabilidades es los recalcúlate cada 100 los eventos.
Las repeticiones simultáneas se corrieron con y sin los números del azar comunes (CRN), y se muestra que los CNRS mejoran la probabilidad de seleccionar el correcto la solución substancialmente. Figure 1: La muestra el Período Ocupado para la Cola de M/M/1 Hay muchas oportunidades para los cambios y enriquecimientos a la estructura básica introdujo aquí. Ciertamente las estimaciones de Vi puede mejorarse en teniendo en cuenta de serie
la dependencia. Podrían modificarse las cuentas para pesar reciente los datos más pesadamente que los datos pasados. En lugar de ejecutando uno el evento y el reselecting planea, el artefacto podría ejecutar un cierto número de eventos del modelo (quizás el número podría ser cuenta-dependiente) antes de reevaluar. Si el propósito del estudio es encontrar el derivado de el medio tiempo de espera W (qué es el promedio tarde menos el medio tiempo de servicio), puede expresarse como la suma de los derivado del S
. Permita a N ser el total el número de trabajos sirvió, M el número de períodos ocupados, y
Schruben, Roeder, Chan, Hyden, y Freimer el km el índice del primer trabajo en el período ocupado m. Entonces el pruebe el camino derivativo del tiempo de espera W es


,
Esta expresión no depende adelante. ¥è, para que nosotros necesitamos sólo rastree los derivado de tiempo de servicio. En el caso de exponencial tiempos de servicio, un tiempo de servicio que S se genera, usando un número aleatorio uniforme U:
. Su derivado es


.

El derivado de W es un derivado de camino de muestra. Las condiciones para el unbiasedness del derivado del el tiempo de espera esperado se perfila en (Freimer y Schruben 2001b).
Mientras la ecuación en (1) es correcto, requiere sabiendo la longitud del período ocupado, información que no es, conocido durante una carrera de la simulación (hasta que el período ocupado sea encima de). No obstante, recogiendo los muestra camino servicio derivado
durante una carrera es bastante sincero con SEGs. El medio tiempo en el sistema de un trabajo puede calcularse como el integral con el tiempo del número de trabajos en el sistema (dividió por N) bajo que es equivalente al área la curva en Figura 1. Sin embargo, nosotros también podemos notar que esto es la suma del producto del número de trabajos en el sistema y la longitud de tiempo este estado permanece inalterado. Si nosotros permitimos el f(si) sea el número de trabajos en el sistema después del ith el cambio estatal ha ocurrido, el ói de ¥es el tiempo de este ith declare cambie, y N(tf) sea el número de cambios del sistema que ha ocurrido por el simulación acabado tiempo tf, el promedio, tiempo en el sistema puede expresarse como

Definiendo más allá. el fsi como el f(si-1)-f(si) si i


Cada borde e con el te de retraso tendrá el atributo adicional de G+dte/d ¥è. Cada evento s tendrá dos estado adicional los cambios: f =. el fs (como apropiado), y A=A+fG.
Para nuestro M/M/1 haga cola. el fsi es -1 si el si es un ENTRE el evento, 1 si es un evento de la SALIDA, y 0 por otra parte. (La nota que aquí, nosotros estamos calculando el medio tiempo de espera directamente, desde que es el medio tiempo en el sistema menos el promedio tiempo de servicio. El tiempo de servicio puede substraerse del el cálculo inmediatamente, dándonos la media espera tiempo.) Desde que nosotros estamos variando sólo el parámetro de proporción de servicio, el derivado del otro retraso del borde (los interarrival cronometran) con respecto a esto el cero está.
Nosotros necesitamos ahora sólo agregue los cambios estatales siguientes y atributos del borde al modelo definido en Sección 2.2:

5 MATEMÁTICA QUE PROGRAMA DE
LAS TRAYECTORIAS DEL SISTEMA

Una ventaja de simulación evento gráfico modelos es que cualquiera la información sobre el ser del sistema estudiado está disponible. Un la desventaja es que el esfuerzo del computacional l por obtener el la información puede ser que el cuidado prohibitivo, y grande debe ser tomado para conseguir las estimaciones de la actuación exactas.
Esta sección describe investigación continuada que se une la simulación y matemática que programan a modelos. Construye adelante el trabajo presentó en (Schruben 2000). UNA ventaja grande de matemática que programa a modelos, los programas específicamente lineales, (LPs), es que hay cuerpos grandes de investigación adelante eficaz los procedimientos de la solución, y en el análisis de sensibilidad. (Schruben 2000) las muestras que modelos de la simulación de queueing simple los sistemas (G/G/1 y G/G/2 hace cola, y tándem del multiserver las colas) puede formularse como los programas lineales. El duals de los programas lineales los gráficos de la red son; estos gráficos puede resolverse muy rápidamente. Sus soluciones son las trayectorias del SEG correspondiente. Además, ellos dan las visiones en la sensibilidad de la solución para modelar los parámetros (por ejemplo los interarrival y tiempos de servicio).
Considere el ejemplo de Sección 2.2 donde s = 1.
De momento, nosotros ignoraremos el trabajo los tiempos de espera (las variables W, ID, EN, y LUEGO). El programa lineal es cedido debajo (2). La función objetiva es minimizar
la suma de los tiempos del acabado. Ai es el tiempo de la llegada del ith el trabajo, y Fi es su tiempo del acabado. La duración de servicio del ith el trabajo es el tsi. El número total de trabajos procesado es N. El asociado se dan los nombres inconstantes duales en los aréntesis próximo a los constreñimientos.





El problema los datos (los interarrival y tiempos de servicio) sólo aparece en el la función objetiva. El sorprendiendo (y agradando) el resultado es que las variables duales dicen el número de trabajos en el ocupado el período (Ui) y el número restante de trabajos en el ocupado el período (Vi). Así, dado los datos de la entrada, nosotros podemos resolver un LP (qué ha tomado como alguno como cera base monta sobre un eje) y encuentra el los períodos ocupados, las longitudes de los períodos ocupados, y el trabajo tiempos del acabado. Además, nosotros podemos usar el análisis de sensibilidad la información para determinar qué cambios de efecto en los datos (los interarrival y tiempos de servicio) llevará puesto la conducta del sistema.





Figura 2 muestras el gráfico dual para N=3. Las variables duales puede interpretarse como la cantidad de flujo por su los arcos, y los valores sombreados son los réditos ganados por un el flujo de la unidad por el arco.


6 ESTIMACIÓN DE EVENTO RARA

El modelo de G/G/s describió en la Sección 2.2 huellas la espera tiempos para los clientes individuales. Cuando los sistemas consiguen grande, esto puede ponerse embarazoso debido a la cantidad de memoria y procesando tiempo requerido. En (Schruben y Roeder 2003), los autores describen las desventajas de simulaciones trabajo-manejadas dónde cada trabajo se rastrea. Ellos
Haga pensar en eso recurso-manejado que las simulaciones pueden ser más apropiadas para la mayoría de los propósitos; aquí, sólo cuentas de trabajos y se guardan los recursos disponibles. Esto hace los aspectos modelados de sistemas y obteniendo ciertas estadísticas del rendimiento como las distribuciones de tiempo de espera más difícil. Esta sección describe la investigación continuada estimando las distribuciones de tiempo de espera sin rastrear los trabajos individuales.
Nosotros nos restringiremos a FIFO los sistemas de G/G/1 aquí. Antes de explicar cómo estimar tiempos de retraso sin los archivos manteniendo de cada trabajo, nosotros describiremos un °intermediate¡± camine por estimar la probabilidad un trabajo tiene a
Espere menos de un poco de retraso de tiempo de juego L. Para hacer para que, nosotros complementaremos al modelo descrito en Sección 2.2 por un RETRASO de evento adicional. Será fijado incondicionalmente por el ENTRE en el evento, y testamento ocurra L cronometran las unidades después de un trabajo llega. Sus cambios estatales quieren consista en incrementar a un contador de retraso D por uno. Si, cuando este evento de RETRASO ocurre, ha habido más SALIDA los eventos que los eventos de RETRASO, nosotros sabemos que el trabajo empezó repare que antes de que fuera tardado que L cronometran las unidades. Para capturar esto, nosotros incrementamos a un contador de servicio ST por uno cada vez un El evento de la SALIDA ocurre. El evento de RETRASO tendrá adicional cambios del estado que cuentan el número de trabajos que tienen el servicio empezado ante su °time era el up,¡± y poniendo al día el estime de la probabilidad de esperar menos de L: El lo opuesto W se incrementa por uno si (D ÜST) es verdad, y el
la probabilidad PROB se pone al día a W/ST. El valor de PROB al final de la carrera de la simulación nuestra estimación será del la probabilidad que W Este acercamiento dará una estimación exacta del la probabilidad, y los trabajos para FIFO G/G/s hacen cola con el s>1 como bien. Su desventaja es que, aunque nosotros no somos directamente rastreando cada trabajo, nosotros estamos manteniendo un evento (el RETRASO) para cada trabajo en el FEL. Desde que el evento de RETRASO no hace el horario otros eventos, nosotros podemos distribuir con él y en cambio simplemente use una serie para rastrear las veces el trabajo habría sido L tardados cronometran las unidades. Esto ahorra el espacio para almacenar en el orden de magnitud del número de trabajos en el sistema, O(N).
El orden del acercamiento que nosotros describiremos luego es independiente del número de trabajos.


El acercamiento de °bin¡± divide la línea de tiempo de simulación en las cajas igualmente-lasificadas según tamaño. Cuando un trabajo llega a momento t, nosotros, ponga al día el número de trabajos que se habrán tardado L cronometre las unidades para la caja que contiene el t+L de tiempo, y todo subsiguiente las cajas. Figure 3 muestras el paso funciona para el RETRASO y eventos de la SALIDA (golpeó y las líneas normales, respectivamente), y también muestra el resultando “la caja” la función del paso para el tamaño de la caja b (la línea intrépida). El ENTRE la función del paso es no mostrado. Está igual que la función de RETRASO, cambió a las unidades de L izquierdas.
El acercamiento original compara la altura del El RETRASO y curvas de la SALIDA en momento t. Si la curva de RETRASO es sobre la curva de la SALIDA, el trabajo ha esperado demasiado mucho tiempo. El “la caja” el acercamiento compara la altura de la curva de la SALIDA a
la altura de la curva de la CAJA. Si la curva de la CAJA es anterior el La curva de la SALIDA, nosotros clasificaremos el trabajo como haber esperado más mucho tiempo que L. Nosotros debemos notar que esto llevará al el misclassification de algunos trabajos. En Figura 3, específicamente, los trabajos 1 y 4 será los misclassified, como indicado por el las áreas sombreadas. Para contar el número de misclassified de los trabajos, nosotros podemos contar los rectángulos sombreados en el gráfico. Éstos son las áreas dónde la curva de la CAJA ocurre antes de la SALIDA encorve, aunque la propia curva de RETRASO pasa después el La curva de la SALIDA. El tamaño del rectángulo no da cualquiera la indicación sobre la magnitud del error en el misclassification. Muestra cómo grande una tolerancia hay para el tiempo de la SALIDA real-si la SALIDA ocurre en cualquier parte en eso la región, el trabajo será los misclassified. En conjunto, nuestra estimación de la probabilidad de esperar menos de L se infravalorará. Es decir, nosotros pensaremos nuestro sistema está realizando más pobremente que realmente es.
La magnitud del error depende claramente de la caja el tamaño. Cuando el tamaño de la caja se acerca 0, nosotros moveremos más cerca y más cerca al caso trabajo-manejado completo. El error quiere también dependa de los parámetros del modelo. Si el sistema está muy ligeramente cargado, nosotros seremos menos pronos al error desde que el evento de la SALIDA pasará muy más pronto que el RETRASO el evento quiere, L arrogante no está cerca del cero. Figure 4 resultados de muestras para una cola de M/M/1 con el interarrival tase 2/3 y servicio proporción 1. muestra que, como esperado, las estimaciones de la probabilidad se ponen más peores como los aumentos de tamaño de caja.
Esto es especialmente verdad para los retrasos más pequeños.
LA SALIDA DE RETRASO
3b 2b b aproximado
EL RETRASO el t1 del t2



Figure 4: P{wait



Figura 3: Las Funciones del paso para la Cola de G/G/1