´ rez Auto ´ noma de Tabasco Universidad Jua ´ n Acade ´mica de Ciencias Ba ´ sicas Divisio Trabajo Recepcional de Tesis
Analisis de Paradigmas Actuales de Aprendizaje Autom´ atico y Una Aplicaci´ on en Redes Neuronales
que para obtener el grado de Licenciado en Ciencias Computacionales presenta:
Abieser Peregrino Robles
Dr. Abdiel Emilio C´aceres Gonz´alez (Director de tesis)
Cunduac´an Tab. M´ex.
2010
c Derechos reservados por Abieser Peregrino Robles 2010
La tesis de Abieser Peregrino Robles es aprobada.
MC. Juan Carlos Priego Azcuaga (Presidente)
MC. Jorge Enrique Valle Can (Secretario)
L.C. Rub´en Armando Gonz´alez Garc´ıa (Vocal)
LSCA. Diana Graciela Chuc Dur´an (Suplente)
Dr. Abdiel Emilio C´aceres Gonz´alez, Director de la tesis
Universidad Ju´arez Aut´onoma de Tabasco 2010
ii
iii
A mi perro . . . Quien entre otras cosas se rasca las pulgas y bebe del retrete.
iv
v
Agradecimientos Agradezco sinceramente la participaci´on de Juan Guti´errez, por su dedicada y perseverante... Tambien agradezco a mis amigos el tachuelas, el p´ uas el tribil´ın, el meromero, la pachita, la mirameynometoques.
Agradezco sinceramente la participaci´on de Juan Guti´errez, por su dedicada y perseverante... Tambien agradezco a mis amigos el tachuelas, el p´ uas el tribil´ın, el meromero, la pachita, la mirameynometoques.
Agradezco sinceramente la participaci´on de Juan Guti´errez, por su dedicada y perseverante... Tambien agradezco a mis amigos el tachuelas, el p´ uas el tribil´ın, el meromero, la pachita, la mirameynometoques.
vi
vii
Contenido
viii
Lista de Figuras
ix
Lista de Tablas
x
xi
Resumen de la Tesis Analisis de Paradigmas Actuales de Aprendizaje Autom´ atico y Una Aplicaci´ on en Redes Neuronales por Abieser Peregrino Robles Universidad Ju´arez Aut´onoma de Tabasco-DACB, (2010) Dr. Abdiel Emilio C´aceres Gonz´alez, Director de la Tesis
Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis, Aqu´ı va el resumen de la tesis.
xii
CAP´ITULO 1 Introducci´ on Resumen del cap´ıtulo El aprendizaje puede ser definido como la organizaci´on o reorganizaci´on de la propia conducta ante una situaci´on o un patr´on de est´ımulos como resultado de una experiencia. Es decir puede aprender a base de ejemplos observados anticipadamente. Frecuentemente en la literatura, se considera al aprendizaje como un proceso adaptativo, es decir, que se manifiesta mediante cambios suaves; incrementales. Se considerar´a que la adaptatividad del aprendizaje es como la capacidad de ajuste de una conducta. Adem´as, se asume que lo aprendido permanece en memoria durante periodos relativamente largos, de manera que se garantiza que la conducta aprendida es relativamente estable [?]. Este proceso permite la apertura a otra rama en el campo de la inteligencia artificial denomidanda aprendizaje autom´ atico.
El aprendizaje autom´atico, tambi´en llamado aprendizaje artificial, es un ´area de inter´es muy desarrollada en la inteligencia artificial. En otras ´areas afines como la biolog´ıa, la psicolog´ıa y la filosof´ıa; tambi´en se ha investigado la naturaleza de la habilidad de aprender, referida a sistemas biol´ogicos y al hombre en particular.
1
Algo en lo que se hace ´enfasis en el a´rea de aprendizaje autom´atico dentro de la inteligencia artificial es considerar la resoluci´on de problemas como un tipo de aprendizaje, esto consiste en que una vez resuelto un tipo de problema se es capaz de reconocer otra situaci´on problem´atica similar y reaccionar usando la estrategia aprendida [?].
1.1
Aprendizaje autom´ atico
Durante a˜ nos la investigaci´on en aprendizaje autom´atico se ha realizado con distinto grado de intensidad, utilizando diferentes t´ecnicas y haciendo ´enfasis en distintos aspectos y objetivos. Dentro de la historia de esta diciplina, pueden mencionarse tres importantes periodos en los cuales se destacan tres temas de desarrollo y de ellos se derivan varios paradigmas actuales.
La caracter´ıstica distintiva del primer periodo, fu´e el inter´es de construir sistemas de aprendizaje de prop´osito general que partan con poco o ning´ un conocimiento inicial de la estructura del problema a resolver. Estos sistemas fueron denominados Redes Neuronales. y los trabajos part´ıan del tema T´ecnicas de modelado neuronal y de decisi´on. La cual tubo su auge en la decada de 1940.
Debido a la primitiva tecnolog´ıa computacional de los primeros a˜ nos de la era moderna de la computaci´on, la mayor´ıa de las investigaciones en este tema eran te´oricas o relativas a la construcci´on especif´ıca de sistemas de hardware con prop´osito especifico. Durante este periodo surgieron trabajos interesantes; por ejemplo: 1. Perceptrones por Rosenblatt en 1958 [?].
2
2. Pandemonium por Selfridge en 1958 [?]. 3. Adelaine por Widrow en 1962 [?]. El fundamento de estos trabajos fu´e hecho por Rashevsky y sus seguidores del a´rea de biof´ısica [?], quienes descubrieron la aplicabilidad de la l´ogica simb´olica para el modelado de actividades del sistema nervioso. Otro tipo de investigaci´on relacionada con el a´rea de apredizaje autom´atico, es la concerniente a la simulaci´on de procesos evolutivos, que a trav´es de operaciones aleatorias de mutaci´on y de selecci´on natural a lo cual se puede denominar el principio de los algoritmos geneticos; pueden crear un sistema capaz de realizar un comportamiento inteligente [?]. La experiencia adquirida en estas a´reas engendr´o la nueva disciplina de Reconocimiento de Patrones y condujo al desarrollo sistemas de decisi´on en aprendizaje autom´atico. Uno de los sistemas m´as exitosos y conocidos dentro de esta clase fu´e el programa de juego de damas de Samuel [?]. Como investigaci´on paralela al modelado a trav´es de redes neuronales y sistemas de decisi´on, se realizaron investigaciones relacionadas con teor´ıa de control, sistemas de control adaptativos capaces de ajustar autom´aticamente sus par´ametros con el objetivo de mantener un mejor control o estabilidad, en presencia de perturbaciones en el sistema de desisi´on [?].
Un segundo periodo comenz´o a emerger en la decada de 1960, a partir de los trabajos de psic´ologos e investigadores en inteligencia artificial, sobre el modelado del aprendizaje humano [?]. En este periodo se utilizaban estructuras l´ogicas o de grafos en vez de m´etodos num´ericos o estad´ısticos. Los sistemas aprend´ıan descripciones simb´olicas que representaban un mayor nivel de conocimiento de
3
las estructuras y conceptos adquiridos [?]. Los trabajos desarrollados en este periodo parti´an del tema Aprendizaje orientado a conceptos simb´olicos.
Una influencia importante en el modelado del aprendizaje humano, fue el sistema de aprendizaje estructural de Winston [?], as´ı como tambi´en los trabajos realizados con el objetivo de aprender m´as conceptos estructurales a partir de ejemplos, incluyendo los programas de aprendizaje basados en l´ogica inductiva.
El tercer periodo presenta la etapa de investagaci´on m´as reciente, comenzando a partir de la decada de 1970. Las investigaciones en este sentido han sido orientadas al aprendizaje de conceptos a partir de ejemplos, utilizando una amplia variedad de t´ecnicas, muchas de las cuales se orientan a los sistemas basados en conocimiento el tema principal fue denomindo; Sistemas de aprendizaje de conocimiento con exploraci´on de varias tareas de aprendizaje. Por ello se hizo especial ´enfasis en el uso de conocimiento orientado a tareas y en las restricciones que este provee, las cu´ales gu´ıan el proceso de aprendizaje. Adem´as del ´enfasis en el aprendizaje a partir de ejemplos, se trabaja en aprendizaje a partir de instrucciones, por analog´ıa y descubrimiento de conceptos y clasificaciones. En contraste con esfuerzos previos, las nuevas investigaciones tienden a incorporar heur´ısticas, y utilizar ejemplos de entrenamiento para el aprendizaje de conceptos.
Gracias a todos los trabajos y temas desarrollados en los periodos de evoluci´on del aprendizaje autom´atico; surgen los paradigmas que actualente se estudian en esta ´area; los cu´ales se describen en el siguiente subtema.
4
1.2
Paradigmas actuales de aprendizaje autom´ atico
Seg´ un el tipo de selecci´on y adaptaci´on (transformaci´on) que un sistema realiza sobre la informaci´on disponible es posible identificar varios paradigmas del aprendizaje autom´atico. Esta clasificaci´on ha evolucionado r´apidamente en la u ´ltima d´ecada, ver esquema en la figura 1.
1.2.1 1.2.1.1
Tecnicas de Aprendizaje por algoritmos Aprendizaje deductivo
Este tipo de aprendizaje se realiza mediante una secuencia de inferencias deductivas usando hechos o reglas conocidos. A partir de los hechos conocidos se
5
derivan l´ogicamente nuevos hechos o nuevas relaciones. En este tipo de sistemas el crecimiento de la teor´ıa definida por la base de conocimientos es importante por se van generando nuevas reglas y aumenta la base de conocimientos.
1.2.1.2
Aprendizaje anal´ıtico
Los m´etodos usados en este tipo de aprendizaje intentan formular generalizaciones despu´es de analizar algunas instancias en t´erminos del conocimiento del sistema. En contraste con las t´ecnicas emp´ıricas de aprendizaje que normalmente son m´etodo basados en las similitudes, el aprendizaje anal´ıtico requiere que se proporcione al sistema un amplio conocimiento del dominio. Este conocimiento es usado para guiar las cadenas deductivas que se utilizan para resolver nuevos problemas. Por tanto, estos m´etodos se centran en mejorar la eficiencia del sistema, y no en obtener nuevas descripciones de conceptos, como hace el aprendizaje inductivo.
1.2.1.3
Aprendizaje anal´ ogico
Este tipo de aprendizaje, intenta emular algunas de las capacidades humanas m´as sorprendentes como poder entender una situaci´on por su parecido con situaciones anteriores conocidas o poder crear y entender met´aforas o a´ un resolver un problema notando su posible semejanza con otros vistos anteriormente, adaptando (transformando) de forma conveniente la soluci´on que se encontr´o para esos problemas. Este tipo de sistemas requiere una gran cantidad de conocimiento. En computaci´on entendemos conocimento a los datos que se van generando de acuerdo a los analisis de datos.
6
1.2.1.4
Aprendizaje inductivo
Es el paradigma m´as estudiado dentro del aprendizaje autom´atico. Normalmente, estos sistemas carecen de una teor´ıa del dominio, es decir, no conocen a priori los objetos con los que tratan o su cantidad. En este tipo de aprendizaje se pretende inducir la descripci´on de un concepto a partir de una serie de ejemplos y contraejemplos del mismo, o determinar una descripci´on jer´arquica o clasificaci´on de un grupo de objetos.
El aprendizaje inductivo puede verse como el proceso de aprender una funci´on; al elemento de aprendizaje se le d´a un valor correcto (o aproximadamente correcto) de una funci´on a aprender para entradas particulares y cambia la representaci´on de la funci´on que est´a infiriendo, para tratar de aparear la informaci´on dada por la retroalimentaci´on que ofrecen los ejemplos.
1.2.1.5
Aprendizaje mediante descubrimiento
El tipo de descubrimiento es una forma restringida de aprendizaje en la cual un agente adquiere conocimientos sin la ayuda de un profesor. Este proceso ocurre cuando no existe ninguna fuente disponible que posea el conocimiento que el agente busca. Un tipo particular de descubrimiento se lleva a cabo cuando un agente intenta agrupar objetos que supone del mismo conjunto.
7
1.2.2
Algoritmos gen´ eticos
Los algoritmos gen´eticos est´an inspirados en las mutaciones y otros cambios que ocurren en los organismos durante la reproducci´on biol´ogica de una generaci´on a la siguiente y en el proceso de selecci´on natural de Darwin. El problema principal que trata de resolver es el descubrimiento de reglas y la dificultad mayor con que se encuentra es la asignaci´on de cr´edito a las mismas. Este u ´ltimo punto consiste en valorar positiva o negativamente las reglas seg´ un lo u ´tiles que sean al sistema. Esta valoraci´on ser´a la que determine qu´e regla aplicar para resolver un problema determinado.
1.2.2.1
Otros tipos de aprendizaje
Conexionismo: Otra manera de concebir un sistema de aprendizaje autom´atico es el denominado enfoque conexionista. En esta aproximaci´on el sistema es una red de nodos interconectados, que tiene asociada una regla de propagaci´on de valores, y cuyos arcos est´an etiquetados con pesos. Ante un conjunto de ejemplos el sistema reacciona modificando los pesos de los arcos. Se dice que el sistema aprende si adapta los pesos de las conexiones de tal manera que le lleven a dar la salida correcta ante todas (o la mayor´ıa) de las entradas que sean necesarias.
8
1.2.3
Otras clasificaciones
Otra posible clasificaci´on de los m´etodos de aprendizaje explorados en inteligencia artificial (ver figura 1.1), considerando el tipo de estrategia y las ayudas que recibe un sistema de aprendizaje, es:
Figura 1.1: Otras clasificaciones dentro del aprendizaje autom´atico.
1.2.3.1
Supervisados
La suposici´on fundamental de este tipo de m´etodo es que los ejemplos proporcionados como entrada son necesarios para cumplir las metas del aprendizaje. Es como aprender con un profesor. En este tipo de m´etodo se dan ejemplos y se especifica de qu´e concepto son. Teniendo en cuenta que los ejemplos cuentan con atributos del mismo tipo, pero los valores pueden variar; todo esto para que el aprendizaje pueda der organizado de la manera mas optima en la base de conocimientos.
9
1.2.3.2
No supervisados
Son dise˜ nados para desarrollar nuevos conocimientos mediante el descubrimiento de regularidades en los datos data-driven. Estos m´etodos no est´an dirigidos por las metas goal-driven.
1.2.3.3
Mediante refuerzos
Este m´etodo de aprendizaje est´a a medio camino entre los dos anteriores. Al sistema se le proponen problemas que debe solucionar. El aprendizaje se realiza u ´nicamente con una se˜ nal de refuerzo proporcionada por un profesor o por el entorno como indicador de si se ha resuelto correctamente el problema.
1.3
Panorama general de la tesis
La tesis esta centrada en dar a conocer los diferentes paradigmas de aprenizaje autom´atico que en la actualidad existen. Haciendo un an´alisis de c´omo esta estructurado cada uno de ellos, al igual ver las principales t´ecnicas que emplean para aplicarlos en las principales a´reas de investigaci´on que emplean estas t´ecnicas. Y presentar una aplicaci´on empleando t´ecnicas de redes neuronales.
10
1.3.1
Justificaci´ on
Debido a que hoy en d´ıa existe mucha informaci´on en la red de temas de inter´es para el estudio de las ciencias computacionales; que adem´as es importante se˜ nalar que de toda esta informaci´on hay mucha en ingl´es; y es un poco dific´ıl para un principiante de habla castellana iniciar trabajos de investigaci´on en el ´area de inteligencia artificial y a´ un m´as en aprendizaje autom´atico. Existe el mismo problema con los libros de la biblioteca de la UJAT; que adem´as de que son muy pocos tambien est´an en ingles. Se pretende iniciar el estudio y desarrollo de esta importante ´area de investigaci´on de la computac´on en la Divisi´on Acad´emica de Ciencias B´asicas y dar una visi´on completa en amplitud profundizando en una de sus ramas y aspectos; hasta llegar a una aplicaci´on.
1.3.2
Objetivo de la tesis
Clasificar y analizar los diferentes algoritmos de aprendizaje au´ tico y su aplicacio ´n toma
1.3.3
Descripci´ on del contenido de la tesis
El contenido de el primer cap´ıtulo describe en gran medida los principales temas del a´rea de investagaci´on que estudiaremos. Como primer tema la tesis aborda los principales aportadores al aprendizaje autom´atico, de igual forma cu´ales fueron sus aportaciones ya que es importante conocer el origen del aprendizaje autom´atico. Por otra parte d´escribe a manera de introducci´on, cada uno de los paradigmas actuales; sus met´odos de aplicaci´on y algunas ´areas a fines como la biolog´ıa y la medicina, ya que estas son las a´reas m´as imp´ortantes para la aplicaci´on de estos paradigmas, est´a claro que no podemos dejar de mencionar que
11
aparte de la computaci´on exiten otras pero con menor grado de aplicaci´on. Los met´odos que se utilizan para poder llevar acabo los trabajos de aplicaci´on de apredizaje autom´atico est´an inmersos en procesos que se obtienen de ejemplos desarrollados por el mismo ser humano ya que esto es lo que se quiere lograr, y para lograrlo esto es necesario el apoyo de otras ´areas de inteligencia artificial como son redes neuroles, bioinform´atica entre o´tras.
En el cap´ıtulo 2, se har´a un estudio general de los paradigmas algor´ıtmicos que actualmente desarrollan el aprendizaje autom´atico, se presentara un an´alisis de los mismos, as´ı como cu´ales con los algoritmos que se utilizan en cada uno de los paradgimas, cu´al es su funcionamiento y en qu´e problemas se podr´ıan utilizar dichos algoritmos. Y las principales ventajas que en cuanto a recursos computacioles tiene frente a otros.
En el cap´ıtulo 3, se estudiar´an a los paradigmas estoc´asticos en los que se destacan los algor´ıtmos gen´eticos y com´o se da la aplicaci´on en el aprendizaje autom´atico. Se presentar´an ej´emplos de cu´ales con los trabajos que se han re´alizado utlizando dichos algor´ıtmos, as´ı como las ventajas que estos presentan.
En el cap´ıtulo 4, se realizar´a la presentaci´on de un sistema de de reconocimiento facial, el cu´al se analizar´a y se implementar´a con los m´etodos de apredizaje autom´atico basado en redes neuronales. Se explicar´a de forma anal´ıtica cu´al es la parte inteligente que el sistema presenta. Esta aplicaci´on presentar´a una red neuronal que sera entrada para poder dar los resultados m´as eficientes posibles. Por u ´ltimo el cap´ıtulo 5, mostrar´a las conclusiones y resultados obtenidos, as´ı como pruebas y posibles trabajos futuros.
12
Parte I
Antecedentes
13
CAP´ITULO 2 Paradigmas actules de aprendizaje autom´ atico Resumen del cap´ıtulo En este capitulo se presenta de manera mas profunnda cada uno de los paradigmas de aprendizaje auto´atico, especialmente los que son de tipo algoritmicos. Se llevara acabo un estudio de los m´etodos que utilizan y los algoritmos que han surgido durante el desarrollo de cada paradigma.
La implementacion de estos algoritmos tienen ventajas y desventajas al usarlos, es por ello que este analisis presentara las principales vantajas y desventajas de cada uno; de la misma forma se presentar´an ejemplos que hayan sido aplicados y desarrollados en algun problema; y en que a´rea de la ciencia tienen m´as aplicai´on.
2.1
Aprendizaje inductivo
El aprendizaje inductivo puede verse como el proceso de aprender una funci´on de algo. Al elemento de aprendizaje se le d´a un valor correcto (o aproximadamente correcto) de una funci´on a aprender para entradas particulares y cambia la representaci´on de la funci´on que est´a infiriendo, para tratar de hacer crecer la informaci´on dada por la retroalimentacin que ofrecen los ejemplos.
14
Un ejemplo es un par (x,f(x)), donde x es la entrada y f(x) la salida. El proceso de inferencia inductiva pura (o induccin) es: dada una coleccin de ejemplos de f, regresar una funcin h tal que se aproxime a f. A la funcin h se le llama la hiptesis. En principio existen muchas posibilidades para escoger h, cualquier preferencia se llama bias o´ sesgo. Todos los algoritmos de aprendizaje exhiben algn tipo de sesgo [?].
La selecci´on de una representaci´on para la funci´on deseada es probablemente el factor m´as importante para poder implementar a un problema el aprendizaje inductivo. Desde un punto de vista m´as tradicional (hablando de representaciones simb´olicas, reglas...), podemos decir que una buena parte del aprendizaje autom´atico est´a dedicada a inferir reglas a partir de ejemplos. Descripciones generales de clases de objetos, obtenidas a partir de un conjunto de ejemplos, pueden ser usadas para clasificar o predecir.
En general, el interes no est´a en aprender conceptos de la forma en que lo hacen los humanos, sino aprender representaciones simb´olicas de ellos. Angluin y Smith [?], listan cinco elementos que deben de especificarse para caracterizar un problema de inferencia inductiva: 1. La clase de reglas 2. El espacio de hip´otesis 3. El conjunto de ejemplos y su presentaci´on 4. La clase del m´etodo de inferencia 5. El criterio de ´exito
15
Al realizar una planificaci´on de soluci´on de un problema por medio del aprendizaje inductivo se recomienda tener claro estos elementos para asi obtener mejores resultados.
2.1.1
La clase de reglas
La clase de reglas denota la clase de funciones o lenguaje bajo consideraci´on para su implementaci´on. Por ejemplo, todas las expresiones regulares sobre un alfabeto espec´ıfico, lenguajes libres de contexto, funciones recursivamente enumerables etc.
2.1.2
El espacio de hip´ otesis
El espacio de hip´otesis es el conjunto de descripciones tal que cada regla en la clase tiene por lo menos una descripci´on en el espacio de hip´otesis. Diferentes espacios de hip´otesis pueden usarse para la misma clase de reglas.
El lenguaje de hip´otesis debe de tener descripciones para todas las reglas en la clase, pero puede contener m´as. Por conveniencia, normalemente se asume que el lenguaje descrito por el espacio de hip´otesis es el mismo que el de la clase de reglas. Por lo tanto podemos hacer las siguientes afirmaciones. a. Lenguaje de Hip´otesis es: la sint´axis usada en la construcci´on de hip´otesis. b. Espacio de Hip´otesis es: el conjunto de todas las posibles hip´otesis dentro del lenguaje de hip´otesis. El lenguaje de hip´otesis determina el espacio de hip´otesis del cual el m´etodo de inferencia selecciona sus reglas. El lenguaje impone ciertas restricciones (o preferencias) en lo que puede ser aprendido y qu´e estrategias de razonamiento
16
son permitidas. Al escoger un lenguaje, debemos de considerar no s´olo lo que queremos que el sistema realice, sino tambi´en qu´e informaci´on se le debe de proporcionar al sistema de entrada para permitirle resolver el problema, y si lo va a resolver a tiempo. Al igual que en razonamiento, existe un balance fundamental entre la expresividad y la eficiencia. El lenguaje de hip´otesis depende del a´rea de aplicaci´on. Una vez definido, una buena parte del tiempo de desarrollo se dedica a seleccionar cuidadosamente las estructuras de conocimiento adecuadas para la tarea de aprendizaje. Este tiempo se vuelve m´as cr´ıtico cuando el lenguaje de hip´otesis restringe la expresividad de tal forma que el conocimiento del dominio tiene que adaptarse al formalismo adoptado. El proceso de induci´on puede verse como una b´ usqueda de hip´otesis o reglas.
2.1.3
Clasificaci´ on de m´ etodos utilizados en aprendizaje inductivo
El Algoritmo de aprendizaje es esencialmente un proceso de b´ usqueda de un modelo de clasificaci´on lo mas sencillo y generales posibles. los metodos que se utilizan en aprendizaje inductivo se clasifican en dos tipos; Eager y Lazy.
Los metodos Lazy: Estos metodos no contruyen un modole; todo el trabajo se pospone hasta el momento de clasificar una nueva instancia todo el procesamiento se hace on-line
Los metodos Eager: Estos metodos construyen un modelo; parte del trabajo se realiza off-line, nada m´as recopilar todos los ejemplos de entrenamiento.
17
A continuaci´on se presentan los metodos mas utilizado en parendizaje inductivo, acompa˜ nado su algoritmo y funcionamiento. Se espeficica al igual cual es la clasificaci´on a la que pertenecen.
2.1.3.1
Vecino mas cercano
Este m´etodo es de tipo lazy, ya que no construye un modelo. El m´etodo de entrenamiento de este algoritmo es, que simplemente guarda todas las instancias. Y la clasificacai´on que realiza es en funci´on de la clase de instancias almacenadas mas cercanas. La distancia entre dos instacias (las instancias son los ejemplos o pensando de manera general seria un punto en el espacio de busqueda) se calculan en funcion del valor de sus atributos.
M´ etodo b´ asico: solo un vecino (1-NN) El algoritmo del vecino m´as cercano es uno de los m´as simples de construir entre los algoritmos heur´ısticos. La soluci´on se construye principalmente en base a los siguientes 2 pasos: • Se elige una instancia al azar del espacio de b´ usqueda. • Despu´es se selecciona la instancia mas aproximada y que aun todav´ıa no haya sido escogida, y as´ı sucesivamente hasta que se han visitado todas lasinstancias de busquedas. estos dos pasos describen comoo se lleva acabo la clasificaci´on del aprendizaje, en este caso de solo un vecino 1-NN. Este tipo de clasificaci´on tiene como t’ecnica ir clasificando las instancias utilizando la regla por veinidad mas simple. Esta se basa en la suposicion de que la clase del patron a clasificar, X, es la del prototipo
18
mas cercano en R, (conjunto de referencias o instacnicas) al que se puede denotar por XN N . Esta regla puede expresarse como:
vorX ∈ vorXN N si d(X, XN N ) La regla tiene que aplicarse a cada uno de los prototipos sin repetir ninguno de ellos y asi hasta haber visitado todos y poder determinar la clase ala que pertenece el patron a clasificar X. Este proceso se apoya de un gr´afo denominado Diagrama Voronoi (ver figura 2.1) el cual es un m´etodo muy esencial en la geometria compuacional utilizado para dar soluci´on al probrema del calculo de los puntos m´as cercanos. Este m´etodo utiliza un plano de dos dimensiones en el cual se formaliza a cada uno de los prototipos en forma de vectores, tomando como coordenadas a sus atributos en ´este caso 2; todo esto para pod´er graficarlos en el plano. Para poder generar el diagrama de voronoi acontinuaci´on se describen de manera general los pasos a seguir.
En primer lugar, y con motivo del aprendizaje del algoritmo, calculammos la distancia euclaliana de cada muestra de entranamiento (prototipo), a cada una de las que tenemos almacenadas en el cunjunto de R, de las cuales tambien conocemos la clase a la que pertenecen quedandonos con la k muestra m´as cercanas.
Como segundo paso se procede a calcualar el punto medio entre las dos muestras o prototipos ya selecionadas anteriormente, y trazamos una linea perpedicular al punto que estamos calculando la cual se une a los rectas de los otros puntos a manera de ir formando el grafo. una restriccion importante es que solo se peuden unir 3 lineas. Lo cual formara lineas de divici´on entre las muestras o prototipos.
19
Figura 2.1: Diagrama de Voronoi de 25 puntos
Proceso de clasificaci´ on
El proceso de clasifiaci´on se de demanera que nosotros vamos graficando el punto o patron que queremos clasificar. Ya que al graficarlo podemos ver la region de voronoi en la que esta ubicado lo cual nos indica cual es el vecino m´as cercano que es el punto central de dicha region. es asi como asignamos al patron la clase que corresponde al vecino m´as cercano observado. M´as adelante veremos un ejemplo de soluci´on a un problema de clasificai´on.
Este proceso es el m´as importamte en el m´etodo de clasifiacaci´on de vecino m´as cercano por que el aprendizaje se basa en el proceso de clasificaci´on sobre todo el predicci´on inductiva que estamos estudiando.
20
El algoritmo que se puede construir es el siguiente:
ALGORITMO 1 (Vecino m´as cercano) Paso 0: Seleccionar un v´ertice arbitrario n0. Poner = n0 y W = N n0
Paso 1: Mientras W 6= ∅ hacer: escoger j ∈ W : j no se haya conectado a t conectar t a j y poner W = W y t = j.
Paso 2: Conectar tal v´ertice inicial n0 para formar un ciclo hamiltoniano.
Este algoritmo es uno de los mas conocidos para desarrollar aprendizaje autom´atico. es por ello que dependiendo la problematica que se qiuera resolver se puede hacer unas variantes minimas pero fuera de la estructura, dichas variantes serian el tipo de atributos a utilizar y la cantidad de los mismos. Es importamte que se utilizen solo los necesarios para poder tener los mejores resultados.
M´ etodo K-NN Este metodo es utilizado para la clasificaci´on de conceptos o prototipos al igual que el 1-NN pero de realiza de manera general, es decir se utiliza con un numero determinado de clases K las cuales determinaran el concepto o el tipo de conocimineto que se esta adquieriendo con el proceso de aprendizaje. De la misma forma se realiza con el metodo del vecino mas cercano utilizando el diagrama de voronoi, solo que este como ya se menciono es para clasificaci´on de
21
muchas clases o general. A diferencia del 1-NN que solo clasifiaca de una clase y los prototipos o instancias que no pertenecen a dicha clase son descartadas. Esta metodo puede clasificar hasta K nemuro de clases sin descartar ning´ uno.
La regla principal para determinar el vecino m´as cercano como m´etodo de aprendizaje inductivo en K-NN es la siguiente:
vorX ∈ vorXN Ni si d(X, XN Ni ) : 1 ≤ i ≤ R
La regla para la clasificaci´on utilizando K-NN cambia solo en el numero de clases para clasificar K.
Ejemplo: Clasificaion de discos duros por m´ etodo K-NN
A continuci´on se presenta un ejemplo de clasificaci´on para implementar el metodo del vecino mas cercano. El ejemplo consiste en clasificar 10 discos duros de dos clases las cuales son: SATA ´e IDE los atributos que tomaremos en cuenta son: velodidad (R/S) y capacidad de almacenamiento (GB), los datos se presentan en la tabla 2.1, estos seran los prototipos que se utilizaran para entrenar el m´etodo.
Para poder presentar los prototipos en el plano cartesiano se tomaran los atributos como coordenadas en el plano por ejemplo Va = (120,2700) (vector atributo), tomando como el eje de las X al atributo capacidad de almacenamiento y al eje de las Y al atributo de valocidad. La grafica en la figura 2.2 presenta los puntos establecidos y la grafica de la figura 2.3 presenta el diagrama de voronoi construido de acuerdo a los pasos que ya vimos.
22
Capacidad (GB) V elocidada (R/S)
Clase
80
3600
IDE
120
5400
IDE
180
4500
SATA
200
3600
IDE
200
7200
SATA
80
5400
SATA
160
3600
IDE
250
7200
SATA
200
5400
IDE
120
7200
SATA
Tabla 2.1: Tabla de prototipos y clases Las nuevas instancias a clasificar de manera deductiva se presentan en la tabla 2.2, los cuales seran dos nuevos puntos en el plano para poder clasificarlos y asignarles una clase si observamos la figura 2.4 se muestran los nuevos puntos y la region de voronoi a la que pertenecen y esto nos dara la clase y acontinuaci´on son clasificados y agragados (ver tabla 2.3) a los prototipos o instancias ya conocidas.
Capacidad (GB) V elocidada (R/S) Clase 100
3600
??
180
7200
??
Tabla 2.2: Tabla de prototipos que seran clasificados
23
En la tabla 2.3 se presentan las instancias ya clasificadas con la ayuda del metodo K-NN del vecino mas cercano.
Figura 2.2: Diagrama de voronoi clasificacion de de discos duros
24
Figura 2.3: Resultado de la clasificacion del vecino mas cercano de las nuevas instancias
25
Capacidad (GB) V elocidada (R/S)
Clase
80
3600
IDE
120
5400
IDE
180
4500
SATA
200
3600
IDE
200
7200
SATA
80
5400
SATA
160
3600
IDE
250
7200
SATA
200
5400
IDE
120
7200
SATA
100
3600
SATA
180
7200
IDE
Tabla 2.3: Tabla de prototipos y clases 2.1.3.2
Arboles de decisi´ on
´ ElArbol de decisi´on es una representaci´on posible de los procesos de decisi´on involucradas a tareas inductivas de clasificaci´on. Acontinaci´on se presentan en forma resumida los terminos que se utilizan para elaborar los arboles de decisi´on. • Los Atributos son utilizados para crear particiones de conjuntos ejemplos • Los Nodos del a´rbol corresponden a los Nombres o Identificadores de los Atributos • Las Ramas de un nodo representan los posibles valores del Atributo Asociado al Nodo
26
• Las Hojas son conjuntos ya clasificados de ejemplos • Coste. Longitud del camino o coste de cada consulta • Bondad. Porcentaje de acierto por clases La Estrategia consiste en seleccionar aquel atributo potencialmente m´as u ´til para cada clasificaci´on. Cada elemento o instancia toma forma de una lista de Pares (Atributo, Valor), constituyendo una descripcin conjuntiva. Cada instancia va acompaada de la clase a la que pertenece.
El objetivo es construir un a´bol de decisi´on que explique todas las Instancias de la manera m´as compacta. Camino de Discriminacin. Va de la ral´ıza dicho nodo para los Atributos involucrados. Se propone la binarizaci´on de los Atributos (0, 1) = (No, Si); independizando el proceso de n´ umero de valores de un atributo. Normalizar la ganancia. un ejemplo se encuentra en la figura Dentro de este metodo esxiste un algoritmo que se conoce como ID3 el cual es el mas importamte de esta rama.
2.1.4
ALGORITMO ID3 (lista-ejemplos, lista-atributos)
- Si lista-ejemplos est vacia entonces "Regresar", sino seguir - Si todos los ejemplos en lista-ejemplos son + entonces devolver + sino seguir - Si todos los ejemplos en lista-ejemplos son - entonces devolver sino seguir - Si lista-ejemplos est vacia entonces devolver Error sino
27
Figura 2.4: Ejemplo de arbol de desici´on
28
1. Llamar mejor al elemento a de lista-atributos que minimice merito (a)
2. Iniciar un rbol cuya Raz sea mejor
3. Para cada valor de Vi de mejor -Incluir en ejemplos-restantes los elementos de lista-ejemplos que tengan el valor Vi del atributo mejor -Dejar en atributos-restantes todos los elementos de lista-atributos excepto mejor -Devolver el valor de: ID3 (ejemplos-restantes, atributos-restantes)
2.2 2.2.1
Aprendizaje Anal´ ogico Definiciones previas
En esta pequea secci´on se de presentan algunos conceptos basicos para comprender como funcionan los procesos analogicos tanto de razonamiento como de aprendizaje. En el vocabulario del razonamiento analogico, los dos conceptos mas importantes que existen son: Problema base (o base): Es el referente de la analog´ıa, es decir, el problema, ya resuelto en el pasado, tal que su solucion servira de base para resolver el nuevo problema. En caso de hacer analog´ıa entre dominios diferentes, se llama dominio base a aquel en el cual esta def´ınido el referente. Tambien se denomina conocimiento base, a toda la informaci´on disponible sobre el problema base y su
29
dominio. Problema objetivo (u objetivo): Es el nuevo problema a resolver utilizando informaci´on referente a uno o mas problemas base. De forma analoga al problema base, tambien se habla de dominio objetivo como aquel en el que esta planteado el problema objetivo, y de conocimiento objetivo como el necesario para resolver el problema objetivo y que se obtiene por transformaci´on de parte del conocimiento base. Antes de empezar a exponer los componentes del aparenizaje por anal´ogia, se ha de establecer el tipo de problema que pretende resolverse. El problema tipo sera de la forma: Dada como entrada una situacion objetivo, dar como resultado una representaci´on aumentada de la misma en la que se den aamyor apresiaci´on las inferencias analogicas obtenidas de una situaci´on base o conociminetos adquiridos anteriormente. Los componentes o fases del sistema que deba resolver el problema propuesto y su descripcion y proposito son: Recuperacion.- Dada la situacion objetivo, el sistema debe ser capaz de recuperar un caso base potencialmente analogo y poner en correspondencia las partes correspondientes de ambos. Elaboracion.- Dadas las bases y el conocimiento que hay disponible sobre ella, derivar atributos, relaciones o cadenas causales adicionales que puedan ser utilizados posteriormente sobre la situacion objetivo. Mapeo.- Dada la descripcion aumentada del caso base,regristrar la informaci´on de los atributos seleccionados sobre el objetivo, evidentemente con posibles modif´ıcaciones. Justif´ıcaci´ on.- Dados los atributos mapeados sobre la situacion objetivo, justi car que son en efecto validos.
30
Aprendizaje.- El aprendizaje es llevado acabo como resultado del razonamiento analogico de las fases anteriores, consiste en guardar la representaci´on aumentada de la situacion objetivo, en la creaci´on de reglas generales motivadas por la analog´Ĺa o en el reordenamiento de las mismas a partir de mas razonamientos sobre la misma o diferentes situaciones base. El orden de las diferentes fases puede variar de un sistema a otro (dependiendo de la tarea a resolver), pero un sistema capaz de resolver el problema propuesto debera realizar todas ellas. Para ejemplficar las fases descritas anteriormente, en la gura 3.3 se representa, desde el punto de vista de este modelo, una inferencia analogica bien conocida: el atomo de hidrogeno es semejante al sistema solar [?].
31
CAP´ITULO 3 Algoritmos para resolver el problema de las interacciones de prote´ınas Resumen del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
3.1
El algoritmo MSSC general
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
32
3.1.1
An´ alisis algor´ıtmico del MSSC-General
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
3.2
El algoritmo MSSC de m´ axima especificidad
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
3.2.1
An´ alisis algor´ıtmico del MSSC-De m´ axima especificidad
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsd-
33
hakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
3.3
Ventajas y desventajas
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhka-
34
jls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
Conclusiones del cap織覺tulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
35
CAP´ITULO 4 Implementaci´ on simb´ olica en NetLogo Resumen del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
4.1
Programaci´ on simb´ olica
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
4.2
El lenguaje de programaci´ on NetLogo
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lk-
36
jasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
4.2.1
Porqu´ e utilizar NetLogo como lenguaje base
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls akl-
37
sjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
4.3
Detalles de la implementaci´ on
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
Conclusi´ on del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsd-
38
hakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
39
Parte II
Aproximaci´ on evolutiva
40
CAP´ITULO 5 Los algoritmos gen´ eticos en bioinform´ atica Resumen del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
5.1
Algoritmos gen´ eticos
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak
41
klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
5.1.1
El objetivo de los algoritmos ge´ eticos
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
5.1.2
Uso de AGs en bioinform´ atica
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak
42
klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
5.2
Soluci´ on al problema del cubrimiento de conjuntos
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
5.2.1
La funci´ on objetivo
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
43
5.2.2
Algoritmo AGSC
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
Conclusi´ on del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
44
CAP´ITULO 6 Impementaci´ on del problema MSSC con algoritmos gen´ eticos Resumen del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
6.1
Detalles de la implementaci´ on
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
45
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls Figura 6.1: default
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak
46
klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
Tabla 6.1: default aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
47
Conclusi´ on del cap´ıtulo aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
48
CAP´ITULO 7 Discusi´ on final y conclusiones 7.1
Discusi´ on final
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs
49
lkjasdhkajls
7.2
Conclusiones
1. aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls 2. aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls akl-
50
sjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls 3. aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
7.3
Trabajo futuro
aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak
51
klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls aklsjdhlak klajsdhakljs lkjasdhkajls
52
´ APENDICE A Tablas de Definici´ on de Ontolog´ıas de Genes go
definicion
Tabla A.1: default
53
´ APENDICE B Definiciones NetLogo B.1
Listado de definiciones
1 globals [ iterations pop−in−time pop−in−time+1] 2 turtles−own [mission] 3 4 to−report fa [n] 5
report ka ∗ n ∗ (1 − n)
6
; ka × n × (1 − n)
7 end 8 9 to−report fab [n] 10
report kb ∗ fa n ∗ (1 − fa n)
11 end 12 13 to−report fabc [n] 14
report kc ∗ fab n ∗ (1 − fab n)
15 end 16 ; este es un comentario 17 to draw−labels 18
ask patch −1 0 [
54
19
set plabel−color black
20
set plabel ”0”
21
]
22
ask patch 8 0 [
23
set plabel−color black
24
set plabel ”0.5”
25
]
26
ask patch 16 0 [
27
set plabel−color black
28
set plabel ”1”
29
]
30
ask patch −1 8 [
31
set plabel−color black
32
set plabel ”0.5”
33
]
34
ask patch −1 16 [
35
set plabel−color black
36
set plabel ”1”
37
]
38 end
B.2 B.2.1
Documentaci´ on de las definiciones WHAT IS IT?
This section could give a general understanding of what the model is trying to show or explain.
55
B.2.2
HOW IT WORKS
This section could explain what rules the agents use to create the overall behavior of the model.
B.2.3
HOW TO USE IT
This section could explain how to use the model, including a description of each of the items in the interface tab.
B.2.4
THINGS TO NOTICE
This section could give some ideas of things for the user to notice while running the model.
B.2.5
THINGS TO TRY
This section could give some ideas of things for the user to try to do (move sliders, switches, etc.) with the model.
B.2.6
EXTENDING THE MODEL
This section could give some ideas of things to add or change in the procedures tab to make the model more complicated, detailed, accurate, etc.
B.2.7
NETLOGO FEATURES
This section could point out any especially interesting or unusual features of NetLogo that the model makes use of, particularly in the Procedures tab. It might also point out places where workarounds were needed because of missing
56
features.
B.2.8
RELATED MODELS
This section could give the names of models in the NetLogo Models Library or elsewhere which are of related interest.
B.2.9
CREDITS AND REFERENCES
This section could contain a reference to the model’s URL on the web if it has one, as well as any other necessary credits or references. Listing B.1: “Descripci´on general”
57
Referencias [1] Antonio Moreno, Eva Armengol, Javier Bjarn Llu´ıs Belanche Ulises Cort´es Ricard Gavald´a Juan Manuel Gimeno Beatriz L´opez Mario Mart´ın Miquel S´anchez Antonio Moreno Eva Armengol Javier B jar. Inteligencia Artificial . Servei de Publicacions de la UPC y CPET (Centre de Publicacions del Campus Nord), 1994. [2] D.Angluin, C.H.Smith. Inductive Inference: Theory and Methods. Computing Surveys, 1983. [3] e Ibaaez D. Carlos, Fuentes T. Carolina. Historia del Aprendizaje Autom´atico. Technical Report, 2010. [4] Mitchell, T. M. Machine learning. Boston, 1997. [5] Morales, Eduardo. “Descubrimiento de Conocimiento en Bases de Datos.” Junio 1999. [6] Rosenblatt, Frank. “The Perceptron: A Probabilistic model for Information Storage and Organization in the, Brain,” In, Psycological Review , 65 No. 6, Processes:386–408 (1958). [7] Schank, R.C. Dynamic Memory .A Theory of Remindings and Learning in Computers and People. Technical Report, Cambridge, University Press, 1982. [8] Selfrideg, O. G. “Pandemonium: A paradigm for learning,” In D. V. Blake and A. M. Uttley, Editors, 511–529 (1959). [9] Widrow, B. “Generalization and Information Storage in Networks of Adaline Neurons,” in Self-Organizing, Systems, symposium proceeding, M.C. Yovitz, G.T. Jacobi, and G. Goldstein, 435–461 (1962).
58