1
Octubre 2016
STAFF
Año 3 Número 22
CONSEJO EDITORIAL
Ariel Rodríguez Presidente del Consejo
Salvador Ordóñez Carlos Rivera
EQUIPO EDITORIAL
Salvador Ordóñez
salvador@developnetwork.com
Director Editorial
Edgar Loeffelmann
edgar@developnetwork.com
Editor
Xochicuahuitl G.
xgleason@developnetwork.com
Héctor D´Amico Cecilia Castillo Víctor Hernández Miguel Adame Gabriela Campos Karla Salinas Alejandro Rebollo Carles Aguilar Colaboradores
Coeditora
Ignacio Gallegos
Relaciones Públicas
EN PORTADA Bases de Datos e Inteligencia Artificial en Informática Jurídica Primera parte
Agradecimientos Especiales
Andreida De Negri Aitor Sobera Europa Welt Investigación y Desarrollo ID José Antonio Marina Jorge Herrerías Antonio Ruíz de Elvira Juan David Mejía
Salvador Ordóñez Director de Arte
Ximena González Diseñador
Andrea Rojas
arojas@develop.com.mx Editor Web
Shutterstock
Fotografías
UTech Day www.issuu.com Distribución
Edgar Loeffelmann, Carlos Fernández, Arturo Campos Fentanes, Ana Paula Konrad, Pedro Flores, Juan Saldivar, Alejandro Villanueva, Cristina Cervantes y a todas las personas que han hecho posible este número tan especial de developNetwork
“developNetwork” es una publicación literaria que puede ser distribuida, previa autorización de sus representantes, de manera física y electrónica. El nombre “developNetwork”, diseño y contenido se encuentran en proceso de registro y son protegidos por la Ley Federal de Derechos de Autor, encontrándose vinculados a una marca en proceso de registro ante el Banco Nacional de Marcas perteneciente al Instituto Mexicano de la Propiedad Industrial. Todos las artículos aquí descritos están sujetos a sufrir cambios y/o variaciones, sin previo aviso. La información, datos estadísticos, reportajes y fotografías contenida en los publirreportajes es resultado de un trabajo de recolección de información en la que terceros, colaboradores o personalidades públicas otorgan sus opiniones y/o datos de un tema en específico, por lo que bajo ninguna circunstancia reflejan la opinión de “developNetwork”, de sus editores, representantes o accionistas, así mismo, “developNetwork” no asume responsabilidad respecto del contenido y veracidad de dicha información. Revista impresa por “Compañía Impresora El Universal” Ignacio Allende 174, Guerrero, 06300 Ciudad de México, D.F. Para conocer más sobre los derechos de autor de algunas de las imágenes, fotografías y trabajado literarios publicados a través de “developNetwork” consulta nuestra página web en www.developnetwork.com
“developNetwork”, es una revista mensual, publicación impresa y electrónica. 5557-5012 / 5395-2791 Contacto Web: hola@developnetwork.com
www.developnetwork.com
2
CARTA EDITORIAL
A
ntes de comenzar a leer la siguiente revista, queremos agradecerles el tiempo de espera por el qué tuvieron que pasar para que llegará el siguiente número de su revista developNetwork. El tema que abordaremos en esta nueva edición, está dedicado a la Inteligencia Artificial, un escenario que ha generado en los últimos años, un fuerte debate para qué las empresas creadoras de esta tecnología liberen el potencial en expansión de los sofisticados software desarrollados en los últimos 10 años. Los sectores empresariales que utilizan más las bases de datos, se han visto beneficiadas con el progreso de IA, pues han podido mejorar los procesos para comprender de manera más acertada, los hábitos de consumo de las distintas sociedades, permitiendo con esto satisfacer de manera casi personal la necesidad que el ser humano ha encontrado en el factor de consumo y de información. Recordemos también que al hablar de sistemas inteligentes no necesariamente nos referimos a los creados por los cineastas, donde nos muestran un futuro gobernado por las computadoras, sino a los software capaces de procesar y segmentar grandes bases de datos y ofrecer en segundos cientos de opciones al usuario de un sistema u ordenador. Esperamos que esta revista sea de su agrado y cómo siempre esperamos sus comentarios al correo hola@developnetwork.com Salvador Ordóñez Director Editorial
3
DICE Editorial 3 Carta Bienvenidos a la Inteligencia Artificial
6 Breves Videojuegos, música y películas Apps 8 Breves Apps OnLine 9 Akame Ga Kill
BREVES
Octubre
38
Octubre
TECH NEWS
12 Gadgets Lo mejor de la tecnología para este 2016 Artificial 14 Inteligencia La Revolución del mundo indefensión de un recién nacido 18 ¿La encierra la clave de la inteligencia Octubre
22
humana? La jerarquía biológica inspira avances en Inteligencia Artificial
MASTER TI
42 Apache Software Fundation (ASF) Artificial 46 Inteligencia La especie del futuro 48 Un mundo cambiante experiencia de usuario 50 La y su usabilidad en aplicaciones web 54 Inteligencia Artificial y las emociones
CAMPUS TI
24 28 El futuro de la seguridad informática ¿Porqué es posible la Inteligencia 30 Artificial? 4
CÓDIGO INNOVARE
58
de éxito 72 Caso Transformación del Data Center Latam Award
MASTER TI
32 5
ARTÍCULO
Estas Breves son dedicadas a mi hermana, sobrino y pareja. Quienes en agosto cumplieron años y son mi inspiración.
Andreida De Negri
Suicide Squad
Megadeth
Harley Quinn, Joker, Deadshot, KillerCroc y más, salieron a la pantalla grande el 5 de Agosto en las salas de cine de la Ciudad de México. La película prometió ser uno de los filmes más taquilleros hasta ahora en la historia de DC Cómics. Todo se centra en un grupo de villanos que deberán trabajar para el gobierno de Estados Unidos, ya que son los únicos capaces de terminar con las nuevas amenazas que azotan la ciudad. Recordemos que Superman ha muerto y una visita de otro mundo, con muy malas intenciones, pone en peligro todo el orden que hubo alguna vez. No te pierdas el último tráiler y todo el contenido que Warner y DC Cómics traen para ti. http://bit.ly/1qJ3rNC
Megadeth es una banda californiana de Heavy Metal, creada en 1983 por el vocalista y guitarrista Dave Mustaine. Lo increíble es que la conformación de este grupo fue la respuesta que dio Dave al ser expulsado de Metallica, por lo cual nadie creyó en que tendría el éxito qué ha logrado Este 29 de Agosto, la banda de Trash Metal dio un concierto en Pepsi Center WTC en punto de las 21:00 hrs, donde veteranos y nuevos fans se dieron cita para disfrutar en vivo de su nuevo disco Dystopia. Te dejamos el primer clip musical de esta nueva producción: http://bit.ly/2bdyJt4
Civil War II Comic
FIFA 17 FIFA 17 llega con todo, cambiando así algunas cosas que en FIFA 16 aún no nos dejaban satisfechos. Entre los cambios más icónicos podremos encontrar: Modo Journey: en este modo de juego, tendrás que controlar la carrera de Alex Hunter, un jugador promesa con el que crecerás desde cero, pudiendo escoger los mejores equipos. Hay nuevos y mejorados gráficos en el juego. Todas las jugadas se han rediseñado. Existe el rumor de que se incluirán licencias reales en el juego así que veremos entrenadores reales en él. Mejoras de gameplay de la IA. FIFA 17 saldrá el 27 de Septiembre para PS4, PS3, XBOX 360, XBOX ONE y PC.
Un Nuevo crossover y una nueva lucha comienzan, como sabemos en el primer Civil War, el Capitán América muere. Así que la encargada de mantener el orden y la paz mundial, será ahora Capitán Marvel. Una chica que muy pocos conocen, pero que pronto muchos amarán. Ella tiene la idea de castigar a todos aquellos que puedan causar algún daño al futuro, para prevenir catástrofes como a las que los Avengers ya están acostumbrados. Pero claramente Iron Man, será quién estará en contra de que esto se lleve a cabo, ya que piensa que cualquier posible amenaza podría evitarse de diferentes formas, provocando así una nueva confrontación entre ambos bandos. Y tú ¿de qué lado estarás?
http://bit.ly/1X7qcI4
http://bit.ly/1ZPkvwM
6
7
ARTÍCULO
APPS
Andreida De Negri
On Line
Si quieres conocer increíbles apps cada mes para descargar en tu Smartphone, no te pierdas nuestra sección de “breves” donde encontrarás las que no pueden faltar en tu celular. Estas son las que seleccionamos para este mes.
Pokemon Go
Es increíble como una simple aplicación puede unir naciones. Pocos tienen conocimiento de que el creador de Pokemon Go, es el mismo creador de Google Earth (John Hanke) así que ya sabes por qué tanto éxito. Vuélvete un maestro pokémon y descárgala ahora
Brain Dots
http://bit.ly/29i2TpG
Final Fantasy: Brave Exivius
Sabemos cuánto te gustan los juegos que te hacen pensar y que aparte de todo sean divertidos, por esta misma razón hoy recomendamos para ti Brain Dots. Este juego consiste en dibujar líneas y hacer que los puntos se encuentren.
http://bit.ly/1PsTE3F
Final Fantasy para smartphone por fin está aquí, podrás jugar con personajes de versiones anteriores y lo mejor es que cuenta con excelentes gráficos y animación CG. Con este juego tendrás batallas épicas y estratégicas donde podrás demostrar tus habilidades como jugador. http://bit.ly/2blCc8u
Suicide Squad: The Game
Pelea como cualquiera de estos súper villanos y cumple las diferentes misiones que este juego tiene para ti. Podrás jugar en modo de Harley Quinn, Deadshot y Diablo, hasta ir completando niveles. Explora la ciudad para encontrar vidas extra, armas y municiones. http://bit.ly/2c0C3F8
Marvel Future Fight
Los Guardianes de la Galaxia, Los Vengadores, Spiderman y más héroes de Marvel, te esperan para enfrentarlos uno contra otro en este juego. Lo más interesante es que podrás escoger hasta tres personajes para que peleen contra otros tres y defiendas tu honor. http://bit.ly/1TstqU3
8
ARTÍCULO
AKAME GA KILL
C
Aitor Sobera
on la motivación de ganar dinero y atmósfera oscura que nos acompaña desde el primer salvar a su pueblo del hambre que capítulo va perdiendo fuerza ganando protagonismo los padece debido a los elevados impuestos clásicos toques de todas las series shonen y le hacer perder que deben pagar, Tatsumi decide ir mucha energía a la historia principal. hasta la capital del Imperio para así Este tipo de historia es la que nos hará plantearnos poder alistarse en el ejército y ascender desde el primer momento si ¡Akame ga Kill! es un rápidamente gracias a su dominio de la espada. Cuando verdadero shonen o más tirando a un seinen suavecito. Los llega a la capital, descubre la oscuridad que la rodea y que asesinatos acompañados por la sangre son una auténtica la gente no es como él pensaba. Una vez que presencia adicción, sabiendo las razones que mueve a Night Raid con sus ojos una masacre de manos de los corruptos para realizar esos asesinatos nos hará ponernos de su habitantes del Imperio, así como la muerte de sus amigos lado en lugar de ver con malos ojos este tipo de actos. con los que emprendió dicho viaje, decide unirse a Night ¡Akame ga Kill! cuenta con una animación bastante buena Raid, un grupo de asesinos que luchan junto con el Ejercito con algunas ilustraciones en algunos de sus episodios Revolucionario, el cual lucha en contra que nos permitirán disfrutar de una del Imperio para librar al pueblo de la imagen estática, cosa a la que no estamos corrupción y la injusticia que los rodea. acostumbrados ya que no es un recurso ¡Akame ga Kill! es un shonen corto, habitual en otros animes. La animación de 24 capítulos donde una historia de las batallas es francamente buena, oscura nos acompañará constantemente, aunque si se agradecería algo más de gore con más sangre, momentos violentos y en las escenas clave ya que en muchos profundidad que los animes que suelen casos la censura deja mucho que desear acompañar este género, pero no deja de convirtiéndolo en un gore que no llega a ser un shonen. Junto con todo lo “siniestro” serlo y nos deja con ganas de algo más. que se nos presentará a lo largo de los 24 En lo referente a paisajes y entorno de capítulos, iremos viendo como procuran los personajes, la animación no decae, si introducir algunos momentos cómicos así que se nota la diferencia entre lo que es como pinceladas de harem para suavizar el dibujo base y el dibujo animado pero un poco la tensión y oscura atmósfera que como en la gran mayoría de los animes, recubre toda la historia. Los personajes por lo que no le resta ningún punto. están bien construidos y nos permiten cogerles cariño de La banda sonora, no es destacable, exceptuando el una forma rápida y sin darnos cuenta. No solo hablamos opening y el ending. No recordaremos con claridad los de los personajes “buenos” de la historia, sino todos temas que suenan de fondo durante las batallas o distintos en general están bien construidos siendo fácil odiarlos momentos de la historia, pero el opening es cañero y profundamente desde su primer acto de presencia. rockero que es lo que mejor le va a ¡Akame ga Kill! y la El trasfondo de cada uno no sigue este mismo esquema, animación que nos acompaña durante estos dos openings ya que así como en algunos casos está detallado y explicado con los que cuenta el anime encaja perfectamente con el con mayor o menor detalle su pasado y los motivos que le ritmo y musicalidad de las canciones elegidas. Los dos han llevado hasta la situación actual, en otros casos esto es endings que nos acompañarán para cerrar los capítulos de más banal y nos quedaremos un poco en ascuas con ganas la serie, al igual que nos openings, encajan perfectamente. de saber más. El protagonista, Tatsumi, sigue el mismo Mantienen el clásico toque lento, tanto sonoro como de prototipo de protagonista shonen, personaje con ganas animación, de todos los endings en comparación con los de mejorar y hacerse más fuerte para proteger a todos sus openings, pero sin llegar a ser canso. seres queridos, así que en este sentido no encontraremos En general es una anime para pasar el rato, con una nada destacable. Esto llega a un punto en el que personajes historia buena y una animación aceptable que nos hará secundarios tienen un mayor protagonismo o peso en la pasar un buen rato. Eso si, nos dejara con ganas de algo historia principal como es el caso de Akame o Esdeath. más y nos impulsará a echar mano del manga que recibe La historia es buena pero el final se hace algo rápido. La mejores críticas que el anime.
9
10
11
GADGETS
SEPTIEMBRE
Lo mejor de la tecnología para esta temporada
Andreida De Negri
Revolver Lens Camera kit
Una cámara ultra potente para tu Samsung Galaxy o iPhone, con este gadget podrás obtener fotos increíbles, agregar efectos de contraste, luz y color. Cuenta con diferentes lentes intercambiables y es muy fácil de usar. http://bit.ly/2aeo6kX
2
1
Somabar
Debo admitir que este es uno de mis favoritos. ¿Habías soñado con tener tu propio bar y por supuesto, tu propio bartender? Pues con este gadget estás a un trago de poseerlo. Puedes controlarlo desde tu Smartphone con la aplicación del mismo nombre. http://bit.ly/1trw1zr
The Top-Chair S
Hoy en día, la tecnología nos permite tener mayores oportunidades y hoy toca el turno a este invento, una silla de ruedas multifuncional que entre sus tantos beneficios incluye el poder subir escaleras. http://bit.ly/2binHlM
4 12
Camp Kitchen
Prácticamente son tuppers creados para los campistas, son retráctiles, por lo cual no ocuparán mucho espacio en tu back pack o maleta, son ideales para viajes largos o excursiones. http://bit.ly/2biohjw
3
ARTÍCULO
Ryno Motors
Mitad bicicleta, mitad motocicleta. Si aún no estás listo para manejar una moto, este gadget puede ser el indicado para ti, completamente eléctrico por lo cual se adaptará a tus movimientos.
5
http://bit.ly/29PJNvE
6
The Coolest Cooler
¡No puedes irte de viaje sin ella! Una hielera con bocina, cuchillo integrado, platos, destapador, cargador y más. Contiene también luces LED y cordones para cargar todo tipo de cosas. ¡Sin duda muy cool! http://bit.ly/2bwucAl
Snikky Sniky Scooter
Una bici con motor, 100% eléctrica. Basta de robos… Gracias a su motor removible esta bicicleta se está convirtiendo en la favorita de muchas personas. Agradable con el medio ambiente, veloz y muy cómoda.
7
http://bit.ly/2bgPezq
8
Sealander
Caravana y Yate a la vez, con este Sealander podrás disfrutar del campo como también de un atardecer en el mar, ya que tiene ruedas para andar en tierra y un motor potente para navegar. http://bit.ly/2a9XiBF
Quadrofoil
¿Quieres sentir que vuelas sobre el agua? Pues con este gadget ya puedes hacerlo. Quadrofoil es una moto acuática completamente eléctrica y amigable con el medio ambiente.
http://bit.ly/1lJtIsF
10
9
Matador Camera Base Layer
Esta funda protegerá a tu cámara de golpes, caídas e incluso agua, ya que trae consigo una bolsa especial para evitar contacto con la misma. Es acolchonada por lo cual tu cámara no sufrirá rayones ni golpes. http://bit.ly/2bO2Tz9
13
L
Europa Welt
a inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismos, utilizando como paradigma la inteligencia humana. General y amplio como eso, reúne a amplios campos, los cuales tienen en común la creación de máquinas capaces de pensar. En ciencias de la computación se denomina inteligencia artificial a la capacidad de razonar de un agente no vivo. John McCarthy acuñó la expresión «inteligencia artificial» en 1956, y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes».
Al igual que en la informática convencional, en la Inteligencia artificial tenemos una serie de elementos peculiares que la caracterizan y la diferencian. Para Nilsson son cuatro los pilares básicos en los que se apoya la inteligencia artificial, los cuales serán analizados a continuación. Las principales críticas a la inteligencia artificial tienen que ver con su capacidad de imitar por completo a un ser humano. Estas críticas ignoran que ningún humano individual tiene capacidad para resolver todo tipo de problemas, y autores como Howard Gardner han propuesto que existen inteligencias múltiples. Un sistema de inteligencia artificial debería resolver problemas. Por lo tanto es fundamental en su diseño la delimitación de los tipos de problemas que resolverá y las estrategias y algoritmos que utilizará para encontrar la solución. En los humanos la capacidad de resolver problemas tiene dos aspectos: los aspectos innatos y los aspectos aprendidos. Los aspectos innatos permiten por ejemplo almacenar y recuperar información en la memoria y
14
Artículo publicado en: Europa Welt el día 9 de mayo de 2016 http://bit.ly/2dquDLD
15
los aspectos aprendidos el saber resolver un problema matemático mediante el algoritmo adecuado. Del mismo modo que un humano debe disponer de herramientas que le permitan solucionar ciertos problemas, los sistemas artificiales deben ser programados de modo tal que puedan resolver ciertos problemas. Muchas personas consideran que el test de Turing ha sido superado, citando conversaciones en que al dialogar con un programa de inteligencia artificial para chat no saben que hablan con un programa. Sin embargo, esta situación no es equivalente a un test de Turing, que requiere que el participante esté sobre aviso de la posibilidad de hablar con una máquina. • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles. • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN). • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos). • Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano. • También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software. Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos. Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que limita grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo tanto ante un problema, nos ayuda a seleccionar las bifurcaciones, dentro de un árbol, con más posibilidades, con ello se restringe la búsqueda aunque no
16
siempre se garantiza una solución adecuada. Todo lo que se debe tener para que una heurística sea adecuada es que nos proporcione soluciones que sean lo suficientemente buenas. Además utilizando la heurística, no será necesario replantear un problema cada vez que se afronte, ya que si lo hemos planteado anteriormente, ésta sugerirá la forma en que se ha de proceder para resolverlo. Representación del conocimiento. La representación es una cuestión clave a la hora de encontrar soluciones a los problemas planteados, y que además éstas sean adecuadas. Si analizamos más detenidamente el término y además dentro de la Informática, y más concretamente dentro de la Inteligencia Artificial, encontramos varias definiciones, como pueden ser las siguientes: según Barr y Feigenbaum, la representación del conocimiento es una combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados correctamente por un programa, éste podrá exhibir una conducta inteligente. La opinión de Fariñas y Verdejo será que la Inteligencia Artificial tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona. Por ello, el tema central de esta disciplina es el estudio del conocimiento y su manejo. Y por último la opinión de Buchanan y Shortliffe apunta a que la Representación del Conocimiento en un programa de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos, relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su manipulación, que permitiesen la resolución inteligente de algunos de los problemas ya planteados. Otra característica a resaltar, es la inclusión en los programas de Inteligencia Artificial, aunque por separado, de los conocimientos y la unidad que controla y dirige la búsqueda de soluciones. Dada esta disposición, en estos programas se hace fácil la modificación, ampliación y actualización de los mismos. El razonamiento que puede tener cualquier persona, ha demostrado ser una de las cosas más difíciles de modelar dentro de un ordenador. El sentido común, a menudo nos ayuda a prever multitud de hechos y fenómenos
R E P O R TA J E
Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia
corrientes, pero como ya hemos dicho es muy complicado representarlos en un ordenador ya que los razonamientos, son casi siempre inexactos, dado que sus conclusiones y reglas en las que se basan solamente son aproximadamente verdaderas. Lenguajes, entornos y herramientas de Inteligencia Artificial. En la Inteligencia Artificial, se han desarrollado diferentes lenguajes específicos para los diferentes campos de aplicación. Estos lenguajes en su mayoría cuentan con una serie de características comunes que podemos resumir de la siguiente forma: Este tipo de software ofrece una gran modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el manejo de listas, y esto es importante, ya que las listas son la estructura más habitual usada para la representación del conocimiento en la Inteligencia Artificial. Facilitan la realización de ciertos tipos de deducción automática permitiendo también, la creación de una base de hechos, que es el lugar donde se recogen los datos iniciales del problema a resolver y también los resultados intermedios una vez obtenidos. Permite el uso simultáneo de estructuras que incorporan conocimiento declarativo y conocimiento procedimental. Tienen una marcada orientación gráfica. Además, las herramientas de Inteligencia Artificial, permiten hacer un seguimiento de todos los cambios realizados a lo largo de toda la sesión. Disponen herramientas capaces de desarrollar programas que son capaces de comprender otros programas y también de realizar modificaciones sobre ellos. Otros experimentos mentales como la Habitación China de John Searle han mostrado cómo una máquina podría simular pensamiento sin tener que tenerlo, pasando el test de Turing sin siquiera entender lo que hace. Esto demostraría que la máquina en realidad no está pensando, ya que actuar de acuerdo con un programa preestablecido sería suficiente. Si para Turing el hecho de engañar a un ser humano que intenta evitar que le engañen es muestra de una mente inteligente, Searle considera posible lograr dicho efecto mediante reglas definidas a priori. Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y apareció ya en los inicios de los primeros sistemas
operativos informáticos. La capacidad de los humanos para comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien el humano aprende el lenguaje del sistema como si aprendiese a hablar cualquier otro idioma distinto al nativo, o bien el sistema tiene la capacidad de interpretar el mensaje del usuario en la lengua que el usuario utiliza. Un humano durante toda su vida aprende el vocabulario de su lengua nativa. Un humano interpreta los mensajes a pesar de la polisemia de las palabras utilizando el contexto para resolver ambigüedades. Sin embargo, debe conocer los distintos significados para poder interpretar, y es por esto que lenguajes especializados y técnicos son conocidos solamente por expertos en las respectivas disciplinas. Un sistema de inteligencia artificial se enfrenta con el mismo problema, la polisemia del lenguaje humano, su sintaxis poco estructurada y los dialectos entre grupos. Los desarrollos en Inteligencia Artificial son mayores en los campos disciplinares en los que existe mayor consenso entre especialistas. Un sistema experto es más probable de ser programado en física o en medicina que en sociología o en psicología. Esto se debe al problema del consenso entre especialistas en la definición de los conceptos involucrados y en los procedimientos y técnicas a utilizar. Por ejemplo, en física hay acuerdo sobre el concepto de velocidad y cómo calcularla. Sin embargo, en psicología se discuten los conceptos, la etiología, la psicopatología y cómo proceder ante cierto diagnóstico. Esto dificulta la creación de sistemas inteligentes porque siempre habrá desacuerdo sobre lo que se esperaría que el sistema haga. A pesar de esto hay grandes avances en el diseño de sistemas expertos para el diagnóstico y toma de decisiones en el ámbito médico y psiquiátrico (Adaraga Morales, Zaccagnini Sancho, 1994). Al desarrollar un robot con Inteligencia Artificial se debe tener cuidado con la autonomía, tener cuidado en no vincular el hecho de que el robot interaccione con seres humanos a su grado de autonomía. Si la relación de los humanos con el robot es de tipo maestro esclavo, y el papel de los humanos es dar órdenes y el del robot obedecerlas, entonces sí cabe hablar de una limitación de la autonomía del robot. Pero si la interacción de los humanos con el robot es de igual a igual, entonces su presencia no tiene por qué estar asociada a restricciones para que el robot pueda tomar sus propias decisiones.
¿La indefensión de un recién nacido encierra la clave de la inteligencia humana?
O
Investigación y Desarrollo ID
tras especies son capaces de mostrar sorprendentes proezas de inteligencia. Los cuervos pueden resolver problemas de varias etapas. Los simios muestran habilidades numéricas y empatía. Sin embargo, ninguna especie tiene la capacidad para llevar a cabo investigaciones científicas sobre las capacidades cognitivas de otras especies. Este tipo de comportamiento proporciona evidencia sólida de que los seres humanos son, por mucho, la especie más inteligente del planeta. Sin embargo, además de un elevado coeficiente intelectual, los seres humanos se diferencian de otra manera: sus crías se encuentran entre las más débiles de cualquier especie. Un nuevo estudio, publicado recientemente en la revista Proceedings of the National Academy of Sciences (PNAS), establece un vínculo entre la inteligencia humana y la dependencia de un bebé, y sugiere que una cosa conduce a la otra en una espiral de retroalimentación evolutiva. El estudio, de los psicólogos Celeste Kidd y Steven Piantadosi, en la Universidad de Rochester, representa una nueva teoría sobre cómo los seres humanos llegaron a tener este tipo de inteligencia extraordinaria. Al igual que muchas de las teorías evolutivas, esta puede ser expresada en la forma de una historia, e igual que muchas historias evolutivas, esta también es cuestionada por algunos científicos. Kidd y Piantadosi señalan que, de acuerdo con una teoría anterior, los primeros humanos enfrentaron presiones de selección tanto para sus cerebros grandes como para la capacidad de caminar erguidos mientras pasaban desde los bosques a las pasturas. Los cerebros más grandes requieren una pelvis más ancha para dar a luz, mientras que ser bípedo limita el tamaño de la pelvis. Estas presiones opuestas —los antropólogos biológicos las llaman el “dilema obstétrico”— podrían haber llevado a parir antes, cuando los cráneos de los bebés aún son pequeños. Por lo tanto, los recién nacidos llegan al mundo más inmaduros e indefensos que los de la mayoría de las especies. Y como consecuencia, Kidd y Piantadosi proponen que eso aumentó las demandas cognitivas del cuidado infantil, y se creó una presión evolutiva para desarrollar una mayor inteligencia. A su vez, esto dio lugar a cerebros más grandes, que requirieron un nacimiento más temprano, y eso llevó a que la cría
18
R E P O R TA J E
19
Artículo publicado en: Investigación y Desarrollo ID http://bit.ly/2cMmPBz
naciera más indefensa, lo que hizo necesaria una aún mayor inteligencia de los padres. Así, este círculo derivó en una “selección descontrolada” y en humanos modernos superinteligentes. “Estábamos jugando con mi sobrina, pensando que ‘se necesitan muchas habilidades humanas para cuidar de este niño’”, dice Piantadosi. “Se debe averiguar lo que el niño necesita, y cuándo”. También se debe comprender los objetivos, agrega Kidd: “Si el objetivo es tomar algo de un lugar peligroso, ser capaz de entender eso rápidamente es muy útil”. Los seres humanos son particularmente buenos en este tipo de razonamiento social y se han sugerido varias teorías para explicarlo, que usualmente involucran el hecho de vivir en grupos sociales. “Nuestra teoría es una alternativa, que dice que el razonamiento social evolucionó para cuidar a los niños”, explica Piantadosi. Para probar esto, la dupla de investigadores desarrolló un modelo matemático que primero vincula la probabilidad de sobrevivir al nacimiento que tiene un niño, con el tamaño de la cabeza del bebé; y segundo la probabilidad de sobrevivir a la infancia con la inteligencia parental. El modelo muestra que, teniendo en cuenta los adecuados puntos de partida (grandes cerebros), las presiones para aumentar el tamaño del cerebro y reducir la edad de nacimiento puede convertirse en un auto-refuerzo, conduciendo a una evolución descontrolada. “Al ver cuán inusuales somos los seres humanos, entendemos que debe ser cierto que alguna forma de selección descontrolada ha estado activa”, dice el antropólogo Owen Lovejoy, de la Universidad Estatal de Kent en Ohio, que editó el artículo para PNAS. Una de las implicaciones de la teoría es que algunas habilidades humanas son un subproducto de
20
esta selección de habilidades relevantes para el cuidado de niños. “Tenemos demasiados comportamientos extraños y capacidades que no están relacionadas con la aptitud reproductiva”, dice Lovejoy. “Tienen que ser efectos colaterales que se unen en este viaje”. Luego, los investigadores probaron la predicción más fundamental de la teoría: una inteligencia superior debería estar asociada con recién nacidos más indefensos en otros primates. Para ello usaron el momento del destete como un indicador de indefensión, y mostraron que esto predijo una medida de la inteligencia derivada de un análisis previo de muchos estudios sobre cognición de los primates. Incluso, la indefensión fue un mejor predictor de la inteligencia que el tamaño del cerebro, lo que puede parecer desconcertante; pero la relación entre el tamaño del cerebro y la inteligencia es compleja. La organización cerebral es más importante que el volumen. Tener un cerebro más grande no necesariamente hace que una especie sea más inteligente, pero si esa especie evoluciona a una inteligencia superior, su cerebro tiene que aumentar de tamaño. “La inteligencia está asociada con el tamaño del cerebro, pero está más fuertemente determinada por las presiones ambientales”, explica Piantadosi. “La inteligencia máxima podría estar limitada por el tamaño del cerebro, pero el nivel que realmente consigues puede estar determinado por otras presiones, que en nuestro caso son sobre el cuidado infantil”. Los autores también afirman que la teoría explica por qué la súper-inteligencia evolucionó relativamente tarde, específicamente en los primates. “Otros estudios no explican por qué los primates desarrollaron súperinteligencia, mientras otras especies no lo hicieron”, dice Kidd. “Si se trataba de hacer frente a las fluctuaciones
R E P O R TA J E
Al ver cuán inusuales somos los seres humanos, entendemos que debe ser cierto que alguna forma de selección descontrolada ha estado activa
y dificultades ambientales, ¿por qué los insectos o los reptiles, que eran anteriores a los primates, no desarrollan la inteligencia al nivel humano?” El modelo requiere tanto cerebros grandes como nacimientos vivos, porque no existe un vínculo entre la madurez de los recién nacidos y el tamaño de la cabeza o la inteligencia en las especies que ponen huevos. “La clave está en el nacimiento vivo”, añade Kidd. Sin embargo, algunos investigadores que no formaron parte del estudio no se adhieren a la teoría de Kidd. El psicólogo evolutivo Robin Dunbar, de la Universidad de Oxford, sostiene que el estudio interpreta erróneamente la teoría evolutiva. Dunbar afirma que la inteligencia se desarrolla en respuesta a la necesidad de hacer frente a los sobresaltos ambientales, lo que a su vez puede dar lugar a presiones que afectan a las estrategias de crianza de los niños y, en consecuencia, al tamaño del cerebro. “Lo que han identificado es la consecuencia de la evolución, no la causa”, opina Dunbar. Otro crítico tomó un rumbo diferente. La antropóloga Dean Falk, de la Universidad del Estado de Florida, dice que el estudio ignora grandes cantidades de datos de fósiles y primates que sugieren que la bipedestación vino con sistemas motores alterados del cerebro, que causaron el aumento de la indefensión, millones de años antes de que el tamaño del cerebro comenzara a aumentar. “La evidencia sugiere que los bebés homínidos se hicieron indefensos mucho antes de que surgiera el dilema obstétrico, lo que no se habría producido hasta después de que el tamaño del cerebro comenzara a aumentar”, dice Falk. Luego, esta incapacidad habría provocado cambios en el cuidado de los niños, proporcionando un importante impulso a la posterior evolución del cerebro y a la eventual aparición
del lenguaje y otras habilidades cognitivas únicas de seres humanos, explica la investigadora. Chet Sherwood, antropólogo de la Universidad George Washington, dice que el estudio representa meramente una extensión de las viejas ideas. “El modelo formaliza una noción que ha sido discutida por los antropólogos desde hace mucho: que la evolución de la cognición humana fue construida por un cambio en el desarrollo del cerebro, que necesitó un cuidado infantil más intenso de parte de las madres y otros ayudantes”, dice. La antropóloga Wenda Trevathan, de la Universidad Estatal de Nuevo México, argumenta que los autores han simplificado en gran parte la compleja relación entre la inteligencia de los padres y la supervivencia infantil. Kidd y Piantadosi reconocen esto y dicen que su modelo no pretende ser una descripción completa, sino “una parte de una historia evolutiva y reproductiva mucho más compleja en la que múltiples características están relacionadas entre sí”. Sin embargo, Trevathan está de acuerdo con la orientación general de los argumentos de los investigadores. “El niño indefenso y la necesaria crianza intensa y a largo plazo tuvo un enorme impacto en la evolución humana y ayuda a explicar lo que somos en la actualidad”, dice. Comprender hasta dónde nos ha llevado la evolución podría incluso ayudar a los nuevos padres a adaptarse a la vida con el bebé. “Espero que haga que los nuevos padres se sienten mejor cuando se pregunten por qué el niño insume tanto trabajo”, dice Kidd. “Tener bebés inútiles es lo que nos hace especiales”. Dedicado a la memoria de Jenny O'Sullivan, cuya extraordinaria inteligencia y humanidad se echará mucho de menos.
21
U
Investigación y Desarrollo ID
na nueva investigación explica cómo las redes biológicas, (incluyendo el cerebro humano), con estructura jerárquica, pueden inspirar avances en el desarrollo de la inteligencia artificial. El estudio, publicado en 'PLOS Computational Biology', demuestra esto mostrando que la evolución de la jerarquía (un sencillo sistema de clasificación) en las redes biológicas puede surgir debido a los costes asociados con las conexiones de red. Al igual que las grandes empresas, muchas redes biológicas se organizan jerárquicamente, como los genes, las proteínas, los nervios y las redes metabólicas. Esto significa que tienen unidades separadas que cada uno puede dividir en varias ocasiones en subunidades más
hallazgos también pueden acelerar la investigación futura sobre la evolución de cerebros computacionales más complejos e inteligentes en el campo de la inteligencia artificial y la robótica. Investigadores de la Universidad de Wyoming y el Instituto Nacional de Investigación Informática y Automática (INRIA, por sus siglas en francés), en Francia, dirigido por Henok S. Mengistu, simulan la evolución de los modelos computacionales del cerebro, conocidos como redes neuronales artificiales, con y sin un coste para las conexiones de red. Encontraron que las estructuras jerárquicas emergen con mucha más frecuencia cuando existe un coste para las conexiones. "Durante más de una década, hemos estado trabajando para entender por qué las redes evolucionan para tener propiedades de modularidad, jerarquía y regularidad.
pequeñas y de menor tamaño. Por ejemplo, el cerebro humano tiene áreas separadas para el control motor y el procesamiento táctil, y cada una de estas áreas consisten en sub-regiones que regulan diferentes partes del cuerpo. Pero, ¿por qué tantas redes biológicas evolucionan para ser jerárquicas? Los resultados de este trabajo sugieren que la jerarquía evoluciona no porque produzca redes más eficientes, sino por que las redes cableadas jerárquicamente tienen menos conexiones. Esto se debe a que las conexiones en redes biológicas son caras (tienen que ser construidas, alojadas, mantenidas, etcétera) y, por lo tanto, hay una presión evolutiva para reducir el número de conexiones. Además de arrojar luz sobre la aparición de la jerarquía a través de los muchos ámbitos en los que aparece, estos
Con estos resultados, hemos descubierto los conductores evolutivos para cada una de estas propiedades clave", señala Mengistu. "Los resultados no sólo explican por qué las redes biológicas son jerárquicas, sino que también puede dar una explicación de por qué muchos sistemas hechos por el hombre, como Internet y los sistemas de carreteras, también son jerárquicos", sugiere el coautor Jeff Clune. Según otro de los investigadores, Joost Huizinga, el siguiente paso consiste en aprovechar y combinar este conocimiento para evolucionar a gran escala redes organizadas estructuralmente con la esperanza de crear una mejor Inteligencia Artificial y aumentar la comprensión de la evolución de la inteligencia animal, incluyendo la humana.
22
R E P O R TA J E
Artículo publicado en: Investigación y Desarrollo ID http://bit.ly/2cLjz9S
23
LA INTELIGENCIA
ARTIFICIAL Y LA NUEVA ESPECIE HUMANA
N
José Antonio Marina
uestro futuro se está diseñando en laboratorios, universidades, centros de investigación, empresas innovadoras. Pero seguimos pendientes del móvil instantáneo, creyendo que así estamos a la última. Corremos el riesgo de no enterarnos de lo que sucede hasta que no lo vemos instalado en el escaparate de un gran almacén.
Se disparan las alarmas
Este artículo trata de una de esas corrientes profundas que están determinando nuestro futuro, sin que seamos conscientes de ello. Me refiero a los prodigiosos avances en Inteligencia Artificial (IA). Su auge está provocando voces alarmadas. Stephen Hawking, el famoso físico, piensa que su triunfo puede significar “el fin de la especie humana”. Elon Musk, creador de PayPal y otras empresas de alta tecnología, dijo en una conferencia en el MIT que con la Inteligencia Artificial estamos “summoning the demon”, invocando al diablo. Bill Gates ha afirmado que la gente debería ser consciente de los riesgos que entraña. Grandes compañías han lanzado la iniciativa OpenAI para intentar que estos cambios, que consideran inevitables, se den dentro de un entorno democrático. Cuentan con un presupuesto inicial de mil millones de dólares, lo que no es mal modo de empezar. Otros autores, como Ray Kurzweil, auguran que en el año 2040 emergerá la singularidad, una nueva especie producida por la fusión del ser humano con la tecnología. Kurzweil no es un escritor de novelas de ciencia ficción, sino el director de investigaciones de Google. Un peso pesado. Cada vez se habla mas de transhumanismo.
24
ARTÍCULO
José Antonio Marina
Filósofo, pedagogo, impulsor y director del proyecto Universidad de Padres (una fundación sin ánimo de lucro y sin ninguna relación religiosa o política), autor de numerosos libros y colaborador del suplemento Es de La Vanguardia http://bit.ly/2cGa6Fd
25
Luc Ferry, un conocido intelectual francés, exministro de educación, acaba de publicar un voluminoso libro con ese título. El núcleo del transhumanismo es la “ampliación de la naturaleza humana” en su aspecto biológico y su aspecto intelectual. La Inteligencia Artificial es la gran protagonista. Hemos entrado en la era de los algoritmos perfectos. Un algoritmo es una fórmula exacta que dirige los procesos que resuelven un problema. Son mecanismos para conseguir automáticamente un objetivo, los que hacen, por ejemplo, que funcionen las aplicaciones de un móvil. Esperamos que sean capaces de resolver todos nuestros problemas. Como ha señalado Evgeny Morozov en su combativo libro La locura del solucionismo tecnológico (Katz, 2015), aspiramos a vivir de soluciones recibidas, que nos eviten tener que pensar en ellas. De hacerlo se encargará la Inteligencia Artificial. La inteligencia no radicará fundamentalmente en nuestras cabezas, sino en el gigantesco sistema al que estaremos conectados.
Intelectualidad artificial
El problema se plantea, sobre todo, cuando los sistemas de Inteligencia Artificial no se limitan a manejar datos, sino que toman decisiones. El 6 de mayo del 2010, la bolsa de Nueva York sufrió lo que se denomina flash crash. Las cotizaciones habían caído por la mañana un cuatro por ciento, por la preocupación sobre la deuda europea. A las 2:32 de la tarde, se puso en marcha el algoritmo de venta de una gran institución, para deshacerse de un gran número de contratos de futuro vendiéndolos a un ritmo controlado minuto a minuto por la liquidez de la bolsa. Esos futuros fueron comprados por compradores algorítmicos de alta frecuencia, programados para vendérselos inmediatamente a otros programas. Esa velocidad llevó al primer algoritmo vendedor a interpretar que la liquidez del mercado era enorme y a aumentar su velocidad de venta. Durante unos segundos, millones de dólares se emplearon en operaciones disparatadas, que valoraban un activo erráticamente de 0 a 100.000 dólares. Afortunadamente, otros algoritmos de salvaguarda paralizaron el caos, lo que no impidió que el algoritmo que había desencadenado el proceso ganara en muy pocos minutos cuarenta millones de dólares. Este suceso llamó la atención sobre los problemas que podía causar la asociación de programas individuales bien diseñados pero que producían fenómenos imprevistos. Ramón López de Mántaras, uno de los pioneros de la IA en España, cree que debería prohibirse que robots inteligentes operen autónomamente en bolsa, por ejemplo en las HFT (Negociaciones de Alta Frecuencia).
26
Pero ¿qué es la inteligencia artificial?
Antes de dejarnos llevar por el alarmismo de estos hechos y opiniones, me gustaría explicar en qué consiste la IA. La expresión apareció en la famosa Conferencia de Dartmouth. El padre del término fue John McCarthy quien sostenía que era posible diseñar un programa informático que pudiera describir con precisión, y por consiguiente, simular, los mecanismos básicos de la inteligencia humana. Allen Newell y Herbert Simon (que luego ganó el premio Nobel de Economía) presentaron un programa capaz de hacer por su cuenta demostraciones de teoremas de alta matemática. El pionero había sido Alan Turing, quien afirmó: “Existirá Inteligencia Artificial cuando en una conversación a ciegas no seamos capaces de distinguir entre un ser humano y un programa de computadora”. En Dartmouth se creyó que se conseguiría en diez años. Ya entonces sonaron voces alarmistas: la supremacía de la inteligencia humana tenía sus horas contadas. Joseph Weizenbaum elaboró un programa llamado Eliza que imitaba a una terapeuta. En realidad, era un conjunto muy sencillo de rutinas, pero que daban al usuario la impresión de haber encontrado por fin un psicólogo que le comprendía a la perfección. Weizenbaum se asustó de su creación y recomendó que no se prosiguiera con la IA. El consejo fue superfluo porque la IA se atascó. Su éxito al producir pensamiento matemático, hizo pensar a sus creadores que utilizando sistemas de lógica formal cada vez más potentes aumentarían la capacidad de la IA. Pero se empantanaron en actividades que los humanos hacemos sin ninguna dificultad y que para las máquinas resultaban inaccesibles. Por ejemplo, reconocer patrones imprecisos, como la escritura a mano o la voz o los rostros. Las investigaciones sobre IA hicieron su primera travesía del desierto. El interés, y los fondos, decayeron, hasta que en los años ochenta Japón lanzó su Proyecto de Sistemas de Quinta Generación, una masiva arquitectura de computación en paralelo, en la que pusieron grandes esperanzas. También proliferaron los sistemas expertos, programas que intentaban copiar el modo de pensar de profesionales de un campo. Las expectativas no se cumplieron y la IA sufrió su segunda travesía del desierto. Las cosas cambiaron en los años noventa. Se empezó a investigar sobre redes neuronales similares a las del cerebro y sobre algoritmos genéticos. La aplicación de potentes sistemas estadísticos, y del cálculo de probabilidades, se concretó en programas que eran capaces de aprender. Se denomina deep learning a esta capacidad, que, a mi juicio, ha supuesto el gran salto en la IA. Por ejemplo, un ordenador puede aprender a reconocer expresiones orales por un proceso de
ARTÍCULO
entrenamiento, por ensayo y error. Un programa puede simular el proceso de aprendizaje de un bebé e irse construyendo a sí mismo.
¿Pueden conocer los ordenadores?
Hasta hace poco tiempo, los ordenadores podían manejar información, pero los datos reales sólo podía percibirlos la inteligencia humana. Los programas manejaban abstracciones, pero la capacidad de abstraer era una exclusiva nuestra. Intentaré explicar este complejo asunto con sencillez. ¿Recuerdan ustedes la distinción entre significante y significado, que aprendieron en el bachillerato? Un significante –en el caso del ordenador una secuencia de ceros y unos– tiene un significado. Los ordenadores computan signos, sin saber lo que significan. Eso sólo lo sabemos nosotros, los humanos, que construimos ordenadores y diseñamos programas. Los nuevos sistemas informáticos pueden crear significados. Ha sido la gran revolución. En este momento, los investigadores están diseñando programas para que los ordenadores adquieran los sentidos de la vista, el oído o el tacto. Lo que hay en el fondo de estas habilidades es la capacidad de reconocer patrones. Escribo en mi jardín. Frente a mí tengo un conjunto de superficies verdes: el césped, los arbustos, los árboles y una mesa verde. Puedo identificar los diferentes objetos. Antes, un ordenador podía fotografiar el mismo paisaje que veo yo. Ahora el ordenador puede aprender a reconocer qué verde pertenece a un arbusto o al césped. Sabe reconocer los patrones que definen cada objeto, identificarlos, separarlos y manejarlos. No sólo eso. Puede agrupar los patrones por sus semejanzas: árboles, hierbas, mesas. En eso consiste la capacidad de abstraer. Y una vez que ha aislado los patrones perceptivos, puede unirlos lingüísticamente en una descripción. Los ordenadores aprenden a narrar. En ese momento, ¿podemos decir que el ordenador está conociendo el paisaje? El progreso ha sido acelerado sobre todo desde que los gigantes informáticos –Facebook, Google, Amazon, Microsoft, Baidu han entrado en el negocio. Al comienzo de su historia, la IA aspiraba sólo a imitar la inteligencia humana. Ahora, los nuevos sistemas pueden hacer operaciones que van más allá de la capacidad humana y no sólo por velocidad de cálculo. Por ejemplo, pueden descubrir patrones en gigantescas masas de datos. Es lo que hace el data mining.
Realidad e inteligencia aumentada
Ya habíamos asumido que los robots iban a desplazar a los humanos de los trabajos mecánicos, pero ahora
aparece la posibilidad de que nos desplacen también de trabajos intelectuales. El profesor Andrew Ng, que trabaja en Baidu, cree que los programas de traducción vocal de la escritura permitirán a millones de iletrados, por ejemplo en China, escuchar lo que está escrito en internet. En el 2014, Microsoft presentó un programa de ordenador capaz de traducir en tiempo real. Es decir, una persona habla en inglés, pero su interlocutor le escucha en alemán. Google Translate (servicio de traducción inmediata en noventa lenguas) va a hacer innecesario el aprendizaje de idiomas, al traducir simultáneamente. El año pasado Google pagó unos cuatrocientos millones de dólares por DeepMind, una empresa inglesa que trabaja “para construir potentes algoritmos de aprendizaje de propósito general”, es decir, para que las máquinas puedan aprender cualquier cosa. Facebook tiene su propio laboratorio dirigido por Yann LeCun. Un programa como Narrative Science escribe automáticamente artículos informativos, y es utilizado por la revista Forbes. Kensho Technologies puede responder a preguntas sobre temas financieros revisando gigantescas masas de información y respondiendo en lenguaje natural a los pocos segundos. En el 2011, el programa Watson, de IBM, ganó el concurso de televisión Jeopardy!, que mezcla conocimientos e ingenio. Ya se están comercializando programas de realidad aumentada, como las Google Glass o las Microsoft HoloLens. El portador recibe información simultáneamente a través de dos canales. Uno, procede de su cerebro. El segundo, de poderosos bancos de datos informáticos. Este canal puede actuar de mediador con el mundo, transformando nuestra experiencia. Y esto no ha hecho más que empezar. Si no quiere enterarse, puede seguir pendiente del trending topics, de las batallitas políticas, de los eslóganes brillantes. Pero, se lo advierto, pueden acabar convirtiéndose en marionetas contentitas. La omnipresencia de la inteligencia artificial, la generalización de esa realidad aumentada, nos exige repensar muchas cosas. Entre ellas, nuestros sistemas educativos. Acorde con esos cambios, vamos a tener que desarrollar una inteligencia aumentada que sepa pensar hibridando procesos neuronales y procesos electrónicos, y que tendremos que fomentar desde la escuela… cuando sepamos cómo hacerlo. En un número reciente de la revista The Economist, dedicado a la Inteligencia Artificial, se lee: “Aunque la Inteligencia Artificial total de la que habla Hawking está aún lejos, las sociedades deben prepararse para la aparición de seres autónomos no humanos”.
27
28
ARTÍCULO
EL FUTURO DE LA SEGURIDAD
INFORMÁTICA Jorge Herrerías CISSP Security Sales Engineer
L
a inteligencia artificial es discutida en varios contextos diferentes pero en el mundo de las ciencias computacionales, está definido como una máquina que al dársele nueva información, ésta aprende y ajusta sus respuestas y comportamiento, lo que la hace más precisa y eficiente. Actualmente, existen algunas nuevas soluciones de análisis de seguridad como sistemas de seguridad para datos, sistemas de administración de eventos informáticos y productos de análisis de comportamiento de usuarios que usan modelos de tipo “máquina que aprende” para crear representaciones para detectar comportamiento nocivo o anómalo dentro de las redes. En materia de seguridad informática, un modelo de seguridad con características “máquina que aprende” reciben nueva información sobre el tráfico dentro de la infraestructura de red, éstos ajustan los algoritmos para que la tasa de captura / detección de amenazas sea cada vez más precisa. Aplicaciones de seguridad con inteligencia artificial como soluciones de seguridad en muchos sentidos de ésta, confiarán más y más en máquinas que aprenden, piedra angular de la inteligencia artificial. Esto creará nuevas realidades informáticas para predecir las intrusiones antes de que ocurran – Las industrias que tomarán más ventaja de la inteligencia artificial aplicada a la seguridad informática son las dedicadas a detección de malware, análisis de seguridad Big Data, empresas de protección
“End Point” y soluciones de seguridad para Internet de las Cosas (IoT). La inteligencia artificial será determinante para el concepto de seguridad informática dentro de los siguientes 30 años. Actualmente la forma en que la tecnología evoluciona es muy rápida. Lo que nos tomaba 30 años en desarrollar y llevar a los mercados, puede ser desarrollado en un tercio de ese tiempo o menos. En 10 años veremos aplicaciones que predicen el comportamiento con altas tasas de precisión en casi todos los aspectos de nuestra vida en relación con la informática (predicción IoT), sobre todo en la seguridad. Las infraestructuras de red que estén equipadas con este tipo de tecnología, serán capaces de anticipar intrusiones y tomar de manera automatizada acción correctiva inmediata para defender y mitigar cualquier daño posible causado. Todo esto sin intervención humana. Gigamon participa activamente en este tipo de desarrollos tecnológicos, siendo un habilitador clave de este tipo de seguridad predictiva con inteligencia artificial instalada desde fábrica. Gigamon provee toda la información y metadatos requeridos para llevar a cabo sofisticados análisis de seguridad incluyendo aquellos que involucran modelos de “máquinas que aprenden” e inteligencia artificial. Gigamon envía de manera inteligente los datos que necesitan los algoritmos de aprendizaje automático; se puede decir que Gigamon es un cimiento para la construcción de seguridad predictiva.
29
A
Antonio Ruiz de Elvira
principios de este año murió Marvin Minsky, un científico visionario como los que se necesitan en la ciencia, llena hoy de rutinas y carente de innovación. Minsky sabía que la inteligencia no es algo infundido en unas criaturas desde fuera, sino algo que se desarrolla dentro de un cerebro basado en las conexiones neuronales. El número de neuronas de los cerebros humanos esta fijado casi desde el nacimiento, e incluso ese número disminuye con la edad. Pero las neuronas en sí no son más que los biberones de las conexiones interneurales; son estas conexiones las que, con la energía que proporciona el cuerpo neuronal, representan la memoria y con ella el conocimiento. Y las conexiones pueden aumentar sin límite hasta el momento de la muerte. La idea de Misnky era recrear esto mediante circuitos electrónicos. Los circuitos en sí no representan mucho problema, más aún hoy cuando los chips están trabajando en el rango de los 7 nanómetros (en un metro hay mil millones de nanómetros, y en un litro, un cuadrillón (billón de billones españoles) de nanómetros cúbicos. El problema de la IA es el software que debe hacer funcionar a los chips. Hoy los robots inteligentes ganan a los humanos en las tareas repetitivas y deterministas (ajedrez, Go) pero les cuesta aún mucho simular otros aspectos de la inteligencia humana. Una enorme parte de nuestra inteligencia se basa en saltos mentales no deterministas. El lenguaje es una estructura con dos contenidos aleatorios: El lenguaje de cada persona es distinto del de las demás, y de ello surge una buena cantidad de los problemas sociales y personales. Además de que cada persona tiene un lenguaje propio que deriva de su contexto personal, los humanos somos capaces de llegar a conclusiones correctas partiendo de premisas muy borrosas, incluso contradictorias, por un mecanismo de imágenes retroalimentadas y autocorregidas. La inteligencia humana duplica, en personas e intervalos de tiempo de 100 años, la misma aleatorieidad que logra, en la evolución biológica, la creación constante de nuevas especies. Pero para ello la evolución necesita miles de millones de mutaciones aleatorias, y millones de años para la selección natural. En los humanos esto se realiza en las variaciones constantes del pensamiento y en intervalos de décadas en cada persona. Los enfoques tradicionales de la IA se basan en esquemas generales y deterministas, y no puede ser de
30
otra manera, pues no se quieren crear máquinas locas. Pero es la posibilidad de locura lo que es la característica de la inteligencia humana. Es dudoso que los animales lleguen en algún momento a volverse locos: Funcionan según reglas relativamente fijas y deterministas. Lo más probable es que en los animales, las conexiones neuronales queden fijas en un momento de sus vidas y no puedan romper algunas de esas conexiones para formar otras. La inteligencia humana debe originarse en un cambio genético que permite a los humanos recombinar constantemente, hasta el momento de la muerte, las conexiones neuronales. Podemos unir la imagen de un torso humano con el cuerpo sin cuello ni cabeza de un caballo y crear un centauro en nuestras mentes, o con la cola de un pez y crear una sirena. Los avances de la ciencia se deben siempre a recombinaciones de memorias, de circuitos neuronales que se abren y se recombinan de manera diferente entre sí. Esto falta en el software de la IA: La posibilidad de rehacer constantemente las reglas de funcionamiento, la capacidad de recombinar los circuitos para obtener lo nuevo a partir de lo ya conocido y memorizado. La IA es posible, pero si la desarrollamos tendremos exactamente los mismos problemas que tenemos con los humanos: La libertad de acción que lleva a las obras geniales y a los crímenes más abyectos. Un robot fiel, un robot que siga a rajatabla y sin violarla nunca la primera regla de Asimov: ''Una máquina inteligente no puede nunca actuar contra los humanos'', es una máquina capada, y que no desarrolla la inteligencia humana. Misnky y sus alumnos, Von Neumann y los suyos, y otros muchos no han aceptado la conclusión inevitable de la libertad: La inteligencia humana solo es posible en unas mentes que tienen la libertad de generar constantemente conexiones neuronales nuevas. Y la libertad solo es posible en esquemas aleatorios, no deterministas, no lineales. La IA es posible, si aceptamos diseñar el software con posibilidades aleatorias. Pero como en la saga de "Dune" de Frank Herbert, si se hace así, esa inteligencia debería ser destruida, si fuera posible, pues los robots contendrían genios como Galileo y Einstein, pero también monstruos como Hitler y Stalin, pero con un poder enormemente superior al de éstos últimos. Podemos fabricar IA. ¿Queremos hacerlo?
¿POR QUÉ ES POSIBLE LA INTELIGENCIA ARTIFICIAL?
ARTÍCULO
Antonio Ruiz de Elvira
Catedrático de Física Aplicada en la Universidad de Alcalá de Henares. Su investigación se centra en la Física del Clima y de la Atmósfera de la Tierra. Es autor de “Quemando el futuro: clima y cambio climático” (ed. Nivola).Publicado en El Mundo http://bit.ly/1SRxA8l
31
BASES DE DATOS
E INTELIGENCIA ARTIFICIAL EN INFORMÁTICA JURÍDICA
Primera Parte
Juan David Mejía A. Ingeniero de Sistemas, Asesor de la Secretaría de Informática de la Presidencia de la República de Colombia
RESUMEN: Este artículo está dirigido a medir de manera realista el impacto en el trabajo jurídico de dos disciplinas informáticas: Las Bases de Datos y la Inteligencia Artificial. Para ello, en primer lugar se definen términos básicos en ambas que servirán de apoyo en la discusión enfocada a su aporte al área jurídica; en segundo lugar se define el contexto de la informática jurídica con una clasificación propuesta, se presenta el panorama mundial de trabajos importantes en ella y luego se presentan algunos puntos de vista del autor sobre la diferencia que existe entre las pretensiones de las líneas de investigación en ambas y la realidad concreta reflejada en proyectos prácticos. Por último se hace una serie de reflexiones sobre la manera en que debemos encarar el desafío que la sola posibilidad de disponer de estas herramientas nos plantea como profesionales, como ciudadanos y como país.
E
n la actualidad es un hecho reconocido que la naturaleza de las actividades sociales básicas está sufriendo una mutación gradual pero incontenible desde el predominio de procesos físicos donde se manipulaban elementos tangibles hacia el proceso de información en todos los niveles. Vivimos el fenómeno de cambio de una “Sociedad basada en procesos industriales” a una “Sociedad basada en el proceso de información”. Un reflejo de tal cambio es éste: Desde 1959 en la sociedad norteamericana el número de personas empleadas en toma de decisiones y manipulación de información en todos los niveles superó por primera vez en la historia a las que se encontraban directamente relacionadas con los procesos productivos en trabajos de naturaleza manual y mecánica. Los pocos datos de que disponemos sobre nuestro país nos permiten suponer que, dadas las circunstancias que se han impuesto en
32
nuestro camino al progreso, nos hallamos inmersos en una situación análoga. La profunda transformación bajo el nombre de Informática ha llegado a la reevaluación de los patrones sociales de mayor valor e influencia: El dinero, la relación familiar, el uso del tiempo de ocio, el papel económico del individuo dentro de la estructura productiva, etc. Como consecuencia, las actividades basadas en el procesamiento de información han asumido un liderazgo acusado, por el cual los conceptos, las ideas, los esquemas, los símbolos y los medios de representación se han convertido en las herramientas de trabajo de mayor uso. Todas las actividades especializadas ven en la informática una poderosa herramienta capaz de despejar las barreras ocasionadas por la necesaria interacción con elementos de información (resúmenes, estadísticas, archivos, documentación) ajenos a la naturaleza esencial de la actividad misma. Desde el punto de vista de un lego en asuntos jurídicos, La ley como reflexión de carácter coordinadora creadora de coherencia, manifestada por consenso social a través de mecanismos institucionales y que en última instancia se ve reflejada en la norma es terreno fértil para la aplicación extensiva de la informática en los variados procesos de trabajo que involucra. Solo superada quizás por la filosofía, e íntimamente relacionada con ésta, la ley y sus manifestaciones implican un trabajo sobre esquemas, conceptos, modelos y símbolos, en variados niveles de interrelación, con numerosos grados de complejidad, toda vez que conlleva el mejor esfuerzo del hombre por representarse como individuo inmerso en un entorno social. Para las herramientas computacionales y las diversas disciplinas que componen la informática, acostumbradas a tratar con los mismos elementos de abstracción en múltiples áreas, éste representa el mayor desafío aplicativo de su historia.
ARTÍCULO CENTRAL
Esta ponencia pretende examinar con algún detalle el trabajo que dos disciplinas informáticas, las Bases de Datos (BD) y la Inteligencia Artificial (IA), desarrollan conjuntamente ante tal reto. Inicialmente definiremos algunos términos básicos en ambas que servirán luego de soporte en la discusión de su rol ante la Informática Jurídica. Posteriormente se examinarán las perspectivas y el impacto en el quehacer jurídico, en particular en el proceso legislativo, de jurisprudencia y doctrina, así como en los niveles más simples de gestión judicial. El punto de vista que se presenta en este documento es ante todo de profunda admiración, no siempre acompañada de comprensión, por el discurso legal y sus implicaciones en el devenir social. Es, al mismo tiempo, el aporte sincero de un investigador que cifra en la interdisciplinaridad la mayor de las confianzas para que, por perjuicio del valor del actual trabajo en el área legal, se incremente su efectividad y agilidad en provecho de todos los colombianos. Por último quisiera agradecer muy especialmente a los Drs. Elvia Cecilia Aristizábal, Rafael Vega, Jorge Phillips, Fernando Jordan y Ricardo González, porque el contenido de este artículo es una realidad gracias al decidido aporte de cada uno de ellos.
1. BASES DE DATOS
1.1 ORIGENES Tal como se mencionó en la introducción, el cambio gradual en las actividades sociales básicas ha mercado el predominio de aquellas que en alguna forma se ocupan del procesamiento de información en todos los niveles. Como un resultado bastante previsible de tal situación, han aparecido múltiples concentraciones de información sobre las más diversas áreas del conocimiento. A ello contribuye la innegable tendencia de la actual sociedad a registrar en múltiples medios todo el contenido de su acontecer: se registra con verdadera fruición la noticia diaria y se aumenta cotidianamente el volumen de anales y archivos. La tasa de crecimiento de las bibliotecas en los países desarrollados fue de alrededor de 800% por siglo hace veinte años; sin embargo, se espera que esta tasa cambie a alrededor de 30.000% por siglo para comienzos del siglo entrante. A consecuencia de este fenómeno se han conformado verdaderas memorias colectivas de las sociedades, que son llamadas "bancos de datos" cuando disponen de una organización interna que permite su acceso y manipulación. La Constitución, los códigos legales, la jurisprudencia y la doctrina constituyen un caso de un banco de datos “especial. En la norma se concentra la información básica sobre los acuerdos democráticos de la convivencia social y la reglamentación sobre la operación misma de las estructuras colectivas. Los conceptos, criterios y significados incluidos el “espíritu de la ley” acompañan a la norma para dar claridad en su aplicación y establecer
antecedentes valiosos en el futuro; pero, igualmente importante, los procedimientos que se siguen en las “operaciones básicas de manipulación” de las leyes almacenamiento o entrada, recuperación, modificación y borrado están reglamentados con el nivel de detalle y precaución imprescindible para la columna vertebral de la actividad social. El volumen de información de tipo legal a nuestra disposición varios millones de folios, cientos de textos y la colección de códigos, y la relativa complejidad de nuestros procedimientos jurídicos, hacen de esta situación un problema no trivial. Para enfrentar estos problemas, con el objeto de estudiar el fenómeno de acumulación de altos volúmenes de información, su procesamiento automático y proveer herramientas tecnológicas de alto rendimiento para ese fin, en Informática se ha desarrollado u una disciplina: Bases de Datos (BD). 1.2 TEMAS CENTRALES DE INVESTIGACION EN BD. Para BD existen dos temas centrales de investigación: En primer lugar, cómo representar adecuadamente los objetos del mundo real en esquemas y estructuras susceptibles de ser procesadas mediante computador, de tal manera que se pierda la mínima cantidad de propiedades en el “ente informático” respecto al ente real, un problema de profundas raíces epistemológicas y, en segundo lugar como enfrentar, con técnicas de las más diversas disciplinas matemáticas, teoría de grafos, procesos estocásticos, teoría de sistemas los problemas surgidos por el alto volumen de información almacenado. 1.2.1 Problemas de representación de objetos: La representación de objetos, es un problema que puede dividirse en varias etapas : • Conocimiento de las características propias del objeto en cuestión, así como sus principales relaciones con el entorno. Este es tal vez el paso más complejo, pues conlleva el trabajo cercano de los expertos en el área respectiva, que son quienes en último término manejan los aspectos más sutiles y profundos de tal objeto y los más idóneos, por su conocimiento, para llegar explícitamente a definirlo. • Selección de la “facilidad computacional” que mejor refleje al objeto. Tal “facilidad computacional” normalmente recibe el nombre de estructura de datos del objeto, o sea una estructura que contendrá su información y características propias que sean expresables a su vez como información. La selección de cuál estructura será usada depende en primer término de las alternativas ofrecidas por el sistema informático usado (conjunto de facilidades físicas y lógicas), de la naturaleza de cada alternativa y de una serie de consideraciones técnicas como cantidad de memoria empleada, velocidad de respuesta en
33
consultas, necesidades de compatibilidad respecto a otros sistemas, etc. El reflejar las propiedades de los entes a representar es la integridad del sistema de información. Y adicionalmente se espera representar fielmente las relaciones del objeto con los demás de su entorno que fueren importantes para la labor que nos ocupa. A esta propiedad se le llama consistencia de sistema de información (ver Date, 1983). Tanto para la integridad como para la consistencia existen varias consideraciones importantes: representar las restricciones del objeto de estudio (p. ej.: edad de un empleado), representar las relaciones condicionales (p. ej.: un decreto se relaciona directamente con una ley sólo si es reglamentario de dicha ley), dar facilidades de consulta de tal manera que se hagan concesiones respecto a la fidelidad de representación en pro de una consulta más eficaz (p. ej,: eliminar algún atributo del objeto representado porque dificulta su búsqueda y consulta en el computador), etc. Uno de los avances más significativos en los años recientes en informática ha sido el nivel de elaboración, la variedad y la complejidad progresiva de las estructuras de datos ofrecidas al usuario informático. Como tendremos oportunidad de explorarlo en la sección dedicada a Inteligencia Artificial, este avance se ha logrado en la búsqueda de la representación de objetos propia del hombre mismo, es decir, como es la representación mental de objetos externos. Y aunque no se puede hablar todavía de haber penetrado los misteriosos umbrales del cerebro y sus métodos de representación, si se han encontrado una serie de patrones externos de funcionamiento en los seres humanos (como es el caso de nuestra representación del espacio en tres dimensiones) de muchísimo interés en la solución de problemas como éstos. • Montaje del modelo de datos que es el conjunto de estructuras de datos seleccionadas y sus relaciones en el sistema informático disponible. En este punto se hace uso extenso de las herramientas tecnológicas ofrecidas por la disciplina de BD para almacenamiento de información. 1.2.2 Problemas en almacenamiento de grandes volúmenes de información. El primer problema de este tipo que debe enfrentarse es la cantidad de información duplicada que el sistema informático, en la inercia de su desarrollo, ha ido acumulando sin existir para ello razón alguna. A este problema se le denomina redundancia. Mantener duplicación de la información puede ser indudablemente una estrategia de seguridad necesaria y si la proliferación de información ha sido planeada, normalmente no causa grandes problemas. Pero si no es así se puede convertir en el principal obstáculo para el éxito de un sistema de información. La duplicación
34
descontrolada de información hace necesario mantener actualizadas simultáneamente todas las copias de dicha información; la complejidad de las herramientas necesarias para el manejo de la redundancia es muchísimo mayor que en un sistema simple y la velocidad de los servicios al usuario será menor en algunos casos. Sin embargo con las tecnologías “distribuidas” (procesamiento distribuido, 80 distribuidas, sistemas operacionales distribuidos) que pretenden crear centros de procesamiento de información separados geográficamente e interconectados, el problema de redundancia ha tenido que ser enfrentado con estrategias diferentes a simplemente tratar de eliminarla, pues la aplicación de dichas tecnologías exige en ocasiones la duplicación de información. Además estas tecnologías, como se puede inferir de su breve definición, tienen el problema de la concurrencia, que se refiere a como controlar el acceso simultáneo de dos o más usuarios a la misma información, si todos quisieran modificarla. El otro tipo de problema que se enfrenta en el procesamiento de grandes volúmenes de información es el de seguridad. Este se presenta en varias instancias: como evitar daños en la información almacenada cuando surgen daños en la instalación física, como asegurar que sólo las personas autorizadas para ello tengan acceso a la información, como establecer distintos niveles o prioridades en el acceso a la información, como garantizar la recuperación cuando surgen daños en la información y otras de menor importancia. Por último, referido al sistema en funcionamiento, existen varias características de las que es necesario disponer y que envuelven verdaderos desafíos: la consulta tiene tiempos óptimos de respuesta que no es conveniente exceder, el sistema tiene especificaciones técnicas que no es posible desconocer, los usuarios tienen requerimientos apremiantes y absolutamente necesarios, etc. En este punto se aplican diversas técnicas que permiten lograr la optimización del uso del sistema y de las facilidades ofrecidas -programación dinámica, teoría de grafos, investigación de operaciones. La solución a todo el conjunto de problemas planteados no se ha dado aisladamente; en lugar de ello se han atacado sistemáticamente todos los niveles expuestos anteriormente y la propuesta de solución o soluciones se presenta en forma estructurada mediante un modelo global que sirve de marco de referencia a las implantaciones prácticas conocidas. 1.3 PRESENTACIÓN DE UN MODELO DE BASE DE DATOS; EXPLICACIÓN DE LOS DISTINTOS NIVELES Y SUS FUNCIONES. • Antecedentes: Una de las reflexiones más interesantes sobre el desarrollo de la tecnología informática ha sido está: Desde un comienzo ha existido un “mundo de la máquina” en que las operaciones y la representación de información se hacen a nivel electromagnético, de una
ARTÍCULO CENTRAL
manera bastante distante al mundo “normal” o humano, el “mundo del usuario”. Pero ha sido una constante del desarrollo informático el hecho de que si bien éste subestrato electromagnético no ha sido eliminado, si se han provisto una serie de intermediarios lógicos o físicos entre el usuario y la representación final de los datos, de tal manera que éste reconoce que cada vez en mayor grado puede, gracias a estas facilidades, manejar los datos de manera más parecida a la de su mundo. Para los problemas planteados, no ha sido una excepción este tratamiento. Veremos como, a través de una serie de intermediarios conocidos como interfases (dispositivos lógicos o físicos, en la forma de programas de computador o componentes electrónicos), se atacan sistemáticamente uno tras otro dichos problemas, de tal manera que el usuario no llega a enterarse sino de las operaciones a nivel más alto, el nivel de su mundo y cada interfase en su respectivo nivel sólo interactúa con el nivel superior y el inferior del suyo. • Presentación del modelo de bases de Datos: Este modelo consta de cuatro niveles de interfases, con funciones claramente definidas para cada uno de ellos como se describen a continuación. Pero antes es necesario establecer algunas definiciones: 1. Usuario final: Es la persona que en razón de sus necesidades debe interactuar con la información almacenada en la Base de Datos. 2. Aplicación: Clasificación o tipo de acceso que puede tener la información almacenada. Normalmente se identifica con las funciones organizacionales globales que usan la información, como sería en el caso comercial facturación, inventarios, nómina o contabilidad. 3. Subesquema: Herramienta que permite limitar la entrada a la base de datos de una aplicación específica, de tal manera que a tal aplicación le son presentados únicamente los datos que le conciernen para su operación, y en formatos que son adecuados para cada tipo de información. Es una porción del Esquema Conceptual. 4. Criptografía: Disciplina encargada de estudiar formas de presentación y enmascaramiento de los datos, con el fin de ocultar su contenido. 5. Diccionario de Datos: Herramienta que se encarga de almacenar información sobre cada dato almacenado, como cuál es su nombre, de que tipo es (numérico, alfabético, combinación de caracteres o una estructura más compleja). que capacidad tiene (p. ej.: 5 dígitos enteros) y otras. 6. Esquema conceptual: Herramienta encargada de representar el Modelo de Datos completo de la Base de Datos, o sea la estructura de relaciones de todos los datos almacenados.
7. Sistema Manejador de la Base de Datos: Es el conjunto de programas de computador encargado de operar directamente sobre los datos almacenados. Normalmente esta construido para que use las demás herramientas de que dispone la Base de Datos, como el Diccionario de Datos y el Esquema Conceptual. 8. Subestrato electromagnético: Herramienta o elemento físico que tiene componentes electrónicos, magnéticos o ambos. Interfases de nivel 1: interactúan directamente con el usuario final. Permiten el acceso a los datos a través de medios “amigables”. Sus capacidades incluyen: requerimientos de información expresados al sistema en lenguaje natural humano, presentación de los datos en formas familiares al usuario, exclusividad en el acceso a los datos a quienes ésta es apropiada y presentación adecuada al tipo de información que se consulta en un momento dado a través de la facilidad denominada subesquema, ayudas de orientación al usuario que carezca del panorama de consultas posibles, aspectos sofisticados de seguridad (incluyen capacidades de hacer criptografía de los datos) y en general servicios al usuario para lograr satisfacción y eficiencia en el uso del sistema. El mayor aporte de la Inteligencia Artificial se da a este nivel. Interfases de nivel 2: Están encargadas de mantener la integridad y la consistencia en los datos. A través de los “metadatos” (que son información sobre los datos almacenados) se encarga de validar toda operación a realizar sobre dichos datos, de tal manera que siempre se mantienen las condiciones o premisas con que estos han sido almacenados. A través de facilidades como el diccionario de datos y el esquema conceptual permite incorporar todo el modelo de datos que incluya las restricciones y relaciones necesarias para mantener el grado de fidelidad predeterminado. Interfase de nivel 3: Se encarga de la administración y operación de la BD. Recibe el nombre genérico de Sistema Manejador de la Base de Datos (SMBD) e involucra en su construcción los criterios básicos de aplicación de las operaciones fundamentales de manipulación de los datos: almacenamiento, recuperación, borrado o modificación. Es, a diferencia de los niveles 2 y 4 con los que interactúa, un componente dinámico que se “sirve” de aquellos. Interfase de nivel 4: Es la última etapa de manejo de los datos y la única, con manifestación física. Se encarga del almacenamiento de los datos, normalmente en una base binaria (o estados “on” y “off ”) sobre un subestrato electromagnético. 1.4 RELACIÓN DEL MODELO PRESENTADO CON LOS PROBLEMAS PLANTEADOS. De una manera un poco más clara podemos ahora ver la relación entre el modelo presentado y los problemas
35
expuestos. En primera instancia vemos como la centralización en el acceso que provee el SMBD tiene el efecto de que evita redundancia innecesaria, pues sólo deliberadamente podrá ésta duplicarse en el repositorio único del nivel 4. El esquema conceptual y el diccionario de datos son los medios idóneos de mantener la integridad y consistencia del sistema. Los niveles 1, 2 y 3 se ocupan de diversos grados de seguridad (a través de los sub-esquemas, el esquema y el S M B D). Las interfases inteligentes hacen amigable el sistema. En una estructura semejante se puede implantar entonces una solución balanceada y estructurada a los problemas planteados. Cada componente tiene su razón de ser en la satisfacción de una necesidad, con la ventaja de que al sufrir la permanente renovación tecnológica, puede ser reemplazado sin modificar grandemente la estructura del sistema (el popular “enfoque modular”). Y, más importante aun, la creación de niveles representa una estrategia sumamente interesante que permite una transición simple entre los grados de complejidad de los problemas atacados (lo que transforma el manejo del problema global) y le daría versatilidad a la solución. Sin embargo, es un hecho que en la actualidad las limitaciones mismas de las herramientas computacionales disponibles no han llegado aún a una respuesta satisfactoria a las necesidades o problemas enunciados. Para la mayoría de los problemas. Hoy aún no existen soluciones adecuadas pero, por otra parte, las facilidades de representación actuales necesariamente limitan el objeto representado y la limitación, nacida de las restricciones de la máquina misma (y de los modelos que se concretan en tal máquina) solo podrá ser superada por un replanteamiento radical de dichos modelos.
2. INTELIGENCIA ARTIFICIAL
2.1 ANTECEDENTES 2.1.1 Un cambio de paradigma. Como disciplina empírica de la informática, la inteligencia Artificial (IA) ha sido desarrollada durante los últimos quince años. Y durante este lapso ha ocurrido un “cambio de paradigma” en su quehacer. Este cambio se ha dado de una estrategia “basada en poder”, que busca comportamientos inteligentes (o sea, espera identificar un número limitado de técnicas muy simples pero poderosas que en conjunto fueran suficientes para crear programas “inteligentes”) a un enfoque “basado en conocimiento” (Zarri, 1982). Es por esto que el paradigma actual expresa que: “El problema fundamental de entender la inteligencia no es la identificación de unas pocas técnicas poderosas, sino más bien la pregunta de como representar grandes cantidades de conocimiento en formas que permitan su uso e interacción efectiva” (Goldstein, .1977). La aplicación de los principios mencionados encuentra su mejor expresión en ciertos productos de IA conocidos como sistemas expertos, caracterizados por el uso, dentro
36
de un campo de aplicación claramente definido, de nuevas técnicas eficaces para representar conocimiento empírico como base de decisiones, y su uso en lograr razonamiento plausible (Duda, 1979). 2.1.2 El contexto social de la IA El problema del conocimiento ha sido investigado desde muchos puntos de vista. La filosofía, atacando la raíz de este problema en la relación básica sujetoobjeto, ha provisto múltiples enfoques con apoyo en las más diversas disciplinas, como la fisiología, las ciencias sociales, la sicología o la lingüística. Por su complejidad y por que evita sistemáticamente un enfoque reduccionista y por ende parcial, del problema, revisaremos con algún detalle el trabajo de las ciencias sociales, en procura de entender el rol de la IA en torno al conocimiento en nuestra sociedad. De los trabajos de Gastan Bachelard en 1930, los autores De lpola y Castel desarrollaron una teoría del conocimiento de profunda raíz epistemológica (surgida esta última en el intento de las ciencias sociales de reorganizarse a gran escala acudiendo a sus fundamentos extra-contingentes. Cuando las crisis ideológicas y su falta de consistencia en el debate originan a la necesidad de una mayor cientificidad en su tratamiento). La tesis central es que existe un proceso de producción de conocimiento, análogo a cualquier proceso productivo social. Veamos su definición: “Proceso de producción de conocimientos: transformación de una materia prima determinada (conocimiento científico y/o “representación” precientífica) en un producto determinado (nuevo conocimiento científico), transformación efectuada por agentes de producción -científica- determinados, utilizando medios de trabajo determinados (conceptos, teorías, métodos) en condiciones de producción (materiales y sociales) determinadas” (De lpola, 1972). A partir de una rigurosa definición de los términos necesarios, desarrollan luego la tesis de que este proceso de producción, al igual que los otros, no existe en estado puro, sino más bien se encuentra inmerso en una ideología, unas condiciones sociales, una masa previa de conocimiento, y otros procesos productivos con los cuales interactúa. Todos estos ingredientes permean cualquier uso y acción en este conocimiento. Si adoptamos esta conclusión de su trabajo, podemos colegir que no serán ni la IA, ni las BD, ni la misma informática, ajenas a las condiciones imperantes en su desarrollo. No es posible hablar de que las implicaciones de su empleo son meramente técnicas, como a veces sus más entusiastas defensores pretenden inferir de sus asombrosos descubrimientos tecnológicos. No es así, y el debate en áreas críticas como su incidencia en el nivel de empleo y en la mutación generalizada de la tipología básica del trabajo (que discutíamos con alguna extensión en la introducción) debería haberlo demostrado.
ARTÍCULO CENTRAL
Pero, además de esta conclusión, podemos ahora delinear específicamente para IA, otras conclusiones que pueden aportar elementos interesantes en tal debate. Si es posible pensar en un proceso de producción de conocimiento, análogo a los demás, y existe una tendencia generalizada a la automatización en estos, ¿será posible “automatizar” el proceso de producción de conocimiento?; es decir, ¿existirá la manera de construir “máquinas procesadoras de conocimiento” ajustadas a los postulados de la definición anterior? Y la investigación desarrolla da en IA pretende responder a tal pregunta. Como lo analizaremos en el rol de los sistemas expertos, la respuesta no es aun satisfactoria. 2.1.3 Fundamentos técnicos de los sistemas expertos. Como metodología de trabajo, los sistemas expertos operan con tres componentes fundamentales : • Una estructura simbólica llamada código o una base de datos donde se hallan representados los objetos de la disciplina especifica • Herramientas computacionales que son capaces de trasformar la codificación de un objeto en la de otro, para explorar el grado de aproximación a la solución buscada de manera sistemática (Tales herramientas son comúnmente conocidas como operadores o producciones). Es decir, una serie de reglas o leyes que nos sirven para aplicar a un objeto y producir otro, y con las que se construye la solución. • Un método efectivo de seguimiento, que busca producir el objeto deseado tan rápido como sea posible. (Pearl, 1984). Para comprender un poco el “estado del arte” (estado último de desarrollo en un área dada) en sistemas expertos, y su pretensión de representar el conocimiento, exploraremos un poco esta representación: Se han desarrollado técnicas computacionales que se adaptan bien a las necesidades de la ingeniería del conocimiento. Por ejemplo, la mayoría de los sistemas expertos usan reglas del tipo “situación - acción” para la representación del “conocimiento” contenido en el sistema, donde cada regla debe aprehender un “pedazo” del área de conocimiento que tiene significado, en sí misma, para el especialista de esa área de conocimiento (Feigenbaum, 1977). La parte de “situación”, o premisa de la regla, describe una posible configuración de los datos conocidos en el sistema; la parte de “acción” indica una o más conclusiones que pueden producirse si las premisas son satisfechas. (Zarri, 1982). Existe para cada regla, la posibilidad de asociarle un grado de certeza (en un rango de 0 a 1), de tal manera que al operar consecutivamente sobre varias reglas, se tiene al final un grado de certeza en la conclusión final, obtenido al operar los grados de certeza de las reglas intermedias, de una manera análoga a las operaciones sobre probabilidades.
2.2 ANÁLISIS DEL ROL DE LOS SISTEMAS EXPERTOS: PRETENSIONES VS REALIDAD. La teoría de sistemas expertos, al pretender mediante técnicas parecidas a las enunciadas en la sección anterior, representar el conocimiento, idealmente permitiría no sólo almacenar, sino tal vez reproducir y generar conocimiento, convirtiéndose así en “máquinas lógicas de producción de conocimiento”, llenando por entero los objetivos de la IA en el paradigma actual. Además cada sistema experto sería un medio de “capitalizar” el conocimiento del área específica a la que está dedicado, permitiendo su acumulación en estratos diferentes a la mente humana. Cada organización productiva podría obtener un mayor retorno de la inversión dedicada a crearlo y desarrollarlo, pues sus beneficios no dependerían en mayor grado de la presencia continuada del especialista del área, y además se preserva de pérdidas accidentales. Asimismo, el hecho de tener el conocimiento en producción ‘’automatizada”, con la tecnología computacional respaldando tal proceso, tal vez podría permitir acelerarlo (respecto al de la “simple” mente humana), y pondría todo el poder de la continua renovación tecnológica a su servicio. Sin embargo, todo el avance en el área de sistemas expertos no supera en complejidad al de la programación básica de computadores. Al pretender trabajar sobre un esquema que asimila “información” a conocimiento, y trabajar con las relaciones básicas de naturaleza lógica que provee la informática hasta el momento, se reduce todo el proceso a una estructura bastante primitiva. Tal como lo veremos en las aplicaciones sobre informática jurídica, el trabajo sobre la incertidumbre, los matices, la ambigüedad, que es tan frecuente en casi todas las áreas no exactas del quehacer humano (entre ellas el derecho), solo encuentra correspondencia incipiente con herramientas computacionales, convertidas por limitaciones de la investigación, y tal vez de su propia naturaleza, en pobres repositorios de tales aspectos. La cuestión de fondo radica en nuestra comprensión de la naturaleza del conocimiento. El axioma actual sobre el que se construye todo el trabajo de IA es que el conocimiento es en esencia lógica (limitación que nace de la naturaleza de la máquina), y por ende, susceptible de ser manipulado con tecnología informática, en diversos estados de “refinamiento”. Pero de no ser así, posiblemente esta frontera ontológica se convierta en el principal obstáculo hacia el desarrollo de sistemas de conocimiento. La continuación del presente artículo saldrá el día 1º de noviembre. El artículo fue publicado por el Ingeniero de Sistemas Juan David Mejía A., a quien se le entrega el total crédito de su artículo y publicación.
23-Abril-2016 Artículo Publicado en: http://bit.ly/2cFe7Fp
37
MARVIN MINSKY "LA INTELIGENCIA ARTIFICIAL NOS RECUERDA QUE NO ES UNA GRAN COSA SER UNA PERSONA"
N
Héctor D’Amico
acido en Nueva York en 1927 y fallecido en Boston el 24 de enero último, Minsky es considerado uno de los padres de la inteligencia artificial (IA). Fue uno de los fundadores del laboratorio de IA del Instituto de Tecnología de Massachusetts y en 1986 publicó una obra fundacional en el campo de la ciencia cognitiva, La sociedad de la mente Al igual que Copérnico, que en su momento detuvo al Sol y puso en marcha la Tierra para sorpresa de los hombres, Marvin Minsky se ha propuesto quitarle ciertas vendas de los ojos a muchos de sus contemporáneos. ¿Cómo puede surgir la inteligencia de algo que no es inteligente?, se pregunta, refiriéndose al cerebro humano. ¿Cómo es posible que un cuerpo aparentemente sólido albergue algo tan sutil, incorpóreo, como una idea?, insiste. Minsky pasó cincuenta años de su vida investigando el mecanismo de la mente en su afán por reproducir algunas de sus múltiples funciones dentro de un laboratorio. Minsky ha sido reconocido en todo el mundo como el padre de la inteligencia artificial y uno de los pioneros en el campo de la computación. Su contacto con las ciencias empezó a los 5 años, cuando fue admitido en una escuela de Manhattan para chicos superdotados. A los 19, ingresó en Harvard, donde estudió matemática, física, psicología y biología, para ingresar cinco años después en el cuerpo de profesores de la Universidad. En 1951 construyó, junto con un colega llamado Dean Edmonds, la primera máquina electrónica de la historia capaz de aprender: la bautizaron con las siglas Snarc, empleaba 400 válvulas electrónicas y su mecanismo estaba basado en la simulación de redes neurales. Pero no fue en Harvard sino en el Instituto Tecnológico de Massachusetts (MIT) donde Minsky desarrolló sus máquinas semi inteligentes. A mediados de los años 60, diseño un brazo artificial avanzado, capaz de ejecutar catorce movimientos diferentes, y luego fabricó
38
a Constructor, un robot que utilizaba realimentación visual para guiarse y ejecutar algunas tareas relativamente sencillas. Aunque admite que casi nunca descansa, sino que entra en íntimos períodos de transición entre una actividad y la siguiente, Minsky siempre encuentra tiempo para disfrutar de la música, su pasatiempo favorito. Lo que más lo seduce es componer fugas en alguno de los instrumentos -tiene dos órganos, tres pianos y un sintetizador- que conserva en su casa de Brookline, en las afueras de Boston. -Al afirmar que "el cerebro es una máquina", usted provocó un alboroto en el ambiente científico, sobre todo entre neurólogos y biólogos. Ahora, como esta idea está tan ligada a su teoría de la inteligencia artificial, sería conveniente que explique por qué considera que nuestro cerebro es una máquina. Marvin Minsky - Habitualmente, cuando nos referimos a una máquina estamos hablando de un mecanismo simple, compuesto por diferentes partes y cuyo funcionamiento tiene una explicación razonable. El ejemplo típico podría ser el automóvil o la cortadora de césped. Cuando analizamos el cerebro con el microscopio, vemos que está formado por miles de millones de piezas, algunas de ellas asombrosamente pequeñas y complejas, aunque su estructura global es la de una máquina. Es decir, estamos hablando de componentes de algún modo imperfectos que no pueden hacer nada por sí solos, cuya misión consiste en ejecutar tareas parciales o servir de complemento de otras funciones. De hecho, ninguna parte del cerebro humano como tal puede ser considerada inteligente. -Hay algo instintivo en cada uno de nosotros que rechaza esa comparación. Marvin Minsky - Sí. Muchos sienten que es un insulto a la especie humana. Lo que sucede es que la mayoría de
E N T R E V I S TA
las personas tiene una visión bastante pobre, peyorativa, acerca de las máquinas. A nadie le agrada que lo comparen con un ventilador o una aspiradora. Pero hay que reconocer que en los últimos cincuenta años hemos desarrollado mecanismos que son infinitamente más complejos, aunque por costumbre los seguimos llamando máquinas. -Es difícil acostumbrarse a la idea de que nuestro cerebro es, en el fondo, una combinación de múltiples mecanismos y tareas. Estamos habituados a percibirlo como un órgano indivisible, unitario, a tal punto que la representación oral de sus funciones es una palabra en singular, Yo. Usted prefiere hablar de "la sociedad de la mente", de la acción sincronizada de numerosos procesos a los que ha bautizado agentes. Resuma a grandes rasgos en qué consiste este modelo. Marvin Minsky - Nuestro cerebro está integrado por cientos de pequeñas computadoras y cada una se ocupa de una función específica. El diálogo entre ellas es permanente. Esta concepción de la mente surgió a mediados de los 60 trabajando con Papert, quien desarrolló el sistema Logo, muy utilizado por los chicos para aprender computación. A mediados de esa década habíamos desarrollado una serie de robots para que imitaran ciertas tareas infantiles, como ordenar cubos de colores o identificar visualmente ciertos objetos. Por supuesto, fue una tarea fatigosa. Imagínese que para que el robot pudiese "ver" un cubo tuvimos que escribir cientos de pequeños programas de computación. Otro tanto ocurrió cuando quisimos que distinguiera a un objeto de su sombra o fuese capaz de doblar en la esquina o comprendiera el significado de una lista de palabras. Lo interesante de este método de enseñanza es que nos demostró que es más fácil programar a un robot para que juegue al ajedrez que para que haga cosas típicas de un chico de cuatro años. La paradoja era que la computadora podía resolver complicadísimas
operaciones matemáticas, pero no podía pensar. -En un artículo para la revista Discover, usted sugiere que le resulta mucho más interesante estudiar el mecanismo de aprendizaje de un chico que tratar de descifrar en qué consiste la genialidad de un Einstein o de un Bach. ¿Por qué? Marvin Minsky - Cuando empezábamos a trabajar en el MIT sobre estos temas quisimos averiguar cómo funcionaba la mente de un adulto. Pero al cabo de un tiempo llegamos a la conclusión de que era un campo demasiado vasto y complejo. Un adulto es, entre otras cosas, el resultado de una cultura y una particular manera de crecer y desarrollarse. Esto nos decidió a concentrarnos en los chicos. Antes de venir al MIT, Paper había trabajado en Suiza junto con Jean Piaget y estaba familiarizado con todo lo relacionado con el desarrollo infantil. ¿Cómo aprendemos a hablar? ¿Cómo se organizan las palabras en frases y oraciones y cómo se vincula cada una de ellas con la que sigue? ¿Qué es lo que permite que un aroma, un sonido o un número se trasforme en una idea? Ésas eran las preguntas que nos interesaban en aquel momento. Einstein o Mozart, aunque sorprendentes, no dejan de ser genios, seres excepcionales; son el resultado, entre otras cosas, de una aptitud individual y de una circunstancia única. Pero el común de la gente no toma en cuenta que el proceso de aprendizaje de un chico, de cualquier chico, es algo absolutamente fantástico. -Nuestra cultura no nos alienta a reflexionar sobre los mecanismos propios del aprendizaje. Nos convencemos de que el hecho mismo de aprender "nos sucede". ¿Es ésta una actitud típica de los adultos o también ocurre cuando jugamos con un balde en la playa? Marvin Minsky - Por lo general, nadie se interesa en pensar cómo piensa. Tampoco nos ocupamos en analizar cómo aprenden los demás. Pero dele una cuchara y un
39
vaso a un chico de un año, obsérvelo quince minutos y verá que se comporta como un científico: ensayará todas las formas posibles de introducir la cuchara por la abertura de la taza. El esfuerzo mental que realiza en ese momento es tremendo. Está aplicando a su modo el método de prueba y error. Pero si usted le pregunta a la madre le dirá, simplemente, que el chico "está jugando", lo cual es una manera muy superficial de ver la situación. Cada acierto y cada error quedan registrados en la memoria y pasan a formar parte de la experiencia personal del chico. Lo extraño es que, al cumplir cuatro o cinco años, se olvida de este complejo mecanismo de aprendizaje y empieza a actuar como una persona que siempre supo pensar, lo cual, como sabemos, no es cierto. -Pensemos en la inteligencia artificial. ¿Está de acuerdo en definirla como la creación de máquinas cuyas funciones serían consideradas inteligentes si fuesen ejecutadas por seres humanos? Marvin Minsky - Esta definición presenta una dificultad semántica, nos obliga a ponernos de acuerdo sobre lo que es y lo que no es inteligente. Inteligencia artificial es una ciencia que trabaja orientada en tres grandes direcciones. Por un lado, desarrolla robots y máquinas a las que se les ordena que cumplan tareas de diversa complejidad. En segundo lugar, nos permite elaborar nuevas teorías acerca del conocimiento. En tercer término, están, paradójicamente, las ideas que aportan acerca de cómo funciona nuestra propia mente.
-Si entendí bien, es un camino de doble mano. Al reproducir en forma mecánica funciones propias del cerebro, se pueden averiguar cosas que no sabemos sobre nosotros mismos, ¿no es así? Marvin Minsky - Correcto. La inteligencia artificial ha hecho y seguirá haciendo aportes muy interesantes a la psicología. No olvide que en los años 50, cuando esta disciplina parecía adormecerse un poco sobre las ideas de figuras como Pavlov, Freud o Piaget, sucedió algo llamativo. Los psicólogos comprobaron que la computación era una fuente novedosa, inagotable, de estímulos. Esta afinidad creciente, sumada a las necesidades mutuas de respuestas que tienen la una de la otra, desembocó en el nacimiento de la psicología cognoscitiva. -¿De qué manera se aplica el concepto de sociedad de la
40
mente a la estructura de una computadora? Marvin Minsky - Tradicionalmente, cuando alguien escribía un programa para una computadora tenía que hacerlo perfecto, de lo contrario no funcionaba. Si había un error, aunque fuese uno solo, la computadora no sabía qué hacer. Este sistema resulta bastante contradictorio, porque le exige perfección a un ser humano que por naturaleza no lo es. La sociedad de la mente propone otro enfoque. Nosotros creemos que programar una computadora tiene que ser una tarea similar a la construcción de una casa. Cada uno de los profesionales que uno convoca, desde el albañil hasta el plomero, se supone que es un experto en lo suyo, pero nunca en el manejo total de la obra. El éxito de la casa no depende nunca de un carpintero talentoso, sino del esfuerzo del grupo y de la capacidad de coordinación del arquitecto. La cuestión, entonces, no es empecinarnos en desarrollar un super-programa inteligente. Tenemos que escribir infinidad de pequeños programas, cada uno de ellos orientado hacia una función específica, y lograr que trabajen asociados unos con otros. La misión de uno de ellos será, como en el caso del arquitecto, coordinar las habilidades de los otros. -Una de las profecías más conmovedoras que uno encuentra en sus libros son esas computadoras del futuro que serán capaces de sentir emociones. Marvin Minsky - Seamos honestos: los humanos aún no sabemos mucho acerca de lo que significa sentir. Me refiero
a cómo y por qué sentimos. A la gente le sorprendería más una computadora capaz de registrar sentimientos que otra capaz de pensar. Yo creo que no hay diferencias de valor o complejidad entre una idea y un sentimiento. Hay animales muy simples que, pese a todo, son capaces de sentir, de reaccionar ante algunos estímulos. Es curioso que muchas personas estén dispuestas a considerar en un plano superior, más elevado, a los sentimientos que a las ideas, porque lo que verdaderamente nos diferencia de otras especies es nuestra habilidad intelectual. En lo que respecta a las computadoras, bueno, no veo por qué nos resultaría más arduo dotarlas de sentimientos que enseñarles a pensar. -¿Qué le sugiere que, por primera vez, el hombre esté tratando de crear inteligencia a partir de elementos que obviamente no lo son como el fósforo, la silicona o los impulsos eléctricos?
E N T R E V I S TA
Marvin Minsky - Algunos de los elementos que menciona están incorporados en nosotros. Pero no son las partes en sí mismas las que cuentan, o su conformación, es decir, cuánto nitrógeno o cuánto carbono contiene cada una, sino que lo que importa es la relación funcional que establecen entre ellas. A partir de su pregunta se podrían hacer reflexiones de orden filosófico o religioso. En un sentido amplio, la búsqueda de la inteligencia artificial nos recuerda que, después de todo, no es una gran cosa ser persona. Me refiero a que estamos obligados a practicar un durísimo ejercicio de aprendizaje que abarca unos veinte años y después no vivimos, proporcionalmente, tanto tiempo como para poder utilizar ese conocimiento. En los próximos cien años la inteligencia artificial traerá, por ejemplo, mejores marcapasos para apoyar determinadas funciones cerebrales, mejores diagnósticos y corazones artificiales. Lo insólito es que, en el fondo, la gente tiene miedo a mejorar tanto física como intelectualmente. Está en nuestra naturaleza: vivimos en un estado de temor latente, inseguros, atemorizados por cualquier transformación que suceda a nuestro alrededor. La industria del espectáculo es un buen reflejo de este fenómeno. ¿Por qué cree que tienen tanto éxito las películas sobre guerras, crímenes, terror, catástrofes? Tenemos un miedo subyacente a pensar en cosas positivas, bellas o que funcionan bien. -Un tema sobre el que se ha escrito bastante y fantaseado aún más es el de la futura convivencia del hombre con las máquinas inteligentes.
Marvin Minsky - Las posibilidades de esta relación serán infinitas, sobre todo a partir del momento en que las computadoras aprendan a programarse a sí mismas. Llegará el día en que, por su perfección, podremos considerarlas descendientes del hombre. No debemos cometer el error de encasillarlas en el papel de instrumentos inteligentes que están a nuestro servicio. Al tener una explicación más acabada acerca de cómo trabaja el cerebro podremos, con la ayuda de ellas, recrear el sistema de aprendizaje infantil. Estos conocimientos, a su vez, serán el embrión de nuevos métodos de enseñanza muy superiores a los actuales. Ya no tendremos que esperar, como sucede ahora, dos generaciones para comprobar los resultados de un sistema educativo. Las computadoras serán un magnifico túnel de prueba pedagógico.
-¿No cree que la palabra computadora suena un poco antigua e imprecisa, insuficiente para definir lo que hacen muchas de estas máquinas? Marvin Minsky - Estoy totalmente de acuerdo. Es un término un poco denigrante para ellas. -Los españoles emplean una palabra no ideal para más flexible: ordenador. Marvin Minsky - Sí, como los franceses. Lo malo es que enfatiza la noción de orden y rigor, que no se ajusta al concepto de la sociedad de la mente. -¿Qué le diría a quienes aun hoy se sienten intimidados ante una computadora? ¿Es un mal que se cura sólo con el tiempo o usted conoce algún buen argumento para hacerlas cambiar de opinión? Marvin Minsky - Los temerosos se dividen en dos grandes grupos. Están los que se mantienen alejados de las computadoras porque sienten que no pueden obtener nada bueno de ellas y luego están los que sospechan que nunca van a poder aprender a operarlas. Tengo un amigo, que es escritor, escritor de éxito, que todavía redacta los borradores en su vieja máquina de escribir. Su trabajo marcha tan bien que no quiere perder tiempo en aprender a usar una pantalla. Mi consejo es que siga así. ¿Por qué habría de cambiar? Pero si usted imagina que sus ideas y su fuerza creativa pueden ser expresados con mayor eficiencia
gracias a la ayuda de una computadora, no debería perder un minuto más en acercarse a ella. El segundo grupo de temerosos no se siente cohibido por la pantalla o el teclado. Esa es una fantasía detrás de la cual ocultan, o tratan de ocultar, el miedo a aprender algo diferente. Sucede con las matemáticas: no son los números los que asustan sino el proceso que implica aprender a manejarlos. Lo malo de esta fobia es que se hereda de generación en generación y forma parte de nuestros genes. -Veo, sin embargo, que usted evita la prédica simplista de sugerirle el uso de la computadora a todo el mundo. Marvin Minsky - Es que no hay recetas mágicas. La computación es un poco como el alpinismo. Escalar una montaña puede ser una lamentable pérdida de tiempo o una hazaña, todo depende del sentido que uno le dé.
41
Apache Software Foundation (ASF)
E
Alejandro Rebollo
l mundo del software libre o de código abierto no es nuevo, y ha librado una batalla con el software comercial por más de una década. Cuando a finales de los años 90 nos acercábamos al auge de Internet, y se empezaban a compartir experiencias de software, también conocimos los esfuerzos que en materia de código abierto se estaba haciendo, empezando con sistemas operativos, como son las varias distribuciones para Linux. Se empezó a popularizar el uso del lenguaje de programación Java, incluso en ámbitos empresariales, y así vimos el nacimiento de lo que hoy en día es más que una empresa, es una marca insignia y no podemos concebir el avance del software sin sus múltiples aportaciones, me refiero a la empresa Apache Software Foundation (ASF). Conocida por su HTTP server Apache y Tomcat. Pero ustedes se preguntaran, ¿cuál ha sido el aporte real que ha tenido la empresa Apache al mundo de la Inteligencia Artificial? Considero, que de primera mano no podríamos ver una aportación directa, pero con sus
42
recientes incursiones al mundo del Big Data si podemos ver este tipo de aportación. Es el creador de la plataforma distribuida de procesamiento de datos no-SQL denominado Hadoop. Cuenta con bases de datos que almacena altos volúmenes de información, como lo es Cassandra, y otras herramientas, como el manejo de intercambio de datos a través de Web Services, que han ayudado a tener mejores medios de comunicación en el ámbito de Internet. Una de esas múltiples aportaciones es Apache Storm es un sistema que nos ayuda a recuperar streams de datos en tiempo real de diferentes fuentes de información y de manera distribuida, con mucha tolerancia a las fallas y con altos niveles de disponibilidad. Una de las aplicaciones de Storm es para la lectura de sensores que trabaja en tiempo real y que sirven para realizar el Internet de las cosas (iOT). Otra aplicación es la lectura de datos provenientes de redes sociales, donde nos puede ayudar en situaciones de compra para analizar lo que se conoce como “sentimientos” de compra dentro de Marketing.
ARTÍCULO
43
ARTÍCULO
Storm está compuesto por un Spout que se encarga de recoger el flujo de datos de entrada y Bolt que se encarga de procesar y transformar los datos. Una de las aplicaciones reales del procesamiento de lenguaje natural y en lo que nos ayudaría tener una arquitectura basada en herramientas de Apache es la verificación de los niveles de riesgo que realizan las empresas de Servicios Financieros. El lenguaje natural es uno de los ámbitos de estudio de la Inteligencia Artificial, y siempre se ha tenido la problemática de poder interpretar este lenguaje porque tiene múltiples factores de análisis a nivel computacional, uno de ellos es, el contexto en que las palabras son emitidas. Volviendo al ejemplo del análisis de nivel de riesgo en Servicios Financieros, la aplicación es la siguiente: para saber el nivel de riesgo que representa una persona, las empresas han sido más sofisticadas, y lejos de solo buscar cómo está calificada una persona dentro de sus buros de crédito tanto externo como interno, así como es sus listas negras; hoy en día se buscan los nombres de las personas
44
en documentos de alto impacto: contratos, convenios, poderes. El procesar este tipo de documentos no es una tarea fácil, pero se deben de procesar en un ámbito de lenguaje natural, ya que el punto importante que se busca es cómo una persona está asociada por ejemplo a un contrato, o si funge como aval en un contrato de un tercero o en un convenio; y luego, a qué se comprometió en este tipo de contratos o convenios. Luego, viene la dificultad de poder procesar palabra por palabra, tal como si una persona estuviera haciendo la lectura de documentos de 10 a 200 páginas. Aquí es donde la aportación de Apache nos ha ayudado para tener una arquitectura que nos permita solventar el escenario descrito para Servicios Financieros. Podemos tener una sistema de procesamiento masivo de datos basado en Hadoop para analizar los documentos, una herramienta como Storm que nos ayude a saber en qué contexto fueron emitidos los contratos y los convenios y, finalmente, Cassandra que nos ayude a almacenar los datos de alto riesgo.
ARTÍCULO
45
Inteligencia Artificial:
La especie
DEL FUTURO
S
Cecilia Castillo
e habla y se fantasea mucho con la inteligencia artificial; siempre se ha tenido la idea de que ésta pueda convertirse en un semi Dios capaz de sustituir al ser humano y hasta aniquilarlo de la faz de este mundo, dando paso a una nueva civilización de seres capaces de asimilar todo el conocimiento humano en cuestión de días y desarrollar avances tecnológicos más allá de la comprensión de los simples y orgánicos mortales que les dieron vida, pero ¿de verdad esto es así? Actualmente, vivimos en un mundo donde la inteligencia artificial está en muchos campos de la vida cotidiana y aún que parece un tema de ciencia ficción; la verdad es que esta tecnología lleva muchos años con nosotros y se empezó a desarrollar desde el siglo pasado. Es curioso que muchas personas hoy en día, sigan creyendo que la inteligencia artificial es un tema de ciencia ficción cuando el uso de esta tecnología se da en el día a día, pero si es tan habitual ¿dónde podemos apreciarla?, pues bien es cierto que aún no hay robots con una IA tan desarrollada que emulen nuestro comportamiento y hagan las actividades cotidianas de un simple mortal, sin embargo, Siri, el asistente de los dispositivos móviles iPhone, es un ejemplo de la aplicación de inteligencia artificial, el motor de búsqueda del gigante Google capaz de predecir lo que quieres y darte resultados mucho antes de que tu siquiera termines de escribir la palabra es otro gran ejemplo. Hasta cierto punto es verdad que la tecnología aún está en pañales en algunas áreas y los procesadores del mercado actual, no son capaces de soportar algo más avanzado, sin embargo, el futuro es prometedor y cada año se duplica el poder de los procesadores y a su vez se descubren nuevas tecnologías, solo es cuestión de tiempo hasta que cada dispositivo móvil cuente con un procesador cuántico en su núcleo, para ese momento quizá podamos
46
ver los primeros robots con súper inteligencia cuántica con un IA tan desarrollada que podrás tener una charla con ellos y sin poder distinguir entre él y un humano. Desde hace algunos años los corporativos han puesto mayor atención al desarrollo de nuevas IA´s, principalmente en la industria de los videojuegos. Actualmente se ha llegado a un punto donde no es posible crear cada comportamiento de un NPC (nonplayer character) y los jugadores actuales quieren un mayor reto, esto orilla a la industria a adaptarse y encontrar nuevos métodos como la creación de mundos abiertos con una inmensa cantidad de NPC para interactuar con su propia inteligencia, y así obtener un mayor valor en su reproducción. Pese a los esfuerzos de esta industria sus IA´s aún son muy básicas, pero en un futuro podrían ser mejores, a lo mejor nos encontramos ante los inicios de una nueva sociedad. Cuando las IAs del mundo sean lo suficientemente inteligentes como para poder decidir entre el bien y el mal, cuando empiecen a tener conversaciones y no sea posible identificar si es un ser humano o simplemente una máquina muy avanzada, nos enfrentamos ante un dilema como especie dominante, ¿debemos catalogar estos entes como criaturas vivas? ¿Estos seres son personas? ¿Tenemos que darles derechos como al resto de humanos? Actualmente las IA´s no son tan avanzadas, pero en un futuro podrían pedir su libertad como el famoso caso de las máquinas en AniMatrix o bien el del Hombre Bicentenario. Si esto sucede miles de grupos similares a los protectores de animales alzaran la voz en pro a la “nueva especie”, porque actualmente ya existen grupos en contra del desarrollo tecnológico y pese a todo no lo han podido frenar, pero por el bien de la humanidad siempre se pueden crear leyes para limitar su inteligencia. ¿Cuál será el camino que tome esto?, eso depende de ti y lo que quieras para el futuro...
ARTÍCULO
Actualmente las IA´s no son tan avanzadas, pero en un futuro podrían pedir su libertad como el famoso caso de las máquinas en AniMatrix
47
MUNDO CAMBIANTE UN
V
Miguel Adame
ivimos en una época donde las posibilidades son ilimitadas, cada día hay nuevas oportunidades para desarrollarse, miles de proyectos son creados y lanzados en cada momento, dando la ilusión de que cualquiera puede crear algo y pasar a la historia o bien ser rico de la noche a la mañana por la aplicación de una idea extravagante o con lo que para muchos sería una locura. La revolución de las cosas es un aquí y ahora. Mientras la inmensa mayoría de las personas ocupa su tiempo en disfrutar de los beneficios que ofrece la edad de oro de la innovación y la tecnología, un pequeño grupo se empeña en alejarse de estos beneficios y busca la manera de crear algo que trascienda, quizá a causa de los sueños e ideales dejados por generaciones anteriores o bien inspirados por múltiples películas, libros o cómics que implantaron la semilla de la revolución. Hace algunos años la mejor manera de trascender era “ser alguien de mundo”, con un impacto comunicativo alto, sin embargo, los tiempos cambian y así como hace algunos años un actor de televisión o cine era alguien de suma importancia capaz de cambiar el ideal de millones de seguidores, ahora son los inventores e innovadores de la industria quiénes ocupan este rol. El camino de los tecnólogos no es fácil, en muchas ocasiones tienen que renunciar a los las comodidades de la vida para crear invenciones maravillosas que a su vez mejore la vida realidad de millones, se dice que el camino al éxito está plagado de fracasos. Actualmente muchos medios de comunicación nos dan la ilusión de que ser un emprendedor tecnólogo es fácil, algo similar al caso de éxito de Jordi Muñoz el joven mexicano que se volvió millonarios creando y vendiendo drones,
48
pero en realidad el éxito como la creación de algo que trascienda, es un proceso complicado, quizá se logre correr con suerte y algún grupo de cazadores de talentos te encuentre pero en la inmensa mayoría de los casos no es así. Siempre hay que trabajar y luchar por lo que se quiere, reunirse con la gente correcta, hacerse de contactos, aprovechar cada oportunidad que se presenta y salir al mundo real a descubrir los problemas y necesidades de otros, revisar las nuevas necesidades, porque aunque no seas el creador de la idea y el proyecto más revolucionario del mundo siempre puedes encontrar un área de oportunidad creciente en esta para dar paso a algo nuevo. Pese a lo duro que pueda ser el camino, pese a todas las adversidades, problemas u obstáculos encontrados, siempre hay un forma de salir adelante luchar por la gloria y conseguir el éxito, emprender el viaje del éxito es difícil y solo algunos son capaces de llegar a la meta, pero lo importante no es conseguir el fin, sino el viaje como tal, porque el camino de la innovación está plagado de experiencias y no hay nada mejor que llegar a una edad avanzada y decir yo recorrí ese camino y fue lo mejor que pude experimentar. Te invito a que descubras este camino, así llegues a ser el vivo ejemplo de alguien que tras recorrer este mundo descubriendo en base de la experiencia los pilares que construyan un imperio podrás alzar la cara, mirar directo al rostro de la vida decir - yo construí esto y no fue fácil pero he llegado a donde pocos llegan. A hora sé que el mundo recordará quien fui, qué fue lo que construí, así como el camino que tuve que recorrer a lo largo de los años para que esto fuese posible.- Imagina que esto es lo que pasa por la mente aquellos que logran llegar a sus metas.
ARTÍCULO
49
LA EXPERIENCIA DE USUARIO Y SU USABILIDAD EN APLICACIONES WEB
U
Gabriela Campos
na aplicación web debe conseguir accesibilidad y funcionalidad en la experiencia de un usuario con la intención de mejorar la usabilidad, la interfaz gráfica y la facilidad de uso para el usuario final. Una aplicación web es software que utiliza una salida vía Internet para visualizar su interfaz. Los usuarios utilizan esta aplicación a través de un servidor. Cuando se va a desarrollar una aplicación de este tipo, se tiene que lograr realizar una interfaz gráfica web en la que el usuario pueda navegar por la aplicación. Los atributos de calidad de una aplicación web que influirán en la satisfacción, se clasifican en la calidad de los contenidos y la calidad del diseño de la aplicación. La importancia del diseño de la aplicación se basa en qué éste sea el que modele la interacción entre el usuario y la aplicación. En este artículo hablaré sobre estos términos que debemos de tener presentes a la hora de crear una aplicación web o bien cuando queremos mejorar el funcionamiento de una ya existente. Usabilidad La usabilidad debería ser una palabra muy conocida por programadores y diseñadores de software, sin embargo, en muchas ocasiones a la hora de crear “algo” se puede olvidar ese pequeño detalle, que es sin embargo de gran importancia, puesto que puede ser parte del nivel de éxito del producto. Entonces, la usabilidad la podríamos entender como la capacidad que tiene cualquier producto para ser usable de forma adecuada en un entorno específico. Pero ¿Por qué es importante la usabilidad? Porque cualquier cosa que utilicemos debería de ser fácil de
50
usar. Si no cuenta con esta característica, entonces podría tener menos probabilidades de ser exitoso en el mercado al que va dirigido. Debemos centrarnos en el usuario final para estructurar el sistema según sus necesidades y de esta manera poder organizar el diseño y los elementos de forma que permitan cumplir los objetivos para los que se creó el producto. Experiencia de Usuario La experiencia de usuario es un factor que se debe tomar en cuenta cuando se realiza una interfaz gráfica, ya que son las sensaciones y sentimientos emocionales que un usuario tiene respecto a un producto. Estos factores generan un ambiente cuyo resultado puede ser la generación de un entorno positivo para el servicio o el producto. En la experiencia de usuario intervienen varios factores: individuales, sociales, culturales, contextuales y los propios del producto. Ésta se ve influenciada por expectativas y experiencias previas, y por tanto condicionará expectativas y experiencias futuras. Hace especial énfasis en factores de la interacción tradicionalmente poco o mal considerados, como son el comportamiento emocional del usuario y la importancia de atributos de diseño como la estética.
ARTÍCULO
51
ARTÍCULO
Beneficios de la Experiencia de Usuario
Algunos beneficios que se tienen si se toma en cuenta la experiencia del usuario para la creación de un producto son: • Ayuda al desarrollo de nuevos productos basados en las necesidades del usuario. • Mejora el producto estratégicamente. • Reduce los tiempos de desarrollo al definir los requerimientos pensando en los objetivos del negocio y las necesidades del usuario.
Usabilidad & Experiencia de Usuario
Ocasionalmente podemos confundir estos dos conceptos, pero realmente sí existen diferencias puesto que la usabilidad es un estado necesario para asegurar el éxito de un producto o servicio (como ya lo he mencionado). Sin embargo, no dejemos a un lado que éste concepto no es una condición suficiente para asegurar el éxito, puesto que también se necesita que exista una buena experiencia de usuario. Mientras, ésta última genera emociones y sensaciones en el proceso de quien interactúa con el producto. Cuidado con pensar que si ya tenemos estas dos características, entonces el producto tendrá éxito). Realmente es un trabajo bastante complejo el combinarlos para poder lograr la satisfacción de un usuario.
Diseño de la interfaz gráfica
El diseño de la interfaz cuando se quiere crear una aplicación web debe caracterizarse por su simplicidad, es decir, debe ser simple (no simplista). El diseño debe comunicar la información necesaria al usuario de forma efectiva. Las características de una interfaz exitosa en este tipo de aplicaciones las podemos enumerar de la siguiente manera: (útil, usable, deseable, fácil de encontrar, accesible, creíble y valioso): • Útil: Utilidad que tiene para los usuarios, es decir, la capacidad de responder a las necesidades del usuario. • Usable: Facilidad de uso, la cual depende de la interacción usuario – aplicación. • Deseable: Este concepto está relacionado con el
52
diseño emocional. Armonía con la imagen, lo gráfico y el manejo de marca. • Encontrable: Capacidad de ser encontrado, es decir, fácil de navegar. Los usuarios deben poder encontrar los elementos que corresponderán a su necesidad. • Accesible: Acceso a una gran cantidad de personas en diferentes tipos de contextos. • Creíble: Elementos que expresen que sea creíble y confiable ante el usuario. • Valioso: Desarrollar valor para quien lo usará (valor agregado). Para crear experiencias exitosas no sólo se deben de enfocar todos los esfuerzos en la usabilidad y eficiencia, sino se debe de enfocar también en crear sensaciones únicas, estableciendo experiencias que comprometen a los usuarios creativamente.
Tips para la generación de aplicaciones web 1. Hacer las funciones obvias. 2. Crear una jerarquía visual clara. 3. Seguir patrones, modelos y convenciones. 4. Evitar los textos innecesarios. 5. Crear una navegación sencilla y apropiada a las necesidades de la aplicación. 6. Realizar pruebas de usabilidad te permitirá tener un mejor panorama. 7. Dar al usuario la mayor información que se pueda para que su experiencia sea agradable. 8. Dar accesibilidad a la aplicación. 9. Crear una página de inicio con un look & feel de acuerdo a las necesidades de la aplicación. El éxito de una aplicación web depende de varios factores, sin embargo, la facilidad de uso y la experiencia de usuario son fundamentales. Las aplicaciones web deben proveer servicios personalizados como la incorporación de una interfaz responsiva, la mejora en la experiencia de usuario, por ejemplo. Cada día surgen más conceptos que apoyan a los que ya conocemos, de tal forma que se está impulsando la creación de aplicaciones con funciones más inteligentes.
53
R
Carles Aguilar
ecientemente se está hablando con insistencia del concepto de inteligencia artificial. Mucho más aun cuando hace pocos días las grandes compañías tecnológicas a nivel mundial (Microsoft, Google, IBM, Facebook, Nvidia, etc) han hecho público y han liberado los códigos fuente de complejos programas de software basados en inteligencia artificial para intentar avanzar de forma irreversible en esta línea que, según dicen, está llamada a cambiar nuestro futuro como seres humanos. Una revolución cibernética que, básicamente, consiste en disponer de ordenadores capaces de aprender por sí mismos a realizar cualquier tipo de actividad por compleja que sea y, además, hacerlo de forma autónoma a partir de estímulos almacenados en su memoria que permitirían que esos programas fuesen capaces de pensar y tomar decisiones por sí mismos. Hasta el día de hoy la principal ocupación de las diferentes investigaciones desarrolladas se aplica en la robótica a varios niveles. Esencialmente hablamos del diseño y utilización de máquinas que sustituyen determinadlas funciones que hasta ahora realizaban las personas en varios sectores como la industria (Robots multifuncionales y robots especializados en tareas concretas) y los robots de servicio con un tipo de funciones más limitadas que se realizan en ámbitos específicos como la medicina, construcción, ayudas a personas discapacitadas, etc… Podemos decir que la robótica basada en este primer concepto de inteligencia artificial es un elemento útil en nuestra sociedad aunque no hay que olvidar que afecta, en sentido positivo, a la productividad y calidad final del producto desarrollado sin olvidar otras evidentes ventajas como la reducción de riesgos laborales, trabajos de precisión, horarios laborales, etc. Pero, a partir de los últimos avances en esta línea, debemos empezar a pensar cuál es el límite al que queremos llegar y analizar en profundidad hasta qué punto la inteligencia artificial podría llegar a controlar al ser humano. Hay quien sostiene que por el simple hecho de que las máquinas son creadas por humanos, estas nunca podrán llegar a controlar la situación pero… ¿Y si no es así?
54
Para muchos de nosotros parece algo complicado entender cómo funciona un cerebro artificial. Pero hemos de decir que, por el momento, es algo mucho más simple respecto del funcionamiento del cerebro humano ya que lo que estamos intentando es crear un cerebro artificial a imagen y semejanza del nuestro. Los críticos dicen que el ser humano no puede ni debe arriesgarse a jugar a ser Dios respecto de la creación de máquinas inteligentes. Se han señalado algunas diferencias esenciales entre el cerebro humano y la inteligencia artificial: Una máquina de inteligencia artificial dispone de un puerto de entrada y salida de datos que siempre estarán identificados de modo que podamos acceder a ellos. Algo que en nuestro cerebro no ocurre ya que nuestras neuronas son a la vez emisoras y transmisoras de datos y además lo hacen en diferentes direcciones y distintas finalidades. Una máquina necesita de un hardware para que la información se transmita y en nuestro cerebro no existe diferencia entre la información y el medio por el que circula ya que ello depende de la interconexión de nuestras neuronas. Las máquinas almacenan la información de forma física en el disco duro. Los humanos no almacenamos información de forma localizada y es por esta razón que a veces no recordamos ciertas cosas e incluso tenemos recuerdos que nunca han sido reales. El cerebro humano es capaz de adaptarse a cualquier situación e incluso ante situaciones imprevistas a las que se sometan diferentes sujetos, las reacciones pueden ser muy similares. En cuanto a la inteligencia artificial, los diferentes estímulos programados son los que activan la secuencia de reacción de forma establecida y quizás no asimilan bien un tipo de impulsos aleatorios. La estructura sobre la que se basa la inteligencia artificial requiere una estabilidad determinada para que todo el proceso sea ejecutado de forma lineal pero los más de 100 mil millones de neuronas que poseemos pueden trabajar bajo cualquier situación independientemente de las alteraciones que puedan sufrir debido precisamente a su gran complejidad y capacidad de interacción. Las máquinas que disponen de inteligencia artificial han sido diseñadas a partir de varios elementos externos como investigadores, científicos, programadores, analistas, etc,
ARTÍCULO
Artículo publicado en: Boost4Improve el día 24 de enero de 2016 http://bit.ly/2dlZlJT
55
ARTÍCULO
sin embargo nuestro cerebro está basado en miles de años de evolución sin olvidar que el ser humano genera muchas veces sus acciones a través de la emoción más que la razón de modo que actuamos sin la necesidad de tener en consideración determinados argumentos y pensamientos preestablecidos algo que las máquinas, hoy por hoy, no pueden obviar. Dicho todo esto... ¿Cuál puede ser el futuro de la inteligencia artificial? Parece que hay opiniones varias al respecto… No hace mucho Stephen Hawking dio la voz de alerta sobre las consecuencias nefastas de la inteligencia artificial en el sentido de que incluso podría llegar a acabar con la especie humana… Pero, ¿Es factible que algún día podamos sucumbir ante un ejército de robots humanoides que actúen por propia iniciativa? o, antes al contrario, ¿Nuestra capacidad creativa nos permitirá mejorar nuestro futuro contando con máquinas capaces de pensar y de sentir pero siempre bajo nuestro propio control?, ¿Llegarían a integrarse en nuestra sociedad con sus propios derechos reconocidos legalmente?, ¿Debemos seguir adelante con la investigación y dedicar recursos millonarios para que los mejores científicos desarrollen su trabajo en esta línea? Según otros expertos se asegura que el auténtico riesgo estriba en que, por error o negligencia, nos pongamos en manos de máquinas “estúpidas·” que tengan la capacidad de decidir sobre nosotros sin tener las competencias necesarias para ejecutar iniciativas de esa índole. También se indica que la inteligencia artificial, en sí misma, no es un peligro sino que el riesgo radica en cómo se fabrica dicha inteligencia. Es decir, que cualquier pequeño error en el proceso previo para el desarrollo de su estructura podría repercutir en un funcionamiento anómalo cuyas consecuencias serían nefastas a nivel de comportamiento paranoico e incluso agresivo hacia los seres humanos. Otra teoría apunta que las máquinas pensantes evolucionan siguiendo la premisa de las especies biológicas: competición, combate, cooperación supervivencia y reproducción. Los resultados finales de ese proceso es posible que no agraden a todos por igual pero el secreto quizás estriba en no controlar únicamente a las máquinas sino y, especialmente, a los humanos que
56
hagan un uso indebido de ellas. Lo cierto es que se asegura que un procesador de información fabricado por un ser humano puede llegar a superar con mucho nuestras propias capacidades cerebrales aunque el coste de llevar a efecto esta objetivo parece complicado ya que el progreso en el campo de la inteligencia artificial es más lento de lo que se supone a simple vista. De cualquier manera hay que ir adoptando medidas preventivas antes nuevas situaciones que se produzcan y evitar consecuencias no deseadas. Quizás existen demasiadas fantasías al respecto y, después de todo, las ventajas puedan superar los posibles inconvenientes. Pero hay una pregunta que quizás alguien llegue a plantearse en su momento y en la que tengamos una de las claves de este dilema: Si pudiese usted mejorar, implantarse un chip en el cerebro que amplíe su sistema nervioso a través de internet y que le permita actualizarse y convertirse parcialmente en máquina con acceso a conocimientos inalcanzables y de forma inmediata… ¿Lo haría? Quizás no falte tanto tiempo para que de un cultivo de neuronas humanas en laboratorio surja la posibilidad de que puedan implantarse en máquinas que obedezcan sus órdenes. Lo mismo que ocurre con los chips implantados en nuestro cerebro y que pueden mover músculos del cuerpo a voluntad propia. Por lo tanto, una posible línea de futuro sea utilizar robots creados con neuronas humanas implantadas y que tengan habilidades similares a las nuestras pero con acceso a una información ilimitada. Aunque para mi una de las claves definitivas estriba en si una máquina creada por humanos puede ser capaz de sentir emociones, de expresar tristeza, desesperación, alegría, amor… Por el momento no es posible predecir si un máquina dotada de inteligencia artificial será capaz de experimentar emociones humanas. Aunque lo que sí se puede obtener es que un robot asimile una serie de situaciones de la vida real de los humanos y responda a ellas según valores preestablecidos. ¿Algún día un maquina será capaz de decir: “Te quiero”, con todo el profundo significado que a esa expresión damos los humanos? y si es así ¿Cual será la relación e interacción a partir de ese momento?
57
ERRORES COMUNES
que cometen los especialistas de ti en entrevistas laborales
C
Karla Salinas
uando terminas la carrera tal vez al principio te cuesta tiempo y esfuerzo poder obtener el espacio para que alguien te realice una entrevista laboral. Muchos empleos requieren que tengas experiencia previa. Ya te he platicado en otros artículos de la importancia de obtener empleos de baja paga o “chambitas” de manera inicial y de preferencia mientras estudias para que cuando termines la carrera ya cuentes con cierta experiencia y te sea más sencillo colocarte. Llega entonces el momento, pero ya sea que estés en una entrevista para tu primer trabajo o para tú décimo empleo después de 15 años de carrera profesional hay algo que nunca debe perderse de vista: Nunca es positivo que te portes mal en una entrevista. Mientras lees este artículo tal vez pienses que jamás lo hayas hecho, o que si lo has hecho es porque el reclutador o el entrevistador se lo merecen. Sea uno u otro caso, al final del día te estas cerrando una oportunidad laboral ya que puede que ésta entrevista fuera para el mejor trabajo de tu vida o en efecto te hiciera perder el tiempo, pero eso no lo vas a saber hasta que la tengas. Tu tiempo es muy valioso pero también tú marca personal y no debes desperdiciar ninguna oportunidad para hacer enfatizar su valor y dejar huella. Así que en este artículo te comparto cuales han sido los errores que comúnmente he visto en los profesionistas de TI que son entrevistados por el área de reclutamiento o la técnica para una posición. No te creas, también los reclutadores de vez en cuando meten la pata y a veces ¡demasiado! Pero éste artículo es para ti, ya les llegará a ellos otro.
58
1. Actuar como que no tienes tiempo o hacerte el difícil puede impactar en que simplemente no te vuelvan a llamar.
Es cierto que a veces los reclutadores parecen gente de telemarketing: te llaman y empiezan a soltar su discurso sin siquiera preguntarte si tienes tiempo para tomar la entrevista. Pero cuando te llaman para una entrevista y tú dices que tienes tiempo pero interrumpes diciendo que ya no, o que te marquen luego y no contestas, o que mañana a equis hora y a esa hora no te encuentran entre otros temas lo único que hace es restarte valor no como persona pero si como profesionista. Cuando te llame por teléfono alguien de reclutamiento porque vio tu CV en alguna bolsa de empleo o lo mandaste directamente, si puedes atender atiende, si no, revisa tu agenda y pídele que si te puede marcar a determinada hora y de preferencia que si te apoya enviando una invitación a tu calendario por medio del correo para que no se te pase. De esta forma estas respetando tus tiempos y haciendo acuerdos con el reclutador. Si es la hora acordada y no te han llamado a los 5 minutos escríbeles diciendo que estas esperando su llamada o reprograma. Qué nunca seas tú la persona informal en este proceso porque tu formalidad y organización se ven reflejadas. Respetar tus tiempos y de los demás es un valor que ya es difícil encontrar en nuestro país y que además, denotan que eres una persona organizada y precavida: dos elementos vitales en el área de tecnología y sin importar si es tu primer empleo o ya tienes una gran carrera siempre serán buena carta de presentación.
ARTÍCULO
59
2. Preguntar de inmediato cuanto ofrecen como condicionante para tomar la entrevista o no te hace lucir poco profesional y enfocado únicamente en el dinero y no en tu carrera.
Antes que nada, quiero decirte que te entiendo perfectamente. Infinitas veces me ha tocado ver colegas que tienen empleos donde ofrecen 10 pesos por una posición que en el mercado vale 40 pesos (lo cual no es su culpa, créeme que los reclutadores no ponemos los tabuladores o el presupuesto…) pero aunque te vean muy despegado de su presupuesto hacen toda la entrevista de 40 minutos para decirte al final que no les alcanza para contratarte o peor aún, que si te interesa negociar tu sueldo en un 40% menos. Pero déjame decirte que igual de feo y hasta grosero te ves tu cuando te llaman y al escuchar que es una entrevista tu primer respuesta es “¿bueno pero cuánto pagas? ¿De a cómo? para no perder mi tiempo”. Uff… que mal se escucha eso. Esto va de la mano con el punto uno. Si no tienes tiempo de escuchar o hablar de tu carrera laboral mejor no tomes la entrevista en ese momento y agenda para después. Ya que la tomes, puedes abrir con un elevator pitch (un resumen corto donde hables de tu posición, tus habilidades y nivel de experiencia cerrando con qué tipo de empleo buscas) para ahora sí, comentarle de manera educada al entrevistador que “me encantaría me compartieras el detalle del tipo de contratación y actividades así como presupuesto para mi perfil para compartirte de qué forma puedo aplicar a tu posición”. Ah que diferencia, es muy posible que el entrevistador en ese momento te pregunte cuanto ganas o tus pretensiones y entonces ahora si terminar la entrevista con un agradable “mantengámonos en contacto para futuras ocasiones” o seguir con la entrevista.
60
3. No preguntar lo necesario en la entrevista, no poner atención, o conformarte con poca información te puede afectar más adelante en el proceso. Hay ocasiones en que puedes recibir muchas llamadas, más si te dedicas o quieres dedicarte a algo que tiene alta demanda en el mercado como por ejemplo, programación en Java o Tester entre otras. También hay muchos tipos de empresas, desde las grandes que te llaman de su área de talento a las que se dedican solo a reclutar para un tercero por lo que no te contratan directamente. Es importante que entiendas quién te llama, para qué tipo de empleo, pregunta si es posible que sepas quién es el cliente final para que no vaya a ser que estés ya en proceso por medio de varias empresas y quedar mal. Pregunta si es por proyecto, por cuánto tiempo, qué esquema de contratación ofrecen (permanente o temporal), por esquema mixto, por nómina, por honorarios) en qué zona de trabajo, ¿requieres tener cierta preparación académica? qué prestaciones ofrecen, qué se espera de ti, tendrás que viajar? Es importante que tengas todo el panorama: si no pusiste atención y el proceso avanza a una entrevista técnica y luego a una final, en efecto habrás perdido el tiempo y el del reclutador, y el de la empresa y todos por tener que rechazar al final ya que no te habías percatado que no te convenía o no es lo que buscabas. Y eso es mal marketing a tu marca personal, denota que no tienes atención al detalle, que no planeas o que simplemente no te importa. O peor aún, tomaste muy en serio éste proceso y dejaste de lado otros que sí tenían lo que estabas buscando.
ARTÍCULO
4. Retar al reclutador con temas que sabes que no te 5. Ser demasiado condescendiente o incluso seductor va a poder contestar o reclamarle datos de la vacante- con el reclutador para ganarte su favor y quedarte con el actividades no es bueno: estas en una entrevista empleo. primer entrevista, no en una guerra. Y de seductor no me refiero necesariamente a invitar a la Varios colegas y yo misma hemos atravesado por este tipo de situación. El reclutador es un especialista en reclutamiento y dedicarse a tecnologías de la información no necesariamente lo hace experto en programación y bases de datos o infraestructura. Hay candidatos que cuando los reclutadores les preguntan cosas técnicas se burlan de ellos directamente diciéndoles que no saben y que para qué preguntan o de plano le piden al reclutador que les explique (generalmente el reclutador está llenando un cuestionario para pasarle tus respuestas al que sí le sabe y que determinará si es viable evaluarte técnicamente en la siguiente entrevista). Otros candidatos cuando se les pide un formato determinado de CV dicen “si te interesa llénalo tú, ya tienes mi versión de CV”. Sé que puede ser muy molesto estar llenando formatos pero si te lo están pidiendo y te interesa participar en la vacante bien podrías darte el tiempo; te quita aproximadamente 20 minutos el copy-paste-completar y 45 minutos si no tienes tu CV actualizado (dato que he cronometrado personalmente). Otros candidatos luchan por los derechos de todos los candidatos de México y le reclaman al reclutador de las prestaciones que ofrecen, o del lugar de empleo, o del sueldo, o del cliente e incluso de las actividades que va a hacer en el proyecto en específico… no es necesario demostrar nada que no sea tu valor profesional por lo que ser objetivo y decidir participar o no en un proceso de reclutamiento desde un inicio es lo mejor que puedes hacer para evitar corajes o mala huella profesional de tu parte para esa empresa por que seguro tomarán nota.
reclutadora a un cafecito aunque no te quedes en la vacante (que si hay casos). Me refiero a ser ese tipo de candidato que para todo quiere caer bien, que dice “estoy disponible cuando tú quieras para la entrevista, no importan horarios ni tiempos” “puedo entrar inmediatamente, es más: firmo y voy para allá” “y a ti que película te gusta? Fíjate que tengo un primo que tiene boletos, luego me pasas tu correo para pasarle el dato” entre otros temas. Sabemos que si estás buscando empleo no es necesariamente porque tienes mucho tiempo libre y no sabes qué hacer con él, sino porque del trabajo vivimos. Pero estar tan disponible de manera incondicional y atemporal te hace sonar urgido por tener otro empleo. Si es porque no has tenido empleo levantas sospechas del por qué si en tu CV dice que eres muy bueno… tal vez no? O ya te urge salirte de donde estas porque tal vez tienes algún conflicto fuerte que no estas externando? Y pudiera ser un conflicto importante o algo que tú te buscaste por mal desempeño. En fin, ese comportamiento levanta muchas sospechas, por lo que no te vayas a los extremos. Siempre da disponibilidad fija para integrarte al empleo pero negociable si se requiere, horas precisas para entrevistas pero que puedes ser flexible si es requerido: siempre marcando una línea. Y no ofrezcas favores o regalos porque pareciera que lo haces para ganarte un empleo. Que sea tu talento el que te permita lucirte. Mucha suerte en tus futuras entrevistas! En el próximo número platicaremos sobre tu marca personal para complementar muchas ideas que se quedaron por extender en este artículo y que estoy segura te servirán mucho en tu carrera.
61
Maritza Marquez Velasco Pablo Xicotencatl Elizaga José Carlos Sierra Botas
L
Caso de Éxito Transformación del Data Center LATAM Award
a continua evolución de las Tecnologías de la Información y de los actuales modelos de negocio, no sólo exigen a las organizaciones niveles de servicio de calidad para sus clientes finales, sino disponer y ofrecer de una infraestructura tecnológica y de servicios fiables y bien gestionados. Las Mejores Prácticas sólo no son suficientes para reducir el riesgo y los costos en el Centro de Operaciones de Datos, son necesario la confiabilidad y satisfacción de los servicios ofrecidos al cliente a través de la aplicación efectiva de todo un sistema de control y documentación (procesos, tipificaciones, políticas, etc.). Hemos sido co-partícipes de la transformación que el Centro de Datos ha tenido en el último quinquenio, su construcción fue concebida hace cuatro décadas y obedeció a criterios de construcción y funcionamiento propios de su época; en la actualidad los rigurosos procesos vigentes que las diferentes instancias normativas internacionales regulan a los Centros de Datos particularmente de última Generación, nos obligan a la búsqueda de la implementación de mejoras y adaptaciones que más allá de hacer del Centro de Datos obsoleto y anacrónico, por el contrario se diseñen y ejecuten planes de mejoras técnicas con la infraestructura actual disponible, y en su caso con el equipamiento de infraestructura nueva, como ejemplo la incorporación de herramientas de gestión de la infraestructura de administración del Data Center (DCIM), el aprendizaje y la experiencia obtenida, nos ha permitido un nivel competitivo satisfactorio al cliente como un Centros de Datos que se mantiene actualizado a la demanda de la constante evolución de los servicios de TI y ha sido un modelo exitoso que se está implementando y mejorando en el Centro de Datos de Aguascalientes. Cabe mencionar que desde el inicio de los trabajos de remodelación y adecuación del Centro de Datos de INFOTEC de San Fernando, se ha mantenido en constante evolución adaptándose a las necesidades demandadas por las Tecnologías de la Información y la comunicación,
62
la labor como equipo e institución fue reconocida en la categoría de “Evolución en el Centro de Datos San Fernando México” con un “RECONOCIMIENTO ESPECIAL” al equipo de Data Center del año, durante los premios del Data Center Dynamics Awards 2014. En la actualidad las diferentes instancias normativas internacionales regulan a los Centros de Datos particularmente de última generación mediante procesos rigurosos, nos obligan a la búsqueda de la implementación de mejoras y adaptaciones en Centro de Datos con varios años de servicio y que más allá ser obsoleto y anacrónico, por el contrario se diseñen y ejecuten planes de mejoras técnicas el uso de herramientas de código abierto para gestión y monitoreo además de muy bajo costo y mantenimiento, el aprendizaje y la experiencia obtenida, nos ha permitido un nivel satisfactorio al cliente como un Centros de Datos competitivo. INFOTEC al ser una entidad gubernamental descentralizada y con los problemas tradicionales que conlleva adquirir infraestructura con gastos operativos adicionales, el uso de las mejores prácticas no son suficientes para reducir el riesgo y los costos en el Centro de Operaciones de Datos, son necesario la confiabilidad y satisfacción de los servicios ofrecidos al cliente a través de la aplicación efectiva de todo un sistema de control y documentación de procesos. Para la gestión de manejo de herramientas de muy bajo costo entramos en una etapa en transición al pasar de un inventario de los equipos activos alojado en el Centro de Procesamiento de Datos en una hoja de cálculo a la implementación de herramientas de código abierto tanto de gestión de administración de dichos activos, como de monitoreo alterno de muy bajo costo y mejoras en los tiempos de niveles de servicio, disminuyendo costos de operación. El propósito del Monitoreo en el Centro de Datos San Fernando es supervisar y mejorar la protección de los equipos de TI, así como también aprovechar la tecnología en una plataforma web para supervisar y controlar los sistemas críticos: en cualquier momento, brindando una
INVESTIGACIÓN
63
administración en red del equipo distribuido dentro de CD, a través de políticas de notificaciones de alarmas, advertencias y gráficas para reforzar y coordinar los reglamentos y normas de un Centro de Datos. Entre los objetivos principales de la gestión de la administración del CD son: • Desarrollar e implementar un sistema más eficiente de información y monitoreo que nos proporcione un panorama más amplio y facilite una mejor administración • Ayudar a reducir los puntos de riesgo dentro del centro de datos • Seguridad para el usuario y el equipo hospedado • Obtener los parámetros adecuados en las instalaciones del Centro de Datos para mantener los equipos en condiciones óptimas de operación • Proponer mecanismos para optimizar y conocer el consumo de Energía de los gabinetes para garantizar una buena operación.
Cumplimiento de los objetivos en el Centro de Datos de INFOTEC
• Capacidad de cumplir la disponibilidad al cliente 99.88% • Implementación de Cableado estructural, se efectuó la migración de la totalidad de cableado perteneciente a la vieja infraestructura de cableado de categorías inferiores a la cat 6ª. • Aprovechamiento del espacio físico, utilización actual y expansión a futuro. • Definición de pasillos fríos y calientes. • Sistema eléctrico, Balanceo de cargas. • Sistema distribución eléctrica para cargas críticas, alimentadores y sistema de distribución (Tableros), sistema de tierra física, iluminación, (PDU’s), apoyo con servicios generales en la infraestructura eléctrica del edificio general, sistemas de supervisión, control y monitoreo y redimensionamiento de capacidad eléctrica instalada y en expansión. • Unidades de aire de precisión (CRAC), control de temperatura y humedad, enfriadores o intercambiadoras de calor, sistema de tuberías de enfriamiento de gas o agua y abastecimiento de agua. • Sistema de administración: mantenimiento, procedimientos, base de datos, procedimientos de acceso para personal y activos, administración de archivos, administración de control de cambios, normales y en emergencia, recuperación en caso de desastre, procesos de descontaminación de partículas suspendidas, procesos del manejo y administración de equipos en tránsito.
El proyecto como modelo de referencia
Como entidad pública prestadora de servicios de IT
64
y la problemática de adquirir infraestructura con gastos operativos adicionales, se buscó un modelo alternativo de gestión de administración y monitoreo del Centro de Datos que no representara ese gasto adicional al ya existente, el problema que representa el uso de licencias de aplicativos propietarios, nos limitaba el uso de estas patentes de monitoreo y gestión, por ello se investigaron alternativas de aplicaciones de código abierto confiable y robusto, como un modelo independiente pero complementario para utilizarse como modelo redundante al ya existente (aplicativo privativo), una vez implementado probó su eficacia, además de ser flexible para ajustarse a los requerimientos de diseño operativo institucional y que puede ser replicado como un modelo innovador, desde su puesta en marcha estos han sido los objetivos cubiertos: • Control y ejecución de las actividades operativas del día a día y programadas, lográndose la integración total de los sistemas DCIM del Centro de Datos en el modelo de operación mediante la combinación de aplicaciones de código cerrado y abierto (StruxureWare Central, Opendcim y Cacti). Modelos que pueden replicarse en sitios alternos. Con ello hay una mejora continua de los procedimientos del modo de operación ya que permite también un control remoto para la ejecución y continuidad en el modo de operación de la Infraestructura del Centro de Datos, el hábito de las mejores prácticas y uso de normativas al Centro de Datos de los procesos de ITIL. (Gestiones de Incidentes y requerimientos de servicios; de cambios, nivel de servicio, y disponibilidad y continuidad, etc.) • Se puede planificar la escalabilidad y crecimiento eléctrico y de espacio de la infraestructura acorde a las necesidades de uso actual y de crecimiento posterior. • Migración total de cableado menor a categoría 6 a una nueva infraestructura de cableado estructurado categoría 6A con ello se toma control de la administración, y mapeo del MDA actualizándose de forma permanente, disminuyendo tiempos de atención de requerimientos e incidentes en clientes y cumpliendo con los niveles de atención establecidos. • La automatización del proceso permite medir, establecer tendencias, alertar y toma de decisiones y medidas correctivas. • La presentación gráfica de los parámetros monitoreados, permite administrar el espacio y la capacidad para planificar y optimizar las operaciones, además de proporcionar información de los eventos de la infraestructura en tiempo real así como la generación de reportes históricos con métricas de los parámetros de las mediciones de los dispositivos implementados solicitados para su revisión y análisis para causa- raíz para casos de incidentes o actividades derivados de la propia operación.
65