qwertyuiopasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyuiopasdfgh jklzxcvbnmqwertyuiopasdfghjklzxcvb nmqwertyuiopasdfghjklzxcvbnmqwer Directorio de personajes fundamentales de la computación tyuiopasdfghjklzxcvbnmqwertyuiopas Instituto Alianza AC dfghjklzxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjklzxcvbnmqwertyuio pasdfghjklzxcvbnmqwertyuiopasdfghj klzxcvbnmqwertyuiopasdfghjklzxcvbn mqwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmrty uiopasdfghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdfghjklzxc Carlos Enrique Munguía López 1º Bachillerato
BILL GATES (MICROSOFT) “Bill Gates es uno de los gigantes pioneros de la era de la información”, dijo Merv Adrian, un analista de software y hardware en la consultora Gardner Research. “Impulsado por la idea de una computadora en cada hogar, en cada escritorio, ayudó a construir una de las mayores empresas en el mundo para lograr esa meta, y podría decirse que tuvo éxito”. Para empezar, Microsoft fue la primera empresa real de software del mundo. Aunque hay grandes debates sobre si Gates con Microsoft o Steve Jobs con Apple fueron los verdaderos innovadores en las primeras interfaces de computadora, no hay duda de quién tuvo éxito en crear el primer software para las masas. El resultado fue algo que se aproxima a ese sueño de una computadora en cada escritorio. Al hacer al software redituable tanto para sus creadores como para los desarrolladores de complementos (como los antivirus), Microsoft ayudó a los minoristas a vender computadoras menos costosas, haciéndolas más accesibles a más personas. Ya sea el MS-DOS para las primeras máquinas IBM o el trascendental lanzamiento de Windows, en 1985, Gates estuvo detrás de todo eso. En 2008, Bill Gates abandonó definitivamente Microsoft para dedicarse íntegramente a sus labores en la fundación, que había recibido el Premio Príncipe de Asturias de Cooperación Internacional en 2006. Si antes fue una figura discutida, esta nueva etapa como filántropo despierta más bien unánime admiración: al igual que lo fue su empresa, su fundación es la más grande del mundo por lo que respecta a la cuantía de sus aportaciones económicas a toda clase de programas de ayuda, investigación y desarrollo.
MAQUINA DE TURING (ALAN TURING) Una máquina de Turing es un dispositivo que manipula símbolos sobre una tira de cinta de acuerdo a una tabla de reglas. A pesar de su simplicidad, una máquina de Turing puede ser adaptada para simular la lógica de cualquier algoritmo de computador y es particularmente útil en la explicación de las funciones de una CPU dentro de un computador. Originalmente fue definida por el matemático inglés Alan Turing como una «máquina automática» en 1936, en la revista Proceedings of the London Mathematical Society,1 La máquina de Turing no está diseñada como una tecnología de computación práctica, sino como un dispositivo hipotético que representa una máquina de computación. Las máquinas de Turing ayudan a los científicos a entender los límites del cálculo mecánico. Turing dio una definición sucinta del experimento en su ensayo de 1948, «Máquinas inteligentes». Refiriéndose a su publicación de 1936, Turing escribió que la máquina de Turing, aquí llamada una máquina de computación lógica, consistía en: .. una ilimitada capacidad de memoria obtenida en la forma de una cinta infinita marcada con cuadrados, en cada uno de los cuales podría imprimirse un símbolo. En cualquier momento hay un símbolo en la máquina; llamado el símbolo leído. La máquina puede alterar el símbolo leído y su comportamiento está en parte determinado por ese símbolo, pero los símbolos en otros lugares de la cinta no afectan el comportamiento de la máquina. Sin embargo, la cinta se puede mover hacia adelante y hacia atrás a través de la máquina, siendo esto una de las operaciones elementales de la máquina. Por lo tanto cualquier símbolo en la cinta puede tener finalmente una oportunidad.2 Turing (1948, p. 61.) Una máquina de Turing que es capaz de simular cualquier otra máquina de Turing es llamada una máquina universal de Turing (UTM, o simplemente una máquina universal). Una definición más matemáticamente orientada, con una similar naturaleza "universal", fue presentada por Alonzo Church, cuyo trabajo sobre el cálculo lambda se entrelaza con el de Turing en una teoría formal de la computación conocida como la tesis de Church-Turing. La tesis señala que las máquinas de Turing capturan, de hecho, la noción informal de un método eficaz en la lógica y las matemáticas y proporcionan una definición precisa de un algoritmo o 'procedimiento mecánico'.
FUNDADORES DE YOUTUBE En junio de 2006 Steve Chen fue nombrado por Business 2.0 como una de “Las cincuenta personas que importan hoy” en negocios. En agosto de ese mismo año comentó a la Reuters news agency que creía que en 18 meses YouTube contendría todos los vídeos musicales creados hasta el momento. Al vender finalmente Youtube a Google Chen recibió por ello 625,366 acciones de Google y 68,721 adicionales como señal de la compra. Las acciones de Google que recibió están valoradas en 326 millones de dólares a fecha de 7 de febrero de 2007, cerrando con un valor de 470.01 dólares cada una. Jawed Karim nació en Dhaka, Bangladesh en 1979, y se trasladó a Alemania Occidental en 1982. Su padre, Naimul Karim, es un investigador de Bangladés en 3M. Su madre, Christine Karim, es una profesora adjunta de investigación de bioquímica en la Universidad de Minnesota. Karim creció en Alemania pero su familia emigró a los Estados Unidos en 1992. Se graduó en el Instituto Central de Saint Paul, Minnesota. Continuó sus estudios en la Universidad de Illinois en Urbana-Champaign, para finalmente abandonar el campus antes de su graduación para hacerse empleado de PayPal. Trabajando en PayPal es donde conoció a Chad Hurley y Steve Chen. Los tres más tarde fundaron el sitio web YouTube. Él mismo protagoniza el primer video que se subió al sitio web. Después de la cofundación de la empresa, Karim optó por la participación a jornada completa y actuó como un consejero de YouTube. Luego con los años se matriculó como estudiante de posgrado en Ciencia de la computación en la Universidad de Stanford
Yahoo! Yahoo! es una empresa global de medios con sede en Estados Unidos que posee un portal de Internet, un directorio web y una serie de servicios tales como el popular correo electrónico Yahoo!. Su propósito es "ser el servicio global de Internet más esencial para consumidores y negocios". Fue fundada en enero de 1994 por dos estudiantes de postgrado de la Universidad de Stanford, Jerry Yang y David Filo. Yahoo! se constituyó como empresa el 2 de marzo de 1995 y comenzó a cotizar en bolsa el 12 de abril de 1996. La empresa tiene su sede corporativa en Sunnyvale, California, Estados Unidos. El 25 de julio de 2016 fue anunciada la compra de Yahoo por parte de Verizon.7 El 29 de julio de 2009, se anunció que en 10 años, Microsoft Corporation tendrá acceso completo al motor de búsqueda de Yahoo! para usarse en futuros proyectos Yahoo! para enfrentar las propuestas de compra ha entrado en alianza con su mayor competidor Google, para dar publicidad en los buscadores. Según lo que Google Inc. y Yahoo! dijeron el jueves 12 de junio de 2008, habían llegado a un acuerdo según el cual Google Inc. entregará avisos junto a algunos de los resultados de búsquedas en Yahoo! y en algunos de sus sitios en Estados Unidos y Canadá. El acuerdo de 4 años extensible hasta 10 no es exclusivo y tiene como objetivo mejorar las finanzas de Yahoo!, la compañía dijo que generaría un adicional que oscila entre 250 y 450 millones de dólares en flujo de caja operativo en el primer año y en caso de darse cambio de mando de una de las dos compañías durante la duración de contrato se daría 250 millones de dólares a la otra compañía. El acuerdo también fortalecerá el dominio de Google sobre el lucrativo mercado de la publicidad en búsquedas. Se firmó después de que Yahoo! rechazara una propuesta de Microsoft para comprar su negocio de búsquedas y una participación minoritaria en la compañía. Según muchos, este acuerdo podría terminar en una especie de fusión de los gigantes de Internet.
Facebook Mark Zuckerberg, cofundador de la red social Facebook, que suma más de 900 millones de usuarios registrados en el mundo, es uno de los gigantes mundiales de internet antes de alcanzar los 30 años, y ya figura entre las leyendas de Silicon Valley. “La fortuna sonríe a los audaces”, la famosa máxima de Virgilio citada por Zuckerberg en su página personal, parece reflejar fielmente a un hombre que lanzó su compañía cuando sólo contaba con 19 años y que nunca consideró dejar las riendas. Zuckerberg ya forma parte de los hombres más ricos del mundo y su empresa vale unos 100.000 millones de dólares según estimaciones en función del valor de ingreso de sus acciones en bolsa. Desde 2010 ha sido elegido como hombre del año por el semanario Time y el hombre más influyente del “new establishment” por Vanity Fair. De los más de 900 millones de usuarios registrados activos, unos 169 millones solamente en Estados Unidos (el de mayor número) y esta semana entrará en bolsa con unos 5.000 millones de dólares en títulos.
Paradójicamente para alguien cuya biografía ya ha dado lugar a un filme (La Red Social) que incluso ganó premios Oscar en 2011, y para el creador de un sitio que pone en escena lo cotidiano, Mark Zuckerberg lleva su vida de manera discreta, dando pocos detalles en su página personal, que siguen 13 millones de personas. SU HISTORIA Nacido el 14 de mayo de 1984, criado en Dobbs Ferry, a las afueras de Nueva York, por un padre dentista y una madre psiquiatra, se inició a los 11 años en la programación informática. Estaba todavía en secundaria cuando Microsoft y AOL le propusieron comprarle una de sus creaciones, un programa que permitía adivinar los deseos musicales de sus escuchas, al estilo del sistema ‘Genius’ lanzado por Apple para su tienda en línea iTunes.
Sin embargo, rechazó la propuesta y entró en Harvard, la universidad más prestigiosa de Estados Unidos, a la edad de 18 años. En su segundo año lanzó TheFacebook, “una producción Mark Zuckerberg”, en ese momento esencialmente un directorio de estudiantes en línea.
Dorsey es de ascendencia italiana aunque creció en San Luis (Misuri). Era hijo de Marcia (Smith) y Tim Dorsey, el cual trabajaba para una empresa que desarrollaba espectrómetros de masas, mientras que su madre era ama de casa. Fue criado como católico, por lo que fue un instituto también católico, el Bishop DuBourg High School. A la edad de trece años, Dorsey se había interesado en envió de enrutamiento. Algunos de los software de código abierto que creó en el ámbito de la logística de envío es utilizado todavía por muchas compañías de taxi. Dorsey asistió a la Universidad de Ciencia y Tecnología de Misuri antes de trasladarse a la Universidad de Nueva York, donde concibió la idea de lo que posteriormente sería Twitter
En Oakland (California) en 2000, Dorsey creó su compañía de envío de mensajería, taxis, y servicios de emergencia en la Web. Sus otros proyectos e ideas por esta época incluían redes de artefactos médicos y un “servicio de mercado sin fricción”. En julio de 2000, basándose en el envío e inspirado en parte por LiveJournal y posiblemente por AOL Instant Messenger, tuvo la idea de una página web basada en un servicio de comunicación de mensajes cortos en tiempo real. Cuando vio por primera vez las implementaciones de la mensajería instantánea, Dorsey se preguntó si un software en el que se mostrara el estado del usuario podría ser compartido fácilmente entre amigos. Así que decidió acercarse a Odeo, el cual por aquel entonces estaba interesado en el servicio de mensajes cortos. Dorsey y Biz Stone decidieron que los textos SMS se adaptaban a la idea de mensajes de estado, y crearon un prototipo de Twiter en unas dos semanas. La idea atrajo a muchos usuarios de Odeo y la inversión de Evan Williams (blogger).
Fundó Apple en 1976 junto con un amigo de la adolescencia, Steve Wozniak, con ayuda
del excompañero de Jobs en Atari, Ron Wayne en el garaje de su casa. Aupado por el éxito del Apple II Jobs obtuvo una gran relevancia pública, siendo portada de Time en 1982.14 Contaba 26 años y ya era millonario gracias a la exitosa salida a bolsa de la compañía a finales del año anterior. La década de los 80 supuso la entrada de potentes competidores en el mercado de los ordenadores personales, lo que originó las primeras dificultades empresariales. Su reacción fue innovar, o mejor dicho, implementar: a principios de 1984 su compañía lanzaba el Macintosh 128K, que fue el primer ordenador personal que se comercializó exitosamente que usaba una interfaz gráfica de usuario (GUI) y un ratón en vez de la línea de comandos. Después de tener problemas con la cúpula directiva de la empresa que el mismo fundó, renunció.15 Jobs vendió entonces todas sus acciones, salvo una. Ese mismo año recibía la Medalla Nacional de Tecnología del presidente Ronald Reagan, cerrando con este reconocimiento esta primera etapa como emprendedor. Regresó en 1997 a la compañía, que se encontraba en graves dificultades financieras, y fue su director ejecutivo hasta el 24 de 16 17 18 19 agosto de 2011. En ese verano Apple sobrepasó a Exxon como la empresa con mayor capitalización del mundo.20 Durante los años 90 transformó una empresa subsidiaria adquirida a Lucasfilm en Pixar, que revolucionó la industria de animación con el lanzamiento de Toy Story. La integración de esta compañía en Disney, de la que era proveedor, convertiría a Jobs en el mayor accionista individual del gigante del entretenimiento. En el año de su muerte, su fortuna se valoraba en 8300 millones de dólares21 y ocupaba el puesto 110 en la lista de grandes fortunas de la revista Forbes.
El internet, tal y como lo conocemos hoy, nació de un concepto aparentemente obvio: para ahorrar tiempo y trabajo, es necesario intercambiar información de forma rápida, fácil y organizada. Esa fue la premisa de la que partió el científico británico Tim Berners-Lee para crear la World Wide Web en marzo de 1989. Como sucede con los grandes inventos, todo empezó con un borrador. En ese entonces Berners-Lee trabajaba en los laboratorios Cern de Suiza, donde a diario él y sus compañeros perdían mucho tiempo buscando los datos y conclusiones de experimentos anteriores y, por lo general, debían empezar de cero. En momentos en que el conocimiento avanzaba a pasos agigantados, era necesario encontrar una solución pronto. Internet –entendido como un sistema global de redes– funcionaba desde hacía 20 años. Es decir, ya existía la manera de que la información circulara entre máquinas conectadas sin importar su ubicación, pero no había un método efectivo de buscar y encontrar esos datos. En pocas palabras, la carretera estaba lista; solo faltaban los carros. Ese primer vehículo lo imaginó BernersLee: una manera de hacer la información en internet más accesible y universal. Su jefe de entonces calificó la propuesta de “vaga pero emocionante” y le dio luz verde para desarrollarla. Se trataba de un sistema de distribución basado en el hipertexto, un concepto que ya existía hacía décadas –y que se refiere a documentos en los que algunos términos están vinculados dinámicamente a otros documentos–, pero que hasta entonces solo conectaba textos en un mismo computador. La genialidad de Berners-Lee fue utilizar el internet para darle universalidad al hipertexto. Aunque la idea inicial era solo facilitar el intercambio de información entre sus colegas, ya sospechaba el alcance de su idea: “Los problemas de pérdida de información serán particularmente severos en Cern, pero somos un modelo en miniatura de lo que sucederá en el resto del mundo dentro de unos años”. No podía estar más en lo cierto, y por eso hoy la web es la herramienta que conecta a millones de personas en todo el mundo.
Tomlinson se graduó en 1963 en el Instituto Politécnico Rensselaer antes de obtener su máster en ingeniería eléctrica del Massachusetts Institute Tecnology (MIT), donde trabajó en el campo de la síntesis del habla.5
En 1967 ingresó a la empresa BBN (Bolt, Beranek and Newman), la cual recibió el encargo de trabajar para la red de computadoras ARPANET (Advanced Research Projects Agency Network)2 con un sistema de inter-comunicación militar. Una vez integrado al equipo de trabajo, desarrollaron un programa llamado SNDMSG para enviar mensajes entre las distintas terminales de una misma computadora. Al inicio de la década de 1970, los usuarios militares o de grandes empresas utilizaban mayormente la informática mediante "terminales tontas o bobas" (una pantalla y un teclado, sin la capacidad de procesamiento ni almacenamiento), conectados a un servidor. En septiembre de 1971, cuando la BBN ya estaba conectada a ARPANET, Tomlinson adaptó el programa SNDMSG de forma tal que sirviera para enviar mensajes entre diferentes usuarios conectados a una red más amplia, pero sin que fueran conocidos (lo que hoy día se conoce como correo electrónico o e-mail). Allí fue que se le ocurrió utilizar un símbolo, @ (arroba), como separador entre el nombre del usuario y del servidor.5 Su primera dirección de correo electrónico fue tomlinson@bbn-tenexa. La idea era utilizar un símbolo que estuviese en todos los teclados pero que no apareciera en los nombres propios de las personas o empresas ni de los servidores. La @ estaba en los teclados pero no tenía utilidad alguna, por lo que no entraba en conflicto con nada estipulado anteriormente. Tomlinson continuó trabajando en BBN y realizó también otros desarrollos importantes con el diseño de computadoras, arquitectura de redes, protocolos en la red y síntesis digital. En 2009 Tomlinson obtuvo el Premio Príncipe de Asturias a la investigación científica y técnica, junto a Martin Cooper, por su aportación al desarrollo del correo electrónico y de la telefonía móvil.6 El jurado reconoció que los hallazgos de ambos investigadores «se encuentran entre las más grandes innovaciones tecnológicas de nuestro tiempo».7 En 2012 fue incluido en el popular Internet Hall of Fame (Salón de la Fama de Internet), iniciativa de la Internet Society que, a modo de museo virtual, reconoce la contribución de personas clave en el desarrollo de la red.8 Murió el 5 de marzo de 2016 a causa de un infarto
Linus Torvalds Nacido en Finlandia el 28 de diciembre de 1969 en el seno de una familia de padres de ideología comunista, Linus Torvalds, es una de las piezas fundamentales que completan el rompecabezas de grandes personalidades del Software Libre, y de la informática en general, pero su figura ha sido ciertamente sobrevaluada. Él llevó adelante la programación de un Kernel (núcleo central de un sistema operativo) cuando el proyecto del sistema operativo libre GNU iniciado por Richard Stallman estaba aún lejos de obtener el núcleo: a principios de los años 90 algunas personas tomaron el Kernel Linux de Linus Benedict Torvalds y lo pusieron junto a otras piezas que venían siendo desarrolladas por Free Software Foundation, y así nació GNU/Linux. Para lograr el núcleo, Linus se basó en “Design of the Unix Operating System”, con lo cual pudo ir modificando un Kernel de otro sistema operativo llamado Minix, para crear esta adaptación que pudo ejecutar los programas del sistema GNU sobre computadoras IBM/PC: de hecho Linus tenía una 80360 de Intel. Su experiencia en programación era la siguiente: como estudiante de la Universidad de Helsinki, había empezado hacía un año a programar en lenguaje C lenguaje, pero hacía 5 años que programaba en otros lenguajes, y se había acercado a la primer computadora, una Commodore, en 1980. El 5 de octubre de 1991 anunció públicamente que su Kernel podía ejecutar el compilador GCC (GNU Compiler Collection) y BASH (Bourne Again Shell), dos piedras fundamentales del Software Libre: GCC fue iniciado por Richard Stallman y permite compilar programas, es decir, transformar su código fuente (entendible por seres humanos) en algo entendible para las máquinas, y por lo tanto ejecutable. Otro momento fundamental en la vida de Linus y de Linux, fue el de la adopción de la Licencia Pública General (GPL, creada por Richard Stallman y FSF) en 1992, con lo cual se transformó en Software Libre y por eso es que pudo estudiarse, modificarse, utilizarse y mejorarse libremente hasta nuestros días. En 1997 terminó sus estudios en la Universidad, luego trabajó en Transmeta hasta el año 2003, y actualmente se encuentra realizando sus tareas en el “Open Source Development Labs” ubicado en Beaverton, Oregon, EEUU.
Andy Rubin luego de la universidad se mudó a Suiza para trabajar en la empresa Carl Zeiss, una empresa dedicada a productos ópticos, y luego se trasladó a las Islas Caimán, donde conoció a Bill Caswell, quien le ofreció un trabajo en Apple. Era el año 1989 y las Macintosh estaban teniendo su primer gran momento de popularidad. Andy aceptó y se unió a la empresa como ingeniero, y luego en 1992 se cambió al proyecto General Magic, donde se trataba de desarollar un innovador sistema operativo y una interfaz para celulares inteligentes. Pero este proyecto era demasiado avanzado para la época, y solo un par de empresas de telecomunicaciones lo adoptaron, por lo que el equipo de General Magic gradualmente se fue disolviendo para formar parte de otros start-ups. Rubin se unió a la compañía Artemis Research, formada por tres ex-ingenieros de Apple, la cual terminó convirtiendo en WebTV, un proyecto que intentaba construir un aparato que combinara lo mejor de Internet y de la televisión, y que en 1997 fue comprada por Microsoft. Luego de varios años, renunció para fundar Danger, que también fue adquirida por Microsoft en 2008, y fue destituido de su cargo de Director General. Su próximo emprendimiento sería fundar Android, que luego sería adquirida por Google, lo cual lo llevó a la posición actual en la empresa. Su experiencia con dispositivos móviles Rubin antes había desarrollado el Sidekick, un teléfono que dio pocas ventas pero que muchos ingenieros eligieron y convirtieron en un aparato de culto. A comienzos del año 2002, Rubin dio una charla sobre el desarrollo de Sidekick a una clase de ingenieros en la Universidad de Standford. Larry Page y Sergey Brin, fundadores de Google, estaban en la charla, y una vez que finalizó, Page se acercó a examinar el Sidekick y descubrió que el motor de búsqueda predeterminada era Google. En ese momento la aparición de redes digitales inalámbricas estaba alentando la idea de un aparato del tamaño de una mano que incluyera capacidades de un teléfono y de Internet. Page se fascinó con la idea de un teléfono de Google con un sistema operativo especial para dispositivos móviles, y fue allí donde decidió comprar Android. El primer teléfono sería lanzado en 2007.
Wikipedia es una enciclopedia libre,nota 2 políglota y editada colaborativamente. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro cuya financiación está basada en donaciones. Sus más de 37 millones de artículos en 287 idiomas han sido redactados conjuntamente por voluntarios de todo el mundo,4 totalizando más de 2000 millones de ediciones, y prácticamente cualquier persona con acceso al proyecto5 puede editarlos. Iniciada en enero de 2001 por Jimmy Wales y Larry Sanger,6 es la mayor y más popular obra de consulta en Internet.7 8 9 10Desde su fundación, Wikipedia no solo ha ganado en popularidad —se encuentra entre los 10 sitios web más populares del mundo—,10 11 sino que su éxito ha propiciado la aparición de proyectos hermanos: Wikcionario, Wikilibros, Wikiversidad, Wikiquote, Wikinoticias, Wikisource, Wikiespecies y Wikiviajes. No obstante, tiene numerosos detractores. Entre ellos, algunos la han acusado de parcialidad sistémica y de inconsistencias,12con críticas centradas sobre lo que algunos, como Larry Sanger, han convenido en llamar «antielitismo»,13 y que no es otra cosa que la política del proyecto enciclopédico de favorecer el consenso sobre las credenciales en su proceso editorial.14 Otras críticas han estado centradas en su susceptibilidad de ser vandalizada y en la aparición de información espuria o falta de verificación,15aunque estudios eruditos sugieren que el vandalismo en general es deshecho con prontitud.
Douglas Carl Engelbart (Portland, Oreg ón, 30 de enero de 1925 Atherton, California, 2 de julio de 2013)1 fue un inventor estadounidense, descendiente de noruegos. Es conocido por inventar el ratón, y fue un pionero de la interacción humana con las computadoras, incluyendo el hipertexto y las computadoras en red.2 Su visión sirvió para que los ingenieros de Xerox PARC llegaran finalmente a un mejor diseño del mouse, empleado por la Xerox Alto, la primera computadora personal con interfaz gráfica. Engelbart recibió un título de grado en ingeniería eléctrica de la Oregon State University en 1948, un título de grado en ingeniería de la Universidad de Berkeley en 1952 y un doctorado de UC Berkeley en 1955. En otoño de 1968, en una conferencia de expertos en informática, Doug Engelbart hizo una presentación que duró 90 minutos. Además de hacer la primera demostración pública del ratón, incluyó una conexión en pantalla con su centro de investigación, es decir, fue la primera vídeo-conferencia de la historia y es recordada con el título de «la madre de todas las demos». Engelbart recibió varios premios en los últimos años, como el Premio Memorial Yuri Rubinsky, el Premio Lemelson-MIT, el Premio Turing, la Medalla John von Neumann y la Medalla British Computer Society's Lovelace. En 1997, le fue concedido el Premio Lemelson-MIT, del Instituto Tecnológico de Massachusetts. Este premio está dotado con medio millón de dólares y se otorga a inventores de Estados Unidos por un desempeñó sobresaliente; Engelbart y el equipo que lideró desarrollaron ideas que contribuyeron a mejorar la interfaz entre los ordenadores y los seres humanos.
James Gosling, OC (19 de mayo de 1955 cerca de Calgary, Alberta, Canadá) es un famoso científico de la computación conocido como el padre del lenguaje de programación Java. En 1977, Gosling se licenció en ciencias de la computación por la Universidad de Calgary. En 1983, se doctoró por la Universidad Carnegie Mellon, su tesis doctoral se tituló La manipulación algebraica de las limitaciones. Su director de tesis fue Raj Reddy. Mientras trabajaba para su doctorado, escribió una versión de Emacs (Gosling Emacs), y antes de unirse a Sun Microsystems, construyó una versión multi-procesador de Unix, así como varios compiladores y sistemas de correo. Desde 1984 James Gosling ha trabajado en la compañía estadounidense Sun Microsystems donde fue vicepresidente hasta que ésta fue comprada por Oracle. Abandonó esta compañía el 2 de abril de 2010. En cuanto a por qué se fue, Gosling escribió en su blog: Casi cualquier cosa que pudiera decir es honesta y haría más daño que bien.
Posteriormente, empezó a trabajar en Google el 28 de marzo de 2011, anunciándolo en una entrada en su blog.1 Actualmente es Jefe de Arquitectura de Software en Liquid Robotics.2 3 Gosling es reconocido como el creador del lenguaje de programación Java. Realizó el diseño original y la implementación del compilador original y la máquina virtual Java, por lo que fue elegido miembro de la Academia Nacional de Ingeniería de Estados Unidos (NAE). Además, Gosling ha contribuido con otros proyectos de software como NeWS y Gosling Emacs. En el 2015 recibió la medalla John von Neumann de la IEEE por sus contribuciones al desarrollo informático
Dennis MacAlistair Ritchie nació el 9 de Septiembre de 1941 en Bronxville una pequeña villa de unos dos mil habitantes situada a unos 25 kilómetros al norte de Manhattan, New York. Se graduó en 1963 en la Universidad de Harvard con honores en física. Recibió un Doctorado de Investigación en 1968 matemáticas aplicadas. Ingresó en el Centro de Investigación para Ciencias de la Computación de los Laboratorios Bell de la AT&T en 1967 siguiendo los pasos de su padre, Alistair E. Ritchie quien tenia una larga carrera allí. En 1968 ingresó en el equipo de desarrollo del sistema operativo Multics (Multiplexed Information and Computing Service) donde trabajó junto a multitud de leyendas de la programación y la arquitectura de sistemas como Fernando J.Corbató o Peter James Denning. Aunque si Dennis Ritchie es famoso por algo es por ser el creador del lenguaje de programación C. El desarrollo de UNIX y la necesidad de C No existe duda alguna de que C es el lenguaje de programación más popular y famoso de todos los tiempos. C es un lenguaje de programación imperativa para implementación de sistemas. Aunque al ser tan popular también se ha desarrollado infinidad de aplicaciones con él. C presenta facilidades para la programación estructurada, permite ámbito léxico variable y recursión, además esta fuertemente orientado a tipos con un sistema estático que impide operaciones no deseadas. Como ya he apuntado anteriormente, Ritchie entró en el grupo de desarrollo de Multics en 1968, para entonces, los Bell Labs ya estaban bastante frustrados por los serios problemas que presentaba Multics y poco a poco fueron desplazando el proyecto. Los últimos investigadores en abandonar el proyecto, decidieron reescribir todo el trabajo desde cero y a menor escala. Entre esos investigadores se encontraban Dennis Ritchie y Ken Thompson -al que dedicaremos unas líneas en el futuro--. Ritchie estaba convencido en crear un sistema operativo sobre el cual pudiera desarrollarse una comunidad ya que creía fervientemente en la computación comunal en la que era necesaria la comunicación estrecha entre personas a través de accesos remotos. Voy a continuar con la serie sobre personalidades relacionadas con el desarrollo de software hablando de uno de los pesos pesados del mundo. Le debemos tanto que no se por donde empezar. Seguramente no le haré nada de justicia y muchos