1
Contenido El Perfil de La Maestra de Preescolar........................................................................... 4 Ciencias de la Computación ....................................................................................... 7 Matemáticas ................................................................................................................. 45 Física Fundamental....................................................................................................... 76 Química ........................................................................................................................ 103 Estadística .................................................................................................................... 143
2
Perfil de la Maestra de Preescolar
3
El Perfil de La Maestra de Preescolar Los maestros de educación infantil contribuyen al desarrollo físico y motor, afectivo, comunicativo, social y cognitivo de los niños de cero a cinco años. Son profesionales que participan en el desarrollo del niño en esta primera etapa de la vida. Su actividad se divide en función de dos tramos de edad: con niños de cero a tres años de edad en guarderías; y de tres a cinco años de edad en escuelas ordinarias, en el ciclo de educación infantil. En las guarderías, los maestros de educación infantil utilizan el juego estructurado como metodología de aprendizaje. Organizan actividades para que los niños puedan expresarse de manera creativa, al mismo tiempo que aprenden cosas cotidianas como los colores, los días de la semana y cómo decir la hora. Asimismo, se sirven del juego para enseñar los principios básicos de la conducta social, como compartir con los demás o esperar su turno. Además, entre las funciones del maestro está prestar ayuda práctica en tareas como vestirse, comer, lavarse o ir al baño. Los maestros del ciclo de educación infantil suelen ser responsables de un aula de niños de la misma edad, pero con capacidades e intereses muy distintos. Entre sus funciones destacan promover el aprendizaje en la primera infancia; facilitar la evolución del lenguaje oral e introducir el lenguaje escrito; identificar las habilidades, intereses y necesidades especiales del alumnado; fomentar la buena convivencia en el aula y la adquisición de hábitos, etc. Para lograr sus objetivos pueden utilizar el juego estructurado y el apoyo de materiales audiovisuales, ordenadores, etc. Otras de sus funciones son reunirse con las familias; supervisar el trabajo de los maestros en prácticas; elaborar informes y mantener al día los expedientes del alumnado. Además, pueden ser responsables de la compra y el mantenimiento del equipo utilizado por los niños, organizan salidas y están pendientes de los niños durante las visitas de interés educativo; están informados de los problemas sanitarios y de prevención de riesgos.
PERFIL PROFESIONAL Para ser maestro de educación infantil, se requiere: • Tener formación específica en educación infantil. • Poseer capacidad para animar, motivar e inspirar a los niños. • Tener mucha energía, entusiasmo y dedicación. • Poseer capacidad para expresarse con claridad oralmente y por escrito. • Poseer capacidades creativas y prácticas para encontrar actividades que despierten interés en los niños y estimulen su aprendizaje. • Tener paciencia, tacto y tolerancia. • Saber escuchar y observar. • Saber mantener la disciplina. • Saber organizar y planificar. • Trabajar bien bajo presión.
4
COMPETENCIAS • • • • • • • • • • • • • • • • • • • • • • • • •
5
Actitud positiva. Actitud responsable. Aptitudes para gestionar el tiempo. Aptitudes para la comunicación verbal y escrita. Aptitudes para la enseñanza. Aptitudes para la escucha. Aptitudes para la planificación. Capaz de calmar y tranquilizar a los niños. Capaz de dar explicaciones claras y concisas. Capaz de estimular y motivar a los demás. Capaz de imponer disciplina. Capaz de llevarse bien con varios tipos de personas. Capaz de mantener información confidencial. Capaz de trabajar bajo presión. Capaz de tratar con constantes demandas de atención. Confiable. Conocimiento sobre el desarrollo de los niños. Enérgico. Entusiasta. Habilidades informáticas. Habilidades para presentar. Interesado en la salud, cuidado y seguridad de las personas. Observador. Paciente. Tolerante.
Ciencias de la Computación
6
Ciencias de la Computación COMPUTACIÓN Conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemática, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica. El conocimiento de los conceptos básicos de este campo de estudio es fundamental para todas aquellas personas interesadas en aprender cómo trabajan los ordenadores, que posibilidades ofrecen para ayudar con las actividades que los seres humanos realizan día a día y cómo usarlos para resolver problemas de formas innovadoras. Las ciencias de la computación se ocupan del estudio de la teoría de la computación, el diseño de sistemas computacionales y el estudio sistemático de la factibilidad, estructura, expresión y automatización de métodos para la captura, presentación, procesamiento, almacenamiento, comunicación y acceso de la información. Los científicos de la computación diseñan e implementan sistemas computacionales, idean nuevas formas de usar los computadores y desarrollan formas eficientes de resolver problemas de cómputo. La importancia de la computación radica en la globalización que está surgiendo en el mundo a la modernización de tareas métodos enseñanzas, la computación está acaparando la mayoría de los ámbitos en todo el mundo desde calibración de instrumentos hasta consolas de video juegos o control de empresas, infinidad de cosas es por eso que es muy importante la computación, ayuda a facilitar las tareas a realizar de la humanidad, tal vez a un no las resuelva todas pero es cuestión de tiempo para que se invente algo más. Uno de los mayores avances en la tecnología moderna ha sido la invención de las computadoras. Son ampliamente utilizadas en las industrias y las universidades. Hoy en día es difícil de creer si alguien viene y nos dice que no tiene una. Nos dirigimos rápidamente hacia una situación en la que un equipo sea tan parte de la vida diaria del hombre como un cepillo de dientes. Las computadoras son capaces de hacer un trabajo muy complicado en todas las ramas del saber. Se pueden resolver los problemas matemáticos más complejos o poner miles de hechos no relacionados en orden. Por ejemplo, pueden proporcionar información sobre la mejor manera de prevenir los accidentes de tráfico, o pueden contar el número de veces que la palabra "y" se ha utilizado en la Biblia. Debido a que trabajan con precisión a altas velocidades, ahorran los investigadores años de duro trabajo. Todo este proceso mediante el cual las máquinas pueden ser utilizadas para trabajar para nosotros ha sido llamado "automatización" La llegada de la automatización está obligado a tener importantes consecuencias sociales. La Informática La Informática es la rama de la Ingeniería que estudia el hardware, las redes de datos y el software necesarios para tratar información de forma automática. El hardware son los ordenadores de sobremesa, los portátiles, las tabletas, los teléfonos móviles, las impresoras, las consolas de videojuegos, los lectores de DVD, los reproductores de música, etcétera.
7
Estos aparatos están formados internamente por componentes electrónicos a los que también se les llama hardware y también se estudian en Informática. Además, hoy en día es difícil imaginar el hardware aislado. Casi todo el hardware está conectado a través de redes de datos. Millones de ordenadores, tabletas, teléfonos e incluso automóviles están continuamente conectados a la red para intercambiar información en tiempo real y hacer más fácil nuestras vidas. El software, al contrario, son programas que dicen al hardware qué tiene que hacer: intercambiar un mensaje con un familiar, mostrar la cartelera de cine, encontrar oportunidades de estudio en el extranjero, visualizar las últimas fotos de nuestros amigos en una red social, hacer una videoconferencia, generar las imágenes de un video juego o también intercambiar datos con un teléfono o una tableta. En el mundo del software hay dos especialidades: la Ingeniería del Software, en la que se estudia cómo desarrollar software en un contexto empresarial, y la Computación, en la que se estudian problemas complejos como la inteligencia artificial, el reconocimiento del habla o la búsqueda de información en la Web. Cada día, la informática adquiere más relevancia en la vida de las personas, las comunidades y en las empresas. Su utilización ya es un instrumento de aprendizaje que en la sociedad aumenta muy rápidamente. Este avance de la informática ha hecho que con el transcurrir de los años, aumente la cantidad de familias que poseen en sus casas una computadora, y gran cantidad de estos equipos constan de acceso a internet. Gracias a esta penetración, esta herramienta está auxiliando a padres e hijos mostrándoles una nueva forma de aprender y de ver el mundo, porque, en definitiva, no caben dudas que cuando se aprende a utilizar una computadora se abren nuevos horizontes en la vida de un individuo. El mayor fruto de la informática en nuestra sociedad es mantener a las personas informadas y actualizadas, a través de una mejor comunicación. Es por ello que hoy existe la informática en casi todo lo que hacemos y en casi todos los productos y servicios que consumimos o utilizamos. Si analizamos detenidamente a nuestro alrededor, en nuestra vida cotidiana, podremos comprobar que hoy no existe prácticamente ningún aspecto de nuestra vida que no esté relacionado de alguna forma a la informática, y uno de sus grandes beneficios reside en que, en la mayoría de los casos, la informática a dotado a los distintos ámbitos sociales de herramientas para mejorar la calidad de vida. Como ejemplo de ello podemos mencionar los grandes avances científicos que se han producido en las últimas décadas a partir de la implementación de la tecnología relacionada a la informática en el campo de la investigación científica, aportando por ejemplo un elemento indispensable para el desarrollo de nuevos tratamientos contra distintas enfermedades. Algo similar sucede con la educación, las empresas y demás ámbitos sociales, ya que en definitiva las comunidades de casi todo el mundo han sabido adoptar los aportes de la informática para lograr un beneficio a pequeña o gran escala.
8
Diferencias entre la Computación y la Informática • La computación se refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. • La computación está referida a la tecnología en sí que permita el manejo y movilidad de información en cuanto a esta ciencia o conocimiento se refiere y también a los fundamentos teóricos de la información que procesan las computadoras, y las distintas implementaciones en forma de sistemas computacionales. • La informática es la encarga del tratamiento automático de la información. Este tratamiento automático es el que ha cedido a la computación la manipulación de grandes proporciones de datos y la ejecución rápida de cálculos complejos. También se aboca a los tratamientos de software por parte de los usuarios y demás aspectos referidos a programas, hardware y estructura de las computadoras. • El concepto "Computación" refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática, que se vinculan entre sí en el marco del procesamiento y movilidad de la información. Las Ciencias de la Computación supone un área muy profunda de análisis, que tiene sus orígenes en 1920, cuando "computación" hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las PC, la historia y el significado de este concepto se ampliaría sobre nuevos horizontes, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones. • La computación es la ciencia del tratamiento automático de la información mediante un computador (llamado también ordenador o computadora). Entre las tareas más populares que ha facilitado esta tecnología se encuentran: elaborar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetar folletos y libros, manejar la información contable en una empresa, reproducir música, controlar procesos industriales y jugar. • Informática es un vocablo inspirado en el francés informatique, formado a su vez por la conjunción de las palabras information y automatique, para dar idea de la automatización de la información que se logra con los sistemas computacionales. Esta palabra se usa principalmente en España. Computación se usa sobre todo en América y proviene de cómputo (o cálculo). • La informática es un amplio campo que incluye los fundamentos teóricos, el diseño, la programación y el uso de las computadoras (ordenadores).
LA COMPUTADORA Para entender qué es una computadora comenzaremos por dar la siguiente definición: “Una computadora es un dispositivo electrónico utilizado para el procesamiento de datos. La misma posee dispositivos de entrada y salida que permiten a los usuarios interactuar con esta información”. Este procesamiento de datos es mucho más amplio que apenas calcular números o imprimir datos. Es posible escribir notas e informes, proyectar, realizar complejos cálculos de ingeniería, utilizarla como medio para la creación de obras fotográficas, musicales y de video y por supuesto interactuar con otras personas. Para continuar entendiendo qué es una computadora, hay que saber reconocer las dos partes básicas, que analizamos anteriormente: el hardware y el software. Recordemos: El hardware es el término genérico que se le da a todos los componentes físicos de la computadora, es decir todo lo que se puede tocar. En cambio, software es el término que se le da a los programas que funcionan dentro de una computadora.
9
Funciones de una computadora Las computadoras pueden ser empleadas para otras cosas además del trabajo, ya que son dispositivos tan versátiles que pueden ser usados para casi cualquier cosa. Tal es la importancia de las computadoras en la vida diaria, sin embargo, es posible que no conozcamos profundamente como es que interactúan con nosotros, y es por ello que hemos elaborado este artículo en donde encontraremos mucha información relevante acerca de las funciones que las computadoras pueden llevar a cabo para nosotros. Una computadora básicamente es un dispositivo cuya principal función es la de procesar grandes cantidades de información en forma veloz y precisa, y que realiza este procedimiento gracias al hardware y software. Una PC es capaz de realizar gran cantidad de tareas muy complejas, y es allí en donde hace uso de un conjunto de instrucciones, llamadas programas o software, que son las órdenes que la computadora debe procesar mediante el hardware, produciendo una salida de datos en un formato entendible por sus usuarios. Como mencionamos, una computadora está compuesta por dos subsistemas, el hardware y el software, donde el primero de ellos comprende la computadora propiamente dicha y todos sus periféricos de entrada y salida, incluyendo teclado, ratón, monitor, impresora y otros, mientras que el subsistema de software comprende el sistema operativo, el cual se encarga de traducir lo que queremos hacer con la PC al hardware, es decir procesar las peticiones, y todos los demás programas de usuario, es decir suites ofimáticas, programas de diseño, modelado, software matemáticos y muchos otros. La acción de procesar se relaciona con el acto de modificar o transformar algo de su estado original a uno nuevo. La computadora puede procesar información de distinto tipo, incluyendo texto, números, imágenes, sonidos y demás. La información con la que trabaja la computadora debe ser ingresada por el usuario, pero también puede ser obtenida por otros medios automáticos como sensores o aparatos de medición. La capacidad de la computadora para procesar información puede resumirse a través de las siguientes funciones básicas: • Almacenar Información: La computadora tiene la capacidad de guardar, en un espacio reducido, gran cantidad de información que de otro modo tendríamos que conservar en miles de hojas, una excelente alternativa para mantener un orden más estricto con la información, amén del favor que le estamos haciendo al planeta. • Organizar Información: Esta función le ofrece al usuario la opción de ordenar u organizar información y datos de acuerdo a sus propias necesidades y estilo, de tal forma que podamos encontrarla y examinarla cuantas veces deseemos. Para ello provee de diferentes mecanismos, incluyendo potentes y versátiles gestores de archivos. • Recuperar Información: Su gran capacidad de almacenar información sería inútil si no pudiéramos recuperarla y examinarla rápida y fácilmente. Al respecto, la computadora nos ofrece la posibilidad de revisar de forma instantánea y precisa cualquier información que hayamos guardado previamente en él. • Transmitir Información: Una de las funciones más importantes que posee la computadora, es la posibilidad de compartir información entre usuarios de manera rápida, segura y exacta. Esta fantástica función dependerá si nuestro computador se encuentra conectado a Internet o a
10
una red local. En este contexto, herramientas como Skype, Hangouts, Line, Dropbox, Google Drive o el omnipresente correo electrónico son maravillas que nos permiten estar siempre en contacto con clientes, familiares y amigos para intercambiar todo tipo de cosas sin necesidad de estar reunidos en el mismo lugar.
EL LENGUAJE DE LAS COMPUTADORAS El lenguaje de programación es un lenguaje artificial que se utiliza para definir una secuencia de instrucciones para su posterior procesamiento. En muchas ocasiones, resulta inentendible para el común de la gente. Vamos a intentar aclarar algunas cuestiones al respecto. La traducción de una serie de instrucciones en lenguaje ensamblador (el código fuente) a un código máquina (o código objeto) no es un proceso muy complicado y se realiza normalmente por un programa especial llamado compilador. Estas instrucciones son las que permiten que la computadora ejecute aquellas funciones que nosotros, como usuarios, le ordenamos. El mencionado compilador crea una lista de instrucciones de código máquina, el código objeto, basándose en un código fuente. El código objeto resultante es un programa rápido y listo para funcionar, pero que puede hacer que falle el ordenador si no está bien diseñado. • Lenguajes de bajo nivel Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un nombre fácil de recordar, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador. • Lenguajes de alto nivel Por lo general se piensa que las computadoras son máquinas que realizan tareas de cálculos o procesamiento de textos. La descripción anterior es sólo una forma muy esquemática de ver una PC. Hay un alto nivel de abstracción entre lo que se pide a la computadora y lo que realmente comprende. Existe también una relación compleja entre los lenguajes de alto nivel y el código máquina. Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales, como por ejemplo el inglés. En BASIC, el lenguaje de alto nivel más conocido, los comandos como ‘IF CONTADOR = 10 THEN STOP’ pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a 10. Sin embargo, para muchas personas esta forma de trabajar es un poco frustrante, porque, aunque las computadoras parecen comprender un lenguaje natural, lo hacen en realidad de una forma rígida y sistemática. Es así que en la actualidad se emplean otros tipos de lenguajes para poder ejecutar las funciones de un ordenador básico, cuyo lenguaje de funcionamiento interno queda en manos de especialistas, mientras que los usuarios trabajan con aplicaciones que no requieren el manejo de un argot técnico.
11
HISTORIA DE LA COMPUTADORA La historia de la computadora, al contrario de lo que muchos pueden imaginar, tiene su inicio hace mucho tiempo atrás, cuando el hombre descubrió que podría hacer cuentas con los dedos, o con otros objetos, tales como piedras o pedazos de madera. Estas cuentas se fueron haciendo cada vez más complicadas conforme la humanidad aprendía, y pronto los hombres se dieron cuenta que necesitarían algún artefacto que les permitirá realizar cálculos más complejos a mayor velocidad. Origen de las computadoras: Las primeras máquinas de calcular Para estas necesidades, hace aproximadamente 4.000 a.C., se creó un aparato muy simple formado por una placa de arcilla donde se movían piedras que auxiliaban en los cálculos. Ese aparato era llamado ábaco, una palabra de origen Fenicio. Ya para el año 200 a.C., el ábaco había cambiado, y estaba formado por una moldura rectangular de madera con varillas paralelas y piedras agujereadas que se deslizaban por estas varillas. El concepto y las funciones del ábaco se mantienen intactas hasta hoy, ya que aún este dispositivo se sigue utilizando en, por ejemplo, el aprendizaje para ciegos. Luego de ábaco, el próximo paso en la historia de las computadoras (año de 1642), ocurrió cuando un francés de 18 años de nombre Blaise Pascal, inventó la primera máquina de sumar: la Pascalina, la cual ejecutaba operaciones aritméticas cuando se giraban los discos que estaban engranados, siendo así la precursora de las calculadoras mecánicas. Alrededor de 1671 en Alemania, Gottfried Leibnitz inventó una máquina muy parecida a la Pascalina, que efectuaba cálculos de multiplicación y división, y la cual fue la antecesora directa de las calculadoras manuales. En 1802 en Francia, Joseph Marie Jacquard utilizó tarjetas perforadas para controlar sus máquinas de telar y automatizarlas. En el inicio del siglo XIX, más específicamente en 1822, fue desarrollado por un científico inglés llamado Charles Babbage una máquina diferencial que permitía cálculos como funciones trigonométricas y logarítmicas, utilizando las tarjetas de Jacquard. En 1834, desarrolló una máquina analítica capaz de ejecutar las cuatro operaciones (sumar, dividir, restar, multiplicar), almacenar datos en una memoria (de hasta 1.000 números de 50 dígitos) e imprimir resultados. Sin embargo, su máquina sólo puede ser concluida años después de su muerte, haciéndose la base para la estructura de las computadoras actuales, haciendo con que Charles Babbage fuera considerado como el “Padre de la computadora”. El Inicio de la Era de la Computación En 1890, época del censo de los EUA, Hermann Hollerith percibió que sólo conseguiría terminar de procesar los datos del censo cuando ya fuera tiempo de comenzar con el nuevo censo (1900). Entonces perfeccionó el sistema de las tarjetas perforadas (aquellas utilizados por Jacquard) e inventó máquinas para procesarlas, consiguiendo con eso obtener los resultados en tiempo récord, es decir, 3 años después. En función de los resultados obtenidos, Hollerith, en 1896, fundó una compañía llamada TMC (Tabulation Machine Company), viniendo ésta a asociarse, en 1914 con dos otras pequeñas empresas, formando la Computing Tabulation Recording Company la cual fuese a convertirse, en 1924, en la tan conocida IBM, Internacional Business Machines.
12
En 1930, los científicos comenzaron a progresar en las invenciones de máquinas complejas, siendo el Analizador Diferencial de Vannevar Bush el que anuncia la moderna era de la computadora. En 1936, Allan Turing publica un artículo sobre “Números Computables” y Claude Shannon escribe en una tesis la conexión entre lógica simbólica y circuitos eléctricos. En 1937, George Stibitz construye en su mesa de cocina la famosa “Model K”, una maquina digital basada en relés y cables. Con la llegada de la Segunda Guerra Mundial se planteó la necesidad de proyectarse máquinas capaces de ejecutar cálculos balísticos con rapidez y precisión para que sean utilizadas en la industria bélica. Con eso surgió, en 1944, la primera computadora electromecánica (construida en la Universidad de Harvard, por el equipo del profesor H. Aiken y con la ayuda financiera de IBM, que invirtió US$ 500.000,00 en el proyecto), poseía el nombre de MARK I, era controlado por programas y usaba el sistema decimal. Tenía cerca de 15 metros de largo y 2,5 metros de alto, estaba envuelta por una caja de vidrio y de acero inoxidable brillante y algunas de sus más importantes características eran que contaba con 760.000 piezas, 800 km de cables, 420 interruptores de control y era capaz de realizar una suma en 0,3s, una multiplicación en 0,4s y una división en cerca de 10s. Harvard Mark I prestó sus servicios de matemática en la Universidad de Harvard durante 16 años completos, a pesar de no haber tenido mucho éxito, pues ya era obsoleta antes de haber sido construida, debido a que en 1941, Konrad Zuse, en Alemania, ya estaba creando modelos de prueba: Z1 y Z2, e inmediatamente después de completó una computadora operacional (Z3), que consistía de un dispositivo controlado por programa y basado en el sistema binario y era mucho más pequeña y de construcción mucho más barata que Mark I. Las computadoras Z3 y las que a continuación siguieron, las Z4, eran utilizadas en la solución de problemas de ingeniería de aeronaves y proyectos de misiles. Zuze también construyó otras varias computadoras para fines especiales, pero no tuvo mucho apoyo del gobierno alemán, pues Hitler, en esa época mandó detener todas las investigaciones científicas, excepto las de corto plazo, y siendo que el proyecto de Zuze llevaría cerca de 2 años para ser concluido, no tuvo apoyo. Unas de las principales aplicaciones de la máquina de Zuze era descifrar los códigos secretos que los ingleses usaban para comunicarse con los comandantes en el campo. Otra de las primeras computadoras electrónicas fue la Manchester Mark 1, desarrollada en la Universidad de Manchester a partir del Small-Scale Experimental Machine (SSEM) o “Baby”, la primera computadora electrónica con programas almacenados. Fue también llamada Manchester Automatic Digital Machine, o MADM. El trabajo comenzó en agosto de 1948 y la primera versión operativa fue presentada en Abril de 1949. Su desarrollo cesó a fines de 1949 y la máquina fue desmontada a fines de 1950, sustituida en febrero de 1951 por la primera instalación de la Ferranti Mark 1, la primera computadora de uso general disponible comercialmente. Mark 1 fue muy importante al ser pionera en la inclusión de un índice de registros, una innovación que hacía más fácil para un programa leer secuencialmente a través de un conjunto de palabras en la memoria. Treinta y cuatro patentes surgieron de su desarrollo y muchas de las ideas salieron a la luz a partir de su concepción fueron integradas a productos comerciales posteriores, como la IBM 701 y 702, así como la Ferranti Mark 1.
13
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
14
GENERACIONES DE LAS COMPUTADORAS Primera Generación 1614-1943 1614: John Napier (1550-1617) publicó un texto sobre el descubrimiento del logaritmo. Napier también inventó el sistema de Rods (referido como Rods de Napier o los huesos de Napier). Esto hizo que fuera posible multiplicar, dividir, calcular la raíz cuadrada y cubica girando los rods, y colocándolos en placas especiales. 1623: Wilhelm Schickard (1592-1635), en Tuebingen, Wuerttemberg (ahora Alemania), Creó el «Reloj Calculador». Este instrumento era capaz de sumar y restar 6 dígitos, y en el caso de que el resultado sea mayor que 6 dígitos, tocaba una campana. Las operaciones eran hechas mediante una manivela, que giraba y los números cambiaban, como en el contador K7 de nuestros días. 1642: El francés matemático, Blaise Pascal construyó la máquina que sumaba (la “Pascalina”). A pesar de ser inferior al «Reloj Calculador» del Schickard (ver 1623), la máquina de Pascal se hizo más famosa. El vendió docenas de ejemplares de la máquina en varias formas, logrando procesar hasta 8 dígitos. 1672: Después de muchas tentativas, finalmente es inventada en 1672 la primera máquina de calcular capaz de desarrollar las cuatro operaciones matemáticas (suma, resta, división y multiplicación) y además la raíz cuadrada. Esa gran conquista fue atribuida al matemático Gottfried Wilhelm Von Leibnitz que mejoró la máquina de Pascal y obtuvo la calculadora universal. 1801: El telar automático era un telar con entrada de datos por medio de tarjetas perforadas para controlar la confección de tejidos y sus respectivos dibujos. Fue creado en 1801 por Joseph Marie Jackuard y puede ser considerada la primera máquina mecánica programable de la historia. 1822: La Máquina Diferencial fue idealizada por el profesor y matemático de la Universidad de Cambridge, Charles Babbage, en 1822. Era un dispositivo mecánico basado en ruedas dentadas capaz de computar e imprimir extensas tablas científicas. A pesar de tantas ventajas, esta máquina nunca llegó a ser construida a causa de las limitaciones tecnológicas de la época. 1834: George Scheutx, de Estocolmo, produjo una pequeña máquina de madera, después de leer una pequeña descripción del proyecto de Babbage. 1848: El Inglés Matemático George Boole inventa el álgebra binaria booleana, abriendo el camino para el desarrollo de computadoras casi 100 años después. 1878: Ramón Verea, viviendo en Nueva York, inventa una calculadora con una tabla de multiplicación interna; es decir más fácil que girar engranajes u otros métodos. Él no estaba interesado en producirla, sólo quiso mostrar que los españoles podían inventar como los americanos. 1885: Una calculadora de multiplicación más compacta entra en producción masiva. La producción es más o menos simultánea con la invención de Frank S. Baldwin, de Estados Unidos, y T. Odhner, suizo viviendo en Rusia. 1890: En 1880 el censo realizado en los Estados Unidos llevó siete años para ser completado, ya que todos los cálculos fueron hechos a mano en papel de periódico. Por el aumento de la población se imaginó que el censo de 1890 llevaría más de 10 años, entonces fue realizado un concurso para hallar el mejor método para realizar el cómputo de los resultados. Este concurso fue ganado por un
15
empleado del Censo, Herman Hollerith, quien fundaría la Tabulating Machine Company, que luego se transformó en IBM. Herman tomó prestada la idea de Babbage de usar tarjetas perforadas (vea 1801) para hacer el sistema de memoria. Con este método usado en 1890, el resultado (62.622.250 personas) estuvo listo en sólo 6 semanas. Con el sistema de memoria el análisis de los resultados fue muy fácil, pero, a pesar de ser más eficiente, el costo del Censo de 1890 fue un 198% más costoso que el de 1880. 1941: Resultado de la 2da Guerra Mundial, la computadora Z3, construido por los alemanes, tenía como principal función la codificación de mensajes. Sin embargo, fue destruida en Berlín dejándonos muy poca información sobre esta computadora. 1943: Así como los alemanes, los ingleses también fueron en búsqueda de tecnologías para descifrar códigos secretos construyendo entonces el Colossus (Servicio de Inteligencia Británico). Poseyendo dimensiones gigantescas, Colossus funcionaba por medio de válvulas llegando a procesar cerca de 5 mil caracteres por segundo. Fue inventado por el matemático inglés Alan Turing. Segunda Generación 1944-1956 1944: Mark I (Howard Aiken) fue la primera computadora electromecánica construida. Bastante diferente de las computadoras actuales, Mark I medía 18 metros de largo, dos metros de ancho y pesaba 70 toneladas. Estaba constituida por 7 millones de piezas móviles y su cableado alcanzaba los 800 Km. Con la llegada de las computadoras electrónicas Mark I fue inmediatamente sustituido. 1945: John Von Neumann, ingeniero matemático húngaro y naturalizado americano desarrolló un proyecto de computadora basado en la lógica, con almacenamiento electrónico de la información y de datos de programación. La computadora procesaría los datos de acuerdo con las necesidades del usuario, o sea, las instrucciones no vendrían predeterminadas. Más tarde esa computadora fue construida recibiendo el nombre de Edvac. El primer BUG de computadora fue relatado por la Oficial Naval y Matemática Grace Murray Hopper, el BUG era una polilla dentro de la computadora, la cual hizo que la computadora tuviera un desperfecto en sus cálculos. 1946: John W. Mauchly y J. Prester Eckert Jr., junto con científicos de la Universidad de la Pensilvania, construyeron la primera computadora electrónica, conocido como ENIAC (Electronic Numerical Integrator and Calculator), tenía aproximadamente 18 mil válvulas, pesaba 30 toneladas y llegaba a consumir 150 KW. En contrapartida superaba mil veces la velocidad de las otras computadoras, llegando a realizar 5 mil operaciones por segundo. 1947: Presper Eckert y John Mauchly, pioneros en la historia de la computadora, fundaron la Cía. Eckert-Mauchly Computer Corporation, con el objetivo de fabricar máquinas basadas en sus experiencias como el ENIAC y el EDVAC. 1948: La primera computadora comercial es inventada, llamada UNIVAC. John Bardeen, Walter Brattain y William Shockley de Bell Labs patentarían el primer transistor. 1949: Thomas Watson Jr. en una charla en un encuentro de ventas de IBM preanunció que todas las partes móviles en las computadoras serían sustituidas por componentes electrónicos en una década. 1951: El Univac fue la primera computadora comercializada. Proyectada por J. Presper Ecker y John Mauchly, ejecutaba 1905 operaciones por segundo y su precio llegó a US$ 1.000.000.
16
1952: Heinz Nixdorf fundó la Cía. Nixdorf Computer Corporation, en Alemania. Esta permaneció como una corporación independiente hasta su unión con Siemens, en 1990. 1953: La International Business Machines IBM lanza su primera computadora digital, la IBM 701. Como primera computadora de la marca comercializada, fueron vendidas 19 máquinas en tres años. 1954: El genio de la matemática Alan Turing publicó el libro “On Computable Numbers” proponiendo cuestiones significativas sobre programación e inteligencia humana. Utilizó sus aplicaciones de lógica en el desarrollo del concepto de máquina Universal. Texas Instruments anunció el inicio de la producción de los transistores. 1955: Anunciado por los laboratorios AT&T Bell, la Tradic fue la primera computadora transistorizada, teniendo aproximadamente 800 transistores en el lugar de los antiguos tubos de vacío, lo que le permitía trabajar con menos de 100 Watts de consumo de energía. 1956: En el MIT (Massachussets Institute of Technology) investigadores comenzaron a probar la entrada de datos en teclados de computadoras. En el mismo lugar comenzaron las pruebas con la primera computadora con transistores (Transistorized Experimental Computer). Tercera Generación 1957-1968 1957: Un grupo de ingenieros liderados por Ken Olsen dejaron el laboratorio Lincoln del MIT y fundaron la Digital Equipment Corporation DEC. Este año también fue creado un nuevo lenguaje: el Fortran, que permitía a la computadora ejecutar tareas repetidas a partir de un conjunto de instrucciones. 1958: Jack Kilby creó el primer circuito integrado en Texas Instruments para probar que resistores y capacitores podían existir en un mismo pedazo de material semiconductor. Su circuito era formado por una astilla de germanio y cinco componentes conectados por cables. La NEC de Japón construyó la primera computadora electrónica, el NEAC. 1959: La serie 7000 de mainframes IBM fue la primera de las computadoras transistorizadas de la compañía. En el tope de la línea de computadoras estaba el 7030, también conocido como STRETCH. Siete computadoras, las cuales usaban palabras de 64 bits y otras innovaciones, fueron vendidas a laboratorios nacionales y otros usuarios científicos. L.R. Johnson fue el primero a usar el término «arquitectura» para describir el STRETCH. 1960: Fue diseñado el Dataphone, el primer módem comercial, específicamente para convertir señales digitales de computadora en señales analógicas para la transmisión a través de sus redes de larga distancia. Un equipo liderado por varios fabricantes de computadoras y el Pentágono desarrollaron el COBOL, Common Business Oriented Language, el primer lenguaje volcado hacia el uso en programación de computadoras. IBM crea la primera fábrica masiva de transistores en Nueva York. 1961: Se crea el UNIMATE, primer robot industrial que entró en operación en la GM. Su función era apilar pedazos de metales calientes, labor que era ejecutada sin problemas. 1962: Los estudiantes del MIT Slug Russel, ¡Shag Graetz y Alan Kotok escribieron el SpaceWar!, considerado el primer juego interactivo de computadora. El juego ofrecía gráficos interactivos que inspiraron los vídeos games futuros.
17
1963: Se desarrolla el código ASCII (American Standard Code Information Interchange), el cual permitió que máquinas de diferentes fabricantes intercambiaran datos entre sí. La Digital Equipament vende la primera mini computadora. Douglas Engelbart recibe la patente del primer mouse para computadora. 1964: Thomas Kurtz y John Kemeny, profesores del DartMouth College, crearon el BASIC, un lenguaje de programación de fácil aprendizaje. También por aquella época se creó la computadora CDC 6600, diseñada por Seymour Cray, que era capaz de ejecutar hasta 3 millones de operaciones por segundo y tenía velocidad de procesamiento tres veces mayor que la de su competidora. Fue la más rápida hasta la llegada de su sucesora, en 1968, el CDC 7600. 1965: Gordon Moore dice que los circuitos integrados se van a duplicar en complejidad cada año. La DEC introdujo el PDP-8, la primer mini computadora comercializada con éxito. Era vendida a US$18000. 1966: Hewlett-Packard entró en el negocio de computadora para uso general con su HP-2115 ofreciendo un alto poder de procesamiento encontrado solamente en computadoras de gran porte. Ella soportaba una gran variedad de lenguajes, entre ellas BASIC, ALGOL y FORTRAN. IBM presenta el primer disco de almacenamiento, el IBM RAMAC 305.Tenía la capacidad de 5 MB. 1967: Seymour Papert diseñó el LOGO como un lenguaje de computación para niños. Inicialmente como un programa de dibujo, el LOGO controlaba las acciones de una ‘tortuga’ mecánica, que trazaba su rastro en un papel. IBM construyó el primer floppy disk. 1968: Data General Corporation, compañía creada por un grupo de ingenieros que dejaron DEC, introdujeron la computadora NOVA. Con 32 KB de memoria, era vendida a US$ 8 mil. La arquitectura simple del conjunto de instrucciones inspiró la Apple I, de Steve Wozniak, ocho años más tarde. Robert Noyce, Andy Grove y Gordon Moore fundan Intel. Cuarta Generación 1969-1981 1969: Programadores de los laboratorios AT&T Bell, Ken Thompson y Denis Richie desarrollan el UNIX, primer sistema operativo que podría ser aplicado en cualquier máquina. Ese año, el ejército americano conectó las máquinas de Arpanet, formando la red que originaría internet. 1970: El SRI Shakey fue el primer robot móvil internacional controlado por inteligencia artificial. Las protestas contra la guerra de Vietnam alcanzaron centros de computadoras de universidades y en la Universidad de Wisconsin, hirieron un hombre y dañaron cuatro computadoras. El Banco Nacional del Sur, en Valdosta, instaló la primera máquina de cajero automático para sus ciudadanos. La primera comunicación computadora – computadora se desarrolló cuando el Departamento de Defensa Americano estableció cuatro puntos de comunicación en el ARPANET: Universidad de CaliforniaSanta Barbara, UCLA, SRI internacional, y Universidad de Utah. 1971: La Kenbak-1 fue la primera computadora personal anunciada por un científico americano, por 750 dólares. La primera propaganda de un microprocesador, el Intel 4004. Un equipo de IBM conducida por Alan Shugart inventó el disco flexible de 8″. 1972: Lanzamiento del microprocesador Intel 8008. Hewlett-Packard, HP, anunció la HP-35 como «la más rápida y precisa calculadora electrónica» con una memoria solid-state similar a la de una computadora. Steve Wozniak construyó el «Blue Box», un generador de tonos para atenciones de teléfono. Nolan Bushnell introdujo Pong y su nueva compañía, Atari vídeo games.
18
1973: Robert Metcalfe diseño Ethernet, método para la conexión en red, en el centro de investigación de Xerox en Palo Alto, California. El TV Typewriter, desarrollado por Don Lancaster, proyectó el primer display de información alfanumérico en un estudio de TV común. La Micral fue la primera computadora comercial basada en un microprocesador, el Intel 8008. 1974: Los investigadores de Xerox, en el centro de investigación en Palo Alto, proyectaron el ALTO, la primera estación de trabajo con una entrada interna para mouse. Intel y Zilog introdujeron nuevos microprocesadores. David Silver, del MIT, proyectó el brazo de plata, un brazo mecánico para hacer ensamble de pequeñas piezas por medio del feedback de los sensores de toque y de presión presentes en el robot. Scelbi anunció la computadora 8H, la primera computadora comercial anunciada en Estados Unidos basada en el microprocesador Intel 8008. 1975: La edición de enero de The Popular Electronics anunció la computadora Altair 8800, basada en un microprocesador Intel 8080. Telenet, la primera red comercial, equivalente a ARPANET, fue instalada. El prototipo del módulo de indicador visual (VDM), proyectado por Lee Felsenstein, marcó la primera ejecución de un indicador de video alfanumérico memory-mapped para computadoras personales. La Tandem Computers lanzó la Tandem-16, la primera computadora fault-tolerant para transacción on-line de procesos. Es lanzada también la Imsai 8080 producida por IMS Associates, una computadora hecha con la misma estructura de BUS de la Altair 8800. 1976: Steve Wozniak proyectó la Apple I, la primer computadora single-board. Gary Kildall desarrolló el CP/M, un sistema operativo para computadoras personales. 1977: La Commodore PET (Personal Eletronic Transactor) fue la primera de muchas computadoras personales que surgieron este año. Apple II se hizo un éxito en su lanzamiento, en 1977, por sus características: circuito impreso en su placa-madre, fuente de alimentación, teclado y cartuchos para juegos. El primer mes después de su lanzamiento, la computadora personal Tandy Radio Shack’s, la TRS-80, vendió el primer año 10 mil unidades, más que las 3 mil proyectadas por la compañía. El gobierno de Estados Unidos adoptó el Standard de encriptografia de datos de IBM, la llave para destrabar mensajes codificados, que sirven para proteger los datos confidenciales dentro de sus agencias. También ese año fue lanzada la SOL una computadora de fácil uso que sólo necesitaba de un monitor y eso atrajo mucha gente. 1978: La VAX 11/780, de la Digital Equipment Corporation, se caracterizó por ser una máquina capaz de procesar hasta 4.3 gigabytes de memoria virtual, probando ser la más rápida de las mini computadores de la época. El disco flexible de 5″ se transformó en la medida standard de software para computadoras personales, inmediatamente después de que Apple y Tandy Radio Shack’s introdujeran sus softwares para este formato. 1979: El microprocesador 68000, de Motorola, se mostró mucho más veloz que los microprocesadores de la época. Los programadores Daniel Bricklin y Robert Frankston, de la Universidad Harvard, desarrollaron el VisiCalc, programa que transformó a las computadoras comerciales en computadoras personales. Carver Mead, profesor del Instituto de Tecnología de California, y Lynn Conway, científica de Xerox Corporation, escribieron un manual sobre el proyecto de un chip, llamado “Introduction to VLSI Systems”. 1980: Seagate Technology desarrolló el primer Hard Disk Drive para micro computadoras. El disco almacenó 5 megabytes de datos, cinco veces más que la mayoría de los discos comunes de la época. Desarrollado por Philips, el primer disco óptico de almacenamiento de datos tenía una
19
capacidad de almacenamiento 60 veces mayor que un disco flexible de 5”. John Shoch, del centro de investigación de Xerox, en Palo Alto, inventó la computadora «Worm» la cual traía un programa de alto desempeño para la búsqueda de información. 1981: IBM introdujo su PC, proporcionando rápido crecimiento del mercado de computadoras personales. El MS-DOS (Microsoft Disk Operating System) fue el software básico o sistema operativo lanzado para la PC de IBM, estableciendo una larga asociación entre IBM y Microsoft. Adam Osborne desarrolló la primera computadora portátil, el Osborne I. Apollo Computer desarrolló la primera estación de trabajo, la DN100, con capacidad superior a la de muchos mini computadoras de precios similares. Quinta Generación 1982-1990 1982: Mitch Kapor desarrolló el Lotus 1-2-3, software desarrollado para la computadora personal de IBM. La revista Time provocó euforia en su tradicional elección del «Hombre del Año» al seleccionar una computadora como la “Máquina del Año”. El uso de gráficos generados por computadoras para películas dio un gran paso a través de la realización de la película «Tron», lanzado por Disney. 1983: La primera computadora personal con interfaz gráfica es desarrollada por Apple. Compaq Computer Corporation introdujo su primera computadora personal (PC), que usaba el mismo software que la PC de IBM. Microsoft anunció el procesador de textos Word, llamado anteriormente Multi-Tool Word. Además, anunció el lanzamiento del sistema operativo Windows. El MIDI (Musical Instrument Digital Interfaz) es mostrado en la primera muestra North American Music Manufactures, en Los Ángeles. 1984: Apple Computer Corporation lanzó el Macintosh, la primera computadora con mouse e interfaz gráfica, con un valor de US$ 1,5 millones de dólares. El diskette de 3 «, o floppy, fue ampliamente aceptado por el mercado, ayudado por la decisión de Apple Computer de integrarlo en el nuevo Macintosh. IBM lanzó la PC Jr y la PC-AT. La PC Jr. fracasó, pero la PC-AT, varias veces más rápido que la PC original y basado en la plataforma Intel 80286, se fue un éxito debido a su óptima performance y gran capacidad de almacenamiento, todos esos recursos por aproximadamente US$ 4 mil. William Gibson, en su libro Neuromancer, inventó el término Cyberspace ó Ciber espacio. 1985: Internet avanzó otro gran paso cuando el National Science Foundation estructuró el NSFNET conectando cinco supercomputadores en las Universidades de Princeton, Pittsburgh, California, Illinois y Cornell. Nace el CDROM. Con capacidad para almacenar 550Mb de información, los nuevos CDROMs expandieron el mercado de CDS de música. Aldus lanzó el programa PageMaker para el uso en computadoras Macintosh, mostrando su interés en Desktop Publishing. Dos años más tarde, Aldus desarrolló la versión para IBMs y computadoras compatibles. El lenguaje de programación C++ surgió y dominó la industria de computadoras cuando Bjarne Stroustrup publicó el libro “The C++ Programming Language”. 1986: David Miller, de AT&T Bell Labs, patentó el transistor óptico SEED (Self-ElectroOptic-Effect Device), un componente digital para computadoras. Daniel Hillis, de la Thinking Machines Corporation, impulsó la inteligencia artificial cuando desarrolló el concepto compacto de conexión paralela. IBM y MIPS desarrollaron las primeras estaciones de trabajo PC/RT y R2000 basadas en RISC. Compaq desbancó a IBM en el mercado cuando anunció el Deskpro 386, la primera computadora en el mercado a usar el nuevo procesador Intel 386.
20
1987: Motorola desarrolló el microprocesador 68030. IBM introdujo al mercado las computadoras PS/2, fabricadas con drives de 3”. William Atkinson, ingeniero de Apple, proyectó HyperCard, un software que simplificaba el desarrollo de aplicaciones domésticas. 1988: El Co-fundador de Apple, Steve Jobs, dejó Apple para fundar su propia compañía, NeXT. Compaq y otros fabricantes de PC desarrollaron EISA (Enhanced Industry Standart Architecture), una arquitectura standard. “Pixar’s Tin Toy» hizo la primera película realizada en computadoras que posteriormente ganara un premio Oscar de la Academia por mejor dibujo animado en cortometraje. Robert Morris envió un virus a través de Internet, que causó problemas a aproximadamente un 10% de los 60 mil usuarios de la red. 1989: Intel lanzó el microprocesador 80486 y el i860 chip RISC/coprocesador, cada uno contiendo más de 1 millón de transistores. Motorola anunció el microprocesador 68040, con aproximadamente 1,2 millón transistores. Maxis lanzó el SimCity, un juego de video game que utilizaba una serie de simuladores. La ciudad era usada frecuentemente en ambientes educativos. El concepto de la realidad virtual fue el tema principal en la convención de Siggraph’s, realizada en Boston, Massachussets. 1990: Microsoft anunció Windows 3.0, el día 22 de mayo. Compatible con DOS, la primera versión de Windows ofrecía satisfacción y performance a los usuarios de PC. La World Wide Web nació cuando Tim Berners-Lee, un investigador del CERN, desarrolló el HTML (HiperText Markup Language). Sexta Generación 1991-presente 1991: La Power PC de la alianza IBM, Motorola, y Apple es presentado en Julio. Investigaciones de Cray revelan el Cray Y-MP C90 con 16 procesadores y una velocidad de 16 Gflops. 1992: DEC presenta el primer chip a implementar la arquitectura RISC Alpha 64-bit. En marzo de 1992, se transmite por Internet el primer audio multicast M-Bone. Después de generar una enorme preocupación en todos los usuarios de computadoras, el virus Michelangelo realiza un estrago de pequeñas proporciones. 1993: Apple presenta Newton, el primer PDA (personal digital assistant). El Pentium de Intel es presentado en marzo. La Universidad de Illinois desarrolla una interfaz gráfica para navegación por Internet llamada NCSA Mosaic. 1994: Leonard Adleman de la University of Southern California demuestra que el ADN puede ser un medio computacional. Jim Clark y Marc Andreesen fundan Netscape Communications (originalmente Mosaic Communications). El primer navegador (browser) de Netscape se lanza y genera un rápido crecimiento de navegantes de la Web. 1995: Toy Story es el primer largometraje enteramente generado por computadora. Windows 95 es lanzado el 24 de agosto con una gran campaña de marketing. El lenguaje de programación Java, lanzado en mayo, permite el desarrollo de aplicaciones independientes de plataformas. «Duke» es el primer applet. 1996: Es presentado el Pentium Pro de Intel. La IEEE Computer Society celebra sus 50 años. 1997: El Netscape Navigator 2.0 es lanzado. Fue el primer navegador (browser) con soporte para Javascript. Intel lanza el procesador Pentium de 150,166 & 200 MHz. Ellos tiene el equivalente a 3.3
21
millones de transistores. La IBM Deep Blue, fue la primeraa computadora en ganarle al campeón mundial de ajedrez Gary Kasparov en un juego. 1998: Es lanzado el procesador Pentium II 333 MHz, más rápido que el anterior. Microsoft lanza Win98. 1999: Linux es lanzado. El número de personas que usan LINUX es estimado en más de 10 millones. 2000: AMD lanza el AMD de 1GHz. Intel lanza una cantidad limitada del Pentium III. Es decretado el fin del TELEX. Es lanzado el Linux Kernel. Se lanza al mercado de computadoras Windows XP. A partir del año 2000, los cambios de la computación han sido muchos, sin embargo, su estructura principal es la misma.
TIPOS DE COMPUTADORAS Gracias a la evolución que se ha producido en materia de desarrollo en torno a los componentes que son parte fundamental de las computadoras, hoy existen una enorme gama de tipos de computadoras, que van desde las microcomputadoras a las llamadas supercomputadoras. Al clasificar los tipos de computadoras existentes en la actualidad, las mismas suelen ser catalogadas de acuerdo al tamaño y a la potencia que posean, lo cual resulta en los tipos de computadoras que se detallan a continuación: 1. La Computadora Personal Esta es sin dudas el tipo de computadora más conocida y difundida en todo el mundo, llamada también PC por sus siglas en ingles devenido del concepto “Personal Computer”, y que básicamente se trata de una computadora pequeña que por lo general es utilizada por un solo usuario, y la cual suele estar basada en un microprocesador. Con su desembarco en el mercado a fines de los años setenta, sin lugar a dudas, la computadora personal o PC es hoy el símbolo más claro de los avances que ha habido en el terreno de la tecnología durante el siglo XX, cuando se produjo una verdadera revolución en la electrónica, ya que permitió llevar a cada hogar un equipo de procesamiento de datos informático. Debido al rol que deben ocupar las computadoras personales, estas han sido desarrolladas con el objetivo de poder ser destinadas a oficinas y hogares, por lo cual entres sus características principales podemos citar que se trata de un tipo de computadora que poseen un tamaño y una capacidad adecuada a su fin de uso, y precios acordes a ello. En líneas generales, el funcionamiento de las computadoras personales se encuentra basado en un pequeño chip llamado microprocesador, el cual se encarga básicamente de que la PC funcione como corresponde. Este microprocesador es el que controla todos los procesos que realiza una computadora personal. Se suman a él distintos componentes que juegan un rol fundamental en el funcionamiento del equipo, incluyendo la placa madre o motherboard, la memoria ROM, la memoria RAM o Read Only Memory, el disco duro, la fuente de alimentación, entre otros. En la actualidad, las computadoras personales se dividen en dos tipos, las PC que suelen incluir el sistema operativo Windows y las Apple Macintosh, pero en ambos casos se refieren a que se trata de una computadora que es utilizada por un solo usuario y se encuentra basada en un microprocesador. Sin embargo, en este punto cabe destacar que la configuración de las computadoras personales también puede ser utilizadas por varios usuarios, es decir que pueden estar vinculadas para formar una red, por lo que las computadoras personales cada vez se asemejan más a las llamadas estaciones de trabajo, que veremos a continuación.
22
Las computadoras personales también incluyen otra subcategorización, ya que las mismas pueden clasificarse de acuerdo a su tamaño físico. A continuación, enumeramos los tipos de computadoras personales más comunes: • Torre: Se trata de un tipo de computadora donde sus elementos, incluyendo la fuente de alimentación, la motherboard y los dispositivos de almacenamiento masivo se colocan apilados dentro de un gabinete alto, con lo cual ofrecen mayor capacidad de espacio para la incorporación de dispositivos de almacenamiento adicionales. •
Escritorio: Como su nombre lo indica, es una computadora diseñada para que pueda caber en un escritorio, por lo que suelen poseer un tamaño mucho más compacto que las de torre. Estas suelen ser las computadoras que casi todos los usuarios poseen en su hogar, e incluso también en su oficina.
•
Portátil: Esta es la famosa notebook, cuya característica principal reside en tratarse de una computadora liviana, compacta, que incluye pantalla, teclado y demás en su cuerpo principal, de manera tal que la computadora permite ser transportada y utilizada en cualquier lugar. A pesar de su reducido tamaño, las computadoras portátiles poseen una potencia similar a la de cualquier computadora de escritorio, aunque su valor de mercado suele ser más elevado.
•
Tablet: Se trata de una computadora de tamaño realmente reducido, cuya principal característica es poseer una pantalla táctil con la cual se reemplazan otros elementos tales como el teclado y el mouse. Si bien podría parecer que por su tamaño este tipo de dispositivos no ofrecen grandes capacidades de procesamiento, lo cierto es que debido a la tecnología que hay detrás de ellas, hoy podemos encontrar tablets incluso más potentes que muchas computadoras de escritorio.
Hasta aquí hemos mencionado las computadoras personales más populares y utilizadas por cientos de personas en todo el mundo, pero también podríamos incluir las netbooks, las palmtop y los PDA, entre otros. 2. Estación de trabajo La llamada Workstation o Estación de Trabajo, por su traducción directa del inglés, consiste en una computadora realmente potente que es utilizada por lo general por un solo usuario, y si bien debido a ello podría ser considerada una computadora personal, lo cierto es que se encuentra en una categoría aparte debido a que posee un microprocesador mucho más potente que el que incluyen las PC, además de contar en la mayoría de los casos con una pantalla o monitor de mayor calidad. Por tal motivo, podríamos definir a la estación de trabajo como una computadora que ha sido diseñada para ser utilizada por solo usuario con fines profesionales. Esto hace que este tipo de computadoras posea una mayor capacidad de procesamiento que el que posee una computadora personal convencional.
23
Si bien este tipo de computadoras no permiten realizar cálculos demasiado complejos, lo cierto es que debido a que disponen de una potencia mucho mayor al de una PC, brindan la posibilidad de llevar a cabo tareas que precisamente requieren de una alta potencia, como por ejemplo la edición de video y audio, la creación de modelos digitales tridimensionales, modelado de diseños de arquitectura, compilación de códigos para programación y demás. Debido a su uso, las estaciones de trabajo suelen ser utilizadas precisamente por personas que requieren de mayor potencia que la que ofrece una computadora personal convencional, pero al mismo tiempo menor capacidad de potencia de las que incluye un mainframe, que veremos más adelante. En lo que respecta al tamaño de este tipo de computadoras, debemos tener en cuenta que gracias al avance en torno a la tecnología hoy es posible tener una estación de trabajo realmente potente incluso en una computadora portátil. No obstante, uno de los aspectos que suelen caracterizar a las estaciones de trabajo es que en general este tipo de equipos incluyen pantallas de tamaño grande, e incluso en muchas ocasiones suelen disponer de múltiples pantallas, ya que casi siempre las tareas que se realizan en las estaciones de trabajo requieren de mucho espacio de visualización en pantalla. Lo mismo sucede con la resolución de dicha pantalla, que también suele ser de alta calidad, con el fin de que ofrezca mayor claridad y nitidez de visualización. 3. Mainframe A grandes rasgos, podríamos definir los mainframes como poderosas computadoras multiusuario, las cuales en general son capaces de soportar cientos o miles de usuarios de manera simultánea. Debido a su estructura, los llamados mainframes suelen ser computadoras muy grandes las cuales fueron diseñadas con el objetivo de poder llevar a cabo acciones y tareas complejas, y en muchos casos incluso críticas. Además, es también debido a su estructura interna que la mayoría de los mainframes de la actualidad suelen poseer un tamaño considerable, y al mismo tiempo disponen de una gran capacidad de procesamiento. Una de las características fundamentales de los mainframes reside en que han sido creadas y diseñadas con el fin de poder continuar funcionando más allá de cualquier contingencia, es decir que siguen funcionando incluso con la menor interrupción. Al mismo tiempo, cuentan con funciones de auto mantenimiento, entre las que se incluyen aquellas relacionadas a la seguridad. Esto se debe a que, por lo general en las empresas, los mainframes cumplen un rol más que relevante, y es por ello que requieren de su funcionamiento continuo y de una plataforma de seguridad eficaz. Entre las diversas funciones que le son asignadas a los mainframes, una de las tareas más importantes que debe cumplir este tipo de computadora es la de poder alojar aplicaciones, y al mismo tiempo permitir que múltiples usuarios puedan trabajar con ella de manera simultánea. Por todo ello, cuando se diseña una red interna en una empresa, los mainframes suelen ser uno de los elementos más importantes en el sistema, y es por ello que muchas veces se los compara con el rol que poseen el corazón o el cerebro en el ser humano. 4. Supercomputadora Una supercomputadora es básicamente una computadora en extremo rápida, gracias a los cual puede llevar a cabo cientos de millones de instrucciones por segundo, por ende, funciona a una velocidad muy superior a la de otros tipos de computadoras.
24
Esta gran capacidad de velocidad, que en realidad cambia constantemente con los nuevos avances tecnológicos, permite realizar procesamientos rápidos, sofisticados y potentes, por lo que en general las supercomputadoras son empleadas en el ámbito de la computación científica, ya que en este campo se requiere de equipos que brinden una alta potencia para realizar cálculos complejos. Entre las características principales de las supercomputadoras encontramos que las mismas suelen ser ensambladas con componentes de distintos fabricantes, ya que se diseña a la medida de las necesidades del sistema en el cual será utilizada, y al mismo tiempo la mayoría de ellas suelen incluir un sistema operativo Linux o Unix, debido a la flexibilidad y eficiencia que brindan estas plataformas. Además, en su interior las supercomputadoras incluyen varios procesadores y cuentan con poderosos sistemas de refrigeración para evitar el sobrecalentamiento. Hoy podemos encontrar supercomputadoras en lugares como la NASA, donde se requiere de este tipo de equipos para realizar tareas realmente complicadas y cálculos extremadamente complejos.
PARTES DE LA COMPUTADORA HARDWARE El hardware es la parte física de una computadora, es decir, todo aquello que puede ser tocado. Esto incluye el teclado, las tarjetas de red, el ratón o mouse, el disco de DVD, el disco duro, las impresoras, etc. Una computadora es un equipo electrónico que procesa gran cantidad de información en un tiempo muy corto. Para esto requiere de unas instrucciones (el software) que son realizadas por unos dispositivos o equipos (el hardware). Tenemos entonces que el hardware de una computadora cumple con las siguientes funciones: entrada, procesamiento, almacenamiento y salida de datos. Partes Externas • Monitor El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo pantalla, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece. Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que, si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud. Evidentemente no en el caso de personas que hacen un uso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla. • Ratón o Mouse es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
25
• Teclado En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques: 1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa. 2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales. 3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones. 4. Bloque numérico: está ubicado a la derecha del bloque especial, se activa cuando al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras, además contiene los signos de las cuatro operaciones básicas como suma (+), resta (–), multiplicación (*) y división (/), también contiene una tecla de Intro (o Enter) para ingresar las cifras. • Case La caja, carcasa, chasis, tarro, gabinete o torre de computadora u ordenador (erróneamente llamado CPU), es la estructura metálica o plástica, cuya función consiste en albergar y proteger los componentes unidad central de procesamiento (CPU), la memoria de acceso aleatorio (RAM), la placa madre, la fuente de alimentación, la/s placas de expansión y los dispositivos o unidades de almacenamiento: disquetera, unidad de estado sólido (SSD), unidad de disco rígido (HDD), unidad de disco óptico (lectora o grabadora de: CD, DVD, BD) • Micrófono El micrófono es un dispositivo periférico de entrada de información. Este se encarga de capturar los sonidos que se producen alrededor de la computadora. Una vez que se ha capturado el sonido, este puede ser almacenado en el equipo (como una grabación), enviado a otro equipo (como una llamada) o enviado a las cornetas para ser amplificado. • Cámara La cámara es un dispositivo periférico de entrada que se encarga de capturar imágenes y videos. Junto con el micrófono, permite grabar vídeos con audio. La información recibida por una cámara puede ser almacenada (en forma de grabación audiovisual) o puede ser transmitida a otra computadora (a través de una video llamada). En la época de la pandemia actual, se ha convertido en una parte indispensable para poder comunicarse, estudiar o trabajar desde casa y así evitar tener contacto físico con otras personas.
26
• Impresora Las impresoras son elementos de salida de información. Gracias a estas, se pueden plasmar en papel los datos almacenados por una computadora. Las primeras impresoras eran de impacto y funcionaban con una tecnología semejante a las de las máquinas de escribir: se imprimía letra por letra. Sin embargo, eran muy lentas y ruidosas, por lo que fueron desplazadas. Actualmente, las impresoras más utilizadas son las multifuncionales, que incluyen otras opciones como el escaneo, sustituyendo de ese modo a otra de las partes importantes de una computadora, el escáner. • Escáner El escáner es un sistema de entrada de información. Este funciona como una fotocopiadora, porque lee una imagen y produce una copia de esta. La diferencia es que la copia producida es digital y se almacena en la memoria de la computadora. Este dispositivo está formado por dos elementos esenciales: un sistema óptico y un conversor analógico-digital. El sistema óptico se encarga de estudiar la imagen a ser escaneada, determinando los colores y los tonos presentes en la página. La información proporcionada por el sistema óptico es analizada por el conversor analógico-digital. Este transforma estos datos al sistema binario, de modo que la computadora pueda interpretar y almacenar la imagen. Partes Internas • Procesador El procesador es un circuito electrónico que actúa como el cerebro lógico y aritmético de la computadora, ya que es allí donde se llevan a cabo los miles de millones de cálculos por segundo que sostienen el software entero. Es fácilmente reconocible en la Placa base, pues se trata de un cuadrado negro con un pequeño ventilador encima, ya que suelen necesitar de refrigeración constante para evitar una sobrecarga. • Placa Base También conocida como la tarjeta madre, es la tarjeta principal del CPU, en donde se encuentra el procesador, las ranuras para la memoria RAM, los módulos de ROM y en donde se insertan directamente las demás tarjetas del sistema. Se trata de una serie de circuitos en una misma plataforma, que hacen de núcleo del sistema, integrando sus distintos componentes internos. Es allí donde se encuentra el Firmware, o sea, el software pre programado de fábrica en el sistema. • Fuente de Poder El corazón del sistema, que suministra energía eléctrica a la Placa base y a todos los demás componentes del CPU, de modo que puedan operar cuando se los necesite y que puedan mantener ciertos sistemas básicos e indispensables andando cuando el computador se encuentre apagado.
27
• Memoria RAM Su nombre proviene de las siglas de Random Access Memory o Memoria de Acceso Aleatorio. Son una serie de módulos conectados a la Placa base, adónde van los programas a ejecutarse, tanto los activados por el sistema como los activados por el usuario. Sin embargo, todo lo que se encuentre en la memoria RAM se borrará cuando el sistema se apague o se reinicie. No se la debe confundir con la memoria ROM (de Read-Only Memory, o sea, Memoria de Sólo Lectura) que se encuentra contenida en la placa base, y de la cual únicamente pueden extraerse datos. Tampoco con el espacio de almacenamiento en disco. • Disco Rígido También conocido como disco “duro” (por traducción de Hard disk), se trata del lugar donde se almacena la información permanente del sistema informático, o sea, todo el software contenido en él, desde el Sistema Operativo mismo, hasta los programas o aplicaciones que instalemos sus usuarios. Al ser una unidad de lectoescritura, es posible introducir y extraer datos de ella, o lo que es lo mismo, grabar, leer y borrar información. Antiguamente, el Disco rígido estaba acompañado de unidades de lectura de discos, disquetes o diversos tipos de almacenamiento secundario portátil. Todo ello ha desaparecido hoy en día tras la invención de los puertos USB y las memorias portátiles (flash). Incluso hay algunos modelos de computadoras que carecen totalmente de disco duro. Cables de Datos Los cables de datos sirven para la transmisión de información entre los componentes del CPU, del mismo modo como lo hacen nuestras venas y arterias. Existen distintos tipos de cables, como el bus de datos (de 16, 32 y 64 bits), el cable IDE que conecta los discos a la Placa base, o el cable de datos SATA. Suelen ser de colores específicos y tener terminales específicos •
• Tarjeta de Video La Tarjeta de video o Placa de video es una tarjeta secundaria, conectada a la Placa base, que se especializa en el procesamiento de la información referente al video, o sea, a la emisión de imágenes y movimiento en monitores, proyectores, etc. Dependiendo de sus capacidades, por lo tanto, podremos tener mayor calidad de imagen y más rápidas animaciones, o incluso efectos tridimensionales o resoluciones HD. • Tarjeta de Sonido Similar a la Placa de video, la Placa de sonido va integrada a la Placa base, pero sus labores se especializan en el procesamiento de las señales de audio, o sea, en la calidad, velocidad y nitidez de las emisiones sonoras y musicales que el sistema sea capaz de emitir, lo cual es clave a la hora de ver películas, jugar juegos, etc.
28
•
Tarjeta de Red El tercer tipo de tarjeta que suele hallarse enclavado en la Placa base es la Placa de red, que es un administrador de las conexiones informáticas que el sistema puede establecer con redes o directamente con otros computadores. Estas tarjetas suelen incorporar puertos de conexión para cables telefónicos o de fibra óptica, y también adaptadores de WiFi o redes inalámbricas, que pueden ser gestionados por el usuario empleando el software apropiado.
• Ventilador Debido al elevado tráfico de corriente y de información dentro del sistema, el CPU es un lugar muy caluroso, por lo que siempre es necesario un disipador de calor, en forma de ventilador. Este artefacto extrae el aire caliente y permite que las temperaturas internas disminuyan, ya que un sobrecalentamiento detendría el sistema y podría incluso dañar permanentemente algunos de sus delicados componentes
SOFTWARE El Software son los programas de aplicación y los sistemas operativos que permiten que la computadora pueda desempeñar tareas inteligentes, dirigiendo a los componentes físicos o hardware con instrucciones y datos a través de diferentes tipos de programas. Clasificación El software, según las funciones que realiza, puede ser clasificado en: 1. Software de Sistema Operativo 2. Software de Aplicación 3. Software de Programación Sistemas Operativos Un sistema operativo es el software principal o conjunto de programas de un sistema informático que gestiona los recursos de hardware y provee servicios a los programas de aplicación de software, ejecutándose en modo privilegiado respecto de los restantes. • MacOS macOS es un sistema operativo diseñado por Apple que está instalado en todos los equipos creados por la compañía Apple Inc., y son conocidos generalmente como Mac. El sistema operativo es aquello que te permite realizar todas las tareas en un computador, como jugar, escuchar música, ver y editar imágenes, entre muchas otras cosas. A diferencia del sistema operativo Windows que puede ser usado en equipos de diferentes fabricantes (DELL, Lenovo, etc), macOS está diseñado específicamente para computadores fabricados por Apple. Esto implica que el hardware y el software son totalmente compatibles, por este motivo el ordenador tiene un mejor funcionamiento y puede procesar información más rápido.
29
•
Linux Linux es un núcleo de sistema operativo multiplataforma (que puede ejecutarse en diferentes tipos de máquinas) y su principal característica es el código fuente abierto para que el usuario pueda modificarlo y está desarrollado completamente en C. Las distribuciones GNU/Linux son sistemas operativos completos que incluye el núcleo, son generalmente de código abierto y por lo tanto son modificables.
Una distribución GNU/Linux es una adaptación para cierto ramo o perfil de usuario definido, como pueden ser distribuciones enfocadas en la multimedia, para el desarrollo de aplicaciones, oficinas, etcétera. Las distribuciones son derivadas de otras distribuciones, por tanto tenemos la distribución base o distribución madre y la distribución derivada. • Android Android es un sistema operativo móvil desarrollado por Google, basado en Kernel de Linux y otros softwares de código abierto. Fue diseñado para dispositivos móviles con pantalla táctil, como teléfonos inteligentes, tabletas, relojes inteligentes, automóviles y televisores. • iOS iOS es un sistema operativo móvil de la multinacional Apple Inc. Originalmente desarrollado para el iPhone (iPhone OS), después se ha usado en dispositivos como el iPod touch y el iPad. No permite la instalación de iOS en hardware de terceros. • Microsoft Windows Se conoce como Windows, MS Windows o Microsoft Windows a una familia de sistemas operativos para computadores personales, teléfonos inteligentes y otros sistemas informáticos, creados y comercializados por la empresa norteamericana Microsoft para diversos soportes de arquitectura de sistemas (como x86 y ARM). Estrictamente hablando, Windows es, más que un sistema operativo en sí, una serie de distribuciones del MS-DOS (MicroSoft Disk Operating System) o Windows NT, antiguos sistemas operativos de la empresa, enmarcados en un entorno operativo de tipo visual, que funciona en base a la reproducción virtual de un escritorio y de otros implementos de oficina, como carpetas, archivos, e incluso una papelera de reciclaje. La primera aparición de Windows ocurrió en 1985, como un paso adelante en la modernización del MS-DOS hacia los entornos gráficos de usuario (GUI), y desde entonces se ha convertido en el sistema operativo más utilizado del mundo, copando prácticamente la totalidad de la cuota de mercado disponible (90%) durante años. Windows ofreció a sus usuarios una creciente variedad de versiones disponibles y actualizadas del programa, con diferencias notorias en cuanto a su aspecto, estabilidad y potencias. La incorporación de Internet permitió, además, la actualización automática del software en cualquier parte del mundo. La función básica de Windows es proveer al núcleo del sistema operativo de un entorno visual atractivo, ameno e intuitivo, en el que las operaciones básicas de uso del computador están
30
representadas gráficamente a través de íconos. Empleando el mouse y el teclado, el usuario puede así acceder a todas las funciones del computador, junto a las propias de las aplicaciones incorporadas al sistema o instaladas por él mismo. Podría entenderse esto como que Windows es un mediador entre el usuario y el Sistema Operativo, que le facilita la vida y le ofrece diversos mecanismos de protección, juego, navegación Web, etc. El Escritorio es quizá el rasgo más distintivo de Windows: su pantalla inicial, que representa un escritorio de trabajo y desde donde se controlan todas las operaciones. Su interfaz gráfica es amable y permite disponer de manera visual de los archivos en uso, así como el ordenamiento de sus íconos representativos, a través del “clic y arrastre” con el mouse. Este entorno fue tan exitoso que redefinió el modo en que nos vinculamos con los computadores hoy en día. La historia de las versiones de Windows puede contarse mediante un listado de sus principales versiones: o Windows 1.0. La versión inicial fue lanzada en noviembre de 1985, tuvo tres actualizaciones: 1.01, 1.02 y 1.03. o Windows 2.0. Apareció en 1987, con una mejoría significativa en el aspecto visual, y tuvo dos actualizaciones: 2.10 y 2.11. o Windows NT. Bautizado Windows New Technology (“nueva tecnología”), surgió en 1993 como una renovación del entorno para servidores y estaciones de trabajo. Tuvo las versiones 3.1, 3.5, 3.51 y 4.0. o Windows 95. Híbrido entre 16 y 32 bits, surgió en agosto de 1995 y fue un notable éxito de ventas. Renovó su entorno gráfico y tuvo varias reediciones: 95 SP, 95 OSR1, 95 OSR2, y posteriormente dio paso a Windows 98, Windows 98 Second Edition y Windows ME (Milennium). o Windows 2000. En sus versiones hermanas de Professionl, Server, Advanced y Datacenter Server, esta edición aparecida en el año 2000 apostó por una mayor compatibilidad y la incorporación de un tren nuevo de aplicaciones. o Windows XP. Aparecido en el año 2001, este nuevo Windows tomaba su nombre de Experience (experiencia) y fue seguramente la versión más popular de la historia de este software, llegando a estar en 95% de las computadoras del mundo. o Windows Server 2003. Basado en la tecnología del NT y con herencia del XP, es una versión más compacta para ser usada en servidores web. o Windows Vista. Apareció en julio de 2008 y fue polémico entre muchas otras cosas debido a su gestión de contenidos favorable a las empresas de entretenimiento más que a los usuarios del sistema. Tuvo diversas distribuciones como Starter, Home Basic, Business, Enterprise y Ultimate, ninguna muy exitosa. o Windows Server 2008. Actualización de la versión de 2003, pero empleando la tecnología del Vista. o Windows 7. Con diversas versiones como Starter, Home Basic, Professional, Enterprise, Ultimate y otras más, se le considera una actualización del Vista aprovechando tecnología XP, pero apuntando a las necesidades multimedia y de diverso formato del año 2009. o Windows 8. Aparecido en 2013, contemplaba en sus muchas versiones (8 Pro, 8 Media Center, 8 Enterprise y 8.1) un cambio radical de estilo y estética, apostándole ya a los Smartphones, Tabletas y otros dispositivos de pantalla táctil. o Windows 10. La versión vigente apareció en 2015, aspirando a la unificación de todos los usuarios de Windows en el mundo bajo una única versión, heredera del 8. Tiene las variantes 10 Home, 10 Pro, 10 Enterprise y 10 Education.
31
OFIMÁTICA La ofimática es el conjunto de métodos, aplicaciones y herramientas informáticas que se usan en labores de oficina con el fin de perfeccionar, optimizar, mejorar el trabajo y operaciones relacionados. La palabra ofimática es un acrónimo compuesto de la siguiente manera ofi (oficina) y matica (informática).
Microsoft Office Microsoft Office es una suite ofimática que abarca el mercado completo en Internet e interrelaciona aplicaciones de escritorio, servidores y servicios para los sistemas operativos Microsoft Windows, Mac OS X, iOS y Android. La última versión de la suite ofimática es el Microsoft Office 2019. A partir de la versión 2010, se ha mantenido un sistema de utilización mediante uso de pagos al programa, llamado Office 365. Esta versión se caracteriza por hacer uso de actualizaciones sin comprar de nuevo un software más reciente, además de ser instalable en más de un dispositivo, ya sea de diferente sistema operativo. Principales Programas • Word Microsoft Word es un programa informático destinado al procesamiento de textos. Sirve por tanto para escribir textos con cualquier finalidad: académica, profesional, creativa… Cuenta con un completo paquete de herramientas que permite modificar el formato de un escrito. Estas permiten modificar desde el tipo o tamaño de la fuente al diseño de la página, pasando por la inclusión de elementos gráficos como imágenes o tablas. Permite añadir archivos multimedia de vídeo y sonido, pero no es de gran utilidad si la finalidad del documento es imprimirlo. Dispone de un formato de archivo nativo, DOC, que es cerrado. Se ha convertido en poco menos que un estándar gracias a la amplia difusión del programa, haciendo que prácticamente cualquier aplicación cuya finalidad es la de leer o editar textos sea compatible con él. No obstante, también es posible guardar los trabajos en otros formatos como RTF, XPS o XML, además de contar con una herramienta para exportarlos a formato PDF. La aplicación fue creada por la empresa Microsoft y actualmente viene incluida por defecto en el paquete ofimático de Microsoft Office. Fue ideada a partir de 1981 y desarrollada por los programadores Richard Brodie y Charles Simonyi bajo el nombre de Multi-Tool Word para sistemas Xerox, posteriormente para ordenadores IBM que corrían con sistema operativo MS-DOS en el año 1983… Después se crearon varias versiones para Apple Macintosh, AT&T Unix PC, Atari ST y por fin Microsoft Windows en 1989. Es en Windows y en sus diferentes sistemas operativos donde ha tenido mayor relevancia en los últimos años, y pese a surgir en este momento no cobró relevancia hasta el lanzamiento de Windows 3.0. Con Microsoft Word se puede ver, editar y crear documentos de texto para guardarlos en el dispositivo o compartirlos con quien sea de mil formas diferentes. Es el software más potente del mercado, líder indiscutible en el sector de los procesadores de texto. El programa permite cambiar de formatos e imprimir documentos de manera profesional, así como realizar distintas tareas para la presentación de la información: automatización de tareas, detección y corrección de errores ortográficos y gramaticales…
32
A nivel profesional, Word se ha convertido en la herramienta más utilizada para crear currículums, trabajos, presentaciones, informes o para escribir cartas. La edición de texto es muy sencilla y su apariencia lo hace aun más fácil de manejar, con tan sólo unos conocimientos básicos se pueden utilizar sin problemas. Además, Microsoft Word permite visualizar el resultado final antes de ser enviado o impreso. • Excel Excel es un programa que forma parte de la suite ofimática Microsoft Office, un software de hojas de cálculo empleado esencialmente en tareas matemáticas y financieras. Sirve para realizar todo tipo de cálculos numéricos o matemáticos. Permite elaborar tablas que incluyan cálculos matemáticos, resueltos mediante operadores matemáticos o automáticamente mediante fórmulas llamadas funciones que se pueden configurar manualmente. Además de permitir la visualización de los datos, por ejemplo, a través de diferentes tipos de gráficos. La finalidad de estos puede ser diferente según las necesidades del usuario y las posibilidades que permite este software de cálculo son extremadamente amplias. Se pueden llegar a realizar desde simples sumas a integrales, pasando por la creación de gráficos, la generación de informes o la organización de información no numérica. De hecho, aunque en origen estaba diseñado para satisfacer las necesidades del ámbito administrativo y contable, sus funciones se han extendido a diferentes campos, incluyendo el de las bases de datos. Por eso es posible llevar múltiples registros y controles de particularidades que no tengan que ver en ningún momento con cálculos y se compongan esencialmente de texto. Con Microsoft Excel podemos llevar a cabo las siguientes tareas: o Elaborar tablas de consulta de información. o Crear gráficos a partir de datos numéricos introducidos en la hoja de cálculo. o Resolver operaciones matemáticas sencillas. o Elevar números a potencias. o Hacer calendarios especializados. o Hacer facturas. o Diseñar todo tipo de horarios. o Generar informes contables. o Elaborar presupuestos detallados. o Editar hojas de cálculo de programas similares. o Llevar una libreta de direcciones. o Llevar un registro de clientes, usuarios, empleados… o cualquier otro en el que se funcione mediante líneas y columnas. o Crear calendarios varios. o Llevar la contabilidad de una empresa, un comercio o incluso un hogar. Al igual que el resto de programas que conforman el paquete Office, Microsoft Excel se ha convertido en un estándar de facto pese a su licencia comercial y, por tanto, no ser gratis. No en vano, otros paquetes ofimáticos tradicionales.
33
• PowerPoint PowerPoint es un programa informático de Microsoft que sirve para hacer presentaciones. Estas pueden ser de texto esquematizado, de diapositivas o de animaciones de texto e imagen a las que se les puede aplicar diferentes diseños. Permite crear presentaciones de todo tipo con texto esquematizado y con gran cantidad de elementos: sonoros, audiovisuales, interactivos, gráficos, escritos... Partiendo de una plantilla más o menos elaborada (e incluso en blanco, para los más manitas) podemos crear una ponencia compuesta de un conjunto de pantallas —llamadas aquí "diapositivas"— que proyectaremos a través de nuestro ordenador para narrar la historia que queremos vender, ya sea a nuestros potenciales clientes, nuestros profesores o nuestros estudiantes. Aunque existen otros, su formato de guardado más común y habitual es el PPT. Las diapositivas se elaboran en documentos con capacidades multimedia y se enlazan unas con otras de manera secuencial. Sus características lo convierten en una herramienta muy dinámica por lo que es ampliamente utilizado en ámbitos profesionales y académicos. Se utiliza en casos como los siguientes: o Exponer trabajos, tesis o investigaciones. o Presentar informes estadísticos o contables. o Crear tutoriales. o Crear álbumes de fotos. o Hacer cuestionarios. Cuenta con tres funciones principales para desarrollar las presentaciones: o Editor de texto con herramientas similares a las de Word para darle formato. o Inserción y manipulación de recursos gráficos (imágenes y gráficas). o Muestra del contenido de forma continua. Se ha convertido en poco menos que un estándar para la exposición de conceptos a modo de esquema. De hecho, es la propia Microsoft la que señala que a diario son en torno a 30 millones de presentaciones las que se llevan a cabo con él. Forma parte del paquete ofimático Microsoft Office y sus orígenes se remontan a mediados de la década de 1980. Dos programadores desarrollaban un software para presentaciones gráficas para Mac cuyo nombre era Presenter que fue rechazado por Apple. Sin embargo, Bill Gates y Microsoft sí mostraron interés y acabaron adquiriendo el software en 1987 y lanzando su primera versión ese mismo año, la 1.0. Desde entonces ha ido evolucionado, versión tras versión, para adaptarse a las diferentes necesidades que los usuarios han ido requiriendo. • Publisher Microsoft Publisher es un programa de edición que sirve para crear material y documentos impresos como boletines, sobres, catálogos, trípticos, dípticos, folletos o calendarios. La primera edición de este programa fue lanzada por Microsoft en 1991 y forma parte del paquete ofimático Microsoft Office y se puede adquirir a través de las dos versiones que se ofrecen de la suite: Office 365, en su modalidad Hogar y Personal, y a través de Microsoft Office 2016, pero sólo en su paquete Professional. Para llevar a cabo estas tareas de edición ofrece una serie de funciones y herramientas que hacen su uso muy intuitivo, el verdadero fuerte de la aplicación frente a otras de su competencia como Adobe InDesign,
34
enfocadas más a un ámbito de uso más profesional. Entre las principales funciones podemos encontrar algunas como las siguientes: o Inserta en páginas de contenidos texto e imagen. o Repite estructuras en diferentes secciones. o Permite la inserción en lote de imágenes. o Admite el diseño propio de fondos para los documentos. o Gran variedad de formatos y efectos para los textos. o Se integra con herramientas de trabajo online como OneDrive. o Disponibilidad del repositorio de imágenes online de Microsoft. o Se pueden usar fotografías propias para los fondos de cualquier proyecto. La primera edición del programa vio la luz en 1991 como decimos y poco a poco ha ido evolucionando hasta hoy, ofreciéndose de manera integrada dentro de Office. Por derecho propio se ha convertido en una de las mejores herramientas para la autoedición y que está al alcance de cualquier usuario, tanto por nivel de conocimientos como económico (si tenemos en cuenta que adquirimos con él otras herramientas). A pesar de la competencia de otros programas de autoedición como Adobe InDesign, QuarkXPress o Corel Draw su uso continúa vigente. El motivo es que al estar integrado dentro de Microsoft Office que cuenta con herramientas de uso extendido, muchos usuarios han optado por él para aprovechar que también usan las demás. Además, cuenta con un modo de uso bastante sencillo e intuitivo gracias a que ofrece cientos de plantillas para los diferentes formatos de documento que se pueden diseñar, además de mucha flexibilidad a la hora de introducir elementos gráficos y textos propios. Se trata de un programa que un usuario puede aprender a manejar rápidamente, no así como otras aplicaciones que exigen un mayor conocimiento del proceso de creación y que están orientadas a ámbitos estrictamente profesionales.
RECURSOS WEB 1. Navegadores Para mucha gente pueden llegar a pasar desapercibidos, pero los navegadores web son esenciales para el acceso y circulación por Internet, son el vehículo mediante el cual navegamos a través de la infinita red. Si nos fijamos en la definición que nos da la Wikipedia, “un navegador o, en inglés, un browser, es un software que permite el acceso a Internet, interpretando la información de los sitios web para que éstos puedan ser leídos.” Y prosigue: “La funcionalidad básica es permitir visitar páginas web y hacer actividades en ellas.” Hoy en día sabemos que existe una gran variedad de navegadores. La utilización de uno u otro es muy subjetiva, depende de cada persona y de la comodidad que tenga con cada uno de ellos, porque las diferencias entre los más populares son bastante reducidas si lo vemos desde la perspectiva de un usuario corriente, no el de un profesional de la informática. En este artículo, pues, hablaremos de algunos de los browsers más conocidos e intentaremos encontrar algunas de las diferencias que haya entre uno y otro, para que después cada cual pueda elegir el que se adapte mejor a sus necesidades. • Google Chrome Es uno de los más conocidos y más usados, básicamente porque es el que asegura una velocidad mayor. Saltó al escenario a principios de 2008. Desde entonces ha conseguido pasar de una cuota de mercado del 0% al actual 25% del mes pasado. Se inicia rápidamente desde el escritorio, carga las páginas de forma instantánea y ejecuta aplicaciones web complejas a gran velocidad. Su gran ventaja respecto a su competencia es también su principal inconveniente: Google.
35
Google le asegura financiación permanente y estar siempre a la última en cuanto a mejoras y novedades; sin embargo, también es una de las empresas multinacionales más influyentes y con más beneficios del mundo, y como tal, su objetivo final es el ánimo de lucro, y no todo el mundo se siente cómodo dejándoles sus datos, tanto personales como no personales. A parte de esto, la ventana del navegador de Chrome es intuitiva y sencilla. Está diseñado para ofrecer una mayor seguridad en la web, al actualizarse automáticamente para que siempre tengamos las últimas mejoras en este campo. Si es tu navegador preferido para el PC, Google Chrome será también el favorito para hacerlo a través de la tableta, al presentar versiones igual de potentes tanto en Android como en iOS. • Mozilla Firefox Para mucha gente es el navegador que le transmite más confianza, seguramente porque, aparte de ser uno de los más veteranos (salió en el año 2003) es sólido, estable y presenta muy pocos errores. Firefox, el segundo navegador más utilizado en Internet, se caracteriza por ser un programa independiente, y para muchos es su favorito porque no tiene ánimo de lucro. Ha sido desarrollado a lo largo de los años por decenas de programadores que lo van mejorando en cada actualización. Además, es un navegador altamente personalizable, ya que cuenta con un amplio abanico de temas y complementos. Pero lo mejor de todo son las extensiones, pequeñas adiciones gratuitas elaboradas por cientos de desarrolladores alrededor del mundo que cumplen todas las labores y funciones imaginables. • Opera Es el navegador web alternativo por excelencia. Es también uno de los más veteranos y, durante muchos años, ha sido de los más utilizados en los teléfonos móviles, hasta la popularización de los smartphones. Está desarrollado por una compañía noruega y, al igual que Firefox, no tiene ánimo de lucro. Su última versión, usa el mismo motor que Google Chrome, por lo que se pueden utilizar en él las mismas extensiones disponibles para el navegador de Google. Además, incorpora una novedad muy interesante, lo que ellos llaman el “Estante”, una reinvención de los marcadores o favoritos que permite ir guardando páginas que interesan para leerlas posteriormente. Opera es también altamente personalizable; contiene una amplia variedad de temas y su velocidad no tiene nada que envidiar a los más populares Chrome o Firefox. • Safari Safari sigue siendo un navegador web asociado a los Macs de Apple, a pesar de que en 2008 saltase también a la plataforma de Microsoft, con sus sistemas Windows. A pesar de que es el cuarto navegador más utilizado de Internet, manteniendo una cuota de mercado que está entre el 5 y el 8%, su crecimiento es muy lento, sobre todo por el hecho de que su versión para PCs no tiene nada de destacable en prácticamente ningún aspecto. Además, hace más de un año que no la actualizan, con las brechas de seguridad que esto puede ocasionar. La versión de Safari para Apple es otra cosa; ofrece un buen rendimiento y es el preferido por sus usuarios, ya que se beneficia que su sistema operativo está desarrollado internamente por la misma compañía.
36
Además, Safari cuenta con algunas opciones interesantes; una de las más relevantes es su modo “Lector”, a través de la cual se difumina parte de la pantalla y el texto central pasa a mostrarse destacado en negro sobre blanco, lo cual resulta ideal para la lectura de publicaciones online. Safari no es el navegador más rápido de todos los que existen, pero es estable y eficiente, con un aspecto muy sencillo destinado a un tipo de usuario con conocimientos informáticos básicos. Eso sí, en cuanto a oferta de funcionalidades y extensiones, se ve superado por su competencia. 2. Correo Electrónico Los correos electrónicos nuevamente están teniendo un lugar de importancia dentro de las estrategias del marketing digital. Durante algún tiempo tuvieron una fama no muy buena debido al mal uso que se le estaba dando. Sin embargo, hoy en día podemos notar que los resultados obtenidos a través del email marketing pueden ser excelentes. Tipos de proveedores de email Es importante conocer los principales proveedores de email ya que cada uno tiene algunas funcionalidades que para ti pueden ser más útiles que otros. Veamos los 3 principales. • Gmail El servicio de correo electrónico de Google actualmente es uno de los más populares en todo el mundo. Tiene muy buenos recursos de organización y elimina los correos no deseados con facilidad. Debido a su éxito, la desventaja es que difícilmente puedes encontrar nombres disponibles. Si quieres crear un email con tu nombre, debes agregarle números o símbolos. • Outlook Actualmente Outlook es uno de los proveedores de email más populares. Es el servicio de correo electrónico gratuito de Microsoft. Su gran ventaja es que se integra fácilmente con las aplicaciones de Microsoft. Desde el 2012, absorbió a todas las cuentas de correo de Hotmail, quienes anteriormente, habían ya absorbido a MSN. • Yahoo! Mail Ya fue mucho más popular que ahora, pero a pesar de eso continúa siendo muy utilizado. Uno de los factores es su fácil integración con Facebook y la posibilidad de crear emails desechables que permiten una mayor privacidad. Sin embargo, algo con lo que hay que tener cuidado es que, si no utilizas tu cuenta por más de 4 meses seguidos, está será desactivada automáticamente. Después de conocer los 3 principales proveedores de email de la actualidad, veamos algo más enfocado al marketing: 3. Redes Sociales Las redes sociales, en el mundo virtual, son sitios y aplicaciones que operan en niveles diversos – como el profesional, de relación, entre otros – pero siempre permitiendo el intercambio de información entre personas y/o empresas.
37
•
Facebook es, de lejos, la red social más popular del planeta. ¿Quién nunca oyó la broma, principalmente para las relaciones, de “si no está en Facebook es porque no es oficial”? Esta es la red social más versátil y completa. Un lugar para generar negocios, conocer gente, relacionarse con amigos, informarse, divertirse, debatir, entre otras cosas. Para las empresas, es prácticamente imposible no contar con Facebook como aliado en una estrategia de Marketing Digital, ya sea para generar negocios, atraer tráfico o relacionarse con los clientes. • Instagram Instagram fue una de las primeras redes sociales exclusivas para acceso móvil. Es cierto que actualmente es posible ver las actualizaciones en desktop, pero el producto está destinado para ser usado en el celular. Es una red social de compartir fotos y vídeos entre usuarios, con la posibilidad de aplicación de filtros. Originalmente, una peculiaridad de Instagram era la limitación de fotos a un formato cuadrado, imitando las fotografías vintage, como las de cámaras Polaroid. En 2012, la aplicación fue adquirida por Facebook por nada menos que mil millones de dólares. Desde su adquisición, la red social ha cambiado bastante y hoy es posible publicar fotos en diferentes proporciones, vídeos, Stories, boomerangs y otros formatos de publicación. •
WhatsApp WhatsApp es la red social de mensajería instantánea más popular. Prácticamente toda la población que tiene un smartphone tiene también el WhatsApp instalado. En 2017, también entró en la moda de los Stories e implementó la funcionalidad, que fue bautizada como “WhatsApp Status”.
• YouTube YouTube es la principal red social de videos online de la actualidad, con más de 1.000 millones de usuarios activos y más de 500 millones de vídeos visualizados diariamente. Fue fundado en 2005 por Chad Hurley, Steve Chen y Jawed Karim. El éxito rotundo hizo que la plataforma fuera adquirida por Google al año siguiente, en 2006, por 165 mil millones de dólares. •
Facebook Messenger
Messenger es la herramienta de mensajería instantánea de Facebook. Fue incorporada a Facebook en 2011 y separada de la plataforma en 2016. Con la “separación”, la descarga de la aplicación Messenger se ha vuelto prácticamente obligatoria para usuarios de la red social vía smartphones, ya que ya no es posible responder mensajes por la aplicación de Facebook. Además de una aplicación de mensajería, Messenger también tiene una función “Stories” exclusiva. Para las empresas, tiene algunas características interesantes, como bots y respuestas inteligentes.
38
• Pinterest Pinterest es una red social de fotos que trae el concepto de “mural de referencias”. Ahí es posible crear carpetas para guardar tus inspiraciones y subir imágenes, así como colocar links hacia URL externas. Los temas más populares son moda, maquillaje, bodas, gastronomía y arquitectura, también como hazlo tú mismo, gadgets, viajes y design. Su público buscar a través de esta red social buscar inspiración. Utilizada por artistas, diseñadores y personas por gusto al arte. Redes Sociales como Medio de Publicidad El marketing en redes sociales puede ayudar a elevar tu audiencia y convertir a personas interesadas, en clientes potenciales de una forma significativa. Un contenido relevante y diseñado para tu audiencia es clave para aumentar la presencia que tiene tu marca dentro de los medios digitales. Es vital comprender el funcionamiento de las redes sociales y la respuesta de tu audiencia en cada una de ellas, analizando, evaluando y ejecutando el contenido, es por ello que te compartimos algunas razones de por qué es importante el marketing en tus redes sociales. Importancia del Marketing en Redes Sociales • Construcción de marca Como marca, debemos ser capaces de atraer y satisfacer a nuestra audiencia de manera predecible y coherente, para generar empatía con nuestros consumidores. Una de las mejores maneras de hacerlo es ofreciendo contenido que los enriquezca tanto en el ámbito intelectual como emocional para construir una marca fuerte y positiva en la mente de nuestra audiencia. • Tráfico web Hablamos del número de visitantes que acceden a nuestro sitio web y agregan valor a nuestro portal digital. El uso de una buena estrategia en redes sociales es una excelente forma de atraer visitantes a nuestro sitio desde plataformas ya conocidas como Facebook, Twitter, Linkedin y muchas más. • Posicionamiento (SEO) Más tráfico en nuestro sitio, significa una mejor reputación cuando los motores de búsqueda deciden hacer el trabajo de posicionamiento. Así mismo la actividad de nuestros perfiles sociales agrega valor a nuestra marca en el mundo digital. Un sitio con mayores referencias externas tiene mejor ubicación en las páginas para los motores de búsqueda. • Retorno de inversión (ROI) Las redes sociales son herramientas de gran alcance y hacer marketing en ellas representa un costo mucho menor si lo comparamos con otros medios digitales y tradicionales. Además de ser más económicos, la segmentación que ofrece es específica y atinada, lo que nos permite llegar a nuestro mercado objetivo de manera más rápida haciendo que nuestra marca sea más relevante y la intención de compra sea mayor. En pocas palabras, el marketing en redes sociales es clave para el crecimiento de tu marca en la actualidad. Si tu marca aún no tiene estrategias de posicionamiento web, ahora es el momento de empezar.
39
Plataformas, Páginas Web o Aplicaciones enfocadas en Crear, Editar o Compartir Contenido • Wikipedia Wikipedia se ha convertido en el sinónimo de Enciclopedia de referencia. Su ambicioso objetivo es consolidar el conocimiento de toda la humanidad. Todos sabemos de ella, pero, ¿sabes realmente cómo funciona?, ¿quién la dirige o quién puede escribir en ella? En cuanto a su significado, la palabra Wikipedia se compone del prefijo wiki, la palabra hawaiana para designar "rápido", y el término enciclopedia. Rápido, porque no solo puedes leer los artículos alojados en la Wikipedia, sino que también pueden ser editados desde un navegador y, además, por múltiples usuarios. • Blogspot Blogspot por su parte es un proveedor de servicios de dominio gratuito, propiedad también de Google, que en realidad viene siendo un subdominio como el caso de “mipagina.blogspot.com”. La función principal de Blogspot es la de brindar soporte con respecto al servicio de dominio gratuito para la creación de blogs. Cuando visitamos www.blogspot.com, somos redirigidos awww.blogger.com debido a que a Blogspot solo se puede acceder con Blogger. Es decir, es imposible utilizar Blogspot con cualquier otra plataforma de publicación, de tal manera que ésta es una de las estrategias de marketing que tiene Google para soportar ambos servicios entre sí. En resumen podemos decir que Blogger es una plataforma de publicación gratuita, mientras que Blogspot es un proveedor de servicios de dominios gratuito. Blogspot entonces tiene que ser utilizado con Blogger, pero Blogger no necesariamente tiene que ser usado con Blogspot, aunque en realidad ambos servicios han sido diseñados para trabajar en conjunto y ofrecer una mejor experiencia con los blogs a los usuarios. • Prezi Prezi es un programa de presentaciones para explorar y compartir ideas sobre un documento virtual basado en la informática en nube. La aplicación se distingue por su interfaz gráfica con zoom, que permite a los usuarios disponer de una visión más acercada o alejada de la zona de presentación, en un espacio 2.5D. • Kaiku Deck Haiku Deck ofrece la posibilidad de construir diapositivas minimalistas formadas por una imagen de fondo, un título y un subtítulo. Nada más. Es ideal para gente a quienes les cuesta mucho simplificar, puesto que es el propio programa el que les impide añadir más contenido. Al igual que ocurre con el haiku, uno debe limitarse a los pocos elementos que permite su estructura para contarlo todo. De modo que el peso de la presentación no recae nunca en el software sino en el ponente, el verdadero protagonista. La aplicación permite realizar una slide en 3 pasos muy simples: 1. Introducir el texto (título + subtítulo). 2. Buscar la imagen. 3. Elegir la distribución del texto sobre la imagen.
40
• Powtoon PowToon es un programa de animación de videos. Permite crear presentaciones interesantes, atrapantes y entretenidas. Es un software en línea, aunque ya tiene una versión portable en español. Tiene como función crear vídeos y presentaciones animadas e interpretar lo que el usuario introduce en su interfaz, reproduciéndose como en una especie de caricatura, de una persona hablando mostrando cuadros de diálogo que el usuario haya escrito. Es muy usado en el ámbito escolar y también por ciber-nautas que con vídeos caricaturizados quieren comunicar una idea a un público elegido. • Movie Maker Windows Movie Maker es un software de edición de vídeo que se incluye en las versiones recientes de Microsoft Contiene características tales como efectos, transiciones, títulos o créditos, pista de audio, narración cronológica, etc. Nuevos efectos y transiciones se pueden hacer y las ya existentes se pueden modificar mediante código XLM.El desarrollo de Windows Movie Maker fue abandonado después del lanzamiento de Windows Vista; su sustitución, Windows Live Movie Maker, incluirán con Windows Live Essentials, una descarga gratuita de Windows Live; sin embargo, Microsoft ha afirmado que Windows Live Movie Maker no tendrá las mismas características que Windows Movie Maker. • Mindmeister MindMeister es una aplicación de mapas mentales en línea que permite a sus usuarios visualizar, compartir y presentar sus pensamientos a través de la nube. • Mindomo Mindomo. Recurso muy versátil para generar recursos infográficos y crear mapas conceptuales. Es necesario registrarse y ofrece la posibilidad de archivarlos en el ordenador e integrarlo con Google Apps. Es una aplicación nube que permite ver, crear y compartir mapas mentales. Cualquier internauta puede acceder a la web y ver los diagramas creados por otros usuarios, para crear y compartir nuestros propios esquemas es necesario registrarse. • Kahoot Kahoot! es el nombre que recibe este servicio web de educación social y gamificada, es decir, que se comporta como un juego, recompensando a quienes progresan en las respuestas con una mayor puntuación que les catapulta a lo más alto del ranking. Cualquier persona puede crear un tablero de juego, ¡aquí llamado “un Kahoot!" de modo que, si quieres, puedes crear un test sobre los tipos de triángulos, los distintos cuerpos celestes o sobre las normas de circulación. No hay limitaciones siempre y cuando se encuadre en uno de los cuatro tipos de aplicaciones disponibles hoy en día.
41
• Quizizz Quizizz es una aplicación para crear preguntas personalizadas de manera lúdica y divertida, similar al Kahoot, donde el docente genera las preguntas en la web y le proporciona al alumnado la página web y el código del cuestionario para responder desde un ordenador o dispositivo móvil.
• Moodle Moodle es una herramienta de gestión de aprendizaje, o más concretamente de Learning Content Management, de distribución libre, escrita en PHP. • Padlet Padlet es una herramienta de la web 2.0 que permite almacenar y compartir contenido multimedia, es básicamente un muro digital el cual puede utilizarse como un tablón personal o una pizarra colaborativa. Padlet permite insertar: imágenes, enlaces, documentos, videos, audios, presentaciones, entre otros
• Explain Everything Explain Everything es una aplicación para iPad con un diseño muy intuitivo, que te permite grabar tu propio escritorio (screencasting) al tiempo que sirve de pizarra digital interactiva (whiteboard).
• Canva Es un sitio web de herramientas de diseño gráfico simplificado. Utiliza un formato de arrastrar y soltar y proporciona accesión a más de un millón de fotografías, vectores, gráficos y fuentes. Es utilizado por no diseñadores, así como profesionales. • IDraw Es una de esas joyas de la App Store que te sorprenden por las posibilidades que ofrece, una aplicación de dibujo vectorial e ilustración que cumple perfectamente para uso en el iPad • Sketchbook Saca a relucir tu artista interior con esta aplicación de pintura y dibujo de calidad profesional. Lleva a tu iPad a lo último en cuaderno de dibujos digitales por excelencia. Ya seas un artista profesional, o simplemente deseas aprender a dibujar, el nuevo Autodesk SketchBook Pro pondrá un impresionante conjunto de herramientas de dibujo y pintura a tus órdenes. Esta aplicación te permite llevar contigo un estudio de arte móvil, y ver tus creaciones en la gran pantalla táctil del iPad. • Magisto E s un editor de video en línea con una aplicación web, así como una aplicación móvil para la edición y producción automatizada de video dirigida a consumidores y empresas. Según el sitio web, Magisto emplea tecnología de Inteligencia Artificial para hacer que la edición de video sea rápida y simple.
42
• Corel Draw CorelDRAW es una aplicación informática de diseño gráfico vectorial, es decir, que usa fórmulas matemáticas en su contenido.
• Gimp GIMP es un programa de edición de imágenes digitales en forma de mapa de bits, tanto dibujos como fotografías. Es un programa libre y gratuito. • Gravit Designer Gravit designer es una aplicación de diseño de gráficos vectoriales gratuita y multiplataforma, lo cual nos permite poder utilizarla en Windows, Mac OS, Linux
• Skedio Skedio es una herramienta de dibujo basada en gráficos vectoriales con múltiples capacidades de edición. Skedio permite fácilmente crear nuevas imágenes y editar las imágenes ya existentes en alta calidad. • Procreate Es una aplicación de editor de gráficos de trama para pintura digital desarrollada y publicada por Savage Interactive para iOS y iPadOS. Diseñado en respuesta a las posibilidades artísticas del iPad, y atendiendo a artistas desde principiantes hasta profesionales
• WeVideo Es una compañía de software como servicio con sede en EE. UU. Que proporciona una plataforma de edición de video colaborativa basada en la web que funciona en cualquier navegador.
• Aleks ALEKS es un programa de tutoría y evaluación en línea que incluye material del curso en matemáticas, química, estadística introductoria y negocios.
• Khan Academy Es una organización educativa sin ánimo de lucro y un sitio web creado en 2006 por el educador estadounidense Salman Khan, egresado del Instituto Tecnológico de Massachusetts y de la Universidad de Harvard.
43
Matemáticas
44
Matemáticas Es una ciencia formal que, partiendo de axiomas y siguiendo el razonamiento lógico, estudia la ciencia de las propiedades y relaciones entre entidades abstractas como números, figuras geométricas, iconos, glifos, o símbolos en general. La matemática en realidad es un conjunto de lenguajes formales que pueden ser usados como herramienta para plantear problemas de manera ambiguas en contextos específicos. Por ejemplo, el siguiente enunciado podemos decirlo de dos formas: X es mayor que Y e Y es mayor que Z, o en forma simplificada podemos decirlo de dos formas que X > Y >Z. Este es el motivo por el cual las matemáticas son tan solo un lenguaje simplificado en una herramienta por cada problema específico (por ejemplo 2+2=4 o 2x2=4). Las ciencias naturales han hecho un uso extensivo de las matemáticas para explicar diversos fenómenos observables, tal como lo expresó Eugene Paul Wigner (premio nobel de Física en 1963). “La enorme utilidad de las matemáticas en las ciencias naturales es algo que roza lo misterioso, y no hay explicación para ello. No es en absoluto natural que hallan leyes de la naturaleza, y mucho menos que el hombre sea capaz de descubrirla, el milagro de lo apropiado que resulta el lenguaje de las matemáticas para la fórmula de las leyes de la física es un regalo maravilloso que no comprendemos ni merecemos” Mediante la abstracción y el uso de la lógica en el razonamiento, las matemáticas han evolucionado basándose en el cálculo y las mediciones, junto con el estudio sistemático de la forma y el movimiento de los objetos físicos. Las matemáticas, desde sus comienzos, han tenido un fin práctico. Las explicaciones que se apoyaban en la lógica aparecieron por primera vez con la matemática helénica, especialmente con los Elementos de Euclides. Las matemáticas siguieron desarrollándose, con continuas interrupciones, hasta que en el Renacimiento las innovaciones matemáticas interactuaron con los nuevos descubrimientos científicos. Como consecuencia, hubo una aceleración en la investigación que continúa hasta la actualidad. Hoy día, las matemáticas se usan en todo el mundo como una herramienta esencial en muchos campos, entre los que se encuentran las ciencias naturales, la ingeniería, la medicina y las ciencias sociales, e incluso disciplinas que, aparentemente, no están vinculadas con ella, como la música (por ejemplo, en cuestiones de resonancia armónica). Las matemáticas aplicadas, rama de las matemáticas destinada a la aplicación del conocimiento matemático a otros ámbitos, inspiran y hacen uso de los nuevos descubrimientos matemáticos y, en ocasiones, conducen al desarrollo de nuevas disciplinas. Los matemáticos también participan en las matemáticas puras, sin tener en cuenta la aplicación de esta ciencia, aunque las aplicaciones prácticas de las matemáticas puras suelen ser descubiertas con el paso del tiempo. La importancia de las matemáticas Las matemáticas son fundamentales para el desarrollo intelectual de los niños, les ayuda a ser lógicos, a razonar ordenadamente y a tener una mente preparada para el pensamiento, la crítica y la abstracción. Las matemáticas configuran actitudes y valores en los alumnos pues garantizan una solidez en sus fundamentos, seguridad en los procedimientos y confianza en los resultados obtenidos. Todo esto crea en los niños una disposición consciente y favorable para emprender acciones que conducen a la solución de los problemas a los que se enfrentan cada día. su vez, las matemáticas contribuyen a la formación de valores en los niños, determinando sus actitudes y su conducta. Sirven como patrones para guiar su vida, un estilo de enfrentarse a la realidad lógico y coherente, la búsqueda de la exactitud en los resultados, una comprensión y expresión clara a través de la utilización de símbolos, capacidad de abstracción, razonamiento y generalización y la percepción de la creatividad como un valor. Podemos dividir estos valores en tres grupos:
45
1. Valores de Inteligencia: Afán de saber, adquirir conocimientos, estudiar, hábitos y técnicas de trabajo intelectual para utilizar la información, sentido crítico de lo verdadero. 2. Valores de Voluntad: Capacidad de decisión, prudencia, predicción, iniciativa, seguridad, confianza en sí mismo. 3. Valores Morales: respecto a las creencias e ideas de los demás, colaboración, solidaridad, honradez, honestidad, laboriosidad, optimismo. Sin embargo, en el colegio la asignatura de mat emáticas suele ser, de lejos, la más odiada. Y ¿Por qué? Parece que nos estamos dando cuenta de que las matemáticas llevan años enseñándose mal. Es necesario que desde la escuela se transmita una idea positiva de las matemáticas y para ello hay que cambiar la manera en la que se les presentan a los alumnos. Es bien sabido que las matemáticas son una habilidad sumamente necesaria para todos, pues son la principal herramienta con la que los seres humanos han podido comprender el mundo a su alrededor. Cuando somos estudiantes es común que nos preguntemos ¿por qué debo estudiar matemáticas? Podríamos comenzar diciendo que son muchas las actividades de la vida cotidiana que tienen relación con esta ciencia, por ejemplo, administrar dinero, preparar una receta de cocina, calcular la distancia que tenemos que recorrer para llegar a algún lugar, entre otras cosas, pero la respuesta va más allá. Aprender matemáticas nos enseña a pensar de una manera lógica y a desarrollar habilidades para la resolución de problemas y toma de decisiones. Gracias a ellas también somos capaces de tener mayor claridad de ideas y del uso del lenguaje. Con las matemáticas adquirimos habilidades para la vida y es difícil pensar en algún área que no tenga que ver con ellas. Todo a nuestro alrededor tiene un poco de esta ciencia. Las habilidades numéricas en general son valoradas en la mayoría de los sectores habiendo algunos en los que se consideran esenciales. El uso de la estadística y la probabilidad efectiva es fundamental para una gran variedad de tareas tales como el cálculo de costos, la evaluación de riesgos y control de calidad y la modelización y resolución de problemas. Hay quienes plantean que en el mundo actual tan cambiante en el que vivimos, particularmente en términos de los avances tecnológicos, la demanda de conocimientos matemáticos está en aumento. La Matemática y su relación con las demás ciencias La matemática es una herramienta esencial en muchos campos diferentes de la ciencia sin esta no podríamos gozar de la tecnología actual, la aplicación de la matemática en observa en Ingeniería, Física, Química, etc. La matemática es la madre de todas las ciencias, todo tiene que ver con las matemáticas, desde la música con sus tiempos, rimas y su poesía con los versos, la cocina con medidas, peso y tiempo de cocción, fotografía tiempo de velocidad y de obturación, la construcción con material y distribución de espacios. Todo tiene ver con las matemáticas. Las ciencias con las que se relaciona son: • Ingeniería • Contaduría y Administración • Física • Química • Biología
• • • • •
Arquitectura Astronomía Mecánica Música Artes
46
• Ingeniería La ingeniería matemática (también matemáticas para ingeniería) es una rama de la ingeniería que utiliza la matemática aplicada y que se apoya en el uso de herramientas computacionales para resolver problemas de la ingeniería, principalmente relacionados con el modelamiento de diversos procesos (tanto naturales como artificiales).
• Contaduría y Administración Las matemáticas se pueden decir que es la ciencia que más se relaciona con las demás áreas del saber, su versatilidad no tiene límites y su aplicación es inimaginable. La matemática que es para los estudiantes de Contaduría Pública una herramienta principal, y que les provee con las bases suficientes para enfrentarnos a aquellos retos dentro de nuestra labor a desempeñar”. • Física Algunas veces la física ha generado matemáticas y otras veces las matemáticas han ido por su lado. La física es una ciencia que necesariamente necesita de las matemáticas para existir, si queremos analizar un fenómeno físico, necesitamos traducirlo de algún modo a una expresión matemática, como una ecuación.
• Química La química matemática es el área de la química dedicada a las nuevas y no triviales aplicaciones de las matemáticas a la química, y se ocupa principalmente de los modelos matemáticos de los fenómenos químicos. La historia del enfoque matemático en la química se remonta a finales del siglo XIX. • Biología Biología Matemática o Biomatemática es un área interdisciplinaria de estudios que se enfoca en modelamiento de los procesos biológicos utilizando técnicas matemáticas. Tiene grandes aplicaciones teóricas y prácticas en la investigación biológica.
• Arquitectura Sin las matemáticas en ninguna época histórica, las estructuras carecerían de integridad. Para que un edificio tenga resistencia y estabilidad, debe tener ángulos precisos, longitudes correctas de sus muros y medidas adecuadas para el techo, no solo en eso, sino también en todos los cálculos que sea necesario hacer.
47
• Astronomía Probablemente piensas en el Sol, los planetas, el Sistema Solar o la Vía Láctea. O quizás piensas en las noticias de los últimos años tal como la detección de las ondas gravitacionales, la predicción por medio de ordenadores de la existencia de un noveno planeta, o el hallazgo de un sistema con 7 planetas en la zona habitable. Mas si estos descubrimientos revolucionaron a la astronomía, aquel 1609 se produjo otro hecho crucial para el desarrollo de la ciencia. Se trataba de un logro matemático de primera magnitud: Johannes Kepler (1571-1630), tras una década de investigaciones, publicaba Astronomía nova. En esta obra se muestran dos resultados rotundos a los que se conoce como primera ley de Kepler y segunda ley de Kepler. (La tercera apareció diez años más tarde en Harmonice mundi.) Conviene aquí recordar sus enunciados: Primera ley: Los planetas se mueven según órbitas elípticas que tienen al Sol como uno de sus focos. Segunda ley: El radio que une un planeta con el Sol barre áreas iguales en tiempos iguales. Tercera ley: Los cubos de los radios medios de las órbitas de los planetas son proporcionales a los cuadrados de los tiempos que invierten en recorrerlas. Estas tres sentencias describían y cuantificaban las evoluciones de las llamadas estrellas errantes. Además, permitían calcular con precisión las posiciones que ocuparían los planetas en la esfera celeste a una fecha dada. • Mecánica Es la rama de la física que estudia y analiza el movimiento y reposo de los cuerpos, y su evolución en el tiempo, bajo la acción de fuerzas. Modernamente la mecánica incluye la evolución de sistemas físicos más generales que los cuerpos másicos. En ese enfoque la mecánica estudia también las ecuaciones de evolución temporal de sistemas físicos como los campos electromagnéticos o los sistemas cuánticos donde propiamente no es correcto hablar de cuerpos físicos. • Música Aunque se sabe que los antiguos chinos, egipcios y mesopotámicos estudiaron los principios matemáticos del sonido, son los pitagóricos de la Grecia antigua quienes fueron los primeros investigadores de la expresión de las escalas musicales en términos de proporcionalidad [ratio] numéricas, particularmente de proporciones de números enteros pequeños. Su doctrina principal era que “toda la naturaleza consiste en armonía que brota de números”. • Artes Matemáticas y el arte están relacionados de varias maneras. De hecho, es frecuente encontrar las matemáticas descritas como un arte debido a la belleza o la elegancia de muchas de sus formulaciones, y se puede encontrar fácilmente su presencia en manifestaciones como la música, la danza, la pintura, la arquitectura, la escultura y las artes textiles.
48
DESARROLLO DE PENSAMIENTO MATEMÁTICO La inteligencia lógico matemática, tiene que ver con la habilidad de trabajar y pensar en términos de números y la capacidad de emplear el razonamiento lógico. Pero este tipo de inteligencia va mucho más allá de las capacidades numéricas, nos aporta importantes beneficios como la capacidad de entender conceptos y establecer relaciones basadas en la lógica de forma esquemática y técnica. Implica la capacidad de utilizar de manera casi natural el cálculo, las cuantificaciones, proposiciones o hipótesis. Todos nacemos con la capacidad de desarrollar este tipo de inteligencia. Las diferentes capacidades en este sentido van a depender de la estimulación recibida. Es importante saber que estas capacidades se pueden y deben entrenar, con una estimulación adecuada se consiguen importantes logros y beneficios. 10 estrategias para estimular en desarrollo del pensamiento matemático 1. Permite a los niños y niñas manipular y experimentar con diferentes objetos. Deja que se den cuenta de las cualidades de los mismos, sus diferencias y semejanzas; de esta forma estarán estableciendo relaciones y razonando sin darse cuenta. 2. Emplea actividades de ejercicios de memoria 3. Muéstrales los efectos sobre las cosas en situaciones cotidianas. Por ejemplo, como al calentar el agua se produce un efecto y se crea vapor porque el agua transforma su estado. 4. Genera ambientes adecuados para la concentración y la observación 5. Utiliza diferentes juegos que contribuyan al desarrollo de este pensamiento, como sudokus, domino, juegos de cartas, adivinanzas, etc. 6. Plantéale problemas que les supongan un reto o un esforzó mental. Han de motivarse con el reto o esfuerzo mental. Han de motivarse con el reto, pero esta dificultad debe estar adecuada a su edad y capacidades, si es demasiado alto, se motivarán y puede verse dañado su auto concepto. 7. Haz que reflexione sobre las cosas y que a poco a poco valla relacionándolas. Para ello puedes buscar eventos inexplicables y jugar a buscar eventos inexplicables y jugar a buscar una explicación lógica. 8. Deja que manipule y emplee cantidades, en situaciones de utilidad. Puedes hacerles pensar en los precios, jugar a adivinar cuantos lápices habrá en un estuche, etc. 9. Deja que ellos solos se enfrenten a los problemas matemáticos. Puedes darles una pista o guía, pero deben ser ellos mismos los que elaboren el razonamiento que los lleve a la solución 10. Anímalos a imaginar posibilidades y establecer hipótesis. Pregúntales: ¿qué pasaría sí? Importancia de la comprensión lectora en matemáticas Uno de los hitos más importantes que tienen lugar durante la etapa escolar sucede cuando los niños pasan de aprender a leer a “leer para poder aprender”. Por eso, y puesto que una buena comprensión lectora es esencial en la adquisición de nuevos conocimientos, mejorarla tendría un efecto positivo en el rendimiento académico de los niños en todas aquellas asignaturas en las que la lectura sea la fuente principal de acceso a la información. Y las matemáticas se encuentran entre ellas. Son muchos los estudios que han puesto de manifiesto la relación que existe entre determinados aspectos lingüísticos y las capacidades matemáticas (ver, por ejemplo, Zhang, Koponen, Räsänen, Aunola, Lerkkanen y Nurmi, 2014). Uno de los ámbitos en los que más evidente se hace esta conexión es en el de la resolución de los problemas verbales. El importante papel de los problemas verbales y sus implicaciones en la enseñanza y aprendizaje de las matemáticas merece ser tratado con detalle (esperamos hacerlo en próximos posts). Por el momento, basta con recordar que, desde nuestro punto de vista, la enseñanza de las matemáticas debe estar basada en la comprensión y que los problemas verbales tienen que constituir contextos significativos para los niños, en los que sea necesario realizar un proceso de reflexión. Sin embargo, este proceso de reflexión no siempre tiene lugar. Algunos autores sugieren que cuando los niños se enfrentan a un problema, en lugar de pararse a entender la
49
situación planteada, se limitan a aplicar algoritmos y a operar con todas las cantidades disponibles, sin detenerse a pensar si todas son necesarias o no (Verschaffel, Green y De Corte, 2000). Un grupo de investigadores norteamericanos ha partido de esta última afirmación para diseñar un estudio en el que se pretendía demostrar, entre otras cosas, que enseñar a los niños un determinado tipo de estrategia de comprensión lectora puede repercutir positivamente en la resolución de los problemas verbales (Glenberg, Willford, Gibson, Goldberg y Zhu, 2011). El método que proponen Glenberg y colaboradores se denomina “Moved by Reading” y, según ellos, enseña a los niños una estrategia fundamental para la comprensión de cualquier tipo de texto: la de representar mentalmente la situación descrita. Brevemente, el método consta de dos fases. En la primera, se leen al niño una serie de frases y se le pide que manipule determinado tipo de elementos (juguetes u otros objetos) para simul ar o representar lo que se acaba de leer. Reproducir las frases de este modo aumenta la riqueza de la información que está siendo procesada (por realizarse tanto a nivel sensorial, como cognitivo, motor o emocional) y, por tanto, favorece su comprensión. A demás, la simulación que realiza el niño permite comprobar rápidamente si realmente ha entendido la frase o texto leído. Una vez que los niños tienen práctica en la representación física de las historias, comienza la segunda fase. En ella tienen que aprender a prescindir de los elementos manipulativos y a reconstruir los textos de la misma manera, pero mentalmente. Es lo que ellos llaman “manipulación imaginaria “. Los autores encontraron que los niños que fueron instruidos en este método mejoraban la comprensión lectora (Glenberg et al., 2011). Por eso, en el estudio que estamos comentando, los investigadores decidieron ampliar los ámbitos de aplicación del método y diseñaron una serie de textos consistentes en problemas matemáticos, todos ellos con información adicional irrelevante para solucionar el problema. Comprobaron que los niños que habían trabajado la estrategia de construcción de modelos mentales vía “Moved by Reading” resolvieron correctamente más problemas que aquellos a los que no se les enseñó esa estrategia. La causa de esta mejora, según los autores, se debe al hecho de que la manipulación imaginaria del texto les ayudaba a entender la situación problema y a identificar cuáles eran los datos numéricos realmente relevantes . Es necesario seguir validando el método “Moved by Reading” y comprobar si sus efectos se mantienen a largo plazo en nuevas investigaciones antes de sacar conclusiones precipitadas. Sin embargo, lo que sí se ha vuelto a poner de manifiesto en este artículo es la necesidad de ayudar a los niños desarrollar una serie de habilidades para resolver de forma efectiva los problemas verbales y, entre otras cosas, estas pasan por ayudarles a establecer conexiones entre lo simbolizado en los problemas y el mundo real.
NOCIONES DE LÓGICA También llamada lógica simbólica, lógica teoretica, lógica formal o logística, es el estudio formal y simbólico de la lógica, y su aplicación a algunas áreas de la matemática y la ciencia. Comprende la aplicación de las técnicas de la lógica formal a la construcción y el desarrollo de las matemáticas y el razonamiento matemático, y conversamente la aplicación de técnicas matemáticas a la representación y el análisis de la lógica formal. La investigación en lógica matemática ha jugado un papel crucial en el estudio de los fundamentos de las matemáticas.
50
La lógica matemática estudia la inferencia mediante la construcción de sistemas formales como la lógica proposicional, la lógica de primer orden o la lógica modal. Estos sistemas capturan las características esenciales de las inferencias válidas en los lenguajes naturales, pero al ser estructuras formales susceptibles de análisis matemático, permiten realizar demostraciones rigurosas sobre ellas. La lógica matemática se suele dividir en cuatro áreas: 1. Teoría de modelos 2. Teoría de la demostración 3. Teoría de conjuntos 4. Teoría de la computabilidad La teoría de la demostración y la teoría de modelos fueron el fundamento de la lógica matemática.
La teoría de conjuntos se originó en el estudio del infinito por Georg Cantor y ha sido la fuente de muchos de los temas más desafiantes e importantes de la lógica matemática, a partir del teorema de Cantor, el axioma de elección y la cuestión de la independencia de la hipótesis del continuo, al debate moderno sobre grandes axiomas cardinales. La lógica matemática tiene estrechas conexiones con las ciencias de la computación.
La teoría de la computabilidad captura la idea de la computación en términos lógicos y aritméticos. Sus logros más clásicos son la indecidibilidad del Entscheidungsproblem de Alan Turing y su presentación de la tesis de Church-Turing. Hoy en día, la teoría de la computabilidad se ocupa principalmente del problema más refinado de las clases de complejidad (¿cuándo es un problema eficientemente solucionable?) y de la clasificación de los grados de insolubilidad.
51
La lógica matemática también estudia las definiciones de nociones y objetos matemáticos básicos como conjuntos, números, demostraciones y algoritmos. La lógica matemática estudia las reglas de deducción formales, las capacidades expresivas de los diferentes lenguajes formales y las propiedades metodológicas de los mismos. En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado, la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en sistemas formales. La teoría de la demostración y la matemática inversa son dos de los razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en todos sus aspectos, por lo que la lógica matemática no es un método para descubrir verdades del mundo físico real, sino sólo una fuente posible de modelos lógicos aplicables a teorías científicas, muy especialmente a la matemática convencional. Por otra parte, la lógica matemática no estudia el concepto de razonamiento humano general o el proceso creativo de construcción de demostraciones matemáticas mediante argumentos rigurosos pero con lenguaje informal con algunos signos o diagramas, sino sólo de demostraciones y razonamientos que se pueden formalizar por completo. Lógica proposicional Una lógica proposicional, o a veces lógica de orden cero, es un sistema formal cuyos elementos más simples representan proposiciones, y cuyas constantes lógicas, llamadas conectivas lógicas, representan operaciones sobre proposiciones, capaces de formar otras proposiciones de mayor complejidad. Las lógicas proposicionales carecen de cuantificadores o variables de individuo, pero tienen variables proposicionales (es decir, que se pueden interpretar como proposiciones con un valor de verdad definido), de ahí el nombre proposicional. Los sistemas de lógica proposicional incluyen además conectivas lógicas, por lo que dentro de este tipo de lógica se puede analizar la inferencia lógica de proposiciones a partir de proposiciones, pero sin tener en cuenta la estructura interna de las proposiciones más simples. Como las lógicas proposicionales no tienen cuantificadores o variables de individuo, cualquier secuencia de signos que constituya una fórmula bien formada admite una valoración en la proposición es verdadera o falsa dependiendo del valor de verdad asignado a las proposiciones que la compongan. Esto implica que cualquier fórmula bien formada define una función proposicional. Por tanto, cualquier sistema lógico basado en la lógica proposicional es decidible y en un número finito de pasos se puede determinar la verdad o falsedad semántica de una proposición. Esto hace que la lógica proposicional sea completa y con una semántica muy sencilla de caracterizar. Es una rama de la lógica clásica que estudia las variables proposicionales o sentencias lógicas, sus posibles implicaciones, evaluaciones de verdad y en algunos casos su nivel absoluto de verdad. Algunos autores también la identifican con la lógica matemática o la lógica simbolice, ya que utiliza una serie de símbolos especiales que lo acercan al lenguaje matemático.
TEORÍA DE CONJUNTOS Los conjuntos son una rama de la lógica matemática que estudia las propiedades y relaciones de los conjuntos: colecciones abstractas de objetos, consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta básica en la formulación de cualquier teoría matemática.
52
La teoría de los conjuntos es lo suficientemente rica como para construir el resto de objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas, etc; gracias a las herramientas de la lógica, permite estudiar los fundamentos. En la actualidad se acepta que el conjunto de axiomas de la teoría de Zermelo-Fraenkel es suficiente para desarrollar toda la matemática. Además, la propia teoría de conjuntos es objeto de estudio per se, no sólo como herramienta auxiliar, en particular las propiedades y relaciones de los conjuntos infinitos. En esta disciplina es habitual que se presenten casos de propiedades indemostrables o contradictorias, como la hipótesis del continuo o la existencia de un cardinal inaccesible. Por esta razón, sus razonamientos y técnicas se apoyan en gran medida en la lógica. El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó a investigar cuestiones conjuntistas (puras) del infinito en la segunda mitad del siglo 1531, precedido por algunas ideas de Bernhard Bolzano e influido por Richard Dedekind. El descubrimiento de las paradojas de la teoría cantoriana de conjuntos, formalizada por Gottlob Frege, propició los trabajos de Bertrand Russell, Ernst Zemelo y Abraham Fraenkel.
Georg Canton
Bernard Bolzano
Gattlob Frege
Bertrand Russell
Conjuntos En matemáticas, un conjunto es una colección de elementos con características similares considerada en sí misma como un objeto. Los elementos de un conjunto, pueden ser las siguientes: personas, números, colores, letras, figuras, etc. Se dice que un elemento (o miembro) pertenece al conjunto si está definido como incluido de algún modo dentro de él. Ejemplo: el conjunto de los colores del arcoíris es: AI = {Rojo, Naranja, Amarillo, Verde, Azul, Añil, Violeta} Un conjunto suele definirse mediante una propiedad que todos sus elementos poseen. Por ejemplo, para los números naturales, si se considera la propiedad de ser un número primo, el conjunto de los números primos es: P = {2, 3, 5, 7, 11, 13,…} Un conjunto queda definido únicamente por sus miembros y por nada más. En particular, un conjunto puede escribirse como una lista de elementos, pero cambiar el orden de dicha lista o añadir elementos repetidos no define un conjunto nuevo. Por ejemplo: S = {Lunes, Martes, Miércoles, Jueves, Viernes} = {Martes, Viernes, Jueves, Lunes, Miércoles} AI = {Rojo, Naranja, Amarillo, Verde, Azul, Añil, Violeta} = {Amarillo, Naranja, Rojo, Verde, Violeta, Añil, Azul} Los conjuntos pueden ser finitos o infinitos. El conjunto de los números naturales es infinito, pero el conjunto de los planetas del sistema solar es finito (tiene ocho elementos). Además, los conjuntos pueden combinarse mediante operaciones, de manera similar a las operaciones con números.
53
Los conjuntos son un concepto primitivo, en el sentido de que no es posible definirlos en términos de nociones más elementales, por lo que su estudio puede realizarse de manera informal, apelando a la intuición y a la lógica. Por otro lado, son el concepto fundamental de la matemática: mediante ellos puede formularse el resto de objetos matemáticos, como los números y las funciones, entre otros. Su estudio detallado requiere pues la introducción de axiomas y conduce a la teoría de conjuntos.
Los conjuntos se denotan habitualmente por letras mayúsculas. Los objetos que componen el conjunto se llaman elementos o miembros. Se dice que “pertenecen” al conjunto y se denota mediante el símbolo ∈ la expresión 1 ∈ B se lee entonces como “1 está en B”, “1 pertenece a B”, “B contiene a 1”, etc. Para la noción contraria se usa el símbolo ∉. Por ejemplo: D ∉ B, ♠ ∉ B, amarillo ∉ B, z ∉ B, etc. Notación de conjuntos Existen varias maneras de referirse a un conjunto. En el ejemplo anterior, para los conjuntos A y D se usa una definición intensiva o por comprensión, donde se especifica una propiedad que todos sus elementos poseen. Sin embargo, para los conjuntos B y C se usa una definición extensiva, listando todos sus elementos explícitamente. Es habitual usar llaves para escribir los elementos de un conjunto, de modo que: B = {verde, blanco, rojo} C = {a, e, i, o, u} Esta notación mediante llaves también se utiliza cuando los conjuntos se especifican de forma intensiva mediante una propiedad: A = {Números naturales menores que 5} D = {Palos de la baraja francesa} Igualdad de conjuntos Esta propiedad tiene varias consecuencias. Un mismo conjunto puede especificarse de muchas maneras distintas, en particular extensivas o intensivas. Por ejemplo, el conjunto A de los números naturales menores que 5 es el mismo conjunto que A′, el conjunto de los números 1, 2, 3 y 4. También: B = {verde, blanco, rojo} = {colores de la bandera de México} C = {a, e, i, o, u} = {vocales del español} Conjunto vacío El conjunto que no contiene ningún elemento se llama el conjunto vacío y se denota simplemente por {}. Algunas teorías axiomáticas de conjuntos aseguran que el conjunto vacío existe incluyendo un axioma del conjunto vacío. En otras teorías, su existencia puede deducirse. Muchas posibles propiedades de conjuntos son trivialmente válidas para el conjunto vacío. Subconjuntos Un subconjunto A de un conjunto B, es un conjunto que contiene algunos de los elementos de B. Cuando A es un subconjunto de B, se denota como A ⊆ B y se dice que «A está contenido en B». También puede escribirse B ⊇ A, y decirse que B es un superconjunto de A y también «B contiene a A» o «B incluye a A»
54
Tipos de Conjunto A la hora de formar un conjunto, la manera y el porqué de como los agrupamos puede variar, dando lugar entonces a los diferentes tipos de conjuntos: • Conjuntos finitos: La característica de este conjunto es que sus elementos pueden ser contar o enumerar en su totalidad. Por ejemplo, los meses del año establecen un conjunto finito: enero, febrero, marzo, abril, mayo, junio, julio, agosto, septiembre, octubre, noviembre y diciembre. • Conjunto infinito: Un conjunto será infinito cuando sus elementos sean imposibles de contar o enumerar en su totalidad, debido a que no tienen fin. Los números son un claro ejemplo de un conjunto infinito. • Conjunto unitario: Aquel que está compuesto por un único elemento. La luna se encuentra dentro de este conjunto, pues es el único satélite natural del planeta tierra. • Conjunto vacío: se trata de un conjunto el cual no presenta ni tiene elementos. • Conjunto homogéneo: Conjuntos cuyos elementos presentan una misma clase o categoría. • Conjunto heterogéneo: Los elementos de estos conjuntos difieren en clase y categoría. • Conjuntos equivalentes: Serán equivalentes aquellos conjuntos cuya cantidad de elementos sea la misma. • Conjuntos iguales: Podrá decirse que dos o más conjuntos son iguales, cuando estén compuestos por elementos idénticos. La importancia de la aritmética y aplicación en la vida cotidiana Es que permite sistematizar los cálculos simples y sencillos hasta de la vida diaria, poniendo al alcance de toda la posibilidad de resolver muchas operaciones que de lo contrario serían muy arduas. La aritmética es una de las ciencias matemáticas a la que muchos le huyen mientras que otros aceptan el desafío, así que es importante que sepas que estudia la aritmética y todo lo que puede ofrecerte. La opinión mayoritaria es que las matemáticas juegan un papel importante en la sociedad. En efecto, las matemáticas están presentes en cualquier faceta de nuestra vida diaria: el uso de los cajeros automáticos de un banco, las comunicaciones por telefonía móvil, la predicción del tiempo, las nuevas tecnologías, la arquitectura e incluso, aunque no es tan conocido, también en una obra de arte, en la música, en la publicidad, en el cine o en la lectura de un libro. De hecho, muchas veces el papel que juegan las matemáticas en la vida cotidiana es el de detectar mentiras y engaños que, en ocasiones, se producen en las facturas con el IVA desglosado, en un crédito financiero, en las tasas de interés de un préstamo hipotecario o en la adecuación de los salarios a la pérdida de poder adquisitivo. Incluso el sistema ISBN de los libros o el propio NIF que identifica a cada persona presenta algún factor de comprobación basado en el concepto matemático de congruencia.
ARITMÉTICA Es la rama de la matemática cuyo objeto de estudio son los números y las operaciones elementales hechas con ellos: • Adición • Sustracción • Multiplicación • División Al igual que en otras áreas de la Matemática, como el Álgebra o la Geometría, el sentido de la “Aritmética” ha ido evolucionando con el amplio y diversificado desarrollo de las ciencias. Originalmente, la Aritmética se desarrolló de manera formal en la Antigua Grecia, con el refinamiento del rigor matemático y las demostraciones, y su extensión a las distintas disciplinas de las «Ciencias Naturales». En la actualidad, puede referirse a la Aritmética Elemental, enfocada a la enseñanza de la Matemática Básica; también al conjunto que reúne el Cálculo Aritmético y las Operaciones Matemáticas, específicamente, las cuatro Operaciones Básicas aplicadas, ya sea a números (números naturales, números enteros, números fraccionarios, números decimales, etc.) como a entidades matemáticas más abstractas (matrices, operadores, etc.); también a la así llamada alta aritmética, mejor conocida como Teoría de Números.
55
OPERACIONES ARITMÉTICAS • Adición La adición es una operación básica de la aritmética de los números naturales, enteros, racionales, reales y complejos; por su naturalidad, que se representa con el signo "+", el cual se combina con facilidad matemática de composición en la que consiste en combinar o añadir dos números o más para obtener una cantidad final o total. La adición también ilustra el proceso de juntar dos colecciones de objetos con el fin de obtener una sola colección. Por otro lado, la acción repetitiva de sumar uno es la forma más básica de contar.
• Sustracción Sustracción es una operación de aritmética que se representa con el signo (–), representa la operación de eliminación de objetos de una colección. Por ejemplo, en la imagen de la derecha, hay 5-2 manzanas significando 5 manzanas con 2 quitadas, con lo cual hay un total de 3 manzanas. Por lo tanto, 5 – 2 = 3. Además de contar frutas, la sustracción también puede representar combinación otras.
• Multiplicación Es una operación binaria que se establece en un conjunto numérico. Tal el caso de números naturales, consiste en sumar un número tantas veces como indica otro número. Así, 4×3 (léase “cuatro multiplicado por tres” o, simplemente, “cuatro por tres”) es igual a sumar tres veces el valor 4 por sí mismo (4+4+4). Es una operación diferente de la adición, pero equivalente. No es igual a una suma reiterada; sólo son equivalentes porque permiten alcanzar el mismo resultado. La multiplicación está asociada al concepto de área geométrica. • División En matemática, la división es una operación parcialmente definida en el conjunto de los números naturales y los números enteros; en cambio, en el caso de los números racionales, reales y complejos es siempre posible efectuar la división, exigiendo que el divisor sea distinto de cero, sea cual fuera la naturaleza de los números por dividir. En el caso de que sea posible efectuar la división, esta consiste en indagar cuántas veces un número (divisor) está "contenido" en otro número (dividendo). El resultado de una división recibe el nombre de cociente. De manera general puede decirse que la división es la operación inversa de la multiplicación, siempre y cuando se realice en un campo.
56
CONJUNTO NUMÉRICO Los conjuntos numéricos son agrupaciones de números que guardan una serie de propiedades estructurales. Por ejemplo el sistema más usual en aritmética natural está formado por el conjunto de los números naturales, con la suma, la multiplicación y las relaciones usuales de orden aditivo. Comenzaremos por estudiar tres conjuntos en particular, los números naturales, los números enteros y los números racionales o fraccionarios. Estos conjuntos de números han ido apareciendo a medida que la humanidad se ha visto en la necesidad de solucionar problemas y retos cada vez más complejos y más profundos. Números Naturales La exigencia y oportunidad de contar derivó necesariamente en la invención y el uso de los llamados actualmente números naturales. Aparecen en una gama de sistemas de numeración, en principio de carácter oral. Son los números más simples de los que hacemos uso, el conjunto de ellos se denota por N. Entre estos números, en sucesión ascendente en representación indo-arábiga, son: 1,2,3,4,5... Se denominan también números enteros positivo. Sin embargo, José Peano en una de sus versiones, y Paul Halmos, entre otros, consideran el 0 (cero) como número natural. Que responde al número de alumnos en un aula vacía, entre infinidad de casos. Números Enteros La insuficiencia de los números naturales para contar deudas o temperaturas por debajo de cero lleva directamente a los números enteros. Se denotan por Z y están formados por los números naturales, sus inversos aditivos y el cero. El conjunto de los números enteros incluye a los naturales, N C Z
Números Racionales La insuficiencia de los números enteros para denominar partes de unidad lleva directamente a los números racionales. Se denotan por Q y son todos aquellos que se pueden expresar de la forma de ecuación donde p y y son enteros y q≠0. Estos pueden ser enteros decimales finitos o decimales infinitos periódicos.
57
Métodos para resolver problemas de ampliación En esta asignatura se trata de que los alumnos/as completen los conocimientos en Matemática Aplicada. A saber: integración en varias dimensiones, teoría de campos, ecuaciones diferenciales, transformadas de Fourier y de Laplace. Finalmente, se completan los conocimientos de Estadística adquiridos por los alumnos/as en la asignatura de “Métodos Matemáticos”.
Estos consejos te ayudarán a pensar mejor: • Debes tener una actitud positiva. Curiosidad y ganas de aprender. Gusto por el reto • Confía en tus posibilidades. Somos lo que pensamos. Actúa con tranquilidad, sin miedo. • Ten paciencia. No abandones a la menor dificultad. Si te atascas, piensa en un nuevo enfoque del problema. • Concéntrate. Resolver problemas es una actividad compleja y requiere atención. • No busques el éxito a corto plazo. Llegar a la solución es un proceso lento, pero cuando notes los progresos sentirás una gran satisfacción. Importancia de la algebra y su aplicación en la vida cotidiana El Algebra es útil principalmente para agilizar la mente, aunque aparentemente pienses que no sirve de nada en tu vida diaria es importante puesto que ayuda a deducir y procesar toda la información que se recibe durante el día de tal forma que podemos sacar conclusiones y resolver problemas que se presentan Todos hemos preguntado alguna vez para qué sirve aprender álgebra en la vida cotidiana, muchos estudiantes a nivel medio superior tratan de facilitar su futuro buscando una carrera profesional que no tenga relación alguna con este tema, pero esto siempre estará presente en la vida de todo ser humano, tenga la especialidad que tenga. Todos nosotros pensamos de manera algebraica alguna vez, por ejemplo, para resolver o facilitar un problema matemático podemos acudir a una calculadora o a un formato Excel para exponer la ecuación con una simbología, estamos seguros de que el ordenador lo resolverá; pero nosotros ponemos de nuestra parte ya que de manera mental vamos analizando y repitiendo valores para que la máquina entienda y lo solucione. No hay que ver el álgebra como sólo literales, sumas o factorizaciones; también hay que verlo como un ejercicio mental, pues abre la mente, encuadra el pensamiento y ejercita el cerebro para poder resolver problemas de cualquier índole en nuestra vida cotidiana; haremos algoritmos con pasos a seguir y analizaremos a detalle cada situación, ya que si uno aprende bien el álgebra también aprenderá a hablar con las palabras correctas, haciendo de lo complicado algo más simple. No sólo es aprender por aprender, podemos retomar todo este conocimiento y manejarlo de manera inteligente, aquí es donde nos percataremos de su gran importancia.
ALGEBRA La disciplina que se conoce como álgebra elemental, en este marco, sirve para llevar a cabo operaciones aritméticas (suma, resta, multiplicación, división) pero que, a diferencia de la aritmética, se vale de símbolos (a, x, y) en lugar de utilizar números. Es la rama de la matemática que estudia la
58
combinación de elementos de estructuras abstractas acorde a ciertas reglas. Originalmente esos elementos podían ser interpretados como números o cantidades, por lo que el álgebra en cierto modo originalmente fue una generalización y extensión de la aritmética. En el álgebra moderna existen áreas del álgebra que en modo alguno pueden considerarse extensiones de la aritmética (álgebra abstracta, álgebra homológica, álgebra exterior, etc.). Por razones históricas, también puede indicar una relación con las soluciones de ecuaciones polinomiales, números algebraicos, extensión algebraica o expresión algebraica. Conviene distinguir entre: • Álgebra elemental es la parte del álgebra que se enseña generalmente en los cursos de matemáticas. • Álgebra abstracta es el nombre dado al estudio de las «estructuras algebraicas» propiamente. El álgebra usualmente se basa en estudiar las combinaciones de cadenas finitas de signos y, mientras que análisis matemático requiere estudiar límites y sucesiones de una cantidad infinita de elementos. Algebra Elemental El álgebra elemental incluye los conceptos básicos de álgebra, que es una de las ramas principales de las matemáticas. Mientras que en la aritmética solo ocurren los números y sus operaciones aritméticas elementales (como +, –, ×, ÷), en álgebra también se utilizan símbolos para denotar números. Estos se denominan variables, incógnita, coeficientes, índices o raíz, según el caso. El término álgebra elemental se usa para distinguir este campo del álgebra abstracta, la parte de la matemática que estudia las estructuras algebraicas. Algebra Abstracta El álgebra abstracta, ocasionalmente llamada álgebra moderna, es la parte de la matemática que estudia las estructuras algebraicas como las de grupo, anillo, cuerpo (a veces llamado campo) o espacio vectorial. Muchas de estas estructuras fueron definidas formalmente en el siglo XIX, y, de hecho, el estudio del álgebra abstracta fue motivado por la necesidad de más exactitud en las definiciones matemáticas. En álgebra abstracta, los elementos combinados por diversas operaciones generalmente no son interpretables como números, razón por la cual el álgebra abstracta no puede ser considerada una simple extensión de la aritmética. El estudio del álgebra abstracta ha permitido observar con claridad lo intrínseco de las afirmaciones lógicas en las que se basan todas las matemáticas y las ciencias naturales, y se usa hoy en día prácticamente en todas las ramas de la matemática. Además, a lo largo de la historia, los algebristas descubrieron que estructuras lógicas aparentemente diferentes muy a menudo pueden caracterizarse de la misma forma con un pequeño conjunto de axiomas. El término álgebra abstracta se usa para distinguir este campo del álgebra elemental o del álgebra de la escuela secundaria que muestra las reglas correctas para manipular fórmulas y expresiones algebraicas que conciernen a los números reales y números complejos. El álgebra abstracta fue conocida durante la primera mitad del siglo XX como álgebra moderna". Polinomios Algebraicos Dentro de los monomios y los polinomios vamos a ver cuáles son semejantes y el grado que tienen, entre otras cosas. También veremos las operaciones con polinomios: suma, resta, multiplicación, división y también las propiedades de la suma y de la multiplicación.
59
Es una expresión algebraica constituida por una suma finita de productos entre variables (valores no determinados o desconocidos) y constantes (números fijos llamados coeficientes), o bien una sola variable. Las variables pueden tener exponentes de valores definidos naturales incluido el cero y cuyo valor máximo se conocerá como grado del polinomio. Es frecuente el término polinómico (ocasionalmente también el anglicismo polinomial), como adjetivo, para designar cantidades que se pueden expresar como polinomios de algún parámetro, como por ejemplo: tiempo polinómico, etc. Los polinomios son objetos muy utilizados en matemáticas y en ciencia. En la práctica, son utilizados en cálculo y análisis matemático para aproximar cualquier función derivable; las ecuaciones polinómicas y las funciones polinómicas tienen aplicaciones en una gran variedad de problemas, desde la matemática elemental y el álgebra hasta áreas como la física, química, economía y las ciencias sociales. En álgebra abstracta, los polinomios son utilizados para construir los anillos de polinomios, un concepto central en teoría de números algebraicos y geometría algebraica. Operaciones Básicas Una expresión algebraica es una combinación de letras, números y signos de operaciones. Las letras suelen representar cantidades desconocidas y se denominan variables o incógnitas. Las expresiones algebraicas nos permiten traducir al lenguaje matemático expresiones del lenguaje habitual. • Monomio Monomio es una expresión algebraica en la que se utilizan incógnitas de variables literales que constan de un solo término (si hubiera una suma o una resta sería un binomio), un número llamado coeficiente. Las únicas operaciones que aparecen entre las letras son el producto y la potencia de exponentes naturales. Se denomina polinomio a la suma de varios monomios. Un monomio es una clase de polinomio, que posee un único término. •
Binomio
En álgebra, un binomio consta únicamente de una suma o resta de dos monomios. Todo binomio es un polinomio, pero las expresiones algebraicas pueden contar con más de dos términos por lo cual existen polinomios que no son binomios, de tres, cuatro o más términos. Para averiguar las potencias de un binomio se recurre a la llamada fórmula del binomio de Newton, que consiste en un algoritmo donde se emplean una sucesión de números combinatorios o coeficientes binomiales. • Trinomio Expresión algebraica formada por la suma o la diferencia de tres términos o monomios. En álgebra, un trinomio es una expresión algebraica de únicamente tres monomios, sumados o restados.
ECUACIONES Una ecuación es una igualdad entre dos expresiones algebraicas en las que aparece una (o más) incógnita. Normalmente, la incógnita es x. La incógnita x representa al número (o números), si existe, que hace que la igualdad sea verdadera. Este número desconocido es la solución de la ecuación. Una ecuación es una igualdad matemática entre dos expresiones, denominadas miembros y separadas por el signo igual, en las que aparecen elementos conocidos y datos desconocidos o incógnitas, relacionados mediante operaciones matemáticas. Los valores conocidos pueden ser números, coeficientes o constantes; también variables o incluso objetos complejos como funciones o vectores, los elementos desconocidos pueden ser establecidos mediante otras
60
ecuaciones de un sistema, o algún otro procedimiento de resolución de ecuaciones. Las incógnitas, representadas generalmente por letras, constituyen los valores que se pretende hallar (en ecuaciones complejas en lugar de valores numéricos podría tratarse de elementos de un cierto conjunto abstracto, como sucede en las ecuaciones diferenciales).
La variable X representa la incógnita, mientras que el coeficiente 6 y los números 2, 7, 3 y 8 son constantes conocidas. La igualdad planteada por una ecuación será cierta o falsa dependiendo de los valores numéricos que tomen las incógnitas; se puede afirmar entonces que una ecuación es una igualdad condicional, en la que solo ciertos valores de las variables (incógnitas) la hacen cierta. En el caso de que todo valor posible de la incógnita haga cumplir la igualdad, la expresión se llama identidad. Si en lugar de una igualdad se trata de una desigualdad entre dos expresiones matemáticas, se denominará inecuación. El símbolo “=”, que aparece en cada ecuación, fue inventado en 1557 por Robert Recordé, que consideró que no había nada más igual que dos líneas rectas paralelas de la misma longitud.
Ecuaciones de Primer Grado Una ecuación de primer grado o lineal o ecuación lineal es una igualdad que involucra una o más variables a la primera potencia y no contiene productos entre las variables, es decir, una ecuación que involucra solamente sumas y restas de una variable a la primera potencia.
Ecuaciones de Segundo Grado Ecuación de segundo grado. donde x es la variable, y a, b y c constantes; a es el coeficiente cuadrático (distinto de 0), b el coeficiente lineal y c es el término independiente. Este polinomio se puede interpretar mediante la gráfica de una función cuadrática, es decir, por una parábola.
61
FUNCIONES En matemática, se dice que una magnitud es función de otra si el valor de la primera depende del valor de la segunda. Por ejemplo el área A de un círculo es función de su radio r (el valor del área es proporcional al cuadrado del radio, A = π·r2). Del mismo modo, la duración T de un viaje en tren entre dos ciudades separadas por una distancia d de 150 km depende de la velocidad v a la que se desplace el tren (la duración es inversamente proporcional a la velocidad, d / v). A la primera magnitud (el área, la duración) se la denomina variable dependiente, y la magnitud de la que depende (el radio y la velocidad) es la variable independiente. En análisis matemático, el concepto general de función, aplicación o mapeo se refiere a una regla que asigna a cada elemento de un primer conjunto un único elemento de un segundo conjunto. Las funciones son relaciones entre los elementos de dos conjuntos. Por ejemplo, cada número entero posee un único cuadrado, que resulta ser un número natural.
Esta es una función entre el conjunto de las palabras del español y el conjunto de las letras del alfabeto español. Tipos de Funciones A continuación, mostramos algunos de los principales tipos de funciones matemáticas, clasificadas en diferentes grupos según su comportamiento y el tipo de relación que se establece entre las variables X e Y.
Funciones Inyectivas Reciben el nombre de funciones inyectivas aquel tipo de relación matemática entre dominio y codominio en el que cada uno de los valores del codominio se vincula únicamente a un valor del dominio. Es decir, x solo va a poder tener un único valor para un valor y determinado, o bien puede no tener valor (es decir un valor concreto de x puede no tener relación con y).
62
Funciones Suryectivas Las funciones suryectivas son todas aquellas en las que todos y cada uno de los elementos o valores del codominio (y) están relacionados con al menos uno del dominio (x), aunque pueden ser más. No tiene por qué ser necesariamente inyectiva (al poder asociarse varios valores de x a un mismo y).
Funciones Biyectivas Se denomina como tal al tipo de función en que se dan propiedades tanto inyectivas como suryectivas. Es decir, hay un único valor de x para cada y, y todos los valores del dominio se corresponden con uno del codominio.
Funciones No Inyectivas y No Suryectivas Este tipo de funciones indican que existen múltiples valores del dominio para un codominio concreto (es decir diferentes valores de x nos van a dar una misma y) a la par que otros valores de y no se encuentran vinculados a ningún valor de x. Función Lineal En geometría analítica y álgebra elemental, una función lineal es una función polinómica de primer grado, es decir, una función cuya representación en el plano cartesiano es una línea recta.
Función Afín Una función afín es una función polinómica de primer grado que no pasa por el origen de coordenadas, o sea, por el punto (0,0). Es una relación que asocia a cada elemento del conjunto de partida con un único elemento del conjunto de llegada. Nota: para que una relación sea función debe cumplirse que todos los elementos del conjunto de partida tengan una imagen y además estos deben tener una sola imagen. A las funciones suelen representarse por letras minúsculas tales como: f, g, h entre otras.
63
Función Par Una función par es una función que satisface la relación f (x) =f (-x) y si x y -x están en el dominio de la función. Desde un punto de vista geométrico, la gráfica de una función par es simétrica con respecto al eje y, lo que quiere decir que su gráfica no se altera luego de una reflexión sobre el eje y.
Función Impar Una función impar es cualquier función que satisface la relación: f (-x) = -f (x) para todo x en el dominio de f. Desde un punto de vista geométrico, una función impar posee una simetría rotacional con respecto al origen de coordenadas, lo que quiere decir que su gráfica no se altera luego de una rotación de 180 grados alrededor del origen.
Función Polinómica Una función polinómica f es una función cuya expresión es un polinomio tal como:
El dominio de las funciones polinómicas son todos los números reales. Las funciones polinómicas son continuas en todo su dominio.
64
Función Constante Una función f es constante si la variable dependiente y toma el mismo valor a para cualquier elemento del dominio (variable independiente x).
En términos matemáticos, la función f es constante si para cualquier par de puntos x1y x2del dominio tales que x1<x2, se cumple que f(x1) = f(x2).
La gráfica de una función constante es una recta paralela al eje de abscisas X. Función Exponencial Una función exponencial es aquella que la variable independiente x aparece en el exponente y tiene de base una constante a. Su expresión es: siendo a un real positivo, a > 0, y diferente de 1, a ≠ 1.
También se suele denotar la función como exp (x). Función Logarítmica Una función logarítmica está formada por un logaritmo de base a, y es de la forma: siendo a un real positivo, a > 0, y diferente de 1, a ≠ 1.
65
La función logarítmica es la inversa de la función exponencial. Funciones trigonométricas las funciones trigonométricas f son aquellas que están asociadas a una razón trigonométrica.
Las razones trigonométricas de un ángulo α son las obtenidas entre los tres lados de un triángulo rectángulo. Es decir, las comparaciones por su cociente de sus tres lados a, b y c. Funciones Definidas a Trozos Las funciones definidas a trozos (o función por partes) si la función tiene distintas expresiones o fórmulas dependiendo del intervalo (o trozo) en el que se encuentra la variable independiente (x). Por ejemplo:
La imagen de un valor x se calcula según en que intervalo se encuentra x. Por ejemplo, el 0 se encuentra en el intervalo (-∞,1), por lo que su imagen es f(0)=0. El valor 3 está en el intervalo [1,4], entonces su imagen es f(3)=2. Función Derivada de una Función La función derivada f’ de una función f que sea derivable en un intervalo I es una nueva función que hace corresponder para cada valor de x ∈ I el valor de la derivada de f en ese punto. En otras palabras, la función derivada f’ recoge todos los valores de las derivadas de f existentes en todos los puntos de su dominio.
66
Puede ocurrir que f no tenga derivada en todo su dominio. En ese caso, el dominio de la función derivada f’ es más pequeño que el dominio de f. La expresión de la función derivada respecto a la función inicial es el siguiente límite:
La función derivada f’ de una función f, derivable en I, cuando el incremento de la variable x ∈ I tiende a cero, es el cociente entre el incremento de la función inicial y el incremento de la variable independiente x. Función de Valor Absoluto La función valor absoluto devuelve el valor numérico del segundo término, pero afectado siempre del signo positivo. Tiene sentido para caracterizar distancias, longitudes. La expresión más simple de una función valor absoluto es: f(x) = |x| y la gráfica son dos rectas simétricas en el primer y segundo cuadrante, con pendientes 1 y -1 (forma de “V”) que se cortan en el origen (0,0).
SECCIONES GEOMÉTRICAS En geometría descriptiva, la sección de un sólido es la intersección de un plano con dicho sólido. Existen dos tipos especiales de sección; la sección longitudinal, cuando el plano de corte α es paralelo al eje principal del sólido K, y la sección transversal cuando el plano α es perpendicular al eje del sólido K. Las secciones suministran información de todos los elementos que aparecen ocultos en la planta y alzados principales, siendo de gran utilidad en las representaciones gráficas de elementos arquitectónicos y de ingeniería. Formando parte, casi imprescindible, de los planos de todo proyecto técnico. Bases • • • • •
Sección cónica Parábola Elipse Hipérbola Circunferencia
• Sección Cónica Se denomina sección cónica (o simplemente cónica) a todas las curvas resultantes de las diferentes intersecciones entre un cono y un plano; si dicho plano no pasa por el vértice, se obtienen las cónicas propiamente dichas. Se clasifican en cuatro tipos: elipse, parábola, hipérbola y circunferencia.
67
•
Parábola En matemáticas, una parábola es la sección cónica de excentricidad igual a 1, resultante de cortar un cono recto con un plano cuyo ángulo de inclinación respecto al eje de revolución del cono sea igual al presentado por su generatriz. El plano resultará por lo tanto paralelo a dicha recta. Se define también como el lugar geométrico de los puntos de un plano que equidistan de una recta llamada directriz y un punto interior a la parábola llamado foco. En geometría proyectiva, la parábola se define como la curva envolvente de las rectas que unen pares de puntos homólogos en una proyectividad semejante o semejanza.
• Elipse Una elipse es una curva cerrada con dos ejes de simetría que resulta al cortar la superficie de un cono por un plano oblicuo al eje de simetría con ángulo mayor que el de la generatriz respecto del eje de revolución. Una elipse que gira alrededor de su eje menor genera un esferoide achatado, mientras que una elipse que gira alrededor de su eje principal genera un esferoide alargado. La elipse es también la imagen afín de una circunferencia. • Hiperbola Una hipérbola es una curva abierta de dos ramas, obtenida cortando un cono recto mediante un plano no necesariamente paralelo al eje de simetría, y con ángulo menor que el de la generatriz respecto del eje de revolución. En geometría analítica, una hipérbola es el lugar geométrico de los puntos de un plano, tales que el valor absoluto de la diferencia de sus distancias a dos puntos fijos, llamados focos, es igual a la distancia entre los vértices, la cual es una constante positiva. • Circunferencia La circunferencia es una curva plana y cerrada tal que todos sus puntos están a igual distancia del centro. Distíngase de círculo, cuyo lugar geométrico que queda determinado por una circunferencia y la región del plano que encierra esta.
GEOMETRÍA La geometría es una rama de las matemáticas que se ocupa del estudio de las propiedades de las figuras en el plano o el espacio, incluyendo: puntos, rectas, planos, politopos (que incluyen paralelas, perpendiculares, curvas, superficies, polígonos, poliedros, etc.). Es la base teórica de la geometría descriptiva o del dibujo técnico. También da fundamento a instrumentos como el compás, el teodolito, el pantógrafo o el sistema de posicionamiento global (en especial cuando se la considera en combinación con el análisis matemático y sobre todo con las ecuaciones diferenciales). Sus orígenes se remontan a la solución de problemas concretos relativos a medidas. Tiene su aplicación práctica en física aplicada, mecánica, arquitectura, geografía, cartografía, astronomía, náutica, topografía, balística etc., y es útil en la preparación de diseños e incluso en la fabricación de artesanía.
68
Su palabra proviene de los vocablos griegos geō (tierra) y metrein (medir). La geometría es la parte de las matemáticas que trata de las propiedades y medida del espacio o del plano, fundamentalmente se preocupa de problemas métricos como el cálculo del área y diámetro de figuras planas y de la superficie y volumen de cuerpos sólidos o geométricos. El cuerpo geométrico es un cuerpo real considerado tan solo desde el punto de vista de su extensión espacial. La idea de figura es aún más general, pues se abstrae también de su extensión espacial. Así, el espacio tiene tres dimensiones, una superficie solo dos, una recta una y un punto carece de dimensiones. La geometría se ocupa de la forma de un cuerpo independientemente de las demás propiedades del mismo. Importancia de la geometría El aprendizaje de la geometría en la escuela es de suma importancia ya que todo nuestro entorno está lleno de formas geométricas; en la vida cotidiana es indispensable el conocimiento geométrico básico para orientarse adecuadamente en el espacio, haciendo estimaciones sobre formas y distancias. Seguramente muchos habremos oído de la importancia que tienen las Matemáticas en la vida cotidiana, sea como un instrumento que nos ayuda con la Contabilización y Operaciones que realizamos en forma prácticamente automática (como lo es en el momento en que nos dedicamos a hacer Compras y Ventas, controlando que se nos del dinero del cambio o pagando el precio exacto por los productos) o bien nos ayuda a ejercitar nuestra inteligencia a través de operaciones que requieren de lógica, razonamiento y deducción.
FIGURAS GEOMETRICAS Las figuras geométricas son el objeto de estudio de la geometría, rama de las matemáticas que se dedica a analizar las propiedades y medidas de las figuras en el espacio o en el plano. Una figura geométrica es un conjunto no vacío cuyos elementos son puntos. Para definir y clasificar las figuras geométricas, comúnmente se debe recurrir a conceptos fundamentales, tales como el de punto, recta, plano y espacio, que en sí mismas también se consideran figuras geométricas. A partir de ellas es posible obtener todas las figuras geométricas, mediante transformaciones y desplazamientos de sus componentes. • • • •
Punto Recta Semirrecta Segmento
• • • •
Curva Plano Polígono Triangulo
• • •
Cuadrilátero Elipse Circunferen cia
• •
Parábola Hipérbola
CUERPOS GEOMETRICOS Un cuerpo geométrico es una figura geométrica tridimensional, es decir, que posee largo, ancho y alto, que ocupa un lugar en el espacio y que por lo tanto posee un volumen. Los cuerpos geométricos se pueden clasificar a su vez en poliedros y cuerpos geométricos redondos o no poliedros.
69
Poliedros Los poliedros son cuerpos geométricos del espacio formado por polígonos, llamados caras, y unidos de tal modo que encierran una porción del espacio. Entre los más conocidos se encuentran los siguientes: o Prismas o Sólidos platónicos o Sólidos arquimedianos o Pirámides •
• Redondos Los cuerpos redondos son aquellos que tienen, al menos, una de sus caras curvada. Entre los más conocidos se encuentran: o Cilindro o Cono o Esfera o Toro
MEDIDAS La teoría de la medida es una rama del análisis y de la geometría que investiga las medidas, las funciones medibles y la integración. Es de importancia central en geometría, probabilidad y en estadística. En matemáticas, una medida de un conjunto es una forma sistemática y rigurosa de asignar un número a cada subconjunto apropiado de dicho conjunto. Intuitivamente, dicho número puede ser interpretado como una cierta medida del tamaño de dicho subconjunto. En este sentido, la medida es una generalización de los conceptos de "longitud”, “área", y "volumen". Dicha generalización se extiende tanto a mayores dimensiones (en el sentido de "hipervolúmenes") como a conceptos más abstractos, puesto que el conjunto sobre el que se aplica una medida no tiene por qué ser un subconjunto de un espacio geométrico. En general, si uno pretende asociar un tamaño consistente a cada subconjunto de un conjunto dado y al mismo tiempo satisfacer el resto de axiomas de una medida, las únicas medidas que uno suele poder definir son ejemplos triviales como la medida de conteo. Este problema fue resuelto definiendo la medida como aplicable a unas familias reducidas de subconjuntos, usualmente llamados los conjuntos medibles.
70
• Medida de Jordan Los conjuntos elementales son muy restrictivos, pues solo pueden construirse con base en intervalos. La medida de Jordan es la primera generalización del concepto de medida. La idea general es la de demarcar el conjunto E con otros dos conjuntos, uno que lo inscribe y otro que lo circunscribe. Dichos dos conjuntos pueden ser expresados como conjuntos elementales, y en el límite, conforme las cajas que conforman dichos conjuntos aumentan en número e inscriben al conjunto E mejor, las medidas elementales de dichos conjuntos acabarán por converger a la medida (de Jordan) de E. • Medida de Lebesgue La medida de Lebesgue es una generalización de la medida de Jordan que extiende el conjunto de conjuntos medibles (y, por tanto, integrables). El problema con la medida de Jordan está relacionado con la definición de medida externa de Jordan.
PROPIEDAD Y FUNCIONES Una función es una relación entre variables que debe cumplir con ciertas condiciones de unicidad. Por ejemplo, si trabajamos con dos variables: X, Y Una función es la relación en la que a cada valor de X” le corresponde un único valor de la variable “Y”
En cualquier función, una cantidad es dependiente de la otra. En el ejemplo del carro, el número de llantas depende del número de carros en el estacionamiento. Algebraicamente, podemos representar esta relación con una ecuación. llantas = 4 • carros El número 4 nos describe cómo es la relación entre el número de carros y el número de llantas. Todas las funciones proporcionales funcionan de la misma manera. Llamamos a esa proporción constante de variación, o constante de proporcionalidad. Es una constante porque este número no cambia dentro de la función. Como la entrada y la salida están ligadas por una constante, cambios en la variable independiente causan un cambio proporcional en la variable dependiente en una forma constante. Esta relación proporcional les da su nombre a las funciones proporcionales.
71
Podemos utilizar la ecuación de los carros y las llantas como base para escribir una ecuación algebraica general que funcionará para todas las funciones proporcionales. En nuestro ejemplo, las llantas son la salida, 4 es la constante, y los carros son la entrada. Pongamos estos términos genéricos en la ecuación. Obtenemos salida = constante • entrada. Ésa es la fórmula para todas las funciones proporcionales. llantas = 4 • carros salida = constante • entrada Cambiémosla de una fórmula verbal a una simbólica será más rápido de escribir. La salida de una función es también conocida como la variable dependiente y es generalmente representada simbólicamente como y. La entrada se llama variable independiente, representada por el símbolo x. Representemos la constante con la letra k. Ahora pondremos esos símbolos en la ecuación. llantas = 4 • carros salida = constante • entrada y = kx
NOCIONES DE PROBABILIDAD La noción de probabilidad mide la frecuencia y posibilidad con la que puede suceder un resultado ya sea en un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La probabilidad es una medida de la certidumbre asociada a un suceso o evento futuro y suele expresarse como un número entre 0 y 1 (o entre 0 % y 100 %). Una forma tradicional de estimar algunas probabilidades sería obtener la frecuencia de un acontecimiento determinado mediante la realización de experimentos aleatorios, de los que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. Un suceso puede ser improbable (con probabilidad cercana a 0), probable (probabilidad intermedia) o seguro (con probabilidad uno). La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, las ciencias, la administración, contaduría, economía y la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos, por lo tanto es la rama de las matemáticas que estudia, mide o determina los experimentos o fenómenos aleatorios. •
FACTORIAL: La factorial está relacionada con el cálculo del número de maneras en las que un conjunto de cosas puede arreglarse en orden. El número de maneras en el que las n cosas pueden arreglarse en orden es:
•
PERMUTACIONES: En muchos casos se necesita saber el número de formas en las que un subconjunto de un grupo completo de cosas puede arreglarse en orden. Cada posible arreglo es llamado permutación. Si un orden es suficiente para construir otro subconjunto, entonces se trata de permutaciones. El número de maneras para arreglar r objetos seleccionados a la vez de n objetos en orden, es decir, el número de permutaciones de n elementos tomados r a la vez es:
•
COMBINACIONES: En muchas situaciones no interesa el orden de los resultados, sino sólo el número de maneras en las que r objetos pueden seleccionarse a partir de n cosas, sin consideración de orden. Si dos subconjuntos se consideran iguales debido a que simplemente se han reordenado los mismos elementos, entonces se trata de combinaciones. El número de
72
maneras para arreglar r objetos seleccionados a la vez de n objetos, sin considerar el orden, es decir, el número de combinaciones de n elementos tomados r a la vez es:
Análisis y Representación de Datos Los datos de la investigación y el respectivo análisis, deben preferentemente ser organizados en función a las hipótesis para poder más fácilmente ofrecer resultados que la acepten o rechacen, a partir de ello los resultados se presentan en cuadros y gráficos. Si se considera que los cuadros y gráficos son numerosos, el investigador puede consignar parte de estos en la sección de anexos, presentando en el cuerpo de informe sólo los más importantes. Con la tabulación se dispone de la suma o total de los datos, pero esto no basta. Existe la necesidad desordenarlos y presentarlos de manera, sistemática para facilitar su lectura y análisis. Las formas de presentar los datos arrojados por la investigación estadística se desarrollan con el firme propósito de esclarecer la forma de lectura de los mismos. es recomendable utilizar #cada vez que sea posible$ más de un método, siendo el mixto el método por excelencia. La forma de presentación de datos puede ser escrita, semi tabular, tabular, gráfica y mixta. Patrones Un patrón es un tipo de tema de sucesos u objetos recurrentes, como por ejemplo grecas, a veces referidos como ornamentos de un conjunto de objetos. Más abstractamente, podría definirse patrón como aquella serie de variables constantes, identificables dentro de un conjunto mayor de datos. Estos elementos se repiten de una manera predecible. Puede ser una plantilla o modelo que puede usarse para generar objetos o partes de ellos, especialmente si los objetos que se crean tienen lo suficiente en común para que se infiera la estructura del patrón fundamental, en cuyo caso, se dice que los objetos exhiben un único patrón. Los patrones más básicos, llamados teselaciones, se basan en la repetición y la periodicidad. Una única plantilla, azulejo o célula, se combina mediante duplicados sin cambios o modificaciones. Por ejemplo, osciladores armónicos simples producen repetidos patrones de movimiento. Otros patrones, como la teselación de Penrose y los patrones indios Pongal o Kolam, usan simetría, que es una forma de repetición finita, en lugar de una traslación, que puede repetirse hasta el infinito. Los patrones fractales también utilizan aumentos o escalas que producen un efecto conocido como autosimilaridad o invariancia de escala. Algunas plantas, como los helechos, incluso generan un patrón usando una transformación afín que combina la traslación, con el escalado, la rotación y la reflexión. La concordancia de patrones es el acto de comprobar la presencia de los componentes de un patrón, mientras que la detección de patrones subyacentes se conoce como el reconocimiento de patrones. La cuestión de cómo surge un patrón es llevado a cabo a través del trabajo científico de la formación de patrones. El reconocimiento de patrones es tanto más complejo cuando las plantillas se utilizan para generar variantes. La informática, la etología y la psicología son ámbitos donde se estudian los patrones.
73
Progresiones Toda secuencia ordenada de números reales recibe el nombre de sucesión. Dentro del grupo de sucesiones existen dos particularmente interesantes por el principio de regularidad que permite sistematizar la definición de sus propiedades: las progresiones aritméticas y geométricas. • Progresiones Aritméticas Una progresión aritmética es una clase de sucesión de números reales en la que cada término se obtiene sumando al anterior una cantidad fija predeterminada denominada diferencia. Llamando d a esta diferencia, el término general de la progresión an , que ocupa el número de orden n en la misma, se puede determinar a partir del valor del primero de los términos, a 1. an = a1 + (n - 1) d.
Las sucesiones (por ejemplo, las progresiones aritméticas y geométricas) pueden verse como correspondencias unívocas entre el conjunto de los números naturales N y el de los reales R. Progresiones Geométricas Otra forma común de sucesión es la constituida por las llamadas progresiones geométricas. Estas progresiones se definen como aquellas en las que cada término se obtiene multiplicando el anterior por un valor fijo predefinido que se conoce como razón. El término general an de una progresión geométrica puede escribirse como: an = a1 × rn-1
74
Física Fundamental
75
Física Fundamental CIENCIAS AUXILIARES DE LA FÍSICA Algunas de las ciencias auxiliares de la física son las matemáticas, química, astronomía, biología, estadística o ecología. La física es una ciencia natural, teórica y experimental, que estudia el tiempo, el espacio, la materia y la energía, a la vez que estudia cómo estos cuatro elementos interactúan entre sí. A pesar de esto, las relaciones entre la física y las otras ciencias se mantuvieron a través del tiempo. De hecho, la física es una de las ciencias más fundamentales y más necesarias para otras disciplinas. Además, es la base para la explicación de los fenómenos estudiados por otras áreas del saber. Así como la física es fundamental para otras ciencias, está también requiere de otras áreas del saber para cumplir con sus objetivos. Estas constituyen lo que es conocido como “ciencias auxiliares”. Existen diversas ciencias que de una forma u otra contribuyen con la física. Las más resaltantes son las matemáticas, la química, la astronomía, la biología, la estadística, la ecología, la geología y la meteorología. 1. Las Matemáticas Las matemáticas y la física están estrechamente relacionadas. Mientras que las matemáticas estudian cantidades, la materia, sus formas y propiedades a través del uso de símbolos y números, la física se encarga del estudio de las propiedades de la materia, de los cambios físicos que se producen en esta, y de los fenómenos físicos.
2. La Química La química es una de las ciencias que más se relaciona con la física. Un ejemplo de esto es que los cambios químicos suelen ser acompañados de cambios físicos. La física nuclear es aquella que se encarga del estudio de reacciones en cadena, la cual se da cuando se produce un estallido en el núcleo de un átomo radioactivo a causa de un neutrón. Por su parte, la física atómica se encarga del estudio de la estructura del átomo, así como del estudio de las propiedades y funciones de este. La química es una ciencia auxiliar en dos ramas de la física: la física nuclear y la física atómica. 3. La Astronomía La astronomía es una ciencia previa a la física. De hecho, la astronomía generó el nacimiento de la física al estudiar los movimientos de las estrellas y de los planetas, dos elementos que eran el centro de interés de la física antigua. Además, la astronomía contribuye en la rama de la física denominada “física óptica”, la cual estudia los fenómenos relacionados con la luz, la visión, el espectro electromagnético (frecuencias de ondas de luz que permiten el estudio de las estrellas), entre otros.
76
4. La Biología La biología es otra de las ciencias con las que interactúa la física. Durante el siglo XIX, estas dos ciencias trabajaron de la mano. De este trabajo en conjunto nació la ley de la conservación de la energía. Esta ley fue demostrada por Mayer, quien estudió la cantidad de calor absorbida y expulsada por un ser vivo. Asimismo, a partir de la cooperación de estas dos ciencias, se han producido avances como la radioterapia, la quimioterapia y los rayos X. 5. La Estadística La estadística es la ciencia que se basa en recopilar y agrupar datos numéricos sobre diversas áreas de interés. En este sentido, la física aprovecha los estudios estadísticos al momento de recolectar datos sobre fenómenos naturales físicos. Además, la estadística es la base para el desarrollo de investigaciones científicas, tipo de investigación en la que se encuentran enmarcados todos los trabajos en el área de la física. 6. La Ecología La ecología estudia a los seres vivos y su interacción con el ambiente. En dicho ambiente, suceden cambios físicos (como los cambios en las condiciones atmosféricas, cambios en la geología). En este sentido, el estudio de los hábitats y sus cambios desde el punto de vista de la ecología ofrece otra perspectiva que complementa el estudio físico.
7. La Geología La geología es la ciencia que se encarga del estudio de los componentes de la corteza del planeta Tierra y de cómo esta corteza ha cambiado con el paso del tiempo. Esta ciencia proporciona a la física testimonios evidentes de los cambios físicos que se han producido a lo largo de los años. Por el ejemplo: la división de Pangea (el súper continente) en los siete continentes que existen en la actualidad. 8. La Meteorología La meteorología es la ciencia que se encarga de estudiar los fenómenos atmosféricos, con el objeto de establecer predicciones sobre el clima. Esta ciencia contribuye con la rama de la física denominada “física de la atmósfera”, que estudia todo lo relacionado al tiempo atmosférico y sus fenómenos.
77
LAS LEYES DE NEWTON Las leyes de Newton, también conocidas como leyes del movimiento de Newton, son tres principios a partir de los cuales se explican una gran parte de los problemas planteados en mecánica clásica, en particular aquellos relativos al movimiento de los cuerpos, que revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el universo. En concreto, la relevancia de estas leyes radica en dos aspectos: por un lado, constituyen, junto con la transformación de Galileo, la base de la mecánica clásica, y por otro, al combinar estas leyes con la ley de la gravitación universal, se pueden deducir y explicar las leyes de Kepler sobre el movimiento planetario. Así, las leyes de Newton permiten explicar, por ejemplo, tanto el movimiento de los astros como los movimientos de los proyectiles artificiales creados por el ser humano y toda la mecánica de funcionamiento de las máquinas. Su formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiae naturalis principia Mathica. La dinámica de Newton, también llamada dinámica clásica, solo se cumple en los sistemas de referencia inerciales (que se mueven a velocidad constante; la Tierra, aunque gire y rote, se trata como tal a efectos de muchos experimentos prácticos). Solo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de la luz; cuando la velocidad del cuerpo se va aproximando a los 300 000 km/s (lo que ocurriría en los sistemas de referencia no-inerciales) aparecen una serie de fenómenos denominados efectos relativistas. El estudio de estos efectos (contracción de la longitud, por ejemplo) corresponde a la teoría de la relatividad especial, enunciada por Albert Einstein en 1905. Primera ley de Newton o ley de inercia La primera ley del movimiento rebate la idea aristotélica de que un cuerpo solo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que: Todo cuerpo continúa en su estado de reposo o movimiento uniforme en línea recta, no muy lejos de las fuerzas impresas a cambiar su posición. Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuya resultante no sea nula. Newton toma en consideración, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como tal a la fricción. En consecuencia, un cuerpo que se desplaza con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta. Newton retomó la ley de la inercia de Galileo: la tendencia de un objeto en movimiento a continuar moviéndose en una línea recta, a menos que sufra la influencia de algo que le desvíe de su camino. Newton supuso que, si la Luna no salía disparada en línea recta, según una línea tangencial a su órbita, se debía a la presencia de otra fuerza que la empujaba en dirección a la Tierra, y que desviaba constantemente su camino convirtiéndolo en un círculo. Newton llamó a esta fuerza gravedad y creyó que actuaba a distancia. No hay nada que conecte físicamente la Tierra y la Luna y sin embargo la Tierra está constantemente tirando de la Luna hacia nosotros. Newton se sirvió de la tercera ley de Kepler y dedujo matemáticamente la naturaleza de la fuerza de la gravedad. Demostró que la misma fuerza que hacía caer una manzana sobre la Tierra mantenía a la Luna en su órbita. La primera ley de Newton establece la equivalencia entre el estado de reposo y de movimiento rectilíneo uniforme. Supongamos un sistema de referencia S y otro S´ que se desplaza respecto del
78
primero a una velocidad constante. Si sobre una partícula en reposo en el sistema S´ no actúa una fuerza neta, su estado de movimiento no cambiará y permanecerá en reposo respecto del sistema S´ y con movimiento rectilíneo uniforme respecto del sistema S. La primera ley de Newton se satisface en ambos sistemas de referencia. El enunciado fundamental que podemos extraer de la ley de Newton es que:
Esta expresión es una ecuación vectorial, ya que las fuerzas llevan dirección y sentido. Por otra parte, cabe destacar que la variación con la que varía la velocidad corresponde a la aceleración. Sistemas de referencia inerciales La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia conocidos como sistemas de referencia inerciales, que son aquellos desde los que se observa que un cuerpo sobre el que no actúa ninguna fuerza neta se mueve con velocidad constante. Un sistema de referencia con aceleración (y la aceleración normal de un sistema rotatorio se incluye en esta definición) no es un sistema inercial, y la observación de una partícula en reposo en el propio sistema no satisfará las leyes de Newton (puesto que se observará aceleración sin la presencia de fuerza neta alguna). Se denominan sistemas de referencia no inerciales. Diferencia de planteamiento de un problema debido a la posibilidad de observarlo desde dos puntos de vista: el punto de vista de un observador externo (inercial) o desde un observador interno Observador inercial: Desde su punto de vista el bloque se mueve en círculo con velocidad v y está acelerado hacia el centro de la plataforma con una aceleración centrípeta Esta aceleración es consecuencia de la fuerza ejercida por la tensión de la cuerda. Observador no inercial: Para el observador que gira con la plataforma el objeto está en reposo, a = 0. Es decir, observa una fuerza ficticia que contrarresta la tensión para que no haya aceleración centrípeta. Esa fuerza debe ser. 𝐹𝑐 =
𝑚𝑣 2 𝑟
Este observador siente la fuerza como si fuera perfectamente real, aunque solo sea la
consecuencia de la aceleración del sistema de referencia en que se encuentra. En realidad, es imposible encontrar un sistema de referencia inercial, ya que siempre hay algún tipo de fuerzas actuando sobre los cuerpos; no obstante, siempre es posible encontrar un sistema de referencia en el que el problema que estemos estudiando se pueda tratar como si estuviésemos en un sistema inercial. En muchos casos, la Tierra es una buena aproximación de sistema inercial, ya que a pesar de contar con una aceleración traslacional y otra rotacional, ambas son del orden de 0.01 m/s² y, en consecuencia, podemos considerar que un sistema de referencia de un observador en la superficie terrestre es un sistema de referencia inercial. Aplicación de la primera ley de Newton Se puede considerar como ejemplo ilustrativo de esta primera ley o ley de la inercia una bola atada a una cuerda, de modo que la bola gira siguiendo una trayectoria circular. Debido a la fuerza centrípeta de la cuerda (tensión), la masa sigue la trayectoria circular, pero si en algún momento la cuerda se rompiese, la bola tomaría una trayectoria rectilínea en la dirección de la velocidad que tenía la bola en el instante de rotura. Tras la rotura, la fuerza neta ejercida sobre la bola es 0, por lo que experimentará, como resultado de un estado de reposo, un movimiento rectilíneo uniforme.
79
Segunda ley de Newton o ley fundamental de la dinámica La segunda ley de Newton expresa que: El cambio de movimiento es directamente proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime. Esta ley se encarga de cuantificar el concepto de fuerza. La aceleración que adquiere un cuerpo es proporcional a la fuerza neta aplicada sobre el mismo. La constante de proporcionalidad es la masa del cuerpo (que puede ser o no ser constante). Entender la fuerza como la causa del cambio de movimiento y la proporcionalidad entre la fuerza impresa y el cambio de la velocidad de un cuerpo es la esencia de esta segunda ley. Si la masa es constante Si la masa del cuerpo es constante se puede establecer la siguiente relación, que constituye la ecuación fundamental de la dinámica: Donde m es la masa del cuerpo la cual debe ser constante para ser expresada de tal forma. La fuerza neta que actúa sobre un cuerpo, también llamada fuerza resultante, es el vector suma de todas las fuerzas que sobre él actúan. Así pues: ∑ 𝐹 = 𝑚𝑎 La aceleración que adquiere un cuerpo es proporcional a la fuerza aplicada, y la constante de proporcionalidad es la masa del cuerpo. Si actúan varias fuerzas, esta ecuación se refiere a la fuerza resultante, suma vectorial de todas ellas. Esta es una ecuación vectorial, luego se debe cumplir componente a componente. En ocasiones será útil recordar el concepto de componentes intrínsecas: si la trayectoria no es rectilínea es porque hay una aceleración normal, luego habrá también una fuerza normal (en dirección perpendicular a la trayectoria); si el módulo de la velocidad varía es porque hay una aceleración en la dirección de la velocidad (en la misma dirección de la trayectoria). La fuerza y la aceleración son vectores paralelos, pero esto no significa que el vector velocidad sea paralelo a la fuerza. Es decir, la trayectoria no tiene por qué ser tangente a la fuerza aplicada (sólo ocurre si al menos, la dirección de la velocidad es constante). Esta ecuación debe cumplirse para todos los cuerpos. Cuando analicemos un problema con varios cuerpos y diferentes fuerzas aplicadas sobre ellos, deberemos entonces tener en cuenta las fuerzas que actúan sobre cada uno de ellos y el principio de superposición de fuerzas. Aplicaremos la segunda ley de Newton para cada uno de ellos, teniendo en cuenta las interacciones mutuas y obteniendo la fuerza resultante sobre cada uno de ellos. El principio de superposición establece que si varias fuerzas actúan igual o simultáneamente sobre un cuerpo, la fuerza resultante es igual a la suma vectorial de las fuerzas que actúan independientemente sobre el cuerpo (regla del paralelogramo). La fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. Las fuerzas son causas que producen aceleraciones en los cuerpos. Por lo tanto, existe una relación causa-efecto entre la fuerza aplicada y la aceleración que este cuerpo experimenta. De esta ecuación se obtiene la unidad de medida de la fuerza en el Sistema Internacional de Unidades, el Newton:
80
Si la masa no es constante Si la masa de los cuerpos varía, como por ejemplo un cohete que va quemando combustible, no es válida la 𝐹 = 𝑚𝑎 relación y hay que hacer genérica la ley para que incluya el caso de sistemas en los que pueda variar la masa. Para ello primero hay que definir una magnitud física nueva, la cantidad de movimiento, que se representa por la letra p y que se define como el producto de la masa de un cuerpo por su velocidad, es decir:
Newton enunció su ley de una forma más general:
De esta forma se puede relacionar la fuerza con la aceleración y con la masa, sin importar que esta sea o no sea constante. Cuando la masa es constante sale de la derivada con lo que queda la expresión:
Y se obtiene la expresión clásica de la Segunda Ley de Newton:
La fuerza, por lo tanto, es un concepto matemático el cual, por definición, es igual a la derivada con respecto al tiempo del momento de una partícula dada, cuyo valor a su vez depende de su interacción con otras partículas. Por consiguiente, se puede considerar la fuerza como la expresión de una interacción. Otra consecuencia de expresar la Segunda Ley de Newton usando la cantidad de movimiento es lo que se conoce como principio de conservación de la cantidad de movimiento: si la fuerza total que actúa sobre un cuerpo es cero, la Segunda ley de Newton nos dice que:
Es decir, la derivada de la cantidad de movimiento con respecto al tiempo es cero en sus tres componentes. Esto significa que la cantidad de movimiento debe ser constante en el tiempo en módulo dirección y sentido (la derivada de un vector constante es cero). La segunda ley de Newton solo es válida en sistemas de referencia inerciales pero incluso si el sistema de referencia es no inercial, se puede utilizar la misma ecuación incluyendo las fuerzas ficticias (o fuerzas inerciales). Unidades y dimensiones de la fuerza: Unidades S.I.: NEWTON= Sistema cegesimal: dina Equivalencia: 1 N= Cantidad de movimiento o momento lineal En el lenguaje moderno la cantidad de movimiento o momento lineal de un objeto se define mediante la expresión Es decir, P = mv es una magnitud vectorial proporcional a la masa y a la velocidad del objeto. Partiendo de esta definición y aplicando la ley fundamental de la mecánica
81
de Newton, las variaciones de la cantidad de movimiento se expresan en función de la fuerza resultante y el intervalo de tiempo durante el cual se ejerce esta:
Tomando el intervalo de tiempo de t1 a t2 e integrando se obtiene
Al vector I se le denomina impulso lineal y representa una magnitud física que se manifiesta especialmente en las acciones rápidas o impactos, tales como choques, llevando módulo dirección y sentido. En este tipo de acciones conviene considerar la duración del impacto y la fuerza ejercida durante el mismo. De la expresión obtenida se deduce que el impulso lineal es igual a la variación de la cantidad de movimiento. Si la fuerza resultante es cero (es decir, si no se actúa sobre el objeto) el impulso también es cero y la cantidad de movimiento permanece constante. Llamamos a esta afirmación ley de conservación del impulso lineal, aplicada a un objeto o una partícula. Sus unidades en el Sistema Internacional son: Conservación de la cantidad de movimiento Choque elástico: permanecen constantes la cantidad de movimiento y la energía cinética. Dos partículas de masas diferentes que solo interactúan entre sí y que se mueven con velocidades constantes y distintas una hacia la otra. Tras el choque, permanece constante la cantidad de movimiento y la energía cinética.
Choque inelástico: Permanece constante la cantidad de movimiento y varía la energía cinética. Como consecuencia, los cuerpos que colisionan pueden sufrir deformaciones y aumento de su temperatura. Tras un choque totalmente inelástico, ambos cuerpos tienen la misma velocidad. La suma de sus energías cinéticas es menor que la inicial porque una parte de esta se ha transformado en energía interna; en la mayoría de los casos llega a ser disipada en forma de calor debido al calentamiento producido en el choque. En el caso ideal de un choque perfectamente inelástico entre objetos macroscópicos, estos permanecen unidos entre sí tras la colisión.
82
Aplicaciones de la segunda ley de Newton Entre las posibles aplicaciones de la Segunda Ley de Newton, se pueden destacar: • Caída libre: Es un movimiento que se observa cuando un objeto se deja caer desde una cierta altura sobre la superficie de la tierra. Para estudiar el movimiento se elige un sistema de coordenadas donde el origen del eje y está sobre esta última. En este sistema tanto la velocidad de caída como la aceleración de la gravedad tienen signo negativo. En el ejemplo representado, se supone que el objeto se deja caer desde el reposo, pero es posible que caiga desde una velocidad inicial distinta de cero. • Péndulo simple: Partícula de masa m suspendida del punto O por un hilo inextensible de longitud l y de masa despreciable. Si la partícula se desplaza a una posición θ0 (ángulo que hace el hilo con la vertical) y luego se suelta, el péndulo comienza a oscilar. El péndulo describe una trayectoria circular, un arco de una circunferencia de radio l. Las fuerzas que actúan sobre la partícula de masa m son dos, el peso y la tensión T del hilo. Si se aplica la segunda ley, en la dirección radial:
Donde an representa la aceleración normal a la trayectoria. Conocido el valor de la velocidad v en la posición angular se puede determinar la tensión T del hilo. Esta es máxima cuando el péndulo pasa por la posición de equilibrio
Donde el segundo término representa la fuerza centrífuga. Y la tensión es mínima, en los extremos de su trayectoria, cuando la velocidad es cero.
En la dirección tangencial:
Donde at representa la aceleración tangente a la trayectoria. Tercera ley de Newton o principio de acción y reacción La tercera ley de Newton establece que siempre que un objeto ejerce una fuerza sobre un segundo objeto, este ejerce una fuerza de igual magnitud y dirección, pero en sentido opuesto sobre el primero. Con frecuencia se enuncia así: a cada acción siempre se opone una reacción igual, pero de sentido contrario. En cualquier interacción hay un par de fuerzas de acción y reacción situadas en la misma dirección con igual magnitud y sentidos opuestos. La formulación original de Newton es: Con toda acción ocurre siempre una reacción igual y contraria: quiere decir que las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.
83
Esta tercera ley de Newton es completamente original (pues las dos primeras ya habían sido propuestas de otra manera por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre un cuerpo, este realiza una fuerza de igual intensidad, pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y de dirección, pero con sentido opuesto. Si dos objetos interaccionan, la fuerza F12, ejercida por el objeto 1 sobre el objeto 2, es igual en magnitud con misma dirección, pero sentidos opuestos a la fuerza F21 ejercida por el objeto 2 sobre el objeto 1:
Aplicaciones de la Tercera Ley de Newton Algunos ejemplos donde actúan las fuerzas acción-reacción son los siguientes: Si una persona empuja a otra de peso similar, las dos se mueven con la misma velocidad, pero en sentido contrario. Cuando saltamos, empujamos a la tierra hacia abajo, que no se mueve debido a su gran masa, y esta nos empuja con la misma intensidad hacia arriba. Una persona que rema en un bote empuja el agua con el remo en un sentido y el agua responde empujando el bote en sentido opuesto. Cuando caminamos empujamos a la tierra hacia atrás con nuestros pies, a lo que la tierra responde empujándonos a nosotros hacia delante, haciendo que avancemos. Cuando se dispara una bala, la explosión de la pólvora ejerce una fuerza sobre la pistola (que es el retroceso que sufren las armas de fuego al ser disparadas), la cual reacciona ejerciendo una fuerza de igual intensidad, pero en sentido contrario sobre la bala. La fuerza de reacción que una superficie ejerce sobre un objeto apoyado en ella, llamada fuerza normal con dirección perpendicular a la superficie. Las fuerzas a distancia no son una excepción, como la fuerza que la Tierra ejerce sobre la Luna y viceversa, su correspondiente pareja de acción y reacción: La fuerza que ejerce la Tierra sobre la Luna es exactamente igual (y de signo contrario) a la que ejerce la Luna sobre la Tierra y su valor viene determinado por la ley de gravitación universal enunciada por Newton, que establece que la fuerza que ejerce un objeto sobre otro es directamente proporcional al producto de sus masas, e inversamente proporcional al cuadrado de la distancia que los separa. La fuerza que la Tierra ejerce sobre la Luna es la responsable de que esta no se salga de su órbita circular.
NOTACIÓN CIENTÍFICA La notación científica, también denominada patrón o notación en forma exponencial, es una forma de escribir los números que acomoda valores demasiado grandes (100 000 000 000) o pequeños como puede ser el siguiente (0.000 000 000 01)1para ser escrito de manera convencional. El uso de esta notación se basa en potencias de 104 (los casos ejemplificados anteriormente en notación científica, quedarían 1 × 1011 y 1 × 10−11, respectivamente). Siempre el exponente es igual al número de cifras decimales que deben correrse para convertir un número escrito en notación científica en el mismo escrito en notación decimal. Se desplazará a la
84
derecha si el exponente es positivo y hacia la izquierda si es negativo. Cuando se trata de convertir un número a notación científica el proceso es a la inversa. Como ejemplo, en la química, al referirse a la cantidad de entidades elementales (átomos, moléculas, iones, etc.), hay una cantidad llamada cantidad de materia (mol). Un número escrito en notación científica sigue el siguiente patrón: El número m se denomina «mantisa» y e el «orden de magnitud». La mantisa, en módulo, debe ser mayor o igual a 1 y menor que 10, y el orden de magnitud, dado como exponente, es el número que más varía conforme al valor absoluto. Observe los ejemplos de números grandes y pequeños: • 500 5 x 102 • 520 5.2 x 102 • 600 000 6 x 105 • 30 000 000 3 x 107 • 500 000 000 000 000 5 x 1014 • 7 000 000 000 000 000 000 000 000 000 000 000 7 x 1033 • 0.05 5 x 10-2 • 0.052 5.2 x 10-2 • 0.0004 4 x 10−4 • 0.000 000 01 1 x 10−8 • 0.000 000 000 000 000 6 6 x 10−16 • 0.000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000
8 8 x 10−49
La representación de estos números, tal como se presenta, tiene poco significad práctico. Incluso se podría pensar que estos valores son poco relevantes y de uso casi inexistente en la vida cotidiana. Sin embargo, en áreas como la física y la química, estos valores son comunes. Por ejemplo, la mayor distancia observable del universo mide cerca de 740 000 000 000 000 000 000 000 000 m, y la masa de un protón es de unos 0.000 000 000 000 000 000 000 000 001 67 kg. Tipos de notación científica En la notación científica estándar, el exponente e es elegido de manera que el valor absoluto de m permanezca al menos uno pero menos de diez (1 ≤ | m | <10). Por ejemplo, 350 se escribe como 3.5 ⋅ 10². Esta forma permite una comparación simple de dos números del mismo signo en m, como el exponente e indica el número de la orden de grandeza. En notación estándar el exponente E es negativo para un número absoluto con valor entre 0 y 1 (por ejemplo, menos de la mitad es -5 ⋅ 10−1). El 10 y el exponente son generalmente omitidos cuando el exponente es 0. En muchas áreas, la notación científica se normaliza de esta manera, a excepción de los cálculos intermedios, o cuando una forma no estándar, tales como la notación de ingeniería, se desea. La notación científica (normalizada) suele llamarse notación exponencial - aunque este último término es más general y también se aplica cuando m no está restringido al intervalo de 1 a 10 (como en la notación de ingeniería, por ejemplo) y para otras bases distintas de 10 (como en 315 ⋅ 220). Notación E Muchas calculadoras y programas informáticos presentan en notación científica los resultados muy grandes o muy pequeños. Como los exponentes sobrescritos como 10 7 no pueden ser convenientemente representados en las y por las computadoras, máquinas de escribir y en calculadoras, suele utilizarse un formato alternativo: la letra E o e representa «por diez elevado a la potencia», sustituyendo entonces el « × 10n». Ejemplos • En el lenguaje de programación FORTRAN 6.0221415E23 es equivalente a 6.022 141 5×1023. • El lenguaje de programación ALGOL 60 usa un subíndice diez en lugar de la letra E, por ejemplo • 6.02214151023 . ALGOL 68 también permite E minúsculas, por ejemplo 6.0221415e23.
85
• • • • • •
El lenguaje de programación ALGOL 68 tiene la opción de 4 caracteres en (eE\10). Ejemplos: 6.0221415e23 , 6.0221415E23 , 6.0221415\23 o 6.02214151023 . En el lenguaje de programación Simula se requiere el uso de & (o && para largos), por ejemplo: 6.0221415&23 (o 6.0221415&&23 ). En lenguaje de programación Multiparadigma como Python no es relevante la utilización de mayúscula o minúscula para el carácter E o e, teniendo el mismo significado. 6.0221415e23 = 6.0221415E23
CIFRAS SIGNIFICATIVAS Las cifras significativas de una medida son las que aportan alguna información. Representan el uso de una o más escalas de incertidumbre en determinadas aproximaciones. Por ejemplo, se dice que 4,7 tiene dos cifras significativas, mientras que 4,07 tiene tres. Para distinguir los llamados significativos de los que no son, estos últimos suelen indicarse como potencias por ejemplo 5000 será 5x103 con una cifra significativa. También, cuando una medida debe expresarse con determinado número de cifras significativas y se tienen más cifras, deben seguirse las siguientes reglas: • Primera: Si se necesita expresar una medida con tres cifras significativas, a la tercera cifra se le incrementa un número si el que le sigue es mayor que 5 o si es 5 seguido de otras cifras diferentes de cero. Ejemplo: 53,6501 consta de 6 cifras y para escribirlo con 3 queda 53,7; aunque al 5 le sigue un cero, luego sigue un 1 por lo que no se puede considerar que al 5 le siga cero (01 no es igual a 0). • Segunda: Siguiendo el mismo ejemplo de tres cifras significativas: si la cuarta cifra es menor de 5, el tercer dígito se deja igual. Ejemplo: 53,649 consta de cinco cifras, como se necesitan 3 el 6 queda igual ya que la cifra que le sigue es menor de 5; por lo que queda 53,6. • Tercera: Cuando a la cifra a redondear le sigue un 5, siempre se redondea hacia arriba. Ejemplo: si el número es 3,7500 se redondearía a 3,8. El uso de estas considera que el último dígito de aproximación es incierto, por ejemplo, al determinar el volumen de un líquido con una probeta cuya resolución es de 1ml, implica una escala de incertidumbre de 0,5 ml. Así se puede decir que el volumen de 6 ml será realmente de 5,5ml a 6,5ml. El volumen anterior se representará entonces como (6,0 ± 0,5) ml. En caso de determinar valores más próximos se tendrían que utilizar otros instrumentos de mayor resolución, por ejemplo, una probeta de divisiones más finas y así obtener (6,0 ± 0,1) ml o algo más satisfactorio según la resolución requerida. Ejemplos de las Cifras Significativas: • 0,00286 --> Tres cifras significativas (286) • 1,20006 --> Seis cifras significativas (120006) • 12,000 --> Cinco cifras significativas (12000) • 0,108 --> Tres cifras significativas (108) Reglas para establecer las cifras significativas de un número dado: • Regla 1 En números que no contienen ceros, todos los dígitos son significativos. Por ejemplo: 3,14159 → seis cifras significativas → 3,14159 5.694 → cuatro cifras significativas → 5.694
86
• Regla 2 Todos los ceros entre dígitos significativos son significativos. Por ejemplo: 2,054 → cuatro cifras significativas → 2,054 506 → tres cifras significativas → 506 • Regla 3 Los ceros a la izquierda del primer dígito que no es cero sirven solamente para fijar la posición del punto decimal y no son significativos. Por ejemplo: 0,054 → dos cifras significativas → 0,054 0,0002604 → cuatro cifras significativas → 0,0002604 • Regla 4 En un número con dígitos decimales, los ceros finales a la derecha del punto decimal son significativos. Por ejemplo: 0,0540 → tres cifras significativas → 0,0540 30,00 → cuatro cifras significativas → 30,00 • Regla 5 Si un número no tiene punto decimal y termina con uno o más ceros, dichos ceros pueden ser o no significativos. Para poder especificar el número de cifras significativas, se requiere información adicional. Para evitar confusiones es conveniente expresar el número en notación científica, no obstante, también se suele indicar que dichos ceros son significativos escribiendo el punto decimal solamente. Si el signo decimal no se escribiera, dichos ceros no son significativos. Por ejemplo: 1200 → dos cifras significativas → 1200 1200, → cuatro cifras significativas → 1200, • Regla 6 Los números exactos tienen un número infinito de cifras significativas. Los números exactos son aquellos que se obtienen por definición o que resultan de contar un número pequeño de elementos. Por ejemplos: Al contar el número de átomos en una molécula de agua obtenemos un número exacto: 3. Al contar las caras de un dado obtenemos un número exacto: 6. Por definición el número de metros que hay en un kilómetro es un número exacto: 1000. Por definición el número de grados que hay en una circunferencia es un número exacto: 360
TEOREMA DE PITÁGORAS El teorema de Pitágoras establece que, en todo triángulo rectángulo, la longitud de la hipotenusa es igual a la raíz cuadrada de la suma del área de los cuadrados de las respectivas longitudes de los catetos. Es la proposición más conocida entre las que tienen nombre propio en la matemática. En todo triángulo rectángulo el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos. Pitágoras Si en un triángulo rectángulo hay catetos de longitud de A y B, y la medida de la hipotenusa es C, entonces se cumple la siguiente relación:
87
De esta ecuación se deducen tres corolarios de verificación algebraica y aplicación práctica:
Designaciones convencionales
Demostraciones El teorema de Pitágoras es de los que cuentan con un mayor número de demostraciones diferentes, utilizando métodos muy diversos. Una de las causas de esto es que en la Edad Media se exigía una nueva demostración del teorema para alcanzar el grado de "Magíster matheseos". Algunos autores proponen hasta más de mil demostraciones. Otros autores, como el matemático estadounidense E. S. Loomis, catalogó 367 pruebas diferentes en su libro de 1927 La propuesta pitagórica. En ese mismo libro, Loomis clasificaría las demostraciones en cuatro grandes grupos: las algebraicas, donde se relacionan los lados y segmentos del triángulo; geométricas, en las que se realizan comparaciones de áreas; dinámicas a través de las propiedades de fuerza, masa; y las cuaterniónicas, mediante el uso de vectores. Demostraciones supuestas de Pitágoras Se estima que se demostró el teorema mediante semejanza de triángulos: sus lados homólogos son proporcionales. Sea el triángulo ABC, rectángulo en C. El segmento CH es la altura relativa a la hipotenusa, en la que determina los segmentos a’ y b’, proyecciones en ella de los catetos a y b, respectivamente. Los triángulos rectángulos ABC, AHC y BHC tienen sus tres bases iguales: todos tienen dos bases en común, y los ángulos agudos son iguales bien por ser comunes, bien por tener sus lados perpendiculares. En consecuencia, dichos triángulos son semejantes.
88
De la semejanza entre ABC y AHC: Y dos triángulos son semejantes si hay dos o más ángulos congruentes.
De la semejanza entre ABC y BHC:
Los resultados obtenidos son el teorema del cateto. Sumando:
Pero
por lo que finalmente resulta:
Pitágoras también pudo haber demostrado el teorema basándose en la relación entre las superficies de figuras semejantes. Los triángulos PQR y PST son semejantes, de manera que:
Siendo r la razón de semejanza entre dichos triángulos. Si ahora buscamos la relación entre sus superficies:
89
Obtenemos después de simplificar que:
Pero siendo
la razón de semejanza, está claro que:
Es decir, "la relación entre las superficies de dos figuras semejantes es igual al cuadrado de la razón de semejanza". Aplicando ese principio a los triángulos rectángulos semejantes ACH y BCH tenemos que:
Que de acuerdo con las propiedades de las proporciones da:
Y por la semejanza entre los triángulos ACH y ABC resulta que:
Pero según (I)
, así que:
90
Y, por lo tanto:
Quedando demostrado el teorema de Pitágoras.
FUNCIONES TRIGONOMÉTRICAS En matemáticas, las funciones trigonométricas son las funciones establecidas con el fin de extender la definición de las razones trigonométricas a todos los números reales y complejos. Las funciones trigonométricas son de gran importancia en física, astronomía, cartografía, náutica, telecomunicaciones, la representación de fenómenos periódicos, y otras de muchas aplicaciones.
Las funciones trigonométricas se definen comúnmente como el cociente entre dos lados de un triángulo rectángulo, asociado a sus ángulos. Las funciones trigonométricas son funciones cuyos valores son extensiones del concepto de razón trigonométrica en un triángulo rectángulo trazado en una circunferencia unitaria (de radio unidad). Definiciones más modernas las describen como series infinitas o como la solución de ciertas ecuaciones diferenciales, permitiendo su extensión a valores positivos y negativos, e incluso a números complejos. Existen seis funciones trigonométricas básicas. Las últimas cuatro, se definen en relación de las dos primeras funciones, aunque se pueden definir geométricamente o por medio de sus relaciones. Algunas funciones fueron comunes antiguamente, y aparecen en las primeras tablas, pero no se utilizan actualmente; por ejemplo el ver seno (1 − cos θ) y la exsecante (sec θ − 1).
91
Todas las funciones trigonométricas de un ángulo θ pueden ser construidas geométricamente en relación a una circunferencia de radio unidad de centro O.
Definiciones respecto de un triángulo rectángulo Para definir las razones trigonométricas del ángulo: del vértice A, se parte de un triángulo rectángulo arbitrario que contiene a este ángulo. El nombre de los lados de este triángulo rectángulo que se usará en los sucesivos será: La hipotenusa (h) es el lado opuesto al ángulo recto, o lado de mayor longitud del triángulo rectángulo. •
El cateto opuesto (a) es el lado opuesto al ángulo.
•
El cateto adyacente (b) es el lado adyacente al ángulo.
Todos los triángulos considerados se encuentran en el Plano Euclidiano, por lo que la suma de sus ángulos internos es igual a π radianes (o 180°). En consecuencia, en cualquier triángulo rectángulo los ángulos no rectos se encuentran entre 0 y π/2 radianes. Las definiciones que se dan a continuación definen estrictamente las funciones trigonométricas para ángulos dentro de ese rango: •
El seno de un ángulo es la relación entre la longitud del cateto opuesto y la longitud de la hipotenusa:
El valor de esta relación no depende del tamaño del triángulo rectángulo que elijamos, siempre que tenga el mismo ángulo , en cuyo caso se trata de triángulos semejantes. •
El coseno de un ángulo es la relación entre la longitud del cateto adyacente y la longitud de la hipotenusa:
•
La tangente de un ángulo es la relación entre la longitud del cateto opuesto y la del adyacente:
•
La cotangente de un ángulo es la relación entre la longitud del cateto adyacente y la del opuesto:
•
La secante de un ángulo es la relación entre la longitud de la hipotenusa y la longitud del cateto adyacente:
•
La cosecante de un ángulo es la relación entre la longitud de la hipotenusa y la longitud del cateto opuesto:
92
MOVIMIENTO DE VECTORES • • • • • • • • • • • • • •
Magnitudes escalares y vectoriales. Suma o composición de vectores. Sistemas de referencia vectoriales. Componentes. Cosenos directores. Vectores unitarios. Producto escalar de vectores. Ángulo de dos vectores. Perpendicularidad. Proyección. Producto vectorial. Momento de un vector respecto a un punto. Momento respecto a un eje. Derivación e integración vectorial.
𝑡 𝑥 𝑦ሺ𝑥, 𝑡ሻ = 𝐴𝑠𝑒𝑛 2𝜋 ൬ − ൰ + 𝜑൨ 𝑇 𝜆
Un vector tiene tres características esenciales: módulo, dirección y sentido. Para que dos vectores sean considerados iguales, deben tener igual módulo, igual dirección e igual sentido. Los vectores se representan geométricamente con flechas y se le asigna por lo general una letra que en su parte superior lleva una pequeña flecha de izquierda a derecha como se muestra en la figura. Muestra las principales características de un vector.
Módulo: está representado por el tamaño del vector, y hace referencia a la intensidad de la magnitud (número). Se denota con la letra solamente A o |A|. • Vectores de igual módulo: Todos podrían representar, por ejemplo, una velocidad de 15 km/h, pero en distintas direcciones, por lo tanto, todos tendrían distinta velocidad. • Vectores de distinto módulo: Se espera que el vector de menor tamaño represente por ejemplo una velocidad menor que la de los demás.
Vectores con igual módulo, pero distintas direcciones
93
• Vectores de distinto módulo: Así, los vectores de la figura podrían representar velocidades de 20 km/h, 5 km/h y 15 km/h, respectivamente.
• Dirección: Corresponde a la inclinación de la recta, y representa al ángulo entre ella y un eje horizontal imaginario (ver figura 2). También se pueden utilizar los ejes de coordenadas cartesianas (X, Y y Z) como también los puntos cardinales para la dirección. • Vectores de distinto módulo: Dos vectores tienen la misma dirección cuando la inclinación de la recta que los representa es la misma, es decir, cuando son paralelos. • Vectores de igual dirección: Sin importar hacia dónde apuntan o cuál es su tamaño, los vectores de la figura son paralelos, por lo que tienen la misma dirección. Muestra tres vectores de distinto módulo, pero igual dirección y sentido
Representación Geométrica de un Vector Ya has aprendido que los vectores son definidos a través de tres características, que son: módulo, dirección y sentido. Aunque su posición en el espacio no es uno de los componentes para definirlo, el estudio de los vectores se facilita si los ubicamos en un sistema de coordenadas cartesianas que nos ayude a tener mayor precisión, de manera de poder representarlos de una forma algebraica como de una manera geométrica. Una de las características es que cuando tenemos un vector que no está en el origen de nuestro plano cartesiano, lo podemos trasladar, de manera que siempre el origen sea el (0,0) y así facilitar nuestros cálculos, pues sólo necesitaremos el punto final para determinarlo. En el dibujo anterior hemos llamado p al vector CD trasladado. Por otro lado, hemos llamado q al vector AB trasladado. Si sus puntos de origen se trasladan al origen, veremos que el vector que antes tenía como coordenadas (0,2) y (3,5) ha sido traslado, de manera que sólo debemos identificar el punto final que en este caso corresponde a (3,3). De igual forma se ha procedido para el vector q.
CINEMÁTICA La cinemática es la rama de la mecánica que describe el movimiento de los objetos sólidos sin considerar las causas que lo originan (las fuerzas) y se limita, principalmente, al estudio de la trayectoria en función del tiempo. Para ello utiliza velocidades y aceleraciones, que describen cómo cambia la posición en función del tiempo. La velocidad se determina como el cociente entre el desplazamiento y el tiempo utilizado, mientras que la aceleración es el cociente entre el cambio de velocidad y el tiempo utilizado. Representación de la trayectoria de una partícula (verde), mostrando la posición (azul) en un momento dado de dicha trayectoria.
94
Elementos Básicos de la Cinemática En la mecánica clásica, se admite la existencia de un espacio absoluto, es decir, un espacio anterior a todos los objetos materiales e independientes de la existencia de estos. Este espacio es el escenario donde ocurren todos los fenómenos físicos, y se supone que todas las leyes de la física se cumplen rigurosamente en todas las regiones del mismo. El espacio físico se representa en la mecánica clásica mediante un espacio euclídeo. Análogamente, la mecánica clásica admite la existencia de un tiempo absoluto que transcurre del mismo modo en todas las regiones del Universo y que es independiente de la existencia de los objetos materiales y de la ocurrencia de los fenómenos físicos. El móvil más simple que se puede considerar es el punto material o partícula; cuando en la cinemática se estudia este caso particular de móvil, se denomina Cinemática de la partícula, y cuando el móvil bajo estudio es un cuerpo rígido se lo puede considerar un sistema de partículas y hacer extensivos análogos conceptos; en este caso se le denomina cinemática del sólido rígido o del cuerpo rígido. Fundamento de la Cinemática Clásica La cinemática trata del estudio del movimiento de los cuerpos en general y, en particular, el caso simplificado del movimiento de un punto material, más no estudia por qué se mueven los cuerpos sino que se limita a describir sus trayectorias y modo de reorientarse en su avance. Para sistemas de muchas partículas, por ejemplo los fluidos, las leyes de movimiento se estudian en la mecánica de fluidos. El movimiento trazado por una partícula lo mide un observador respecto a un sistema de referencia. Desde el punto de vista matemático, la cinemática expresa cómo varían las coordenadas de posición de la partícula (o partículas) en función del tiempo. La función matemática que describe la trayectoria recorrida por el cuerpo (o partícula) depende de la velocidad (la rapidez con la que cambia de posición un móvil) y de la aceleración (variación de la velocidad respecto del tiempo). El movimiento de una partícula (o cuerpo rígido) se puede describir según los valores de velocidad y aceleración, que son magnitudes vectoriales: • Si la aceleración es nula, da lugar a un movimiento rectilíneo uniforme y la velocidad permanece constante a lo largo del tiempo. • Si la aceleración es constante con igual dirección que la velocidad, da lugar al movimiento rectilíneo uniformemente acelerado y la velocidad variará a lo largo del tiempo. • Si la aceleración es constante con dirección perpendicular a la velocidad, da lugar al movimiento circular uniforme, donde el módulo de la velocidad es constante, cambiando su dirección con el tiempo. • Cuando la aceleración es constante y está en el mismo plano que la velocidad y la trayectoria, tiene lugar el movimiento parabólico, donde la componente de la velocidad en la dirección de la aceleración se comporta como un movimiento rectilíneo uniformemente acelerado, y la componente perpendicular se comporta como un movimiento rectilíneo uniforme, y se genera una trayectoria parabólica al componer ambas. • Cuando la aceleración es constante pero no está en el mismo plano que la velocidad y la trayectoria, se observa el efecto de Coriolis. • En el movimiento armónico simple se tiene un movimiento periódico de vaivén, como el del péndulo, en el cual un cuerpo oscila a un lado y a otro desde la posición de equilibrio en una dirección determinada y en intervalos iguales de tiempo. La aceleración y la velocidad son funciones, en este caso, sinusoidales del tiempo. Al considerar el movimiento de traslación de un cuerpo extenso, en el caso de ser un cuerpo rígido, conociendo como se mueve una de las partículas, se deduce como se mueven las demás. Más concretamente: • En un movimiento plano bidimensional si se conoce el movimiento de 2 puntos del sólido, el movimiento de todo el sólido está determinado • En un movimiento general tridimensional, el movimiento queda determinado si se conoce el movimiento de 4 puntos del sólido.
95
Así, considerando un punto del cuerpo, por ejemplo el centro de masa del cuerpo o cualquier otro, el movimiento de todo el cuerpo se puede expresar como:
Sistemas de Coordenadas En el estudio del movimiento, los sistemas de coordenadas más útiles se encuentran viendo los límites de la trayectoria a recorrer o analizando el efecto geométrico de la aceleración que afecta al movimiento. Así, para describir el movimiento de un talón obligado a desplazarse a lo largo de un aro circular, la coordenada más útil sería el ángulo trazado sobre el aro. Del mismo modo, para describir el movimiento de una partícula sometida a la acción de una fuerza central, las coordenadas polares serían las más útiles. En la gran mayoría de los casos, el estudio cinemático se hace sobre un sistema de coordenadas cartesianas, usando una, dos o tres dimensiones, según la trayectoria seguida por el cuerpo. Movimiento Rectilíneo Uniforme Un movimiento es rectilíneo cuando un objeto describe una trayectoria recta respecto a un observador, y es uniforme cuando su velocidad es constante en el tiempo, dado que su aceleración es nula. Nótese que el movimiento rectilíneo puede ser también no uniforme, y en ese caso la relación entre la posición y el tiempo es algo más compleja.
Comportamiento del Movimiento El movimiento rectilíneo uniforme se designa frecuentemente con el acrónimo MRU, aunque en algunos países es MRC, por movimiento rectilíneo constante. El MRU se caracteriza por: • Movimiento que se realiza sobre una línea recta. • Velocidad constante; implica magnitud y dirección constantes. • La magnitud de la velocidad recibe el nombre de celeridad o rapidez sin aceleración. Para este tipo de movimiento, la distancia recorrida se calcula multiplicando la magnitud de la velocidad por el tiempo transcurrido. Esta relación también es aplicable si la trayectoria no es rectilínea, con tal que la rapidez o módulo de la velocidad sea constante. Por lo tanto, el movimiento puede considerarse en dos sentidos; una velocidad negativa representa un movimiento en dirección contraria al sentido que convencionalmente hayamos adoptado como positivo. De acuerdo con la Primera Ley de Newton, toda partícula puntual permanece en reposo o en movimiento rectilíneo uniforme cuando no hay una fuerza externa que actúe sobre el cuerpo, dado que las fuerzas actuales están en equilibrio, por lo cual su estado es de reposo o de movimiento rectilíneo uniforme. Representación Gráfica del Movimiento Una peculiaridad interesante de la trayectoria rectilínea, es que el problema admite una descripción unidimensional mediante una única coordenada, aunque estemos estudiando una trayectoria en tres dimensiones. Para ello basta escoger un punto sobre la trayectoria P y una función "distancia" al dicho punto d (será un número real, positivo para uno de los dos sentidos y negativo para el sentido
96
opuesto), tomando el vector director unitario de la recta n existen dos elecciones posibles de este vector, cualquiera de las dos elecciones es esencialmente equivalente, el vector de posición r se podrá escribir siempre como:
La velocidad del punto material que ejecuta este movimiento se podrá escribir simplemente como:
Si el movimiento es uniforme resultará que el vector posición es igual al vector velocidad por el tiempo: ecuación| Descomponiendo el movimiento en cada uno de los ejes de coordenadas, la suma vectorial de estas componentes da como resultado la posición en el espacio del movimiento.
Caída Libre En la caída libre un objeto cae verticalmente desde cierta altura H despreciando cualquier tipo de rozamiento con el aire o cualquier otro obstáculo. Se trata de un movimiento rectilíneo uniformemente acelerado (m.r.u.a.) o movimiento rectilíneo uniformemente variado (m.r.u.v.) en el que la aceleración coincide con el valor de la gravedad. En la superficie de la Tierra, la aceleración de la gravedad se puede considerar constante, dirigida hacia abajo, se designa por la letra g y su valor es de 9'8m/s2 (a veces se aproxima por 10 m/s2). Para estudiar el movimiento de caída libre normalmente utilizaremos un sistema de referencia cuyo origen de coordenadas se encuentra en el pie de la vertical del punto desde el que soltamos el cuerpo y consideraremos el sentido positivo del eje y apuntando hacia arriba, tal y como puede verse en la figura: Con todo esto nos quedaría: v0=0; y0=H; a=−g La caída libre es un movimiento rectilíneo uniformemente acelerado (m.r.u.a.) o movimiento rectilíneo uniformemente variado (m.r.u.v.) en el que se deja caer un cuerpo verticalmente desde cierta altura y no encuentra resistencia alguna en su camino. Las ecuaciones de la caída libre son: • y=H−12gt2 • v=−g⋅t • a=−g
97
Donde: • y: La posición final del cuerpo. Su unidad en el Sistema Internacional (S.I.) es el metro (m) • v: La velocidad final del cuerpo. Su unidad en el Sistema Internacional (S.I.) es el metro (m/s) • a: La aceleración del cuerpo durante el movimiento. Su unidad en el Sistema Internacional (S.I.) es el metro por segundo al cuadrado (m/s2). • t: Intervalo de tiempo durante el cual se produce el movimiento. Su unidad en el Sistema Internacional (S.I.) es el segundo (s) • H: La altura desde la que se deja caer el cuerpo. Se trata de una medida de longitud y por tanto se mide en metros. • g: El valor de la aceleración de la gravedad que, en la superficie terrestre puede considerarse igual a 9.8 m/s2 Movimiento Circular En cinemática, el movimiento circular también llamado movimiento circunferencial es el que se basa en un eje de giro y radio constante, por lo cual la trayectoria es una circunferencia. Si además, la velocidad de giro es constante (giro ondulatorio), se produce el movimiento circular uniforme, que es un caso particular de movimiento circular, con radio, centro fijo y velocidad angular constante. Conceptos En el movimiento circular hay que tener en cuenta algunos conceptos básicos para la descripción cinemática y dinámica del mismo: • Eje de giro: Es la línea recta alrededor de la cual se realiza la rotación, este eje puede permanecer fijo o variar con el tiempo, pero para cada instante concreto es el eje de la rotación (considerando en este caso una variación infinitesimal o diferencial de tiempo). El eje de giro define un punto llamado centro de giro de la trayectoria descrita (O). • Arco: Partiendo de un centro fijo o eje de giro fijo, es el espacio recorrido en la trayectoria circular o arco de radio unitario con el que se mide el desplazamiento angular. Su unidad es el radián (espacio recorrido dividido entre el radio de la trayectoria seguida, división de longitud entre longitud, adimensional, por tanto). • Velocidad angular: Es la variación del desplazamiento angular por unidad de tiempo (omega minúscula, W). • Aceleración angular: Es la variación de la velocidad angular por unidad de tiempo (alfa minúscula, ). En dinámica de los movimientos curvilíneos, circulares y/o giratorios se tienen en cuenta además las siguientes magnitudes: • Momento angular (L): Es la magnitud que en el movimiento rectilíneo equivale al momento lineal o cantidad de movimiento, pero aplicada al movimiento curvilíneo, circular y/o giratorio (producto vectorial de la cantidad de movimiento por el vector posición, desde el centro de giro al punto donde se encuentra la masa puntual). • •
Momento de inercia (I): Es una cualidad de los cuerpos que depende de su forma y de la distribución de su masa y que resulta de multiplicar una porción concreta de la masa por la distancia que la separa al eje de giro. Momento de fuerza (M): O par motor es la fuerza aplicada por la distancia al eje de giro (es el equivalente a la fuerza agente del movimiento que cambia el estado de un movimiento rectilíneo).
98
La Fuerza Centrípeta Podemos particularizar para el caso del movimiento circular uniforme, en el que, aunque su celeridad es constante, su vector velocidad cambia continuamente de dirección gracias a la aceleración normal. De acuerdo con las leyes de Newton, si dicho cuerpo posee aceleración quiere decir que se encuentra sometido a la acción de alguna fuerza. En concreto: En un movimiento circular uniforme o m.c.u., la fuerza centrípeta ሺΣFnሻ es la fuerza responsable de dotar de aceleración centrípeta a un cuerpo. Tiene la dirección del radio de la circunferencia, sentido hacia el centro y módulo constante. No se trata de una fuerza en sí misma, si no que dependiendo del sistema, la fuerza centrípeta puede ser el peso, la tensión de una cuerda, etc. o generalmente la fuerza resultante de algunas de estas fuerzas. A la hora de estudiar la dinámica de este tipo de movimientos, es recomendable utilizar un sistema de referencia intrínseco, donde el eje normal será el eje X y el tangencial el eje Y. En este caso, la fuerza centrípeta se obtiene por medio de la siguiente expresión. ∑Fn = ∑Fx = m ⋅ an = m ⋅ v2R ⋮ ∑Fy = 0
Paralelismo entre El Movimiento Rectilíneo y El Movimiento Circular A pesar de las diferencias evidentes en su trayectoria, hay ciertas similitudes entre el movimiento rectilíneo y el circular que deben mencionarse y que resaltan las similitudes y equivalencias de conceptos y un paralelismo en las magnitudes utilizadas para describirlos. Dado un eje de giro y la posición de una partícula puntual en movimiento circular o giratorio, para una variación de tiempo Δt o un instante dt, dado, se tiene: Arco descrito Arco angular o desplazamiento angular es el arco de la circunferencia recorrido por la masa puntual en su trayectoria circular, medida en radianes y representado con las letras griegas: Este arco es el desplazamiento efectuado en el movimiento circular y se obtiene mediante la posición angular en la que se encuentra en un momento determinado el móvil y al que se le asocia un ángulo determinado en radianes. Así el arco angular o desplazamiento angular se determinará por la variación de la posición angular entre dos momentos final e inicial concretos (dos posiciones distintas): Siendo el arco angular o desplazamiento angular dado en radianes. Si se le llama e, al espacio recorrido a lo largo de la trayectoria curvilínea de la circunferencia de radio R, se tiene que es el producto del radio de la trayectoria circular por la variación de la posición angular (desplazamiento angular):
99
En ocasiones se denomina s, al espacio recorrido (del inglés "space"). Nótese que, al multiplicar el radio por el ángulo en radianes, al ser estos últimos adimensionales (arco entre radio), el resultado es el espacio recorrido en unidades de longitud elegidas para expresar el radio y circunferencia. Lanzamiento horizontal El lanzamiento horizontal consiste en lanzar un cuerpo horizontalmente desde cierta altura. En la siguiente figura puedes ver una representación de la situación:
El lanzamiento horizontal resulta de la composición de un movimiento rectilíneo uniforme (mru horizontal) y un movimiento rectilíneo uniformemente acelerado de caída libre (mrua vertical). El cuerpo en movimiento en un tiro horizontal puede ser cualquier cosa: una pelota de futbol, de tenis, un dardo, una gota de agua... a todos ellos los denominaremos de manera genérica proyectiles. En física suele denominarse proyectil a cualquier cuerpo lanzado en el espacio por la acción de una fuerza. Ecuaciones Las ecuaciones del lanzamiento horizontal son: Las ecuaciones del m.r.u. para el eje x 𝑥 = 𝑥0 + 𝑣𝑥 ⋅ 𝑡 Las ecuaciones del m.r.u.a. para el eje y 𝑣𝑦 = 𝑣0𝑦 + 𝑎𝑦 ⋅ 𝑡 𝑦 = 𝑦0 + 𝑣0𝑦 ⋅ 𝑡 + 12 ⋅ 𝑎𝑦 ⋅ 𝑡2 Dado que, como dijimos anteriormente, la velocidad forma un ángulo α con la horizontal, las componentes x e y se determinan recurriendo a las relaciones trigonométricas más habituales:
Finalmente, teniendo en cuenta lo anterior, que y0 = H, x0 = 0, y que ay = -g, podemos reescribir las fórmulas tal y como quedan recogidas en la siguiente tabla. Estas son las expresiones finales para el cálculo de las magnitudes cinemáticas en el lanzamiento horizontal:
100
Tiro Parabólico La composición de un movimiento uniforme y otro uniformemente acelerado resulta un movimiento cuya trayectoria es una parábola. • Un MRU horizontal de velocidad vx constante. • Un MRUA vertical con velocidad inicial voy hacia arriba. Este movimiento está estudiado desde la antigüedad. Se recoge en los libros más antiguos de balística para aumentar la precisión en el tiro de un proyectil. Denominamos proyectil a todo cuerpo que una vez lanzado se mueve solo bajo la aceleración de la gravedad. 1. Disparo de Proyectiles Consideremos un cañón que dispara un obús desde el suelo (y0=0) con cierto ángulo θ menor de 90º con la horizontal. Las ecuaciones del movimiento, resultado de la composición de un movimiento uniforme a lo largo del eje X, y de un movimiento uniformemente acelerado a lo largo del eje Y, son las siguientes:
Las ecuaciones paramétricas de la trayectoria son • x=v0·cosθ·t • y=v0·senθ·t-gt2/2 Eliminado el tiempo t, obtenemos la ecuación de la trayectoria (ecuación de una parábola)
2. Alcance: El alcance horizontal de cada uno de los proyectiles se obtiene para y=0.
Su valor máximo se obtiene para un ángulo θ =45º, teniendo el mismo valor para θ =45+a, que para θ =45-a. Por ejemplo, tienen el mismo alcance los proyectiles disparados con ángulos de tiro de 30º y 60º, ya que sen (2·30) =sen (2·60). 3. Altura Máxima: La altura máxima que alcanza un proyectil se obtiene con vy=0. Su valor máximo se obtiene para el ángulo de disparo θ =90º.
101
Química
102
Química La química es la ciencia que estudia la composición, estructura y propiedades de la materia, así como los cambios que esta experimenta durante las reacciones químicas y su relación con la energía. Linus Pauling la define como la ciencia que estudia las sustancias, su estructura (tipos y formas de acomodo de los átomos), sus propiedades y las reacciones que las transforman en otras sustancias en referencia con el tiempo. La química se ocupa principalmente de las agrupaciones supratómicas, como son los gases, las moléculas, los cristales y los metales, estudiando su composición, propiedades estadísticas, transformaciones y reacciones. La química también incluye la comprensión de las propiedades e interacciones de la materia a escala atómica. La mayoría de los procesos químicos se pueden estudiar directamente en el laboratorio, usando una serie de técnicas a menudo bien establecidas, tanto de manipulación de materiales como de comprensión de los procesos subyacentes. Una aproximación alternativa es la proporcionada por las técnicas de modelado molecular, que extraen conclusiones de modelos computacionales. La química moderna se desarrolló a partir de la alquimia, una práctica protocientífica de carácter esotérico, pero también experimental, que combinaba elementos de química, metalurgia, física, medicina, biología, entre otras ciencias y artes. Esta fase termina con la revolución química, con el descubrimiento de los gases por Robert Boyle, la ley de conservación de la materia y la teoría de la combustión por oxígeno postuladas por el científico francés Antoine Lavoisier.3 La sistematización se hizo patente con la creación de la tabla periódica de los elementos y la introducción de la teoría atómica, cuando los investigadores desarrollaron una comprensión fundamental de los estados de la materia, los iones, los enlaces químicos y las reacciones químicas. Desde la primera mitad del siglo XIX, el desarrollo de la química lleva aparejado la aparición y expansión de una industria química de gran relevancia en la economía y la calidad de vida actuales. Definición La definición de química ha cambiado a través del tiempo, a medida que nuevos descubrimientos se han añadido a la funcionalidad de esta ciencia. El término química, a vista del reconocido científico Robert Boyle, en 1661, se trataba del área que estudiaba los principios de los cuerpos mezclados. En 1662, la química se definía como un arte científico por el cual se aprende a disolver cuerpos, obtener de ellos las diferentes sustancias de su composición y cómo unirlos después para alcanzar un nivel mayor de perfección. Esto según el químico Christopher Glaser. La definición de 1730 para la palabra química, usada por Georg Stahl, era el arte de entender el funcionamiento de las mezclas, compuestos o cuerpos hasta sus principios básicos, y luego volver a componer esos cuerpos a partir de esos mismos principios. En 1837, Jean-Baptiste Dumas consideró la palabra química para referirse a la ciencia que se preocupaba de las leyes y efectos de las fuerzas moleculares. Esta definición luego evolucionaría hasta que, en 1947, se le definió como la ciencia que se preocupaba de las sustancias: su estructura, sus propiedades y las reacciones que las transforman en otras sustancias (caracterización dada por Linus Pauling). Más recientemente, en 1988, la definición de química se amplió, para ser «el estudio de la materia y los cambios que implica», según palabras del profesor Raymond Chang.
ÁREAS DE ESTUDIO DE LA QUÍMICA 1. Catálisis La catálisis es el proceso por el cual se aumenta la velocidad de una reacción química, debido a la participación de una sustancia llamada catalizador y aquellas que desactivan la catálisis son denominados inhibidores.
103
2. Espectroscopia La espectroscopia o espectroscopía es el estudio de la interacción entre la radiación electromagnética y la materia, con absorción o emisión de energía radiante. Tiene aplicaciones en astronomía, física, química y biología, entre otras disciplinas científicas.
3. Química analítica La química analítica estudia y utiliza instrumentos y métodos para separar, identificar y cuantificar la materia. En la práctica, la separación, identificación o cuantificación puede constituir el análisis completo o combinarse con otro método. La separación aísla los analitos. 4. Química Computacional La química computacional es una rama de la química que utiliza computadoras para ayudar a estudiar y resolver problemas químicos a través de la aplicación de modelos y simulaciones computacionales de sistemas moleculares.
5. Química De Materiales La ciencia de materiales implica investigar la relación entre la estructura y las propiedades de los materiales. ... La investigación en el área de química de materiales cuenta con dos laboratorios de síntesis donde se desarrolla la línea de generación de conocimiento “Síntesis y caracterización de materiales funcionales”. 6. Física Química La química física es una ciencia que investiga fenómenos fisicoquímicos usando técnicas de la Física atómica y molecular, y de la Física del estado sólido; es la rama de la Física que estudia los procesos químicos desde el punto de vista de la física.
7. Química Inorgánica La química inorgánica se encarga del estudio integrado de la formación, composición, estructura y reacciones químicas de los elementos y compuestos inorgánicos; es decir, los que no poseen enlaces carbono-hidrógeno, porque estos pertenecen al campo de la química orgánica.
104
8. Química Medicinal La química medicinal, farmoquímica o química farmacéutica es una de las consideradas ciencias farmacéuticas, con profundas raíces en la química. Sus objetivos son la identificación, la síntesis y el desarrollo de nuevos compuestos químicos que sean adecuados para el uso terapéutico. 9. Química Ambiental La química ambiental, denominada también química medioambiental es la aplicación de la química al estudio de los problemas y la conservación del ambiente.
10. Química Nuclear La química nuclear es la rama de la química que tiene que ver con la radiactividad, con los procesos y propiedades nucleares. Es la química de los elementos radiactivos tales como los actínidos, radio y radón junto con la química asociada con el equipo, los cuales son diseñados para llevar a cabo procesos nucleares. 11. Química Orgánica La química orgánica es la rama de la química que estudia una clase numerosa de moléculas que en su gran mayoría contienen carbono formando enlaces covalentes: carbono-carbono o carbono-hidrógeno y otros heteroátomos, también conocidos como compuestos orgánicos. 12. Química Teórica Parte de esta disciplina puede ser clasificada como química computacional, aunque la química computada normalmente indica la aplicación de la química teórica con una configuración específica
EL LABORATORIO QUÍMICO Es el que hace referencia a la química y que estudia compuestos, mezclas de sustancias o elementos y es un lugar donde se comprueba la validez de los principios químicos mediante la aplicación del método científico a través de experimentos generalmente en el que se planea y se organiza para un grupo de estudiantes que participan activamente o como observadores en la elaboración de los mismos, en que las personas ayudan a comprobar las teorías que se han postulado a lo largo del desarrollo de esta ciencia. Es importante hacer notar que un laboratorio de química es una habitación construida y adecuada para este fin, observando el cumplimiento sobre el contenido básico de un laboratorio seguro como: Regadera, lava-ojos, instalación de gas, instalación de agua corriente, drenaje, extintores, iluminación natural y artificial, sistemas de ventilación o ventanas abatibles, accesos lo suficientemente amplios para permitir el desalojo del laboratorio con orden y rapidez en caso de un accidente o evacuación precautoria por la acumulación de gases emitidos por los experimentos o fugas en la instalación de gas o equipos instalados sobre las mismas líneas de gas y equipo de primeros auxilios (botiquín).
105
Condiciones de Laboratorios Normalizadas • Temperatura: La temperatura ambiente normal es de 20 °C, variando las tolerancias en función del tipo de medición o experimento a realizar. Además, las variaciones de la temperatura (dentro del intervalo de tolerancia) han de ser suaves, por ejemplo en laboratorios de metrología dimensional, se limita a 2 °C/h (siendo el intervalo de tolerancia de 4 °C).
• Humedad: Usualmente conviene que la humedad sea la menor posible porque acelera la oxidación de los instrumentos (comúnmente de acero); sin embargo, para lograr la habitabilidad del laboratorio no puede ser menor del 50% ni mayor del 75%.
•
Presión Atmosférica: La presión atmosférica normalizada suele ser, en laboratorios industriales, ligeramente superior a la externa (25 Pa) para evitar la entrada de aire sucio de las zonas de producción al abrir las puertas de acceso. En el caso de laboratorios con riesgo biológico (manipulación de agentes infecciosos) la situación es la contraria, ya que debe evitarse la salida de aire del laboratorio que puede estar contaminado, por lo que la presión será ligeramente inferior a la externa. • Alimentación Eléctrica: Las variaciones de la tensión de la red deben limitarse cuando se realizan medidas eléctricas que pueden verse alteradas por la variación de la tensión de entrada en los aparatos. Todos los laboratorios deben tener un sistema eléctrico de emergencia, diferenciado de la red eléctrica normal, donde van enchufados aparatos como congeladores, neveras, incubadoras, etc. para evitar problemas en caso de apagones.
•
Polvo: Se controla, por ejemplo, en laboratorios de interferómetro ya que la presencia de polvo modifica el comportamiento de la luz al atravesar el aire. En los laboratorios de Metrología Dimensional el polvo afecta la medición de espesores en distintas piezas.
• Vibración y Ruido: Al margen de la incomodidad que supone su presencia para investigadores y técnicos de laboratorio, pueden falsear mediciones realizadas por procedimientos mecánicos. Es el caso, por ejemplo, de las Máquinas de medir por coordenadas.
106
NORMAS PARA MANIPULAR INSTRUMENTOS Y PRODUCTOS 1. Antes de manipular un aparato o montaje eléctrico, desconéctalo de la red eléctrica. 2. No pongas en funcionamiento un circuito eléctrico sin que el profesor haya revisado la instalación. 3. No utilices ninguna herramienta o máquina sin conocer su uso, funcionamiento y normas de seguridad específicas 4. Maneja con especial cuidado el material frágil, por ejemplo, el vidrio. 5. Informa al profesor del material roto o averiado. 6. Fíjate en los signos de peligrosidad que aparecen en los frascos de los productos químicos. 7. Lávate las manos con jabón después de tocar cualquier producto químico. 8. Al acabar la práctica, limpia y ordena el material utilizado. 9. Si te salpicas accidentalmente, lava la zona afectada con agua abundante. Si salpicas la mesa, límpiala con agua y sécala después con un paño. 10. Evita el contacto con fuentes de calor. No manipules cerca de ellas sustancias inflamables. Para sujetar el instrumental de vidrio y retirarlo del fuego, utiliza pinzas de madera. Cuando calientes los tubos de ensayo con la ayuda de dichas pinzas, procura darles cierta inclinación. Nunca mires directamente al interior del tubo por su abertura. Instrumentos de Laboratorio Los instrumentos utilizados en un laboratorio son todos los recipientes y herramientas que sirven para llevar a cabo mediciones, síntesis y análisis de diversos tipos. Estos instrumentos deben construirse con materiales resistentes y de alta calidad para no alterar los resultados de los estudios. Refrigerante Con él se realizan destilaciones. Está formado por dos conductos concéntricos: por el exterior circula agua fría y por el interior, los vapores que se quieren refrigerar. Estos ceden calor al agua.
Mechero Bunsen Dispositivo para producir una llama de gas, utilizado en los laboratorios científicos para calentar, esterilizar o proceder a la combustión de muestras o reactivos químicos.
Vaso de precipitado Sirve para depositar sólidos o líquidos; y, además, para realizar mezclas y reacciones químicas. Mide volúmenes de forma aproximada. Se puede calentar.
Matraz aforado Se emplea únicamente para preparar y almacenar soluciones. No se puede calentar, ya que variaría la medida exacta de su capacidad.
Escobilla Sirve para limpiar instrumentos delicados o de difícil acceso.
Balanza Sirve para medir la masa de las sustancias.
Embudo Sirve para trasvasar sustancias.
Agitador Es una varilla de vidrio macizo.
107
Espátula Permite manipular y coger pequeñas cantidades de sólidos sin tocarlos con la mano.
Tubo de ensayo Se utiliza para depositar pequeñas muestras de líquidos, con el fin de calentar o realizar pruebas.
Bureta Útil para medir con precisión líquidos. El líquido que sale se controla mediante una llave de paso.
Cristalizador Es un recipiente utilizado para evaporar lentamente soluciones y obtener cristales.
Pipeta Instrumento que permite trasvasar pequeñas cantidades de líquidos. Debe ser utilizado con un pipeteador.
Probeta Instrumento para medir con precisión volúmenes de líquidos. Como cualquier otro vidrio graduado, no se puede calentar.
Gradilla Sirve para colocar tubos de ensayo. Facilita el manejo de los tubos.
Embudo de decantación Sirve para separar líquidos inmiscibles. Se emplea tanto en separaciones como en extracciones.
Matraz de Erlenmeyer Tiene la misma función que el vaso de precipitado. Su boca más estrecha permite agitar los líquidos que contiene sin que se derramen.
Termómetro Sirve para medir la temperatura de las sustancias en grados Celsius.
Gotero Permite tomar pequeñas cantidades de líquidos y dejarlos caer gota a gota.
Vidrio reloj Se utiliza para pesar o transferir sólidos o cubrir recipientes.
NORMAS DE SEGURIDAD EN EL LABORATORIO Normas Generales • La persona no tendrá que fumar, comer o beber en el laboratorio. • Deberá Utilizar una bata y tenerla siempre bien abrochada, así siempre la persona protegerá su ropa. • Debe guarda sus prendas de abrigo y sus objetos personales en un armario o taquilla y no los dejes nunca sobre la mesa de trabajo. • No lleves bufandas, pañuelos largos ni prendas u objetos que dificulten tu movilidad. • Procura no andar de un lado para otro sin motivo y, sobre todo, no corras dentro del laboratorio.
108
• • • • • • •
Si tienes el cabello largo, recógetelo. Dispón sobre la mesa sólo los libros y cuadernos que sean necesarios. Ten siempre tus manos limpias y secas. Si tienes alguna herida, tápala. No pruebes ni ingieras los productos. En caso de producirse un accidente, quemadura o lesión, comunícalo inmediatamente al profesor. Recuerda dónde está situado el botiquín. Mantén el área de trabajo limpia y ordenada.
Normas para Manipular Instrumentos y Productos • Antes de manipular un aparato o montaje eléctrico, desconéctalo de la red eléctrica. • No pongas en funcionamiento un circuito eléctrico sin que el profesor haya revisado la instalación. • No utilices ninguna herramienta o máquina sin conocer su uso, funcionamiento y normas de seguridad específicas. • Maneja con especial cuidado el material frágil, por ejemplo, el vidrio. • Informa al profesor del material roto o averiado. • Fíjate en los signos de peligrosidad que aparecen en los frascos de los productos químicos. • Lávate las manos con jabón después de tocar cualquier producto químico. • Al acabar la práctica, limpia y ordena el material utilizado. • Si te salpicas accidentalmente, lava la zona afectada con agua abundante. Si salpicas la mesa, límpiala con agua y sécala después con un paño. • Evita el contacto con fuentes de calor. No manipules cerca de ellas sustancias inflamables. Para sujetar el instrumental de vidrio y retirarlo del fuego, utiliza pinzas de madera. Cuando calientes los tubos de ensayo con la ayuda de dichas pinzas, procura darles cierta inclinación. Nunca mires directamente al interior del tubo por su abertura ni dirijas esta hacia algún compañero. (ver imagen) • Todos los productos inflamables deben almacenarse en un lugar adecuado y separados de los ácidos, las bases y los reactivos oxidantes. • Los ácidos y las bases fuertes han de manejarse con mucha precaución, ya que la mayoría son corrosivos y, si caen sobre la piel o la ropa, pueden producir heridas y quemaduras importantes. • Si tienes que mezclar algún ácido (por ejemplo, ácido sulfúrico) con agua, añade el ácido sobre el agua, nunca, al contrario, pues el ácido «saltaría» y podría provocarte quemaduras en la cara y los ojos. • No dejes destapados los frascos ni aspires su contenido. Muchas sustancias líquidas (alcohol, éter, cloroformo, amoníaco...) emiten vapores tóxicos.
PROPIEDADES DE LA MATERIA Las propiedades de la materia son aquellas que definen las características de todo aquello que tiene masa y ocupa un volumen. Las propiedades de la materia pueden ser generales o específicas. Propiedades generales de la materia: son aquellas características comunes a todos los cuerpos: Masa: Cantidad de materia que contiene un cuerpo.
Peso: La fuerza que ejerce la gravedad sobre los cuerpos
Volumen o extensión: Espacio que ocupa un cuerpo
Porosidad: Espacio que existe entre las partículas
109
Inercia: Característica que impide a la materia moverse sin intervención de una fuerza externa
Divisibilidad: Capacidad de la materia dividirse en partes más pequeñas
Es importante recalcar que la materia y sus propiedades estarán siempre afectadas por las fuerzas gravitatorias del medio en que se encuentran y por la fuerza de atracción entre las moléculas que la componen. Propiedades específicas la materia: son las características que diferencian un cuerpo de otro y son agrupadas en: •
Propiedades físicas: son aquellas que definen la estructura medible del objeto como, por ejemplo, el olor, la textura, el sabor, el estado físico, etc.
•
Propiedades químicas: son aquellas que cada sustancia tiene con respecto a otras sustancias con la habilidad de crear otras nuevas como, por ejemplo, la combustibilidad, la oxidación, la reactividad, la afinidad electrónica, entre otros.
110
TRANSFORMACIONES DE LA MATERIA La materia está presente en todo el universo en diferentes estados. Algunos de ellos, incluso, recién se están investigando. La materia normalmente presenta tres estados o formas: sólida, líquida o gaseosa. Sin embargo, existe un cuarto estado, denominado estado plasma, el cual corresponde a un conjunto de partículas gaseosas eléctricamente cargadas (iones), con cantidades aproximadamente iguales de iones positivos y negativos, es decir, globalmente neutro. Solido El estado sólido se caracteriza por su resistencia a cualquier cambio de forma, lo que se debe a la fuerte atracción que hay entre las moléculas que lo constituyen; es decir, las moléculas están muy cerca unas de otras. No todos los sólidos son iguales, ya que poseen propiedades específicas que los hacen ser diferentes. Estas propiedades son: - Elasticidad - Dureza - Fragilidad Líquido En el estado líquido, las moléculas pueden moverse libremente unas respecto de otras, ya que están un poco alejadas entre ellas. Los líquidos, sin embargo, todavía presentan una atracción molecular suficientemente firme como para resistirse a las fuerzas que tienden a cambiar su volumen. No todos líquidos son iguales. Poseen propiedades específicas que los hacen ser diferentes.
•
Volatilidad: nos referimos a la capacidad del líquido para evaporarse. Por ejemplo, si dejas un perfume abierto, podrás ver cómo con el paso del tiempo, disminuye el volumen del líquido.
•
Viscosidad: nos referimos a la facilidad del líquido para esparcirse. No es lo mismo derramar aceite que agua, ésta última es menos viscosa, ya que fluye con mayor facilidad. Gaseoso En el estado gaseoso, las moléculas están muy dispersas y se mueven libremente, sin ofrecer ninguna oposición a las modificaciones en su forma y muy poca a los cambios de volumen. Como resultado, un gas que no está encerrado tiende a difundirse indefinidamente, aumentando su volumen y disminuyendo su densidad.
La mayoría de las sustancias son sólidas a temperaturas bajas, líquidas a temperaturas medias y gaseosas a temperaturas altas; pero los estados no siempre están claramente diferenciados. Puede ocurrir que se produzca una coexistencia de fases cuando una materia está cambiando de estado; es decir, en un momento determinado se pueden apreciar dos estados al mismo tiempo. Por ejemplo, cuando cierta cantidad de agua llega a los 100ºC (en estado líquido) se evapora, es decir, alcanza el estado gaseoso; pero aquellas moléculas que todavía están bajo los 100ºC, se mantienen en estado líquido.
111
Plasma Existe un cuarto estado de la materia llamado plasma, que se forman bajo temperaturas y presiones extremadamente altas, haciendo que los impactos entre los electrones sean muy violentos, separándose del núcleo y dejando sólo átomos dispersos. El plasma, es así, una mezcla de núcleos positivos y electrones libres, que tiene la capacidad de conducir electricidad. Un ejemplo de plasma presente en nuestro universo es el Sol.
Estados de agregación de la materia La materia se presenta en tres estados o formas de agregación: sólido, líquido y gaseoso. Dadas las condiciones existentes en la superficie terrestre, sólo algunas sustancias pueden hallarse de modo natural en los tres estados, tal es el caso del agua. La mayoría de sustancias se presentan en un estado concreto. Así, los metales o las sustancias que constituyen los minerales se encuentran en estado sólido y el oxígeno o el CO2 en estado gaseoso: • • •
Los sólidos: Tienen forma y volumen constantes. Se caracterizan por la rigidez y regularidad de sus estructuras. Los líquidos: No tienen forma fija pero sí volumen. La variabilidad de forma y el presentar unas propiedades muy específicas son características de los líquidos. Los gases: No tienen forma ni volumen fijos. En ellos es muy característica la gran variación de volumen que experimentan al cambiar las condiciones de temperatura y presión.
CLASIFICACIÓN DE LA MATERIA La materia la podemos encontrar en la naturaleza en forma de sustancias puras y de mezclas. Las sustancias puras son aquéllas cuya naturaleza y composición no varían sea cual sea su estado. Se dividen en dos grandes grupos: Elementos y Compuestos. •
Elementos: Son sustancias puras que no pueden descomponerse en otras sustancias puras más sencillas por ningún procedimiento. Ejemplo: Todos los elementos de la tabla periódica: Oxígeno, hierro, carbono, sodio, cloro, cobre, etc. Se representan mediante su símbolo químico y se conocen 115 en la actualidad.
112
•
Compuestos: Son sustancias puras que están constituidas por 2 o más elementos combinados en proporciones fijas. Los compuestos se pueden descomponer mediante procedimientos químicos en los elementos que los constituyen. Ejemplo: Agua, de fórmula H2O, está constituida por los elementos hidrógeno (H) y oxígeno (O) y se puede descomponer en ellos mediante la acción de una corriente eléctrica (electrólisis). Los compuestos se representan mediante fórmulas químicas en las que se especifican los elementos que forman el compuesto y el número de átomos de cada uno de ellos que compone la molécula. Ejemplo: En el agua hay 2 átomos del elemento hidrógeno y 1 átomo del elemento oxígeno formando la molécula H 2O.
Elementos
Compuestos
Cuando una sustancia pura está formada por un solo tipo de elemento, se dice que es una sustancia simple. Esto ocurre cuando la molécula contiene varios átomos, pero todos son del mismo elemento. Ejemplo: Oxígeno gaseoso (O2), ozono (O3), etc. Están constituidas sus moléculas por varios átomos del elemento oxígeno. *Las mezclas se encuentran formadas por 2 o más sustancias puras. Su composición es variable. Se distinguen dos grandes grupos: Mezclas Homogéneas y Mezclas Heterogéneas. a) Mezclas Homogéneas: También llamadas Disoluciones. Son mezclas en las que no se pueden distinguir sus componentes a simple vista. Ejemplo: Disolución de sal en agua, el aire, una aleación de oro y cobre, etc.
b) Mezclas Heterogéneas: Son mezclas en las que se pueden distinguir a los componentes a simple vista. Ejemplo: Agua con aceite, granito, arena en agua, etc. Decantación: Esta técnica se emplea para separar 2 líquidos no miscibles entre sí. Ejemplo: Agua y aceite. La decantación se basa en la diferencia de densidad entre los dos componentes, que hace que, dejados en reposo, ambos se separen hasta situarse el más denso en la parte inferior del envase que los contiene. De esta forma, podemos vaciar el contenido por arriba (si queremos tomar el componente menos denso) o por abajo (si queremos tomar el más denso).
113
En la separación de dos líquidos no miscibles, como el agua y el aceite, se utiliza un embudo de decantación que consiste en un recipiente transparente provisto de una llave en su parte inferior. Al abrir la llave, pasa primero el líquido de mayor densidad y cuando éste se ha agotado se impide el paso del otro líquido cerrando la llave. La superficie de separación entre ambos líquidos se observa en el tubo estrecho de goteo.
LA TABLA PERIÓDICA DE LOS ELEMENTOS La tabla periódica de los elementos es una disposición de los elementos químicos en forma de tabla, ordenados por su número atómico (número de protones), por su configuración de electrones y sus propiedades químicas. Este ordenamiento muestra tendencias periódicas, como elementos con comportamiento similar en la misma columna. En palabras de Theodor Benfey, la tabla y la ley periódica «son el corazón de la química — comparables a la teoría de la evolución en biología (que sucedió al concepto de la Gran Cadena del Ser), y a las leyes de la termodinámica en la física clásica—». Las filas de la tabla se denominan períodos y las columnas grupos. Algunos grupos tienen nombres. Así por ejemplo el grupo 17 es el de los halógenos y el grupo 18 el de los gases nobles. La tabla también se divide en cuatro bloques con algunas propiedades químicas similares. Debido a que las posiciones están ordenadas, se puede utilizar la tabla para obtener relaciones entre las propiedades de los elementos, o pronosticar propiedades de elementos nuevos todavía no descubiertos o sintetizados. La tabla periódica proporciona un marco útil para analizar el comportamiento químico y es ampliamente utilizada en química y otras ciencias. Dmitri Mendeléyev publicó en 1869 la primera versión de tabla periódica que fue ampliamente reconocida. La desarrolló para ilustrar tendencias periódicas en las propiedades de los elementos entonces conocidos, al ordenar los elementos basándose en sus propiedades químicas, si bien Julius Lothar Meyer, trabajando por separado, llevó a cabo un ordenamiento a partir de las propiedades físicas de los átomos. Mendeléyev también pronosticó algunas propiedades de elementos entonces desconocidos que anticipó que ocuparían los lugares vacíos en su tabla. Posteriormente se demostró que la mayoría de sus predicciones eran correctas cuando se descubrieron los elementos en cuestión. La tabla periódica de Mendeléyev ha sido desde entonces ampliada y mejorada con el descubrimiento o síntesis de elementos nuevos y el desarrollo de modelos teóricos nuevos para explicar el comportamiento químico. La estructura actual fue diseñada por Alfred Werner a partir de la versión de Mendeléyev. Existen además otros arreglos periódicos de acuerdo a diferentes propiedades y según el uso que se le quiera dar (en didáctica, geología, etc). Se han descubierto o sintetizado todos los elementos de número atómico del 1 (hidrógeno) al 118 (oganesón); la IUPAC confirmó los elementos 113, 115, 117 y 118 el 30 de diciembre de 2015, y sus nombres y símbolos oficiales se hicieron públicos el 28 de noviembre de 2016. Los primeros 94 existen naturalmente, aunque algunos solo se han encontrado en cantidades pequeñas y fueron sintetizados en laboratorio antes de ser encontrados en la naturaleza. Los elementos con números atómicos del 95 al 118 solo han sido sintetizados en laboratorios. Allí también se produjeron numerosos radioisótopos
114
sintéticos de elementos presentes en la naturaleza. Los elementos del 95 a 100 existieron en la naturaleza en tiempos pasados, pero actualmente no. La investigación para encontrar por síntesis nuevos elementos de números atómicos más altos continúa.
Grupos o Familias En la tabla periódica de elementos, hay siete filas horizontales de elementos llamados períodos. Las columnas verticales de elementos se denominan grupos o familias. Los elementos de la tabla periódica se clasifican en familias, también llamadas "Grupos", porque las tres categorías principales de los elementos (metales, no metales y metaloides) son muy amplias. Grupos de la Tabla Periódica Los miembros de una misma familia o grupo (misma columna vertical) en la tabla periódica tienen propiedades similares. Las familias están etiquetadas en la parte superior de las columnas de una de estas dos maneras: 1. El método más antiguo utiliza números romanos y letras (por ejemplo, IIA). Muchos químicos todavía prefieren utilizar este método. 2. El nuevo método utiliza los números del 1 al 18 Cada familia reacciona de una manera diferente con el mundo exterior. Los metales se comportan de manera diferente que los gases, e incluso hay diferentes tipos de metales. Algunos elementos no reaccionan, mientras que otros son muy reactivos, y algunos son buenos conductores de la electricidad. Las características de los elementos de cada familia están determinadas principalmente por el número de electrones en la capa externa de energía o última capa, también llamados electrones de valencia. Estos son los electrones que van a reaccionar cuando el elemento se une con otro.
115
Los grupos de la Tabla Periódica son: • Grupo 1 (I A): metales alcalinos • Grupo 2 (II A): metales alcalinotérreos • Grupo 3 (III B): familia del escandio • Grupo 4 (IV B): familia del titanio • Grupo 5 (V B): familia del vanadio • Grupo 6 (VI B): familia del cromo • Grupo 7 (VII B): familia del manganeso • Grupo 8 (VIII B): familia del hierro • Grupo 9 (VIII B): familia del cobalto
• • • • • • • • •
Grupo 10 (VIII B): familia del níquel Grupo 11 (I B): familia del cobre Grupo 12 (II B): familia del zinc Grupo 13 (III A): térreos Grupo 14 (IV A): carbonoideos Grupo 15 (V A): nitrogenoideos Grupo 16 (VI A): calcógenos o anfígenos Grupo 17 (VII A): halógenos Grupo 18 (VIII A): gases nobles
Símbolo y elementos de cada grupo:
Características de las Familias de la Tabla Periódica • La familia IA: se compone de los metales alcalinos. En las reacciones, estos elementos todos tienden a perder un solo electrón. Esta familia contiene algunos elementos importantes, tales como el sodio (Na) y potasio (K). Ambos de estos elementos juegan un papel importante en la química del cuerpo y se encuentran comúnmente en sales. Se llaman así porque cuando reaccionan con el agua forman el álcali. No entra en este grupo el Hidrógeno. •
La familia IIA: se compone de los metales de tierras alcalinas. Todos estos elementos tienden a perder dos electrones. El calcio (Ca) es un miembro importante de la familia IIA (que necesita calcio para los huesos y dientes sanos).
116
117
•
La familia IIIA: ninguno muestra tendencia a formar aniones simples. Tienen estado de oxidación +3, pero también +1 en varios elementos. El boro se diferencia del resto de los elementos del grupo porque es un metaloide, mientras que los demás van aumentando su carácter metálico conforme se desciende en el grupo. Debido a esto, puede formar enlaces covalentes bien definidos, es un semiconductor, es duro a diferencia del resto que son muy blandos. Tienen puntos de fusión muy bajos, a excepción del boro.
•
La familia IVA: son los carbonos ideos, no metales. A medida que se desciende en el grupo, aumenta el carácter metálico de sus componentes. el C y el Si son no metales, el germanio es un semimetal y el Sn junto con el Pb son netamente metálicos. El C y el Si tienden a formar uniones covalentes para completar su octeto electrónico, mientras que el Sn y el Pb.
•
La familia VA: son los no metales nitrogenados. El N y el P son no metálicos, el arsénico y el antimonio son semimetales, a veces se comportan como metales y otras como no metales (esto es carácter anfótero). El Bi es un metal. esta variación de no metálico a metálico, a medida que se avanza en el grupo, se debe al aumento del tamaño de los átomos. resulta más difícil separar un electrón del átomo de N que hacerlo con el de Bi, porque en el primero la atracción nuclear es más intensa. Las moléculas de N son biatómicas, el P, As, Sb presentan moléculas tetralógicas en algunos de sus estados alotrópicos. el Bi es biatómico. todos estos elementos forman enlaces covalentes.
•
La familia VIA: son los no metales calcógenos. Sus puntos de fusión, densidad y ebullición aumentan a medida que se desciende en el grupo, es decir a medida que aumenta el tamaño de los átomos. Se combinan con el H para formar hidruros no metálicos. De acuerdo a la electronegatividad, la afinidad química con el H decrece del O al Te.
•
La familia VIIA: se compone de los halógenos. Todos ellos tienden a ganar un solo electrón en las reacciones. Miembros importantes de la familia incluyen el cloro (Cl), que se utiliza en la fabricación de la sal de mesa y cloro, y el yodo (I).
•
La familia VIIIA: se compone de los gases nobles. Estos elementos son muy reactivos. Durante mucho tiempo, los gases nobles fueron llamados los gases inertes, porque la gente pensaba que estos elementos no reaccionarían en absoluto con ningún otro elemento. Un científico llamado Neil Bartlett mostró que al menos algunos de los gases inertes si puede reaccionar, pero requiere condiciones muy especiales.
•
Metales de Transición: el mayor grupo de elementos en la tabla periódica, que van de los Grupos del 3 al 12. Tienen diferentes grados de reactividad y una muy amplia gama de propiedades. En general, sin embargo, los metales de transición son buenos conductores del calor y la electricidad y tienen altos puntos de ebullición y densidades.
•
Lantánidos: son un grupo de metales situados en la segunda fila de la parte inferior de la tabla periódica. Son bastante raros, sus números atómicos oscilan entre 57 (lantano) a 71 (lutecio). Algunos de estos elementos se pueden encontrar en los superconductores, la producción de vidrio, o láser.
•
Actínidos: son un grupo de metales en la última fila de la tabla periódica. La familia de los actínidos contiene quince elementos que comienzan con el actinio. Todos los actínidos son radiactivos y algunos no se encuentran en la naturaleza.
Períodos 1. Período 1 • Elementos del Periodo 1: Un elemento pertenece al Periodo 1 cuando está situado en la 1ª fila de la Tabla Periódica. • El Periodo 1 indica que el átomo posee electrones en un único nivel de energía. • Los elementos que pertenecen al Periodo 1 son: o Hidrógeno (Z=1): posee características similares a las de los alcalinos, por lo que se lo incluye en ese grupo. o Helio (Z=2): siguiendo los mismos criterios que los demás elementos, iría en la segunda columna, pero cómo se comporta como gas noble al tener su último orbital completo, se lo incluye en la columna de los gases nobles. 2. • • •
Período 2 Un elemento pertenece al Periodo 2 cuando está situado en la 2ª fila de la Tabla Periódica. El Periodo 2 indica que el átomo posee electrones distribuidos en dos niveles de energía. Existen 8 elementos pertenecientes al Periodo 2 son: o Litio (Z=3): perteneciente al Grupo IA, es un metal alcalino, blando, que se oxida fácilmente en el agua o en el aire. o Berilio (Z=4): pertenece al Grupo IIA, es un metal alcalinotérreo, ligero y duro, pero a la vez es también quebradizo. o Boro (Z=5): pertenece al Grupo IIIA, es un metaloide, de aspecto negruzco que tiene propiedades de semiconductor. o Carbono (Z=6): pertenece al Grupo IVA, es un no metal de aspecto y propiedades variables según se sus átomos a nivel molecular. o Nitrógeno (Z=7): pertenece al Grupo VA, es un no metal que posee una alta electronegatividad y se encuentra en forma de gas a temperatura ambiente o Oxígeno (Z=8): pertenece al Grupo VIA, es un no metal que se encuentra en forma de gas a temperatura ambiente o Flúor (Z=9): pertenece al Grupo VIIA, es un halógeno, es el elemento más electronegativo y se encuentra en forma de gas a temperatura ambiente o Neón (Z=10): pertenece al Grupo VIIIA, es un gas noble ya que tiene su última capa completa de electrones.
3. • • •
Período 3 Un elemento pertenece al Periodo 3 cuando está situado en la 3ª fila de la Tabla Periódica . El Periodo 3 indica que el átomo posee electrones distribuidos en tres niveles de energía. Existen 8 elementos pertenecientes al Periodo 3: o Sodio (Z=11) o Fósforo (Z=15) o Magnesio (Z=12) o Azufre (Z=16) o Aluminio (Z=13) o Cloro (Z=17) o Silicio (Z=14) o Argón (Z=18)
4. • • •
Período 4 Un elemento pertenece al Periodo 4 cuando está situado en la 4ª fila de la Tabla Periódica. El Periodo 4 indica que el átomo posee electrones distribuidos en cuatro niveles de energía. Existen 18 elementos pertenecientes al Periodo 4 son: o Potasio (Z=19) o Manganeso (Z=25) o Galio (Z=31) o Calcio (Z=20) o Hierro (Z=26) o Germanio (Z=32) o Escandio (Z=21) o Cobalto (Z=27) o Arsénico (Z=33) o Titanio (Z=22) o Níquel (Z=28) o Selenio (Z=34) o Vanadio Z=23) o Cobre (Z=29) o Bromo (Z=35) o Cromo (Z=24) o Cinc (Z=30) o Kriptón (Z=36)
118
5. • • •
Período 5 Un elemento pertenece al Periodo 5 cuando está situado en la 5ª fila de la Tabla Periódica. El Periodo 5 indica que el átomo posee electrones distribuidos en cinco niveles de energía. Existen 18 elementos pertenecientes al Periodo 5 son: o Rubidio o Molibdeno o Plata o Telurio o Estroncio o Tecnecio o Cadmio o Lodo o Itrio o Rutenio o Indio o Xenón o Circonio o Rodio o Estaño o Niobio o Paladio o Antimonio
6. • • • •
Período 6 Elementos del Periodo 6: Un elemento pertenece al Periodo 6 cuando está situado en la 6ª fila de la Tabla Periódica. El Periodo 6 indica que el átomo posee electrones distribuidos en seis niveles de energía. En total, los elementos que conforman el período 6 son los siguientes: o Cesio (Cs) o Osmio (Os) o Plomo (Pb) o Bario (Ba) o Iridio (Ir) o Bismuto (Bi) o Hafnio (Hf) o Platino (Pt) o Ástato (At) o Tantalio (Ta) o Oro (Au) o Radón (Rn) o Wolframio (W) o Mercurio (Hg) o Renio (Re) o Talio (Tl)
•
Igualmente, en este período se toman en cuenta los elementos Lantánidos: o Lantano (La) o Samario (Sm) o Holmio (Ho) o Cerio (Ce) o Europio (Eu) o Erbio (Er) o Praseodimio (Pr) o Gadolinio (Gd) o Tulio (Tm) o Neodimio (Nd) o Terbio (Tb) o Iterbio (Yb) o Prometio (Pm) o Disprosio (Dy) o Lutecio (Lu)
7. • • •
Período 7 Un elemento pertenece al Periodo 7 cuando está situado en la 7ª fila de la Tabla Periódica. El Periodo 7 indica que el átomo posee electrones distribuidos en seis niveles de energía. Los elementos que conforman este período son los siguientes: o Francio (Fr) o Bohrio (Bh) o Flerovio (Fl) o Radio (Ra) o Hassio (Hs) o Ununpetio (Uup) o Rutherfordio (Rf) o Meitnerio (Mt) o Livermorio (Lv) o Dubnio (Db) o Darmstadtio (Ds) o Ununseptio (Uus) o Seaborgio (Sg) o Roentgenio (Rg) o Ununoctio (Uuo)
•
Igualmente, en este período se encuentran los actínidos o Fermio (Fm) o Nobelio (No) o Mendelevio (Md) o Lawrencio (Lr).
119
Propiedades de los Elementos La tabla periódica es un esquema en el que representan los elementos químicos de acuerdo a un criterio: el número atómico. Los elementos químicos se ubican en la tabla periódica dispuestos en grupos de periodos. Tanto en los grupos como en los periodos comparten ciertas características fisicoquímicas.
La ubicación de los elementos químicos en la tabla periódica depende de su número atómico. Se ubican por número atómico creciente y las propiedades que presentan se relacionan con ese número. Entonces, al mirar la ubicación de un elemento en la tabla, ya sea en un grupo (división vertical) o en un periodo (división horizontal), es posible predecir sus propiedades físicas y químicas, así como su comportamiento químico. Entonces, ¿qué son las propiedades periódicas de los elementos? Son las características que tienen los elementos y que varían en forma secuencial por grupos y periodos. Algunas de esas propiedades son: radio atómico, potencial de ionización, electronegatividad, estructura electrónica, afinidad electrónica, valencia iónica, carácter metálico. • Estructura electrónica: es la distribución de los electrones del átomo en los diferentes niveles y subniveles de energía. Todos los elementos de un periodo tienen sus electrones más externos en el mismo nivel de energía. Los elementos de un grupo comparten la configuración electrónica externa teniendo, por lo tanto, propiedades químicas semejantes. • Electronegatividad: es la tendencia que tiene un elemento de atraer los electrones de enlace de otros elementos. En la labia periódica, la electronegatividad aumenta en los periodos de izquierda a derecha y los grupos, de abajo hacia arriba. • Radio atómico: los electrones se ubican en diferentes niveles alrededor del núcleo y el radio atómico es la distancia, más probable, que existe entre los electrones de la última capa y el núcleo. La expresión probable se debe a que los electrones no describen orbitas cerradas. Disminuye a lo largo del periodo y aumenta de arriba hacia abajo dentro de un grupo de la labia. • Potencial de ionización: es la energía necesaria para guitar un electrón a un átomo neutro, convirtiéndolo en un catión. Depende de la energía con la que el elemento en cuestión atraiga a sus electrones. En un grupo, el valor disminuye de arriba hacia abajo. En un periodo, aumenta desde la izquierda hacia la derecha.
120
Propiedades Periódicas La utilidad de la Tabla Periódica reside en que la ordenación de los elementos químicos permite poner de manifiesto muchas regularidades y semejanzas en sus propiedades y comportamientos. Por ejemplo, todos los elementos de un mismo grupo poseen un comportamiento químico similar, debido a que poseen el mismo número de electrones en su capa más externa (estos electrones son los que normalmente intervienen en las reacciones químicas). Existen, por tanto, muchas propiedades de los elementos que varían de forma gradual al movernos en un determinado sentido en la tabla periódica, como son: radio atómico, energía de ionización, afinidad electrónica y electronegatividad. 1.1- Radio Atómico (RA) Es la distancia que existe entre el núcleo y la capa de valencia (la más externa). El radio atómico dependerá del tipo de unión que presenten los átomos. La medida de los radios atómicos se expresa en angstrom (Å); así, 1 Å = 10–10 m. Pero en las unidades SI, se da en nanómetros (1 nm = 10–9 m) o en picómetros (1 pm = 10–12 m). Por ejemplo, un átomo de sodio tiene un radio de 1,86 Å; o de 0,186 nm, o de 186 pm.
En un grupo: el radio atómico aumenta al descender, pues hay más capas de electrones. En un período: el radio atómico aumenta hacia la izquierda pues hay las mismas capas, pero menos protones para atraer a los electrones. 1.2- Energía de Ionización (EI) Es la energía necesaria para separar totalmente el electrón más externo del átomo en estado gaseoso. Como resultado, se origina un ion gaseoso con una carga positiva (catión). Una manera de expresar esta información es la siguiente: X(g) + energía → X+ (g) + 1e– Si el electrón está débilmente unido, la energía de ionización es baja; si el electrón está fuertemente unido, la energía de ionización es alta. En un grupo: La energía de ionización disminuye al aumentar el número atómico, ya que los electrones externos están cada vez más alejados del núcleo y por lo tanto cada vez menos atraídos por el núcleo (será más fácil extraerlos). En un período: La energía de ionización aumenta al aumentar el número atómico, ya que para un mismo periodo los electrones se colocan en la misma capa de valencia y al ir aumentando la carga positiva del núcleo, la atracción de ésta sobre los electrones será cada vez mayor.
121
ENLACES QUÍMICOS Y ENLACE COVALENTE Conocemos como enlaces químicos a la fusión de átomos y moléculas para formar compuestos químicos más grandes y complejos dotados de estabilidad. En este proceso los átomos o moléculas alteran sus propiedades físicas y químicas, constituyendo nuevas sustancias homogéneas (no mezclas), inseparables a través de mecanismos físicos como el filtrado o el tamizado. Es un hecho que los átomos que forman la materia tienden a unirse y alcanzar condiciones más estables que en solitario, a través de diversos métodos que equilibran o comparten sus cargas eléctricas naturales. Se sabe que los protones en el núcleo de todo átomo poseen carga positiva (+) y los electrones alrededor poseen carga negativa (-), mientras que los neutrones, también en el núcleo, no tienen carga, pero aportan masa (y, por lo tanto, gravedad). Los enlaces químicos ocurren en la naturaleza y forman parte tanto de sustancias inorgánicas como de formas de vida, ya que sin ellos no podrían construirse las proteínas y aminoácidos complejos que conforman nuestros cuerpos. De manera semejante, los enlaces químicos pueden romperse bajo ciertas y determinadas condiciones, como al ser sometidos a cantidades de calor, a la acción de la electricidad, o a la de sustancias que rompan la unión existente y propicien otras nuevas junturas. Así, por ejemplo, es posible someter al agua a electricidad para separar las uniones químicas entre el hidrógeno y el oxígeno que la conforman, en un proceso denominado electrólisis; o añadir grandes cantidades de energía calórica a una proteína para romper sus enlaces y desnaturalizarla, es decir, romperla en trozos más pequeños. Tipos de Enlace Químico Existen tres tipos de enlace químico conocidos, dependiendo de la naturaleza de los átomos involucrados, así: 1. Enlace Covalente: Ocurre cuando dos átomos comparten uno o más pares de electrones de su última órbita (la más externa), y así consiguen una forma eléctrica más estable. Es el tipo de enlace predominante en las moléculas orgánicas y puede ser de tres tipos: simple (A-A), doble (A=A) y triple (A≡A), dependiendo de la cantidad de electrones compartidos. 2. Enlace Iónico: Se debe a interacciones electrostáticas entre los iones, que pueden formarse por la transferencia de uno o más electrones de un átomo o grupo de átomos a otro. Tiene lugar con más facilidad entre átomos metálicos y no metálicos, y consiste en una transferencia permanente de electrones desde el átomo metálico hacia el átomo no metálico, produciendo una molécula cargada eléctricamente en algún sentido, ya sea cationes (+1) o aniones (-1). 3. Enlace Metálico: Se da únicamente entre átomos metálicos de un mismo elemento, que por lo general constituyen estructuras sólidas, sumamente compactas. Es un enlace fuerte, que junta los núcleos atómicos entre sí, rodeados de sus electrones como en una nube, y cuesta mucho esfuerzo separarlos. Ejemplos de enlace químico Algunos ejemplos de enlace covalente están presentes en los siguientes compuestos: • Benceno (C6H6) • Freón (CFC) • Metano (CH4) • En todas las formas del carbono (C): • Glucosa (C6H12O6) carbón, diamantes, grafeno, etc. • Amoníaco (NH3) En cambio, ejemplos de compuestos con enlaces iónicos son: • Óxido de magnesio (MgO) • Cloruro de manganeso (MnCl2) • Sulfato de cobre (CuSO4) • Carbonato de calcio (CaCO3) • Ioduro de potasio (KI) • Sulfuro de hierro (Fe2S3)
122
Y, finalmente, ejemplos de elementos con enlaces metálicos: • Barras de hierro (Fe) • Yacimientos de cobre (Cu) • Barras de oro puro (Au) • Barras de plata pura (Ag) Enlace Covalente Se llama enlace covalente a un tipo de enlace químico, que ocurre cuando dos átomos se enlazan para formar una molécula, compartiendo electrones pertenecientes de su capa más superficial, alcanzando gracias a ello el conocido “octeto estable” (conforme a la “regla del octeto” propuesto por Gilbert Newton Lewis sobre la estabilidad eléctrica de los átomos). Los átomos así enlazados comparten un par (o más) de electrones, cuya órbita varía y se denomina orbital molecular. Los enlaces covalentes son distintos de los enlaces iónicos, en los que ocurre una transferencia de electrones y que se dan entre elementos metálicos. Estos últimos, además, forman moléculas cargadas eléctricamente, llamadas iones: cationes si tienen carga positiva, aniones si tienen carga negativa. En cambio, ciertos enlaces covalentes (entre átomos diferentes) se caracterizan por una concentración de electronegatividad en uno de los dos átomos juntados, dado que no atraen con la misma intensidad a la nube de electrones a su alrededor. Esto da como resultado un dipolo eléctrico, es decir, una molécula con carga positiva y negativa en sus extremos, como una pila ordinaria: un polo positivo y otro negativo. Gracias a ello las moléculas covalentes se juntan con otras semejantes y forman estructuras más complejas. Tipos de Enlace Covalente Existen los siguientes tipos de enlace covalente, a partir de la cantidad de electrones compartidos por los átomos enlazados: 1. Simple: Los átomos enlazados comparten un par de electrones de su última capa (un electrón cada uno). Por ejemplo: H-H (Hidrógeno-Hidrógeno), H-Cl (Hidrógeno-Cloro). 2. Doble: Los átomos enlazados aportan dos electrones cada uno, formando un enlace de dos pares de electrones. Por ejemplo: O=O (Oxígeno-Oxígeno), O=C=O (Oxígeno-CarbonoOxígeno). 3. Triple: En este caso los átomos enlazados aportan tres pares de electrones, es decir, seis en total. Por ejemplo: N≡N (Nitrógeno-Nitrógeno). 4. Dativo: Un tipo de enlace covalente en que uno solo de los dos átomos enlazados aporta dos electrones y el otro, en cambio, ninguno. Por otro lado, conforme a la presencia o no de polaridad, se puede distinguir entre enlaces covalentes polares (que forman moléculas polares) y enlaces covalentes no polares (que forman moléculas no polares): 1. Enlaces Covalentes Polares: Se enlazan átomos de distintos elementos y con diferencia de electronegatividad por encima de 0,5. Así se forman dipolos electromagnéticos. 2. Enlaces Covalentes No Polares: Se enlazan átomos de un mismo elemento o de idénticas polaridades, con una diferencia de electronegatividad muy pequeña (menor a 0,4). La nube electrónica, así, es atraída con igual intensidad por ambos núcleos y no se forma un dipolo molecular. Ejemplos sencillos de enlace covalente son los que se dan en las siguientes moléculas: • Oxígeno puro (O2). O=O (un enlace doble) • Hidrógeno puro (H2). H-H (un enlace simple)
123
• • • • •
Dióxido de carbono (CO2). O=C=O (dos enlaces dobles) Agua (H2O). H-O-H (dos enlaces simples) Ácido clorhídrico (HCl). H-Cl (un enlace simple) Nitrógeno puro (N2). N≡N (un enlace triple) Ácido cianhídrico (HCN). H-C≡N (un enlace simple y uno triple)
LENGUAJE QUÍMICO Los químicos utilizan un lenguaje estándar para representar los cambios que ocurren en una reacción de modo que haya un mejor entendimiento de lo que sucede en las transformaciones de algunas sustancias. Por ejemplo, la ecuación de disolución del hidróxido de sodio (NaOH) es:
Donde las letras dentro de los paréntesis de cada una de las sustancias, en termoquímica, indican lo siguiente:
La reacción necesitará calor para efectuarse y por lo tanto la reacción deberá escribirse en forma contraria, como se ilustra a continuación:
El signo del calor como identificador de las reacciones termoquímicas El uso del lenguaje químico es importante para determinar si una reacción es exotérmica o endotérmica. El calor es energía en transferencia a través de las paredes de un sistema. Este cambio de energía se representa como:
Donde E = Energía Ejemplo: La ecuación para la formación del hielo se puede escribir:
124
En termoquímica, es costumbre escribir el calor de reacción a la derecha de la ecuación química:
En la evaporación del agua se escribirá:
Para saber si una ecuación termoquímica es endotérmica o exotérmica basta fijarte en el signo del calor (ΔE) de tal forma que:
NOMENCLATURA INORGÁNICA La nomenclatura química es un sistema de símbolos y nombres, tanto para los elementos químicos como para los compuestos que resultan de las combinaciones químicas. El lenguaje de la química es universal, de tal manera que, para el químico, el nombre de una sustancia, no solo la identifica, sino que revela su fórmula y composición. La Unión Internacional de Química Pura y Aplicada (IUPAC) se reúne periódicamente con el fin de fijar las normas que se deben seguir para unificar el lenguaje y las técnicas de publicación. 1. Compuestos binarios: Son aquellos compuestos que están formados por dos elementos. En este grupo se distinguen los óxidos, los hidruros, los hidrácidos y las sales binarias. 2. Óxidos: Los óxidos son compuestos binarios formados por un elemento y oxígeno. Los óxidos se dividen en dos grupos, de acuerdo con el carácter del elemento que se une con el oxígeno. Si el elemento es metálico, el óxido es básico o simplemente óxido. Cuando el elemento que está unido a oxígeno es no metálico, el compuesto formado es un óxido ácido o anhídrido. Cuando el elemento presenta más de un estado de oxidación, esta se indica con número romano entre paréntesis. Las fórmulas se escriben anotando primero el símbolo del elemento seguido por el oxígeno, su fórmula general es ExOy. Elemento Estado de Oxidación Fórmula Nombre K +1 K20 Oxido de potasio Na +1 Na2O Oxido de Sodio Cu +1 Cu2O Oxido de Cobre (I) Cu +2 CuO Oxido de Cobre (II) Cl +1 Cl2O Oxido de Cloro (I) Cl +7 Cl2O7 Oxido de Cloro (VII) N +5 N2O5 Óxido de Nitrógeno (V) Cuando el elemento posee más de un estado de oxidación se puede usar la terminación oso y la terminación ico para el mayor. Cu2O óxido cuproso, óxido de cobre (I) CuO óxido cúprico, óxido de cobre (II).
125
Si el elemento forma óxidos con cuatro estados de oxidación, el de menor estado de oxidación se nombra con el prefijo hipo y el sufijo oso, el con segundo estado de oxidación con el sufijo oso, el siguiente con sufijo ico y el con el mayor EO con el prefijo per y el sufijo ico. Ejemplo: Cl2O Cl2O3 Cl2O5 Cl2O7
} oso } ico
<="" td="">Oxido hipocloroso Oxido cloroso <="" td="">Oxido clórico Oxido perclórico
3. Hidruros: Son compuestos binarios formados por un metal "M" y el hidrógeno. Se anota primero el metal y después el hidrógeno. Su fórmula general es MH x, donde x = EO. 4. Ácidos Ternarios u Oxiácidos: Están formados por hidrógeno, no metal y oxígeno. Se obtienen al reaccionar un óxido ácido con agua, Su fórmula general es HnXOm. N2O3 + H20 Óxido nitroso CO2 + H20 Oxido carbónico
H2N2O4 = HNO2 Acido nitroso H2CO3 Acido carbónico
Si el no metal tiene varios EO existen varios ácidos, uno para cada EO. En este caso, para nombrar el ácido se usan los sufijos oso, ico y los prefijos hipo y per, según proceda. Cuando el no metal tiene solo un EO se usa la terminación ico. En algunos casos (P, As, Sb, B), el óxido puede reaccionar con 1, 2 o 3 moléculas de agua, obteniéndose en cada caso ácidos diferentes. Se nombran anteponiendo los prefijos: metal (1 H2O), piro (2H2O) y horto (3 H2O). P2O3 + H2O P2O3 + 2H2O
H2P2O4 ===> HPO2 Ac. meta fosforoso H4P2O5 Ac. piro fosforoso
P2O3 + 3H2O
H6P2O6 ===> H3PO3 Ac. Horto fosforoso
SISTEMA DE NOMENCLATURA En química, se conoce como nomenclatura (o nomenclatura química) al conjunto de normas que determinan la manera de nombrar o llamar a los diversos materiales químicos conocidos por el ser humano, dependiendo de los elementos que los componen y de la proporción de los mismos. Al igual que en las ciencias biológicas, existe en el mundo de la química una autoridad encargada de regular y ordenar una nomenclatura para hacerla universal. La importancia de la nomenclatura química radica en la posibilidad de nombrar, organizar y clasificar los diversos tipos de compuestos químicos, de manera tal que solamente con su término identificativo se pueda tener una idea de qué tipo de elementos lo componen y, por lo tanto, qué tipo de reacciones pueden esperarse del compuesto. Existen tres sistemas de nomenclatura química: 1. Sistema estequiométrico o sistemático (IUPAC) Que nombra los compuestos en base al número de átomos de cada elemento que forman su molécula básica. Por ejemplo: el compuesto Ni2O3 se llama Trióxido de diníquel.
126
2. Sistema funcional, clásico o tradicional Que emplea diversos sufijos y prefijos (como “-oso” o “-ito”) según la valencia de los elementos del compuesto. Por ejemplo: el compuesto Ni2O3 se llama Óxido niquelito. 3. Sistema STOCK En el que el nombre del compuesto incluye en números romanos (y a veces como subíndice) la valencia de los átomos presentes en la molécula básica del compuesto. Por ejemplo: el compuesto Ni2O3 se llama Óxido de níquel (III). Por otro lado, la nomenclatura química varía dependiendo de si se trata de compuestos orgánicos o inorgánicos. Nomenclatura en Química Orgánica • Hidrocarburos Compuestos mayormente por átomos de carbono e hidrógeno, con añadidos de diversa naturaleza, pueden clasificarse en dos tipos de grupos funcionales: alifáticos, entre los que están los alcanos, alquenos, alquinos y cicloalcanos; y aromáticos, entre los que están los monocíclicos o mononucleares, y los policíclicos o polinucleares (dependiendo de la cantidad de anillos de benceno que presenten). • Hidrocarburos Aromáticos Conocidos como árenos, se trata del benceno (C6H6) y sus derivados, y pueden ser monocíclicos (poseen un solo núcleo bencénico) o policíclicos (poseen varios).
• Monocíclicos Se nombran a partir de derivaciones del nombre del benceno, enumerando sus sustituyentes con prefijos numeradores. Aunque generalmente conservan su nombre vulgar. Por ejemplo: Metilbenceno (Tolueno), 1,3-dimetilbenceno (o-xileno), hidroxibenceno (Fenol), etc. • Policíclicos En su mayoría se nombran mediante su nombre vulgar, dado que son compuestos muy específicos. Pero también se puede usar para ellos el sufijo -eno, cuando tienen el mayor número posible de enlaces dobles no acumulados. Por ejemplo: Naftaleno, Antraceno.
• Alcoholes Los alcoholes se definen por la fórmula general R-OH, se asemejan en estructura al agua, pero reemplazando un átomo de hidrógeno por un grupo alquilo. Su grupo funcional es el hidroxilo (-OH) y se nombran empleando el sufijo -ol en lugar de la terminación -o del correspondiente hidrocarburo. En caso de haber varios grupos hidroxilo, se nombran mediante prefijos numeradores. Por ejemplo: Etanol, 2-propanol, 2-propen1-ol, etc.
127
• Fenoles Los fenoles son idénticos a los alcoholes, pero con un anillo aromático unido al grupo hidroxilo, siguiendo la fórmula Ar-OH. Se emplea en ellos el sufijo -ol también, unido al del hidrocarburo aromático. Por ejemplo: onitrofenol, p-bromofenol, etc. • Éteres Los éteres se rigen por la fórmula general R-O-R’, donde los radicales de los extremos pueden ser grupos idénticos o diferentes, del grupo alquilo o arilo. Los éteres se nombran con el término de cada grupo alquilo o arilo en orden alfabético, seguidos de la palabra “éter”. Por ejemplo: etil metil éter, dietil éter, etc. • Aminas Derivadas del amoníaco por sustitución de algunos de sus hidrógenos por grupos radicales alquilos o arilos, obteniendo aminas alifáticas y aminas aromáticas respectivamente. En ambos casos se nombran usando el sufijo amina o se conserva el nombre vulgar. Por ejemplo: metilamina, isopropilamina, etc. • Ácidos Carboxílicos Formados por átomos de hidrógeno, carbono y oxígeno, se nombran considerando la cadena principal de mayores átomos de carbono que contenga el grupo ácido, y enumerando a partir del grupo carboxílico (=C=O). Entonces se emplea como prefijo el nombre del hidrocarburo con igual número de carbonos y la terminación -ico u -oico, por ejemplo: ácido metanoico o ácido fórmico, ácido etanoico o ácido acético. • Ésteres No se deben confundir con los éteres, pues se trata de ácidos cuyo hidrógeno es sustituido por un radical aquilo o arilo. Se nombran cambiando el sufijo -ico del ácido por -ato, seguido del nombre del radical que sustituye al hidrógeno, sin la palabra “ácido”. Por ejemplo: Etanoato de metilo o acetato de metilo, benzoato de etilo. • Amidas No deben confundirse con las aminas, pues se producen al sustituir el grupo -OH por el grupo –NH2. Las amidas primarias se nombran sustituyendo la terminación -ico del ácido por -amida, por ejemplo: metanamida o formamida, benzamida. Las secundarias o terciarias requieren además nombrarse como derivados N- o N. Por ejemplo: N-metilacetamida, N-fenil-N-metil-propanamida. • Haluros de Ácido Derivados de un ácido carboxílico en el que se sustituye el grupo -OH por un átomo de un elemento halógeno. Se nombran sustituyendo el sufijo -ico por -ilo y la palabra “ácido” por el nombre del haluro. Por ejemplo: cloruro de acetilo, cloruro de benzoilo.
128
•
Anhídridos de Ácido Otros derivados de ácido carboxílicos, que pueden ser o no simétricos. Si lo son, se nombran sustituyendo apenas la palabra ácido por “anhídrido”. Por ejemplo: anhídrido acético (del ácido acético). Si no lo son, se combinan ambos ácidos y se anteceden de la palabra “anhídrido”. Por ejemplo: Anhídrido de ácidos acético y 2-hidroxi propanoico.
• Nitrilos Se forman por hidrógeno, nitrógeno y carbono, uniendo estos últimos dos un enlace triple. En este caso se reemplaza la terminación -ico por -nitrilo del ácido correspondiente. Por ejemplo: metanonitrilo, propanonitrilo.
FUNCIÓN HIDRURO Y ACIDO Función Hidruros Los hidruros son compuestos binarios formados por hidrógeno y cualquier otro elemento menos electronegativo que el hidrógeno. Los hidruros son una excepción, en el cual el hidrógeno actúa con número de oxidación 1-. Responden a la formula EHx, donde E es el símbolo del elemento que se combina con hidrógeno (H) y x es el número de oxidación con el que actúa dicho elemento. Algunos ejemplos de hidruros son: NaH, CaH2, NH3 y SiH4. Los hidruros se nombran como hidruros de…, indicando a continuación el nombre del elemento que acompaña al hidrógeno. De este modo, NaH es el hidruro de sodio y CaH2 es el hidruro de calcio
Función del Ácido Según Arrhenius, ácido es toda sustancia que libera un ion H+ en agua. La teoría actual de BrønstedLowry define como ácido una sustancia capaz de recibir un par de electrones. Además, la teoría de Arrhenius también fue actualizada: Ácido es toda sustancia que libera un ion H3O+ Clasificación de los Ácidos De acuerdo con la presencia de oxígeno: • Hidrácidos: no poseen oxígeno en la fórmula. Ejemplos: HI, HCl, HF. • Oxiácidos: poseen oxígeno en la fórmula. Ejemplos: H2CO3, H2SO3, H2SO4, HNO2.
129
De acuerdo con el grado de disociación iónica • Hidrácidos: o Fuertes: HCl < HBr < HI o Medios: HF (puede ser considerado débil) o Débiles: los demás •
Oxiácidos: o Fuertes: si x > 1 (H2SO4) o Medios: si x = 1 (HClO2) o Débiles: si x < 1 (HClO) x = número de oxígeno - número de hidrógeno
Función Sal Una sal es un compuesto químico formado por cationes (iones con carga positiva) enlazados a aniones (iones con carga negativa) mediante un enlace iónico. Son el producto típico de una reacción química entre una base y un ácido,1 donde la base proporciona el anión, y el ácido el catión. La combinación química entre un ácido y un hidróxido (base) o un óxido y un hidronio (ácido) origina una sal más agua, lo que se denomina neutralización. Un ejemplo es la sal de mesa, denominada en el lenguaje coloquial sal común, sal marina o simplemente sal. Es la sal específica cloruro de sodio. Su fórmula molecular es NaCl y es el producto de la base hidróxido sódico (NaOH) y ácido clorhídrico, HCl. En general, las sales son compuestos iónicos que forman cristales. Son generalmente solubles en agua, donde se separan los dos iones. Las sales típicas tienen un punto de fusión alto, baja dureza, y baja compresibilidad. Fundidas o disueltas en agua, conducen la electricidad. Función Hidróxido Los hidróxidos son un grupo de compuestos químicos formados por un metal y uno o varios aniones hidroxilos, en lugar de oxígeno como sucede con los óxidos. Arrhenius dijo que un hidróxido o base es aquella sustancia que va a liberar iones Hidroxilo. Bronsted-Lowry dijo que un hidróxido o base es aquella sustancia que va a aceptar o recibir protones. El hidróxido, combinación que deriva del agua por sustitución de uno de sus átomos de hidrógeno por un metal. Se denomina también hidróxido el grupo OH formado por un átomo de oxígeno y otro de hidrógeno, característico de las bases y de los alcoholes y fenoles. Los hidróxidos se formulan escribiendo el metal seguido con la base de un hidruro del radical hidróxido; éste va entre paréntesis si el subíndice es mayor de uno. Se nombran utilizando la palabra hidróxido seguida del nombre del metal, con indicación de su valencia, si tuviera más de una. Por ejemplo, el Ni (OH)2 es el hidróxido de níquel (ii) y el Ca (OH)2 es el hidróxido de calcio (véase Nomenclatura química). Las disoluciones acuosas de los hidróxidos tienen carácter básico, ya que éstos se disocian en el catión metálico y los iones hidróxido. Esto es así porque el enlace entre el metal y el grupo hidróxido es de tipo iónico, mientras que el enlace entre el oxígeno y el hidrógeno es covalente. Por ejemplo: NaOH(aq) → Na+(aq) + OHLos hidróxidos resultan de la combinación de un óxido con el agua. Los hidróxidos también se conocen con el nombre de bases. Estos compuestos son sustancias que en solución producen iones hidroxilo. En la clasificación mineralógica de Strunz se les suele englobar dentro del grupo de los óxidos, aunque hay bibliografías que los tratan como un grupo aparte.
130
Los hidróxidos se clasifican en: básicos, anfóteros y ácidos. Por ejemplo, el Zn (OH)2 es un hidróxido anfótero ya que: Con ácidos: Zn (OH)2 + 2H+ → Zn+2 + 2H2O Con bases: Zn (OH)2 + 2OH− → [Zn (OH)4]−2 Sal Oxisal Una sal ox(o)ácida, oxosal u oxisal es el producto de sustituir alguno, o todos, los hidrógenos de un oxácido por cationes metálicos, por ejemplo, K+, o no metálicos, por ejemplo, NH4+. Cuando se sustituyen todos los hidrógenos se forma una oxisal neutra y cuando solo se sustituye una parte una sal ácida. Características de las oxisales o Las sales son compuestos que forman agua oxigenada. o La mayoría de las sales son solubles en agua. o La mayoría de los carbonatos metales alcalinos son poco solubles en agua. o Las sales típicas tienen un punto de fusión alto, baja dureza, y baja compresibilidad. o Fundidas o disueltas en agua, conducen la electricidad. Formación Es el resultado de la combinación de un hidróxido con un ácido oxácido, aunque también se pueden formar de una manera más simple por la combinación de un metal y un radical. La forma más simple de formar una oxosal es generando el oxoanión a partir del oxoácido correspondiente, de la siguiente forma: El anión resulta por eliminación de los hidrógenos existentes en la fórmula del ácido. Se asigna una carga eléctrica negativa igual al número de hidrógenos retirados, y que, además, será la valencia con que el anión actuará en sus combinaciones. Los aniones se nombran utilizando las reglas análogas que las sales que originan. Sales Cuaternarias Sustancias inorgánicas formadas, como su nombre lo indica por cuatro elementos diferentes. Por lo general son derivadas de sales oxigenadas, parcialmente hidrogenadas.
COMPOSICIÓN QUÍMICA Son aquellos compuestos que además del catión y del anión, llevan iones óxidos o iones hidroxilo. Se nombran de manera similar a otros tipos de sales, cuidando de intercalar la palabra óxido, según corresponda, precedida del prefijo numérico cuando sea necesario. Si partes del ácido sulfúrico (H2SO4) y sólo sustituyes uno de los hidrógenos por un catión metálico, obtienes una sal cuaternaria: KHSO4 o NaHSO4 Lo mismo puedes plantear si partes de cualquier ácido oxigenado que tenga varios hidrógenos (polipósicos) como el H3PO4 (de aquí salen dos sales distintas) el H 2SeO4. Fórmula Co (OH)NO3 Hidroxi nitrato de Cobalto () Hidróxido Nitrato de Cobalto. Bi (OH)2NO3 Nitrato Dihidróxido de Bismuto () Dihidroxi nitrato de Bismuto. VOSO4 Sulfato Óxido de Vanadio (IV)u Oxi Sulfato de Vanadio (IV) Pt (OH)NO3 Nitrato Hidróxido de Platino (II)Hidroxi nitrato de Platino (II)
131
Nomenclatura Sales Cuaternarias: Estas sales se forman por cuatro elementos un metal, un no metal un ion hidroxilo y oxígeno. Oxisales de Amonio Formados por un radical amonio NH 4+, un no metal y oxígeno. Se nombran igual a las oxisales cambiando la terminación por “…de amonio “. Por ejemplo. (NH4)2SO4: sulfato (VI) de diamonio o sulfato de amonio NH4NO2: nitrato (V) de amonio o nitrito de amonio (NH4 )4Sb2O7: piro antimoniato de estramonio Sales ácidas Resultan del reemplazo parcial de los hidrógeno de un oxoácido por átomos metálicos. Se forman con ácidos que presentan dos o más hidrógenos en su molécula. Por ejemplo: NaHCO3 : hidrógeno carbonato de sodio, Bicarbonato de sodio o carbonato ácido de sodio K2HPO4: hidrógeno fosfato (V) de potasio Ca (HSO3)2: hidrógeno sulfato (IV) de calcio o Sulfito ácido de calcio.
REACCIONES QUÍMICAS Una reacción química, también llamada cambio químico o fenómeno químico, es todo proceso termodinámico en el cual dos o más sustancias (llamadas reactantes o reactivos), se transforman, cambiando su estructura molecular y sus enlaces, en otras sustancias llamadas productos. Los reactantes pueden ser elementos o compuestos. Un ejemplo de reacción química es la formación de óxido de hierro producida al reaccionar el oxígeno del aire con el hierro de forma natural, o una cinta de magnesio al colocarla en una llama se convierte en óxido de magnesio, como un ejemplo de reacción inducida. Las reacciones químicas ocurren porque las moléculas se están moviendo y cuando se golpean con violencia suficiente una contra otras, los enlaces se rompen y los átomos se intercambian para formar nuevas moléculas. También una molécula que está vibrando con violencia suficiente puede romperse en moléculas más pequeñas. A la representación simbólica de cada una de las reacciones se le denomina ecuación química. Los productos obtenidos a partir de ciertos tipos de reactivos dependen de las condiciones bajo las que se da la reacción química. No obstante, tras un estudio cuidadoso se comprueba que, aunque los productos pueden variar según cambien las condiciones, determinadas cantidades permanecen constantes en cualquier reacción química. Estas cantidades constantes, las magnitudes conservadas, incluyen el número de cada tipo de átomo presente, la carga eléctrica y la masa.
FENÓMENO QUÍMICO Se llama fenómeno químico a los sucesos observables y posibles de ser medidos en los cuales las sustancias intervinientes cambian su composición química al combinarse entre sí. Las reacciones químicas implican una interacción que se produce a nivel de los electrones de valencia de las sustancias intervinientes. Dicha interacción es el enlace químico. En estos fenómenos, no se conserva la sustancia original, se transforma su estructura química, manifiesta energía, no se observa a simple vista y son irreversibles, en su mayoría.
132
La sustancia sufre modificaciones irreversibles. Por ejemplo, al quemarse, un papel no puede volver a su estado original. Las cenizas resultantes formaron parte del papel original, y sufrieron una alteración química.
LOS CAMBIOS EN LA MATERIA La materia puede sufrir cambios mediante diversos procesos. No obstante, todos esos cambios se pueden agrupar en dos tipos: cambios físicos y cambios químicos. Cambios Físicos En estos cambios no se producen modificaciones en la naturaleza de las sustancia o sustancias que intervienen. Ejemplos de este tipo de cambios son: • Cambios de estado. • Mezclas. • Disoluciones. • Separación de sustancias en mezclas o disoluciones. Cambios Químicos En este caso, los cambios si alteran la naturaleza de las sustancias: desaparecen unas y aparecen otras con propiedades muy distintas. No es posible volver atrás por un procedimiento físico (como calentamiento o enfriamiento, filtrado, evaporación, etc.) Una reacción química es un proceso por el cual una o más sustancias, llamadas reactivos, se transforman en otra u otras sustancias con propiedades diferentes, llamadas productos. En una reacción química, los enlaces entre los átomos que forman los reactivos se rompen. Entonces, los átomos se reorganizan de otro modo, formando nuevos enlaces y dando lugar a una o más sustancias diferentes a las iniciales. Método de Óxido-Reducción Se denomina reacción de reducción-oxidación, de óxido-reducción o, simplemente como reacción rédox, a toda reacción química en la que uno o más electrones se transfieren entre los reactivos, provocando un cambio en sus estados de oxidación. Para que exista una reacción de reducción-oxidación, en el sistema debe haber un elemento que ceda electrones, y otro que los acepte: • El agente oxidante es aquel elemento químico que tiende a captar esos electrones, quedando con un estado de oxidación inferior al que tenía, es decir, siendo reducido. • El agente reductor es aquel elemento químico que suministra electrones de su estructura química al medio, aumentando su estado de oxidación, es decir, siendo oxidado. Cuando un elemento químico reductor cede electrones al medio, se convierte en un elemento oxidado, y la relación que guarda con su precursor queda establecida mediante lo que se llama un «par rédox». Análogamente, se dice que, cuando un elemento químico capta electrones del medio, este se convierte en un elemento reducido, e igualmente forma un par rédox con su precursor oxidado. Cuando una especie puede oxidarse, y a la vez reducirse, se le denomina anfolito, y al proceso de la oxidación-reducción de esta especie se le llama anfolización.
133
Principio de Electro Neutralidad El principio de electroneutralidad de Pauling corresponde a un método de aproximación para estimar la carga en moléculas o iones complejos; este principio supone que la carga siempre se distribuye en valores cercanos a 0 (es decir, -1, 0, +1). Dentro de una reacción global rédox, se da una serie de reacciones particulares llamadas semirreacciones o reacciones parciales. Semirreacción de reducción: Semirreacción de oxidación: O más comúnmente, también llamada ecuación general:
La tendencia a reducir u oxidar a otros elementos químicos se cuantifica mediante el potencial de reducción, también llamado potencial rédox. Una titulación rédox es aquella en la que un indicador químico indica el cambio en el porcentaje de la reacción rédox mediante el viraje de color entre el oxidante y el reductor.
LAS REACCIONES QUÍMICAS EN NUESTRO ENTORNO Las reacciones químicas son aquellas que ocurren cuando dos sustancias las cuales reciben por nombre reactivos, a consecuencia de un factor energético se transforman en otras sustancias, las cuales son denominadas producto. Los reactivos pueden ser elementos o compuestos químicos o una combinación de ellos. En la vida cotidiana, las reacciones químicas nos acompañan en la mayoría de las actividades que realizamos, de hecho, nuestro cuerpo está considerado como un laboratorio el cual tiene una actividad constante, ya que se requiere que ocurran un sinfín de reacciones químicas para que el mismo funcione con normalidad.
• Reacciones químicas en los procesos vitales Los procesos vitales, son una serie de acciones las cuales son llevadas a cabo por los organismos vivos. A continuación, vamos a describir las reacciones químicas que se producen en algunos de los procesos vitales. Fotosíntesis: es una reacción que se produce en las plantas verdes, la cual requiere de la presencia de la luz solar, en ella se transforma en glucosa el dióxido de carbono CO2 que la planta toma del ambiente y el agua que obtiene del suelo. Su reacción química está representada por la fórmula siguiente:
134
Respiración Celular: este importante proceso tiene lugar en el interior de las células de todos los organismos vivos, puede ser aerobia o anaerobia, y es el procesamiento de los nutrientes que se obtienen a través de los alimentos mediante una reacción exoenergética, la cual hace transferencia de energía al medio exterior. C6H12O6 + 6O2 —– 6CO2 + 6 H2O Combustión: esta reacción química se produce entre un material oxidable y el oxígeno, en ella se desprende energía y su manifestación es mediante la llama o incandescencia. Fermentación: en esta reacción química interviene algunos microorganismos vivos, un ejemplo de ellos son las levaduras, y ocurre en ausencia del aire. • Reacciones químicas en la cocina Cuando cocinamos, sin darnos cuenta estamos a menudo en presencia de algunas reacciones químicas, las cuales nos ayudan a que los alimentos queden muy apetitosos. Algunas de ellas las describimos a continuación: Caramelización: en esta reacción química se produce la oxidación del azúcar, y en ella son liberados químicos volátiles por efecto del calor. Es muy utilizada para la elaboración de algunos postres como el quesillo y algunas tortas. Emulsión: cuando mezclamos dos líquidos estamos en presencia de una emulsión, en esta mezcla uno de los líquidos es parcialmente miscible y se dispersa en forma de glóbulos. Un ejemplo es la mayonesa. Reacción de Maillar: ocurre en presencia de azúcares y proteínas y en ella son liberados pigmentos marrones, puede darse a temperatura ambiente o mediante la aplicación de calor. Un ejemplo es la carne asada. Desnaturalización de las proteínas: con esta reacción se genera un cambio en la estructura de la proteína, al calentarse o combinarse con alcohol o cetona. Los huevos cocidos son un buen ejemplo de esta reacción.
ESTEQUIOMETRÍA La estequiometría es el cálculo para una ecuación química balanceada que determinará las proporciones entre reactivos y productos en una reacción química. El balance en la ecuación química obedece a los principios de conservación y los modelos atómicos de Dalton como, por ejemplo, la Ley de conservación de masa que estipula que: “la masa de los reactivos = la masa de los productos” En este sentido, la ecuación debe tener igual peso en ambos lados de la ecuación. Cálculos Estequiométricos Los cálculos estequiométricos es la manera en que se balancea una ecuación química. Existen 2 maneras: el método por tanteo y el método algebraico. • Cálculo estequiométrico por tanteo El método por tanteo para calcular la estequiometría de una ecuación se deben seguir los siguientes pasos:
135
1. Contar la cantidad de átomos de cada elemento químico en la posición de los reactivos (izquierda de la ecuación) y comparar esas cantidades en los elementos posicionados como productos (derecha de la ecuación). 2. Balancear los elementos metálicos. 3. Balancear los elementos no metálicos. Por ejemplo, el cálculo estequiométrico con el método por tanteo en la siguiente ecuación química: CH4 + 2O2 → CO + 2H2O El carbono está equilibrado porque existe 1 molécula de cada lado de la ecuación. El hidrógeno también presenta las mismas cantidades de cada lado. El oxígeno en cambio, suman 4 del lado izquierdo (reactantes o reactivos) y solo 2, por lo tanto, por tanteo se agrega un subíndice 2 para transformar el CO en CO2. De esta forma, la ecuación química balanceada en este ejercicio resulta: CH4 + 2O2 → CO2 + 2H2O. Los números que anteceden el compuesto, en este caso el 2 de O2 y el 2 para H2O se denominan coeficientes estequiométricos. • Cálculo estequiométrico por método algebraico Para el cálculo estequiométrico por método algebraico se debe encontrar los coeficientes estequiométricos. Para ello se siguen los pasos: 1. Asignar incógnita 2. Multiplicar la incógnita por la cantidad de átomos de cada elemento 3. Asignar un valor (se aconseja 1 o 2) para despejar el resto de las incógnitas 4. Simplificar Relaciones Estequiométricas Las relaciones estequiométricas indican las proporciones relativas de las sustancias químicas que sirven para calcular una ecuación química balanceada entre los reactivos y sus productos de una solución química. Las soluciones químicas presentan concentraciones diferentes entre soluto y solvente. El cálculo de las cantidades obedece a los principios de conservación y los modelos atómicos que afectan los procesos químicos. Estequiometría y conversión de unidades La estequiometría usa como factor de conversión desde el mundo microscópico por unidades de moléculas y átomos, por ejemplo, N2 que indica 2 moléculas de N2 y 2 átomos de Nitrógeno hacia el mundo macroscópico por la relación molar entre las cantidades de reactivos y productos expresado en moles. En este sentido, la molécula de N2 a nivel microscópico tiene una relación molar que se expresa como 6.022 * 1023 (un mol) de moléculas de N2. Rendimiento de reacción Química Si regresamos a la analogía de la producción de "panes con jamón", ahí veíamos que la fabricación de panes con jamón seguía la "ecuación" siguiente: 1 JAMÓN + 2 REBANADAS DE PAN → 1 “PAN CON JAMÓN” Si le entregan a uno de los cocineros 18 jamones y 36 rodajas de pan, él puede preparar los panes con jamón, pero supongamos que se le caen 2 al piso y tiene que botarlos a la basura. Calcula el rendimiento de producción de panes con jamón que tuvo el cocinero. Él debía conseguir una producción de 18 panes de jamón, "rendimiento teórico", pero en realidad solo puede entregar 16 panes de jamón, "rendimiento real".
136
El rendimiento de la reacción será:
El rendimiento teórico de una reacción es la cantidad de producto que se “esperaría” obtener si todo funciona bien. Sin embargo, frecuentemente hay reacciones secundarias (formación de otros productos), o no todos los reactivos reaccionan como se esperaría. Esto ocasiona que no se alcance el rendimiento teórico sino una menor cantidad de producto: rendimiento real. La relación entre lo que realmente (experimentalmente) se obtuvo de producto (rendimiento real) y el rendimiento teórico (lo que se esperaba obtener) es el rendimiento de la reacción. Ten en cuenta que el rendimiento se puede calcular en peso (gramos) o moles, teniendo cuidado que ambos rendimientos (real y teórico) estén en las mismas unidades.
GASES Con el término gas nos referimos a uno de los tres principales estados de agregación de la materia (junto a los líquidos y los sólidos). Se caracteriza por la dispersión, fluidez y poca atracción entre sus partículas constitutivas. Los gases son la forma más volátil de la materia en la naturaleza y son sumamente comunes en la vida cotidiana. Cuando una sustancia se encuentra en estado gaseoso solemos llamarla gas o vapor y sabemos que sus propiedades físicas han cambiado. Sin embargo, no cambian las propiedades químicas: la sustancia sigue estando compuesta por los mismos átomos. Para que cambien las propiedades químicas es necesario que se trate de una mezcla, ya que forzar a uno de sus ingredientes a volverse un gas es una forma útil de separarlo de los otros. Los gases se encuentran en todas partes: desde la masa heterogénea de gases que llamamos atmósfera y que respiramos como aire, hasta los gases que se generan dentro del intestino, producto de la digestión y descomposición, hasta los gases inflamables con que alimentamos nuestras cocinas y hornos. Leyes de los gases El comportamiento de los gases es descripto por la Ley de los gases ideales, que a su vez puede comprenderse como la unión de otras leyes: • Ley de Boyle: “El volumen de un gas varía de forma inversamente proporcional a la presión si la temperatura permanece constante.” Se expresa según la fórmula: P1xV1 = P2xV2.
137
•
Ley de Gay-Lussac: Explica que la presión de una masa de gas cuyo volumen se mantiene constante es directamente proporcional a la temperatura que posea. Esto se formula de la siguiente manera: P1/T1 = P2/T2.
•
Ley de Charles: Expresa la relación constante entre la temperatura y el volumen de un gas, cuando la presión es constante. Su fórmula es: V1 / T1 = V2 /T2.
•
Ley de Avogadro: “En iguales condiciones de presión y temperatura, las densidades relativas de los cuerpos gaseosos son proporcionales a sus números atómicos”.
Tipos de Gases Los gases pueden clasificarse según su naturaleza química en: • Combustibles o inflamables: Aquellos que pueden arder, esto es, generar reacciones explosivas o exotérmicas en presencia del oxígeno u otros oxidantes. •
Corrosivos: Aquellos que al entrar en contacto con otras sustancias las someten a procesos de reducción u oxidación intensos, generando daños en su superficie o heridas en caso de ser materia orgánica.
•
Comburentes: Aquellos que permiten mantener viva una llama o una reacción inflamable, ya que inducen la combustión en otras sustancias.
•
Tóxicos: Aquellos que representan un peligro para la salud por las reacciones que introducen en el cuerpo de los seres vivos, como los gases radiactivos.
•
Inertes o nobles: Aquellos que presentan poca o nula reactividad, excepto en situaciones y condiciones determinadas.
•
Ideales: No son realmente gases sino un concepto ideal y de trabajo respecto a cómo tendrían que comportarse los gases. Una abstracción.
Propiedades de los Gases Los gases presentan las siguientes propiedades: • Intangibles, incoloros, insaboros: La mayoría de los gases son transparentes, imposibles de tocar, y además carecen de color y sabor. Esto último varía enormemente, sin embargo, y muchos gases poseen un olor característico e incluso un color típico observable. • Carecen de volumen propio: Por el contrario, ocupan el volumen del contenedor en el que se encuentren. • No poseen forma propia: También asumen la de su contenedor. • Pueden dilatarse y contraerse: Tal y como los sólidos y líquidos, en presencia de calor o de frío. • Son fluidos: Mucho más que los líquidos, los gases carecen prácticamente de fuerzas de unión entre sus partículas, pudiendo perder su forma y desplazarse de un recipiente a otro ocupando todo el espacio disponible. • Tienen alta difusión: Los gases pueden mezclarse fácilmente entre sí debido al espacio entre partículas que poseen. • Son solubles: Así como los sólidos, los gases pueden disolverse en agua u otros líquidos. • Son muy compresibles: Puede obligarse a un gas a ocupar un volumen más pequeño, forzando las moléculas a estrecharse entre sí. Así es como se obtiene el gas licuado (líquido).
138
Estado Gaseoso Se entiende por estado gaseoso, a uno de los cuatro estados de agregación de la materia, junto con los estados sólido, líquido y plasmático. Las sustancias en estado gaseoso se denominan “gases” y se caracterizan por tener sus partículas constitutivas poco unidas entre sí, o sea, expandidas a lo largo del contenedor donde se encuentren, hasta cubrir lo más posible el espacio disponible. Esto último se debe a que presentan entre sí una fuerza de atracción muy leve, lo cual se traduce en que los gases carezcan de forma y de volumen definidos, tomando las del recipiente que los contenga, y tengan además una bajísima densidad, puesto que sus partículas se encuentran en un estado de relativo desorden, moviéndose o vibrando muy velozmente. De este modo, las moléculas que componen la materia en estado gaseoso no logran sujetarse las unas a otras con firmeza y se mantienen juntas a duras penas, siendo incluso menos afectadas por la gravedad, en comparación con los sólidos y los líquidos: eso les permite flotar. A pesar de su cohesión casi nula, los gases presentan una enorme capacidad para ser comprimidos, cosa que a menudo se lleva a cabo durante su tratamiento industrial para el transporte. Transformación de la materia al estado gaseoso Es posible llevar ciertos líquidos o sólidos al estado gaseoso, generalmente sometiéndolos a cambios drásticos y sostenidos de temperatura y/o presión. Del mismo modo, pero en sentido contrario, puede transformarse un gas en un líquido o un sólido. Estos procesos pueden estudiarse por separado, de la siguiente manera: a) De líquido a gas: evaporación. Este proceso ocurre cotidianamente, con tan sólo inyectar energía calórica al líquido hasta hacer que su temperatura supere el punto de ebullición (distinto según la naturaleza del líquido). El agua, por ejemplo, hierve a los 100 °C y pasa se convierte en gas (vapor). b) De sólido a gas: sublimación. En algunos casos, los sólidos pueden pasar directamente al estado gaseoso sin atravesar primero la liquidez. Un ejemplo perfecto de ello ocurre en los polos del Planeta, donde la temperatura es tan baja que es imposible la formación de agua líquida, pero aun así el hielo y la nieve se subliman directo a la atmósfera. c) De gas a líquido: condensación. Este proceso es contrario a la evaporación y tiene que ver con la sustracción de energía calórica del gas, haciendo que sus partículas se muevan más lentamente y se junten con mayor fuerza. Es lo que ocurre en la atmósfera cuando, al alejarse de la superficie terrestre, el vapor de agua pierde temperatura y forma nubes que, eventualmente, precipitan de vuelta las gotas de agua hacia el suelo: lluvia. d) De gas a sólido: sublimación inversa. Este proceso también puede llamarse cristalización, en algunos contextos específicos. Y tiene lugar bajo condiciones de presión puntuales, que fuerzan las partículas de un gas a juntarse más allá de lo que comúnmente lo están, llevándolas directo al estado sólido sin pasar primero por la liquidez. Un ejemplo de ello es la escarcha, semisólida, que aparece sobre las ventanas de un día de invierno. Ejemplos de estado gaseoso El gas butano es de naturaleza orgánica. Algunos ejemplos cotidianos de materia en estado gaseoso son: • Vapor de agua: Como hemos dicho, el agua al evaporarse cambia de estado y se torna vapor: algo comprobable perfectamente cuando cocinamos, y al hervir ciertos líquidos podemos ver la columna de vapor emergiendo de la olla.
139
•
Aire: El aire que respiramos es una masa homogénea de gases de diversa naturaleza, como oxígeno, hidrógeno y nitrógeno, que son generalmente transparentes, incoloros e inodoros.
•
Butano: Se trata de un gas de naturaleza orgánica, derivado del petróleo, compuesto por hidrocarburos inflamables. Por eso lo empleamos para generar calor y alimentar nuestras cocinas, o los encendedores de los fumadores.
•
Metano: Otro gas hidrocarburo, subproducto frecuente de la descomposición de la materia orgánica, es posible hallarlo en cantidades cuantiosas en ciénagas, lodazales, o incluso en los intestinos del ser humano. Posee un desagradable olor característico.
Gases Reales Un gas real se define como un gas con un comportamiento termodinámico que no sigue la ecuación de estado de los gases ideales. Un gas puede ser considerado como real, a elevadas presiones y bajas temperaturas, es decir, con valores de densidad bastante grandes. Bajo la teoría cinética de los gases, el comportamiento de un gas ideal se debe básicamente a dos hipótesis: • Las moléculas de los gases no son puntuales. • La energía de interacción no es despreciable. La representación gráfica del comportamiento de un sistema gas-líquido, de la misma sustancia, se conoce como diagrama de Andrews. En dicha gráfica se representa el plano de la presión frente al volumen, conocido como plano de Clapeyron. Se considera a un gas encerrado en un cilindro con un embolo móvil. Si el gas se considera ideal, se mantiene la temperatura constante, obteniendo en el plano de Clapeyron líneas isotermas, es decir, líneas hiperbólicas que siguen la ecuación: p.V= cte. Si en cambio, consideramos a un gas como real, veremos que solamente con la temperatura bastante alta y la presión bastante baja, las isotermas se acercan a las hipérbolas, siguiendo la ecuación de estado de los gases perfectos. Potencial de Lennard Jones: Siguiendo una observación experimental, vemos una importante diferencia entre el comportamiento de los gases reales e ideales. La distinción primordial es el hecho de que a un gas real no se le puede comprimir indefinidamente, no siguiendo así la hipótesis del gas ideal. Las moléculas ocupan un volumen, pero los gases reales son, a bajas presiones más comprimibles que un gas ideal en las mismas circunstancias, en cambio, son menos comprimibles cuando tienen valores de presión más elevadas. Este comportamiento depende mucho de la temperatura y del tipo de gas que sea. El comportamiento de estos gases, puede ser explicado debido a la presencia de fuerzas intermoleculares, que cuando tienen valores de temperatura pequeños, son fuertemente repulsivas, y en cambio, a temperaturas altas, son débilmente atrayentes. La ley física de los gases reales, también conocida como ley de Van der Waals, describe el comportamiento de los gases reales, tratándose de una extensión de la ley de los gases ideales, mejorando la descripción del estado gaseoso para presiones altas y próximas al punto de ebullición. La ley de los gases reales, toma el nombre del físico holandés Van der Waals, el cual propone su trabajo de los gases en 1873, ganando un premio Nobel en 1910 por la formulación de esta ley.
140
Los gases de la atmosfera terrestre La atmósfera terrestre es la parte gaseosa de la Tierra, siendo por esto la capa más externa y menos densa del planeta. Está constituida por varios gases que varían en cantidad según la presión a diversas alturas. Esta mezcla de gases que forma la atmósfera recibe genéricamente el nombre de aire. El 75 % de masa atmosférica se encuentra en los primeros 11 km de altura, desde la superficie del mar. Los principales gases que la componen son: el oxígeno (21 %) y el nitrógeno (78 %), seguidos del argón, el dióxido de carbono y el vapor de agua. La atmósfera y la hidrosfera constituyen el sistema de capas fluidas superficiales del planeta, cuyos movimientos dinámicos están estrechamente relacionados. Las corrientes de aire reducen drásticamente las diferencias de temperatura entre el día y la noche, distribuyendo el calor por toda la superficie del planeta. Este sistema cerrado evita que las noches sean gélidas o que los días sean extremadamente calientes. La atmósfera protege la vida sobre la Tierra, absorbiendo gran parte de la radiación solar ultravioleta en la capa de ozono. Además, actúa como escudo protector contra los meteoritos, los cuales se desintegran en polvo a causa de la fricción que sufren al hacer contacto con el aire. Composición: En la atmósfera terrestre se pueden distinguir dos regiones con distinta composición, la homosfera y la heterosfera. • Homosfera: La homosfera ocupa los 100 km inferiores y tiene una composición constante y uniforme. Composición de la atmósfera terrestre (aire seco, porcentajes por volumen) •
141
Heterosfera: La heterosfera se extiende desde los 80 km hasta el límite superior de la atmósfera (unos 10 000 km); está estratificada, es decir, formada por diversas capas con composición diferente. 80-400 km - capa de nitrógeno molecular 400-1100 km - capa de oxígeno atómico 1100-3500 km - capa de helio 3500-10 000 km - capa de hidrógeno
Estadística Descriptiva y Comercial
142
Estadística Ciencia matemática que se ocupa el recolectar, analizar e interpretar datos que buscan explicar las condiciones en aquellos fenómenos de tipo aleatorio. Ciencia que recopila, organiza, analiza e interpreta la información numérica o cualitativa mejor conocida como datos, de manera que pueda llevar a conclusiones válidas.
DIVISIÓN DE ESTADÍSTICA Estadística descriptiva: Se dedica a la descripción, visualización y resumen de datos originarios a partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros son: la media y la desviación estándar. Estadística inferencial: Se dedica a la generación de los modelos, inferencial y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraen inferencias acerca de la población bajo estudio. a) Población Se refiere al conjunto de todos los elementos representativos con características comunes para una investigación. Así, el conjunto de “todos los estudiantes escritos en “Sexto Perito Contador” en un colegio o instituto de la República de Guatemala” es un ejemplo de una población bien definida y con características comunes para una investigación. Comúnmente el termino población se asocia con un conjunto de personas. Sin embargo, en estadística la población puede ser un conjunto de animales, plantas, u objetos; el conjunto de todos los animales que hay en el zoológico “La Aurora”, es un ejemplo de población. b) Muestra Son subconjuntos, es decir la selección parcial de algunos de los elementos de la población. Conjunto de cosas, personas o datos elegidos al azar, que se consideran representativos del grupo al que pertenecen y que se toman para estudiar o determinar las características del grupo. c) Variables Es cada una de las características que pueden observarse de un elemento de la muestra. Siguiendo con el ejemplo de las piezas se puede medir grosor, peso, resistencia, etc. Además de los datos a medir es necesario especificar, cuando sea preciso, la unidad de medida (por ejemplo, el grosor en centímetros o en milímetros). Las variables pueden ser clasificadas en dos grupos: • Cualitativas: Toman valores no numéricos. Dentro de este grupo diferenciamos: o Nominativas: no existe ningún orden entre las categorías de variables. Por ejemplo: el grupo sanguíneo (A, B, AB, 0) o el color del pelo (moreno, rubio, pelirrojo). o Binarias: cuando toman dos valores posibles -si/no, presencia/ausencia- (por ejemplo: casado sí o no, tener el carnet de conducir sí o no). o Ordinales: existe un cierto orden entre las categorías de las variables, por ejemplo, el nivel de estudios (sin estudios, básico, secundarios, etc.) o categoría dentro de una empresa (peón, encargado, etc.) •
143
Cuantitativas: Toman valores numéricos. Dentro de éstas se agrupan en: o Discretas: tomas valores aislados, normalmente números enteros, por ejemplo, número de hermanos o de hijos. o Continuas: teóricamente puede tomar cualquier valor numérico, por ejemplo: el peso de un individuo. Aunque en la práctica todas tomarían valores discretos por la imposibilidad de tener aparatos lo suficientemente sensibles para realizar mediciones intermedias.
Toma de Muestras o Muestreo Según la cantidad de elementos de la muestra que se han de elegir de cada uno de los estratos, existen dos técnicas de muestreo estratificado: Asignación proporcional: el tamaño de la muestra dentro de cada estrato es proporcional al tamaño del estrato dentro de la población.
Estimación de Parámetros En una población cuya distribución es conocida, pero desconocemos algún parámetro, podemos estimar dicho parámetro a partir de una muestra representativa. Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona información sobre el valor del parámetro.
Contraste de Hipótesis Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson. Diseño Experimental El diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa y efecto. Interferencia bayesiana La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el matemático Thomas Bayes. Método no paramétrico La estadística no paramétrica es una rama de la estadística inferencial que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan.
144
Método Estadístico El método estadístico consiste en una secuencia de procedimientos para el manejo de los datos cualitativos y cuantitativos de la investigación. En este artículo se explican las siguientes etapas del método estadístico: recolección, recuento, presentación, síntesis y análisis. El Método Estadístico como proceso de obtención, representación, simplificación, análisis, interpretación y proyección de las características, variables o valores numéricos de un estudio o de un proyecto de investigación para una mejor comprensión de la realidad y una optimización en la toma de decisiones. Este método posee de etapas para su realización las cuales son: 1. Recolección 2. Recuento 3. Presentación 4. Descripción 5. Análisis Análisis e Interpretación Estadística Esto se realiza mediante dos tareas íntimamente ligadas: el análisis y la interpretación de resultados. El análisis consiste básicamente en dar respuesta a los objetivos o hipótesis planteados a partir de las mediciones efectuadas y los datos resultantes. Análisis de Resultados El análisis del resultado obtenido por un determinado fondo es un proceso que se desarrolla en dos etapas. Primero, se compara la rentabilidad del fondo respecto a su índice de referencia. Luego, se analiza los métodos utilizados por los gestores para llegar a ese resultado. Interpretación Es la vinculación de los resultados de los análisis de datos con la hipótesis de investigación, con las teorías y con conocimientos ya existentes y aceptados. Tipos de problemas que podríamos tener con las interpretaciones de ciertos datos específicos: Atenuación de la escala de medida. Como han de interpretarse ejecuciones que alcanzan sistemáticamente o nunca pueden alcanzar, los límites de la escala de medida. Este problema se puede resolver haciendo un estudio piloto, detectando estos fallos y ampliando la escala en la nueva interpretación.
TIPOS DE REPRESENTACIONES GRAFICAS Cuando se muestran los datos estadísticos a través de representaciones gráficas, se ha de adaptar el contenido a la información visual que se pretende transmitir. Para ello, se barajan múltiples formas de representación: • Diagramas de barras: muestran los valores de las frecuencias absolutas sobre un sistema de ejes cartesianos, cuando la variable es discreta o cualitativa. • Histogramas: formas especiales de diagramas de barras para distribuciones cuantitativas continuas.
145
• • • • •
Polígonos de frecuencias: formados por líneas poligonales abiertas sobre un sistema de ejes cartesianos. Gráficos de sectores: circulares o de tarta, dividen un círculo en porciones proporcionales según el valor de las frecuencias relativas. Pictogramas: o representaciones visuales figurativas. En realidad son diagramas de barras en los que las barras se sustituyen con dibujos alusivos a la variable. Cartogramas: expresiones gráficas a modo de mapa. Pirámides de población: para clasificaciones de grupos de población por sexo y edad.
FUENTES DE INFORMACIÓN DEL PROYECTO Los datos que utilizaras son los mismos que graficaras manualmente de los ejercicios que estarán definidos en esta unidad, de modo que pueda escoger los datos que prefiera. Una segunda opción es que visites las páginas del Banguat, INE, de cualquier ministerio del gobierno de Guatemala, que contenga cuadros estadísticos, los cuales te puedan servir de insumo en le elaboración de tu proyecto. Las Fuentes Primarias Las fuentes primarias son aquellas más cercanas posible al evento que se investiga, es decir, con la menor cantidad posible de intermediaciones. Por ejemplo, si se investiga un accidente automovilístico, las fuentes primarias serían los testigos directos, que observaron la acción ocurrir. En cambio, si se investiga un evento histórico, la recopilación de testimonios directos sería una fuente primaria posible.
Fuentes de Información Secundaria Las fuentes de información secundaria, en cambio, se basan se basan en las primarias y les dan algún tipo de tratamiento, ya sea sintético, analítico, interpretativo o evaluativo, para proponer a su vez nuevas formas de información. Por ejemplo, si se investiga un evento histórico, las fuentes secundarias serian aquellos libros escritos al respecto tiempo después de ocurrido a lo ocurrido, basándose en fuentes primarias o directas si lo que se investiga como el ejemplo anterior, es un accidente, entonces un resumen un resumen de los testimonios de los testigos, escritos por la policía, constituye una fuente secundaria. Fuentes de Información Terciaria Se trata de aquellas que recopilan y comentan las fuentes primarias y/o secundarias, siendo así una lectura mixta de testimonios e interpretaciones, por ejemplo. Atendiendo al caso del accidente, una fuente terciaria al respecto sería el archivo policial completo, en el que figuran fotos, testimonios, etc.
146
REPRESENTACIÓN DE GRÁFICAS Existen muy diversos tipos de gráficas, generalmente aplicándose unas u otras en función de lo que se pretenda representar o simplemente de las preferencias del autor. A continuación, indicamos algunas de las más conocidas y comunes. 1. Gráfico de barras El más conocido y utilizado de todos los tipos de gráficos es el gráfico o diagrama de barras. En éste, se presentan los datos en forma de barras contenidas en dos ejes cartesianos (coordenada y abscisa) que indican los diferentes valores. El aspecto visual que nos indica los datos es la longitud de dichas barras, no siendo importante su grosor. Generalmente se emplea para representar la frecuencia de diferentes condiciones o variables discretas (por ejemplo, la frecuencia de los diferentes colores del iris en una muestra determinada, que solo pueden ser unos valores concretos). Únicamente se observa una variable en las abscisas, y las frecuencias en las coordenadas. 2. Gráfico circular o por sectores El también muy habitual gráfico en forma de “quesito”, en este caso la representación de los datos se lleva a cabo mediante la división de un círculo en tantas partes como valores de la variable investigada y teniendo cada parte un tamaño proporcional a su frecuencia dentro del total de los datos. Cada sector va a representar un valor de la variable con la que se trabaja. Este tipo de gráfico o diagrama es habitual cuando se está mostrando la proporción de casos dentro del total, utilizando para representarlo valores porcentuales (el porcentaje de cada valor). 3. Histograma Aunque a simple vista muy semejante al gráfico de barras, el histograma es uno de los tipos de gráfica que a nivel estadístico resulta más importante y fiable. En esta ocasión, también se utilizan barras para indicar a través de ejes cartesianos la frecuencia de determinados valores, pero en vez de limitarse a establecer la frecuencia de un valor concreto de la variable evaluada refleja todo un intervalo. Se observa pues un rango de valores, que además podrían llegar a reflejar intervalos de diferentes longitudes. Ello permite observar no solo la frecuencia sino también la dispersión de un continuo de valores, lo que a su vez puede ayudar a inferir la probabilidad. Generalmente se utiliza ante variables continuas, como el tiempo. 4. Gráfico de líneas En este tipo de gráfico se emplean líneas para delimitar el valor de una variable dependiente respecto a otra independiente. También puede usarse para comparar los valores de una misma variable o de diferentes investigaciones utilizando el mismo gráfico (usando diferentes líneas). Es usual que se emplee para observar la evolución de una variable a través del tiempo. Un ejemplo claro de este tipo de gráficos son los polígonos de frecuencias. Su funcionamiento es prácticamente idéntico al de los histogramas aunque utilizando puntos en vez de barras, con la excepción de que permite establecer la pendiente entre dos de dichos puntos y la comparación entre diferentes variables relacionadas con la independiente o entre los resultados de distintos experimentos con las mismas variables, como por ejemplo las medidas de una investigación respecto a los efectos de un tratamiento, observando los datos de una variable pretratamiento y postratamiento.
147
5. Gráfico de dispersión El gráfico de dispersión o gráfico xy es un tipo de gráfico en el cual mediante los ejes cartesianos se representa en forma de puntos todos los datos obtenidos mediante la observación. Los ejes x e y muestran cada uno los valores de una variable dependiente y otra independiente o dos variables de la que se esté observando si presentan algún tipo de relación. Los puntos representados el valor reflejado en cada observación, lo que a nivel visual dejará ver una nube de puntos a través de los cuales podemos observar el nivel de dispersión de los datos. Se puede observar si existe o no una relación entre las variables mediante el cálculo. Es el procedimiento que se suele usar, por ejemplo, para establecer la existencia de rectas de regresión lineal que permita determinar si hay relación entre variables e incluso el tipo de relación existente. 6. Gráfico de caja y bigotes Los gráficos de caja son uno de los tipos de gráficas que tienden a utilizarse de cara a observar la dispersión de los datos y cómo éstos agrupan sus valores. Se parte del cálculo de los cuartiles, los cuales son los valores que permiten dividir los datos en cuatro partes iguales. Así, podemos encontrar un total de tres cuartiles (el segundo de los cuales se corresponderían con la mediana de los datos) que van a configurar la “caja “en cuestión. Los llamados bigotes serían la representación gráfica de los valores extremos. Este gráfico es útil a la hora de evaluar intervalos, así como de observar el nivel de dispersión de los datos a partir de los valores de los cuartiles y los valores extremos. 7. Gráfico de áreas En este tipo de gráfico se observa, de manera semejante lo que ocurre con los gráficos de líneas, la relación entre variable dependiente e independiente. Inicialmente se hace una línea que une los puntos que marcan los diferentes valores de la variable medida, pero también se incluye todo lo situado por debajo: este tipo de gráfica nos permite ver la acumulación (un punto determinado incluye a los situados por debajo). A través de él se pueden medir y comparar los valores de diferentes muestras (por ejemplo, comparar los resultados obtenidos por dos personas, compañías, países, por dos registros de un mismo valor….). Los diferentes resultados pueden apilarse, observándose fácilmente las diferencias entre las diversas muestras. 8. Pictograma Se entiende por pictograma a un gráfico en el que, en vez de representar los datos a partir de elementos abstractos como barras o círculos, se emplean elementos propios del tema que se está investigando. De este modo se hace más visual. Sin embargo, su funcionamiento es semejante al del gráfico de barras, representando frecuencias de la misma manera 9. Cartograma Este gráfico resulta de utilidad en el terreno de la epidemiología, indicando las zonas o áreas geográficas en las que aparece con mayor o menor frecuencia un determinado valor de una variable. Las frecuencias o rangos de frecuencias se indican mediante el uso del color (requiriéndose una leyenda para comprenderse) o el tamaño.
148
10. Gráfico de anillos Un gráfico de anillos es esencialmente un gráfico de sectores con un área del centro cortada. Sin embargo, los gráficos de anillos tienen una ligera ventaja sobre los gráficos de sectores, que a veces son criticados por centrarse en los tamaños relativos de las piezas entre sí y a la carta en su conjunto, sin dar ninguna indicación de los cambios en comparación con otros gráficos circulares. Un gráfico de anillos aborda parcialmente este problema de énfasis, para que el espectador se centre más en los cambios de los valores globales, prestando atención a la lectura de la longitud de los arcos, en lugar de comparar las proporciones entre las rebanadas. También los gráficos de anillos pueden ocupar menos espacio, con la ventaja sobre los gráficos de sectores de prestarse a mostrar información también en su espacio interior en blanco. 11. Histograma Es una gráfica de la distribución de un conjunto de datos. Es un tipo especial de gráfica de barras, en la cual una barra va pegada a la otra, es decir no hay espacio entre las barras. Cada barra representa un subconjunto de los datos. Muestra la acumulación o tendencia, la variabilidad o dispersión y la forma de la distribución. 12. Polígono de Frecuencia Es un gráfico que se obtiene a partir de un histograma, uniendo los puntos medios de los techos, o bases superiores, de los rectángulos. Se acostumbra a prolongar el polígono hasta puntos de frecuencia cero. Un polígono de frecuencia permite ver con gran claridad las variaciones de la frecuencia de una clase a otra. Son muy útiles cuando se pretende comparar dos o más distribuciones, ya que, así como es difícil representar dos o más histogramas en un mismo gráfico, resulta muy sencillo hacerlo con dos o más polígonos de frecuencias. La suma de las áreas de los rectángulos de un histograma de amplitud constante, es igual al área limitada por el polígono de frecuencias y el eje X. 13. Ojiva Es el polígono frecuencial acumulado, es decir, que permite ver cuántas observaciones se encuentran por encima o debajo de ciertos valores, en lugar de solo exhibir los números asignados a cada intervalo. La ojiva apropiada para información que presente frecuencias mayores que el dato que se está comparando tendrá una pendiente negativa (hacia abajo y a la derecha) y en cambio la que se asigna a valores menores, tendrá una pendiente positiva. Una gráfica similar al polígono de frecuencias es la ojiva, pero ésta se obtiene de aplicar parcialmente la misma técnica a una distribución acumulativa y de igual manera que éstas, existen las ojivas "mayor que" y las ojivas "menor que".
INTERPOLACIONES La interpolación lineal es un procedimiento muy utilizado para estimar los valores que toma una función en un intervalo del cual conocemos sus valores en los extremos (x1, f(x1)) y (x2,f(x2)). Para estimar este valor utilizamos la aproximación a la función f(x) por medio de una recta r(x) (de ahí el nombre de interpolación lineal, ya que también existe la interpolación cuadrática). La expresión de la interpolación lineal se obtiene del polinomio interpolador de Newton de grado uno.
149
Recta de Interpolación Lineal Veamos los pasos que tenemos que seguir para hallar la recta de regresión: • 1º. Dados los puntos de la función (x1, y1) y (x2, y2), queremos estimar el valor de la función en un punto x en el intervalo x1<x<x2. •
2º. Para hallar la recta de interpolación nos fijaremos en la siguiente imagen: Para ello utilizamos la semejanza de los triángulos ABD y CAE, obteniendo la siguiente proporcionalidad de segmentos: AB/AC=BD/CE.
•
3º. Despejando el segmento BD (ya que el punto D es el que desconocemos) obtenemos: BD=(AB/AC)∙CE. Traduciendo al lenguaje algebraico obtenemos que:
Y despejando y, obtenemos:
La misma expresión que se obtiene al utilizar el polinomio interpolador de Newton que ya habíamos comentado. Recordad que y1=f(x1) y análogamente y2=f(x2).
Representación Tallo Hoja Permite obtener simultáneamente una distribución de frecuencias de la variable y su representación gráfica. Para construirlo basta separar en cada dato el último dígito de la derecha (que constituye la hoja) del bloque de cifras restantes (que formará el tallo). El diagrama de tallo y hojas (Stem-and-Leaf Diagram) es un semigráfico que permite presentar la distribución de una variable cuantitativa. Consiste en separar cada dato en el último dígito (que se denomina hoja) y las cifras delanteras restantes (que forman el tallo).
Es especialmente útil para conjuntos de datos de tamaño medio (entre 20 y 50 elementos) y que sus datos no se agrupan alrededor de un único tallo. Con él podemos hacernos la idea de qué distribución tienen los datos, la asimetría, etc.
El nombre de tallo y hojas hace referencia a la ramificación de una planta, siendo los dígitos delanteros marcan el tallo donde se encuentra el número y el dígito final la hoja.
TABLAS DE FRECUENCIA Es una tabla que muestra la distribución de los datos mediante sus frecuencias. Se utiliza para variables cuantitativas o cualitativas ordinales. Es una herramienta que permite ordenar los datos de manera que se presentan numéricamente las características de la distribución de un conjunto de datos o muestra.
150
Construcción de la Tabla de Frecuencias 1. En la primera columna se ordenan de menor a mayor los diferentes valores que tiene la variable en el conjunto de datos. 2. En las siguientes columnas (segunda y tercera) se ponen las frecuencias absolutas y las frecuencias absolutas acumuladas. 3. Las columnas cuarta y quinta contienen la las frecuencias relativas y las frecuencias relativas acumuladas. 4. Adicionalmente (opcional) se pueden incluir dos columnas (sexta y séptima), representando la frecuencia relativa y la frecuencia relativa acumulada como tanto por cien. Estos porcentajes se obtienen multiplicando las dos frecuencias por cien. Elementos de las Tablas de Frecuencias • Datos: Los datos son los valores de la muestra recogida en el estudio estadístico •
Frecuencia absoluta: La frecuencia absoluta (ni) es el número de veces que aparece un determinado valor en un estudio estadístico. Número de veces que se repite el í-esimo valor de la variable. La suma de las frecuencias absolutas es igual al número total de datos, que se representa por n
•
Frecuencia absoluta acumulada: La Frecuencia absoluta acumulada (Ni) es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valor considerado. o N1 = n1 o N2 = n1 + n2 = N1 + n2 o N3 = n1 + n2 + n3 = N2 + n3 o Nk = n. Se interpreta como el número de observaciones menores o iguales al í-esimo valor de la variable.
•
Frecuencia relativa: La frecuencia relativa (fi) es la proporción de veces que se repite un determinado dato. La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos. o fi = ni/n o La suma de las frecuencias relativas es igual a 1.
•
Frecuencia relativa acumulada: La frecuencia relativa acumulada (Fi) es el número de observaciones menores o iguales al í-esimo valor de la variable pero en forma relativa. o F1 = fl o F2 = f1+ f2 = F1 + f2 o F3 = f1+ f2 + f3 = F2 + f3 o Fk = 1
Tabla de frecuencia de datos no agrupados Los datos no agrupados son las de observaciones realizadas en un estudio estadístico que se presentan en su forma original tal y como fueron recolectados, para obtener información directamente de ellos. La Tabla de frecuencia de datos no agrupados indica las frecuencias con que aparecen los datos estadísticos sin que se haya hecho ninguna modificación al tamaño de las unidades originales. En estas distribuciones cada dato mantiene su propia identidad después que la distribución de
151
frecuencia se ha elaborado. En estas distribuciones los valores de cada variable han sido solamente reagrupados, siguiendo un orden lógico con sus respectivas frecuencias. La tabla de frecuencias de datos no agrupados se emplea si las variables toman un número pequeños de valores o la variable es discreta. Tabla de frecuencia de datos agrupados La Tabla de frecuencia de datos agrupados aquella distribución en la que los datos estadísticos se encuentran ordenados en clases y con la frecuencia de cada clase; es decir, los datos originales de varios valores adyacentes del conjunto se combinan para formar un intervalo de clase. La tabla de frecuencias agrupadas se emplea generalmente si las variables toman un número grande de valores o la variable es continua. En este caso se agrupan los valores en intervalos que tengan la misma amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Las clases deben ser excluyentes y exhaustivas, es decir que cada elemento de la muestra debe pertenecer a una sola clase y a su vez, todo elemento debe pertenecer a alguna clase. Cada clase está delimitada por el límite inferior de la clase y el límite superior de la clase. Los intervalos se forman teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el límite superior no pertenece intervalo, se cuenta en el siguiente intervalo. No existe una regla fija de cuantos son los intervalos que se deben hacer; hay diferentes criterios, la literatura especializada recomienda considerar entre 5 y 20 intervalos. El número de intervalos se representa por la letra "K". El Recorrido es el límite dentro del cual están comprendidos todos los valores de la serie de datos,. Es la diferencia entre el valor máximo de una variable y el valor mínimo que ésta toma en una investigación cualquiera. R = Xmax. - Xmin. La Amplitud de la clase es la diferencia entre el límite superior e inferior de la clase y se representarán por "Ci" Ci = R/K Se considerará la misma amplitud para todos los intervalos. La Marcas de clases (Xi) representa a la variable a través de un valor. Se calcula como el punto medio de cada clase, o bien la semi suma de la clase La tabla de frecuencias puede representarse gráficamente en un histograma. Normalmente en el eje vertical se coloca las frecuencias y en el horizontal los intervalos de valores.
MEDIDAS DE TENDENCIA CENTRAL Promedio o Media La media de tendencia central, más conocida y utilizada en la media aritmética o promedio aritmético. Se presenta por la letra griega µ cuando se trata del promedio del universo o población y por Ȳ cuando se trata del promedio de la muestra.
152
Series Simples En primer término, es necesario definir lo que se entiende por una serie estadística y posteriormente se hará lo mismo para las series estadísticas simples y agrupadas. Series estadísticas de observaciones cuantitativas. Cuando ya se ha efectuado el proceso de recolección de la información cuantitativa, esta debe ser organizada para poder manejarla eficientemente y efectuar su óptimo análisis. La manera en que ha de organizarse la información, depende en gran parte del volumen de información recabada. Cuando ya se ha efectuado el proceso de recolección de la información cuantitativa, esta debe ser organizada para poder manejarla eficientemente y efectuar su óptimo análisis. La manera en que ha de organizarse la información, depende en gran parte del volumen de información recabada. Esto es, la información se organiza mediante series estadísticas, que según el número de datos pueden clasificarse en simples o agrupadas. En primer término, es necesario definir lo que se entiende por una serie estadística y posteriormente se hará lo mismo para las series estadísticas simples y agrupadas. Se catalogan así a las series en las que, a cada dato del hecho estudiado, se le asigna de manera unívoca el valor extraído de la observación. En otras palabras, debido a que se cuenta con pocos elementos, será posible indicar qué valor de la característica de interés pertenece a determinado sujeto; o bien, cuando se cuente con pocos datos, estos pueden ser manejados con facilidad en forma de listado. Datos agrupados y sus medidas estadísticas Cuando los valores de la variable son muchos, conviene agrupar los datos en intervalos o clases para así realizar un mejor análisis e interpretación de ellos. • Para construir una tabla de frecuencias con datos agrupados, conociendo los intervalos, se debe determinar la frecuencia absoluta (fi) correspondiente a cada intervalo, contando la cantidad de datos cuyo valor está entre los extremos del intervalo. Luego se calculan las frecuencias relativas y acumuladas, si es pertinente. • Si no se conocen los intervalos, se pueden determinar de la siguiente manera: (recuerda que los intervalos de clase se emplean si las variables toman un número grande de valores o la variable es continua). - Se busca el valor máximo de la variable y el valor mínimo. Con estos datos se determina el rango. - Se divide el rango en la cantidad de intervalos que se desea tener, (por lo general se determinan 5 intervalos de lo contrario es ideal que sea un numero impar por ejemplo 5, 7, 9) obteniéndose así la amplitud o tamaño de cada intervalo. - Comenzando por el mínimo valor de la variable, que será el extremo inferior del primer intervalo, se suma a este valor la amplitud para obtener el extremo superior y así sucesivamente. • Otra forma de calcular la cantidad de intervalos es aplicando los siguientes métodos: Método Sturges: k = 1 + 3,332 log n donde: k= número de clases n= tamaño muestral
153
Debemos tener en cuenta 2 cosas. Primero que el número de intervalos me tiene que dar impar, segundo que el resultado se redondea generalmente a la baja. Si al redondear a la baja nos da como resultado un número par debemos redondear al alza. Este es el método que tiene mayor precisión.
MEDIDAS ESTADÍSTICAS Y SUS DATOS AGRUPADOS 1. Media Aritmética Por Datos Agrupados Se calcula sumando todos los productos de marca clase con la frecuencia absoluta respectiva y su resultado dividirlo por el número total de datos:
2. Moda Es el valor que representa la mayor frecuencia absoluta. En tablas de frecuencias con datos agrupados, hablaremos de intervalo modal. La moda se representa por Mo. Todos los intervalos tienen la misma amplitud.
3. Mediana Es el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a mayor. La mediana se representa por Me. La mediana se puede hallar sólo para variables cuantitativas. Cálculo de la mediana para datos agrupados La mediana se encuentra en el intervalo donde la frecuencia acumulada llega hasta la mitad de la suma de las frecuencias absolutas. Es decir, tenemos que buscar el intervalo en el que se encuentre: N/2. Luego calculamos según la siguiente fórmula:
FORMULAS ESTADÍSTICAS PARA DATOS AGRUPADOS • Media La media se calcula usando la siguiente fórmula:
Ejemplo 1 Determina la media de la siguiente distribución:
154
Dado que tenemos 5 intervalos, la media la calculamos usando la fórmula:
En la tabla, agregamos una columna donde colocaremos todos los valores de x.f :
Calculamos los valores de x.f :
Finalmente, calculamos el valor de la media, dividiendo la suma de valores de la columna x.f entre n.
El valor de la media sería 9,810. • Mediana Para estimar la mediana, hay que seguir 2 pasos: Encontrar el intervalo en el que se encuentra la mediana usando la fórmula:
Usar la fórmula de la mediana:
Donde: Li: límite inferior del intervalo en el cual se encuentra la mediana. n: número de datos del estudio. Es la sumatoria de las frecuencias absolutas. Fi-1: frecuencia acumulada del intervalo anterior al que se encuentra la mediana. Ai: amplitud del intervalo en el que se encuentra la mediana. fi: frecuencia absoluta del intervalo en el que se encuentra la mediana. Ejemplo 2 Encontrar la mediana de la siguiente distribución:
155
Para estimar el valor de la mediana, seguimos los 2 pasos. Primero encontramos el intervalo en el cual se encuentra la mediana usando la fórmula:
Este valor, lo buscamos en la columna de frecuencias acumuladas. Si no aparece, buscamos el valor que sigue. Como vemos, después del 11 sigue el 14, por lo tanto, la mediana se ubica en el intervalo 3.
Ahora, aplicamos la fórmula de la mediana:
El valor de la mediana, sería: Me = 9,667. • Moda Para estimar la moda, se siguen los siguientes pasos: Encontrar el intervalo en el cual se encuentra la moda, que es el intervalo con mayor frecuencia absoluta. Usar la siguiente fórmula para estimar el valor de la moda:
Donde: Li: límite inferior del intervalo en el cual se encuentra la moda. fi-1: frecuencia absoluta del intervalo anterior en el que se encuentra la moda. fi: frecuencia absoluta del intervalo en el que se encuentra la moda. fi+1: frecuencia absoluta del intervalo siguiente en el que se encuentra la moda. Ai: amplitud del intervalo en el que se encuentra la moda. Ejemplo 3 Encontrar la moda de la siguiente distribución:
156
Primero, encontramos el intervalo en el cual se encuentra la moda, es decir, el intervalo con mayor frecuencia absoluta. El intervalo 3, tiene la mayor frecuencia absoluta (6), por lo tanto, aquí se encontrará la moda.
Ahora, aplicamos la fórmula para estimar la moda:
Por lo tanto, el valor de la moda sería: Mo = 9,333.
MEDIDAS DE DISPERSIÓN PARA SERIES SIMPLES Medidas de dispersión. Parámetros estadísticos que indican como se alejan los datos respecto de la media aritmética. Sirven como indicador de la variabilidad de los datos. Las medidas de dispersión más utilizadas son el rango, la desviación estándar y la varianza Rango: Indica la dispersión entre los valores extremos de una variable. se calcula como la diferencia entre el mayor y el menor valor de la variable. Se denota como R.
Desviación Media: Es la media aritmética de los valores absolutos de las diferencias de cada dato respecto a la media.
Desviación Estándar: La desviación estándar mide el grado de dispersión de los datos con respecto a la media, se denota como s para una muestra o como σ para la población. Varianza: Es otro parámetro utilizado para medir la dispersión de los valores de una variable respecto a la media. Corresponde a la media aritmética de los cuadrados de las desviaciones respecto a la media. Su expresión matemática es:
157
Coeficiente de Variación: Permite determinar la razón existente entre la desviación estándar (s) y la media. Se denota como CV. El coeficiente de variación permite decidir con mayor claridad sobre la dispersión de los datos.
LOS DATOS AGRUPADOS Y SUS MEDIDAS ESTADÍSTICAS Cuando los valores de la variable son muchos, conviene agrupar los datos en intervalos o clases para así realizar un mejor análisis e interpretación de ellos. •Para construir una tabla de frecuencias con datos agrupados, conociendo los intervalos, se debe determinar la frecuencia absoluta (fi) correspondiente a cada intervalo, contando la cantidad de datos cuyo valor está entre los extremos del intervalo. Luego se calculan las frecuencias relativas y acumuladas, si es pertinente. • Si no se conocen los intervalos, se pueden determinar de la siguiente manera: (recuerda que los intervalos de clase se emplean si las variables toman un número grande de valores o la variable es continua). Se busca el valor máximo de la variable y el valor mínimo. Con estos datos se determina el rango. Se divide el rango en la cantidad de intervalos que se desea tener,(por lo general se determinan 5 intervalos de lo contrario es ideal que sea un numero impar por ejemplo 5, 7, 9) obteniéndose así la amplitud o tamaño de cada intervalo. Comenzando por el mínimo valor de la variable, que será el extremo inferior del primer intervalo, se suma a este valor la amplitud para obtener el extremo superior y así sucesivamente. • Otra forma de calcular la cantidad de intervalos es aplicando los siguientes métodos: Método Sturges: k = 1 + 3,332 log n donde: k= número de clases n= tamaño muestral Debemos tener en cuenta 2 cosas. Primero que el número de intervalos me tiene que dar impar, segundo que el resultado se redondea generalmente a la baja. Si al redondear a la baja nos da como resultado un número par debemos redondear al alza. Este es el método que tiene mayor precisión. Método Empírico: este método depende del criterio del evaluador de los datos, por lo tanto es arbitrario. Dice lo siguiente. 5 ≥ k ≥ 20
158
ASIMETRÍA La simetría de una distribución de frecuencias hace referencia al grado en que valores de la variable, equidistantes a un valor que se considere centro de la distribución, poseen frecuencias similares. Es un concepto más intuitivo a nivel visual, especialmente, si se observa una representación gráfica (diagrama de barras, histograma…) de la distribución de frecuencias. Ésta será simétrica si la mitad izquierda de la distribución es la imagen especular de la mitad derecha. Media y mediana coinciden en las distribuciones simétricas. Si sólo hay una moda (distribución unimodal), el valor de ésta también será igual a las dos anteriores. En distribuciones unimodales, el nivel de simetría se suele describir de acuerdo a tres grandes categorías: distribuciones simétricas, distribuciones asimétricas positivas (o sesgada a la derecha) y distribuciones asimétricas negativas (o sesgada a la izquierda). Tomando como eje de referencia a la moda, estas categorías de asimetría vienen definidas por el diferente grado de dispersión de los datos a ambos lados (colas) de ese eje virtual. La cola más dispersa en el lado de los valores altos de la variable caracteriza a la asimetría positiva; si en el lado de los más bajos, a la asimetría negativa; y si la dispersión es igual o muy similar a ambos lados, a una distribución de frecuencias simétrica. En caso de asimetría, los valores de la media, mediana y moda difieren. En concreto si la asimetría es positiva: media>mediana>moda. Si la asimetría es negativa: media<mediana<moda.
A continuación, se presentan diferentes índices estadísticos que permiten cuantificar el nivel de asimetría de una variable. Destacar antes que para variables nominales no tiene sentido el plantear este tipo de índices, dado que no existe un orden intrínseco a los valores de la variable. • Índice de asimetría para variables ordinales: Se basa en las distancias entre los cuartiles a fin de establecer un resumen de la asimetría de la distribución.
NOTA: oscila entre -1 y 1 lo cual facilita la comprensión.
• Índice de asimetría para variables cuantitativas: Primer coeficiente de Pearson: se basa en la relación existente entre la media y la moda en distribuciones unimodales asimétricas.
Interpretación del coeficiente de Pearson: los valores menores que 0 indican asimetría negativa; los mayores, asimetría positiva y cuando sea cero, o muy próximo a cero, simétrica. No está limitado a un rango de valores.
159
• Coeficiente de asimetría de Fisher: Se basa en las desviaciones de los valores observados respecto a la media. La interpretación de los resultados proporcionados por este coeficiente es igual a la del primer coeficiente de Pearson.
Y para el caso de datos tabulados:
Acorde al tipo de variable que nos ocupa, El histograma representa la mejor opción en la visualización de la asimetría de una variable, por otro lado, el diagrama de caja y bigotes (boxplot) también constituye una opción válida para tal fin. A continuación, se presenta un ejemplo con ambos tipos de gráficos superpuestos, en que se muestran 3 variables que ilustran distribuciones con diferente nivel de asimetría:
CURTOSIS El apuntamiento o curtosis de una distribución de frecuencias no tiene un referente natural como en el caso de la simetría, sino que se sustenta en la comparación respecto a una distribución de referencia, en concreto, la distribución normal o campana de Gauss. En consecuencia, su obtención sólo tendrá sentido en variables cuya distribución de frecuencias sea similar a la de la curva normal – en la práctica ello se reduce, básicamente, a que sea unimodal y más o menos simétrica. El apuntamiento expresa el grado en que una distribución acumula casos en sus colas en comparación con los casos acumulados en las colas de una distribución normal cuya dispersión sea equivalente. Así, de forma análoga a la asimetría, se diferencian 3 grandes categorías de apuntamiento: 1. Distribución platicúrtica (apuntamiento negativo): indica que en sus colas hay más casos acumulados que en las colas de una distribución normal. 2. Distribución leptocúrtica (apuntamiento positivo): justo lo contrario. 3. Distribución mesocúrtica (apuntamiento normal): como en la distribución normal. Coeficiente de apuntamiento de Fisher para variables cuantitativas: se basa en las desviaciones de los valores observados respecto a la media.
Y para el caso de datos tabulados:
160
Interpretación: el valor de este coeficiente para la distribución normal será igual a 0, o sea que cualquier distribución para la que se obtenga un valor de K igual o próximo a 0 significará que su nivel de apuntamiento es como el de la distribución normal (mesocúrtica). Valores mayores que 0, expresan que la distribución es leptocúrtica, mientras que si son menores que 0 ponen de manifiesto que la distribución es platicúrtica. No está limitado a un rango de valores. Curva de Lorenz Es una forma gráfica de mostrar la distribución de la renta en una población. En ella se relacionan los porcentajes de población (abscisas) con porcentajes de la renta (ordenadas) que esta población recibe. En la curva de Lorenz en el eje de abscisas, por tanto, se representa la población «ordenada» de forma que los percentiles de renta más baja quedan a la izquierda y los de renta más alta quedan a la derecha. El eje de ordenadas representa las rentas. Índice de Gini Mide el grado de la distribución de la renta (o del consumo) entre los individuos de un país con respecto a una distribución con perfecta igualdad. El índice de Gini mide la concentración de la renta. Su valor puede estar entre cero y uno. Cuanto más próximo a uno sea el índice Gini, mayor será la concentración de la riqueza; cuanto más próximo a cero, más equitativa es la distribución de la renta en ese país. El valor 0 representa la igualdad perfecta y el 1, la desigualdad total. Son dos indicadores relacionados entre sí que miden el grado de distribución de la renta en un país.
Teorema de Chebyschev La desigualdad de Chebyshev es un teorema utilizado en estadística que proporciona una estimación conservadora (intervalo de confianza) de la probabilidad de que una variable aleatoria con varianza finita, se sitúe a una cierta distancia de su esperanza matemática o de su media. Su expresión formal es la siguiente:
X = Valor estimado µ = Esperanza matemática del valor estimado Ϭ = Desviación típica del valor esperado k = Número de desviaciones típicas Partiendo de esta expresión general y desarrollando la parte que queda dentro del valor absoluto tendríamos lo siguiente:
Si prestamos atención a la expresión anterior, se aprecia que la parte de la izquierda no es más es un intervalo de confianza. Este nos ofrece tanto una cota inferior, como una superior para el valor estimado. Por lo tanto, la desigualdad de Chebyshev nos dice la probabilidad mínima, de que el
161
parámetro poblacional se encuentre dentro de una determinada cantidad de desviaciones típicas por encima o por debajo de su media. O dicho de otra manera, nos da la probabilidad de que de que el parámetro poblacional se encuentre dentro de ese intervalo de confianza. La desigualdad de Chebyshev proporciona cotas aproximadas para el valor estimado. A pesar de tener cierto grado de imprecisión, es un teorema bastante útil dado que se puede aplicar a un amplio abanico de variables aleatorias independientemente de sus distribuciones. La única restricción para poder utilizar esta desigualdad es que k tiene que ser mayor que 1 (k>1). Formula del Teorema de Chebyshev Para poder investigar este teorema, primero es necesario comparar los cálculos con la regla general 68-95-99.7 para distribuciones normales. Dado que esos números representan los datos que se encuentran dentro de los límites, se utiliza la desigualdad de Chebysgev para los datos dentro de los límites. Esta fórmula es la siguiente: Probabilidad = 1 – (1 / k 2) Donde, matemáticamente, los valores menores o iguales a 1 no son válidos para este cálculo. Sin embargo, conectar los valores de k para 2 y 3 es más simple de lo que parece. En esos casos de 2 y 3, el Teorema de Chebyshev establece que al menos el 75% de los datos caerán dentro de las 2 desviaciones estándar de la media y se espera que el 89% de los datos caigan dentro de las 3 desviaciones estándar de la media. Esto es menos preciso que los 95% y 99.7% que se pueden usar para una distribución normal conocida; sin embargo, el Teorema de Chebyshev es cierta para todas las distribuciones de los datos, no solo para una distribución normal.
Transformación de Variables Una transformación pudiera ser necesaria cuando los residuos exhiban varianza no constante o no normalidad. Las transformaciones también pudieran ser útiles cuando el modelo exhibe una falta de ajuste significativa, lo cual es particularmente importante en los experimentos de análisis de superficie de respuesta. Supongamos que usted incluye todas las interacciones significativas y los términos cuadráticos en el modelo, pero la prueba de falta de ajuste indica la necesidad de términos de orden más alto. Una transformación puede eliminar la falta de ajuste. Si la transformación corrige el problema, usted puede utilizar el análisis de regresión en lugar de otros análisis, posiblemente más complicados. Un texto apropiado sobre regresión o análisis de experimentos diseñados puede ofrecer una orientación adecuada con respecto a cuáles transformaciones resuelven diferentes problemas. La transformación de Box-Cox es la transformación de estabilización de la varianza utilizada con más frecuencia.
162
Datos no transformados En esta gráfica, los residuos exhiben una varianza no constante.
Datos transformados Esta gráfica muestra los residuos después de la transformación de estabilización de la varianza. La escala de valores ajustados (eje X) cambia y la varianza se hace constante.
Gráficos de cajas Es un método estandarizado para representar gráficamente una serie de datos numéricos a través de sus cuartiles. De esta manera, el diagrama de caja muestra a simple vista la mediana y los cuartiles de los datos, pudiendo también representar los valores atípicos de estos. Componentes del diagrama de caja El diagrama de caja es compuesto de los siguientes elementos: • Rango (sin datos atípicos) • Datos atípicos. • Rango intercuartil (también conocido como RIC) • Cuartiles (denotados como Q1, Q2 y Q3) • Mediana (Q2) • Mínimo y máximo. Elaboración manual del diagrama de caja Para la elaboración de manera manual de este tipo de gráfico, primero obtenemos la media de cada intervalo, y luego la mediana de la tabla de frecuencias en general. Con estos datos utilizamos la fórmula de la media de cada intervalo elevado a la mediana. Los datos obtenidos en esta fórmula son la interpretación.
Ordenar los datos y obtener el valor mínimo, el máximo, los cuartiles Q1, Q2 y Q3 y el rango intercuartílico (RIC): En el ejemplo, para trazar la caja: Valor 7: es el Q1 (25% de los datos) Valor 8.5: es el Q2 o mediana (el 50% de los datos) Valor 9: es el Q3 (75% de los datos) Rango intercuartílico (Q3–Q1)
163
Los «bigotes», las líneas que se extienden desde la caja, se extienden hasta los valores máximo y mínimo de la serie o hasta 1,5 veces el RIC. Cuando los datos se extienden más allá de esto, significa que hay valores atípicos en la serie y entonces hay que calcular los límites superior e inferior, Li y Ls. Para ello, se consideran atípicos los valores inferiores a Q1–1.5·RIC o superiores a Q3+1.5·RIC. En el ejemplo: inferior: 7–1.5·2 = 4 superior: 9+1.5·2 = 12 Ahora se buscan los últimos valores que no son atípicos, que serán los extremos de los bigotes. En el ejemplo: 4 y 12 Marcar como atípicos todos los datos que están fuera del intervalo (Li, Ls). En el ejemplo: 0,5 y 2,5 Además, se pueden considerar valores extremadamente atípicos aquellos que exceden Q1–3·RIC o Q3+3·RIC. De modo que, en el ejemplo: inferior: 7–3·2 = 1 superior: 9+3·2 = 15 Utilidad Proporcionan una visión general de la simetría de la distribución de los datos; si la mediana no está en el centro del rectángulo, la distribución no es simétrica. Son útiles para ver la presencia de valores atípicos también llamados outliers. Pertenece a las herramientas de las estadísticas descriptivas. Permite ver como es la dispersión de los puntos con la mediana, los percentiles 25 y 75 y los valores máximos y mínimos. Ponen en una sola dimensión los datos de un histograma, facilitando así el análisis de la información al detectar que el 50% de la población está en los límites de la caja.
CÁLCULO DE PROBABILIDADES • • •
La probabilidad mide la mayor o menor posibilidad de que se dé un determinado resultado (suceso o evento) cuando se realiza un experimento aleatorio. Para calcular la probabilidad de un evento se toma en cuenta todos los casos posibles de ocurrencia del mismo; es decir, de cuántas formas puede ocurrir determinada situación. Los casos favorables de ocurrencia de un evento serán los que cumplan con la condición que estamos buscando.
164
• • • •
La probabilidad toma valores entre 0 y 1 (o expresados en tanto por ciento, entre 0% y 100%): El valor cero corresponde al suceso imposible; ejemplo: lanzamos un dado al aire y la probabilidad de que salga el número 7 es cero. El valor uno corresponde al suceso seguro, ejemplo: lanzamos un dado al aire y la probabilidad de que salga cualquier número del 1 al 6 es igual a uno (100%). El resto de sucesos tendrá probabilidades entre cero y uno: que será tanto mayor cuanto más probable sea que dicho suceso tenga lugar.
Eventos Compuestos Evento que incluye dos o más eventos independientes. Un ejemplo es el evento de obtener el mismo lado (la misma cara) al lanzar dos veces una moneda. El resultado del primer lanzamiento no afecta al segundo resultado. Es necesario considerar ambos resultados para determinar el resultado final. En el mundo de las probabilidades, los eventos compuestos son probabilidades de dos o más cosas que pasan al mismo tiempo. Por ejemplo ¿cuál es la probabilidad de que se te olvide hacer la tarea y de que haya un examen sorpresa en la clase?
165