Saberes Profesionales 2021 - Bachillerato - B

Page 1

1


Contenido Redacción y Correspondencia .................................................................................... 4 Ciencias de la Computación ..................................................................................... 24 Robótica......................................................................................................................... 62 Matemáticas ................................................................................................................. 95 Física Fundamental..................................................................................................... 126 Biología ......................................................................................................................... 153 Química ........................................................................................................................ 185 Estadística .................................................................................................................... 225

2


Redacción y Correspondencia

3


Redacción y Correspondencia REDACCIÓN La palabra redacción proviene del término latino redactum y hace referencia a la acción y efecto de redactar (poner por escrito algo sucedido, acordado o pensado con anterioridad). La redacción requiere de coherencia y cohesión textual. Dado que el orden de las palabras dentro de una oración puede modificar la intención del autor, es necesario que el redactor organice en su mente las ideas que desea trasladar al papel o a la computadora. El siguiente paso lógico es que, una vez concretada esta organización mental, se identifiquen las ideas principales y secundarias, para que a la hora de redactar aparezcan en orden y de acuerdo a la importancia de cada una. Si el autor no logra ordenar de manera lógica y cuidada su texto, el escrito carecerá de interés para el lector. Asimismo, dentro de un periódico o de una publicación de diversa tipología existe lo que se conoce como Consejo de Redacción. Este es un organismo que está integrado por los máximos dirigentes del mismo y que tiene como clara misión establecer no sólo las líneas que debe seguir aquel sino también las noticias que deben publicarse o no. Por último, cabe destacar que una redacción es una composición escrita sobre algún tema. Esta aceptación del concepto suele ser utilizada en los centros educativos, donde la redacción constituye un ejercicio o práctica que debe llevar a cabo un estudiante. Importancia de una Buena Redacción La sociedad actual está dominada por la escritura. Nuestra actividad se halla continuamente envuelta por los textos escritos; textos de muy diversa índole, desde los cuadernos y manuales escolares hasta los prospectos de las medicinas, pasando por las facturas de los bancos, la declaración de la renta, el periódico, etc. La sociedad de la información, a través de la informática, ha incrementado aún más si cabe el peso e importancia de la escritura, hasta el punto en que sobre el teclado del ordenador podemos reproducir en determinadas circunstancias, al "chatear" entre otras. Es por ello que a la hora de transmitir un Mensaje Escrito es necesario que quien lo emite tenga una muy buena Redacción, para que justamente el contenido del mismo sea interpretado de un solo modo y no se preste a confusiones, siendo esta la correcta aplicación de los tres criterios anteriormente descriptos para poder difundir o hacer llegar un mensaje en particular. La mejor forma de poder desarrollar una Buena Redacción es no solo la práctica, sino también tener una lectura constante, aprender disfrutando de la Literatura, los Periódicos o bien simplemente instruyéndonos mediante la gran variedad de libros de texto que nos permiten formarnos en cuanto a un Estilo de Redacción en particular.

CORRESPONDENCIA La correspondencia es el trato recíproco entre dos personas mediante el intercambio de cartas, tarjetas, telegramas, catálogos, folletos, etc. En las empresas se considera que la correspondencia es el alma del comercio y la industria. Es un medio de comunicación usado por el hombre desde hace muchos años para comunicarse entre dos personas o individuos que están a larga distancia o cerca con un motivo muy variado. A lo largo del tiempo se ha perfeccionado sus normas y estilos, hasta llegar a nuestros días que existe el email, que es la forma más rápida de enviar y asegurarse que la información llegue al destinatario. Es un importante instrumento de comunicación escrita, es la parte intermedia entre las relaciones cliente proveedor y el lazo que une la mayor parte de transacciones comerciales. De ella depende el desarrollo de las operaciones comerciales; el éxito de un negocio, una venta, por su eficiencia y rapidez han a que las empresas aumenten el volumen de sus ventas.

4


REDACCIÓN COMERCIAL La redacción comercial es aquella que tiene por objeto la comunicación en el mundo de los negocios y de la empresa. Las características que paso a enumerar tienen una gran importancia, ya que cuando no se cumplen en el escrito comercial están entorpeciendo la finalidad de este; es decir, la buena marcha de los negocios: 1. Claridad: Todos los textos comerciales deben ser claros. Hay que evitar la ambigüedad que proporcionan las fórmulas vagas e imprecisas. El texto debe estar redactado de tal manera que solo se puede interpretar en un sentido, y que su lectura se pueda realizar con facilidad gracias al orden de la exposición del asunto o asuntos que se trata. No se debe usar palabras rebuscadas, ni tampoco abusar de tecnicismos innecesarios, excesivas abreviaturas, siglas ni palabra extranjeras. 2. Precisión: Al redactar un texto comercial, se deben emplear frases cortas y sencillas, pero siempre con sentido completo, abordando el asunto que se va a tratar de una manera directa, evitando los rodeos y las repeticiones. La carta comercial debe ser concisa, pero no incompleta. 3. Agilidad: La agilidad en la redacción sirve para que el escrito sea leído con mayor facilidad y rapidez, de tal manera que el asunto quede expuesto con orden y claridad. 4. Persuasión: Hay que tener presente en todo momento lo que se va a decir, como y a quien se va a dirigir el escrito: mostrando interés por el lector, evitando el lenguaje demasiado directo o efusivo y manteniendo siempre un tono correcto que sea de interés para el que reside la comunicación.

REDACCIÓN PRÁCTICA Para ella hay que tomar en cuenta tres puntos básicos: 1. Brevedad: No emplee 20 palabras cuando puede usar sólo 10, cuidando de no ser tampoco lacónico como en un telegrama. Por ejemplo: • Voy a darte una noticia que te asombrará, ya que seguramente no te la esperabas. ¡Quién iba a imaginárselo! Te aseguro que a mí no me había pasado por la cabeza. Bueno, ahí va: María Luisa, a la que creíamos apegada para siempre a su soltería después de sus tristes experiencias, se nos casa. Correcto: Prepárate ahora para una noticia increíble: María Luisa, la solterona de la familia, ¡se nos casa! 2. Sencillez: Sea directo, no use rebuscamientos literarios. Por ejemplo: • La petición del acusado para salir en libertad provisional no encontró la aprobación del juez, que la rechazó. Correcto: El juez negó la libertad provisional al acusado. 3. Claridad: Es la presentación de la idea completa, sin que falten los detalles necesarios para su cabal comprensión. Conviene tratar en cada párrafo un solo asunto pues de lo contrario se corre el riesgo de provocar dudas o malas interpretaciones. Y los párrafos, salvo casos excepcionales, no deben exceder las 10 líneas. • Por ejemplo: Las normas de seguridad de la compañía que han estado en vigor desde hace mucho tiempo, según un estudio que hemos hecho, resultan insuficientes, lo cual se comprueba en el crecido número de accidentes de trabajo. Por lo anterior, les ruego encarecidamente se sirvan cumplir con este nuevo reglamento de seguridad que

5


hemos elaborado. Las antiguas normas no tomaban en cuenta al personal que hemos contratado desde hace dos años. Les podemos asegurar que el nuevo reglamento lo actualizaremos en lapsos no menores de cinco meses y no mayores de siete. Correcto: Las normas de seguridad no tenían en cuenta el crecimiento real de la compañía ni los riesgos a que se exponen los trabajadores. Por lo anterior, se ha elaborado este nuevo Reglamento de Seguridad, que hoy entra en vigor, y que será actualizado cada seis meses, aproximadamente. Les ruego que cumplan con él para evitar más accidentes. Consejos sobre el Arte de la Redacción • Es necesario, primero, que medite con detenimiento en el asunto que desea tratar, ordenando las ideas accesorias en torno a la idea principal. Antes de empuñar la pluma o de sentarse ante la computadora o máquina de escribir, debe usted tener una idea muy clara de lo que quiere decir. • Si usted no tiene mucha practica en el arte de la redacción, no pretenda lograr una versión definitiva al primer intento. Es conveniente hacer esquemas y borradores. • Recuerde que el sustantivo y el verbo son piedras angulares del idioma, por lo que debemos emplearlos atinadamente. • Elimine adjetivos inútiles y, sobre todo, evite su acumulación. Se ha dicho que, si un adjetivo no da vida, mata. • Cuando modifique un verbo, utilice el apropiado. Recuerde que el adverbio es el verbo lo que el adjetivo al sustantivo. • Tenga cuidado con los adverbios terminados en-mente. Abundan tanto en español que pueden incurrir en repeticiones ingratas al oído. La manera de evitarlos, es decir, por ejemplo, con facilidad, en vez de fácilmente. • Use con propiedad las preposiciones y conjunciones indispensables para logar la cohesión y claridad. El mal uso y abuso de estas partículas afea y endurece el estilo. • Los modos adverbiales y los modismos dan colorido y sabor a la expresión si usted los emplea oportunamente. Con todo, evite su abuso. • También sea parco en el uso de modos conjuntivos. Hasta donde sea posible evite expresiones como, por consiguiente, a fin de que, todo es, por lo tanto, con todo, etc. • Preste atentación al significado de la forma pronominal se, que puede ser su de usted, su dé el, su de ella, su de ustedes, su de ellos y su de ellas. En este punto, la falta de precisión hecha por tierra la calidad del texto. • El gerundio es un derivado verbal particularmente delicado. Repase todo lo que dé él sabe, y si no está seguro de lo que emplea con prioridad, sustitúyase por otras formas verbales. • Está de moda escribir sin el menor sentido de la puntuación. Ciertos autores siguen adrede esta costumbre poco ortodoxa, aunque hay mucha gente que no puede entender lo que escriben. Puntué correctamente sus escritos. • Una puntuación correcta evita toda clase de divergencias en la interpretación del texto. Note las diferencias de significado que, de acuerdo con la puntuación, aparecen en los siguientes ejemplos: señora de la tienda, la llaman Señora, de la tienda la llaman "Señora de la tienda" la llaman. • No menosprecie los acentos, aunque oiga decir que un día acabaran por suprimirse. Mientras llega ese día, úselos correctamente. No es lo mismo decir el hombre solicito, que el hombre solicito. • Evite el uso de palabras "elevadas" o sea rebuscadas e incomprensibles. Entre dos sinónimos, elije siempre el más conocido y más breve. No hay por qué decir oblación si se puede decir ofrenda. Entre provisión y acopio, prefiera la primera.

6


El uso de palabras extranjeras solo está justificado cuando en español carecemos de voces equivalentes.

Reglas Prácticas Las palabras son los utensilios, la herramienta del escritor. Y como en todo oficio o profesión, es imprescindible el conocimiento el manejo de los utensilios de trabajo, así en el arte de escribir. Nuestra base, pues, es el conocimiento del vocabulario. El empleo de la palabra exacta, propia, y adecuada, es una de las reglas fundamentales del estilo. Como el pintor, por ejemplo: debe conocer los colores, así el escritor ha de conocer los vocablos. Un buen diccionario no debe faltar nunca en la mesa de trabajo del escritor. Se recomienda el uso de un diccionario etimológico y de sinónimos. Siempre que sea posible, antes de escribir, hágase un estudio previo, un borrador. Conviene leer situadamente a los buenos escritores. El estilo como la música, también "se pega". Los grandes maestros de la literatura nos ayudaran eficazmente en la tarea de escribir. Es preciso escribir con la convicción de que solo hay dos palabras en el idioma: el VERBO y el SUSTANTIVO. Pegándonos en guardia contra las otras palabras. Conviene evitar los verbos "fáciles" (hacer, poner, decir, etc.), y los "vocablos muletillas" (cosa, especie, algo, etc.). Procúrese que el empleo de los adjetivos sea lo más exacto posible. Sobre todo, no abusemos de ellos, "Si un sustantivo necesita de un adjetivo, no lo carguemos con dos "(Azorín). Evítese, pues, la duplicidad de adjetivos cuando sea innecesaria. No pondere demasiado. Los hechos narrados limpiamente convencen más que los elogios y ponderaciones. Lo que el adjetivo es al sustantivo, es el adverbio al verbo. Por tanto: no abuse tampoco de los adverbios sobre todo de los terminados en "mente", de las locuciones adverbiales (en afecto, por la otra parte, además, en realidad, en definitiva). Coloque los adverbios cerca del verbo a que se refiere. Resultará así más clara la exposición. Evítese las preposiciones "en cascada". La acumulación de preposiciones produce mal sonido (asonancias duras) y compromete la elegancia del estilo. No abuse de las conjunciones "parasitarias" (que, pero, aunque, sin embargo), y otras por el estilo que alargan o entorpecen el ritmo de la frase. No abuse de los pronombres. Y, sobre todo, tenga sumo cuidado con el empleo del posesivo "su" pesadilla en la frase que es causa de anfibología (doble sentido). No tergiverse los oficios del gerundio. Recuerde siempre su carácter de oración adverbial subordinada (de modo). Y, en la duda... sustitúyase por otra forma verbal. Recuerde siempre el peligro "laísmo" y "loísmo" y evite el contagio de este vicio "tan madrileño". Tenga muy en cuenta que "la puntuación es la respiración de la frase". No hay reglas absolutas de puntuación; pero nunca olvide que una frase mal puntuada no queda nunca clara. No emplee vocablos rebuscados. Entre el vocablo de origen popular y el culto, prefiera siempre aquel. Evítese también el excesivo tecnicismo y aclárese el significado de las voces técnicas cuando no sean de uso común. No olvide que el idioma español tiene preferencia por la voz activa. La pasiva se impone por ser desconocido el agente activo, porque hay cierto interés en ocultarlo o porque nos es indiferente. No abuse de las oraciones de relativo, y procure no alejar el pronombre relativo "que" de su antecedente.

DOCUMENTOS COMERCIALES Los documentos comerciales son todos los comprobantes extendidos por escrito en los que se deja constancia de las operaciones que se realizan en la actividad mercantil, de acuerdo con los usos y costumbres generalizadas y las disposiciones de la ley. Estos son de vital importancia para mantener un apropiado control de todas las acciones que se realizan en una compañía o empresas. Su misión es importante ya que en ellos queda precisada la relación jurídica entre las partes que intervienen en una determinada operación. También ayudan a demostrar la realización de alguna acción comercial y por ende son el elemento fundamental para la contabilización de tales acciones. Finalmente, estos documentos permiten controlar las operaciones practicadas por la empresa o el comerciante y la

7


comprobación de los asientos de contabilidad. La misión que cumplen los documentos comerciales es de suma importancia, conforme surge de lo siguiente: • En ellos queda precisada la relación jurídica entre las partes que intervienen en una determinada operación, o sea sus derechos y obligaciones, por lo tanto, constituyen un medio de prueba para demostrar la realización de los actos de comercio. • Constituyen también el elemento fundamental para la contabilización de dichas operaciones. • Permiten el control de las operaciones practicadas por la empresa el comerciante y la comprobación de los asientos de contabilidad. Documentos que se archivan y generan registro: • Factura • Nota de Débito • Nota de Crédito • Ticket • Recibo • Pagaré • Cheque • Nota de crédito Bancaria • Documentos que sólo se archivan: • Orden de Compra • Nota de Venta • Remito • Resumen de Cuenta

DOCUMENTOS LEGALES Un documento legal o en derecho simplemente documento, que compruebe la existencia de un hecho, la exactitud o la verdad de una afirmación etc. Que tenga un valor de prueba. Los documentos son a menudo sinónimo de actas, cartas o escritos y sirve solo si está firmado. Pues ya se sabe que es cierto. Un documento puede ser también una información singularizada: o sea que se puede distinguir por un nombre o código, que tata de un asunto especifico de naturaleza e interés particular de una institución de carácter secreto estratégico o que representa capital intelectual es decir plenamente integrada en los corderos intangibles de una entidad. Algunos ejemplos son el acta de nacimiento, la licencia de conducir: el pagar, recibos, entre otros como carta poder, recibo de dinero, telegrama, vale, actor, solicitud, etc. Un documento legal se puede requerir en cualquier momento de nuestra vida ya que IO podernos utilizar para realizar pagos, cobros, ventas. Entre otros. También se puede utilizar para demandar, pasaporte, licencia, etc. Los documentos legales son aquellos en los cuales una autoridad competente, rubrica el documento, ya sea un abogado un escribano, un juez, tiene que ser una autoridad que tenga un título universitario en cuestiones legales, eso no implica que un médico legista no pueda refrendar un certificado, por el contrario, es necesario su firma, un director de escuela certifica que un alumno ha cumplido con los requisitos exigidos por las autoridades educativas. Un documento legal es conocido también como un documento que da fe de una circunstancia, hecho, acto o actividad. El concepto legal, implica que tiene índole legal o que puede tenerla, tal como sucede con los pagarés, que, si bien son usados en materia civil, tienen una implicación de obligación. Más documentos legales son los de identidad, como actas de nacimiento, cartillas, actas de matrimonio, que son documentos del orden civil, pero que requieren de la fe de un funcionario. En este sentido un acta de fe de bautismo no tiene validez legal a menos que alguien con capacidad

8


legal de fe (notario o funcionario), por lo que dicho documento se convertiría en Existen dos principios para dar validez a un documento legal, la firma autógrafa, que implica la acción de una persona y el sello, que es una medida indispensable de certificar los documentos. Ejemplos de documentos legales: Cedula profesional: Es el documento que expide la dirección general de profesiones y que acredita legalmente para ejercer una profesión. Certificado medio: Este es realizado por un médico en instituciones gubernamentales o en instituciones médicas privadas, y que por su naturaleza pueden tener cierta validez oficial, pero que igualmente pueden ser revalidadas por un funcionario público. Contrato: Es un documento de orden privado, pero que tiene validez legal y puede ser ejecutado por vía judicial. Credencial de elector: Lo expide el instituto federal electoral, sirve como identificación oficial para acreditar a los ciudadanos mexicanos como tal y para poder ejercer el voto. Garantía: Este es un documento expedido y llenado en forma particular sobre todo por los vendedores de productos electrónicos. Acta de nacimiento: Es un documento público que sirve para hacer constar la identidad de las personas, lo expide el registro civil del estado. Acta de matrimonio: El acta de matrimonio es el documento oficial emitido por el registro civil que avala legalmente la unión de dos personas bajo el régimen de matrimonio.

CARTAS Una carta es un medio de comunicación escrita por un emisor (remitente) y enviado a un receptor (destinatario). Normalmente, el nombre y la dirección del destinatario aparecen en el frente del sobre, el nombre y la dirección del remitente aparecen en el reverso del mismo (en el caso de sobres manuscritos) o en el anverso (en los sobres preimpresos). Existen cartas sin remitente, en las que no está anotada la dirección de quien envía la carta, bien por olvido o por omisión consciente del remitente. La carta puede ser un texto diferente para cada ocasión, ya que el mensaje es siempre distinto. En ese sentido, solo en parte puede considerarse texto plenamente expositivo o apelativo. Tipos de Cartas según su asunto • Carta de pedido. Tiene como objeto solicitar él envió de algún producto que se pretende adquirir. En la mayor parte de las ocasiones, estas peticiones surgen como consecuencias de anteriores cartas de oferta o de información a través de las cuales las empresas dan a conocer sus productos. Lo fundamental en estas cartas, es planificar con antelación los pedidos a realizar. Muchas veces los pedidos son demasiados, entonces conviene revisar bien los objetos solicitados y tener un borrador a mano donde se anotarán todos los pedidos para no tener ningún inconveniente posterior. Siempre es buena idea la de tener una buena comunicación con las casas vendedoras, para saber de antemano la disponibilidad de los materiales o si existen posibles inconvenientes en conseguir algunos de los elementos, de forma de conseguir siempre un margen de maniobra interesante. Los tiempos de entrega y los envíos de materiales siempre son para tener en cuenta y los descuentos conseguidos vienen bien, así que debemos prestar atención a todas estas circunstancias que se nos pueden presentar.

9


• Carta de cotización Aquel documento o información que el departamento de compras usa en una negociación. Es un documento informativo que no genera registro contable. Cotización son la acción y efecto de cotizar (poner precio a algo, estimar a alguien o algo en relación con un fin, pagar una cuota). ¡El termino suele utilizarse para nombrar a! Documento que informa y establece el valor de productos o servicios. • Cartas profesionales Cualquier profesional debe conocer la importancia que tienen estas cartas, por ello, es conveniente familiarizarse con ellas, entender su estructura, formato, etc. Aunque es evidente que el empleo de las nuevas tecnologías: internet, intranet, videoconferencias, etc., ha venido desplazado a determinados documentos que tradicionalmente se soportan en papel, no podemos olvidar, ni obviar, la importancia que tienen a la hora de mantener contactos y relaciones. Desde el punto de vista de un profesional, conocer los aspectos que rodean a estos documentos escritos, sus formatos, sus normas, etc., darán un valor añadido a todo profesional que se aprecie. • Carta de solicitud de empleo Esta carta la utilizamos para solicitar una entrevista, y así poder presentar nuestro currículum tratando que la empresa a la cual se le enviara la carta, acepte o considere tomarnos en cuenta para una entrevista de trabajo. • Carta de confirmación del empleo Esta carta es útil para contactar a la persona que ha llegado a dejar su documentación para solicitar empleo, para luego tener una entrevista. • Carta de solicitud de referencias En ocasiones luego de analizar el currículum de una persona, el empleador desea ampliar algunos aspectos, por lo que solicitara más referencias a través de una carta de solicitud de referencias o bien vía telefónica. Si es escrita la carta debe llevar: o Nombre completo de la persona a contratar. o Diferentes puntos que nos interesa conocer (capacidad, desempeño, honorabilidad, solvencia.) • Carta de recomendación Las cartas de recomendación son documentos donde una persona proporciona información sobre otra, detallando sus fortalezas y debilidades o cualquier otra información que sea relevante para quien la recibe, en este caso, el entrevistador. Cuando se trata de una referencia laboral, normalmente son tus exjefes (supervisores, empleadores.) quien detallan cuáles son tus habilidades, como fue tu desempeño y cuál es tu potencial. • Carta de agradecimiento Al finalizar la entrevista de trabajo, aún no está todo dicho. Todavía quedan cosas que puedes hacer para mejorar la impresión que puedas haber causado a tus entrevistadores o para arreglar las cosas si no te ha ido demasiado bien. Siempre es una buena idea hacer un seguimiento enviando una carta de agradecimiento. Además, dado que menos del 10% de los entrevistadores suele enviarla, hacerlo pude ayudarte a destacar de la multitud. Además de ser un signo de cortesía, establece un clima de seguimiento o de puertas abierta con la persona que te entrevistó.

10


Partes de una Carta 1. Membrete: son los datos de la empresa, como la anotación del nombre dirección (calle y numero teléfono, residencia (ciudad y estado), código postal de la empresa o persona, que es el remitente. La mayoría de los papeles de la carta en oficina tiene nombre de la compañía o razón social, dirección social, dirección, teléfono y otros. El membrete ocupa usualmente la 11/2 pulgada de la parte superior de la hoja. 2. Fecha: cuando se usa papel con membrete impreso, la fecha se escribe dos líneas más bajo de la última línea del membrete. 3. Destinatario: es la anotación del nombre del destinario, empresas su dominio, la ciudad, y el código portal en que reside. Los espacios que se dejan de la fecha y la dirección del destinatario varían de acuerdo con el tamaño del cuerpo de la carta. Habrá más línea en blanco si la carta es corta, se deja mínimo 4 espacios interlineados (3 espacios en blanco) y un máximo de 12 espacios interlineal (11 espacios en blanco) cuando el nombre de la persona es largo, se pone el tratamiento de respeto en una línea y el nombre en la que sigue. 4. Vocativo (saludo inicial): es la expresión de cortesía a modo de saludo con que se inicia una carta, aunque en otras, evitamos estas frases e iniciamos la carta con una breve introducción. Se escribe a dos espacios después de la última línea de la dirección del destinatario. 5. Texto (cuerpo de la carta): es la exposición del asunto que es motivo de la carta. Se escribe a dos espacios después de la línea del saludo inicial. 6. Despedida: es la expresión de cortesía con que se termina una carta. Se escribe 2 espacios después de la última línea de párrafo de una carta Se escriben en mayúscula solamente 1 letra de la palabra que comienza la frase de despedida. 7. Antefirma: es el nombre (aclaración de firma) de la persona responsable que firma el documento. 8. Puesto de responsabilidad (cargo): es el puesto nombramiento de la persona que firma el documento. Otro detalle a tener en cuenta son los gastos de envió, el peso y embalaje como así todo lo que tiene que ver con la llegada del material y sus costos. 9. Firma o rubrica: es la forma como nos identificamos en los escritos, ya sea escribiendo nuestro nombre con puño y letra propia o un simple garabato que nos identifican con ella. 10. Referencias finales: son las iniciales que ubicamos al final y al lado izquierdo como "Ccp" que significan "copia carbón para" o "con copia para", esto es que estamos elaborando copias para dejar constancia. 11. Iniciales de responsabilidad: es la anotación de las iniciales, con mayúsculas las de la persona responsable que dicta y firma el documento, y minúsculas las del empleado que la escribe, que comúnmente es la secretaria.

11


Estilos y Puntuaciones de las Cartas Estilo El estilo puede ser el tema, el orden y la forma en que se hallan expuestos las ideas, el giro de las frases, el uso de algunas palabras y la ausencia de otras, etc. También puede ser sinónimo casi de personalidad, el dominio de alguna técnica, o bien algo inherente a los grandes escritores y genios, con lo que se evoca la milagrosa capacidad que tuvieron para engrandecer el idioma y transformarlo en otra obra de arte. Existen tres estilos de correspondencia: • Semi Bloque • Bloque • Bloque Extremo. 1. Estilo Semi Bloque La forma tradicional de escribir cartas es en estilo semi bloque, se caracteriza porque el saludo y texto van marginados a la izquierda, es decir, con párrafos sangrados (5 espacios = tabulación) al inicio de cada uno de ellos y se utiliza para correspondencia de carácter oficial. 2. Bloque El estilo bloque se caracteriza porque el saludo y el texto de la carta van marginados a la izquierda, sin sangría o tabulación. Puede utilizarse en correspondencia oficial, comercial o privada. 3. Bloque extremo. Estilo bloque extremo, se utiliza para correspondencia comercial o privada y se caracteriza porque todas sus partes se colocan al margen izquierdo desde la referencia hasta las iniciales. Puntuación 1. Puntuación abierta: No se usan signos de puntuación después de las líneas del destinatario (nombre y lugar), saludo, despedida, nombre de la empresa (ante firmar) en las partes de la firma. Solo lleva el punto en los párrafos que forman el cuerpo de la carta. 2. Puntuación Mixta O Estándar: Solo se usa los dos puntos después del saludo la coma después de la despedida. Al final de todo párrafo termina un punto y aparte. Es la más usada en nuestro medio. 3. Puntuación Cerrada O Completa: Lleva punto después de la fecha. Coma después de cada línea del destinatario, con excepción de la última que lleva punto. Dos puntos después del saludo. Coma después de la despedida. Coma después de cada una de las líneas de la firma, con excepción de la última que lleva punto.

12


EJEMPLOS DE CARTAS Carta de Cotización

13


Carta de pedido.

14


Carta de solicitud de empleo

15


Carta de recomendación

16


Carta de agradecimiento

17


Carta de confirmación del empleo

18


Normas para Escribir una Carta 1. Cuidado la ortografía. Los errores de ortografía distorsionan el efecto que queremos transmitir, el subconsciente los capta y la imagen de rechazo se crea de forma irreversible. 2. Los signos de puntuación: Aunque parezca mentira, un exceso de comas hace más difícil la lectura de una carta. Se recarga la información y se logra un efecto de pesadez en su lectura, debemos por tanto usar los signos de puntuación en su justa medida. 3. La tipografía. Se trata del conjunto de caracteres que usamos al redactar nuestros documentos. Los programas tipo Word nos hacen más fácil el utilizar diversas tipografías. La imagen corporativa debe utilizar siempre la misma tipografía para todos los textos. 4. Alineación: Una buena alineación facilita la correcta lectura y la hace agradable a la vista. Se trata de cuidar la estética y la uniformidad de los escritos. Se recomienda la justificación del margen derecho para no crear una imagen de desorden. 5. Es también recomendable usar el doble espaciado entre líneas. 6. Utilizar negritas, subrayados y cursivas solo para destacar aquellas palabras relevantes de la carta, sin abusar para no caer en excesivas frases que recargan el contenido. 7. Se ha de conocer que por norma habitual un párrafo corto invita a leer de manera más agradable que un párrafo largo. 8. Aparte de estas pautas estéticas, también debemos enfocarnos en los objetivos por los cuales redactamos el documento, de manera que el cliente preste atención a nuestro objetivo. 9. Es importante saber de antemano el tipo de cliente o la base de datos específica a la que vamos a enviar nuestras cartas. Cuanto mejor conozcamos el público, mejor sabremos cómo enfocar la redacción. 10. Es conveniente por tanto dividir en grupos específicos nuestra base de datos de clientes. Y a partir de entonces, crear una estrategia de comunicaciones diferentes para cada grupo. 11. Y para finalizar, debemos poner en orden las ideas y datos informativos de modo que nos facilite la redacción: • Una Introducción • El objetivo: Que capte nuestra atención • El contenido: La información por la que nos ponemos en contacto, adaptada al grupo específico. • El desenlace: Resto de información secundaria. • Una despedida cordial: adaptada también al tipo de personas dirigida. Con la aplicación de estas pautas vamos a conseguir documentos comerciales útiles, que lograran captar el interés de nuestro público y de posibles futuros clientes. 12. Es también importante destacarnos del resto de nuestros competidores mediante nuestro toque personal, algún comentario gracioso o que destaque que nos haga especiales, aquí entra en juego nuestra capacidad para la creatividad. Alguna frase o eslogan como “si usted lo necesita nosotros lo tenemos…“ 13. Por último, conviene clasificar nuestros documentos y mantenerlos ordenados y realizar de forma periódica los estudios pertinentes para conocer qué tipo de carta logra los mejores objetivos, de esta forma aprenderemos de nuestros errores.

CURRICULUM VITAE Es una de las cartas más importantes para conseguir empleo, una correcta presentación puede ser útil a la hora de vendernos profesionalmente. Un currículum vítae, también simplificado C. V. o currículum, es el documento de presentación de habilidades, formación y vida laboral, con el fin de optar a un puesto de trabajo. El término suele aplicarse a la búsqueda de empleo. En estos casos, el aspirante a un empleo, beca o similar debe presentar un documento con todo lo que ha hecho hasta la fecha, a modo de resumen

19


de sus méritos. Existen distintas formas de presentarlo, pero suelen incluirse los datos personales, formación académica, experiencia laboral, publicaciones y otros datos de interés como pueden ser idiomas, habilidades o competencias, siempre relacionados con el puesto al que se vaya a optar. La realización de su currículum vitae es una etapa crucial al momento de la búsqueda de trabajo. El CV es la primera forma de contacto entre usted y el reclutador. Por ello, si usted no trabaja en la presentación y contenido de su currículum vitae, es poco probable que pueda generar una buena primera impresión y que su perfil sea retenido por el reclutador. En promedio un reclutador pasa entre 15 a 20 segundos en revisar su currículum antes de hacer su primera selección. El currículum vitae es una relación ordenada de los datos académicos, de formación y profesionales de una persona. Se redacta con objeto de responder a una oferta de trabajo, pero también puede ser espontáneo, es decir se redacta sin la existencia de oferta y se reparte en distintas empresas para solicitar trabajo. Cuando se hace referencia al conjunto de asignaturas o materias que comprenden una carrera o estudio, se prefiere la palabra currículo. No obstante, “currículo” también se puede emplear como grafía alternativa de currículum vitae. Ejemplo:

20


LA IMPORTANCIA DE UNA BUENA ORTOGRAFÍA Ortografía se entiende como “Arte y sistema de escribir cada palabra como es su ser y de colocar cada letra en su sitio”. Dondequiera que vayamos o estemos, nuestra ortografía hablará por nosotros. Es nuestra principal carta de presentación. Siempre tendremos la necesidad de demostrar de manera implícita o explícita, el dominio que tengamos sobre los cuatro aspectos fundamentales de nuestra lengua nativa: Escribir, leer, escuchar y hablar. Si tenemos el control sobre ellos, generaremos ante los demás una excelente percepción de nuestra persona y una sensación agradable. A todos nos gusta interactuar con alguien que hable bien y correctamente, al igual que nos gusta leer un texto impecable. Es refrescante a los oídos la primera, y placentera a la vista la segunda. En el mundo moderno, se ha extendido la costumbre de “asesinar” la ortografía y ello se debe a que los principales medios de comunicación son los teléfonos inteligentes y correos electrónicos. Estos elementos juegan en contra de la buena ortografía debido a varios factores como son: premura al escribir y reducido espacio para exponer largos textos, pero sobre todo, a la no corrección del hecho y la aceptación por parte del destinatario del mensaje sin darle importancia a la correcta escritura. Poco a poco la ortografía se ha visto desvirtuada y atacada con barbarie y parece convertirse en norma común. Se observa con preocupación cómo la fonética obvia la buena y correcta ortografía sin reglas. Escribir bien demuestra respeto hacia la persona que leerá y una buena educación de quien escribe. Mejora las relaciones, expresa correctamente las ideas, escribir correctamente enamora, instruye, educa y enseña. Se logra tener una excelente ortografía leyendo libros de editoriales reconocidas, prensa, revistas, documentos, diccionarios, pero, sobre todo, estudiando e investigando. Leer y escribir bien es un arte lleno de absoluta belleza y clase. Una de las mejores herencias que podemos dejar a nuestros hijos y a las futuras generaciones es la buena ortografía. La escritura es la fuente de todo conocimiento humano. Reglas Ortográficas Las reglas ortográficas son las normas que regulan la escritura de las palabras. El sistema que forman estas normas, conocido como ortografía, constituye una convención sobre cómo debe manifestarse por escrito una determinada lengua. La ortografía, en definitiva, es un código. En nuestro idioma comenzó a desarrollarse en el siglo XVIII, sobre todo a partir de la fundación de la Real Academia Española (RAE). Gracias a las reglas ortográficas, aceptadas por consenso por toda la comunidad lingüística, se facilita la comprensión de los textos, ya que cada persona sabe cómo tiene que escribir cada término. Las reglas ortográficas permiten determinar la forma de escritura correcta de aquellas palabras que incluyen grafías con sonidos muy similares: G/J, V/B, Z/S/C, etc. Las reglas ortográficas, por otra parte, indican cuándo deben tildarse las palabras y cómo emplear los signos de puntuación. En las escuelas se hace especial hincapié en la enseñanza de las reglas ortográficas por parte de los profesores a los estudiantes, ya que es la manera de que los alumnos puedan aprender a escribir correctamente. De ahí que los maestros se encarguen de realizar en clase desde dictados hasta ejercicios que giran en torno a una regla ortográfica. Es más, incluso algunos docentes “endurecen” sus normas a la hora de corregir exámenes y les restan puntos por cada falta de ortografía que lean o por cada tilde que no se ha puesto. Asimismo, no dudan en establecer que los menores adquieran libros específicos para el aprendizaje de las citadas reglas ortográficas, compuestos de un sinfín de ejercicios que les ayudarán a adquirirlas sin demasiado esfuerzo. Un ejemplo de regla ortográfica es aquella que indica que, después de la letra M, se escribe la letra B y no la V. Por eso debemos escribir: “también”, “cambiar” y “tambor”. Y no “tamvién”, “camviar” o “tamvor”.

21


De manera similar, una regla ortográfica señala que, tras la N, se debe escribir la V en lugar de la B. Por eso debemos escribir: “convidar”, “envío” e “invitación”. Pero no “conbidar”, “enbío” o “inbitación”. Se establece que, además de estas reglas ortográficas expuestas, en castellano hay otras que están consideradas como las más importantes y significativas: • Bra, bre, bri, bro y bru siempre se escriben con la letra b. • Se establece que se escribe con b cuando después hay una consonante. Ejemplos de esto son obvio y obstruir, entre otras. • La z nunca se utiliza para escribir con la e ni con la i. Es decir, no se escribe zepillo sino cepillo. • Se escribe con j las palabras que acaban en -aje y -eje. Ejemplos: cortometraje y despeje. • Sólo se usará doble ere cuando va entre vocales: carro, parra, turrón… • Se escribe con g los verbos que terminan en -ger, -gir y -igerar. Este sería el caso, por tanto, de coger, dirigir y aligerar. • Cabe destacar que algunos escritores e intelectuales han pedido eliminar las reglas ortográficas o, al menos, simplificarlas. Ese es el caso del colombiano Gabriel García Márquez, quien sugirió que no deba utilizarse la Cuando la letra no cumple ninguna función, entre otras propuestas.

22


Ciencias de la Computación

23


Ciencias de la Computación COMPUTACIÓN Conjunto de conocimientos científicos y de técnicas que hacen posible el tratamiento automático de la información por medio de computadoras. La informática combina los aspectos teóricos y prácticos de la ingeniería, electrónica, teoría de la información, matemática, lógica y comportamiento humano. Los aspectos de la informática cubren desde la programación y la arquitectura informática hasta la inteligencia artificial y la robótica. El conocimiento de los conceptos básicos de este campo de estudio es fundamental para todas aquellas personas interesadas en aprender cómo trabajan los ordenadores, que posibilidades ofrecen para ayudar con las actividades que los seres humanos realizan día a día y cómo usarlos para resolver problemas de formas innovadoras. Las ciencias de la computación se ocupan del estudio de la teoría de la computación, el diseño de sistemas computacionales y el estudio sistemático de la factibilidad, estructura, expresión y automatización de métodos para la captura, presentación, procesamiento, almacenamiento, comunicación y acceso de la información. Los científicos de la computación diseñan e implementan sistemas computacionales, idean nuevas formas de usar los computadores y desarrollan formas eficientes de resolver problemas de cómputo. La importancia de la computación radica en la globalización que está surgiendo en el mundo a la modernización de tareas métodos enseñanzas, la computación está acaparando la mayoría de los ámbitos en todo el mundo desde calibración de instrumentos hasta consolas de video juegos o control de empresas, infinidad de cosas es por eso que es muy importante la computación, ayuda a facilitar las tareas a realizar de la humanidad, tal vez a un no las resuelva todas pero es cuestión de tiempo para que se invente algo más. Uno de los mayores avances en la tecnología moderna ha sido la invención de las computadoras. Son ampliamente utilizadas en las industrias y las universidades. Hoy en día es difícil de creer si alguien viene y nos dice que no tiene una. Nos dirigimos rápidamente hacia una situación en la que un equipo sea tan parte de la vida diaria del hombre como un cepillo de dientes. Las computadoras son capaces de hacer un trabajo muy complicado en todas las ramas del saber. Se pueden resolver los problemas matemáticos más complejos o poner miles de hechos no relacionados en orden. Por ejemplo, pueden proporcionar información sobre la mejor manera de prevenir los accidentes de tráfico, o pueden contar el número de veces que la palabra "y" se ha utilizado en la Biblia. Debido a que trabajan con precisión a altas velocidades, ahorran los investigadores años de duro trabajo. Todo este proceso mediante el cual las máquinas pueden ser utilizadas para trabajar para nosotros ha sido llamado "automatización" La llegada de la automatización está obligado a tener importantes consecuencias sociales. La Informática La Informática es la rama de la Ingeniería que estudia el hardware, las redes de datos y el software necesarios para tratar información de forma automática. El hardware son los ordenadores de sobremesa, los portátiles, las tabletas, los teléfonos móviles, las impresoras, las consolas de videojuegos, los lectores de DVD, los reproductores de música, etcétera.

24


Estos aparatos están formados internamente por componentes electrónicos a los que también se les llama hardware y también se estudian en Informática. Además, hoy en día es difícil imaginar el hardware aislado. Casi todo el hardware está conectado a través de redes de datos. Millones de ordenadores, tabletas, teléfonos e incluso automóviles están continuamente conectados a la red para intercambiar información en tiempo real y hacer más fácil nuestras vidas. El software, al contrario, son programas que dicen al hardware qué tiene que hacer: intercambiar un mensaje con un familiar, mostrar la cartelera de cine, encontrar oportunidades de estudio en el extranjero, visualizar las últimas fotos de nuestros amigos en una red social, hacer una videoconferencia, generar las imágenes de un video juego o también intercambiar datos con un teléfono o una tableta. En el mundo del software hay dos especialidades: la Ingeniería del Software, en la que se estudia cómo desarrollar software en un contexto empresarial, y la Computación, en la que se estudian problemas complejos como la inteligencia artificial, el reconocimiento del habla o la búsqueda de información en la Web. Cada día, la informática adquiere más relevancia en la vida de las personas, las comunidades y en las empresas. Su utilización ya es un instrumento de aprendizaje que en la sociedad aumenta muy rápidamente. Este avance de la informática ha hecho que con el transcurrir de los años, aumente la cantidad de familias que poseen en sus casas una computadora, y gran cantidad de estos equipos constan de acceso a internet. Gracias a esta penetración, esta herramienta está auxiliando a padres e hijos mostrándoles una nueva forma de aprender y de ver el mundo, porque, en definitiva, no caben dudas que cuando se aprende a utilizar una computadora se abren nuevos horizontes en la vida de un individuo. El mayor fruto de la informática en nuestra sociedad es mantener a las personas informadas y actualizadas, a través de una mejor comunicación. Es por ello que hoy existe la informática en casi todo lo que hacemos y en casi todos los productos y servicios que consumimos o utilizamos. Si analizamos detenidamente a nuestro alrededor, en nuestra vida cotidiana, podremos comprobar que hoy no existe prácticamente ningún aspecto de nuestra vida que no esté relacionado de alguna forma a la informática, y uno de sus grandes beneficios reside en que, en la mayoría de los casos, la informática a dotado a los distintos ámbitos sociales de herramientas para mejorar la calidad de vida. Como ejemplo de ello podemos mencionar los grandes avances científicos que se han producido en las últimas décadas a partir de la implementación de la tecnología relacionada a la informática en el campo de la investigación científica, aportando por ejemplo un elemento indispensable para el desarrollo de nuevos tratamientos contra distintas enfermedades. Algo similar sucede con la educación, las empresas y demás ámbitos sociales, ya que en definitiva las comunidades de casi todo el mundo han sabido adoptar los aportes de la informática para lograr un beneficio a pequeña o gran escala.

25


Diferencias entre la Computación y la Informática • La computación se refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. • La computación está referida a la tecnología en sí que permita el manejo y movilidad de información en cuanto a esta ciencia o conocimiento se refiere y también a los fundamentos teóricos de la información que procesan las computadoras, y las distintas implementaciones en forma de sistemas computacionales. • La informática es la encarga del tratamiento automático de la información. Este tratamiento automático es el que ha cedido a la computación la manipulación de grandes proporciones de datos y la ejecución rápida de cálculos complejos. También se aboca a los tratamientos de software por parte de los usuarios y demás aspectos referidos a programas, hardware y estructura de las computadoras. • El concepto "Computación" refiere al estudio científico que se desarrolla sobre sistemas automatizados de manejo de informaciones, lo cual se lleva a cabo a través de herramientas pensadas para tal propósito. Es de este modo, que aparecen conceptos como la PC, Tecnología, Internet e Informática, que se vinculan entre sí en el marco del procesamiento y movilidad de la información. Las Ciencias de la Computación supone un área muy profunda de análisis, que tiene sus orígenes en 1920, cuando "computación" hacía referencia a los cálculos generados por la propia persona. Luego, con la llegada de las PC, la historia y el significado de este concepto se ampliaría sobre nuevos horizontes, distinguiendo los algoritmos que forman parte del desarrollo de las soluciones. • La computación es la ciencia del tratamiento automático de la información mediante un computador (llamado también ordenador o computadora). Entre las tareas más populares que ha facilitado esta tecnología se encuentran: elaborar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetar folletos y libros, manejar la información contable en una empresa, reproducir música, controlar procesos industriales y jugar. • Informática es un vocablo inspirado en el francés informatique, formado a su vez por la conjunción de las palabras information y automatique, para dar idea de la automatización de la información que se logra con los sistemas computacionales. Esta palabra se usa principalmente en España. Computación se usa sobre todo en América y proviene de cómputo (o cálculo). • La informática es un amplio campo que incluye los fundamentos teóricos, el diseño, la programación y el uso de las computadoras (ordenadores).

LA COMPUTADORA Para entender qué es una computadora comenzaremos por dar la siguiente definición: “Una computadora es un dispositivo electrónico utilizado para el procesamiento de datos. La misma posee dispositivos de entrada y salida que permiten a los usuarios interactuar con esta información”. Este procesamiento de datos es mucho más amplio que apenas calcular números o imprimir datos. Es posible escribir notas e informes, proyectar, realizar complejos cálculos de ingeniería, utilizarla como medio para la creación de obras fotográficas, musicales y de video y por supuesto interactuar con otras personas. Para continuar entendiendo qué es una computadora, hay que saber reconocer las dos partes básicas, que analizamos anteriormente: el hardware y el software. Recordemos: El hardware es el término genérico que se le da a todos los componentes físicos de la computadora, es decir todo lo que se puede tocar. En cambio, software es el término que se le da a los programas que funcionan dentro de una computadora.

26


Funciones de una computadora Las computadoras pueden ser empleadas para otras cosas además del trabajo, ya que son dispositivos tan versátiles que pueden ser usados para casi cualquier cosa. Tal es la importancia de las computadoras en la vida diaria, sin embargo, es posible que no conozcamos profundamente como es que interactúan con nosotros, y es por ello que hemos elaborado este artículo en donde encontraremos mucha información relevante acerca de las funciones que las computadoras pueden llevar a cabo para nosotros. Una computadora básicamente es un dispositivo cuya principal función es la de procesar grandes cantidades de información en forma veloz y precisa, y que realiza este procedimiento gracias al hardware y software. Una PC es capaz de realizar gran cantidad de tareas muy complejas, y es allí en donde hace uso de un conjunto de instrucciones, llamadas programas o software, que son las órdenes que la computadora debe procesar mediante el hardware, produciendo una salida de datos en un formato entendible por sus usuarios. Como mencionamos, una computadora está compuesta por dos subsistemas, el hardware y el software, donde el primero de ellos comprende la computadora propiamente dicha y todos sus periféricos de entrada y salida, incluyendo teclado, ratón, monitor, impresora y otros, mientras que el subsistema de software comprende el sistema operativo, el cual se encarga de traducir lo que queremos hacer con la PC al hardware, es decir procesar las peticiones, y todos los demás programas de usuario, es decir suites ofimáticas, programas de diseño, modelado, software matemáticos y muchos otros. La acción de procesar se relaciona con el acto de modificar o transformar algo de su estado original a uno nuevo. La computadora puede procesar información de distinto tipo, incluyendo texto, números, imágenes, sonidos y demás. La información con la que trabaja la computadora debe ser ingresada por el usuario, pero también puede ser obtenida por otros medios automáticos como sensores o aparatos de medición. La capacidad de la computadora para procesar información puede resumirse a través de las siguientes funciones básicas: • Almacenar Información: La computadora tiene la capacidad de guardar, en un espacio reducido, gran cantidad de información que de otro modo tendríamos que conservar en miles de hojas, una excelente alternativa para mantener un orden más estricto con la información, amén del favor que le estamos haciendo al planeta. • Organizar Información: Esta función le ofrece al usuario la opción de ordenar u organizar información y datos de acuerdo a sus propias necesidades y estilo, de tal forma que podamos encontrarla y examinarla cuantas veces deseemos. Para ello provee de diferentes mecanismos, incluyendo potentes y versátiles gestores de archivos. • Recuperar Información: Su gran capacidad de almacenar información sería inútil si no pudiéramos recuperarla y examinarla rápida y fácilmente. Al respecto, la computadora nos ofrece la posibilidad de revisar de forma instantánea y precisa cualquier información que hayamos guardado previamente en él. • Transmitir Información: Una de las funciones más importantes que posee la computadora, es la posibilidad de compartir información entre usuarios de manera rápida, segura y exacta. Esta fantástica función dependerá si nuestro computador se encuentra conectado a Internet o a

27


una red local. En este contexto, herramientas como Skype, Hangouts, Line, Dropbox, Google Drive o el omnipresente correo electrónico son maravillas que nos permiten estar siempre en contacto con clientes, familiares y amigos para intercambiar todo tipo de cosas sin necesidad de estar reunidos en el mismo lugar.

EL LENGUAJE DE LAS COMPUTADORAS El lenguaje de programación es un lenguaje artificial que se utiliza para definir una secuencia de instrucciones para su posterior procesamiento. En muchas ocasiones, resulta inentendible para el común de la gente. Vamos a intentar aclarar algunas cuestiones al respecto. La traducción de una serie de instrucciones en lenguaje ensamblador (el código fuente) a un código máquina (o código objeto) no es un proceso muy complicado y se realiza normalmente por un programa especial llamado compilador. Estas instrucciones son las que permiten que la computadora ejecute aquellas funciones que nosotros, como usuarios, le ordenamos. El mencionado compilador crea una lista de instrucciones de código máquina, el código objeto, basándose en un código fuente. El código objeto resultante es un programa rápido y listo para funcionar, pero que puede hacer que falle el ordenador si no está bien diseñado. • Lenguajes de bajo nivel Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un nombre fácil de recordar, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador. • Lenguajes de alto nivel Por lo general se piensa que las computadoras son máquinas que realizan tareas de cálculos o procesamiento de textos. La descripción anterior es sólo una forma muy esquemática de ver una PC. Hay un alto nivel de abstracción entre lo que se pide a la computadora y lo que realmente comprende. Existe también una relación compleja entre los lenguajes de alto nivel y el código máquina. Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales, como por ejemplo el inglés. En BASIC, el lenguaje de alto nivel más conocido, los comandos como ‘IF CONTADOR = 10 THEN STOP’ pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a 10. Sin embargo, para muchas personas esta forma de trabajar es un poco frustrante, porque, aunque las computadoras parecen comprender un lenguaje natural, lo hacen en realidad de una forma rígida y sistemática. Es así que en la actualidad se emplean otros tipos de lenguajes para poder ejecutar las funciones de un ordenador básico, cuyo lenguaje de funcionamiento interno queda en manos de especialistas, mientras que los usuarios trabajan con aplicaciones que no requieren el manejo de un argot técnico.

28


HISTORIA DE LA COMPUTADORA La historia de la computadora, al contrario de lo que muchos pueden imaginar, tiene su inicio hace mucho tiempo atrás, cuando el hombre descubrió que podría hacer cuentas con los dedos, o con otros objetos, tales como piedras o pedazos de madera. Estas cuentas se fueron haciendo cada vez más complicadas conforme la humanidad aprendía, y pronto los hombres se dieron cuenta que necesitarían algún artefacto que les permitirá realizar cálculos más complejos a mayor velocidad. Origen de las computadoras: Las primeras máquinas de calcular Para estas necesidades, hace aproximadamente 4.000 a.C., se creó un aparato muy simple formado por una placa de arcilla donde se movían piedras que auxiliaban en los cálculos. Ese aparato era llamado ábaco, una palabra de origen Fenicio. Ya para el año 200 a.C., el ábaco había cambiado, y estaba formado por una moldura rectangular de madera con varillas paralelas y piedras agujereadas que se deslizaban por estas varillas. El concepto y las funciones del ábaco se mantienen intactas hasta hoy, ya que aún este dispositivo se sigue utilizando en, por ejemplo, el aprendizaje para ciegos. Luego de ábaco, el próximo paso en la historia de las computadoras (año de 1642), ocurrió cuando un francés de 18 años de nombre Blaise Pascal, inventó la primera máquina de sumar: la Pascalina, la cual ejecutaba operaciones aritméticas cuando se giraban los discos que estaban engranados, siendo así la precursora de las calculadoras mecánicas. Alrededor de 1671 en Alemania, Gottfried Leibnitz inventó una máquina muy parecida a la Pascalina, que efectuaba cálculos de multiplicación y división, y la cual fue la antecesora directa de las calculadoras manuales. En 1802 en Francia, Joseph Marie Jacquard utilizó tarjetas perforadas para controlar sus máquinas de telar y automatizarlas. En el inicio del siglo XIX, más específicamente en 1822, fue desarrollado por un científico inglés llamado Charles Babbage una máquina diferencial que permitía cálculos como funciones trigonométricas y logarítmicas, utilizando las tarjetas de Jacquard. En 1834, desarrolló una máquina analítica capaz de ejecutar las cuatro operaciones (sumar, dividir, restar, multiplicar), almacenar datos en una memoria (de hasta 1.000 números de 50 dígitos) e imprimir resultados. Sin embargo, su máquina sólo puede ser concluida años después de su muerte, haciéndose la base para la estructura de las computadoras actuales, haciendo con que Charles Babbage fuera considerado como el “Padre de la computadora”. El Inicio de la Era de la Computación En 1890, época del censo de los EUA, Hermann Hollerith percibió que sólo conseguiría terminar de procesar los datos del censo cuando ya fuera tiempo de comenzar con el nuevo censo (1900). Entonces perfeccionó el sistema de las tarjetas perforadas (aquellas utilizados por Jacquard) e inventó máquinas para procesarlas, consiguiendo con eso obtener los resultados en tiempo récord, es decir, 3 años después. En función de los resultados obtenidos, Hollerith, en 1896, fundó una compañía llamada TMC (Tabulation Machine Company), viniendo ésta a asociarse, en 1914 con dos otras pequeñas empresas, formando la Computing Tabulation Recording Company la cual fuese a convertirse, en 1924, en la tan conocida IBM, Internacional Business Machines.

29


En 1930, los científicos comenzaron a progresar en las invenciones de máquinas complejas, siendo el Analizador Diferencial de Vannevar Bush el que anuncia la moderna era de la computadora. En 1936, Allan Turing publica un artículo sobre “Números Computables” y Claude Shannon escribe en una tesis la conexión entre lógica simbólica y circuitos eléctricos. En 1937, George Stibitz construye en su mesa de cocina la famosa “Model K”, una maquina digital basada en relés y cables. Con la llegada de la Segunda Guerra Mundial se planteó la necesidad de proyectarse máquinas capaces de ejecutar cálculos balísticos con rapidez y precisión para que sean utilizadas en la industria bélica. Con eso surgió, en 1944, la primera computadora electromecánica (construida en la Universidad de Harvard, por el equipo del profesor H. Aiken y con la ayuda financiera de IBM, que invirtió US$ 500.000,00 en el proyecto), poseía el nombre de MARK I, era controlado por programas y usaba el sistema decimal. Tenía cerca de 15 metros de largo y 2,5 metros de alto, estaba envuelta por una caja de vidrio y de acero inoxidable brillante y algunas de sus más importantes características eran que contaba con 760.000 piezas, 800 km de cables, 420 interruptores de control y era capaz de realizar una suma en 0,3s, una multiplicación en 0,4s y una división en cerca de 10s. Harvard Mark I prestó sus servicios de matemática en la Universidad de Harvard durante 16 años completos, a pesar de no haber tenido mucho éxito, pues ya era obsoleta antes de haber sido construida, debido a que en 1941, Konrad Zuse, en Alemania, ya estaba creando modelos de prueba: Z1 y Z2, e inmediatamente después de completó una computadora operacional (Z3), que consistía de un dispositivo controlado por programa y basado en el sistema binario y era mucho más pequeña y de construcción mucho más barata que Mark I. Las computadoras Z3 y las que a continuación siguieron, las Z4, eran utilizadas en la solución de problemas de ingeniería de aeronaves y proyectos de misiles. Zuze también construyó otras varias computadoras para fines especiales, pero no tuvo mucho apoyo del gobierno alemán, pues Hitler, en esa época mandó detener todas las investigaciones científicas, excepto las de corto plazo, y siendo que el proyecto de Zuze llevaría cerca de 2 años para ser concluido, no tuvo apoyo. Unas de las principales aplicaciones de la máquina de Zuze era descifrar los códigos secretos que los ingleses usaban para comunicarse con los comandantes en el campo. Otra de las primeras computadoras electrónicas fue la Manchester Mark 1, desarrollada en la Universidad de Manchester a partir del Small-Scale Experimental Machine (SSEM) o “Baby”, la primera computadora electrónica con programas almacenados. Fue también llamada Manchester Automatic Digital Machine, o MADM. El trabajo comenzó en agosto de 1948 y la primera versión operativa fue presentada en Abril de 1949. Su desarrollo cesó a fines de 1949 y la máquina fue desmontada a fines de 1950, sustituida en febrero de 1951 por la primera instalación de la Ferranti Mark 1, la primera computadora de uso general disponible comercialmente. Mark 1 fue muy importante al ser pionera en la inclusión de un índice de registros, una innovación que hacía más fácil para un programa leer secuencialmente a través de un conjunto de palabras en la memoria. Treinta y cuatro patentes surgieron de su desarrollo y muchas de las ideas salieron a la luz a partir de su concepción fueron integradas a productos comerciales posteriores, como la IBM 701 y 702, así como la Ferranti Mark 1.

30


La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

31


GENERACIONES DE LAS COMPUTADORAS Primera Generación 1614-1943 1614: John Napier (1550-1617) publicó un texto sobre el descubrimiento del logaritmo. Napier también inventó el sistema de Rods (referido como Rods de Napier o los huesos de Napier). Esto hizo que fuera posible multiplicar, dividir, calcular la raíz cuadrada y cubica girando los rods, y colocándolos en placas especiales. 1623: Wilhelm Schickard (1592-1635), en Tuebingen, Wuerttemberg (ahora Alemania), Creó el «Reloj Calculador». Este instrumento era capaz de sumar y restar 6 dígitos, y en el caso de que el resultado sea mayor que 6 dígitos, tocaba una campana. Las operaciones eran hechas mediante una manivela, que giraba y los números cambiaban, como en el contador K7 de nuestros días. 1642: El francés matemático, Blaise Pascal construyó la máquina que sumaba (la “Pascalina”). A pesar de ser inferior al «Reloj Calculador» del Schickard (ver 1623), la máquina de Pascal se hizo más famosa. El vendió docenas de ejemplares de la máquina en varias formas, logrando procesar hasta 8 dígitos. 1672: Después de muchas tentativas, finalmente es inventada en 1672 la primera máquina de calcular capaz de desarrollar las cuatro operaciones matemáticas (suma, resta, división y multiplicación) y además la raíz cuadrada. Esa gran conquista fue atribuida al matemático Gottfried Wilhelm Von Leibnitz que mejoró la máquina de Pascal y obtuvo la calculadora universal. 1801: El telar automático era un telar con entrada de datos por medio de tarjetas perforadas para controlar la confección de tejidos y sus respectivos dibujos. Fue creado en 1801 por Joseph Marie Jackuard y puede ser considerada la primera máquina mecánica programable de la historia. 1822: La Máquina Diferencial fue idealizada por el profesor y matemático de la Universidad de Cambridge, Charles Babbage, en 1822. Era un dispositivo mecánico basado en ruedas dentadas capaz de computar e imprimir extensas tablas científicas. A pesar de tantas ventajas, esta máquina nunca llegó a ser construida a causa de las limitaciones tecnológicas de la época. 1834: George Scheutx, de Estocolmo, produjo una pequeña máquina de madera, después de leer una pequeña descripción del proyecto de Babbage. 1848: El Inglés Matemático George Boole inventa el álgebra binaria booleana, abriendo el camino para el desarrollo de computadoras casi 100 años después. 1878: Ramón Verea, viviendo en Nueva York, inventa una calculadora con una tabla de multiplicación interna; es decir más fácil que girar engranajes u otros métodos. Él no estaba interesado en producirla, sólo quiso mostrar que los españoles podían inventar como los americanos. 1885: Una calculadora de multiplicación más compacta entra en producción masiva. La producción es más o menos simultánea con la invención de Frank S. Baldwin, de Estados Unidos, y T. Odhner, suizo viviendo en Rusia. 1890: En 1880 el censo realizado en los Estados Unidos llevó siete años para ser completado, ya que todos los cálculos fueron hechos a mano en papel de periódico. Por el aumento de la población se imaginó que el censo de 1890 llevaría más de 10 años, entonces fue realizado un concurso para hallar el mejor método para realizar el cómputo de los resultados. Este concurso fue ganado por un

32


empleado del Censo, Herman Hollerith, quien fundaría la Tabulating Machine Company, que luego se transformó en IBM. Herman tomó prestada la idea de Babbage de usar tarjetas perforadas (vea 1801) para hacer el sistema de memoria. Con este método usado en 1890, el resultado (62.622.250 personas) estuvo listo en sólo 6 semanas. Con el sistema de memoria el análisis de los resultados fue muy fácil, pero, a pesar de ser más eficiente, el costo del Censo de 1890 fue un 198% más costoso que el de 1880. 1941: Resultado de la 2da Guerra Mundial, la computadora Z3, construido por los alemanes, tenía como principal función la codificación de mensajes. Sin embargo, fue destruida en Berlín dejándonos muy poca información sobre esta computadora. 1943: Así como los alemanes, los ingleses también fueron en búsqueda de tecnologías para descifrar códigos secretos construyendo entonces el Colossus (Servicio de Inteligencia Británico). Poseyendo dimensiones gigantescas, Colossus funcionaba por medio de válvulas llegando a procesar cerca de 5 mil caracteres por segundo. Fue inventado por el matemático inglés Alan Turing. Segunda Generación 1944-1956 1944: Mark I (Howard Aiken) fue la primera computadora electromecánica construida. Bastante diferente de las computadoras actuales, Mark I medía 18 metros de largo, dos metros de ancho y pesaba 70 toneladas. Estaba constituida por 7 millones de piezas móviles y su cableado alcanzaba los 800 Km. Con la llegada de las computadoras electrónicas Mark I fue inmediatamente sustituido. 1945: John Von Neumann, ingeniero matemático húngaro y naturalizado americano desarrolló un proyecto de computadora basado en la lógica, con almacenamiento electrónico de la información y de datos de programación. La computadora procesaría los datos de acuerdo con las necesidades del usuario, o sea, las instrucciones no vendrían predeterminadas. Más tarde esa computadora fue construida recibiendo el nombre de Edvac. El primer BUG de computadora fue relatado por la Oficial Naval y Matemática Grace Murray Hopper, el BUG era una polilla dentro de la computadora, la cual hizo que la computadora tuviera un desperfecto en sus cálculos. 1946: John W. Mauchly y J. Prester Eckert Jr., junto con científicos de la Universidad de la Pensilvania, construyeron la primera computadora electrónica, conocido como ENIAC (Electronic Numerical Integrator and Calculator), tenía aproximadamente 18 mil válvulas, pesaba 30 toneladas y llegaba a consumir 150 KW. En contrapartida superaba mil veces la velocidad de las otras computadoras, llegando a realizar 5 mil operaciones por segundo. 1947: Presper Eckert y John Mauchly, pioneros en la historia de la computadora, fundaron la Cía. Eckert-Mauchly Computer Corporation, con el objetivo de fabricar máquinas basadas en sus experiencias como el ENIAC y el EDVAC. 1948: La primera computadora comercial es inventada, llamada UNIVAC. John Bardeen, Walter Brattain y William Shockley de Bell Labs patentarían el primer transistor. 1949: Thomas Watson Jr. en una charla en un encuentro de ventas de IBM preanunció que todas las partes móviles en las computadoras serían sustituidas por componentes electrónicos en una década. 1951: El Univac fue la primera computadora comercializada. Proyectada por J. Presper Ecker y John Mauchly, ejecutaba 1905 operaciones por segundo y su precio llegó a US$ 1.000.000.

33


1952: Heinz Nixdorf fundó la Cía. Nixdorf Computer Corporation, en Alemania. Esta permaneció como una corporación independiente hasta su unión con Siemens, en 1990. 1953: La International Business Machines IBM lanza su primera computadora digital, la IBM 701. Como primera computadora de la marca comercializada, fueron vendidas 19 máquinas en tres años. 1954: El genio de la matemática Alan Turing publicó el libro “On Computable Numbers” proponiendo cuestiones significativas sobre programación e inteligencia humana. Utilizó sus aplicaciones de lógica en el desarrollo del concepto de máquina Universal. Texas Instruments anunció el inicio de la producción de los transistores. 1955: Anunciado por los laboratorios AT&T Bell, la Tradic fue la primera computadora transistorizada, teniendo aproximadamente 800 transistores en el lugar de los antiguos tubos de vacío, lo que le permitía trabajar con menos de 100 Watts de consumo de energía. 1956: En el MIT (Massachussets Institute of Technology) investigadores comenzaron a probar la entrada de datos en teclados de computadoras. En el mismo lugar comenzaron las pruebas con la primera computadora con transistores (Transistorized Experimental Computer). Tercera Generación 1957-1968 1957: Un grupo de ingenieros liderados por Ken Olsen dejaron el laboratorio Lincoln del MIT y fundaron la Digital Equipment Corporation DEC. Este año también fue creado un nuevo lenguaje: el Fortran, que permitía a la computadora ejecutar tareas repetidas a partir de un conjunto de instrucciones. 1958: Jack Kilby creó el primer circuito integrado en Texas Instruments para probar que resistores y capacitores podían existir en un mismo pedazo de material semiconductor. Su circuito era formado por una astilla de germanio y cinco componentes conectados por cables. La NEC de Japón construyó la primera computadora electrónica, el NEAC. 1959: La serie 7000 de mainframes IBM fue la primera de las computadoras transistorizadas de la compañía. En el tope de la línea de computadoras estaba el 7030, también conocido como STRETCH. Siete computadoras, las cuales usaban palabras de 64 bits y otras innovaciones, fueron vendidas a laboratorios nacionales y otros usuarios científicos. L.R. Johnson fue el primero a usar el término «arquitectura» para describir el STRETCH. 1960: Fue diseñado el Dataphone, el primer módem comercial, específicamente para convertir señales digitales de computadora en señales analógicas para la transmisión a través de sus redes de larga distancia. Un equipo liderado por varios fabricantes de computadoras y el Pentágono desarrollaron el COBOL, Common Business Oriented Language, el primer lenguaje volcado hacia el uso en programación de computadoras. IBM crea la primera fábrica masiva de transistores en Nueva York. 1961: Se crea el UNIMATE, primer robot industrial que entró en operación en la GM. Su función era apilar pedazos de metales calientes, labor que era ejecutada sin problemas. 1962: Los estudiantes del MIT Slug Russel, ¡Shag Graetz y Alan Kotok escribieron el SpaceWar!, considerado el primer juego interactivo de computadora. El juego ofrecía gráficos interactivos que inspiraron los vídeos games futuros.

34


1963: Se desarrolla el código ASCII (American Standard Code Information Interchange), el cual permitió que máquinas de diferentes fabricantes intercambiaran datos entre sí. La Digital Equipament vende la primera mini computadora. Douglas Engelbart recibe la patente del primer mouse para computadora. 1964: Thomas Kurtz y John Kemeny, profesores del DartMouth College, crearon el BASIC, un lenguaje de programación de fácil aprendizaje. También por aquella época se creó la computadora CDC 6600, diseñada por Seymour Cray, que era capaz de ejecutar hasta 3 millones de operaciones por segundo y tenía velocidad de procesamiento tres veces mayor que la de su competidora. Fue la más rápida hasta la llegada de su sucesora, en 1968, el CDC 7600. 1965: Gordon Moore dice que los circuitos integrados se van a duplicar en complejidad cada año. La DEC introdujo el PDP-8, la primer mini computadora comercializada con éxito. Era vendida a US$18000. 1966: Hewlett-Packard entró en el negocio de computadora para uso general con su HP-2115 ofreciendo un alto poder de procesamiento encontrado solamente en computadoras de gran porte. Ella soportaba una gran variedad de lenguajes, entre ellas BASIC, ALGOL y FORTRAN. IBM presenta el primer disco de almacenamiento, el IBM RAMAC 305.Tenía la capacidad de 5 MB. 1967: Seymour Papert diseñó el LOGO como un lenguaje de computación para niños. Inicialmente como un programa de dibujo, el LOGO controlaba las acciones de una ‘tortuga’ mecánica, que trazaba su rastro en un papel. IBM construyó el primer floppy disk. 1968: Data General Corporation, compañía creada por un grupo de ingenieros que dejaron DEC, introdujeron la computadora NOVA. Con 32 KB de memoria, era vendida a US$ 8 mil. La arquitectura simple del conjunto de instrucciones inspiró la Apple I, de Steve Wozniak, ocho años más tarde. Robert Noyce, Andy Grove y Gordon Moore fundan Intel. Cuarta Generación 1969-1981 1969: Programadores de los laboratorios AT&T Bell, Ken Thompson y Denis Richie desarrollan el UNIX, primer sistema operativo que podría ser aplicado en cualquier máquina. Ese año, el ejército americano conectó las máquinas de Arpanet, formando la red que originaría internet. 1970: El SRI Shakey fue el primer robot móvil internacional controlado por inteligencia artificial. Las protestas contra la guerra de Vietnam alcanzaron centros de computadoras de universidades y en la Universidad de Wisconsin, hirieron un hombre y dañaron cuatro computadoras. El Banco Nacional del Sur, en Valdosta, instaló la primera máquina de cajero automático para sus ciudadanos. La primera comunicación computadora – computadora se desarrolló cuando el Departamento de Defensa Americano estableció cuatro puntos de comunicación en el ARPANET: Universidad de CaliforniaSanta Barbara, UCLA, SRI internacional, y Universidad de Utah. 1971: La Kenbak-1 fue la primera computadora personal anunciada por un científico americano, por 750 dólares. La primera propaganda de un microprocesador, el Intel 4004. Un equipo de IBM conducida por Alan Shugart inventó el disco flexible de 8″. 1972: Lanzamiento del microprocesador Intel 8008. Hewlett-Packard, HP, anunció la HP-35 como «la más rápida y precisa calculadora electrónica» con una memoria solid-state similar a la de una computadora. Steve Wozniak construyó el «Blue Box», un generador de tonos para atenciones de teléfono. Nolan Bushnell introdujo Pong y su nueva compañía, Atari vídeo games.

35


1973: Robert Metcalfe diseño Ethernet, método para la conexión en red, en el centro de investigación de Xerox en Palo Alto, California. El TV Typewriter, desarrollado por Don Lancaster, proyectó el primer display de información alfanumérico en un estudio de TV común. La Micral fue la primera computadora comercial basada en un microprocesador, el Intel 8008. 1974: Los investigadores de Xerox, en el centro de investigación en Palo Alto, proyectaron el ALTO, la primera estación de trabajo con una entrada interna para mouse. Intel y Zilog introdujeron nuevos microprocesadores. David Silver, del MIT, proyectó el brazo de plata, un brazo mecánico para hacer ensamble de pequeñas piezas por medio del feedback de los sensores de toque y de presión presentes en el robot. Scelbi anunció la computadora 8H, la primera computadora comercial anunciada en Estados Unidos basada en el microprocesador Intel 8008. 1975: La edición de enero de The Popular Electronics anunció la computadora Altair 8800, basada en un microprocesador Intel 8080. Telenet, la primera red comercial, equivalente a ARPANET, fue instalada. El prototipo del módulo de indicador visual (VDM), proyectado por Lee Felsenstein, marcó la primera ejecución de un indicador de video alfanumérico memory-mapped para computadoras personales. La Tandem Computers lanzó la Tandem-16, la primera computadora fault-tolerant para transacción on-line de procesos. Es lanzada también la Imsai 8080 producida por IMS Associates, una computadora hecha con la misma estructura de BUS de la Altair 8800. 1976: Steve Wozniak proyectó la Apple I, la primer computadora single-board. Gary Kildall desarrolló el CP/M, un sistema operativo para computadoras personales. 1977: La Commodore PET (Personal Eletronic Transactor) fue la primera de muchas computadoras personales que surgieron este año. Apple II se hizo un éxito en su lanzamiento, en 1977, por sus características: circuito impreso en su placa-madre, fuente de alimentación, teclado y cartuchos para juegos. El primer mes después de su lanzamiento, la computadora personal Tandy Radio Shack’s, la TRS-80, vendió el primer año 10 mil unidades, más que las 3 mil proyectadas por la compañía. El gobierno de Estados Unidos adoptó el Standard de encriptografia de datos de IBM, la llave para destrabar mensajes codificados, que sirven para proteger los datos confidenciales dentro de sus agencias. También ese año fue lanzada la SOL una computadora de fácil uso que sólo necesitaba de un monitor y eso atrajo mucha gente. 1978: La VAX 11/780, de la Digital Equipment Corporation, se caracterizó por ser una máquina capaz de procesar hasta 4.3 gigabytes de memoria virtual, probando ser la más rápida de las mini computadores de la época. El disco flexible de 5″ se transformó en la medida standard de software para computadoras personales, inmediatamente después de que Apple y Tandy Radio Shack’s introdujeran sus softwares para este formato. 1979: El microprocesador 68000, de Motorola, se mostró mucho más veloz que los microprocesadores de la época. Los programadores Daniel Bricklin y Robert Frankston, de la Universidad Harvard, desarrollaron el VisiCalc, programa que transformó a las computadoras comerciales en computadoras personales. Carver Mead, profesor del Instituto de Tecnología de California, y Lynn Conway, científica de Xerox Corporation, escribieron un manual sobre el proyecto de un chip, llamado “Introduction to VLSI Systems”. 1980: Seagate Technology desarrolló el primer Hard Disk Drive para micro computadoras. El disco almacenó 5 megabytes de datos, cinco veces más que la mayoría de los discos comunes de la época. Desarrollado por Philips, el primer disco óptico de almacenamiento de datos tenía una

36


capacidad de almacenamiento 60 veces mayor que un disco flexible de 5”. John Shoch, del centro de investigación de Xerox, en Palo Alto, inventó la computadora «Worm» la cual traía un programa de alto desempeño para la búsqueda de información. 1981: IBM introdujo su PC, proporcionando rápido crecimiento del mercado de computadoras personales. El MS-DOS (Microsoft Disk Operating System) fue el software básico o sistema operativo lanzado para la PC de IBM, estableciendo una larga asociación entre IBM y Microsoft. Adam Osborne desarrolló la primera computadora portátil, el Osborne I. Apollo Computer desarrolló la primera estación de trabajo, la DN100, con capacidad superior a la de muchos mini computadoras de precios similares. Quinta Generación 1982-1990 1982: Mitch Kapor desarrolló el Lotus 1-2-3, software desarrollado para la computadora personal de IBM. La revista Time provocó euforia en su tradicional elección del «Hombre del Año» al seleccionar una computadora como la “Máquina del Año”. El uso de gráficos generados por computadoras para películas dio un gran paso a través de la realización de la película «Tron», lanzado por Disney. 1983: La primera computadora personal con interfaz gráfica es desarrollada por Apple. Compaq Computer Corporation introdujo su primera computadora personal (PC), que usaba el mismo software que la PC de IBM. Microsoft anunció el procesador de textos Word, llamado anteriormente Multi-Tool Word. Además, anunció el lanzamiento del sistema operativo Windows. El MIDI (Musical Instrument Digital Interfaz) es mostrado en la primera muestra North American Music Manufactures, en Los Ángeles. 1984: Apple Computer Corporation lanzó el Macintosh, la primera computadora con mouse e interfaz gráfica, con un valor de US$ 1,5 millones de dólares. El diskette de 3 «, o floppy, fue ampliamente aceptado por el mercado, ayudado por la decisión de Apple Computer de integrarlo en el nuevo Macintosh. IBM lanzó la PC Jr y la PC-AT. La PC Jr. fracasó, pero la PC-AT, varias veces más rápido que la PC original y basado en la plataforma Intel 80286, se fue un éxito debido a su óptima performance y gran capacidad de almacenamiento, todos esos recursos por aproximadamente US$ 4 mil. William Gibson, en su libro Neuromancer, inventó el término Cyberspace ó Ciber espacio. 1985: Internet avanzó otro gran paso cuando el National Science Foundation estructuró el NSFNET conectando cinco supercomputadores en las Universidades de Princeton, Pittsburgh, California, Illinois y Cornell. Nace el CDROM. Con capacidad para almacenar 550Mb de información, los nuevos CDROMs expandieron el mercado de CDS de música. Aldus lanzó el programa PageMaker para el uso en computadoras Macintosh, mostrando su interés en Desktop Publishing. Dos años más tarde, Aldus desarrolló la versión para IBMs y computadoras compatibles. El lenguaje de programación C++ surgió y dominó la industria de computadoras cuando Bjarne Stroustrup publicó el libro “The C++ Programming Language”. 1986: David Miller, de AT&T Bell Labs, patentó el transistor óptico SEED (Self-ElectroOptic-Effect Device), un componente digital para computadoras. Daniel Hillis, de la Thinking Machines Corporation, impulsó la inteligencia artificial cuando desarrolló el concepto compacto de conexión paralela. IBM y MIPS desarrollaron las primeras estaciones de trabajo PC/RT y R2000 basadas en RISC. Compaq desbancó a IBM en el mercado cuando anunció el Deskpro 386, la primera computadora en el mercado a usar el nuevo procesador Intel 386.

37


1987: Motorola desarrolló el microprocesador 68030. IBM introdujo al mercado las computadoras PS/2, fabricadas con drives de 3”. William Atkinson, ingeniero de Apple, proyectó HyperCard, un software que simplificaba el desarrollo de aplicaciones domésticas. 1988: El Co-fundador de Apple, Steve Jobs, dejó Apple para fundar su propia compañía, NeXT. Compaq y otros fabricantes de PC desarrollaron EISA (Enhanced Industry Standart Architecture), una arquitectura standard. “Pixar’s Tin Toy» hizo la primera película realizada en computadoras que posteriormente ganara un premio Oscar de la Academia por mejor dibujo animado en cortometraje. Robert Morris envió un virus a través de Internet, que causó problemas a aproximadamente un 10% de los 60 mil usuarios de la red. 1989: Intel lanzó el microprocesador 80486 y el i860 chip RISC/coprocesador, cada uno contiendo más de 1 millón de transistores. Motorola anunció el microprocesador 68040, con aproximadamente 1,2 millón transistores. Maxis lanzó el SimCity, un juego de video game que utilizaba una serie de simuladores. La ciudad era usada frecuentemente en ambientes educativos. El concepto de la realidad virtual fue el tema principal en la convención de Siggraph’s, realizada en Boston, Massachussets. 1990: Microsoft anunció Windows 3.0, el día 22 de mayo. Compatible con DOS, la primera versión de Windows ofrecía satisfacción y performance a los usuarios de PC. La World Wide Web nació cuando Tim Berners-Lee, un investigador del CERN, desarrolló el HTML (HiperText Markup Language). Sexta Generación 1991-presente 1991: La Power PC de la alianza IBM, Motorola, y Apple es presentado en Julio. Investigaciones de Cray revelan el Cray Y-MP C90 con 16 procesadores y una velocidad de 16 Gflops. 1992: DEC presenta el primer chip a implementar la arquitectura RISC Alpha 64-bit. En marzo de 1992, se transmite por Internet el primer audio multicast M-Bone. Después de generar una enorme preocupación en todos los usuarios de computadoras, el virus Michelangelo realiza un estrago de pequeñas proporciones. 1993: Apple presenta Newton, el primer PDA (personal digital assistant). El Pentium de Intel es presentado en marzo. La Universidad de Illinois desarrolla una interfaz gráfica para navegación por Internet llamada NCSA Mosaic. 1994: Leonard Adleman de la University of Southern California demuestra que el ADN puede ser un medio computacional. Jim Clark y Marc Andreesen fundan Netscape Communications (originalmente Mosaic Communications). El primer navegador (browser) de Netscape se lanza y genera un rápido crecimiento de navegantes de la Web. 1995: Toy Story es el primer largometraje enteramente generado por computadora. Windows 95 es lanzado el 24 de agosto con una gran campaña de marketing. El lenguaje de programación Java, lanzado en mayo, permite el desarrollo de aplicaciones independientes de plataformas. «Duke» es el primer applet. 1996: Es presentado el Pentium Pro de Intel. La IEEE Computer Society celebra sus 50 años. 1997: El Netscape Navigator 2.0 es lanzado. Fue el primer navegador (browser) con soporte para Javascript. Intel lanza el procesador Pentium de 150,166 & 200 MHz. Ellos tiene el equivalente a 3.3

38


millones de transistores. La IBM Deep Blue, fue la primeraa computadora en ganarle al campeón mundial de ajedrez Gary Kasparov en un juego. 1998: Es lanzado el procesador Pentium II 333 MHz, más rápido que el anterior. Microsoft lanza Win98. 1999: Linux es lanzado. El número de personas que usan LINUX es estimado en más de 10 millones. 2000: AMD lanza el AMD de 1GHz. Intel lanza una cantidad limitada del Pentium III. Es decretado el fin del TELEX. Es lanzado el Linux Kernel. Se lanza al mercado de computadoras Windows XP. A partir del año 2000, los cambios de la computación han sido muchos, sin embargo, su estructura principal es la misma.

TIPOS DE COMPUTADORAS Gracias a la evolución que se ha producido en materia de desarrollo en torno a los componentes que son parte fundamental de las computadoras, hoy existen una enorme gama de tipos de computadoras, que van desde las microcomputadoras a las llamadas supercomputadoras. Al clasificar los tipos de computadoras existentes en la actualidad, las mismas suelen ser catalogadas de acuerdo al tamaño y a la potencia que posean, lo cual resulta en los tipos de computadoras que se detallan a continuación: 1. La Computadora Personal Esta es sin dudas el tipo de computadora más conocida y difundida en todo el mundo, llamada también PC por sus siglas en ingles devenido del concepto “Personal Computer”, y que básicamente se trata de una computadora pequeña que por lo general es utilizada por un solo usuario, y la cual suele estar basada en un microprocesador. Con su desembarco en el mercado a fines de los años setenta, sin lugar a dudas, la computadora personal o PC es hoy el símbolo más claro de los avances que ha habido en el terreno de la tecnología durante el siglo XX, cuando se produjo una verdadera revolución en la electrónica, ya que permitió llevar a cada hogar un equipo de procesamiento de datos informático. Debido al rol que deben ocupar las computadoras personales, estas han sido desarrolladas con el objetivo de poder ser destinadas a oficinas y hogares, por lo cual entres sus características principales podemos citar que se trata de un tipo de computadora que poseen un tamaño y una capacidad adecuada a su fin de uso, y precios acordes a ello. En líneas generales, el funcionamiento de las computadoras personales se encuentra basado en un pequeño chip llamado microprocesador, el cual se encarga básicamente de que la PC funcione como corresponde. Este microprocesador es el que controla todos los procesos que realiza una computadora personal. Se suman a él distintos componentes que juegan un rol fundamental en el funcionamiento del equipo, incluyendo la placa madre o motherboard, la memoria ROM, la memoria RAM o Read Only Memory, el disco duro, la fuente de alimentación, entre otros. En la actualidad, las computadoras personales se dividen en dos tipos, las PC que suelen incluir el sistema operativo Windows y las Apple Macintosh, pero en ambos casos se refieren a que se trata de una computadora que es utilizada por un solo usuario y se encuentra basada en un microprocesador. Sin embargo, en este punto cabe destacar que la configuración de las computadoras personales también puede ser utilizadas por varios usuarios, es decir que pueden estar vinculadas para formar una red, por lo que las computadoras personales cada vez se asemejan más a las llamadas estaciones de trabajo, que veremos a continuación.

39


Las computadoras personales también incluyen otra subcategorización, ya que las mismas pueden clasificarse de acuerdo a su tamaño físico. A continuación, enumeramos los tipos de computadoras personales más comunes: • Torre: Se trata de un tipo de computadora donde sus elementos, incluyendo la fuente de alimentación, la motherboard y los dispositivos de almacenamiento masivo se colocan apilados dentro de un gabinete alto, con lo cual ofrecen mayor capacidad de espacio para la incorporación de dispositivos de almacenamiento adicionales. •

Escritorio: Como su nombre lo indica, es una computadora diseñada para que pueda caber en un escritorio, por lo que suelen poseer un tamaño mucho más compacto que las de torre. Estas suelen ser las computadoras que casi todos los usuarios poseen en su hogar, e incluso también en su oficina.

Portátil: Esta es la famosa notebook, cuya característica principal reside en tratarse de una computadora liviana, compacta, que incluye pantalla, teclado y demás en su cuerpo principal, de manera tal que la computadora permite ser transportada y utilizada en cualquier lugar. A pesar de su reducido tamaño, las computadoras portátiles poseen una potencia similar a la de cualquier computadora de escritorio, aunque su valor de mercado suele ser más elevado.

Tablet: Se trata de una computadora de tamaño realmente reducido, cuya principal característica es poseer una pantalla táctil con la cual se reemplazan otros elementos tales como el teclado y el mouse. Si bien podría parecer que por su tamaño este tipo de dispositivos no ofrecen grandes capacidades de procesamiento, lo cierto es que debido a la tecnología que hay detrás de ellas, hoy podemos encontrar tablets incluso más potentes que muchas computadoras de escritorio.

Hasta aquí hemos mencionado las computadoras personales más populares y utilizadas por cientos de personas en todo el mundo, pero también podríamos incluir las netbooks, las palmtop y los PDA, entre otros. 2. Estación de trabajo La llamada Workstation o Estación de Trabajo, por su traducción directa del inglés, consiste en una computadora realmente potente que es utilizada por lo general por un solo usuario, y si bien debido a ello podría ser considerada una computadora personal, lo cierto es que se encuentra en una categoría aparte debido a que posee un microprocesador mucho más potente que el que incluyen las PC, además de contar en la mayoría de los casos con una pantalla o monitor de mayor calidad. Por tal motivo, podríamos definir a la estación de trabajo como una computadora que ha sido diseñada para ser utilizada por solo usuario con fines profesionales. Esto hace que este tipo de computadoras posea una mayor capacidad de procesamiento que el que posee una computadora personal convencional.

40


Si bien este tipo de computadoras no permiten realizar cálculos demasiado complejos, lo cierto es que debido a que disponen de una potencia mucho mayor al de una PC, brindan la posibilidad de llevar a cabo tareas que precisamente requieren de una alta potencia, como por ejemplo la edición de video y audio, la creación de modelos digitales tridimensionales, modelado de diseños de arquitectura, compilación de códigos para programación y demás. Debido a su uso, las estaciones de trabajo suelen ser utilizadas precisamente por personas que requieren de mayor potencia que la que ofrece una computadora personal convencional, pero al mismo tiempo menor capacidad de potencia de las que incluye un mainframe, que veremos más adelante. En lo que respecta al tamaño de este tipo de computadoras, debemos tener en cuenta que gracias al avance en torno a la tecnología hoy es posible tener una estación de trabajo realmente potente incluso en una computadora portátil. No obstante, uno de los aspectos que suelen caracterizar a las estaciones de trabajo es que en general este tipo de equipos incluyen pantallas de tamaño grande, e incluso en muchas ocasiones suelen disponer de múltiples pantallas, ya que casi siempre las tareas que se realizan en las estaciones de trabajo requieren de mucho espacio de visualización en pantalla. Lo mismo sucede con la resolución de dicha pantalla, que también suele ser de alta calidad, con el fin de que ofrezca mayor claridad y nitidez de visualización. 3. Mainframe A grandes rasgos, podríamos definir los mainframes como poderosas computadoras multiusuario, las cuales en general son capaces de soportar cientos o miles de usuarios de manera simultánea. Debido a su estructura, los llamados mainframes suelen ser computadoras muy grandes las cuales fueron diseñadas con el objetivo de poder llevar a cabo acciones y tareas complejas, y en muchos casos incluso críticas. Además, es también debido a su estructura interna que la mayoría de los mainframes de la actualidad suelen poseer un tamaño considerable, y al mismo tiempo disponen de una gran capacidad de procesamiento. Una de las características fundamentales de los mainframes reside en que han sido creadas y diseñadas con el fin de poder continuar funcionando más allá de cualquier contingencia, es decir que siguen funcionando incluso con la menor interrupción. Al mismo tiempo, cuentan con funciones de auto mantenimiento, entre las que se incluyen aquellas relacionadas a la seguridad. Esto se debe a que, por lo general en las empresas, los mainframes cumplen un rol más que relevante, y es por ello que requieren de su funcionamiento continuo y de una plataforma de seguridad eficaz. Entre las diversas funciones que le son asignadas a los mainframes, una de las tareas más importantes que debe cumplir este tipo de computadora es la de poder alojar aplicaciones, y al mismo tiempo permitir que múltiples usuarios puedan trabajar con ella de manera simultánea. Por todo ello, cuando se diseña una red interna en una empresa, los mainframes suelen ser uno de los elementos más importantes en el sistema, y es por ello que muchas veces se los compara con el rol que poseen el corazón o el cerebro en el ser humano. 4. Supercomputadora Una supercomputadora es básicamente una computadora en extremo rápida, gracias a los cual puede llevar a cabo cientos de millones de instrucciones por segundo, por ende, funciona a una velocidad muy superior a la de otros tipos de computadoras.

41


Esta gran capacidad de velocidad, que en realidad cambia constantemente con los nuevos avances tecnológicos, permite realizar procesamientos rápidos, sofisticados y potentes, por lo que en general las supercomputadoras son empleadas en el ámbito de la computación científica, ya que en este campo se requiere de equipos que brinden una alta potencia para realizar cálculos complejos. Entre las características principales de las supercomputadoras encontramos que las mismas suelen ser ensambladas con componentes de distintos fabricantes, ya que se diseña a la medida de las necesidades del sistema en el cual será utilizada, y al mismo tiempo la mayoría de ellas suelen incluir un sistema operativo Linux o Unix, debido a la flexibilidad y eficiencia que brindan estas plataformas. Además, en su interior las supercomputadoras incluyen varios procesadores y cuentan con poderosos sistemas de refrigeración para evitar el sobrecalentamiento. Hoy podemos encontrar supercomputadoras en lugares como la NASA, donde se requiere de este tipo de equipos para realizar tareas realmente complicadas y cálculos extremadamente complejos.

PARTES DE LA COMPUTADORA HARDWARE El hardware es la parte física de una computadora, es decir, todo aquello que puede ser tocado. Esto incluye el teclado, las tarjetas de red, el ratón o mouse, el disco de DVD, el disco duro, las impresoras, etc. Una computadora es un equipo electrónico que procesa gran cantidad de información en un tiempo muy corto. Para esto requiere de unas instrucciones (el software) que son realizadas por unos dispositivos o equipos (el hardware). Tenemos entonces que el hardware de una computadora cumple con las siguientes funciones: entrada, procesamiento, almacenamiento y salida de datos. Partes Externas • Monitor El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo pantalla, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece. Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que, si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud. Evidentemente no en el caso de personas que hacen un uso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla. • Ratón o Mouse es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.

42


• Teclado En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques: 1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa. 2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales. 3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones. 4. Bloque numérico: está ubicado a la derecha del bloque especial, se activa cuando al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras, además contiene los signos de las cuatro operaciones básicas como suma (+), resta (–), multiplicación (*) y división (/), también contiene una tecla de Intro (o Enter) para ingresar las cifras. • Case La caja, carcasa, chasis, tarro, gabinete o torre de computadora u ordenador (erróneamente llamado CPU), es la estructura metálica o plástica, cuya función consiste en albergar y proteger los componentes unidad central de procesamiento (CPU), la memoria de acceso aleatorio (RAM), la placa madre, la fuente de alimentación, la/s placas de expansión y los dispositivos o unidades de almacenamiento: disquetera, unidad de estado sólido (SSD), unidad de disco rígido (HDD), unidad de disco óptico (lectora o grabadora de: CD, DVD, BD) • Micrófono El micrófono es un dispositivo periférico de entrada de información. Este se encarga de capturar los sonidos que se producen alrededor de la computadora. Una vez que se ha capturado el sonido, este puede ser almacenado en el equipo (como una grabación), enviado a otro equipo (como una llamada) o enviado a las cornetas para ser amplificado. • Cámara La cámara es un dispositivo periférico de entrada que se encarga de capturar imágenes y videos. Junto con el micrófono, permite grabar vídeos con audio. La información recibida por una cámara puede ser almacenada (en forma de grabación audiovisual) o puede ser transmitida a otra computadora (a través de una video llamada). En la época de la pandemia actual, se ha convertido en una parte indispensable para poder comunicarse, estudiar o trabajar desde casa y así evitar tener contacto físico con otras personas.

43


Impresora

Las impresoras son elementos de salida de información. Gracias a estas, se pueden plasmar en papel los datos almacenados por una computadora. Las primeras impresoras eran de impacto y funcionaban con una tecnología semejante a las de las máquinas de escribir: se imprimía letra por letra. Sin embargo, eran muy lentas y ruidosas, por lo que fueron desplazadas. Actualmente, las impresoras más utilizadas son las multifuncionales, que incluyen otras opciones como el escaneo, sustituyendo de ese modo a otra de las partes importantes de una computadora, el escáner. • Escáner El escáner es un sistema de entrada de información. Este funciona como una fotocopiadora, porque lee una imagen y produce una copia de esta. La diferencia es que la copia producida es digital y se almacena en la memoria de la computadora. Este dispositivo está formado por dos elementos esenciales: un sistema óptico y un conversor analógico-digital. El sistema óptico se encarga de estudiar la imagen a ser escaneada, determinando los colores y los tonos presentes en la página. La información proporcionada por el sistema óptico es analizada por el conversor analógico-digital. Este transforma estos datos al sistema binario, de modo que la computadora pueda interpretar y almacenar la imagen. Partes Internas • Procesador El procesador es un circuito electrónico que actúa como el cerebro lógico y aritmético de la computadora, ya que es allí donde se llevan a cabo los miles de millones de cálculos por segundo que sostienen el software entero. Es fácilmente reconocible en la Placa base, pues se trata de un cuadrado negro con un pequeño ventilador encima, ya que suelen necesitar de refrigeración constante para evitar una sobrecarga. • Placa Base También conocida como la tarjeta madre, es la tarjeta principal del CPU, en donde se encuentra el procesador, las ranuras para la memoria RAM, los módulos de ROM y en donde se insertan directamente las demás tarjetas del sistema. Se trata de una serie de circuitos en una misma plataforma, que hacen de núcleo del sistema, integrando sus distintos componentes internos. Es allí donde se encuentra el Firmware, o sea, el software pre programado de fábrica en el sistema. • Fuente de Poder El corazón del sistema, que suministra energía eléctrica a la Placa base y a todos los demás componentes del CPU, de modo que puedan operar cuando se los necesite y que puedan mantener ciertos sistemas básicos e indispensables andando cuando el computador se encuentre apagado.

44


• Memoria RAM Su nombre proviene de las siglas de Random Access Memory o Memoria de Acceso Aleatorio. Son una serie de módulos conectados a la Placa base, adónde van los programas a ejecutarse, tanto los activados por el sistema como los activados por el usuario. Sin embargo, todo lo que se encuentre en la memoria RAM se borrará cuando el sistema se apague o se reinicie. No se la debe confundir con la memoria ROM (de Read-Only Memory, o sea, Memoria de Sólo Lectura) que se encuentra contenida en la placa base, y de la cual únicamente pueden extraerse datos. Tampoco con el espacio de almacenamiento en disco. • Disco Rígido También conocido como disco “duro” (por traducción de Hard disk), se trata del lugar donde se almacena la información permanente del sistema informático, o sea, todo el software contenido en él, desde el Sistema Operativo mismo, hasta los programas o aplicaciones que instalemos sus usuarios. Al ser una unidad de lectoescritura, es posible introducir y extraer datos de ella, o lo que es lo mismo, grabar, leer y borrar información. Antiguamente, el Disco rígido estaba acompañado de unidades de lectura de discos, disquetes o diversos tipos de almacenamiento secundario portátil. Todo ello ha desaparecido hoy en día tras la invención de los puertos USB y las memorias portátiles (flash). Incluso hay algunos modelos de computadoras que carecen totalmente de disco duro. Cables de Datos Los cables de datos sirven para la transmisión de información entre los componentes del CPU, del mismo modo como lo hacen nuestras venas y arterias. Existen distintos tipos de cables, como el bus de datos (de 16, 32 y 64 bits), el cable IDE que conecta los discos a la Placa base, o el cable de datos SATA. Suelen ser de colores específicos y tener terminales específicos •

• Tarjeta de Video La Tarjeta de video o Placa de video es una tarjeta secundaria, conectada a la Placa base, que se especializa en el procesamiento de la información referente al video, o sea, a la emisión de imágenes y movimiento en monitores, proyectores, etc. Dependiendo de sus capacidades, por lo tanto, podremos tener mayor calidad de imagen y más rápidas animaciones, o incluso efectos tridimensionales o resoluciones HD. • Tarjeta de Sonido Similar a la Placa de video, la Placa de sonido va integrada a la Placa base, pero sus labores se especializan en el procesamiento de las señales de audio, o sea, en la calidad, velocidad y nitidez de las emisiones sonoras y musicales que el sistema sea capaz de emitir, lo cual es clave a la hora de ver películas, jugar juegos, etc.

45


Tarjeta de Red El tercer tipo de tarjeta que suele hallarse enclavado en la Placa base es la Placa de red, que es un administrador de las conexiones informáticas que el sistema puede establecer con redes o directamente con otros computadores. Estas tarjetas suelen incorporar puertos de conexión para cables telefónicos o de fibra óptica, y también adaptadores de WiFi o redes inalámbricas, que pueden ser gestionados por el usuario empleando el software apropiado.

• Ventilador Debido al elevado tráfico de corriente y de información dentro del sistema, el CPU es un lugar muy caluroso, por lo que siempre es necesario un disipador de calor, en forma de ventilador. Este artefacto extrae el aire caliente y permite que las temperaturas internas disminuyan, ya que un sobrecalentamiento detendría el sistema y podría incluso dañar permanentemente algunos de sus delicados componentes

SOFTWARE El Software son los programas de aplicación y los sistemas operativos que permiten que la computadora pueda desempeñar tareas inteligentes, dirigiendo a los componentes físicos o hardware con instrucciones y datos a través de diferentes tipos de programas. Clasificación El software, según las funciones que realiza, puede ser clasificado en: 1. Software de Sistema Operativo 2. Software de Aplicación 3. Software de Programación Sistemas Operativos Un sistema operativo es el software principal o conjunto de programas de un sistema informático que gestiona los recursos de hardware y provee servicios a los programas de aplicación de software, ejecutándose en modo privilegiado respecto de los restantes. • MacOS macOS es un sistema operativo diseñado por Apple que está instalado en todos los equipos creados por la compañía Apple Inc., y son conocidos generalmente como Mac. El sistema operativo es aquello que te permite realizar todas las tareas en un computador, como jugar, escuchar música, ver y editar imágenes, entre muchas otras cosas. A diferencia del sistema operativo Windows que puede ser usado en equipos de diferentes fabricantes (DELL, Lenovo, etc), macOS está diseñado específicamente para computadores fabricados por Apple. Esto implica que el hardware y el software son totalmente compatibles, por este motivo el ordenador tiene un mejor funcionamiento y puede procesar información más rápido.

46


Linux Linux es un núcleo de sistema operativo multiplataforma (que puede ejecutarse en diferentes tipos de máquinas) y su principal característica es el código fuente abierto para que el usuario pueda modificarlo y está desarrollado completamente en C. Las distribuciones GNU/Linux son sistemas operativos completos que incluye el núcleo, son generalmente de código abierto y por lo tanto son modificables.

Una distribución GNU/Linux es una adaptación para cierto ramo o perfil de usuario definido, como pueden ser distribuciones enfocadas en la multimedia, para el desarrollo de aplicaciones, oficinas, etcétera. Las distribuciones son derivadas de otras distribuciones, por tanto tenemos la distribución base o distribución madre y la distribución derivada. • Android Android es un sistema operativo móvil desarrollado por Google, basado en Kernel de Linux y otros softwares de código abierto. Fue diseñado para dispositivos móviles con pantalla táctil, como teléfonos inteligentes, tabletas, relojes inteligentes, automóviles y televisores. • iOS iOS es un sistema operativo móvil de la multinacional Apple Inc. Originalmente desarrollado para el iPhone (iPhone OS), después se ha usado en dispositivos como el iPod touch y el iPad. No permite la instalación de iOS en hardware de terceros. • Microsoft Windows Se conoce como Windows, MS Windows o Microsoft Windows a una familia de sistemas operativos para computadores personales, teléfonos inteligentes y otros sistemas informáticos, creados y comercializados por la empresa norteamericana Microsoft para diversos soportes de arquitectura de sistemas (como x86 y ARM). Estrictamente hablando, Windows es, más que un sistema operativo en sí, una serie de distribuciones del MS-DOS (MicroSoft Disk Operating System) o Windows NT, antiguos sistemas operativos de la empresa, enmarcados en un entorno operativo de tipo visual, que funciona en base a la reproducción virtual de un escritorio y de otros implementos de oficina, como carpetas, archivos, e incluso una papelera de reciclaje. La primera aparición de Windows ocurrió en 1985, como un paso adelante en la modernización del MS-DOS hacia los entornos gráficos de usuario (GUI), y desde entonces se ha convertido en el sistema operativo más utilizado del mundo, copando prácticamente la totalidad de la cuota de mercado disponible (90%) durante años. Windows ofreció a sus usuarios una creciente variedad de versiones disponibles y actualizadas del programa, con diferencias notorias en cuanto a su aspecto, estabilidad y potencias. La incorporación de Internet permitió, además, la actualización automática del software en cualquier parte del mundo. La función básica de Windows es proveer al núcleo del sistema operativo de un entorno visual atractivo, ameno e intuitivo, en el que las operaciones básicas de uso del computador están

47


representadas gráficamente a través de íconos. Empleando el mouse y el teclado, el usuario puede así acceder a todas las funciones del computador, junto a las propias de las aplicaciones incorporadas al sistema o instaladas por él mismo. Podría entenderse esto como que Windows es un mediador entre el usuario y el Sistema Operativo, que le facilita la vida y le ofrece diversos mecanismos de protección, juego, navegación Web, etc. El Escritorio es quizá el rasgo más distintivo de Windows: su pantalla inicial, que representa un escritorio de trabajo y desde donde se controlan todas las operaciones. Su interfaz gráfica es amable y permite disponer de manera visual de los archivos en uso, así como el ordenamiento de sus íconos representativos, a través del “clic y arrastre” con el mouse. Este entorno fue tan exitoso que redefinió el modo en que nos vinculamos con los computadores hoy en día. La historia de las versiones de Windows puede contarse mediante un listado de sus principales versiones: o Windows 1.0. La versión inicial fue lanzada en noviembre de 1985, tuvo tres actualizaciones: 1.01, 1.02 y 1.03. o Windows 2.0. Apareció en 1987, con una mejoría significativa en el aspecto visual, y tuvo dos actualizaciones: 2.10 y 2.11. o Windows NT. Bautizado Windows New Technology (“nueva tecnología”), surgió en 1993 como una renovación del entorno para servidores y estaciones de trabajo. Tuvo las versiones 3.1, 3.5, 3.51 y 4.0. o Windows 95. Híbrido entre 16 y 32 bits, surgió en agosto de 1995 y fue un notable éxito de ventas. Renovó su entorno gráfico y tuvo varias reediciones: 95 SP, 95 OSR1, 95 OSR2, y posteriormente dio paso a Windows 98, Windows 98 Second Edition y Windows ME (Milennium). o Windows 2000. En sus versiones hermanas de Professionl, Server, Advanced y Datacenter Server, esta edición aparecida en el año 2000 apostó por una mayor compatibilidad y la incorporación de un tren nuevo de aplicaciones. o Windows XP. Aparecido en el año 2001, este nuevo Windows tomaba su nombre de Experience (experiencia) y fue seguramente la versión más popular de la historia de este software, llegando a estar en 95% de las computadoras del mundo. o Windows Server 2003. Basado en la tecnología del NT y con herencia del XP, es una versión más compacta para ser usada en servidores web. o Windows Vista. Apareció en julio de 2008 y fue polémico entre muchas otras cosas debido a su gestión de contenidos favorable a las empresas de entretenimiento más que a los usuarios del sistema. Tuvo diversas distribuciones como Starter, Home Basic, Business, Enterprise y Ultimate, ninguna muy exitosa. o Windows Server 2008. Actualización de la versión de 2003, pero empleando la tecnología del Vista. o Windows 7. Con diversas versiones como Starter, Home Basic, Professional, Enterprise, Ultimate y otras más, se le considera una actualización del Vista aprovechando tecnología XP, pero apuntando a las necesidades multimedia y de diverso formato del año 2009. o Windows 8. Aparecido en 2013, contemplaba en sus muchas versiones (8 Pro, 8 Media Center, 8 Enterprise y 8.1) un cambio radical de estilo y estética, apostándole ya a los Smartphones, Tabletas y otros dispositivos de pantalla táctil. o Windows 10. La versión vigente apareció en 2015, aspirando a la unificación de todos los usuarios de Windows en el mundo bajo una única versión, heredera del 8. Tiene las variantes 10 Home, 10 Pro, 10 Enterprise y 10 Education.

48


OFIMÁTICA La ofimática es el conjunto de métodos, aplicaciones y herramientas informáticas que se usan en labores de oficina con el fin de perfeccionar, optimizar, mejorar el trabajo y operaciones relacionados. La palabra ofimática es un acrónimo compuesto de la siguiente manera ofi (oficina) y matica (informática).

Microsoft Office Microsoft Office es una suite ofimática que abarca el mercado completo en Internet e interrelaciona aplicaciones de escritorio, servidores y servicios para los sistemas operativos Microsoft Windows, Mac OS X, iOS y Android. La última versión de la suite ofimática es el Microsoft Office 2019. A partir de la versión 2010, se ha mantenido un sistema de utilización mediante uso de pagos al programa, llamado Office 365. Esta versión se caracteriza por hacer uso de actualizaciones sin comprar de nuevo un software más reciente, además de ser instalable en más de un dispositivo, ya sea de diferente sistema operativo. Principales Programas • Word Microsoft Word es un programa informático destinado al procesamiento de textos. Sirve por tanto para escribir textos con cualquier finalidad: académica, profesional, creativa… Cuenta con un completo paquete de herramientas que permite modificar el formato de un escrito. Estas permiten modificar desde el tipo o tamaño de la fuente al diseño de la página, pasando por la inclusión de elementos gráficos como imágenes o tablas. Permite añadir archivos multimedia de vídeo y sonido, pero no es de gran utilidad si la finalidad del documento es imprimirlo. Dispone de un formato de archivo nativo, DOC, que es cerrado. Se ha convertido en poco menos que un estándar gracias a la amplia difusión del programa, haciendo que prácticamente cualquier aplicación cuya finalidad es la de leer o editar textos sea compatible con él. No obstante, también es posible guardar los trabajos en otros formatos como RTF, XPS o XML, además de contar con una herramienta para exportarlos a formato PDF. La aplicación fue creada por la empresa Microsoft y actualmente viene incluida por defecto en el paquete ofimático de Microsoft Office. Fue ideada a partir de 1981 y desarrollada por los programadores Richard Brodie y Charles Simonyi bajo el nombre de Multi-Tool Word para sistemas Xerox, posteriormente para ordenadores IBM que corrían con sistema operativo MS-DOS en el año 1983… Después se crearon varias versiones para Apple Macintosh, AT&T Unix PC, Atari ST y por fin Microsoft Windows en 1989. Es en Windows y en sus diferentes sistemas operativos donde ha tenido mayor relevancia en los últimos años, y pese a surgir en este momento no cobró relevancia hasta el lanzamiento de Windows 3.0. Con Microsoft Word se puede ver, editar y crear documentos de texto para guardarlos en el dispositivo o compartirlos con quien sea de mil formas diferentes. Es el software más potente del mercado, líder indiscutible en el sector de los procesadores de texto. El programa permite cambiar de formatos e imprimir documentos de manera profesional, así como realizar distintas tareas para la presentación de la información: automatización de tareas, detección y corrección de errores ortográficos y gramaticales…

49


A nivel profesional, Word se ha convertido en la herramienta más utilizada para crear currículums, trabajos, presentaciones, informes o para escribir cartas. La edición de texto es muy sencilla y su apariencia lo hace aun más fácil de manejar, con tan sólo unos conocimientos básicos se pueden utilizar sin problemas. Además, Microsoft Word permite visualizar el resultado final antes de ser enviado o impreso. • Excel Excel es un programa que forma parte de la suite ofimática Microsoft Office, un software de hojas de cálculo empleado esencialmente en tareas matemáticas y financieras. Sirve para realizar todo tipo de cálculos numéricos o matemáticos. Permite elaborar tablas que incluyan cálculos matemáticos, resueltos mediante operadores matemáticos o automáticamente mediante fórmulas llamadas funciones que se pueden configurar manualmente. Además de permitir la visualización de los datos, por ejemplo, a través de diferentes tipos de gráficos. La finalidad de estos puede ser diferente según las necesidades del usuario y las posibilidades que permite este software de cálculo son extremadamente amplias. Se pueden llegar a realizar desde simples sumas a integrales, pasando por la creación de gráficos, la generación de informes o la organización de información no numérica. De hecho, aunque en origen estaba diseñado para satisfacer las necesidades del ámbito administrativo y contable, sus funciones se han extendido a diferentes campos, incluyendo el de las bases de datos. Por eso es posible llevar múltiples registros y controles de particularidades que no tengan que ver en ningún momento con cálculos y se compongan esencialmente de texto. Con Microsoft Excel podemos llevar a cabo las siguientes tareas: o Elaborar tablas de consulta de información. o Crear gráficos a partir de datos numéricos introducidos en la hoja de cálculo. o Resolver operaciones matemáticas sencillas. o Elevar números a potencias. o Hacer calendarios especializados. o Hacer facturas. o Diseñar todo tipo de horarios. o Generar informes contables. o Elaborar presupuestos detallados. o Editar hojas de cálculo de programas similares. o Llevar una libreta de direcciones. o Llevar un registro de clientes, usuarios, empleados… o cualquier otro en el que se funcione mediante líneas y columnas. o Crear calendarios varios. o Llevar la contabilidad de una empresa, un comercio o incluso un hogar. Al igual que el resto de programas que conforman el paquete Office, Microsoft Excel se ha convertido en un estándar de facto pese a su licencia comercial y, por tanto, no ser gratis. No en vano, otros paquetes ofimáticos tradicionales.

50


• PowerPoint PowerPoint es un programa informático de Microsoft que sirve para hacer presentaciones. Estas pueden ser de texto esquematizado, de diapositivas o de animaciones de texto e imagen a las que se les puede aplicar diferentes diseños. Permite crear presentaciones de todo tipo con texto esquematizado y con gran cantidad de elementos: sonoros, audiovisuales, interactivos, gráficos, escritos... Partiendo de una plantilla más o menos elaborada (e incluso en blanco, para los más manitas) podemos crear una ponencia compuesta de un conjunto de pantallas —llamadas aquí "diapositivas"— que proyectaremos a través de nuestro ordenador para narrar la historia que queremos vender, ya sea a nuestros potenciales clientes, nuestros profesores o nuestros estudiantes. Aunque existen otros, su formato de guardado más común y habitual es el PPT. Las diapositivas se elaboran en documentos con capacidades multimedia y se enlazan unas con otras de manera secuencial. Sus características lo convierten en una herramienta muy dinámica por lo que es ampliamente utilizado en ámbitos profesionales y académicos. Se utiliza en casos como los siguientes: o Exponer trabajos, tesis o investigaciones. o Presentar informes estadísticos o contables. o Crear tutoriales. o Crear álbumes de fotos. o Hacer cuestionarios. Cuenta con tres funciones principales para desarrollar las presentaciones: o Editor de texto con herramientas similares a las de Word para darle formato. o Inserción y manipulación de recursos gráficos (imágenes y gráficas). o Muestra del contenido de forma continua. Se ha convertido en poco menos que un estándar para la exposición de conceptos a modo de esquema. De hecho, es la propia Microsoft la que señala que a diario son en torno a 30 millones de presentaciones las que se llevan a cabo con él. Forma parte del paquete ofimático Microsoft Office y sus orígenes se remontan a mediados de la década de 1980. Dos programadores desarrollaban un software para presentaciones gráficas para Mac cuyo nombre era Presenter que fue rechazado por Apple. Sin embargo, Bill Gates y Microsoft sí mostraron interés y acabaron adquiriendo el software en 1987 y lanzando su primera versión ese mismo año, la 1.0. Desde entonces ha ido evolucionado, versión tras versión, para adaptarse a las diferentes necesidades que los usuarios han ido requiriendo. • Publisher Microsoft Publisher es un programa de edición que sirve para crear material y documentos impresos como boletines, sobres, catálogos, trípticos, dípticos, folletos o calendarios. La primera edición de este programa fue lanzada por Microsoft en 1991 y forma parte del paquete ofimático Microsoft Office y se puede adquirir a través de las dos versiones que se ofrecen de la suite: Office 365, en su modalidad Hogar y Personal, y a través de Microsoft Office 2016, pero sólo en su paquete Professional. Para llevar a cabo estas tareas de edición ofrece una serie de funciones y herramientas que hacen su uso muy intuitivo, el verdadero fuerte de la aplicación frente a otras de su competencia como Adobe InDesign,

51


enfocadas más a un ámbito de uso más profesional. Entre las principales funciones podemos encontrar algunas como las siguientes: o Inserta en páginas de contenidos texto e imagen. o Repite estructuras en diferentes secciones. o Permite la inserción en lote de imágenes. o Admite el diseño propio de fondos para los documentos. o Gran variedad de formatos y efectos para los textos. o Se integra con herramientas de trabajo online como OneDrive. o Disponibilidad del repositorio de imágenes online de Microsoft. o Se pueden usar fotografías propias para los fondos de cualquier proyecto. La primera edición del programa vio la luz en 1991 como decimos y poco a poco ha ido evolucionando hasta hoy, ofreciéndose de manera integrada dentro de Office. Por derecho propio se ha convertido en una de las mejores herramientas para la autoedición y que está al alcance de cualquier usuario, tanto por nivel de conocimientos como económico (si tenemos en cuenta que adquirimos con él otras herramientas). A pesar de la competencia de otros programas de autoedición como Adobe InDesign, QuarkXPress o Corel Draw su uso continúa vigente. El motivo es que al estar integrado dentro de Microsoft Office que cuenta con herramientas de uso extendido, muchos usuarios han optado por él para aprovechar que también usan las demás. Además, cuenta con un modo de uso bastante sencillo e intuitivo gracias a que ofrece cientos de plantillas para los diferentes formatos de documento que se pueden diseñar, además de mucha flexibilidad a la hora de introducir elementos gráficos y textos propios. Se trata de un programa que un usuario puede aprender a manejar rápidamente, no así como otras aplicaciones que exigen un mayor conocimiento del proceso de creación y que están orientadas a ámbitos estrictamente profesionales.

RECURSOS WEB 1. Navegadores Para mucha gente pueden llegar a pasar desapercibidos, pero los navegadores web son esenciales para el acceso y circulación por Internet, son el vehículo mediante el cual navegamos a través de la infinita red. Si nos fijamos en la definición que nos da la Wikipedia, “un navegador o, en inglés, un browser, es un software que permite el acceso a Internet, interpretando la información de los sitios web para que éstos puedan ser leídos.” Y prosigue: “La funcionalidad básica es permitir visitar páginas web y hacer actividades en ellas.” Hoy en día sabemos que existe una gran variedad de navegadores. La utilización de uno u otro es muy subjetiva, depende de cada persona y de la comodidad que tenga con cada uno de ellos, porque las diferencias entre los más populares son bastante reducidas si lo vemos desde la perspectiva de un usuario corriente, no el de un profesional de la informática. En este artículo, pues, hablaremos de algunos de los browsers más conocidos e intentaremos encontrar algunas de las diferencias que haya entre uno y otro, para que después cada cual pueda elegir el que se adapte mejor a sus necesidades. • Google Chrome Es uno de los más conocidos y más usados, básicamente porque es el que asegura una velocidad mayor. Saltó al escenario a principios de 2008. Desde entonces ha conseguido pasar de una cuota de mercado del 0% al actual 25% del mes pasado. Se inicia rápidamente desde el escritorio, carga las páginas de forma instantánea y ejecuta aplicaciones web complejas a gran velocidad. Su gran ventaja respecto a su competencia es también su principal inconveniente: Google.

52


Google le asegura financiación permanente y estar siempre a la última en cuanto a mejoras y novedades; sin embargo, también es una de las empresas multinacionales más influyentes y con más beneficios del mundo, y como tal, su objetivo final es el ánimo de lucro, y no todo el mundo se siente cómodo dejándoles sus datos, tanto personales como no personales. A parte de esto, la ventana del navegador de Chrome es intuitiva y sencilla. Está diseñado para ofrecer una mayor seguridad en la web, al actualizarse automáticamente para que siempre tengamos las últimas mejoras en este campo. Si es tu navegador preferido para el PC, Google Chrome será también el favorito para hacerlo a través de la tableta, al presentar versiones igual de potentes tanto en Android como en iOS. • Mozilla Firefox Para mucha gente es el navegador que le transmite más confianza, seguramente porque, aparte de ser uno de los más veteranos (salió en el año 2003) es sólido, estable y presenta muy pocos errores. Firefox, el segundo navegador más utilizado en Internet, se caracteriza por ser un programa independiente, y para muchos es su favorito porque no tiene ánimo de lucro. Ha sido desarrollado a lo largo de los años por decenas de programadores que lo van mejorando en cada actualización. Además, es un navegador altamente personalizable, ya que cuenta con un amplio abanico de temas y complementos. Pero lo mejor de todo son las extensiones, pequeñas adiciones gratuitas elaboradas por cientos de desarrolladores alrededor del mundo que cumplen todas las labores y funciones imaginables. • Opera Es el navegador web alternativo por excelencia. Es también uno de los más veteranos y, durante muchos años, ha sido de los más utilizados en los teléfonos móviles, hasta la popularización de los smartphones. Está desarrollado por una compañía noruega y, al igual que Firefox, no tiene ánimo de lucro. Su última versión, usa el mismo motor que Google Chrome, por lo que se pueden utilizar en él las mismas extensiones disponibles para el navegador de Google. Además, incorpora una novedad muy interesante, lo que ellos llaman el “Estante”, una reinvención de los marcadores o favoritos que permite ir guardando páginas que interesan para leerlas posteriormente. Opera es también altamente personalizable; contiene una amplia variedad de temas y su velocidad no tiene nada que envidiar a los más populares Chrome o Firefox. • Safari Safari sigue siendo un navegador web asociado a los Macs de Apple, a pesar de que en 2008 saltase también a la plataforma de Microsoft, con sus sistemas Windows. A pesar de que es el cuarto navegador más utilizado de Internet, manteniendo una cuota de mercado que está entre el 5 y el 8%, su crecimiento es muy lento, sobre todo por el hecho de que su versión para PCs no tiene nada de destacable en prácticamente ningún aspecto. Además, hace más de un año que no la actualizan, con las brechas de seguridad que esto puede ocasionar. La versión de Safari para Apple es otra cosa; ofrece un buen rendimiento y es el preferido por sus usuarios, ya que se beneficia que su sistema operativo está desarrollado internamente por la misma compañía.

53


Además, Safari cuenta con algunas opciones interesantes; una de las más relevantes es su modo “Lector”, a través de la cual se difumina parte de la pantalla y el texto central pasa a mostrarse destacado en negro sobre blanco, lo cual resulta ideal para la lectura de publicaciones online. Safari no es el navegador más rápido de todos los que existen, pero es estable y eficiente, con un aspecto muy sencillo destinado a un tipo de usuario con conocimientos informáticos básicos. Eso sí, en cuanto a oferta de funcionalidades y extensiones, se ve superado por su competencia. 2. Correo Electrónico Los correos electrónicos nuevamente están teniendo un lugar de importancia dentro de las estrategias del marketing digital. Durante algún tiempo tuvieron una fama no muy buena debido al mal uso que se le estaba dando. Sin embargo, hoy en día podemos notar que los resultados obtenidos a través del email marketing pueden ser excelentes. Tipos de proveedores de email Es importante conocer los principales proveedores de email ya que cada uno tiene algunas funcionalidades que para ti pueden ser más útiles que otros. Veamos los 3 principales. • Gmail El servicio de correo electrónico de Google actualmente es uno de los más populares en todo el mundo. Tiene muy buenos recursos de organización y elimina los correos no deseados con facilidad. Debido a su éxito, la desventaja es que difícilmente puedes encontrar nombres disponibles. Si quieres crear un email con tu nombre, debes agregarle números o símbolos. • Outlook Actualmente Outlook es uno de los proveedores de email más populares. Es el servicio de correo electrónico gratuito de Microsoft. Su gran ventaja es que se integra fácilmente con las aplicaciones de Microsoft. Desde el 2012, absorbió a todas las cuentas de correo de Hotmail, quienes anteriormente, habían ya absorbido a MSN. • Yahoo! Mail Ya fue mucho más popular que ahora, pero a pesar de eso continúa siendo muy utilizado. Uno de los factores es su fácil integración con Facebook y la posibilidad de crear emails desechables que permiten una mayor privacidad. Sin embargo, algo con lo que hay que tener cuidado es que, si no utilizas tu cuenta por más de 4 meses seguidos, está será desactivada automáticamente. Después de conocer los 3 principales proveedores de email de la actualidad, veamos algo más enfocado al marketing: 3. Redes Sociales Las redes sociales, en el mundo virtual, son sitios y aplicaciones que operan en niveles diversos – como el profesional, de relación, entre otros – pero siempre permitiendo el intercambio de información entre personas y/o empresas.

54


Facebook

Facebook es, de lejos, la red social más popular del planeta. ¿Quién nunca oyó la broma, principalmente para las relaciones, de “si no está en Facebook es porque no es oficial”? Esta es la red social más versátil y completa. Un lugar para generar negocios, conocer gente, relacionarse con amigos, informarse, divertirse, debatir, entre otras cosas. Para las empresas, es prácticamente imposible no contar con Facebook como aliado en una estrategia de Marketing Digital, ya sea para generar negocios, atraer tráfico o relacionarse con los clientes. • Instagram Instagram fue una de las primeras redes sociales exclusivas para acceso móvil. Es cierto que actualmente es posible ver las actualizaciones en desktop, pero el producto está destinado para ser usado en el celular. Es una red social de compartir fotos y vídeos entre usuarios, con la posibilidad de aplicación de filtros. Originalmente, una peculiaridad de Instagram era la limitación de fotos a un formato cuadrado, imitando las fotografías vintage, como las de cámaras Polaroid. En 2012, la aplicación fue adquirida por Facebook por nada menos que mil millones de dólares. Desde su adquisición, la red social ha cambiado bastante y hoy es posible publicar fotos en diferentes proporciones, vídeos, Stories, boomerangs y otros formatos de publicación. •

WhatsApp WhatsApp es la red social de mensajería instantánea más popular. Prácticamente toda la población que tiene un smartphone tiene también el WhatsApp instalado. En 2017, también entró en la moda de los Stories e implementó la funcionalidad, que fue bautizada como “WhatsApp Status”.

• YouTube YouTube es la principal red social de videos online de la actualidad, con más de 1.000 millones de usuarios activos y más de 500 millones de vídeos visualizados diariamente. Fue fundado en 2005 por Chad Hurley, Steve Chen y Jawed Karim. El éxito rotundo hizo que la plataforma fuera adquirida por Google al año siguiente, en 2006, por 165 mil millones de dólares. •

Facebook Messenger

Messenger es la herramienta de mensajería instantánea de Facebook. Fue incorporada a Facebook en 2011 y separada de la plataforma en 2016. Con la “separación”, la descarga de la aplicación Messenger se ha vuelto prácticamente obligatoria para usuarios de la red social vía smartphones, ya que ya no es posible responder mensajes por la aplicación de Facebook. Además de una aplicación de mensajería, Messenger también tiene una función “Stories” exclusiva. Para las empresas, tiene algunas características interesantes, como bots y respuestas inteligentes.

55


• Pinterest Pinterest es una red social de fotos que trae el concepto de “mural de referencias”. Ahí es posible crear carpetas para guardar tus inspiraciones y subir imágenes, así como colocar links hacia URL externas. Los temas más populares son moda, maquillaje, bodas, gastronomía y arquitectura, también como hazlo tú mismo, gadgets, viajes y design. Su público buscar a través de esta red social buscar inspiración. Utilizada por artistas, diseñadores y personas por gusto al arte. Redes Sociales como Medio de Publicidad El marketing en redes sociales puede ayudar a elevar tu audiencia y convertir a personas interesadas, en clientes potenciales de una forma significativa. Un contenido relevante y diseñado para tu audiencia es clave para aumentar la presencia que tiene tu marca dentro de los medios digitales. Es vital comprender el funcionamiento de las redes sociales y la respuesta de tu audiencia en cada una de ellas, analizando, evaluando y ejecutando el contenido, es por ello que te compartimos algunas razones de por qué es importante el marketing en tus redes sociales. Importancia del Marketing en Redes Sociales • Construcción de marca Como marca, debemos ser capaces de atraer y satisfacer a nuestra audiencia de manera predecible y coherente, para generar empatía con nuestros consumidores. Una de las mejores maneras de hacerlo es ofreciendo contenido que los enriquezca tanto en el ámbito intelectual como emocional para construir una marca fuerte y positiva en la mente de nuestra audiencia. • Tráfico web Hablamos del número de visitantes que acceden a nuestro sitio web y agregan valor a nuestro portal digital. El uso de una buena estrategia en redes sociales es una excelente forma de atraer visitantes a nuestro sitio desde plataformas ya conocidas como Facebook, Twitter, Linkedin y muchas más. • Posicionamiento (SEO) Más tráfico en nuestro sitio, significa una mejor reputación cuando los motores de búsqueda deciden hacer el trabajo de posicionamiento. Así mismo la actividad de nuestros perfiles sociales agrega valor a nuestra marca en el mundo digital. Un sitio con mayor referencias externas tiene mejor ubicación en las páginas para los motores de búsqueda. • Retorno de inversión (ROI) Las redes sociales son herramientas de gran alcance y hacer marketing en ellas representa un costo mucho menor si lo comparamos con otros medios digitales y tradicionales. Además de ser más económicos, la segmentación que ofrece es específica y atinada, lo que nos permite llegar a nuestro mercado objetivo de manera más rápida haciendo que nuestra marca sea más relevante y la intención de compra sea mayor. En pocas palabras, el marketing en redes sociales es clave para el crecimiento de tu marca en la actualidad. Si tu marca aún no tiene estrategias de posicionamiento web, ahora es el momento de empezar.

56


Plataformas, Páginas Web o Aplicaciones enfocadas en Crear, Editar o Compartir Contenido • Wikipedia Wikipedia se ha convertido en el sinónimo de Enciclopedia de referencia. Su ambicioso objetivo es consolidar el conocimiento de toda la humanidad. Todos sabemos de ella, pero, ¿sabes realmente cómo funciona?, ¿quién la dirige o quién puede escribir en ella? En cuanto a su significado, la palabra Wikipedia se compone del prefijo wiki, la palabra hawaiana para designar "rápido", y el término enciclopedia. Rápido, porque no solo puedes leer los artículos alojados en la Wikipedia, sino que también pueden ser editados desde un navegador y, además, por múltiples usuarios. • Blogspot Blogspot por su parte es un proveedor de servicios de dominio gratuito, propiedad también de Google, que en realidad viene siendo un subdominio como el caso de “mipagina.blogspot.com”. La función principal de Blogspot es la de brindar soporte con respecto al servicio de dominio gratuito para la creación de blogs. Cuando visitamos www.blogspot.com, somos redirigidos awww.blogger.com debido a que a Blogspot solo se puede acceder con Blogger. Es decir, es imposible utilizar Blogspot con cualquier otra plataforma de publicación, de tal manera que ésta es una de las estrategias de marketing que tiene Google para soportar ambos servicios entre sí. En resumen podemos decir que Blogger es una plataforma de publicación gratuita, mientras que Blogspot es un proveedor de servicios de dominios gratuito. Blogspot entonces tiene que ser utilizado con Blogger, pero Blogger no necesariamente tiene que ser usado con Blogspot, aunque en realidad ambos servicios han sido diseñados para trabajar en conjunto y ofrecer una mejor experiencia con los blogs a los usuarios. • Prezi Prezi es un programa de presentaciones para explorar y compartir ideas sobre un documento virtual basado en la informática en nube. La aplicación se distingue por su interfaz gráfica con zoom, que permite a los usuarios disponer de una visión más acercada o alejada de la zona de presentación, en un espacio 2.5D. • Kaiku Deck Haiku Deck ofrece la posibilidad de construir diapositivas minimalistas formadas por una imagen de fondo, un título y un subtítulo. Nada más. Es ideal para gente a quienes les cuesta mucho simplificar, puesto que es el propio programa el que les impide añadir más contenido. Al igual que ocurre con el haiku, uno debe limitarse a los pocos elementos que permite su estructura para contarlo todo. De modo que el peso de la presentación no recae nunca en el software sino en el ponente, el verdadero protagonista. La aplicación permite realizar una slide en 3 pasos muy simples: 1. Introducir el texto (título + subtítulo). 2. Buscar la imagen. 3. Elegir la distribución del texto sobre la imagen.

57


• Powtoon PowToon es un programa de animación de videos. Permite crear presentaciones interesantes, atrapantes y entretenidas. Es un software en línea, aunque ya tiene una versión portable en español. Tiene como función crear vídeos y presentaciones animadas e interpretar lo que el usuario introduce en su interfaz, reproduciéndose como en una especie de caricatura, de una persona hablando mostrando cuadros de diálogo que el usuario haya escrito. Es muy usado en el ámbito escolar y también por ciber-nautas que con vídeos caricaturizados quieren comunicar una idea a un público elegido. • Movie Maker Windows Movie Maker es un software de edición de vídeo que se incluye en las versiones recientes de Microsoft Contiene características tales como efectos, transiciones, títulos o créditos, pista de audio, narración cronológica, etc. Nuevos efectos y transiciones se pueden hacer y las ya existentes se pueden modificar mediante código XLM.El desarrollo de Windows Movie Maker fue abandonado después del lanzamiento de Windows Vista; su sustitución, Windows Live Movie Maker, incluirán con Windows Live Essentials, una descarga gratuita de Windows Live; sin embargo, Microsoft ha afirmado que Windows Live Movie Maker no tendrá las mismas características que Windows Movie Maker. • Mindmeister MindMeister es una aplicación de mapas mentales en línea que permite a sus usuarios visualizar, compartir y presentar sus pensamientos a través de la nube. • Mindomo Mindomo. Recurso muy versátil para generar recursos infográficos y crear mapas conceptuales. Es necesario registrarse y ofrece la posibilidad de archivarlos en el ordenador e integrarlo con Google Apps. Es una aplicación nube que permite ver, crear y compartir mapas mentales. Cualquier internauta puede acceder a la web y ver los diagramas creados por otros usuarios, para crear y compartir nuestros propios esquemas es necesario registrarse. • Kahoot Kahoot! es el nombre que recibe este servicio web de educación social y gamificada, es decir, que se comporta como un juego, recompensando a quienes progresan en las respuestas con una mayor puntuación que les catapulta a lo más alto del ranking. Cualquier persona puede crear un tablero de juego, ¡aquí llamado “un Kahoot!" de modo que, si quieres, puedes crear un test sobre los tipos de triángulos, los distintos cuerpos celestes o sobre las normas de circulación. No hay limitaciones siempre y cuando se encuadre en uno de los cuatro tipos de aplicaciones disponibles hoy en día.

58


• Quizizz Quizizz es una aplicación para crear preguntas personalizadas de manera lúdica y divertida, similar al Kahoot, donde el docente genera las preguntas en la web y le proporciona al alumnado la página web y el código del cuestionario para responder desde un ordenador o dispositivo móvil.

• Moodle Moodle es una herramienta de gestión de aprendizaje, o más concretamente de Learning Content Management, de distribución libre, escrita en PHP. • Padlet Padlet es una herramienta de la web 2.0 que permite almacenar y compartir contenido multimedia, es básicamente un muro digital el cual puede utilizarse como un tablón personal o una pizarra colaborativa. Padlet permite insertar: imágenes, enlaces, documentos, videos, audios, presentaciones, entre otros

• Explain Everything Explain Everything es una aplicación para iPad con un diseño muy intuitivo, que te permite grabar tu propio escritorio (screencasting) al tiempo que sirve de pizarra digital interactiva (whiteboard).

• Canva Es un sitio web de herramientas de diseño gráfico simplificado. Utiliza un formato de arrastrar y soltar y proporciona accesión a más de un millón de fotografías, vectores, gráficos y fuentes. Es utilizado por no diseñadores, así como profesionales. • IDraw Es una de esas joyas de la App Store que te sorprenden por las posibilidades que ofrece, una aplicación de dibujo vectorial e ilustración que cumple perfectamente para uso en el iPad • Sketchbook Saca a relucir tu artista interior con esta aplicación de pintura y dibujo de calidad profesional. Lleva a tu iPad a lo último en cuaderno de dibujos digitales por excelencia. Ya seas un artista profesional, o simplemente deseas aprender a dibujar, el nuevo Autodesk SketchBook Pro pondrá un impresionante conjunto de herramientas de dibujo y pintura a tus órdenes. Esta aplicación te permite llevar contigo un estudio de arte móvil, y ver tus creaciones en la gran pantalla táctil del iPad. • Magisto E s un editor de video en línea con una aplicación web, así como una aplicación móvil para la edición y producción automatizada de video dirigida a consumidores y empresas. Según el sitio web, Magisto emplea tecnología de Inteligencia Artificial para hacer que la edición de video sea rápida y simple.

59


• Corel Draw CorelDRAW es una aplicación informática de diseño gráfico vectorial, es decir, que usa fórmulas matemáticas en su contenido.

• Gimp GIMP es un programa de edición de imágenes digitales en forma de mapa de bits, tanto dibujos como fotografías. Es un programa libre y gratuito. • Gravit Designer Gravit designer es una aplicación de diseño de gráficos vectoriales gratuita y multiplataforma, lo cual nos permite poder utilizarla en Windows, Mac OS, Linux

• Skedio Skedio es una herramienta de dibujo basada en gráficos vectoriales con múltiples capacidades de edición. Skedio permite fácilmente crear nuevas imágenes y editar las imágenes ya existentes en alta calidad. • Procreate Es una aplicación de editor de gráficos de trama para pintura digital desarrollada y publicada por Savage Interactive para iOS y iPadOS. Diseñado en respuesta a las posibilidades artísticas del iPad, y atendiendo a artistas desde principiantes hasta profesionales

• WeVideo Es una compañía de software como servicio con sede en EE. UU. Que proporciona una plataforma de edición de video colaborativa basada en la web que funciona en cualquier navegador.

• Aleks ALEKS es un programa de tutoría y evaluación en línea que incluye material del curso en matemáticas, química, estadística introductoria y negocios.

• Khan Academy Es una organización educativa sin ánimo de lucro y un sitio web creado en 2006 por el educador estadounidense Salman Khan, egresado del Instituto Tecnológico de Massachusetts y de la Universidad de Harvard.

60


Robótica

61


Robótica La robótica es la rama de la ingeniería mecánica, de la ingeniería eléctrica, de la ingeniería electrónica, de la ingeniería biomédica y de las ciencias de la computación, que se ocupa del diseño, construcción, operación, estructura, manufactura y aplicación de los robots. La robótica combina diversas disciplinas como la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física. Otras áreas importantes en robótica son el álgebra, los autómatas programables, la animatrónica y las máquinas de estados. El término robot se popularizó con el éxito de la obra R.U.R. (Robots Universales Rossum), escrita por Karel Čapek en 1920. En la traducción al inglés de dicha obra la palabra checa robota, que significa trabajos forzados o trabajador, fue traducida al inglés como robot. Historia de la Robótica La robótica va unida a la construcción de "artefactos" que trataban de materializar el deseo humano de crear seres a su semejanza y que al mismo tiempo lo descargasen de trabajos tediosos o peligrosos. El ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a distancia para su automóvil mediante telegrafía, el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios), acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas. Karel Čapek, un escritor checo, acuñó en 1920 el término "robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checa robota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las tres leyes de la robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder o, simplemente, aliviando de las labores caseras. Clasificación de los Robots 1. Según su cronología La que a continuación se presenta es la clasificación más común: • 1.ª Generación. Robots manipuladores. Son sistemas mecánicos multifuncionales con un sencillo sistema de control, bien manual, de secuencia fija o de secuencia variable. •

2.ª Generación. Robots de aprendizaje. Repiten una secuencia de movimientos que ha sido ejecutada previamente por un operador humano. El modo de hacerlo es a través de un dispositivo mecánico. El operador realiza los movimientos requeridos mientras el robot le sigue y los memoriza.

3.ª Generación. Robots con control sensorizado. El controlador es un ordenador que ejecuta las órdenes de un programa y las envía al manipulador o robot para que realice los movimientos necesarios.

2. Según su estructura La estructura es definida por el tipo de configuración general del robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un robot a través del cambio de su configuración por el propio robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica

62


del robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los robots, con base en su arquitectura, se hace en los siguientes grupos: poliarticulados, móviles, androides, zoomórficos e híbridos. • Poliarticulados En este grupo se encuentran los robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo se encuentran los robots manipuladores, los robots industriales y los robots cartesianos, que se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo. • Móviles Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia. • Androides Son los tipos de robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemático del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot. Vulgarmente se los suele llamar "marionetas" cuando se les ven los cables que permiten ver cómo realiza sus procesos. • Zoomórficos Los robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, pilotados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes. • Híbridos Estos robots corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas es, al mismo tiempo, uno de los atributos de los robots móviles y de los robots zoomórficos.

63


ENGRANAJES Se denomina engranaje al mecanismo utilizado para transmitir potencia mecánica de un componente a otro. Los engranajes están formados por dos ruedas dentadas, de las cuales la mayor se denomina corona y el menor piñón. Un engranaje sirve para transmitir movimiento circular mediante el contacto de ruedas dentadas. Una de las aplicaciones más importantes de los engranajes es la transmisión del movimiento desde el eje de una fuente de energía, como puede ser un motor de combustión interna o un motor eléctrico, hasta otro eje situado a cierta distancia y que ha de realizar un trabajo. De manera que una de las ruedas está conectada por la fuente de energía y es conocida como rueda motriz y la otra está conectada al eje que debe recibir el movimiento del eje motor y que se denomina rueda conducida. Si el sistema está compuesto de más de un par de ruedas dentadas, se denomina tren. La principal ventaja que tienen las transmisiones por engranaje respecto de la transmisión por poleas es que no patinan como las poleas, con lo que se obtiene exactitud en la relación de transmisión. Historia Desde épocas muy lejanas se han utilizado cuerdas y elementos fabricados en madera para solucionar los problemas de transporte, impulsión, elevación y movimiento. Nadie sabe a ciencia cierta dónde ni cuándo se inventaron los engranajes. La literatura de la antigua China, Grecia, Turquía y Damasco mencionan engranajes pero no aportan muchos detalles de los mismos. El mecanismo de engranajes más antiguo de cuyos restos disponemos es el mecanismo de Anticitera. Se trata de una calculadora astronómica datada entre el 150 y el 100 a. C. y compuesta por al menos 30 engranajes de bronce con dientes triangulares. Presenta características tecnológicas avanzadas como por ejemplo trenes de engranajes epicicloidales que, hasta el descubrimiento de este mecanismo, se creían inventados en el siglo XIX. Por citas de Cicerón se sabe que el de Anticitera no fue un ejemplo aislado sino que existieron al menos otros dos mecanismos similares en esa época, construidos por Arquímedes y por Posidonio. Por otro lado, a Arquímedes se le suele considerar uno de los inventores de los engranajes porque diseñó un tornillo sin fin. En China también se han conservado ejemplos muy antiguos de máquinas con engranajes. Un ejemplo es el llamado "carro que apunta hacia el Sur" (120-250 d. C.), un ingenioso mecanismo que mantenía el brazo de una figura humana apuntando siempre hacia el Sur gracias al uso de engranajes diferenciales epicicloidales. Algo anteriores, de en torno a 50 d. C., son los engranajes helicoidales tallados en madera y hallados en una tumba real en la ciudad china de Shensi. No está claro cómo se transmitió la tecnología de los engranajes en los siglos siguientes. Es posible que el conocimiento de la época del mecanismo de Anticitera sobreviviese y contribuyese al florecimiento de la ciencia y la tecnología en el mundo islámico de los siglos IX al XIII. Por ejemplo, un manuscrito andalusí del siglo XI menciona por vez primera el uso en relojes mecánicos tanto de engranajes epicíclicos como de engranajes segmentados. Los trabajos islámicos sobre astronomía y mecánica pueden haber sido la base que permitió que volvieran a fabricarse calculadoras astronómicas en la Edad Moderna. En los inicios del Renacimiento esta tecnología se utilizó en Europa para el desarrollo de sofisticados relojes, en la mayoría de los casos destinados a edificios públicos como catedrales. Leonardo da Vinci, muerto en Francia en 1519, dejó numerosos dibujos y esquemas de algunos de los mecanismos utilizados hoy diariamente, incluido varios tipos de engranajes de tipo helicoidal. Los primeros datos que existen sobre la transmisión de rotación con velocidad angular uniforme por medio de engranajes, corresponden al año 1674, cuando el famoso astrónomo danés Olaf Roemer (1644-1710) propuso la forma o perfil del diente en epicicloide.

64


Robert Willis (1800-1875), considerado uno de los primeros ingenieros mecánicos, fue el que obtuvo la primera aplicación práctica de la epicicloide al emplearla en la construcción de una serie de engranajes intercambiables. De la misma manera, de los primeros matemáticos fue la idea del empleo de la evolvente de círculo en el perfil del diente, pero también se deben a Willis las realizaciones prácticas. A Willis se le debe la creación del odontógrafo, aparato que sirve para el trazado simplificado del perfil del diente de evolvente. Es muy posible que fuera el francés Phillipe de Lahire el primero en concebir el diente de perfil en evolvente en 1695, muy poco tiempo después de que Roemer concibiera el epicicloidal. La primera aplicación práctica del diente en evolvente fue debida al suizo Leonhard Euler (1707). En 1856, Christian Schiele descubrió el sistema de fresado de engranajes rectos por medio de la fresa madre, pero el procedimiento no se llevaría a la práctica hasta 1887, a base de la patente Grant. En 1874, el norteamericano William Gleason inventó la primera fresadora de engranajes cónicos y gracias a la acción de sus hijos, especialmente su hija Kate Gleason (1865-1933), convirtió a su empresa Gleason Works, radicada en Rochester (Nueva York, EEUU) en una de los fabricantes de máquinas herramientas más importantes del mundo. En 1897, el inventor alemán Robert Hermann Pfauter (1854-1914), inventó y patentó una máquina universal de dentar engranajes rectos y helicoidales por fresa madre. A raíz de este invento y otras muchos inventos y aplicaciones que realizó sobre el mecanizado de engranajes, fundó la empresa Pfauter Company que, con el paso del tiempo, se ha convertido en una multinacional fabricante de todo tipo de máquinas-herramientas. En 1906, el ingeniero y empresario alemán Friedrich Wilhelm Lorenz (1842-1924) se especializó en crear maquinaria y equipos de mecanizado de engranajes y en 1906 fabricó una talladora de engranajes capaz de mecanizar los dientes de una rueda de 6 m de diámetro, módulo 100 y una longitud del dentado de 1,5 m. A finales del siglo XIX, coincidiendo con la época dorada del desarrollo de los engranajes, el inventor y fundador de la empresa Fellows Gear Shaper Company, Edwin R. Fellows (1846-1945), inventó un método revolucionario para mecanizar tornillos sin fin glóbicos tales como los que se montaban en las cajas de dirección de los vehículos antes de que fuesen hidráulicas. En 1905, M. Chambon, de Lyon (Francia), fue el creador de la máquina para el dentado de engranajes cónicos por procedimiento de fresa madre. Aproximadamente por esas fechas André Citroën inventó los engranajes helicoidales dobles. Tipos de engranajes La principal clasificación de los engranajes se efectúa según la disposición de sus ejes de rotación y según los tipos de dentado. Según estos criterios existen los siguientes tipos de engranajes: • Ejes paralelos • Engranajes especiales. • Cilíndricos de dientes rectos • Cilíndricos de dientes • Helicoidales • Doble helicoidales • Ejes perpendiculares • Helicoidales cruzados • Cónicos de dientes • Rectos • Cónicos de dientes • Cónicos hipoides • De rueda y tornillo sin fin

65


Por aplicaciones especiales se pueden citar: • Planetarios • Interiores • De cremallera Por la forma de transmitir el movimiento se pueden citar: • Transmisión simple • Transmisión con engranaje Transmisión compuesta. • Transmisión mediante cadena o polea dentada Mecanismo piñón cadena • Polea dentada Eficiencia de los reductores de velocidad En el caso de Winsmith oscila entre el 80 % y el 90 %, en los helicoidales de Brook Hansen y Stöber entre un 95 % y un 98 %, y en los planetarios alrededor del 98 %. Aplicaciones de los engranajes Existe una gran variedad de formas y tamaños de engranajes, desde los más pequeños usados en relojería e instrumentos científicos (se alcanza el módulo 0,05) a los de grandes dimensiones, empleados, por ejemplo, en las reducciones de velocidad de las turbinas de vapor de los buques, en el accionamiento de los hornos y molinos de las fábricas de cemento, etc. El campo de aplicación de los engranajes es prácticamente ilimitado. Los encontramos en las centrales de producción de energía eléctrica, hidroeléctrica y en los elementos de transporte terrestre: locomotoras, automotores, camiones, automóviles, transporte marítimo en buques de todas clases, aviones, en la industria siderúrgica: laminadores, transportadores, etc., minas y astilleros, fábricas de cemento, grúas, montacargas, máquinas-herramientas, maquinaria textil, de alimentación, de vestir y calzar, industria química y farmacéutica, etc., hasta los más simples movimientos de accionamiento manual. Toda esta gran variedad de aplicaciones del engranaje puede decirse que tiene por única finalidad la transmisión de la rotación o giro de un eje a otro distinto, reduciendo o aumentando la velocidad del primero. Incluso, algunos engranes coloridos y hechos de plástico son usados en algunos juguetes educativos.

POLEAS Una polea es una máquina simple, un dispositivo mecánico de tracción, que sirve para transmitir una fuerza. Consiste en una rueda con un canal en su periferia, por el cual pasa una cuerda que gira sobre un eje central. Además, formando conjuntos aparejos o polipastos sirve para reducir la magnitud de la fuerza necesaria para mover un peso. Según la definición de Hatón de la Goupillière, la polea es el punto de apoyo de una cuerda que moviéndose se arrolla sobre ella sin dar una vuelta completa actuando en uno de sus extremos la resistencia y en otro la potencia. Historia La única nota histórica sobre su uso se debe a Plutarco, quien en su obra Vidas Paralelas (c. 100 a. C.) relata que Arquímedes, en carta al rey Hierón de Siracusa, a quien le unía gran amistad, afirmó que con una fuerza dada podía mover cualquier peso e incluso se jactó de que si existiera otra Tierra, yendo a ella podría mover ésta. Hierón, asombrado, solicitó a Arquímedes que realizara una demostración. Acordaron que el objeto a mover fuera un barco de la armada del rey, ya que Hierón creía que este no podría sacarse de la dársena y llevarse a dique seco sin el empleo de un gran esfuerzo y numerosos hombres. Según relata Plutarco, tras cargar el barco con muchos pasajeros y con las bodegas repletas, Arquímedes se sentó a cierta distancia y tirando de la cuerda alzó sin gran esfuerzo el barco, sacándolo del agua tan derecho y estable como si aún permaneciera en el mar.

66


Partes de la polea Está compuesta por tres partes: 1. La llanta: Es una zona exterior de la polea y su constitución es esencial, ya que se adaptará a la forma de la correa que alberga. 2. El cuerpo: Las poleas están formadas por una pieza maciza cuando sean de pequeño tamaño. Cuando sus dimensiones aumentan, irán provistas de nervios y/o brazos que generen la polea, uniendo el cubo con la llanta. 3. El cubo: Es el agujero cónico y cilíndrico que sirve para acoplar al eje. En la actualidad se emplean mucho los acoplamientos cónicos en las poleas, ya que resulta muy cómodo su montaje. Designación y tipos Los elementos constitutivos de una polea son la rueda o polea propiamente dicha, en cuya circunferencia (llanta) suele haber una acanaladura denominada "garganta" o "cajera" cuya forma se ajusta a la de la cuerda a fin de guiarla; las "armas", armadura en forma de U invertida o rectangular que la rodea completamente y en cuyo extremo superior monta un gancho por el que se suspende el conjunto, y el "eje", que puede ser fijo si está unido a las armas estando la polea atravesada por él ("poleas de ojo"), o móvil si es solidario a la polea ("poleas de eje"). Cuando, formando parte de un sistema de transmisión, la polea gira libremente sobre su eje, se denomina "loca". Según su desplazamiento las poleas se clasifican en "fijas", aquellas cuyas armas se suspenden de un punto fijo (la estructura del edificio) y, por lo tanto, no sufren movimiento de traslación alguno cuando se emplean, y "móviles", que son aquellas en las que un extremo de la cuerda se suspende de un punto fijo y que durante su funcionamiento se desplazan, en general, verticalmente. Cuando la polea obra independientemente se denomina «simple», mientras que cuando se encuentra reunida con otras formando un sistema recibe la denominación de «combinada» o «compuesta». Poleas compuestas Existen sistemas múltiples de poleas que pretenden obtener una gran ventaja mecánica, es decir, elevar grandes pesos con un bajo esfuerzo. Estos sistemas de poleas son diversos, aunque tienen algo en común, en cualquier caso, se agrupan en grupos de poleas fijas y móviles: destacan los polipastos: Polipastos o aparejos El polipasto (del latín polyspaston, y este del griego πολύσπαστον), es la configuración más común de polea compuesta. En un polipasto, las poleas se distribuyen en dos grupos, uno fijo y uno móvil. En cada grupo se instala un número arbitrario de poleas. La carga se une al grupo móvil.

TENSIÓN MECÁNICA En física e ingeniería, se denomina tensión mecánica a la magnitud física que representa la fuerza por unidad de área en el entorno de un punto material sobre una superficie real o imaginaria de un medio continuo. Es decir, posee unidades físicas de presión. La definición anterior se aplica tanto a fuerzas localizadas como fuerzas distribuidas, uniformemente o no, que actúan sobre una superficie. Con el objeto de explicar cómo se transmiten a través de los sólidos las fuerzas externas aplicadas, es necesario introducir el concepto de tensión, siendo este el concepto físico más relevante de la mecánica de los medios continuos, y de la teoría de la elasticidad en particular. Si se considera un cuerpo sometido a un sistema de fuerzas y momentos de fuerza, se puede observar la acción de las tensiones mecánicas si se imagina un corte mediante un plano imaginario π que divida el cuerpo en dos partes. Para que cada parte estuviera en equilibrio mecánico, sobre la superficie de corte de cada una de las partes debería restablecerse la interacción que ejercía la otra parte del cuerpo. Así, sobre cada elemento de la superficie (dS), debe actuar una fuerza elemental (dF), a partir de la cual se define un vector tensión (tπ) como el resultado de dividir dicha fuerza elemental entre la superficie del elemento.

67


La tensión mecánica se expresa en unidades de presión, es decir, fuerza dividida entre área. En el Sistema Internacional, la unidad de la tensión mecánica es el pascal (1 Pa = 1 N/m²). No obstante, en ingeniería también es usual expresar otras unidades como kg/cm² o kg/mm², donde «kg» se refiere a kilopondio o kilogramo-fuerza, no a la unidad de masa kilogramo. Tensión normal y tensión tangencial Si consideramos un punto concreto de un sólido deformable sometido a tensión y se escoge un corte mediante un plano imaginario π que lo divida al sólido en dos, queda definido un vector tensión tπ que depende del estado tensional interno del cuerpo, de las coordenadas del punto escogido y del vector unitario normal nπ al plano π definida mediante el tensor tensión:

Usualmente ese vector puede descomponerse en dos componentes que físicamente producen efectos diferentes según el material sea más dúctil o más frágil. Esas dos componentes se llaman componentes intrínsecas del vector tensión respecto al plano π y se llaman tensión normal o perpendicular al plano y tensión tangencial o rasante al plano, estas componentes vienen dadas por:

Análogamente cuando existen dos sólidos en contacto y se examinan las tensiones entre dos puntos de los dos sólidos, se puede hacer la descomposición anterior de la tensión de contacto según el plano tangente a las superficies de ambos sólidos, en ese caso la tensión normal tiene que ver con la presión perpendicular a la superficie y la tensión tangencial tiene que ver con las fuerzas de fricción entre ambos. Tensión Uniaxial (problema unidimensional) Un caso particular es el de tensión uniaxial, que se define en una situación en que se aplica fuerza F uniformemente distribuida sobre un área A. En ese caso la tensión mecánica uniaxial se representa por un escalar designado con la letra griega σ (sigma) y viene dada por:

El concepto de esfuerzo longitudinal parte en dos observaciones simples sobre el comportamiento de cables sometidos a tensión: Cuando un cable con elasticidad lineal se estira bajo la acción de una fuerza F, se observa que el alargamiento unitario ΔL/L es proporcional a la carga F dividida por el área de la sección transversal A del cable, esto es, al esfuerzo, de modo que podemos escribir donde E es una característica del material del cable llamado módulo de Young.

El fallo resistente o ruptura del cable ocurre cuando la carga F superaba un cierto valor Frupt que depende del material del cable y del área de su sección transversal. De este modo queda definido el esfuerzo de ruptura.

68


Estas observaciones ponen de manifiesto que la característica fundamental que afecta a la deformación y al fallo resistente de los materiales es la magnitud σ, llamada esfuerzo o tensión mecánica. Medidas más precisas ponen de manifiesto que la proporcionalidad entre el esfuerzo y el alargamiento no es exacta porque durante el estiramiento del cable la sección transversal del mismo experimenta un estrechamiento, por lo que A disminuye ligeramente. Sin embargo, si se define la tensión real σ = F/A' donde A' representa ahora el área verdadera bajo carga, entonces se observa una proporcionalidad correcta para valores pequeños de F.

TORSIÓN MECÁNICA Barra de sección no circular sometida a torsión, al no ser la sección transversal circular necesariamente se produce alabeo seccional.

Viga circular bajo torsión

En ingeniería, torsión es la solicitación que se presenta cuando se aplica un momento sobre el eje longitudinal de un elemento constructivo o prisma mecánico, como pueden ser ejes o, en general, elementos donde una dimensión predomina sobre las otras dos, aunque es posible encontrarla en situaciones diversas. La torsión se caracteriza geométricamente porque cualquier curva paralela al eje de la pieza deja de estar contenida en el plano formado inicialmente por las dos curvas. En lugar de eso una curva paralela al eje se retuerce alrededor de él (ver torsión geométrica). El estudio general de la torsión es complicado porque bajo ese tipo de solicitación la sección transversal de una pieza en general se caracteriza por dos fenómenos: Aparecen tensiones tangenciales paralelas a la sección transversal. Si estas se representan por un campo vectorial sus líneas de flujo "circulan" alrededor de la sección. Cuando las tensiones anteriores no están distribuidas adecuadamente, cosa que sucede siempre a menos que la sección tenga simetría circular, aparecen alabeos seccionales que hacen que las secciones transversales deformadas no sean planas. El alabeo de la sección complica el cálculo de tensiones y deformaciones, y hace que el momento torsor pueda descomponerse en una parte asociada a torsión alabeada y una parte asociada a la llamada torsión de Saint-Venant. En función de la forma de la sección y la forma del alabeo, pueden usarse diversas aproximaciones más simples que el caso general.

69


Torsión general: Dominios de torsión En el caso general se puede demostrar que el giro relativo de una sección no es constante y no coincide tampoco con la función de alabeo unitario. A partir del caso general, y definiendo la esbeltez torsional como:

Donde G, E son respectivamente el módulo de elasticidad transversal y el módulo elasticidad longitudinal, J, Iω son el módulo torsional y el momento de alabeo y L es la longitud de la barra recta. Podemos clasificar los diversos casos de torsión general dentro de límites donde resulten adecuadas las teorías aproximadas expuestas a continuación. De acuerdo con Kollbruner y Basler:

El cálculo exacto de la torsión en el caso general puede llevarse a cabo mediante métodos variacionales o usando un lagrangiano basado en la energía de deformación. El caso de la torsión alabeada mixta sólo puede ser tratado la teoría general de torsión. En cambio, la torsión de SaintVenant y la torsión alabeada puras admiten algunas simplifaciones útiles. Torsión de Saint-Venant pura La teoría de la torsión de Saint-Venant es aplicable a piezas prismáticas de gran inercia torsional con cualquier forma de sección, en esta simplificación se asume que el llamado momento de alabeo es nulo, lo cual no significa que el alabeo seccional también lo sea. La teoría de torsión de Saint-Venant da buenas aproximaciones para valores {\displaystyle\lambda _{T}>10}, esto suele cumplirse en: • Secciones macizas de gran inercia torsional (circulares o de otra forma). • Secciones tubulares cerradas de pared delgada. • Secciones multicelulares de pared delgada. Para secciones no circulares y sin simetría de revolución la teoría de Sant-Venant además de un giro relativo de la sección transversal respecto al eje baricéntrico predice un alabeo seccional o curvatura de la sección transversal. La teoría de Coulomb de hecho es un caso particular en el que el alabeo es cero, y por tanto sólo existe giro. .

PRESIÓN Distribución de presiones sobre un cilindro que se mueve a velocidad constante en el seno de un fluido ideal

70


Esquema; se representa cada "elemento" con una fuerza dP y un área dS

Animación: efecto de la presión en el volumen de un gas

La presión (símbolo p) es una magnitud física que mide la proyección de la fuerza en dirección perpendicular por unidad de superficie, y sirve para caracterizar cómo se aplica una determinada fuerza resultante sobre una línea. En el Sistema Internacional de Unidades la presión se mide en una unidad derivada que se denomina pascal (Pa), que es equivalente a una fuerza total de un newton (N) actuando uniformemente en un metro cuadrado (m²).En el sistema anglosajón la presión se mide en libra por pulgada cuadrada (pound per square inch o psi), que es equivalente a una fuerza total de una libra actuando en una pulgada cuadrada. Definición La presión es la magnitud escalar que relaciona la fuerza con la superficie sobre la cual actúa; es decir, equivale a la fuerza que actúa sobre la superficie. Cuando sobre una superficie plana de área A se aplica una fuerza normal F de manera uniforme, la presión p viene dada de la siguiente forma:

En un caso general donde la fuerza puede tener cualquier dirección y no estar distribuida uniformemente en cada punto la presión se define como

donde es un vector unitario y normal a la superficie en el punto donde se pretende medir la presión. La definición anterior puede escribirse también como

71


Donde

Presión absoluta y relativa En determinadas aplicaciones la presión se mide, no como la presión absoluta sino como la presión por encima de la presión atmosférica, denominándose presión relativa, presión normal, presión de gauge o presión manométrica. Consecuentemente, la presión absoluta es la presión atmosférica (Pa) más la presión manométrica (Pm) (presión que se mide con el manómetro) { P_{ab}=P_{a}+P_{m}}. Presión hidrostática e hidrodinámica En un fluido en movimiento la presión hidrostática puede diferir de la llamada presión hidrodinámica, por lo que debe especificarse a cuál de las dos se está refiriendo una cierta medida de presión.

PROGRAMACIÓN La programación es el proceso utilizado para idear y ordenar las acciones necesarias para realizar un proyecto, preparar ciertas máquinas o aparatos para que empiecen a funcionar en el momento y en las formas deseadas o elaborar programas para su empleo en computadoras. En la actualidad, la noción de programación se encuentra muy asociada a la creación de aplicaciones informática y videojuegos. Es el proceso por el cual una persona desarrolla un programa valiéndose de una herramienta que le permita escribir el código (el cual puede estar en uno o varios lenguajes, como C++, Java y Python, entre otros) y de otra que sea capaz de “traducirlo” a lo que se conoce como lenguaje de máquina, que puede comprender el microprocesador. Historia Para crear un programa, y que la computadora lo interprete y ejecute las instrucciones escritas en él, debe escribirse en un lenguaje de programación. En sus comienzos las computadoras interpretaban solo instrucciones en un lenguaje específico, del más bajo nivel, conocido como código máquina, siendo este excesivamente complicado para programar. De hecho, solo consiste en cadenas de números 1 y 0 (sistema binario). Para facilitar el trabajo de programación, los primeros científicos, que trabajaban en el área, decidieron reemplazar las instrucciones, secuencias de unos y ceros, por palabras o abreviaturas provenientes del inglés; las codificaron y crearon así un lenguaje de mayor nivel, que se conoce como Assembly o lenguaje ensamblador. Por ejemplo, para sumar se podría usar la letra A de la palabra inglesa add (sumar). En realidad, escribir en lenguaje ensamblador es básicamente lo mismo que hacerlo en lenguaje máquina, pero las letras y palabras son bastante más fáciles de recordar y entender que secuencias de números binarios y naturales. A medida que la complejidad de las tareas que realizaban las computadoras aumentaba, se hizo necesario disponer de un método sencillo para programar. Entonces, se crearon los lenguajes de alto nivel. Mientras que una tarea tan trivial como multiplicar dos números puede necesitar un conjunto de instrucciones en lenguaje ensamblador, en un lenguaje de alto nivel bastará con solo una. Una vez que se termina de escribir un programa, sea en ensamblador o en algunos lenguajes de alto nivel, es necesario compilarlo, es decir, traducirlo completo a lenguaje máquina. Eventualmente será necesaria otra fase denominada comúnmente link o enlace, durante la cual se anexan al código, generado durante la compilación, los recursos necesarios de alguna biblioteca. En algunos lenguajes de programación,

72


puede no ser requerido el proceso de compilación y enlace, ya que pueden trabajar en modo intérprete. Esta modalidad de trabajo es equivalente pero se realiza instrucción por instrucción, a medida que es ejecutado el programa. Léxico y programación La programación se rige por reglas y un conjunto más o menos reducido de órdenes, expresiones, instrucciones y comandos que tienden a asemejarse a una lengua natural acotada (en inglés); y que además tienen la particularidad de una reducida ambigüedad. Cuanto menos ambiguo es un lenguaje de programación, se dice, es más potente. Bajo esta premisa, y en el extremo, el lenguaje más potente existente es el binario, con ambigüedad nula (lo cual lleva a pensar así del lenguaje ensamblador). En los lenguajes de programación de alto nivel se distinguen diversos elementos entre los que se incluyen el léxico propio del lenguaje y las reglas semánticas y sintácticas. Programas y algoritmos Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que han de seguirse para resolver un problema. Un programa normalmente implementa (traduce a un lenguaje de programación concreto) uno o más algoritmos. Un algoritmo puede expresarse de distintas maneras: en forma gráfica, como un diagrama de flujo, en forma de código como en pseudocódigo o un lenguaje de programación, en forma explicativa. Los programas suelen subdividirse en partes menores, llamadas módulos, de modo que la complejidad algorítmica de cada una de las partes sea menor que la del programa completo, lo cual ayuda al desarrollo del programa. Esta es una práctica muy utilizada y se conoce como "refino progresivo". Según Niklaus Wirth, un programa está formado por los algoritmos y la estructura de datos. La programación puede seguir muchos enfoques, o paradigmas, es decir, diversas maneras de formular la resolución de un problema dado. Algunos de los principales paradigmas de la programación son: • Programación declarativa • Programación estructurada • Programación modular • Programación orientada a objetos Compilación El programa escrito en un lenguaje de programación de alto nivel (fácilmente comprensible por el programador) es llamado programa fuente y no se puede ejecutar directamente en una computadora. La opción más común es compilar el programa obteniendo un módulo objeto, aunque también puede ejecutarse en forma más directa a través de un intérprete informático. El código fuente del programa se debe someter a un proceso de traducción para convertirlo a lenguaje máquina o bien a un código intermedio, generando así un módulo denominado "objeto". A este proceso se le llama compilación. Habitualmente la creación de un programa ejecutable (un típico.exe para Microsoft Windows o DOS) conlleva dos pasos. El primer paso se llama compilación (propiamente dicho) y traduce el código fuente escrito en un lenguaje de programación almacenado en un archivo de texto a código en bajo nivel (normalmente en código objeto, no directamente a lenguaje máquina). El segundo paso se llama enlazado en el cual se enlaza el código de bajo nivel generado de todos los ficheros y subprogramas que se han mandado compilar y se añade el código de las funciones que hay en las bibliotecas del compilador para que el ejecutable pueda comunicarse directamente con el sistema operativo, traduciendo así finalmente el código objeto a código máquina, y generando un módulo ejecutable.

73


Estos dos pasos se pueden hacer por separado, almacenando el resultado de la fase de compilación en archivos objetos (un típico .o para Unix, .obj para MS-Windows, DOS); para enlazarlos en fases posteriores, o crear directamente el ejecutable; con lo que la fase de compilación puede almacenarse solo de forma temporal. Un programa podría tener partes escritas en varios lenguajes, por ejemplo, Java, C, C++ y ensamblador, que se podrían compilar de forma independiente y luego enlazar juntas para formar un único módulo ejecutable.

CIRCUITO EN PARALELO Un circuito paralelo es una conexión de dispositivos (generadores, resistencias, condensadores, bobinas, etc.) en la que los bornes o terminales de entrada de todos los dispositivos conectados coinciden entre sí, al igual que sus terminales de salida. Siguiendo un símil hidráulico, dos depósitos de agua conectados en paralelo tendrán una entrada común que alimentará, así como una salida común que drenará ambos a la vez. En las viviendas todas las cargas se conectan en paralelo para así tener la misma tensión. Análisis En función de los dispositivos conectados en paralelo, el valor total o equivalente se obtiene con las siguientes expresiones: Para generadores:

También Para Resistencias:

74


Para Condensadores:

Para Interruptores:

Circuito en serie Un circuito en serie es una configuración de conexión en la que los bornes o terminales de los dispositivos (generadores, resistencias, condensadores, inductores, interruptores, entre otros) se conectan sucesivamente, es decir, el terminal de salida de un dispositivo se conecta a la terminal de entrada del dispositivo siguiente. Siguiendo un símil hidráulico, dos depósitos de agua se conectarán en serie si la salida del primero se conecta a la entrada del segundo. Una batería eléctrica suele estar formada por varias pilas eléctricas conectadas en serie, para alcanzar así la tensión que se precise. En función de los dispositivos conectados en serie, el valor total o equivalente se obtiene con las siguientes ecuaciones: • Para los generadores (pilas)

Para resistencias

75


Para condensadores:

RELACIONES DE POSICIÓN MECÁNICAS Las relaciones de posición mecánicas incluyen relaciones de posición de empujador de leva, engranaje, bisagra, cremallera y piñón, tornillo y junta universal. • Relaciones de posición de empujador de leva Una relación de posición de empujador de leva es una relación de posición tangente o coincidente. Con ella, se pueden establecer relaciones de posición entre cilindros, planos o puntos y una serie de caras extruidas tangentes, como las que presenta una leva. • Relaciones de posición de engranaje Las relaciones de posición de engranaje obligan a que dos componentes giren en relación mutua sobre los ejes seleccionados. Las selecciones válidas para el eje de rotación de las relaciones de posición de engranaje incluyen aristas lineales, ejes y caras cilíndricas y cónicas. • Relaciones de posición bisagra Una relación de posición de bisagra limita el movimiento entre dos componentes a un grado de libertad de rotación. Tiene el mismo efecto que agregar una relación de posición concéntrica más una relación de posición coincidente. También puede limitar el movimiento angular entre los dos componentes. • Relaciones de posición de cremallera y piñón Con las relaciones de posición de cremallera y piñón, la traslación lineal de un componente (la cremallera) provoca la rotación circular de otro componente (el piñón) y viceversa. Puede establecer relaciones de posición entre dos componentes cualesquiera para que tengan este tipo de movimiento entre sí. No es necesario que los componentes tengan dientes de engranaje. • Relación de posición de tornillo Una relación de posición Tornillo restringe dos componentes para que sean concéntricos y agrega una relación de paso de rosca entre la rotación de un componente y la traslación del otro. La traslación de un componente a lo largo del eje causa rotación del otro componente según la relación de paso de rosca. De manera similar, la rotación de un componente causa la traslación del otro. • Relación de posición de junta universal En una relación de posición de Junta universal, la rotación de un componente (eje de salida) alrededor de su eje se rige por la rotación de otro componente (eje de entrada) alrededor de su correspondiente eje.

76


DINÁMICA La dinámica es la rama de la física que describe la evolución en el tiempo de un sistema físico en relación con los motivos o causas que provocan los cambios de estado físico y/o estado de movimiento. El objetivo de la dinámica es describir los factores capaces de producir alteraciones de un sistema físico, cuantificarlos y plantear ecuaciones de movimiento o ecuaciones de evolución para dicho sistema de operación. El estudio de la dinámica es prominente en los sistemas mecánicos; pero también en la termodinámica y electrodinámica. En este artículo se describen los aspectos principales de la dinámica en sistemas mecánicos, y se reserva para otros artículos el estudio de la dinámica en sistemas no mecánicos, trabajo y energía. En otros ámbitos científicos que dice , como la economía o la biología, también es común hablar de dinámica en un sentido similar al de la física, para referirse a las características de la evolución a lo largo del tiempo del estado de un determinado sistema. Historia Una de las primeras reflexiones sobre las causas de movimiento es la debida al filósofo griego Aristóteles; el cual definió el movimiento, lo dinámico, como: La realización acto, de una capacidad o posibilidad de ser potencia, en tanto que se está actualizando. Por otra parte, a diferencia del enfoque actual, Aristóteles invierte el estudio de la cinemática y dinámica, estudiando primero las causas del movimiento y después el movimiento de los cuerpos. Este enfoque dificultó el avance en el conocimiento del fenómeno del movimiento hasta, en primera instancia, San Alberto Magno, que fue quien hizo notar esta dificultad, y en última instancia hasta Galileo Galilei e Isaac Newton. De hecho, Thomas Bradwardine, en 1328, presentó en su De proportionibus velocitatum in motibus una ley matemática que enlazaba la velocidad con la proporción entre motivos a fuerzas de resistencia; su trabajo influyó la dinámica medieval durante dos siglos, pero, por lo que se ha llamado un accidente matemático en la definición de «acrecentar», su trabajo se descartó y no se le dio reconocimiento histórico en su día. Los experimentos de Galileo sobre cuerpos uniformemente acelerados condujeron a Newton a formular sus leyes fundamentales del movimiento, las cuales presentó en su obra principal Philosophiae Naturalis Principia Mathematica. Los científicos actuales consideran que las leyes que formuló Newton dan las respuestas correctas a la mayor parte de los problemas relativos a los cuerpos en movimiento, pero existen excepciones. En particular, las ecuaciones para describir el movimiento no son adecuadas cuando un cuerpo viaja a altas velocidades con respecto a la velocidad de la luz o cuando los objetos son de tamaño extremadamente pequeños comparables a los tamaños. Cálculo en dinámica En mecánica clásica y mecánica relativista, mediante los conceptos de desplazamiento, velocidad y aceleración es posible describir los movimientos de un cuerpo u objeto sin considerar cómo han sido producidos, disciplina que se conoce con el nombre de cinemática. Por el contrario, la mecánica se ocupa del estudio del movimiento de los cuerpos sometidos a la acción de las fuerzas. En sistemas cuánticos la dinámica requiere un planteamiento diferente debido a las implicaciones del principio de incertidumbre. El cálculo dinámico se basa en el planteamiento de ecuaciones del movimiento y su integración. Para problemas extremadamente sencillos se usan las ecuaciones de la mecánica newtoniana directamente auxiliados de las leyes de conservación. En mecánica clásica y relativista, la ecuación esencial de la dinámica es la segunda ley de Newton (o ley de Newton-Euler) en la forma:

77


Donde F es la sumatoria de las fuerzas y p la cantidad de movimiento. La ecuación anterior es válida para una partícula o un sólido rígido, para un medio continuo puede escribirse una ecuación basada en esta que debe cumplirse localmente. En teoría de la relatividad general no es trivial definir el concepto de fuerza resultante debido a la curvatura del espacio tiempo. En mecánica cuántica no relativista, si el sistema es conservativo la ecuación fundamental es la ecuación de Schrödinger:

LEYES DE CONSERVACIÓN Las leyes de conservación pueden formularse en términos de teoremas que establecen bajo qué condiciones concretas una determinada magnitud "se conserva" (es decir, permanece constante en valor a lo largo del tiempo a medida que el sistema se mueve o cambia con el tiempo). Además de la ley de conservación de la energía las otras leyes de conservación importante toman la forma de teoremas vectoriales. Estos teoremas son: • El teorema de la cantidad de movimiento, que para un sistema de partículas puntuales requiere que las fuerzas de las partículas sólo dependan de la distancia entre ellas y estén dirigidas según la línea que las une. En mecánica de medios continuos y mecánica del sólido rígido pueden formularse teoremas vectoriales de conservación de cantidad de movimiento. • El teorema del momento cinético, establece que bajo condiciones similares al anterior teorema vectorial la suma de momentos de fuerza respecto a un eje es igual a la variación temporal del momento angular. En concreto el lagrangiano del sistema. Estos teoremas establecen bajo qué condiciones la energía, la cantidad de movimiento o el momento cinético son magnitudes conservadas. Estas leyes de conservación en ocasiones permiten encontrar de manera más simple la evolución del estado físico de un sistema, frecuentemente sin necesidad de integrar directamente las ecuaciones diferenciales del movimiento.

ACELERACIÓN En física, la aceleración es una magnitud derivada vectorial que nos indica la variación de velocidad por unidad de tiempo. Según la mecánica newtoniana, una partícula no puede seguir una trayectoria curva a menos que sobre ella actúe una cierta aceleración como consecuencia de la acción de una fuerza, ya que, si esta no existiese, su movimiento sería rectilíneo. Asimismo, una partícula en movimiento rectilíneo solo puede cambiar su velocidad bajo la acción de una aceleración en la misma dirección de su velocidad (dirigida en el mismo sentido si acelera; o en sentido contrario si desacelera). En mecánica clásica se define la aceleración como la variación de la velocidad respecto al tiempo (común a todos los observadores):

En la mecánica newtoniana, para un cuerpo con masa constante, la aceleración del cuerpo medida por un observador inercial es proporcional a la fuerza que actúa sobre el mismo (segunda ley de Newton):

78


Donde F es la fuerza resultante que actúa sobre el cuerpo, m es la masa del cuerpo, y a es la aceleración. La relación anterior es válida en cualquier sistema de referencia inercial. Algunos ejemplos del concepto de aceleración son: • La llamada aceleración de la gravedad en la Tierra es la aceleración que produce la fuerza gravitatoria terrestre; su valor en la superficie de la Tierra es, aproximadamente, de 9,8 m/s2. Esto quiere decir que si se dejara caer libremente un objeto, aumentaría su velocidad de caída a razón de 9,8 m/s por cada segundo (siempre que omitamos la resistencia aerodinámica del aire). •

Una maniobra de frenada de un vehículo, que se correspondería con una aceleración de signo negativo, o desaceleración, al oponerse a la velocidad que ya tenía el vehículo. Si el vehículo adquiriese más velocidad, a dicho efecto se le llamaría aceleración y, en este caso, sería de signo positivo.

MOVIMIENTO CIRCULAR UNIFORME Un movimiento circular uniforme es aquel en el que la partícula recorre una trayectoria circular de radio R con rapidez constante, es decir, que la distancia recorrida en cada intervalo de tiempo igual es la misma. Para ese tipo de movimiento el vector de velocidad mantiene su módulo y va variando la dirección siguiendo una trayectoria circular. Si se aplican las fórmulas anteriores, se tiene que la aceleración tangencial es nula y la aceleración normal es constante: a esta aceleración normal se la llama "aceleración centrípeta". En este tipo de movimiento la aceleración aplicada al objeto se encarga de modificar la trayectoria del objeto y no en modificar su velocidad.

Movimiento rectilíneo acelerado En el Movimiento Rectilíneo Acelerado, la aceleración instantánea queda representada como la pendiente de la recta tangente a la curva que representa gráficamente la función v(t). Si se aplican las fórmulas anteriores al movimiento rectilíneo, en el que solo existe aceleración tangencial, al estar todos los vectores contenidos en la trayectoria, podemos prescindir de la notación vectorial y escribir simplemente:

RELATIVIDAD ESPECIAL El análogo de la aceleración en mecánica relativista se llama cuadriaceleración y es un cuadrivector cuyas tres componentes espaciales para pequeñas velocidades coinciden con las de la aceleración newtoniana (la componente temporal para pequeñas velocidades resulta proporcional a la potencia de la fuerza dividida por la velocidad de la luz y la masa de la partícula).

Relatividad general En teoría general de la relatividad el caso de la aceleración es más complicado, ya que debido a que el propio espacio-tiempo es curvo (ver curvatura del espacio-tiempo), una partícula sobre la que no actúa ninguna fuerza puede seguir una trayectoria curva, de hecho la línea curva que sigue una partícula sobre la que no actúa ninguna fuerza exterior es una línea geodésica, de hecho en

79


relatividad general la fuerza gravitatoria no se interpreta como una fuerza sino como un efecto de la curvatura del espacio-tiempo que hace que las partículas no trayectorias rectas sino líneas geodéscias.

Historia Aristóteles estudió los fenómenos físicos sin llegar a conceptualizar una noción de velocidad. En efecto, sus explicaciones (que posteriormente se demostrarían incorrectas) solo describían los fenómenos inherentes al movimiento sin usar las matemáticas como herramienta. Fue Galileo Galilei quien, estudiando el movimiento de los cuerpos en un plano inclinado, formuló el concepto de velocidad. Para ello, fijó un patrón de unidad de tiempo, como por ejemplo 1 segundo, y midió la distancia recorrida por un cuerpo en cada unidad de tiempo. De esta manera, Galileo desarrolló el concepto de la velocidad como la distancia recorrida por unidad de tiempo. A pesar del gran avance que representó la introducción de esta nueva noción, sus alcances se limitaban a los alcances mismos de las matemáticas. Por ejemplo, era relativamente sencillo calcular la velocidad de un móvil que se desplazase a velocidad constante, puesto que en cada unidad de tiempo recorre distancias iguales. También lo era calcular la velocidad de un móvil con aceleración constante, como es el caso un cuerpo en caída libre. Sin embargo, cuando la velocidad del objeto variaba de forma más complicada, Galileo no disponía de herramientas matemáticas que le permitiesen determinar la velocidad instantánea de un cuerpo. Fue recién en el siglo XVI, con el desarrollo del cálculo por parte de Isaac Newton y Gottfried Leibniz, cuando se pudo solucionar la cuestión de obtener la velocidad instantánea de un cuerpo. Esta está determinada por la derivada del vector de posición del objeto respecto del tiempo. Las aplicaciones de la velocidad, con el uso de Cálculo, es una herramienta fundamental en Física e Ingeniería, extendiéndose en prácticamente todo fenómeno que implique cambios de posición respecto del tiempo, esto es, que implique movimiento. Un término relacionado con la velocidad es el de celeridad. En el lenguaje cotidiano empleamos frecuentemente el término velocidad para referirnos a la celeridad . En física hacemos una distinción entre ellas, ya que la celeridad es una magnitud escalar que representa el módulo de la velocidad. De manera muy sencilla, si decimos que una partícula se mueve con una velocidad de 10 m/s, nos estamos refiriendo a su celeridad; por el contrario, si además especificamos la dirección en que se mueve, nos estamos refiriendo a su velocidad. Velocidad en mecánica clásica Velocidad media La velocidad media se define como el cambio de posición durante un intervalo de tiempo considerado. Se calcula dividiendo el vector desplazamiento (Δr) entre el escalar tiempo (Δt) empleado en efectuarlo:

De acuerdo con esta definición, la velocidad media es una magnitud vectorial (ya que es el resultado de dividir un vector entre un escalar). Por otra parte, si se considera la distancia recorrida sobre la trayectoria durante un intervalo de tiempo dado, tenemos la velocidad media sobre la trayectoria o celeridad media, la cual es una magnitud escalar. La expresión anterior se escribe en la forma:

80


El módulo del vector velocidad media, en general, es diferente al valor de la velocidad media sobre la trayectoria. Solo serán iguales si la trayectoria es rectilínea y si el móvil solo avanza (en uno u otro sentido) sin retroceder. Por ejemplo, si un objeto recorre una distancia de 10 m sobre la trayectoria en un lapso de 3 s, el módulo de su velocidad media sobre la trayectoria es:

Velocidad instantánea Magnitudes de interés en la cinemática de una partícula de masa m: vector de posición r, velocidad v y aceleración a.

La velocidad instantánea es un vector tangente a la trayectoria, corresponde a la derivada del vector posición respecto al tiempo. Permite conocer la velocidad de un móvil que se desplaza sobre una trayectoria cuando el intervalo de tiempo es infinitamente pequeño, siendo entonces el espacio recorrido también muy pequeño, representando un punto de la trayectoria. La velocidad instantánea es siempre tangente a la trayectoria.

Velocidad promedio La velocidad promedio es el promedio de la magnitud de la velocidad final e inicial concluyendo a la aceleración constante.

La primera ley de Newton (Ley de Inercia) Una de las herramientas fundamentales para comprender nuestro entorno son las leyes de Newton. Estas permitieron dar un paso fundamental en el campo de la Física, explicando las causas del movimiento. En el día de hoy hablaremos sobre la primera ley de Newton, la cual enuncia: • Todo cuerpo permanecerá en reposo o con un movimiento rectilíneo uniforme a no ser que una fuerza actúe sobre él. Esta primera ley resulta intuitiva en el primero de los casos: "todo cuerpo permanecerá en reposo si no actúa una fuerza sobre él". Parece bastante lógico, ¿no? Pero la segunda parte de la afirmación, donde se asevera que continuará moviéndose parece menos evidente.

81


Los cuerpos tienden a mantener su estado Newton no fue el primero en intuir que los cuerpos tendían a mantener su estado si no actúa el entorno, y encontramos precedentes en Leonardo, Galileo, Descartes o Hooke. Si impulsamos un trineo, ¿cuánto tiempo se moverá antes de detenerse? Parece evidente que depende de la superficie sobre la que se mueva. Si la superficie es más lisa, tardará más en detenerse, mientras que si la superficie es más rugosa, tardará menos. Así pues, si se mueve sobre hielo, tardará muchísimo más en detenerse que si rueda sobre gravilla. Imaginad que conseguimos una superficie más lisa que el hielo, de modo que casi eliminemos el rozamiento. ¿Se detendrá entonces en algún momento? Todo parece indicar que sí, pero ¿cuál es la causa? El aire. Cuando vamos en una motocicleta a gran velocidad notamos como el aire nos frena, es por eso que para alcanzar mayores velocidades es conveniente agacharse para adoptar una postura más "aerodinámica". De esa manera reducimos el efecto del rozamiento con el aire. Imaginad ahora que lo eliminamos. Ya no habría nada que nos frenase. La primera ley de Newton nos habla de la tendencia de un cuerpo a mantener su estado de reposo o movimiento y podemos encontrar un ejemplo en este famoso anuncio de coches: ¿Qué es la inercia? Una muestra de la primera ley de Newton es la "inercia" de un cuerpo. Esta inercia da una idea de la dificultad que tiene un cuerpo para cambiar ese estado de reposo o movimiento, y está relacionada con la masa de un cuerpo. Imaginad que tenemos un elefante montado en un monopatín a una velocidad de 20 km/h. Intentad pararlo. Difícil, ¿cierto? El elefante quiere seguir adelante y pobre al que se ponga en su camino. Hay mucha inercia. Volvamos ahora a un coche. Imaginad que vamos en el asiento de atrás en un coche estrecho que toma una curva cerrada a gran velocidad. Y a nuestro lado va Shaquille O'Neal. Si el vehículo toma la curva hacia la izquierda, y tenemos a Shaquille a la izquierda, sentiremos la inercia en nuestros órganos aplastados por esta mole contra la puerta del vehículo. El coche ha girado, pero la inercia de Shaquille hace que intente seguir su movimiento.

GRAVEDAD La gravedad es un fenómeno natural por el cual los objetos con masa son atraídos entre sí, efecto mayormente observable en la interacción entre los planetas, galaxias y demás objetos del universo. Es una de las cuatro interacciones fundamentales que origina la aceleración que experimenta un cuerpo físico en las cercanías de un objeto astronómico. También se denomina interacción gravitatoria o gravitación. Si un cuerpo está situado en las proximidades de un planeta, un observador a una distancia fija del planeta medirá una aceleración del cuerpo dirigida hacia la zona central de dicho planeta, si tal cuerpo no está sometido al efecto de otras fuerzas. La Oficina Internacional de Pesas y Medidas estableció en 1901 una gravedad estándar para la superficie de la Tierra, acorde al Sistema Internacional, con un valor fijo de 9,80665 m/s². La gravedad es una de las cuatro interacciones fundamentales observadas en la naturaleza. Origina los movimientos a gran escala que se observan en el universo: la órbita de la Luna alrededor de la Tierra, las órbitas de los planetas alrededor del Sol, etcétera. A escala cosmológica parece ser la interacción dominante, pues gobierna la mayoría de los fenómenos a gran escala (las otras tres interacciones fundamentales son predominantes a escalas más pequeñas). El electromagnetismo explica el resto de los fenómenos macroscópicos, mientras que la interacción fuerte y la interacción débil son importantes solo a escala subatómica. El término «gravedad» se utiliza para designar la intensidad del fenómeno gravitatorio en la superficie de los planetas o satélites. Isaac Newton fue el primero en exponer que es de la misma naturaleza la fuerza que hace que los objetos caigan con

82


aceleración constante en la Tierra (gravedad terrestre) y la fuerza que mantiene en movimiento los planetas y las estrellas. Esta idea le llevó a formular la primera teoría general de la gravitación, la universalidad del fenómeno, expuesta en su obra Philosophiae Naturalis Principia Mathematica. Einstein, en la teoría de la relatividad general hace un análisis diferente de la interacción gravitatoria. De acuerdo con esta teoría, la gravedad puede entenderse como un efecto geométrico de la materia sobre el espacio-tiempo. Cuando cierta cantidad de materia ocupa una región del espaciotiempo, provoca que este se deforme. Visto así, la fuerza gravitatoria deja de ser una "misteriosa fuerza que atrae", y se convierte en el efecto que produce la deformación del espacio-tiempo de geometría no euclídea sobre el movimiento de los cuerpos. Según esta teoría, dado que todos los objetos se mueven en el espacio-tiempo, al deformarse este, la trayectoria de aquellos será desviada produciendo su aceleración. Mecánica clásica: ley de la gravitación universal de Isaac Newton En la teoría newtoniana de la gravitación, los efectos de la gravedad son siempre atractivos, y la fuerza resultante se calcula respecto del centro de gravedad de ambos objetos (en el caso de la Tierra, el centro de gravedad es su centro de masas, al igual que en la mayoría de los cuerpos celestes de características homogéneas). La gravedad newtoniana tiene un alcance teórico infinito; la fuerza es mayor si los objetos están próximos, pero a mayor distancia dicha fuerza pierde intensidad. Además Newton postuló que la gravedad es una acción a distancia (y por tanto a nivel relativista no es una descripción correcta, sino solo una primera aproximación para cuerpos en movimiento muy lento comparado con la velocidad de la luz). La ley de la gravitación universal formulada por Isaac Newton postula que la fuerza que ejerce una partícula puntual con masa sobre otra con masa es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de la distancia que las separa:

Por ejemplo, usando la ley de la gravitación universal, podemos calcular la fuerza de atracción entre la Tierra y un cuerpo de 50 kg. La masa de la Tierra es 5,974 × 1024 kg y la distancia entre el centro de gravedad de la Tierra (centro de la tierra) y el centro de gravedad del cuerpo es 6378,14 km (igual a 6 378 140 m, y suponiendo que el cuerpo se encuentre sobre la línea del ecuador). Entonces, la fuerza es:

La fuerza con que se atraen la Tierra y el cuerpo de 50 kg es 490.062 N (Newtons, Sistema Internacional de Unidades), lo que representa 50 kgf (kilogramo-fuerza, Sistema Técnico), como cabía esperar, por lo que decimos simplemente que el cuerpo pesa 50 kg. Dentro de esta ley empírica, tenemos estas importantes conclusiones: • Las fuerzas gravitatorias son siempre atractivas. El hecho de que los planetas describan una órbita cerrada alrededor del Sol indica este hecho. Una fuerza atractiva puede producir también órbitas abiertas, pero una fuerza repulsiva nunca podrá producir órbitas cerradas. Tienen alcance infinito. Dos cuerpos, por muy alejados que se encuentren, experimentan esta fuerza. • La fuerza asociada con la interacción gravitatoria es central.

83


• •

A mayor distancia menor fuerza de atracción, y a menor distancia mayor la fuerza de atracción. A pesar de los siglos, hoy sigue utilizándose cotidianamente esta ley en el ámbito del movimiento de cuerpos incluso a la escala del sistema solar, aunque esté desfasada teóricamente. Para estudiar el fenómeno en su completitud hay que recurrir a la teoría de la Relatividad General.

PESO En física moderna, el peso es una medida de la fuerza gravitatoria que actúa sobre un objeto. El peso equivale a la fuerza que ejerce un cuerpo sobre un punto de apoyo, originada por la acción del campo gravitatorio local sobre la masa del cuerpo. Por ser una fuerza, el peso se representa como un vector, definido por su módulo, dirección y sentido, aplicado en el centro de gravedad del cuerpo y dirigido aproximadamente hacia el centro de la Tierra. Por extensión de esta definición, también podemos referirnos al peso de un cuerpo en cualquier otro astro (Luna, Marte, entre otros) en cuyas proximidades se encuentre. La magnitud del peso de un objeto, desde la definición operacional de peso, depende tan solo de la intensidad del campo gravitatorio local y de la masa del cuerpo, en un sentido estricto. Sin embargo, desde un punto de vista legal y práctico, se establece que el peso, cuando el sistema de referencia es la Tierra, comprende no solo la fuerza gravitatoria local, sino también la fuerza centrífuga local debido a la rotación de la Tierra; por el contrario, el empuje atmosférico no se incluye, ni ninguna otra fuerza externa. Diferencia de peso y masa Peso y masa son dos conceptos y magnitudes físicas muy diferentes, aunque aún en estos momentos, en el habla cotidiana, el término “peso” se utiliza a menudo erróneamente como sinónimo de masa, la cual es una magnitud gravitacional. La propia Academia reconoce esta confusión en la definición de «pesar»: “Determinar el peso, o más propiamente, la masa de algo por medio de la balanza o de otro instrumento equivalente”. La masa de un cuerpo es una propiedad intrínseca del mismo, la cantidad de materia, independiente de la intensidad del campo gravitatorio y de cualquier otro efecto. Representa la inercia o resistencia del cuerpo a los cambios de estado de movimiento (aceleración, masa inercial), además de hacerla sensible a los efectos de los campos gravitatorios (masa gravitacional). El peso de un cuerpo, en cambio, no es una propiedad intrínseca del mismo, ya que depende de la intensidad del campo gravitatorio en el lugar del espacio ocupado por el cuerpo. La distinción científica entre “masa” y “peso” no es importante para muchos efectos prácticos porque la fuerza gravitatoria no experimenta grandes cambios en las proximidades de la superficie terrestre. En un campo gravitatorio constante la fuerza que ejerce la gravedad sobre un cuerpo (su peso) es directamente proporcional a su masa. Pero en realidad el campo gravitatorio terrestre no es constante; puede llegar a variar hasta en un 0,5 % entre los distintos lugares de la Tierra, lo que significa que se altera la relación “masa-peso” con la variación de la fuerza de la gravedad. Por el contrario, el peso de un mismo cuerpo experimenta cambios muy significativos al cambiar el objeto masivo que crea el campo gravitatorio. Así, por ejemplo, una persona de 60 kg (6,118 UTM) de masa, pesa 588,60 N (60 kgf) en la superficie de la Tierra. La misma persona, en la superficie de la Luna pesaría tan solo unos 98,05 N (10 kgf); sin embargo, su masa seguirá siendo de 60 kg (6,118 UTM). Nota: En cursiva, Sistema Internacional; (entre paréntesis), Sistema Técnico de Unidades.

84


Bajo la denominación de peso aparente se incluyen otros efectos, además de la fuerza gravitatoria y el efecto centrífugo, como la flotación, el carácter no inercial del sistema de referencia (v.g., un ascensor acelerado), etc. El peso que mide el dinamómetro, es en realidad el peso aparente; el peso real sería el que mediría en el vacío en un referencial inercial. Unidades de peso Como el peso es una fuerza, se mide en unidades de fuerza. Sin embargo, las unidades de peso y masa tienen una larga historia compartida, en parte porque su diferencia no fue bien entendida cuando dichas unidades comenzaron a utilizarse.

SISTEMA INTERNACIONAL DE UNIDADES Este sistema es el prioritario o único legal en la mayor parte de las naciones (excluidas Birmania y los Estados Unidos), por lo que en las publicaciones científicas, en los proyectos técnicos, en las especificaciones de máquinas, etc., las magnitudes físicas se expresan en unidades del Sistema Internacional de Unidades (SI). Así, el peso se expresa en unidades de fuerza del SI, esto es, en newtons (N): 1 N = 1 kg · 1 m/s² Sistema Técnico de Unidades En el Sistema Técnico de Unidades, el peso se mide en kilogramo-fuerza (kgf) o kilopondio (kp), definido como la fuerza ejercida sobre un kilogramo de masa por la aceleración en caída libre (g = 9,80665 m/s²)4 1 kgf = 9,80665 N = 9,80665 kg·m/s² Otros sistemas También se suele indicar el peso en unidades de fuerza de otros sistemas, como la dina, la libra-fuerza, la onza-fuerza, etcétera. La dina es la unidad CGS de fuerza y no forma parte del SI. Algunas unidades inglesas, como la libra, pueden ser de fuerza o de masa. Las unidades relacionadas, como el slug, forman parte de subsistemas de unidades. Cálculo del peso Contribución de las aceleraciones gravitatoria y centrífuga en el peso. El cálculo del peso de un cuerpo a partir de su masa se puede expresar mediante la segunda ley de la dinámica: donde el valor es la aceleración de la gravedad en el lugar en el que se encuentra el cuerpo. En primera aproximación, si consideramos a la Tierra como una esfera homogénea, se puede expresar con la siguiente fórmula:

En realidad, el valor de la aceleración de la gravedad en la Tierra, a nivel del mar, varía entre 9,789 m/s² en el ecuador y 9,832 m/s² en los polos. Se fijó convencionalmente en 9,80665 m/s2 en la tercera Conferencia General de Pesas y Medidas convocada en 1901 por la Oficina Internacional de Pesas y Medidas (Bureau International des Poids et Mesures).5 Como consecuencia, el peso varía en la misma proporción.

MASA En física, masa (del latín massa) es una magnitud física y propiedad fundamental de la materia, que expresa la inercia o resistencia al cambio de movimiento de un cuerpo. De manera más precisa es la

85


propiedad de un cuerpo que determina la aceleración del mismo, cuando este se encuentra bajo la influencia de una fuerza dada. Es una propiedad intrínseca de los cuerpos que determina la medida de la masa inercial y de la masa gravitacional. La unidad utilizada para medir la masa en el Sistema Internacional de Unidades es el kilogramo (kg). No debe confundirse con el peso, que es una magnitud vectorial que representa una fuerza cuya unidad utilizada en el Sistema Internacional de Unidades es el newton (N), si bien a partir del peso de un cuerpo en reposo (atraído por la fuerza de la gravedad), puede conocerse su masa al conocerse el valor de la gravedad. Tampoco se debe confundir masa con la cantidad de sustancia, cuya unidad en el Sistema Internacional de Unidades es el mol. Historia Si bien el concepto de masa de un objeto y el peso son nociones precientíficas, es a partir de las reflexiones de Galileo, René Descartes y muy especialmente a partir de Isaac Newton que surge la noción moderna de masa. Así, el concepto de masa surge de la confluencia de dos leyes: la ley de gravitación universal de Newton y la segunda ley de Newton (o 2.º principio). Según la ley de la gravitación universal, la atracción entre dos cuerpos es proporcional al producto de dos constantes, denominadas masa gravitacional una de cada uno de ellos, siendo así la masa gravitatoria una propiedad de la materia en virtud de la cual dos cuerpos se atraen; por la 2ª ley de Newton, la fuerza aplicada sobre un cuerpo es directamente proporcional a la aceleración que experimenta, denominándose a la constante de proporcionalidad: masa inercial de un cuerpo. Para Einstein la gravedad es una consecuencia de la geometría del espacio-tiempo: una curvatura de la geometría del espacio-tiempo por efecto de la masa de los cuerpos. Ni para Newton ni para otros físicos anteriores a Einstein, era obvio que la masa inercial y la masa gravitatoria coincidieran. József Eötvös llevó a cabo experimentos muy cuidadosos para detectar si existía diferencia entre ambos, pero ambas parecían coincidir con alta precisión y posiblemente serían iguales. De hecho, todos los experimentos muestran resultados compatibles con la igualdad de ambas. Para la física clásica prerrelativista esta identidad era accidental. Ya Newton, para quien peso e inercia eran propiedades independientes de la materia, propuso que ambas cualidades son proporcionales a la cantidad de materia, a la cual denominó "masa". Sin embargo, para Einstein, la coincidencia de masa inercial y masa gravitacional fue un dato crucial y uno de los puntos de partida para su teoría de la relatividad y, por tanto, para poder comprender mejor el comportamiento de la naturaleza. Según Einstein, esa identidad significa que: «la misma cualidad de un cuerpo se manifiesta, de acuerdo con las circunstancias, como inercia o como el peso». Esto llevó a Einstein a enunciar el principio de equivalencia: «las leyes de la naturaleza deben expresarse de modo que sea imposible distinguir entre un campo gravitatorio uniforme y un sistema referencial acelerado.» Así pues, «masa inercial» y «masa gravitatoria» son indistinguibles y, consecuentemente, cabe un único concepto de «masa» como sinónimo de «cantidad de materia», según formuló Newton. En palabras de D. M. McMaster: «la masa es la expresión de la cantidad de materia de un cuerpo, revelada por su peso, o por la cantidad de fuerza necesaria para producir en un cuerpo cierta cantidad de movimiento en un tiempo dado». En la física clásica, la masa es una constante de un cuerpo. En física relativista, la masa aparente es función de la velocidad que el cuerpo posee respecto al observador (de hecho, en relatividad se abona la idea fundamental de definir la masa "verdadera" como el valor de la fuerza entre la aceleración experimentada, ya que este cociente depende de la velocidad). Además, la física

86


relativista demostró la relación de la masa con la energía, quedando probada en las reacciones nucleares; por ejemplo, en la explosión de una bomba atómica queda que la masa no se conserva estrictamente, como sucedía con la masa mecánica de la física prerrelativista. Masa inercial La masa inercial para la física clásica viene determinada por la segunda y tercera ley de newton. Dados dos cuerpos, A y B, con masas inerciales mA (conocida) y mB (que se desea determinar), en la hipótesis dice que las masas deben ser constantes y que ambos cuerpos están aislados de otras influencias físicas, de forma que la única fuerza presente sobre A es la que ejerce B, denominada FAB, y la única fuerza presente sobre B es la que ejerce A, denominada FBA, de acuerdo con la segunda ley de Newton:

Masa gravitacional Considérense dos cuerpos A y B con masas gravitacionales MA y MB, separados por una distancia |rAB|. La ley de la gravitación de Newton dice que la magnitud de la fuerza gravitatoria que cada cuerpo ejerce sobre el otro es

Donde G es la constante de gravitación universal. La sentencia anterior se puede reformular de la siguiente manera: dada la aceleración g de una masa de referencia en un campo gravitacional (como el campo gravitatorio de la Tierra), la fuerza de la gravedad en un objeto con masa gravitacional M es de la magnitud

Equivalencia de la masa inercial y la masa gravitatoria Se demuestra experimentalmente que la masa inercial y la masa gravitacional son iguales —con un grado de precisión muy alto—. Estos experimentos son esencialmente pruebas del fenómeno ya observado por Galileo de que los objetos caen con una aceleración independiente de sus masas (en ausencia de factores externos como el rozamiento). Supóngase un objeto con masas inercial y gravitacional m y M, respectivamente. Si la gravedad es la única fuerza que actúa sobre el cuerpo, la combinación de la segunda ley de Newton y la ley de la gravedad proporciona su aceleración como:

Volumen El volumen es una magnitud métrica de tipo escalar definida como la extensión en tres dimensiones de una región del espacio. Es una magnitud derivada de la longitud, ya que en un ortoedro se halla multiplicando tres longitudes: el largo, el ancho y la altura. Matemáticamente el volumen es definible no sólo en cualquier espacio euclídeo, sino también en otro tipo de espacios métricos que incluyen por ejemplo a las variedades de Riemann. Desde un punto de vista físico, los cuerpos materiales ocupan un volumen por el hecho de ser extensos, fenómeno que se debe al principio de exclusión de Pauli. La noción de volumen es más complicada que la de superficie y en su uso formal puede dar lugar a la llamada paradoja de Banach-Tarski.

87


La unidad de medida de volumen en el Sistema Internacional de Unidades es el metro cúbico. En el sistema métrico decimal, una unidad de volumen para sólidos era el estéreo, igual al metro cúbico, pero actualmente poco usada. En ese mismo sistema, para medir la capacidad de líquidos, se creó el litro, que es aceptado por el SI. Por razones históricas, existen unidades separadas para ambas, sin embargo, están relacionadas por la equivalencia entre el litro y el decímetro cúbico: 1 dm3 = 1 litro = 0,001 m3 = 1000 cm3. Unidades de volumen Existen multitud de unidades de volumen escalar, que se utilizan dependiendo del contexto o de la finalidad de la medición. En los ámbitos académicos o técnicos se suelen emplear el metro y sus derivados. Para expresar el volumen de sustancias líquidas o gaseosas, e incluso para mercancías a granel, se suele recurrir a la capacidad del recipiente que lo contiene, medida en litros y sus derivados. En ocasiones, cuando la densidad del material es constante y conocida, se pueden expresar las cantidades por su equivalente en peso en lugar de en volumen. Muchas de las unidades de volumen existentes se han empleado históricamente para el comercio de mercancías o para el uso diario. Aun compartiendo el mismo nombre, muchas unidades varían significativamente de una región a otra. Sistema anglosajón de medidas Las unidades de volumen en el sistema anglosajón de unidades se derivan de las respectivas unidades de longitud, como la pulgada cúbica, el pie cúbico, la yarda cúbica, el acre-pie o la milla cúbica. Para medir el volumen de líquidos, las unidades de capacidad más extendidas son el barril, el galón y la pinta, y en menor medida la onza líquida, el cuarto, el gill, el mínimo, el escrúpulo líquido. Otras unidades de volumen A lo largo de la historia, se han utilizado diferentes unidades de volumen que varían de una cultura a otra. En general, en casi todas ellas existían dos tipos de medida de volumen: para líquidos y para sólidos. Incluso el sistema métrico decimal original las definió como unidades diferentes: el litro (igual a 1 dm3) para líquidos y el estéreo (igual a 1 m3) para sólidos. Físicamente son equivalentes y actualmente no se establecen diferencias, pero antiguamente la medida, como concepto, estaba indisociablemente unida al método para llevarla a cabo (el diccionario académico recogió hasta 1956 ‘lo que sirve para medir’ como una acepción de medida): así, el volumen se basaba en tomar las medidas longitudinales del cuerpo sólido y luego operar, mientras que la capacidad se basaba en lo que podían contener recipientes de determinados tamaños. En la Grecia Antigua se utilizaban el dracma líquido o la metreta. En la antigua Roma se utilizaban medidas como el ánfora, el sextario o la hemina. En el antiguo Egipto la medida más utilizada era el heqat. En Castilla,3 se usaban unidades tradicionales como la arroba, la cántara, el celemín o la fanega, algunas de las cuales permanecen en uso hoy en día. En el ámbito culinario, especialmente en los países anglosajones y los que están bajo su influencia, es habitual utilizar medidas de volumen dependientes de los distintos recipientes de uso frecuente, pero sin una definición precisa, como la cucharada, la cucharadita o la taza. Esta costumbre proviene de la falta de medidores de peso (balanzas) de suficiente precisión, tales como las que ahora existen. En medicina y en enfermería el volumen de una gota está definido con un diámetro estandarizado (1 mililitro son aproximadamente 20 gotas), pero no así en farmacia, pues dependiendo del diámetro del dosificador de un medicamento la equivalencia puede estar entre 15 a 40 gotas por mililitro.

88


DENSIDAD En física y química, la densidad (del latín densĭtas, -ātis) es una magnitud escalar referida a la cantidad de masa en un determinado volumen de una sustancia o un objeto sólido. Usualmente se simboliza mediante la letra rho ρ del alfabeto griego. La densidad media es la relación entre la masa de un cuerpo y el volumen que ocupa en el espacio exterior.

Si un cuerpo no tiene una distribución uniforme de la masa en todos sus puntos, la densidad alrededor de un punto dado puede diferir de la densidad media.

Historia Según una historia popular, Arquímedes recibió el encargo de determinar si el orfebre de Hierón II de Siracusa desfalcaba el oro durante la fabricación de una corona dedicada a los dioses, sustituyéndolo por otro metal más barato (proceso conocido como aleación). Arquímedes sabía que la corona, de forma irregular, podría ser aplastada o fundida en un cubo cuyo volumen se podía calcular fácilmente comparado con la masa. Pero el rey no estaba de acuerdo con estos métodos, pues habrían supuesto la destrucción de la corona del rey. Arquímedes se dio un relajante baño de inmersión, y observando la subida del agua caliente cuando él entraba en ella, descubrió que podía calcular el volumen de la corona de oro mediante el desplazamiento del agua. Hallado el volumen, se podía multiplicar por la densidad del oro hallando el peso que debería tener si fuera de oro puro (la densidad del oro es muy alta, 19 300 kg/m³, y cualquier otro metal, aleado con él, la tiene menor), luego si el peso no fuera el que correspondería si fuera de oro, significaría que la corona tendría aleación de otro metal. Supuestamente, al hacer este descubrimiento salió corriendo desnudo por las calles gritando: «¡Eureka! ¡Eureka!» (Εύρηκα! en griego, que significa: «Lo encontré»). Como resultado, el término "Eureka» entró en el lenguaje común, y se utiliza hoy para indicar un momento de iluminación. La historia apareció por primera vez de forma escrita en De Architectura, de Marco Vitruvio, dos siglos después de que supuestamente tuviese lugar.2 Sin embargo, algunos estudiosos han dudado de la veracidad de este relato, diciendo (entre otras cosas) que el método habría exigido medidas exactas que habrían sido difíciles de hacer en ese momento. Otra versión de la historia dice que Arquímedes notó que experimentaba un empuje hacia arriba al estar sumergido en el agua, y pensó que, pesando la corona, sumergida en agua, y en el otro platillo de la balanza poniendo el mismo peso en oro, también sumergido, la balanza estaría equilibrada si la corona era, efectivamente, de oro. Ciertamente, el empuje hacia arriba del agua sería igual si en los dos platillos había objetos del mismo volumen y el mismo peso. Con ello, la dificultad de conocer con exactitud el volumen del sólido de forma irregular, en la época, se dejaba de lado. De esta otra versión nació la idea del principio de Arquímedes. Mucho más tarde, nació el concepto de densidad entre los científicos, en tiempos en que las unidades de medida eran distintas en cada país. Para evitar expresarlo en términos de las diversas unidades de

89


medida usuales para cada cual, y no tener que hacer las necesarias conversiones, los físicos asignaron a cada materia un número, adimensional, que era la relación entre la masa de esa materia y la de un volumen igual de agua pura, sustancia que se encontraba en cualquier laboratorio (densidad relativa). Cuando se fijó la unidad de peso en el sistema métrico decimal, el kilogramo, como un decímetro cúbico (un litro) de agua pura, la cifra empleada hasta entonces, coincidió con la densidad absoluta (si se mide en kilogramos por litro, unidad de volumen en el viejo sistema métrico decimal, aunque aceptada por el SI, y no en kilogramos por metro cúbico, que es la unidad de volumen en el SI). Tipos de densidad • Densidad absoluta La densidad o densidad absoluta es la magnitud que expresa la relación entre la masa y el volumen de una sustancia o un objeto sólido . Su unidad en el Sistema Internacional es kilogramo por metro cúbico (kg/m³), aunque frecuentemente también es expresada en g/cm³. La densidad es una magnitud intensiva. • Densidad relativa La densidad relativa de una sustancia es la relación existente entre su densidad y la de otra sustancia de referencia; en consecuencia, es una magnitud adimensional (sin unidades). • Densidad media y densidad puntual Para un sistema homogéneo, la expresión masa/volumen puede aplicarse en cualquier región del sistema obteniendo siempre el mismo resultado. Sin embargo, un sistema heterogéneo no presenta la misma densidad en partes diferentes. En este caso, hay que medir la "densidad media", dividiendo la masa del objeto por su volumen o la "densidad puntual" que será distinta en cada punto, posición o porción "infinitesimal" del sistema. • Densidad aparente La densidad aparente es una magnitud aplicada en materiales de constitución heterogénea, y entre ellos, los porosos como el suelo, los cuales forman cuerpos heterogéneos con intersticios de aire u otra sustancia, de forma que la densidad total de un volumen del material es menor que la densidad del material poroso si se compactase.

CIRCUITO Un circuito es una interconexión de componentes eléctricos (como baterías, resistores, inductores, condensadores, interruptores, transistores, entre otros) que transporta corriente eléctrica a través de por lo menos una trayectoria cerrada. Un circuito lineal, que consta de fuentes, componentes lineales (resistencias, condensadores, inductores) y elementos de distribución lineales (líneas de transmisión o cables), tiene la propiedad de la superposición lineal. Además, son más fáciles de analizar, usando métodos en el dominio de la frecuencia, para determinar su respuesta en corriente directa, en corriente alterna y transitoria. Un circuito resistivo es un circuito que contiene solo resistencias, fuentes de voltaje y corriente. El análisis de circuitos resistivos es menos complicado que el análisis de circuitos que contienen capacitores e inductores. Si las fuentes son de corriente directa (corriente continua), se denomina circuito de corriente directa (o continua). Un circuito que tiene componentes electrónicos se denomina circuito electrónico. Generalmente, estas redes son no lineales y requieren diseños y herramientas de análisis mucho más complejos.

90


Elementos de un circuito

Figura 1: Circuito ejemplo. • Componente: un dispositivo con dos o más terminales en el que puede fluir interiormente una carga. En la figura 1 se ven 9 componentes entre resistores y fuentes. • Nodo: punto de un circuito donde concurren más de dos conductores. A, B, C, D, E son nodos. C no se considera un nuevo nodo, porque se puede considerar el mismo nodo que A, ya que entre ellos no existe diferencia de potencial o tener tensión 0 (VA - VC = 0). • Rama: porción del circuito comprendida entre dos nodos consecutivos. En la figura 1 hay siete ramales: AB por la fuente, BC por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal solo puede circular una corriente. • Malla: cualquier camino cerrado en un circuito eléctrico. • Fuente: componente que se encarga de proporcionar energía eléctrica al circuito entero. En el circuito de la figura 1 hay tres fuentes: una de intensidad, I, y dos de tensión, E1 y E2. • Conductor: es un objeto de material que permite el libre flujo de corriente, sin resistencia, haciendo contacto entre dos o más componentes electrónicos. Los circuitos eléctricos se clasifican de la siguiente forma:

LEYES FUNDAMENTALES Las leyes fundamentales que rigen en cualquier circuito eléctrico son: • Ley de corriente de Kirchhoff: la suma de las corrientes que entran por un nodo debe ser igual a la suma de las corrientes que salen por ese nodo. • Ley de tensiones de Kirchhoff: la suma de las tensiones en un lazo debe ser 0. • Ley de Ohm: el flujo de la corriente es directamente proporcional al voltaje, e inversamente proporcional a la resistencia.

91


Teorema de Norton: cualquier red lineal que tenga una fuente de tensión o de corriente y al menos una resistencia es equivalente a una fuente ideal de corriente en paralelo con una resistencia.

Teorema de Thévenin: cualquier red lineal que tenga una fuente de tensión o de corriente y al menos una resistencia es equivalente a una fuente ideal de tensión en serie con una resistencia. Teorema de superposición: en una red eléctrica lineal con varias fuentes independientes, la respuesta de una rama determinada cuando todas las fuentes están activas simultáneamente es igual a la suma lineal de las respuestas individuales tomando una fuente independiente a la vez. Si el circuito contiene componentes no lineales y reactivos, pueden necesitarse otras leyes más complejas. Su aplicación genera un sistema de ecuaciones que puede resolverse ya sea de forma algebraica o numérica.

EQUILIBRIO Equilibrio es el estado de un cuerpo cuando la suma de todas las fuerzas y momentos que actúan en él se contrarrestan. Proviene del latín aequilibrĭum, que se compone de “aequus”, que significa ‘igual’, y “libra”, ‘balanza’. Decimos que alguien o algo está en equilibrio cuando, a pesar de tener poca base de sustentación, se mantiene de pie sin caerse. En este sentido, sinónimos de equilibrio son contrapeso, compensación o estabilidad. Por extensión, reconocemos equilibrio en situaciones de armonía entre cosas diversas o entre las partes de un todo. Actitudes como la ecuanimidad, la mesura, la cordura, la sensatez y la compostura, por ejemplo, son tenidas como muestra de equilibrio, así como también relacionamos el equilibrio con la salud mental de una persona. En Educación Física, conocemos como sentido del equilibrio la facultad fisiológica por la percibimos nuestra posición en el espacio y somos capaces de mantenernos en pie. Los acróbatas, por su parte, explotan esta habilidad y la llevan al extremo en situaciones complicadísimas, como caminar por una cuerda floja a varios metros de altura. Esta práctica se conoce como equilibrismo y quien la ejecuta se llama equilibrista. También usamos equilibrio en plural para apuntar al conjunto de maniobras o actos de prudencia encaminados a sostener una situación delicada, insegura o difícil. Mientras que la expresión hacer equilibrios refiere que debemos ajustar nuestros gastos, pues nuestros ingresos son inferiores a lo que ganamos. Para la Física, el equilibrio es el estado de un sistema en el que coexisten simultáneamente dos o más componentes que se contrarrestan recíprocamente, anulándose. Puede presentarse en un cuerpo estático, no sujeto a ningún tipo de modificación, sea de traslación o de rotación; o en un cuerpo en movimiento. Este último puede originar tres tipos de equilibrio: • Equilibrio estable: aquel a que vuelve por sí mismo un cuerpo que ha sido apartado de su posición. Un péndulo ilustraría perfectamente el equilibrio estable. •

Equilibrio indiferente: aquel independiente de la posición del cuerpo. Por ejemplo: una rueda sobre su eje.

Equilibrio inestable: aquel en que el cuerpo no recupera la posición inicial, sino que pasa a una posición de equilibrio más estable. Pensemos en un bastón que estaba parado sobre su pie y que cae al piso.

92


Equilibrio termodinámico: En la termodinámica, se dice que un sistema está en equilibrio cuando las variables de estado (masa, volumen, densidad, presión, temperatura) tienen el mismo valor en todos sus puntos. Por ejemplo, al añadir cubitos de hielo a un té para enfriarlo, encontramos que, luego de un tiempo, el hielo se ha disuelto y la temperatura se ha vuelto uniforme, pues gracias a la transferencia de calor se ha producido el equilibrio térmico.

Equilibrio en química: En Química, se dice que una reacción está en estado de equilibrio cuando no se progresa en ningún sentido, aunque la reacción de transformación se desarrolle en dos sentidos opuestos y al mismo tiempo, pero formando igual número de moléculas en ambos, sin registrar cambios en sus compuestos.

Equilibrio económico: En Economía, el equilibrio económico se refiere al estado en el cual el precio de un producto o bien es determinado por la correlación entre su oferta y demanda en el mercado. En este sentido, decimos que existe equilibrio de mercado cuando la oferta de un producto o bien determinado es igual a su demanda. Ante una variación, la relación de interdependencia que rige la dinámica del mercado propicia que los factores que intervienen en el equilibrio económico se activen para compensar cualquier desajuste, de lo cual se desprende que el sistema económico siempre va a procurar a su estabilidad.

Equilibrio ambiental: En el plano Ecológico, el equilibrio ambiental se refiere a la regulación, minimización y autosustentabilidad del impacto de la actividad humana sobre su entorno natural. Debido a la importancia que se le otorga actualmente al equilibrio ambiental, se han creado instituciones y organismos, gubernamentales o no, de carácter conservacionista, que vigilan cómo la industria y la explotación de los recursos naturales afecta las condiciones de vida de especies animales y vegetales y su medio ambiente

93


Matemáticas

94


Matemáticas Es una ciencia formal que, partiendo de axiomas y siguiendo el razonamiento lógico, estudia la ciencia de las propiedades y relaciones entre entidades abstractas como números, figuras geométricas, iconos, glifos, o símbolos en general. La matemática en realidad es un conjunto de lenguajes formales que pueden ser usados como herramienta para plantear problemas de manera ambiguas en contextos específicos. Por ejemplo, el siguiente enunciado podemos decirlo de dos formas: X es mayor que Y e Y es mayor que Z, o en forma simplificada podemos decirlo de dos formas que X > Y >Z. Este es el motivo por el cual las matemáticas son tan solo un lenguaje simplificado en una herramienta por cada problema específico (por ejemplo 2+2=4 o 2x2=4). Las ciencias naturales han hecho un uso extensivo de las matemáticas para explicar diversos fenómenos observables, tal como lo expresó Eugene Paul Wigner (premio nobel de Física en 1963). “La enorme utilidad de las matemáticas en las ciencias naturales es algo que roza lo misterioso, y no hay explicación para ello. No es en absoluto natural que hallan leyes de la naturaleza, y mucho menos que el hombre sea capaz de descubrirla, el milagro de lo apropiado que resulta el lenguaje de las matemáticas para la fórmula de las leyes de la física es un regalo maravilloso que no comprendemos ni merecemos” Mediante la abstracción y el uso de la lógica en el razonamiento, las matemáticas han evolucionado basándose en el cálculo y las mediciones, junto con el estudio sistemático de la forma y el movimiento de los objetos físicos. Las matemáticas, desde sus comienzos, han tenido un fin práctico. Las explicaciones que se apoyaban en la lógica aparecieron por primera vez con la matemática helénica, especialmente con los Elementos de Euclides. Las matemáticas siguieron desarrollándose, con continuas interrupciones, hasta que en el Renacimiento las innovaciones matemáticas interactuaron con los nuevos descubrimientos científicos. Como consecuencia, hubo una aceleración en la investigación que continúa hasta la actualidad. Hoy día, las matemáticas se usan en todo el mundo como una herramienta esencial en muchos campos, entre los que se encuentran las ciencias naturales, la ingeniería, la medicina y las ciencias sociales, e incluso disciplinas que, aparentemente, no están vinculadas con ella, como la música (por ejemplo, en cuestiones de resonancia armónica). Las matemáticas aplicadas, rama de las matemáticas destinada a la aplicación del conocimiento matemático a otros ámbitos, inspiran y hacen uso de los nuevos descubrimientos matemáticos y, en ocasiones, conducen al desarrollo de nuevas disciplinas. Los matemáticos también participan en las matemáticas puras, sin tener en cuenta la aplicación de esta ciencia, aunque las aplicaciones prácticas de las matemáticas puras suelen ser descubiertas con el paso del tiempo. La importancia de las matemáticas Las matemáticas son fundamentales para el desarrollo intelectual de los niños, les ayuda a ser lógicos, a razonar ordenadamente y a tener una mente preparada para el pensamiento, la crítica y la abstracción. Las matemáticas configuran actitudes y valores en los alumnos pues garantizan una solidez en sus fundamentos, seguridad en los procedimientos y confianza en los resultados obtenidos. Todo esto crea en los niños una disposición consciente y favorable para emprender acciones que conducen a la solución de los problemas a los que se enfrentan cada día. su vez, las matemáticas contribuyen a la formación de valores en los niños, determinando sus actitudes y su conducta. Sirven como patrones para guiar su vida, un estilo de enfrentarse a la realidad lógico y coherente, la búsqueda de la exactitud en los resultados, una comprensión y expresión clara a través de la utilización de símbolos, capacidad de abstracción, razonamiento y generalización y la percepción de la creatividad como un valor. Podemos dividir estos valores en tres grupos:

95


1. Valores de Inteligencia: Afán de saber, adquirir conocimientos, estudiar, hábitos y técnicas de trabajo intelectual para utilizar la información, sentido crítico de lo verdadero. 2. Valores de Voluntad: Capacidad de decisión, prudencia, predicción, iniciativa, seguridad, confianza en sí mismo. 3. Valores Morales: respecto a las creencias e ideas de los demás, colaboración, solidaridad, honradez, honestidad, laboriosidad, optimismo. Sin embargo, en el colegio la asignatura de matemáticas suele ser, de lejos, la más odiada. Y ¿Por qué? Parece que nos estamos dando cuenta de que las matemáticas llevan años enseñándose mal. Es necesario que desde la escuela se transmita una idea p ositiva de las matemáticas y para ello hay que cambiar la manera en la que se les presentan a los alumnos. Es bien sabido que las matemáticas son una habilidad sumamente necesaria para todos, pues son la principal herramienta con la que los seres humanos han podido comprender el mundo a su alrededor. Cuando somos estudiantes es común que nos preguntemos ¿por qué debo estudiar matemáticas? Podríamos comenzar diciendo que son muchas las actividades de la vida cotidiana que tienen relación con esta ciencia, por ejemplo, administrar dinero, preparar una receta de cocina, calcular la distancia que tenemos que recorrer para llegar a algún lugar, entre otras cosas, pero la respuesta va más allá. Aprender matemáticas nos enseña a pensar de una manera lógica y a desarrollar habilidades para la resolución de problemas y toma de decisiones. Gracias a ellas también somos capaces de tener mayor claridad de ideas y del uso del lenguaje. Con las matemáticas adquirimos habilidades para la vida y es difícil pensar en algún área que no tenga que ver con ellas. Todo a nuestro alrededor tiene un poco de esta ciencia. Las habilidades numéricas en general son valoradas en la mayoría de los sectores habiendo algunos en los que se consideran esenciales. El uso de la estadística y la probabilidad efectiva es fundamental para una gran variedad de tareas tales como el cálculo de costos, la evaluación de riesgos y control de calidad y la modelización y resolución de problemas. Hay quienes plantean que en el mundo actual tan cambiante en el que vivimos, particularmente en términos de los avances tecnológicos, la demanda de conocimientos matemáticos está en aumento. La Matemática y su relación con las demás ciencias La matemática es una herramienta esencial en muchos campos diferentes de la ciencia sin esta no podríamos gozar de la tecnología actual, la aplicación de la matemática en observa en Ingeniería, Física, Química, etc. La matemática es la madre de todas las ciencias, todo tiene que ver con las matemáticas, desde la música con sus tiempos, rimas y su poesía con los versos, la cocina con medidas, peso y tiempo de cocción, fotografía tiempo de velocidad y de obturación, la construcción con material y distribución de espacios. Todo tiene ver con las matemáticas. Las ciencias con las que se relaciona son: • Ingeniería • Contaduría y Administración • Física • Química • Biología

96

• • • • •

Arquitectura Astronomía Mecánica Música Artes


• Ingeniería La ingeniería matemática (también matemáticas para ingeniería) es una rama de la ingeniería que utiliza la matemática aplicada y que se apoya en el uso de herramientas computacionales para resolver problemas de la ingeniería, principalmente relacionados con el modelamiento de diversos procesos (tanto naturales como artificiales).

• Contaduría y Administración Las matemáticas se pueden decir que es la ciencia que más se relaciona con las demás áreas del saber, su versatilidad no tiene límites y su aplicación es inimaginable. La matemática que es para los estudiantes de Contaduría Pública una herramienta principal, y que les provee con las bases suficientes para enfrentarnos a aquellos retos dentro de nuestra labor a desempeñar”. • Física Algunas veces la física ha generado matemáticas y otras veces las matemáticas han ido por su lado. La física es una ciencia que necesariamente necesita de las matemáticas para existir, si queremos analizar un fenómeno físico, necesitamos traducirlo de algún modo a una expresión matemática, como una ecuación.

• Química La química matemática es el área de la química dedicada a las nuevas y no triviales aplicaciones de las matemáticas a la química, y se ocupa principalmente de los modelos matemáticos de los fenómenos químicos. La historia del enfoque matemático en la química se remonta a finales del siglo XIX. • Biología Biología Matemática o Biomatemática es un área interdisciplinaria de estudios que se enfoca en modelamiento de los procesos biológicos utilizando técnicas matemáticas. Tiene grandes aplicaciones teóricas y prácticas en la investigación biológica.

• Arquitectura Sin las matemáticas en ninguna época histórica, las estructuras carecerían de integridad. Para que un edificio tenga resistencia y estabilidad, debe tener ángulos precisos, longitudes correctas de sus muros y medidas adecuadas para el techo, no solo en eso, sino también en todos los cálculos que sea necesario hacer.

97


• Astronomía Probablemente piensas en el Sol, los planetas, el Sistema Solar o la Vía Láctea. O quizás piensas en las noticias de los últimos años tal como la detección de las ondas gravitacionales, la predicción por medio de ordenadores de la existencia de un noveno planeta, o el hallazgo de un sistema con 7 planetas en la zona habitable. Mas si estos descubrimientos revolucionaron a la astronomía, aquel 1609 se produjo otro hecho crucial para el desarrollo de la ciencia. Se trataba de un logro matemático de primera magnitud: Johannes Kepler (1571-1630), tras una década de investigaciones, publicaba Astronomía nova. En esta obra se muestran dos resultados rotundos a los que se conoce como primera ley de Kepler y segunda ley de Kepler. (La tercera apareció diez años más tarde en Harmonice mundi.) Conviene aquí recordar sus enunciados: Primera ley: Los planetas se mueven según órbitas elípticas que tienen al Sol como uno de sus focos. Segunda ley: El radio que une un planeta con el Sol barre áreas iguales en tiempos iguales. Tercera ley: Los cubos de los radios medios de las órbitas de los planetas son proporcionales a los cuadrados de los tiempos que invierten en recorrerlas. Estas tres sentencias describían y cuantificaban las evoluciones de las llamadas estrellas errantes. Además, permitían calcular con precisión las posiciones que ocuparían los planetas en la esfera celeste a una fecha dada. • Mecánica Es la rama de la física que estudia y analiza el movimiento y reposo de los cuerpos, y su evolución en el tiempo, bajo la acción de fuerzas. Modernamente la mecánica incluye la evolución de sistemas físicos más generales que los cuerpos másicos. En ese enfoque la mecánica estudia también las ecuaciones de evolución temporal de sistemas físicos como los campos electromagnéticos o los sistemas cuánticos donde propiamente no es correcto hablar de cuerpos físicos. • Música Aunque se sabe que los antiguos chinos, egipcios y mesopotámicos estudiaron los principios matemáticos del sonido, son los pitagóricos de la Grecia antigua quienes fueron los primeros investigadores de la expresión de las escalas musicales en términos de proporcionalidad [ratio] numéricas, particularmente de proporciones de números enteros pequeños. Su doctrina principal era que “toda la naturaleza consiste en armonía que brota de números”. • Artes Matemáticas y el arte están relacionados de varias maneras. De hecho, es frecuente encontrar las matemáticas descritas como un arte debido a la belleza o la elegancia de muchas de sus formulaciones, y se puede encontrar fácilmente su presencia en manifestaciones como la música, la danza, la pintura, la arquitectura, la escultura y las artes textiles.

98


DESARROLLO DE PENSAMIENTO MATEMÁTICO La inteligencia lógico matemática, tiene que ver con la habilidad de trabajar y pensar en términos de números y la capacidad de emplear el razonamiento lógico. Pero este tipo de inteligencia va mucho más allá de las capacidades numéricas, nos aporta importantes beneficios como la capacidad de entender conceptos y establecer relaciones basadas en la lógica de forma esquemática y técnica. Implica la capacidad de utilizar de manera casi natural el cálculo, las cuantificaciones, proposiciones o hipótesis. Todos nacemos con la capacidad de desarrollar este tipo de inteligencia. Las diferentes capacidades en este sentido van a depender de la estimulación recibida. Es importante saber que estas capacidades se pueden y deben entrenar, con una estimulación adecuada se consiguen importantes logros y beneficios. 10 estrategias para estimular en desarrollo del pensamiento matemático 1. Permite a los niños y niñas manipular y experimentar con diferentes objetos. Deja que se den cuenta de las cualidades de los mismos, sus diferencias y semejanzas; de esta forma estarán estableciendo relaciones y razonando sin darse cuenta. 2. Emplea actividades de ejercicios de memoria 3. Muéstrales los efectos sobre las cosas en situaciones cotidianas. Por ejemplo, como al calentar el agua se produce un efecto y se crea vapor porque el agua transforma su estado. 4. Genera ambientes adecuados para la concentración y la observación 5. Utiliza diferentes juegos que contribuyan al desarrollo de este pensamiento, como sudokus, domino, juegos de cartas, adivinanzas, etc. 6. Plantéale problemas que les supongan un reto o un esforzó mental. Han de motivarse con el reto o esfuerzo mental. Han de motivarse con el reto, pero esta dificultad debe estar adecuada a su edad y capacidades, si es demasiado alto, se motivarán y puede verse dañado su auto concepto. 7. Haz que reflexione sobre las cosas y que a poco a poco valla relacionándolas. Para ello puedes buscar eventos inexplicables y jugar a buscar eventos inexplicables y jugar a buscar una explicación lógica. 8. Deja que manipule y emplee cantidades, en situaciones de utilidad. Puedes hacerles pensar en los precios, jugar a adivinar cuantos lápices habrá en un estuche, etc. 9. Deja que ellos solos se enfrenten a los problemas matemáticos. Puedes darles una pista o guía, pero deben ser ellos mismos los que elaboren el razonamiento que los lleve a la solución 10. Anímalos a imaginar posibilidades y establecer hipótesis. Pregúntales: ¿qué pasaría sí? Importancia de la comprensión lectora en matemáticas Uno de los hitos más importantes que tienen lugar durante la etapa escolar sucede cuando los niños pasan de aprender a leer a “leer para poder aprender”. Por eso, y puesto que una buena comprensión lectora es esencial en la adquisición de nuevos conocimientos, mejorarla tendría un efecto positivo en el rendimiento académico de los niños en todas aquellas asignaturas en las que la lectura sea la fuente principal de acceso a la información. Y las matemáticas se encuentran entre ellas. Son muchos los estudios que han puesto de manifiesto la relación que existe entre determinados aspectos lingüísticos y las capacidades matemáticas (ver, por ejemplo, Zhang, Koponen, Räsänen, Aunola, Lerkkanen y Nurmi, 2014). Uno de los ámbitos en los que más evidente se hace esta conexión es en el de la resolución de los problemas verbales. El importante papel de los problemas verbales y sus implicaciones en la enseñanza y aprendizaje de las matemáticas merece ser tratado con detalle (esperamos hacerlo en próximos posts). Por el momento, basta con recordar que, desde nuestro punto de vista, la enseñanza de las matemáticas debe estar basada en la comprensión y que los problemas verbales tienen que constituir contextos significativos para los niños, en los que sea necesario realizar un proceso de reflexión. Sin embargo, este proceso de reflexión no siempre tiene lugar. Algunos autores sugieren que cuando los niños se enfrentan a un problema, en lugar de pararse a entender la

99


situación planteada, se limitan a aplicar algoritmos y a operar con todas las cantidades disponibles, sin detenerse a pensar si todas son necesarias o no (Verschaffel, Green y De Corte, 2000). Un grupo de investigadores norteamericanos ha partido de esta última afirmación para diseñar un estudio en el que se pretendía demostrar, entre otras cosas, que enseñar a los niños un determinado tipo de estrategia de comprensión lectora puede repercutir positivamente en la resolución de los problemas verbales (Glenberg, Willford, Gibson, Goldberg y Zhu, 2011). El método que proponen Glenberg y colaboradores se denomina “Moved by Reading” y, según ellos, enseña a los niños una estrategia fundamental para la comprensión de cualquier tipo de texto: la de representar mentalmente la situación descrita. Brevemente, el método consta de dos fases. En la primera, se leen al niño una serie de frases y se le pide que manipule determinado tipo de elementos (juguetes u otros objetos) para simular o represe ntar lo que se acaba de leer. Reproducir las frases de este modo aumenta la riqueza de la información que está siendo procesada (por realizarse tanto a nivel sensorial, como cognitivo, motor o emocional) y, por tanto, favorece su comprensión. Además, la si mulación que realiza el niño permite comprobar rápidamente si realmente ha entendido la frase o texto leído. Una vez que los niños tienen práctica en la representación física de las historias, comienza la segunda fase. En ella tienen que aprender a prescin dir de los elementos manipulativos y a reconstruir los textos de la misma manera, pero mentalmente. Es lo que ellos llaman “manipulación imaginaria “. Los autores encontraron que los niños que fueron instruidos en este método mejoraban la comprensión lectora (Glenberg et al., 2011). Por eso, en el estudio que estamos comentando, los investigadores decidieron ampliar los ámbitos de aplicación del método y diseñaron una serie de textos consistentes en problemas matemáticos, todos ellos con información adicional irrelevante para solucion ar el problema. Comprobaron que los niños que habían trabajado la estrategia de construcción de modelos mentales vía “Moved by Reading” resolvieron correctamente más problemas que aquellos a los que no se les enseñó esa estrategia. La causa de esta mejora, según los autores, se debe al hecho de que la manipulación imaginaria del texto les ayudaba a entender la situación problema y a identificar cuáles eran los datos numéricos realmente relevantes . Es necesario seguir validando el método “Moved by Reading” y comprobar si sus efectos se mantienen a largo plazo en nuevas investigaciones antes de sacar conclusiones precipitadas. Sin embargo, lo que sí se ha vuelto a poner de manifiesto en este artículo es la necesidad de ayudar a los niños desarrollar una serie de habilidades para resolver de forma efectiva los problemas verbales y, entre otras cosas, estas pasan por ayudarles a establecer conexiones entre lo simbolizado en los problemas y el mundo real.

NOCIONES DE LÓGICA También llamada lógica simbólica, lógica teoretica, lógica formal o logística, es el estudio formal y simbólico de la lógica, y su aplicación a algunas áreas de la matemática y la ciencia. Comprende la aplicación de las técnicas de la lógica formal a la construcción y el desarrollo de las matemáticas y el razonamiento matemático, y conversamente la aplicación de técnicas matemáticas a la representación y el análisis de la lógica formal. La investigación en lógica matemática ha jugado un papel crucial en el estudio de los fundamentos de las matemáticas.

100


La lógica matemática estudia la inferencia mediante la construcción de sistemas formales como la lógica proposicional, la lógica de primer orden o la lógica modal. Estos sistemas capturan las características esenciales de las inferencias válidas en los lenguajes naturales, pero al ser estructuras formales susceptibles de análisis matemático, permiten realizar demostraciones rigurosas sobre ellas. La lógica matemática se suele dividir en cuatro áreas: 1. Teoría de modelos 2. Teoría de la demostración 3. Teoría de conjuntos 4. Teoría de la computabilidad La teoría de la demostración y la teoría de modelos fueron el fundamento de la lógica matemática.

La teoría de conjuntos se originó en el estudio del infinito por Georg Cantor y ha sido la fuente de muchos de los temas más desafiantes e importantes de la lógica matemática, a partir del teorema de Cantor, el axioma de elección y la cuestión de la independencia de la hipótesis del continuo, al debate moderno sobre grandes axiomas cardinales. La lógica matemática tiene estrechas conexiones con las ciencias de la computación.

La teoría de la computabilidad captura la idea de la computación en términos lógicos y aritméticos. Sus logros más clásicos son la indecidibilidad del Entscheidungsproblem de Alan Turing y su presentación de la tesis de Church-Turing. Hoy en día, la teoría de la computabilidad se ocupa principalmente del problema más refinado de las clases de complejidad (¿cuándo es un problema eficientemente solucionable?) y de la clasificación de los grados de insolubilidad.

101


La lógica matemática también estudia las definiciones de nociones y objetos matemáticos básicos como conjuntos, números, demostraciones y algoritmos. La lógica matemática estudia las reglas de deducción formales, las capacidades expresivas de los diferentes lenguajes formales y las propiedades metodológicas de los mismos. En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado, la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en sistemas formales. La teoría de la demostración y la matemática inversa son dos de los razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en todos sus aspectos, por lo que la lógica matemática no es un método para descubrir verdades del mundo físico real, sino sólo una fuente posible de modelos lógicos aplicables a teorías científicas, muy especialmente a la matemática convencional. Por otra parte, la lógica matemática no estudia el concepto de razonamiento humano general o el proceso creativo de construcción de demostraciones matemáticas mediante argumentos rigurosos pero con lenguaje informal con algunos signos o diagramas, sino sólo de demostraciones y razonamientos que se pueden formalizar por completo. Lógica proposicional Una lógica proposicional, o a veces lógica de orden cero, es un sistema formal cuyos elementos más simples representan proposiciones, y cuyas constantes lógicas, llamadas conectivas lógicas, representan operaciones sobre proposiciones, capaces de formar otras proposiciones de mayor complejidad. Las lógicas proposicionales carecen de cuantificadores o variables de individuo, pero tienen variables proposicionales (es decir, que se pueden interpretar como proposiciones con un valor de verdad definido), de ahí el nombre proposicional. Los sistemas de lógica proposicional incluyen además conectivas lógicas, por lo que dentro de este tipo de lógica se puede analizar la inferencia lógica de proposiciones a partir de proposiciones, pero sin tener en cuenta la estructura interna de las proposiciones más simples. Como las lógicas proposicionales no tienen cuantificadores o variables de individuo, cualquier secuencia de signos que constituya una fórmula bien formada admite una valoración en la proposición es verdadera o falsa dependiendo del valor de verdad asignado a las proposiciones que la compongan. Esto implica que cualquier fórmula bien formada define una función proposicional. Por tanto, cualquier sistema lógico basado en la lógica proposicional es decidible y en un número finito de pasos se puede determinar la verdad o falsedad semántica de una proposición. Esto hace que la lógica proposicional sea completa y con una semántica muy sencilla de caracterizar. Es una rama de la lógica clásica que estudia las variables proposicionales o sentencias lógicas, sus posibles implicaciones, evaluaciones de verdad y en algunos casos su nivel absoluto de verdad. Algunos autores también la identifican con la lógica matemática o la lógica simbolice, ya que utiliza una serie de símbolos especiales que lo acercan al lenguaje matemático.

TEORÍA DE CONJUNTOS Los conjuntos son una rama de la lógica matemática que estudia las propiedades y relaciones de los conjuntos: colecciones abstractas de objetos, consideradas como objetos en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta básica en la formulación de cualquier teoría matemática.

102


La teoría de los conjuntos es lo suficientemente rica como para construir el resto de objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas, etc; gracias a las herramientas de la lógica, permite estudiar los fundamentos. En la actualidad se acepta que el conjunto de axiomas de la teoría de Zermelo-Fraenkel es suficiente para desarrollar toda la matemática. Además, la propia teoría de conjuntos es objeto de estudio per se, no sólo como herramienta auxiliar, en particular las propiedades y relaciones de los conjuntos infinitos. En esta disciplina es habitual que se presenten casos de propiedades indemostrables o contradictorias, como la hipótesis del continuo o la existencia de un cardinal inaccesible. Por esta razón, sus razonamientos y técnicas se apoyan en gran medida en la lógica. El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó a investigar cuestiones conjuntistas (puras) del infinito en la segunda mitad del siglo 1531, precedido por algunas ideas de Bernhard Bolzano e influido por Richard Dedekind. El descubrimiento de las paradojas de la teoría cantoriana de conjuntos, formalizada por Gottlob Frege, propició los trabajos de Bertrand Russell, Ernst Zemelo y Abraham Fraenkel.

Georg Canton

Bernard Bolzano

Gattlob Frege

Bertrand Russell

Conjuntos En matemáticas, un conjunto es una colección de elementos con características similares considerada en sí misma como un objeto. Los elementos de un conjunto, pueden ser las siguientes: personas, números, colores, letras, figuras, etc. Se dice que un elemento (o miembro) pertenece al conjunto si está definido como incluido de algún modo dentro de él. Ejemplo: el conjunto de los colores del arcoíris es: AI = {Rojo, Naranja, Amarillo, Verde, Azul, Añil, Violeta} Un conjunto suele definirse mediante una propiedad que todos sus elementos poseen. Por ejemplo, para los números naturales, si se considera la propiedad de ser un número primo, el conjunto de los números primos es: P = {2, 3, 5, 7, 11, 13,…} Un conjunto queda definido únicamente por sus miembros y por nada más. En particular, un conjunto puede escribirse como una lista de elementos, pero cambiar el orden de dicha lista o añadir elementos repetidos no define un conjunto nuevo. Por ejemplo: S = {Lunes, Martes, Miércoles, Jueves, Viernes} = {Martes, Viernes, Jueves, Lunes, Miércoles} AI = {Rojo, Naranja, Amarillo, Verde, Azul, Añil, Violeta} = {Amarillo, Naranja, Rojo, Verde, Violeta, Añil, Azul} Los conjuntos pueden ser finitos o infinitos. El conjunto de los números naturales es infinito, pero el conjunto de los planetas del sistema solar es finito (tiene ocho elementos). Además, los conjuntos pueden combinarse mediante operaciones, de manera similar a las operaciones con números.

103


Los conjuntos son un concepto primitivo, en el sentido de que no es posible definirlos en términos de nociones más elementales, por lo que su estudio puede realizarse de manera informal, apelando a la intuición y a la lógica. Por otro lado, son el concepto fundamental de la matemática: mediante ellos puede formularse el resto de objetos matemáticos, como los números y las funciones, entre otros. Su estudio detallado requiere pues la introducción de axiomas y conduce a la teoría de conjuntos.

Los conjuntos se denotan habitualmente por letras mayúsculas. Los objetos que componen el conjunto se llaman elementos o miembros. Se dice que “pertenecen” al conjunto y se denota mediante el símbolo ∈ la expresión 1 ∈ B se lee entonces como “1 está en B”, “1 pertenece a B”, “B contiene a 1”, etc. Para la noción contraria se usa el símbolo ∉. Por ejemplo: D ∉ B, ♠ ∉ B, amarillo ∉ B, z ∉ B, etc. Notación de conjuntos Existen varias maneras de referirse a un conjunto. En el ejemplo anterior, para los conjuntos A y D se usa una definición intensiva o por comprensión, donde se especifica una propiedad que todos sus elementos poseen. Sin embargo, para los conjuntos B y C se usa una definición extensiva, listando todos sus elementos explícitamente. Es habitual usar llaves para escribir los elementos de un conjunto, de modo que: B = {verde, blanco, rojo} C = {a, e, i, o, u} Esta notación mediante llaves también se utiliza cuando los conjuntos se especifican de forma intensiva mediante una propiedad: A = {Números naturales menores que 5} D = {Palos de la baraja francesa} Igualdad de conjuntos Esta propiedad tiene varias consecuencias. Un mismo conjunto puede especificarse de muchas maneras distintas, en particular extensivas o intensivas. Por ejemplo, el conjunto A de los números naturales menores que 5 es el mismo conjunto que A′, el conjunto de los números 1, 2, 3 y 4. También: B = {verde, blanco, rojo} = {colores de la bandera de México} C = {a, e, i, o, u} = {vocales del español} Conjunto vacío El conjunto que no contiene ningún elemento se llama el conjunto vacío y se denota simplemente por {}. Algunas teorías axiomáticas de conjuntos aseguran que el conjunto vacío existe incluyendo un axioma del conjunto vacío. En otras teorías, su existencia puede deducirse. Muchas posibles propiedades de conjuntos son trivialmente válidas para el conjunto vacío. Subconjuntos Un subconjunto A de un conjunto B, es un conjunto que contiene algunos de los elementos de B. Cuando A es un subconjunto de B, se denota como A ⊆ B y se dice que «A está contenido en B». También puede escribirse B ⊇ A, y decirse que B es un superconjunto de A y también «B contiene a A» o «B incluye a A»

104


Tipos de Conjunto A la hora de formar un conjunto, la manera y el porqué de como los agrupamos puede variar, dando lugar entonces a los diferentes tipos de conjuntos: • Conjuntos finitos: La característica de este conjunto es que sus elementos pueden ser contar o enumerar en su totalidad. Por ejemplo, los meses del año establecen un conjunto finito: enero, febrero, marzo, abril, mayo, junio, julio, agosto, septiembre, octubre, noviembre y diciembre. • Conjunto infinito: Un conjunto será infinito cuando sus elementos sean imposibles de contar o enumerar en su totalidad, debido a que no tienen fin. Los números son un claro ejemplo de un conjunto infinito. • Conjunto unitario: Aquel que está compuesto por un único elemento. La luna se encuentra dentro de este conjunto, pues es el único satélite natural del planeta tierra. • Conjunto vacío: se trata de un conjunto el cual no presenta ni tiene elementos. • Conjunto homogéneo: Conjuntos cuyos elementos presentan una misma clase o categoría. • Conjunto heterogéneo: Los elementos de estos conjuntos difieren en clase y categoría. • Conjuntos equivalentes: Serán equivalentes aquellos conjuntos cuya cantidad de elementos sea la misma. • Conjuntos iguales: Podrá decirse que dos o más conjuntos son iguales, cuando estén compuestos por elementos idénticos. La importancia de la aritmética y aplicación en la vida cotidiana Es que permite sistematizar los cálculos simples y sencillos hasta de la vida diaria, poniendo al alcance de toda la posibilidad de resolver muchas operaciones que de lo contrario serían muy arduas. La aritmética es una de las ciencias matemáticas a la que muchos le huyen mientras que otros aceptan el desafío, así que es importante que sepas que estudia la aritmética y todo lo que puede ofrecerte. La opinión mayoritaria es que las matemáticas juegan un papel importante en la sociedad. En efecto, las matemáticas están presentes en cualquier faceta de nuestra vida diaria: el uso de los cajeros automáticos de un banco, las comunicaciones por telefonía móvil, la predicción del tiempo, las nuevas tecnologías, la arquitectura e incluso, aunque no es tan conocido, también en una obra de arte, en la música, en la publicidad, en el cine o en la lectura de un libro. De hecho, muchas veces el papel que juegan las matemáticas en la vida cotidiana es el de detectar mentiras y engaños que, en ocasiones, se producen en las facturas con el IVA desglosado, en un crédito financiero, en las tasas de interés de un préstamo hipotecario o en la adecuación de los salarios a la pérdida de poder adquisitivo. Incluso el sistema ISBN de los libros o el propio NIF que identifica a cada persona presenta algún factor de comprobación basado en el concepto matemático de congruencia.

ARITMÉTICA Es la rama de la matemática cuyo objeto de estudio son los números y las operaciones elementales hechas con ellos: • Adición • Sustracción • Multiplicación • División Al igual que en otras áreas de la Matemática, como el Álgebra o la Geometría, el sentido de la “Aritmética” ha ido evolucionando con el amplio y diversificado desarrollo de las ciencias. Originalmente, la Aritmética se desarrolló de manera formal en la Antigua Grecia, con el refinamiento del rigor matemático y las demostraciones, y su extensión a las distintas disciplinas de las «Ciencias Naturales». En la actualidad, puede referirse a la Aritmética Elemental, enfocada a la enseñanza de la Matemática Básica; también al conjunto que reúne el Cálculo Aritmético y las Operaciones Matemáticas, específicamente, las cuatro Operaciones Básicas aplicadas, ya sea a números (números naturales, números enteros, números fraccionarios, números decimales, etc.) como a entidades matemáticas más abstractas (matrices, operadores, etc.); también a la así llamada alta aritmética, mejor conocida como Teoría de Números.

105


OPERACIONES ARITMÉTICAS • Adición La adición es una operación básica de la aritmética de los números naturales, enteros, racionales, reales y complejos; por su naturalidad, que se representa con el signo "+", el cual se combina con facilidad matemática de composición en la que consiste en combinar o añadir dos números o más para obtener una cantidad final o total. La adición también ilustra el proceso de juntar dos colecciones de objetos con el fin de obtener una sola colección. Por otro lado, la acción repetitiva de sumar uno es la forma más básica de contar.

• Sustracción Sustracción es una operación de aritmética que se representa con el signo (–), representa la operación de eliminación de objetos de una colección. Por ejemplo, en la imagen de la derecha, hay 5-2 manzanas significando 5 manzanas con 2 quitadas, con lo cual hay un total de 3 manzanas. Por lo tanto, 5 – 2 = 3. Además de contar frutas, la sustracción también puede representar combinación otras.

• Multiplicación Es una operación binaria que se establece en un conjunto numérico. Tal el caso de números naturales, consiste en sumar un número tantas veces como indica otro número. Así, 4×3 (léase “cuatro multiplicado por tres” o, simplemente, “cuatro por tres”) es igual a sumar tres veces el valor 4 por sí mismo (4+4+4). Es una operación diferente de la adición, pero equivalente. No es igual a una suma reiterada; sólo son equivalentes porque permiten alcanzar el mismo resultado. La multiplicación está asociada al concepto de área geométrica. • División En matemática, la división es una operación parcialmente definida en el conjunto de los números naturales y los números enteros; en cambio, en el caso de los números racionales, reales y complejos es siempre posible efectuar la división, exigiendo que el divisor sea distinto de cero, sea cual fuera la naturaleza de los números por dividir. En el caso de que sea posible efectuar la división, esta consiste en indagar cuántas veces un número (divisor) está "contenido" en otro número (dividendo). El resultado de una división recibe el nombre de cociente. De manera general puede decirse que la división es la operación inversa de la multiplicación, siempre y cuando se realice en un campo.

106


CONJUNTO NUMÉRICO Los conjuntos numéricos son agrupaciones de números que guardan una serie de propiedades estructurales. Por ejemplo el sistema más usual en aritmética natural está formado por el conjunto de los números naturales, con la suma, la multiplicación y las relaciones usuales de orden aditivo. Comenzaremos por estudiar tres conjuntos en particular, los números naturales, los números enteros y los números racionales o fraccionarios. Estos conjuntos de números han ido apareciendo a medida que la humanidad se ha visto en la necesidad de solucionar problemas y retos cada vez más complejos y más profundos. Números Naturales La exigencia y oportunidad de contar derivó necesariamente en la invención y el uso de los llamados actualmente números naturales. Aparecen en una gama de sistemas de numeración, en principio de carácter oral. Son los números más simples de los que hacemos uso, el conjunto de ellos se denota por N. Entre estos números, en sucesión ascendente en representación indo-arábiga, son: 1,2,3,4,5... Se denominan también números enteros positivo. Sin embargo, José Peano en una de sus versiones, y Paul Halmos, entre otros, consideran el 0 (cero) como número natural. Que responde al número de alumnos en un aula vacía, entre infinidad de casos. Números Enteros La insuficiencia de los números naturales para contar deudas o temperaturas por debajo de cero lleva directamente a los números enteros. Se denotan por Z y están formados por los números naturales, sus inversos aditivos y el cero. El conjunto de los números enteros incluye a los naturales, N C Z

Números Racionales La insuficiencia de los números enteros para denominar partes de unidad lleva directamente a los números racionales. Se denotan por Q y son todos aquellos que se pueden expresar de la forma de ecuación donde p y y son enteros y q≠0. Estos pueden ser enteros decimales finitos o decimales infinitos periódicos.

107


Métodos para resolver problemas de ampliación En esta asignatura se trata de que los alumnos/as completen los conocimientos en Matemática Aplicada. A saber: integración en varias dimensiones, teoría de campos, ecuaciones diferenciales, transformadas de Fourier y de Laplace. Finalmente, se completan los conocimientos de Estadística adquiridos por los alumnos/as en la asignatura de “Métodos Matemáticos”.

Estos consejos te ayudarán a pensar mejor: • Debes tener una actitud positiva. Curiosidad y ganas de aprender. Gusto por el reto • Confía en tus posibilidades. Somos lo que pensamos. Actúa con tranquilidad, sin miedo. • Ten paciencia. No abandones a la menor dificultad. Si te atascas, piensa en un nuevo enfoque del problema. • Concéntrate. Resolver problemas es una actividad compleja y requiere atención. • No busques el éxito a corto plazo. Llegar a la solución es un proceso lento, pero cuando notes los progresos sentirás una gran satisfacción. Importancia de la algebra y su aplicación en la vida cotidiana El Algebra es útil principalmente para agilizar la mente, aunque aparentemente pienses que no sirve de nada en tu vida diaria es importante puesto que ayuda a deducir y procesar toda la información que se recibe durante el día de tal forma que podemos sacar conclusiones y resolver problemas que se presentan Todos hemos preguntado alguna vez para qué sirve aprender álgebra en la vida cotidiana, muchos estudiantes a nivel medio superior tratan de facilitar su futuro buscando una carrera profesional que no tenga relación alguna con este tema, pero esto siempre estará presente en la vida de todo ser humano, tenga la especialidad que tenga. Todos nosotros pensamos de manera algebraica alguna vez, por ejemplo, para resolver o facilitar un problema matemático podemos acudir a una calculadora o a un formato Excel para exponer la ecuación con una simbología, estamos seguros de que el ordenador lo resolverá; pero nosotros ponemos de nuestra parte ya que de manera mental vamos analizando y repitiendo valores para que la máquina entienda y lo solucione. No hay que ver el álgebra como sólo literales, sumas o factorizaciones; también hay que verlo como un ejercicio mental, pues abre la mente, encuadra el pensamiento y ejercita el cerebro para poder resolver problemas de cualquier índole en nuestra vida cotidiana; haremos algoritmos con pasos a seguir y analizaremos a detalle cada situación, ya que si uno aprende bien el álgebra también aprenderá a hablar con las palabras correctas, haciendo de lo complicado algo más simple. No sólo es aprender por aprender, podemos retomar todo este conocimiento y manejarlo de manera inteligente, aquí es donde nos percataremos de su gran importancia.

ALGEBRA La disciplina que se conoce como álgebra elemental, en este marco, sirve para llevar a cabo operaciones aritméticas (suma, resta, multiplicación, división) pero que, a diferencia de la aritmética, se vale de símbolos (a, x, y) en lugar de utilizar números. Es la rama de la matemática que estudia la

108


combinación de elementos de estructuras abstractas acorde a ciertas reglas. Originalmente esos elementos podían ser interpretados como números o cantidades, por lo que el álgebra en cierto modo originalmente fue una generalización y extensión de la aritmética. En el álgebra moderna existen áreas del álgebra que en modo alguno pueden considerarse extensiones de la aritmética (álgebra abstracta, álgebra homológica, álgebra exterior, etc.). Por razones históricas, también puede indicar una relación con las soluciones de ecuaciones polinomiales, números algebraicos, extensión algebraica o expresión algebraica. Conviene distinguir entre: • Álgebra elemental es la parte del álgebra que se enseña generalmente en los cursos de matemáticas. • Álgebra abstracta es el nombre dado al estudio de las «estructuras algebraicas» propiamente. El álgebra usualmente se basa en estudiar las combinaciones de cadenas finitas de signos y, mientras que análisis matemático requiere estudiar límites y sucesiones de una cantidad infinita de elementos. Algebra Elemental El álgebra elemental incluye los conceptos básicos de álgebra, que es una de las ramas principales de las matemáticas. Mientras que en la aritmética solo ocurren los números y sus operaciones aritméticas elementales (como +, –, ×, ÷), en álgebra también se utilizan símbolos para denotar números. Estos se denominan variables, incógnita, coeficientes, índices o raíz, según el caso. El término álgebra elemental se usa para distinguir este campo del álgebra abstracta, la parte de la matemática que estudia las estructuras algebraicas. Algebra Abstracta El álgebra abstracta, ocasionalmente llamada álgebra moderna, es la parte de la matemática que estudia las estructuras algebraicas como las de grupo, anillo, cuerpo (a veces llamado campo) o espacio vectorial. Muchas de estas estructuras fueron definidas formalmente en el siglo XIX, y, de hecho, el estudio del álgebra abstracta fue motivado por la necesidad de más exactitud en las definiciones matemáticas. En álgebra abstracta, los elementos combinados por diversas operaciones generalmente no son interpretables como números, razón por la cual el álgebra abstracta no puede ser considerada una simple extensión de la aritmética. El estudio del álgebra abstracta ha permitido observar con claridad lo intrínseco de las afirmaciones lógicas en las que se basan todas las matemáticas y las ciencias naturales, y se usa hoy en día prácticamente en todas las ramas de la matemática. Además, a lo largo de la historia, los algebristas descubrieron que estructuras lógicas aparentemente diferentes muy a menudo pueden caracterizarse de la misma forma con un pequeño conjunto de axiomas. El término álgebra abstracta se usa para distinguir este campo del álgebra elemental o del álgebra de la escuela secundaria que muestra las reglas correctas para manipular fórmulas y expresiones algebraicas que conciernen a los números reales y números complejos. El álgebra abstracta fue conocida durante la primera mitad del siglo XX como álgebra moderna". Polinomios Algebraicos Dentro de los monomios y los polinomios vamos a ver cuáles son semejantes y el grado que tienen, entre otras cosas. También veremos las operaciones con polinomios: suma, resta, multiplicación, división y también las propiedades de la suma y de la multiplicación.

109


Es una expresión algebraica constituida por una suma finita de productos entre variables (valores no determinados o desconocidos) y constantes (números fijos llamados coeficientes), o bien una sola variable. Las variables pueden tener exponentes de valores definidos naturales incluido el cero y cuyo valor máximo se conocerá como grado del polinomio. Es frecuente el término polinómico (ocasionalmente también el anglicismo polinomial), como adjetivo, para designar cantidades que se pueden expresar como polinomios de algún parámetro, como por ejemplo: tiempo polinómico, etc. Los polinomios son objetos muy utilizados en matemáticas y en ciencia. En la práctica, son utilizados en cálculo y análisis matemático para aproximar cualquier función derivable; las ecuaciones polinómicas y las funciones polinómicas tienen aplicaciones en una gran variedad de problemas, desde la matemática elemental y el álgebra hasta áreas como la física, química, economía y las ciencias sociales. En álgebra abstracta, los polinomios son utilizados para construir los anillos de polinomios, un concepto central en teoría de números algebraicos y geometría algebraica. Operaciones Básicas Una expresión algebraica es una combinación de letras, números y signos de operaciones. Las letras suelen representar cantidades desconocidas y se denominan variables o incógnitas. Las expresiones algebraicas nos permiten traducir al lenguaje matemático expresiones del lenguaje habitual. • Monomio Monomio es una expresión algebraica en la que se utilizan incógnitas de variables literales que constan de un solo término (si hubiera una suma o una resta sería un binomio), un número llamado coeficiente. Las únicas operaciones que aparecen entre las letras son el producto y la potencia de exponentes naturales. Se denomina polinomio a la suma de varios monomios. Un monomio es una clase de polinomio, que posee un único término. •

Binomio

En álgebra, un binomio consta únicamente de una suma o resta de dos monomios. Todo binomio es un polinomio, pero las expresiones algebraicas pueden contar con más de dos términos por lo cual existen polinomios que no son binomios, de tres, cuatro o más términos. Para averiguar las potencias de un binomio se recurre a la llamada fórmula del binomio de Newton, que consiste en un algoritmo donde se emplean una sucesión de números combinatorios o coeficientes binomiales. • Trinomio Expresión algebraica formada por la suma o la diferencia de tres términos o monomios. En álgebra, un trinomio es una expresión algebraica de únicamente tres monomios, sumados o restados.

ECUACIONES Una ecuación es una igualdad entre dos expresiones algebraicas en las que aparece una (o más) incógnita. Normalmente, la incógnita es x. La incógnita x representa al número (o números), si existe, que hace que la igualdad sea verdadera. Este número desconocido es la solución de la ecuación. Una ecuación es una igualdad matemática entre dos expresiones, denominadas miembros y separadas por el signo igual, en las que aparecen elementos conocidos y datos desconocidos o incógnitas, relacionados mediante operaciones matemáticas. Los valores conocidos pueden ser números, coeficientes o constantes; también variables o incluso objetos complejos como funciones o vectores, los elementos desconocidos pueden ser establecidos mediante otras

110


ecuaciones de un sistema, o algún otro procedimiento de resolución de ecuaciones. Las incógnitas, representadas generalmente por letras, constituyen los valores que se pretende hallar (en ecuaciones complejas en lugar de valores numéricos podría tratarse de elementos de un cierto conjunto abstracto, como sucede en las ecuaciones diferenciales).

La variable X representa la incógnita, mientras que el coeficiente 6 y los números 2, 7, 3 y 8 son constantes conocidas. La igualdad planteada por una ecuación será cierta o falsa dependiendo de los valores numéricos que tomen las incógnitas; se puede afirmar entonces que una ecuación es una igualdad condicional, en la que solo ciertos valores de las variables (incógnitas) la hacen cierta. En el caso de que todo valor posible de la incógnita haga cumplir la igualdad, la expresión se llama identidad. Si en lugar de una igualdad se trata de una desigualdad entre dos expresiones matemáticas, se denominará inecuación. El símbolo “=”, que aparece en cada ecuación, fue inventado en 1557 por Robert Recordé, que consideró que no había nada más igual que dos líneas rectas paralelas de la misma longitud.

Ecuaciones de Primer Grado Una ecuación de primer grado o lineal o ecuación lineal es una igualdad que involucra una o más variables a la primera potencia y no contiene productos entre las variables, es decir, una ecuación que involucra solamente sumas y restas de una variable a la primera potencia.

Ecuaciones de Segundo Grado Ecuación de segundo grado. donde x es la variable, y a, b y c constantes; a es el coeficiente cuadrático (distinto de 0), b el coeficiente lineal y c es el término independiente. Este polinomio se puede interpretar mediante la gráfica de una función cuadrática, es decir, por una parábola.

111


FUNCIONES En matemática, se dice que una magnitud es función de otra si el valor de la primera depende del valor de la segunda. Por ejemplo el área A de un círculo es función de su radio r (el valor del área es proporcional al cuadrado del radio, A = π·r2). Del mismo modo, la duración T de un viaje en tren entre dos ciudades separadas por una distancia d de 150 km depende de la velocidad v a la que se desplace el tren (la duración es inversamente proporcional a la velocidad, d / v). A la primera magnitud (el área, la duración) se la denomina variable dependiente, y la magnitud de la que depende (el radio y la velocidad) es la variable independiente. En análisis matemático, el concepto general de función, aplicación o mapeo se refiere a una regla que asigna a cada elemento de un primer conjunto un único elemento de un segundo conjunto. Las funciones son relaciones entre los elementos de dos conjuntos. Por ejemplo, cada número entero posee un único cuadrado, que resulta ser un número natural.

Esta es una función entre el conjunto de las palabras del español y el conjunto de las letras del alfabeto español. Tipos de Funciones A continuación, mostramos algunos de los principales tipos de funciones matemáticas, clasificadas en diferentes grupos según su comportamiento y el tipo de relación que se establece entre las variables X e Y.

Funciones Inyectivas Reciben el nombre de funciones inyectivas aquel tipo de relación matemática entre dominio y codominio en el que cada uno de los valores del codominio se vincula únicamente a un valor del dominio. Es decir, x solo va a poder tener un único valor para un valor y determinado, o bien puede no tener valor (es decir un valor concreto de x puede no tener relación con y).

112


Funciones Suryectivas Las funciones suryectivas son todas aquellas en las que todos y cada uno de los elementos o valores del codominio (y) están relacionados con al menos uno del dominio (x), aunque pueden ser más. No tiene por qué ser necesariamente inyectiva (al poder asociarse varios valores de x a un mismo y).

Funciones Biyectivas Se denomina como tal al tipo de función en que se dan propiedades tanto inyectivas como suryectivas. Es decir, hay un único valor de x para cada y, y todos los valores del dominio se corresponden con uno del codominio.

Funciones No Inyectivas y No Suryectivas Este tipo de funciones indican que existen múltiples valores del dominio para un codominio concreto (es decir diferentes valores de x nos van a dar una misma y) a la par que otros valores de y no se encuentran vinculados a ningún valor de x. Función Lineal En geometría analítica y álgebra elemental, una función lineal es una función polinómica de primer grado, es decir, una función cuya representación en el plano cartesiano es una línea recta.

Función Afín Una función afín es una función polinómica de primer grado que no pasa por el origen de coordenadas, o sea, por el punto (0,0). Es una relación que asocia a cada elemento del conjunto de partida con un único elemento del conjunto de llegada. Nota: para que una relación sea función debe cumplirse que todos los elementos del conjunto de partida tengan una imagen y además estos deben tener una sola imagen. A las funciones suelen representarse por letras minúsculas tales como: f, g, h entre otras.

113


Función Par Una función par es una función que satisface la relación f (x) =f (-x) y si x y -x están en el dominio de la función. Desde un punto de vista geométrico, la gráfica de una función par es simétrica con respecto al eje y, lo que quiere decir que su gráfica no se altera luego de una reflexión sobre el eje y.

Función Impar Una función impar es cualquier función que satisface la relación: f (-x) = -f (x) para todo x en el dominio de f. Desde un punto de vista geométrico, una función impar posee una simetría rotacional con respecto al origen de coordenadas, lo que quiere decir que su gráfica no se altera luego de una rotación de 180 grados alrededor del origen.

Función Polinómica Una función polinómica f es una función cuya expresión es un polinomio tal como:

El dominio de las funciones polinómicas son todos los números reales. Las funciones polinómicas son continuas en todo su dominio.

114


Función Constante Una función f es constante si la variable dependiente y toma el mismo valor a para cualquier elemento del dominio (variable independiente x).

En términos matemáticos, la función f es constante si para cualquier par de puntos x1y x2del dominio tales que x1<x2, se cumple que f(x1) = f(x2).

La gráfica de una función constante es una recta paralela al eje de abscisas X. Función Exponencial Una función exponencial es aquella que la variable independiente x aparece en el exponente y tiene de base una constante a. Su expresión es: siendo a un real positivo, a > 0, y diferente de 1, a ≠ 1.

También se suele denotar la función como exp (x). Función Logarítmica Una función logarítmica está formada por un logaritmo de base a, y es de la forma: siendo a un real positivo, a > 0, y diferente de 1, a ≠ 1.

115


La función logarítmica es la inversa de la función exponencial. Funciones trigonométricas las funciones trigonométricas f son aquellas que están asociadas a una razón trigonométrica.

Las razones trigonométricas de un ángulo α son las obtenidas entre los tres lados de un triángulo rectángulo. Es decir, las comparaciones por su cociente de sus tres lados a, b y c. Funciones Definidas a Trozos Las funciones definidas a trozos (o función por partes) si la función tiene distintas expresiones o fórmulas dependiendo del intervalo (o trozo) en el que se encuentra la variable independiente (x). Por ejemplo:

La imagen de un valor x se calcula según en que intervalo se encuentra x. Por ejemplo, el 0 se encuentra en el intervalo (-∞,1), por lo que su imagen es f(0)=0. El valor 3 está en el intervalo [1,4], entonces su imagen es f(3)=2. Función Derivada de una Función La función derivada f’ de una función f que sea derivable en un intervalo I es una nueva función que hace corresponder para cada valor de x ∈ I el valor de la derivada de f en ese punto. En otras palabras, la función derivada f’ recoge todos los valores de las derivadas de f existentes en todos los puntos de su dominio.

116


Puede ocurrir que f no tenga derivada en todo su dominio. En ese caso, el dominio de la función derivada f’ es más pequeño que el dominio de f. La expresión de la función derivada respecto a la función inicial es el siguiente límite:

La función derivada f’ de una función f, derivable en I, cuando el incremento de la variable x ∈ I tiende a cero, es el cociente entre el incremento de la función inicial y el incremento de la variable independiente x. Función de Valor Absoluto La función valor absoluto devuelve el valor numérico del segundo término, pero afectado siempre del signo positivo. Tiene sentido para caracterizar distancias, longitudes. La expresión más simple de una función valor absoluto es: f(x) = |x| y la gráfica son dos rectas simétricas en el primer y segundo cuadrante, con pendientes 1 y -1 (forma de “V”) que se cortan en el origen (0,0).

SECCIONES GEOMÉTRICAS En geometría descriptiva, la sección de un sólido es la intersección de un plano con dicho sólido. Existen dos tipos especiales de sección; la sección longitudinal, cuando el plano de corte α es paralelo al eje principal del sólido K, y la sección transversal cuando el plano α es perpendicular al eje del sólido K. Las secciones suministran información de todos los elementos que aparecen ocultos en la planta y alzados principales, siendo de gran utilidad en las representaciones gráficas de elementos arquitectónicos y de ingeniería. Formando parte, casi imprescindible, de los planos de todo proyecto técnico. Bases • • • • •

Sección cónica Parábola Elipse Hipérbola Circunferencia

• Sección Cónica Se denomina sección cónica (o simplemente cónica) a todas las curvas resultantes de las diferentes intersecciones entre un cono y un plano; si dicho plano no pasa por el vértice, se obtienen las cónicas propiamente dichas. Se clasifican en cuatro tipos: elipse, parábola, hipérbola y circunferencia.

117


Parábola En matemáticas, una parábola es la sección cónica de excentricidad igual a 1, resultante de cortar un cono recto con un plano cuyo ángulo de inclinación respecto al eje de revolución del cono sea igual al presentado por su generatriz. El plano resultará por lo tanto paralelo a dicha recta. Se define también como el lugar geométrico de los puntos de un plano que equidistan de una recta llamada directriz y un punto interior a la parábola llamado foco. En geometría proyectiva, la parábola se define como la curva envolvente de las rectas que unen pares de puntos homólogos en una proyectividad semejante o semejanza.

• Elipse Una elipse es una curva cerrada con dos ejes de simetría que resulta al cortar la superficie de un cono por un plano oblicuo al eje de simetría con ángulo mayor que el de la generatriz respecto del eje de revolución. Una elipse que gira alrededor de su eje menor genera un esferoide achatado, mientras que una elipse que gira alrededor de su eje principal genera un esferoide alargado. La elipse es también la imagen afín de una circunferencia. • Hiperbola Una hipérbola es una curva abierta de dos ramas, obtenida cortando un cono recto mediante un plano no necesariamente paralelo al eje de simetría, y con ángulo menor que el de la generatriz respecto del eje de revolución. En geometría analítica, una hipérbola es el lugar geométrico de los puntos de un plano, tales que el valor absoluto de la diferencia de sus distancias a dos puntos fijos, llamados focos, es igual a la distancia entre los vértices, la cual es una constante positiva. • Circunferencia La circunferencia es una curva plana y cerrada tal que todos sus puntos están a igual distancia del centro. Distíngase de círculo, cuyo lugar geométrico que queda determinado por una circunferencia y la región del plano que encierra esta.

GEOMETRÍA La geometría es una rama de las matemáticas que se ocupa del estudio de las propiedades de las figuras en el plano o el espacio, incluyendo: puntos, rectas, planos, politopos (que incluyen paralelas, perpendiculares, curvas, superficies, polígonos, poliedros, etc.). Es la base teórica de la geometría descriptiva o del dibujo técnico. También da fundamento a instrumentos como el compás, el teodolito, el pantógrafo o el sistema de posicionamiento global (en especial cuando se la considera en combinación con el análisis matemático y sobre todo con las ecuaciones diferenciales). Sus orígenes se remontan a la solución de problemas concretos relativos a medidas. Tiene su aplicación práctica en física aplicada, mecánica, arquitectura, geografía, cartografía, astronomía, náutica, topografía, balística etc., y es útil en la preparación de diseños e incluso en la fabricación de artesanía.

118


Su palabra proviene de los vocablos griegos geō (tierra) y metrein (medir). La geometría es la parte de las matemáticas que trata de las propiedades y medida del espacio o del plano, fundamentalmente se preocupa de problemas métricos como el cálculo del área y diámetro de figuras planas y de la superficie y volumen de cuerpos sólidos o geométricos. El cuerpo geométrico es un cuerpo real considerado tan solo desde el punto de vista de su extensión espacial. La idea de figura es aún más general, pues se abstrae también de su extensión espacial. Así, el espacio tiene tres dimensiones, una superficie solo dos, una recta una y un punto carece de dimensiones. La geometría se ocupa de la forma de un cuerpo independientemente de las demás propiedades del mismo. Importancia de la geometría El aprendizaje de la geometría en la escuela es de suma importancia ya que todo nuestro entorno está lleno de formas geométricas; en la vida cotidiana es indispensable el conocimiento geométrico básico para orientarse adecuadamente en el espacio, haciendo estimaciones sobre formas y distancias. Seguramente muchos habremos oído de la importancia que tienen las Matemáticas en la vida cotidiana, sea como un instrumento que nos ayuda con la Contabilización y Operaciones que realizamos en forma prácticamente automática (como lo es en el momento en que nos dedicamos a hacer Compras y Ventas, controlando que se nos del dinero del cambio o pagando el precio exacto por los productos) o bien nos ayuda a ejercitar nuestra inteligencia a través de operaciones que requieren de lógica, razonamiento y deducción.

FIGURAS GEOMETRICAS Las figuras geométricas son el objeto de estudio de la geometría, rama de las matemáticas que se dedica a analizar las propiedades y medidas de las figuras en el espacio o en el plano. Una figura geométrica es un conjunto no vacío cuyos elementos son puntos. Para definir y clasificar las figuras geométricas, comúnmente se debe recurrir a conceptos fundamentales, tales como el de punto, recta, plano y espacio, que en sí mismas también se consideran figuras geométricas. A partir de ellas es posible obtener todas las figuras geométricas, mediante transformaciones y desplazamientos de sus componentes. • • • •

Punto Recta Semirrecta Segmento

• • • •

Curva Plano Polígono Triangulo

• • •

Cuadrilátero Elipse Circunferen cia

• •

Parábola Hipérbola

CUERPOS GEOMETRICOS Un cuerpo geométrico es una figura geométrica tridimensional, es decir, que posee largo, ancho y alto, que ocupa un lugar en el espacio y que por lo tanto posee un volumen. Los cuerpos geométricos se pueden clasificar a su vez en poliedros y cuerpos geométricos redondos o no poliedros.

119


Poliedros Los poliedros son cuerpos geométricos del espacio formado por polígonos, llamados caras, y unidos de tal modo que encierran una porción del espacio. Entre los más conocidos se encuentran los siguientes: o Prismas o Sólidos platónicos o Sólidos arquimedianos o Pirámides •

• Redondos Los cuerpos redondos son aquellos que tienen, al menos, una de sus caras curvada. Entre los más conocidos se encuentran: o Cilindro o Cono o Esfera o Toro

MEDIDAS La teoría de la medida es una rama del análisis y de la geometría que investiga las medidas, las funciones medibles y la integración. Es de importancia central en geometría, probabilidad y en estadística. En matemáticas, una medida de un conjunto es una forma sistemática y rigurosa de asignar un número a cada subconjunto apropiado de dicho conjunto. Intuitivamente, dicho número puede ser interpretado como una cierta medida del tamaño de dicho subconjunto. En este sentido, la medida es una generalización de los conceptos de "longitud”, “área", y "volumen". Dicha generalización se extiende tanto a mayores dimensiones (en el sentido de "hipervolúmenes") como a conceptos más abstractos, puesto que el conjunto sobre el que se aplica una medida no tiene por qué ser un subconjunto de un espacio geométrico. En general, si uno pretende asociar un tamaño consistente a cada subconjunto de un conjunto dado y al mismo tiempo satisfacer el resto de axiomas de una medida, las únicas medidas que uno suele poder definir son ejemplos triviales como la medida de conteo. Este problema fue resuelto definiendo la medida como aplicable a unas familias reducidas de subconjuntos, usualmente llamados los conjuntos medibles.

120


• Medida de Jordan Los conjuntos elementales son muy restrictivos, pues solo pueden construirse con base en intervalos. La medida de Jordan es la primera generalización del concepto de medida. La idea general es la de demarcar el conjunto E con otros dos conjuntos, uno que lo inscribe y otro que lo circunscribe. Dichos dos conjuntos pueden ser expresados como conjuntos elementales, y en el límite, conforme las cajas que conforman dichos conjuntos aumentan en número e inscriben al conjunto E mejor, las medidas elementales de dichos conjuntos acabarán por converger a la medida (de Jordan) de E. • Medida de Lebesgue La medida de Lebesgue es una generalización de la medida de Jordan que extiende el conjunto de conjuntos medibles (y, por tanto, integrables). El problema con la medida de Jordan está relacionado con la definición de medida externa de Jordan.

PROPIEDAD Y FUNCIONES Una función es una relación entre variables que debe cumplir con ciertas condiciones de unicidad. Por ejemplo, si trabajamos con dos variables: X, Y Una función es la relación en la que a cada valor de X” le corresponde un único valor de la variable “Y”

En cualquier función, una cantidad es dependiente de la otra. En el ejemplo del carro, el número de llantas depende del número de carros en el estacionamiento. Algebraicamente, podemos representar esta relación con una ecuación. llantas = 4 • carros El número 4 nos describe cómo es la relación entre el número de carros y el número de llantas. Todas las funciones proporcionales funcionan de la misma manera. Llamamos a esa proporción constante de variación, o constante de proporcionalidad. Es una constante porque este número no cambia dentro de la función. Como la entrada y la salida están ligadas por una constante, cambios en la variable independiente causan un cambio proporcional en la variable dependiente en una forma constante. Esta relación proporcional les da su nombre a las funciones proporcionales.

121


Podemos utilizar la ecuación de los carros y las llantas como base para escribir una ecuación algebraica general que funcionará para todas las funciones proporcionales. En nuestro ejemplo, las llantas son la salida, 4 es la constante, y los carros son la entrada. Pongamos estos términos genéricos en la ecuación. Obtenemos salida = constante • entrada. Ésa es la fórmula para todas las funciones proporcionales. llantas = 4 • carros salida = constante • entrada Cambiémosla de una fórmula verbal a una simbólica será más rápido de escribir. La salida de una función es también conocida como la variable dependiente y es generalmente representada simbólicamente como y. La entrada se llama variable independiente, representada por el símbolo x. Representemos la constante con la letra k. Ahora pondremos esos símbolos en la ecuación. llantas = 4 • carros salida = constante • entrada y = kx

NOCIONES DE PROBABILIDAD La noción de probabilidad mide la frecuencia y posibilidad con la que puede suceder un resultado ya sea en un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La probabilidad es una medida de la certidumbre asociada a un suceso o evento futuro y suele expresarse como un número entre 0 y 1 (o entre 0 % y 100 %). Una forma tradicional de estimar algunas probabilidades sería obtener la frecuencia de un acontecimiento determinado mediante la realización de experimentos aleatorios, de los que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. Un suceso puede ser improbable (con probabilidad cercana a 0), probable (probabilidad intermedia) o seguro (con probabilidad uno). La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, las ciencias, la administración, contaduría, economía y la filosofía para sacar conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente discreta de sistemas complejos, por lo tanto es la rama de las matemáticas que estudia, mide o determina los experimentos o fenómenos aleatorios. •

FACTORIAL: La factorial está relacionada con el cálculo del número de maneras en las que un conjunto de cosas puede arreglarse en orden. El número de maneras en el que las n cosas pueden arreglarse en orden es:

PERMUTACIONES: En muchos casos se necesita saber el número de formas en las que un subconjunto de un grupo completo de cosas puede arreglarse en orden. Cada posible arreglo es llamado permutación. Si un orden es suficiente para construir otro subconjunto, entonces se trata de permutaciones. El número de maneras para arreglar r objetos seleccionados a la vez de n objetos en orden, es decir, el número de permutaciones de n elementos tomados r a la vez es:

COMBINACIONES: En muchas situaciones no interesa el orden de los resultados, sino sólo el número de maneras en las que r objetos pueden seleccionarse a partir de n cosas, sin consideración de orden. Si dos subconjuntos se consideran iguales debido a que simplemente se han reordenado los mismos elementos, entonces se trata de combinaciones. El número de

122


maneras para arreglar r objetos seleccionados a la vez de n objetos, sin considerar el orden, es decir, el número de combinaciones de n elementos tomados r a la vez es:

Análisis y Representación de Datos Los datos de la investigación y el respectivo análisis, deben preferentemente ser organizados en función a las hipótesis para poder más fácilmente ofrecer resultados que la acepten o rechacen, a partir de ello los resultados se presentan en cuadros y gráficos. Si se considera que los cuadros y gráficos son numerosos, el investigador puede consignar parte de estos en la sección de anexos, presentando en el cuerpo de informe sólo los más importantes. Con la tabulación se dispone de la suma o total de los datos, pero esto no basta. Existe la necesidad desordenarlos y presentarlos de manera, sistemática para facilitar su lectura y análisis. Las formas de presentar los datos arrojados por la investigación estadística se desarrollan con el firme propósito de esclarecer la forma de lectura de los mismos. es recomendable utilizar #cada vez que sea posible$ más de un método, siendo el mixto el método por excelencia. La forma de presentación de datos puede ser escrita, semi tabular, tabular, gráfica y mixta. Patrones Un patrón es un tipo de tema de sucesos u objetos recurrentes, como por ejemplo grecas, a veces referidos como ornamentos de un conjunto de objetos. Más abstractamente, podría definirse patrón como aquella serie de variables constantes, identificables dentro de un conjunto mayor de datos. Estos elementos se repiten de una manera predecible. Puede ser una plantilla o modelo que puede usarse para generar objetos o partes de ellos, especialmente si los objetos que se crean tienen lo suficiente en común para que se infiera la estructura del patrón fundamental, en cuyo caso, se dice que los objetos exhiben un único patrón. Los patrones más básicos, llamados teselaciones, se basan en la repetición y la periodicidad. Una única plantilla, azulejo o célula, se combina mediante duplicados sin cambios o modificaciones. Por ejemplo, osciladores armónicos simples producen repetidos patrones de movimiento. Otros patrones, como la teselación de Penrose y los patrones indios Pongal o Kolam, usan simetría, que es una forma de repetición finita, en lugar de una traslación, que puede repetirse hasta el infinito. Los patrones fractales también utilizan aumentos o escalas que producen un efecto conocido como autosimilaridad o invariancia de escala. Algunas plantas, como los helechos, incluso generan un patrón usando una transformación afín que combina la traslación, con el escalado, la rotación y la reflexión. La concordancia de patrones es el acto de comprobar la presencia de los componentes de un patrón, mientras que la detección de patrones subyacentes se conoce como el reconocimiento de patrones. La cuestión de cómo surge un patrón es llevado a cabo a través del trabajo científico de la formación de patrones. El reconocimiento de patrones es tanto más complejo cuando las plantillas se utilizan para generar variantes. La informática, la etología y la psicología son ámbitos donde se estudian los patrones.

123


Progresiones Toda secuencia ordenada de números reales recibe el nombre de sucesión. Dentro del grupo de sucesiones existen dos particularmente interesantes por el principio de regularidad que permite sistematizar la definición de sus propiedades: las progresiones aritméticas y geométricas. • Progresiones Aritméticas Una progresión aritmética es una clase de sucesión de números reales en la que cada término se obtiene sumando al anterior una cantidad fija predeterminada denominada diferencia. Llamando d a esta diferencia, el término general de la progresión an , que ocupa el número de orden n en la misma, se puede determinar a partir del valor del primero de los términos, a 1. an = a1 + (n - 1) d.

Las sucesiones (por ejemplo, las progresiones aritméticas y geométricas) pueden verse como correspondencias unívocas entre el conjunto de los números naturales N y el de los reales R. Progresiones Geométricas Otra forma común de sucesión es la constituida por las llamadas progresiones geométricas. Estas progresiones se definen como aquellas en las que cada término se obtiene multiplicando el anterior por un valor fijo predefinido que se conoce como razón. El término general an de una progresión geométrica puede escribirse como: an = a1 × rn-1

124


Física Fundamental

125


Física Fundamental CIENCIAS AUXILIARES DE LA FÍSICA Algunas de las ciencias auxiliares de la física son las matemáticas, química, astronomía, biología, estadística o ecología. La física es una ciencia natural, teórica y experimental, que estudia el tiempo, el espacio, la materia y la energía, a la vez que estudia cómo estos cuatro elementos interactúan entre sí. A pesar de esto, las relaciones entre la física y las otras ciencias se mantuvieron a través del tiempo. De hecho, la física es una de las ciencias más fundamentales y más necesarias para otras disciplinas. Además, es la base para la explicación de los fenómenos estudiados por otras áreas del saber. Así como la física es fundamental para otras ciencias, está también requiere de otras áreas del saber para cumplir con sus objetivos. Estas constituyen lo que es conocido como “ciencias auxiliares”. Existen diversas ciencias que de una forma u otra contribuyen con la física. Las más resaltantes son las matemáticas, la química, la astronomía, la biología, la estadística, la ecología, la geología y la meteorología. 1. Las Matemáticas Las matemáticas y la física están estrechamente relacionadas. Mientras que las matemáticas estudian cantidades, la materia, sus formas y propiedades a través del uso de símbolos y números, la física se encarga del estudio de las propiedades de la materia, de los cambios físicos que se producen en esta, y de los fenómenos físicos.

2. La Química La química es una de las ciencias que más se relaciona con la física. Un ejemplo de esto es que los cambios químicos suelen ser acompañados de cambios físicos. La física nuclear es aquella que se encarga del estudio de reacciones en cadena, la cual se da cuando se produce un estallido en el núcleo de un átomo radioactivo a causa de un neutrón. Por su parte, la física atómica se encarga del estudio de la estructura del átomo, así como del estudio de las propiedades y funciones de este. La química es una ciencia auxiliar en dos ramas de la física: la física nuclear y la física atómica. 3. La Astronomía La astronomía es una ciencia previa a la física. De hecho, la astronomía generó el nacimiento de la física al estudiar los movimientos de las estrellas y de los planetas, dos elementos que eran el centro de interés de la física antigua. Además, la astronomía contribuye en la rama de la física denominada “física óptica”, la cual estudia los fenómenos relacionados con la luz, la visión, el espectro electromagnético (frecuencias de ondas de luz que permiten el estudio de las estrellas), entre otros.

126


4. La Biología La biología es otra de las ciencias con las que interactúa la física. Durante el siglo XIX, estas dos ciencias trabajaron de la mano. De este trabajo en conjunto nació la ley de la conservación de la energía. Esta ley fue demostrada por Mayer, quien estudió la cantidad de calor absorbida y expulsada por un ser vivo. Asimismo, a partir de la cooperación de estas dos ciencias, se han producido avances como la radioterapia, la quimioterapia y los rayos X. 5. La Estadística La estadística es la ciencia que se basa en recopilar y agrupar datos numéricos sobre diversas áreas de interés. En este sentido, la física aprovecha los estudios estadísticos al momento de recolectar datos sobre fenómenos naturales físicos. Además, la estadística es la base para el desarrollo de investigaciones científicas, tipo de investigación en la que se encuentran enmarcados todos los trabajos en el área de la física. 6. La Ecología La ecología estudia a los seres vivos y su interacción con el ambiente. En dicho ambiente, suceden cambios físicos (como los cambios en las condiciones atmosféricas, cambios en la geología). En este sentido, el estudio de los hábitats y sus cambios desde el punto de vista de la ecología ofrece otra perspectiva que complementa el estudio físico.

7. La Geología La geología es la ciencia que se encarga del estudio de los componentes de la corteza del planeta Tierra y de cómo esta corteza ha cambiado con el paso del tiempo. Esta ciencia proporciona a la física testimonios evidentes de los cambios físicos que se han producido a lo largo de los años. Por el ejemplo: la división de Pangea (el súper continente) en los siete continentes que existen en la actualidad. 8. La Meteorología La meteorología es la ciencia que se encarga de estudiar los fenómenos atmosféricos, con el objeto de establecer predicciones sobre el clima. Esta ciencia contribuye con la rama de la física denominada “física de la atmósfera”, que estudia todo lo relacionado al tiempo atmosférico y sus fenómenos.

127


LAS LEYES DE NEWTON Las leyes de Newton, también conocidas como leyes del movimiento de Newton, son tres principios a partir de los cuales se explican una gran parte de los problemas planteados en mecánica clásica, en particular aquellos relativos al movimiento de los cuerpos, que revolucionaron los conceptos básicos de la física y el movimiento de los cuerpos en el universo. En concreto, la relevancia de estas leyes radica en dos aspectos: por un lado, constituyen, junto con la transformación de Galileo, la base de la mecánica clásica, y por otro, al combinar estas leyes con la ley de la gravitación universal, se pueden deducir y explicar las leyes de Kepler sobre el movimiento planetario. Así, las leyes de Newton permiten explicar, por ejemplo, tanto el movimiento de los astros como los movimientos de los proyectiles artificiales creados por el ser humano y toda la mecánica de funcionamiento de las máquinas. Su formulación matemática fue publicada por Isaac Newton en 1687 en su obra Philosophiae naturalis principia Mathica. La dinámica de Newton, también llamada dinámica clásica, solo se cumple en los sistemas de referencia inerciales (que se mueven a velocidad constante; la Tierra, aunque gire y rote, se trata como tal a efectos de muchos experimentos prácticos). Solo es aplicable a cuerpos cuya velocidad dista considerablemente de la velocidad de la luz; cuando la velocidad del cuerpo se va aproximando a los 300 000 km/s (lo que ocurriría en los sistemas de referencia no-inerciales) aparecen una serie de fenómenos denominados efectos relativistas. El estudio de estos efectos (contracción de la longitud, por ejemplo) corresponde a la teoría de la relatividad especial, enunciada por Albert Einstein en 1905. Primera ley de Newton o ley de inercia La primera ley del movimiento rebate la idea aristotélica de que un cuerpo solo puede mantenerse en movimiento si se le aplica una fuerza. Newton expone que: Todo cuerpo continúa en su estado de reposo o movimiento uniforme en línea recta, no muy lejos de las fuerzas impresas a cambiar su posición. Esta ley postula, por tanto, que un cuerpo no puede cambiar por sí solo su estado inicial, ya sea en reposo o en movimiento rectilíneo uniforme, a menos que se aplique una fuerza o una serie de fuerzas cuya resultante no sea nula. Newton toma en consideración, así, el que los cuerpos en movimiento están sometidos constantemente a fuerzas de roce o fricción, que los frena de forma progresiva, algo novedoso respecto de concepciones anteriores que entendían que el movimiento o la detención de un cuerpo se debía exclusivamente a si se ejercía sobre ellos una fuerza, pero nunca entendiendo como tal a la fricción. En consecuencia, un cuerpo que se desplaza con movimiento rectilíneo uniforme implica que no existe ninguna fuerza externa neta o, dicho de otra forma, un objeto en movimiento no se detiene de forma natural si no se aplica una fuerza sobre él. En el caso de los cuerpos en reposo, se entiende que su velocidad es cero, por lo que si esta cambia es porque sobre ese cuerpo se ha ejercido una fuerza neta. Newton retomó la ley de la inercia de Galileo: la tendencia de un objeto en movimiento a continuar moviéndose en una línea recta, a menos que sufra la influencia de algo que le desvíe de su camino. Newton supuso que, si la Luna no salía disparada en línea recta, según una línea tangencial a su órbita, se debía a la presencia de otra fuerza que la empujaba en dirección a la Tierra, y que desviaba constantemente su camino convirtiéndolo en un círculo. Newton llamó a esta fuerza gravedad y creyó que actuaba a distancia. No hay nada que conecte físicamente la Tierra y la Luna y sin embargo la Tierra está constantemente tirando de la Luna hacia nosotros. Newton se sirvió de la tercera ley de Kepler y dedujo matemáticamente la naturaleza de la fuerza de la gravedad. Demostró que la misma fuerza que hacía caer una manzana sobre la Tierra mantenía a la Luna en su órbita. La primera ley de Newton establece la equivalencia entre el estado de reposo y de movimiento rectilíneo uniforme. Supongamos un sistema de referencia S y otro S´ que se desplaza respecto del

128


primero a una velocidad constante. Si sobre una partícula en reposo en el sistema S´ no actúa una fuerza neta, su estado de movimiento no cambiará y permanecerá en reposo respecto del sistema S´ y con movimiento rectilíneo uniforme respecto del sistema S. La primera ley de Newton se satisface en ambos sistemas de referencia. El enunciado fundamental que podemos extraer de la ley de Newton es que:

Esta expresión es una ecuación vectorial, ya que las fuerzas llevan dirección y sentido. Por otra parte, cabe destacar que la variación con la que varía la velocidad corresponde a la aceleración. Sistemas de referencia inerciales La primera ley de Newton sirve para definir un tipo especial de sistemas de referencia conocidos como sistemas de referencia inerciales, que son aquellos desde los que se observa que un cuerpo sobre el que no actúa ninguna fuerza neta se mueve con velocidad constante. Un sistema de referencia con aceleración (y la aceleración normal de un sistema rotatorio se incluye en esta definición) no es un sistema inercial, y la observación de una partícula en reposo en el propio sistema no satisfará las leyes de Newton (puesto que se observará aceleración sin la presencia de fuerza neta alguna). Se denominan sistemas de referencia no inerciales. Diferencia de planteamiento de un problema debido a la posibilidad de observarlo desde dos puntos de vista: el punto de vista de un observador externo (inercial) o desde un observador interno Observador inercial: Desde su punto de vista el bloque se mueve en círculo con velocidad v y está acelerado hacia el centro de la plataforma con una aceleración centrípeta Esta aceleración es consecuencia de la fuerza ejercida por la tensión de la cuerda. Observador no inercial: Para el observador que gira con la plataforma el objeto está en reposo, a = 0. Es decir, observa una fuerza ficticia que contrarresta la tensión para que no haya aceleración centrípeta. Esa fuerza debe ser. 𝐹𝑐 =

𝑚𝑣 2 𝑟

Este observador siente la fuerza como si fuera perfectamente real, aunque solo sea la

consecuencia de la aceleración del sistema de referencia en que se encuentra. En realidad, es imposible encontrar un sistema de referencia inercial, ya que siempre hay algún tipo de fuerzas actuando sobre los cuerpos; no obstante, siempre es posible encontrar un sistema de referencia en el que el problema que estemos estudiando se pueda tratar como si estuviésemos en un sistema inercial. En muchos casos, la Tierra es una buena aproximación de sistema inercial, ya que a pesar de contar con una aceleración traslacional y otra rotacional, ambas son del orden de 0.01 m/s² y, en consecuencia, podemos considerar que un sistema de referencia de un observador en la superficie terrestre es un sistema de referencia inercial. Aplicación de la primera ley de Newton Se puede considerar como ejemplo ilustrativo de esta primera ley o ley de la inercia una bola atada a una cuerda, de modo que la bola gira siguiendo una trayectoria circular. Debido a la fuerza centrípeta de la cuerda (tensión), la masa sigue la trayectoria circular, pero si en algún momento la cuerda se rompiese, la bola tomaría una trayectoria rectilínea en la dirección de la velocidad que tenía la bola en el instante de rotura. Tras la rotura, la fuerza neta ejercida sobre la bola es 0, por lo que experimentará, como resultado de un estado de reposo, un movimiento rectilíneo uniforme.

129


Segunda ley de Newton o ley fundamental de la dinámica La segunda ley de Newton expresa que: El cambio de movimiento es directamente proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime. Esta ley se encarga de cuantificar el concepto de fuerza. La aceleración que adquiere un cuerpo es proporcional a la fuerza neta aplicada sobre el mismo. La constante de proporcionalidad es la masa del cuerpo (que puede ser o no ser constante). Entender la fuerza como la causa del cambio de movimiento y la proporcionalidad entre la fuerza impresa y el cambio de la velocidad de un cuerpo es la esencia de esta segunda ley. Si la masa es constante Si la masa del cuerpo es constante se puede establecer la siguiente relación, que constituye la ecuación fundamental de la dinámica: Donde m es la masa del cuerpo la cual debe ser constante para ser expresada de tal forma. La fuerza neta que actúa sobre un cuerpo, también llamada fuerza resultante, es el vector suma de todas las fuerzas que sobre él actúan. Así pues: ∑ 𝐹 = 𝑚𝑎 La aceleración que adquiere un cuerpo es proporcional a la fuerza aplicada, y la constante de proporcionalidad es la masa del cuerpo. Si actúan varias fuerzas, esta ecuación se refiere a la fuerza resultante, suma vectorial de todas ellas. Esta es una ecuación vectorial, luego se debe cumplir componente a componente. En ocasiones será útil recordar el concepto de componentes intrínsecas: si la trayectoria no es rectilínea es porque hay una aceleración normal, luego habrá también una fuerza normal (en dirección perpendicular a la trayectoria); si el módulo de la velocidad varía es porque hay una aceleración en la dirección de la velocidad (en la misma dirección de la trayectoria). La fuerza y la aceleración son vectores paralelos, pero esto no significa que el vector velocidad sea paralelo a la fuerza. Es decir, la trayectoria no tiene por qué ser tangente a la fuerza aplicada (sólo ocurre si al menos, la dirección de la velocidad es constante). Esta ecuación debe cumplirse para todos los cuerpos. Cuando analicemos un problema con varios cuerpos y diferentes fuerzas aplicadas sobre ellos, deberemos entonces tener en cuenta las fuerzas que actúan sobre cada uno de ellos y el principio de superposición de fuerzas. Aplicaremos la segunda ley de Newton para cada uno de ellos, teniendo en cuenta las interacciones mutuas y obteniendo la fuerza resultante sobre cada uno de ellos. El principio de superposición establece que si varias fuerzas actúan igual o simultáneamente sobre un cuerpo, la fuerza resultante es igual a la suma vectorial de las fuerzas que actúan independientemente sobre el cuerpo (regla del paralelogramo). La fuerza modificará el estado de movimiento, cambiando la velocidad en módulo o dirección. Las fuerzas son causas que producen aceleraciones en los cuerpos. Por lo tanto, existe una relación causa-efecto entre la fuerza aplicada y la aceleración que este cuerpo experimenta. De esta ecuación se obtiene la unidad de medida de la fuerza en el Sistema Internacional de Unidades, el Newton:

130


Si la masa no es constante Si la masa de los cuerpos varía, como por ejemplo un cohete que va quemando combustible, no es válida la 𝐹 = 𝑚𝑎 relación y hay que hacer genérica la ley para que incluya el caso de sistemas en los que pueda variar la masa. Para ello primero hay que definir una magnitud física nueva, la cantidad de movimiento, que se representa por la letra p y que se define como el producto de la masa de un cuerpo por su velocidad, es decir:

Newton enunció su ley de una forma más general:

De esta forma se puede relacionar la fuerza con la aceleración y con la masa, sin importar que esta sea o no sea constante. Cuando la masa es constante sale de la derivada con lo que queda la expresión:

Y se obtiene la expresión clásica de la Segunda Ley de Newton:

La fuerza, por lo tanto, es un concepto matemático el cual, por definición, es igual a la derivada con respecto al tiempo del momento de una partícula dada, cuyo valor a su vez depende de su interacción con otras partículas. Por consiguiente, se puede considerar la fuerza como la expresión de una interacción. Otra consecuencia de expresar la Segunda Ley de Newton usando la cantidad de movimiento es lo que se conoce como principio de conservación de la cantidad de movimiento: si la fuerza total que actúa sobre un cuerpo es cero, la Segunda ley de Newton nos dice que:

Es decir, la derivada de la cantidad de movimiento con respecto al tiempo es cero en sus tres componentes. Esto significa que la cantidad de movimiento debe ser constante en el tiempo en módulo dirección y sentido (la derivada de un vector constante es cero). La segunda ley de Newton solo es válida en sistemas de referencia inerciales pero incluso si el sistema de referencia es no inercial, se puede utilizar la misma ecuación incluyendo las fuerzas ficticias (o fuerzas inerciales). Unidades y dimensiones de la fuerza: Unidades S.I.: NEWTON= Sistema cegesimal: dina Equivalencia: 1 N= Cantidad de movimiento o momento lineal En el lenguaje moderno la cantidad de movimiento o momento lineal de un objeto se define mediante la expresión Es decir, P = mv es una magnitud vectorial proporcional a la masa y a la velocidad del objeto. Partiendo de esta definición y aplicando la ley fundamental de la mecánica

131


de Newton, las variaciones de la cantidad de movimiento se expresan en función de la fuerza resultante y el intervalo de tiempo durante el cual se ejerce esta:

Tomando el intervalo de tiempo de t1 a t2 e integrando se obtiene

Al vector I se le denomina impulso lineal y representa una magnitud física que se manifiesta especialmente en las acciones rápidas o impactos, tales como choques, llevando módulo dirección y sentido. En este tipo de acciones conviene considerar la duración del impacto y la fuerza ejercida durante el mismo. De la expresión obtenida se deduce que el impulso lineal es igual a la variación de la cantidad de movimiento. Si la fuerza resultante es cero (es decir, si no se actúa sobre el objeto) el impulso también es cero y la cantidad de movimiento permanece constante. Llamamos a esta afirmación ley de conservación del impulso lineal, aplicada a un objeto o una partícula. Sus unidades en el Sistema Internacional son: Conservación de la cantidad de movimiento Choque elástico: permanecen constantes la cantidad de movimiento y la energía cinética. Dos partículas de masas diferentes que solo interactúan entre sí y que se mueven con velocidades constantes y distintas una hacia la otra. Tras el choque, permanece constante la cantidad de movimiento y la energía cinética.

Choque inelástico: Permanece constante la cantidad de movimiento y varía la energía cinética. Como consecuencia, los cuerpos que colisionan pueden sufrir deformaciones y aumento de su temperatura. Tras un choque totalmente inelástico, ambos cuerpos tienen la misma velocidad. La suma de sus energías cinéticas es menor que la inicial porque una parte de esta se ha transformado en energía interna; en la mayoría de los casos llega a ser disipada en forma de calor debido al calentamiento producido en el choque. En el caso ideal de un choque perfectamente inelástico entre objetos macroscópicos, estos permanecen unidos entre sí tras la colisión.

132


Aplicaciones de la segunda ley de Newton Entre las posibles aplicaciones de la Segunda Ley de Newton, se pueden destacar: • Caída libre: Es un movimiento que se observa cuando un objeto se deja caer desde una cierta altura sobre la superficie de la tierra. Para estudiar el movimiento se elige un sistema de coordenadas donde el origen del eje y está sobre esta última. En este sistema tanto la velocidad de caída como la aceleración de la gravedad tienen signo negativo. En el ejemplo representado, se supone que el objeto se deja caer desde el reposo, pero es posible que caiga desde una velocidad inicial distinta de cero. • Péndulo simple: Partícula de masa m suspendida del punto O por un hilo inextensible de longitud l y de masa despreciable. Si la partícula se desplaza a una posición θ0 (ángulo que hace el hilo con la vertical) y luego se suelta, el péndulo comienza a oscilar. El péndulo describe una trayectoria circular, un arco de una circunferencia de radio l. Las fuerzas que actúan sobre la partícula de masa m son dos, el peso y la tensión T del hilo. Si se aplica la segunda ley, en la dirección radial:

Donde an representa la aceleración normal a la trayectoria. Conocido el valor de la velocidad v en la posición angular se puede determinar la tensión T del hilo. Esta es máxima cuando el péndulo pasa por la posición de equilibrio

Donde el segundo término representa la fuerza centrífuga. Y la tensión es mínima, en los extremos de su trayectoria, cuando la velocidad es cero.

En la dirección tangencial:

Donde at representa la aceleración tangente a la trayectoria. Tercera ley de Newton o principio de acción y reacción La tercera ley de Newton establece que siempre que un objeto ejerce una fuerza sobre un segundo objeto, este ejerce una fuerza de igual magnitud y dirección, pero en sentido opuesto sobre el primero. Con frecuencia se enuncia así: a cada acción siempre se opone una reacción igual, pero de sentido contrario. En cualquier interacción hay un par de fuerzas de acción y reacción situadas en la misma dirección con igual magnitud y sentidos opuestos. La formulación original de Newton es: Con toda acción ocurre siempre una reacción igual y contraria: quiere decir que las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentido opuesto.

133


Esta tercera ley de Newton es completamente original (pues las dos primeras ya habían sido propuestas de otra manera por Galileo, Hooke y Huygens) y hace de las leyes de la mecánica un conjunto lógico y completo. Expone que por cada fuerza que actúa sobre un cuerpo, este realiza una fuerza de igual intensidad, pero de sentido contrario sobre el cuerpo que la produjo. Dicho de otra forma, las fuerzas, situadas sobre la misma recta, siempre se presentan en pares de igual magnitud y de dirección, pero con sentido opuesto. Si dos objetos interaccionan, la fuerza F12, ejercida por el objeto 1 sobre el objeto 2, es igual en magnitud con misma dirección, pero sentidos opuestos a la fuerza F21 ejercida por el objeto 2 sobre el objeto 1:

Aplicaciones de la Tercera Ley de Newton Algunos ejemplos donde actúan las fuerzas acción-reacción son los siguientes: Si una persona empuja a otra de peso similar, las dos se mueven con la misma velocidad, pero en sentido contrario. Cuando saltamos, empujamos a la tierra hacia abajo, que no se mueve debido a su gran masa, y esta nos empuja con la misma intensidad hacia arriba. Una persona que rema en un bote empuja el agua con el remo en un sentido y el agua responde empujando el bote en sentido opuesto. Cuando caminamos empujamos a la tierra hacia atrás con nuestros pies, a lo que la tierra responde empujándonos a nosotros hacia delante, haciendo que avancemos. Cuando se dispara una bala, la explosión de la pólvora ejerce una fuerza sobre la pistola (que es el retroceso que sufren las armas de fuego al ser disparadas), la cual reacciona ejerciendo una fuerza de igual intensidad, pero en sentido contrario sobre la bala. La fuerza de reacción que una superficie ejerce sobre un objeto apoyado en ella, llamada fuerza normal con dirección perpendicular a la superficie. Las fuerzas a distancia no son una excepción, como la fuerza que la Tierra ejerce sobre la Luna y viceversa, su correspondiente pareja de acción y reacción: La fuerza que ejerce la Tierra sobre la Luna es exactamente igual (y de signo contrario) a la que ejerce la Luna sobre la Tierra y su valor viene determinado por la ley de gravitación universal enunciada por Newton, que establece que la fuerza que ejerce un objeto sobre otro es directamente proporcional al producto de sus masas, e inversamente proporcional al cuadrado de la distancia que los separa. La fuerza que la Tierra ejerce sobre la Luna es la responsable de que esta no se salga de su órbita circular.

NOTACIÓN CIENTÍFICA La notación científica, también denominada patrón o notación en forma exponencial, es una forma de escribir los números que acomoda valores demasiado grandes (100 000 000 000) o pequeños como puede ser el siguiente (0.000 000 000 01)1para ser escrito de manera convencional. El uso de esta notación se basa en potencias de 104 (los casos ejemplificados anteriormente en notación científica, quedarían 1 × 1011 y 1 × 10−11, respectivamente). Siempre el exponente es igual al número de cifras decimales que deben correrse para convertir un número escrito en notación científica en el mismo escrito en notación decimal. Se desplazará a la

134


derecha si el exponente es positivo y hacia la izquierda si es negativo. Cuando se trata de convertir un número a notación científica el proceso es a la inversa. Como ejemplo, en la química, al referirse a la cantidad de entidades elementales (átomos, moléculas, iones, etc.), hay una cantidad llamada cantidad de materia (mol). Un número escrito en notación científica sigue el siguiente patrón: El número m se denomina «mantisa» y e el «orden de magnitud». La mantisa, en módulo, debe ser mayor o igual a 1 y menor que 10, y el orden de magnitud, dado como exponente, es el número que más varía conforme al valor absoluto. Observe los ejemplos de números grandes y pequeños: • 500 5 x 102 • 520 5.2 x 102 • 600 000 6 x 105 • 30 000 000 3 x 107 • 500 000 000 000 000 5 x 1014 • 7 000 000 000 000 000 000 000 000 000 000 000 7 x 1033 • 0.05 5 x 10-2 • 0.052 5.2 x 10-2 • 0.0004 4 x 10−4 • 0.000 000 01 1 x 10−8 • 0.000 000 000 000 000 6 6 x 10−16 • 0.000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000

8 8 x 10−49

La representación de estos números, tal como se presenta, tiene poco significad práctico. Incluso se podría pensar que estos valores son poco relevantes y de uso casi inexistente en la vida cotidiana. Sin embargo, en áreas como la física y la química, estos valores son comunes. Por ejemplo, la mayor distancia observable del universo mide cerca de 740 000 000 000 000 000 000 000 000 m, y la masa de un protón es de unos 0.000 000 000 000 000 000 000 000 001 67 kg. Tipos de notación científica En la notación científica estándar, el exponente e es elegido de manera que el valor absoluto de m permanezca al menos uno pero menos de diez (1 ≤ | m | <10). Por ejemplo, 350 se escribe como 3.5 ⋅ 10². Esta forma permite una comparación simple de dos números del mismo signo en m, como el exponente e indica el número de la orden de grandeza. En notación estándar el exponente E es negativo para un número absoluto con valor entre 0 y 1 (por ejemplo, menos de la mitad es -5 ⋅ 10−1). El 10 y el exponente son generalmente omitidos cuando el exponente es 0. En muchas áreas, la notación científica se normaliza de esta manera, a excepción de los cálculos intermedios, o cuando una forma no estándar, tales como la notación de ingeniería, se desea. La notación científica (normalizada) suele llamarse notación exponencial - aunque este último término es más general y también se aplica cuando m no está restringido al intervalo de 1 a 10 (como en la notación de ingeniería, por ejemplo) y para otras bases distintas de 10 (como en 315 ⋅ 220). Notación E Muchas calculadoras y programas informáticos presentan en notación científica los resultados muy grandes o muy pequeños. Como los exponentes sobrescritos como 10 7 no pueden ser convenientemente representados en las y por las computadoras, máquinas de escribir y en calculadoras, suele utilizarse un formato alternativo: la letra E o e representa «por diez elevado a la potencia», sustituyendo entonces el « × 10n». Ejemplos • En el lenguaje de programación FORTRAN 6.0221415E23 es equivalente a 6.022 141 5×1023. • El lenguaje de programación ALGOL 60 usa un subíndice diez en lugar de la letra E, por ejemplo • 6.02214151023 . ALGOL 68 también permite E minúsculas, por ejemplo 6.0221415e23.

135


• • • • • •

El lenguaje de programación ALGOL 68 tiene la opción de 4 caracteres en (eE\10). Ejemplos: 6.0221415e23 , 6.0221415E23 , 6.0221415\23 o 6.02214151023 . En el lenguaje de programación Simula se requiere el uso de & (o && para largos), por ejemplo: 6.0221415&23 (o 6.0221415&&23 ). En lenguaje de programación Multiparadigma como Python no es relevante la utilización de mayúscula o minúscula para el carácter E o e, teniendo el mismo significado. 6.0221415e23 = 6.0221415E23

CIFRAS SIGNIFICATIVAS Las cifras significativas de una medida son las que aportan alguna información. Representan el uso de una o más escalas de incertidumbre en determinadas aproximaciones. Por ejemplo, se dice que 4,7 tiene dos cifras significativas, mientras que 4,07 tiene tres. Para distinguir los llamados significativos de los que no son, estos últimos suelen indicarse como potencias por ejemplo 5000 será 5x103 con una cifra significativa. También, cuando una medida debe expresarse con determinado número de cifras significativas y se tienen más cifras, deben seguirse las siguientes reglas: • Primera: Si se necesita expresar una medida con tres cifras significativas, a la tercera cifra se le incrementa un número si el que le sigue es mayor que 5 o si es 5 seguido de otras cifras diferentes de cero. Ejemplo: 53,6501 consta de 6 cifras y para escribirlo con 3 queda 53,7; aunque al 5 le sigue un cero, luego sigue un 1 por lo que no se puede considerar que al 5 le siga cero (01 no es igual a 0). • Segunda: Siguiendo el mismo ejemplo de tres cifras significativas: si la cuarta cifra es menor de 5, el tercer dígito se deja igual. Ejemplo: 53,649 consta de cinco cifras, como se necesitan 3 el 6 queda igual ya que la cifra que le sigue es menor de 5; por lo que queda 53,6. • Tercera: Cuando a la cifra a redondear le sigue un 5, siempre se redondea hacia arriba. Ejemplo: si el número es 3,7500 se redondearía a 3,8. El uso de estas considera que el último dígito de aproximación es incierto, por ejemplo, al determinar el volumen de un líquido con una probeta cuya resolución es de 1ml, implica una escala de incertidumbre de 0,5 ml. Así se puede decir que el volumen de 6 ml será realmente de 5,5ml a 6,5ml. El volumen anterior se representará entonces como (6,0 ± 0,5) ml. En caso de determinar valores más próximos se tendrían que utilizar otros instrumentos de mayor resolución, por ejemplo, una probeta de divisiones más finas y así obtener (6,0 ± 0,1) ml o algo más satisfactorio según la resolución requerida. Ejemplos de las Cifras Significativas: • 0,00286 --> Tres cifras significativas (286) • 1,20006 --> Seis cifras significativas (120006) • 12,000 --> Cinco cifras significativas (12000) • 0,108 --> Tres cifras significativas (108) Reglas para establecer las cifras significativas de un número dado: • Regla 1 En números que no contienen ceros, todos los dígitos son significativos. Por ejemplo: 3,14159 → seis cifras significativas → 3,14159 5.694 → cuatro cifras significativas → 5.694

136


• Regla 2 Todos los ceros entre dígitos significativos son significativos. Por ejemplo: 2,054 → cuatro cifras significativas → 2,054 506 → tres cifras significativas → 506 • Regla 3 Los ceros a la izquierda del primer dígito que no es cero sirven solamente para fijar la posición del punto decimal y no son significativos. Por ejemplo: 0,054 → dos cifras significativas → 0,054 0,0002604 → cuatro cifras significativas → 0,0002604 • Regla 4 En un número con dígitos decimales, los ceros finales a la derecha del punto decimal son significativos. Por ejemplo: 0,0540 → tres cifras significativas → 0,0540 30,00 → cuatro cifras significativas → 30,00 • Regla 5 Si un número no tiene punto decimal y termina con uno o más ceros, dichos ceros pueden ser o no significativos. Para poder especificar el número de cifras significativas, se requiere información adicional. Para evitar confusiones es conveniente expresar el número en notación científica, no obstante, también se suele indicar que dichos ceros son significativos escribiendo el punto decimal solamente. Si el signo decimal no se escribiera, dichos ceros no son significativos. Por ejemplo: 1200 → dos cifras significativas → 1200 1200, → cuatro cifras significativas → 1200, • Regla 6 Los números exactos tienen un número infinito de cifras significativas. Los números exactos son aquellos que se obtienen por definición o que resultan de contar un número pequeño de elementos. Por ejemplos: Al contar el número de átomos en una molécula de agua obtenemos un número exacto: 3. Al contar las caras de un dado obtenemos un número exacto: 6. Por definición el número de metros que hay en un kilómetro es un número exacto: 1000. Por definición el número de grados que hay en una circunferencia es un número exacto: 360

TEOREMA DE PITÁGORAS El teorema de Pitágoras establece que, en todo triángulo rectángulo, la longitud de la hipotenusa es igual a la raíz cuadrada de la suma del área de los cuadrados de las respectivas longitudes de los catetos. Es la proposición más conocida entre las que tienen nombre propio en la matemática. En todo triángulo rectángulo el cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos. Pitágoras Si en un triángulo rectángulo hay catetos de longitud de A y B, y la medida de la hipotenusa es C, entonces se cumple la siguiente relación:

137


De esta ecuación se deducen tres corolarios de verificación algebraica y aplicación práctica:

Designaciones convencionales

Demostraciones El teorema de Pitágoras es de los que cuentan con un mayor número de demostraciones diferentes, utilizando métodos muy diversos. Una de las causas de esto es que en la Edad Media se exigía una nueva demostración del teorema para alcanzar el grado de "Magíster matheseos". Algunos autores proponen hasta más de mil demostraciones. Otros autores, como el matemático estadounidense E. S. Loomis, catalogó 367 pruebas diferentes en su libro de 1927 La propuesta pitagórica. En ese mismo libro, Loomis clasificaría las demostraciones en cuatro grandes grupos: las algebraicas, donde se relacionan los lados y segmentos del triángulo; geométricas, en las que se realizan comparaciones de áreas; dinámicas a través de las propiedades de fuerza, masa; y las cuaterniónicas, mediante el uso de vectores. Demostraciones supuestas de Pitágoras Se estima que se demostró el teorema mediante semejanza de triángulos: sus lados homólogos son proporcionales. Sea el triángulo ABC, rectángulo en C. El segmento CH es la altura relativa a la hipotenusa, en la que determina los segmentos a’ y b’, proyecciones en ella de los catetos a y b, respectivamente. Los triángulos rectángulos ABC, AHC y BHC tienen sus tres bases iguales: todos tienen dos bases en común, y los ángulos agudos son iguales bien por ser comunes, bien por tener sus lados perpendiculares. En consecuencia, dichos triángulos son semejantes.

138


De la semejanza entre ABC y AHC: Y dos triángulos son semejantes si hay dos o más ángulos congruentes.

De la semejanza entre ABC y BHC:

Los resultados obtenidos son el teorema del cateto. Sumando:

Pero

por lo que finalmente resulta:

Pitágoras también pudo haber demostrado el teorema basándose en la relación entre las superficies de figuras semejantes. Los triángulos PQR y PST son semejantes, de manera que:

Siendo r la razón de semejanza entre dichos triángulos. Si ahora buscamos la relación entre sus superficies:

139


Obtenemos después de simplificar que:

Pero siendo

la razón de semejanza, está claro que:

Es decir, "la relación entre las superficies de dos figuras semejantes es igual al cuadrado de la razón de semejanza". Aplicando ese principio a los triángulos rectángulos semejantes ACH y BCH tenemos que:

Que de acuerdo con las propiedades de las proporciones da:

Y por la semejanza entre los triángulos ACH y ABC resulta que:

Pero según (I)

140

, así que:


Y, por lo tanto:

Quedando demostrado el teorema de Pitágoras.

FUNCIONES TRIGONOMÉTRICAS En matemáticas, las funciones trigonométricas son las funciones establecidas con el fin de extender la definición de las razones trigonométricas a todos los números reales y complejos. Las funciones trigonométricas son de gran importancia en física, astronomía, cartografía, náutica, telecomunicaciones, la representación de fenómenos periódicos, y otras de muchas aplicaciones.

Las funciones trigonométricas se definen comúnmente como el cociente entre dos lados de un triángulo rectángulo, asociado a sus ángulos. Las funciones trigonométricas son funciones cuyos valores son extensiones del concepto de razón trigonométrica en un triángulo rectángulo trazado en una circunferencia unitaria (de radio unidad). Definiciones más modernas las describen como series infinitas o como la solución de ciertas ecuaciones diferenciales, permitiendo su extensión a valores positivos y negativos, e incluso a números complejos. Existen seis funciones trigonométricas básicas. Las últimas cuatro, se definen en relación de las dos primeras funciones, aunque se pueden definir geométricamente o por medio de sus relaciones. Algunas funciones fueron comunes antiguamente, y aparecen en las primeras tablas, pero no se utilizan actualmente; por ejemplo el ver seno (1 − cos θ) y la exsecante (sec θ − 1).

Todas las funciones trigonométricas de un ángulo θ pueden ser construidas geométricamente en relación a una circunferencia de radio unidad de centro O.

141


Definiciones respecto de un triángulo rectángulo Para definir las razones trigonométricas del ángulo: del vértice A, se parte de un triángulo rectángulo arbitrario que contiene a este ángulo. El nombre de los lados de este triángulo rectángulo que se usará en los sucesivos será: La hipotenusa (h) es el lado opuesto al ángulo recto, o lado de mayor longitud del triángulo rectángulo. •

El cateto opuesto (a) es el lado opuesto al ángulo.

El cateto adyacente (b) es el lado adyacente al ángulo.

Todos los triángulos considerados se encuentran en el Plano Euclidiano, por lo que la suma de sus ángulos internos es igual a π radianes (o 180°). En consecuencia, en cualquier triángulo rectángulo los ángulos no rectos se encuentran entre 0 y π/2 radianes. Las definiciones que se dan a continuación definen estrictamente las funciones trigonométricas para ángulos dentro de ese rango: •

El seno de un ángulo es la relación entre la longitud del cateto opuesto y la longitud de la hipotenusa:

El valor de esta relación no depende del tamaño del triángulo rectángulo que elijamos, siempre que tenga el mismo ángulo , en cuyo caso se trata de triángulos semejantes. •

El coseno de un ángulo es la relación entre la longitud del cateto adyacente y la longitud de la hipotenusa:

La tangente de un ángulo es la relación entre la longitud del cateto opuesto y la del adyacente:

La cotangente de un ángulo es la relación entre la longitud del cateto adyacente y la del opuesto:

La secante de un ángulo es la relación entre la longitud de la hipotenusa y la longitud del cateto adyacente:

La cosecante de un ángulo es la relación entre la longitud de la hipotenusa y la longitud del cateto opuesto:

142


MOVIMIENTO DE VECTORES • • • • • • • • • • • • • •

Magnitudes escalares y vectoriales. Suma o composición de vectores. Sistemas de referencia vectoriales. Componentes. Cosenos directores. Vectores unitarios. Producto escalar de vectores. Ángulo de dos vectores. Perpendicularidad. Proyección. Producto vectorial. Momento de un vector respecto a un punto. Momento respecto a un eje. Derivación e integración vectorial.

𝑡 𝑥 𝑦ሺ𝑥, 𝑡ሻ = 𝐴𝑠𝑒𝑛 ൤2𝜋 ൬ − ൰ + 𝜑൨ 𝑇 𝜆

Un vector tiene tres características esenciales: módulo, dirección y sentido. Para que dos vectores sean considerados iguales, deben tener igual módulo, igual dirección e igual sentido. Los vectores se representan geométricamente con flechas y se le asigna por lo general una letra que en su parte superior lleva una pequeña flecha de izquierda a derecha como se muestra en la figura. Muestra las principales características de un vector.

Módulo: está representado por el tamaño del vector, y hace referencia a la intensidad de la magnitud (número). Se denota con la letra solamente A o |A|. • Vectores de igual módulo: Todos podrían representar, por ejemplo, una velocidad de 15 km/h, pero en distintas direcciones, por lo tanto, todos tendrían distinta velocidad. • Vectores de distinto módulo: Se espera que el vector de menor tamaño represente por ejemplo una velocidad menor que la de los demás.

Vectores con igual módulo, pero distintas direcciones

• Vectores de distinto módulo: Así, los vectores de la figura podrían representar velocidades de 20 km/h, 5 km/h y 15 km/h, respectivamente.

143


• Dirección: Corresponde a la inclinación de la recta, y representa al ángulo entre ella y un eje horizontal imaginario (ver figura 2). También se pueden utilizar los ejes de coordenadas cartesianas (X, Y y Z) como también los puntos cardinales para la dirección. • Vectores de distinto módulo: Dos vectores tienen la misma dirección cuando la inclinación de la recta que los representa es la misma, es decir, cuando son paralelos. • Vectores de igual dirección: Sin importar hacia dónde apuntan o cuál es su tamaño, los vectores de la figura son paralelos, por lo que tienen la misma dirección. Muestra tres vectores de distinto módulo, pero igual dirección y sentido

Representación Geométrica de un Vector Ya has aprendido que los vectores son definidos a través de tres características, que son: módulo, dirección y sentido. Aunque su posición en el espacio no es uno de los componentes para definirlo, el estudio de los vectores se facilita si los ubicamos en un sistema de coordenadas cartesianas que nos ayude a tener mayor precisión, de manera de poder representarlos de una forma algebraica como de una manera geométrica. Una de las características es que cuando tenemos un vector que no está en el origen de nuestro plano cartesiano, lo podemos trasladar, de manera que siempre el origen sea el (0,0) y así facilitar nuestros cálculos, pues sólo necesitaremos el punto final para determinarlo. En el dibujo anterior hemos llamado p al vector CD trasladado. Por otro lado, hemos llamado q al vector AB trasladado. Si sus puntos de origen se trasladan al origen, veremos que el vector que antes tenía como coordenadas (0,2) y (3,5) ha sido traslado, de manera que sólo debemos identificar el punto final que en este caso corresponde a (3,3). De igual forma se ha procedido para el vector q.

CINEMÁTICA La cinemática es la rama de la mecánica que describe el movimiento de los objetos sólidos sin considerar las causas que lo originan (las fuerzas) y se limita, principalmente, al estudio de la trayectoria en función del tiempo. Para ello utiliza velocidades y aceleraciones, que describen cómo cambia la posición en función del tiempo. La velocidad se determina como el cociente entre el desplazamiento y el tiempo utilizado, mientras que la aceleración es el cociente entre el cambio de velocidad y el tiempo utilizado. Representación de la trayectoria de una partícula (verde), mostrando la posición (azul) en un momento dado de dicha trayectoria.

144


Elementos Básicos de la Cinemática En la mecánica clásica, se admite la existencia de un espacio absoluto, es decir, un espacio anterior a todos los objetos materiales e independientes de la existencia de estos. Este espacio es el escenario donde ocurren todos los fenómenos físicos, y se supone que todas las leyes de la física se cumplen rigurosamente en todas las regiones del mismo. El espacio físico se representa en la mecánica clásica mediante un espacio euclídeo. Análogamente, la mecánica clásica admite la existencia de un tiempo absoluto que transcurre del mismo modo en todas las regiones del Universo y que es independiente de la existencia de los objetos materiales y de la ocurrencia de los fenómenos físicos. El móvil más simple que se puede considerar es el punto material o partícula; cuando en la cinemática se estudia este caso particular de móvil, se denomina Cinemática de la partícula, y cuando el móvil bajo estudio es un cuerpo rígido se lo puede considerar un sistema de partículas y hacer extensivos análogos conceptos; en este caso se le denomina cinemática del sólido rígido o del cuerpo rígido. Fundamento de la Cinemática Clásica La cinemática trata del estudio del movimiento de los cuerpos en general y, en particular, el caso simplificado del movimiento de un punto material, más no estudia por qué se mueven los cuerpos sino que se limita a describir sus trayectorias y modo de reorientarse en su avance. Para sistemas de muchas partículas, por ejemplo los fluidos, las leyes de movimiento se estudian en la mecánica de fluidos. El movimiento trazado por una partícula lo mide un observador respecto a un sistema de referencia. Desde el punto de vista matemático, la cinemática expresa cómo varían las coordenadas de posición de la partícula (o partículas) en función del tiempo. La función matemática que describe la trayectoria recorrida por el cuerpo (o partícula) depende de la velocidad (la rapidez con la que cambia de posición un móvil) y de la aceleración (variación de la velocidad respecto del tiempo). El movimiento de una partícula (o cuerpo rígido) se puede describir según los valores de velocidad y aceleración, que son magnitudes vectoriales: • Si la aceleración es nula, da lugar a un movimiento rectilíneo uniforme y la velocidad permanece constante a lo largo del tiempo. • Si la aceleración es constante con igual dirección que la velocidad, da lugar al movimiento rectilíneo uniformemente acelerado y la velocidad variará a lo largo del tiempo. • Si la aceleración es constante con dirección perpendicular a la velocidad, da lugar al movimiento circular uniforme, donde el módulo de la velocidad es constante, cambiando su dirección con el tiempo. • Cuando la aceleración es constante y está en el mismo plano que la velocidad y la trayectoria, tiene lugar el movimiento parabólico, donde la componente de la velocidad en la dirección de la aceleración se comporta como un movimiento rectilíneo uniformemente acelerado, y la componente perpendicular se comporta como un movimiento rectilíneo uniforme, y se genera una trayectoria parabólica al componer ambas. • Cuando la aceleración es constante pero no está en el mismo plano que la velocidad y la trayectoria, se observa el efecto de Coriolis. • En el movimiento armónico simple se tiene un movimiento periódico de vaivén, como el del péndulo, en el cual un cuerpo oscila a un lado y a otro desde la posición de equilibrio en una dirección determinada y en intervalos iguales de tiempo. La aceleración y la velocidad son funciones, en este caso, sinusoidales del tiempo. Al considerar el movimiento de traslación de un cuerpo extenso, en el caso de ser un cuerpo rígido, conociendo como se mueve una de las partículas, se deduce como se mueven las demás. Más concretamente: • En un movimiento plano bidimensional si se conoce el movimiento de 2 puntos del sólido, el movimiento de todo el sólido está determinado • En un movimiento general tridimensional, el movimiento queda determinado si se conoce el movimiento de 4 puntos del sólido.

145


Así, considerando un punto del cuerpo, por ejemplo el centro de masa del cuerpo o cualquier otro, el movimiento de todo el cuerpo se puede expresar como:

Sistemas de Coordenadas En el estudio del movimiento, los sistemas de coordenadas más útiles se encuentran viendo los límites de la trayectoria a recorrer o analizando el efecto geométrico de la aceleración que afecta al movimiento. Así, para describir el movimiento de un talón obligado a desplazarse a lo largo de un aro circular, la coordenada más útil sería el ángulo trazado sobre el aro. Del mismo modo, para describir el movimiento de una partícula sometida a la acción de una fuerza central, las coordenadas polares serían las más útiles. En la gran mayoría de los casos, el estudio cinemático se hace sobre un sistema de coordenadas cartesianas, usando una, dos o tres dimensiones, según la trayectoria seguida por el cuerpo. Movimiento Rectilíneo Uniforme Un movimiento es rectilíneo cuando un objeto describe una trayectoria recta respecto a un observador, y es uniforme cuando su velocidad es constante en el tiempo, dado que su aceleración es nula. Nótese que el movimiento rectilíneo puede ser también no uniforme, y en ese caso la relación entre la posición y el tiempo es algo más compleja.

Comportamiento del Movimiento El movimiento rectilíneo uniforme se designa frecuentemente con el acrónimo MRU, aunque en algunos países es MRC, por movimiento rectilíneo constante. El MRU se caracteriza por: • Movimiento que se realiza sobre una línea recta. • Velocidad constante; implica magnitud y dirección constantes. • La magnitud de la velocidad recibe el nombre de celeridad o rapidez sin aceleración. Para este tipo de movimiento, la distancia recorrida se calcula multiplicando la magnitud de la velocidad por el tiempo transcurrido. Esta relación también es aplicable si la trayectoria no es rectilínea, con tal que la rapidez o módulo de la velocidad sea constante. Por lo tanto, el movimiento puede considerarse en dos sentidos; una velocidad negativa representa un movimiento en dirección contraria al sentido que convencionalmente hayamos adoptado como positivo. De acuerdo con la Primera Ley de Newton, toda partícula puntual permanece en reposo o en movimiento rectilíneo uniforme cuando no hay una fuerza externa que actúe sobre el cuerpo, dado que las fuerzas actuales están en equilibrio, por lo cual su estado es de reposo o de movimiento rectilíneo uniforme. Representación Gráfica del Movimiento Una peculiaridad interesante de la trayectoria rectilínea, es que el problema admite una descripción unidimensional mediante una única coordenada, aunque estemos estudiando una trayectoria en tres dimensiones. Para ello basta escoger un punto sobre la trayectoria P y una función "distancia" al dicho punto d (será un número real, positivo para uno de los dos sentidos y negativo para el sentido

146


opuesto), tomando el vector director unitario de la recta n existen dos elecciones posibles de este vector, cualquiera de las dos elecciones es esencialmente equivalente, el vector de posición r se podrá escribir siempre como:

La velocidad del punto material que ejecuta este movimiento se podrá escribir simplemente como:

Si el movimiento es uniforme resultará que el vector posición es igual al vector velocidad por el tiempo: ecuación| Descomponiendo el movimiento en cada uno de los ejes de coordenadas, la suma vectorial de estas componentes da como resultado la posición en el espacio del movimiento.

Caída Libre En la caída libre un objeto cae verticalmente desde cierta altura H despreciando cualquier tipo de rozamiento con el aire o cualquier otro obstáculo. Se trata de un movimiento rectilíneo uniformemente acelerado (m.r.u.a.) o movimiento rectilíneo uniformemente variado (m.r.u.v.) en el que la aceleración coincide con el valor de la gravedad. En la superficie de la Tierra, la aceleración de la gravedad se puede considerar constante, dirigida hacia abajo, se designa por la letra g y su valor es de 9'8m/s2 (a veces se aproxima por 10 m/s2). Para estudiar el movimiento de caída libre normalmente utilizaremos un sistema de referencia cuyo origen de coordenadas se encuentra en el pie de la vertical del punto desde el que soltamos el cuerpo y consideraremos el sentido positivo del eje y apuntando hacia arriba, tal y como puede verse en la figura: Con todo esto nos quedaría: v0=0; y0=H; a=−g La caída libre es un movimiento rectilíneo uniformemente acelerado (m.r.u.a.) o movimiento rectilíneo uniformemente variado (m.r.u.v.) en el que se deja caer un cuerpo verticalmente desde cierta altura y no encuentra resistencia alguna en su camino. Las ecuaciones de la caída libre son: • y=H−12gt2 • v=−g⋅t • a=−g

147


Donde: • y: La posición final del cuerpo. Su unidad en el Sistema Internacional (S.I.) es el metro (m) • v: La velocidad final del cuerpo. Su unidad en el Sistema Internacional (S.I.) es el metro (m/s) • a: La aceleración del cuerpo durante el movimiento. Su unidad en el Sistema Internacional (S.I.) es el metro por segundo al cuadrado (m/s2). • t: Intervalo de tiempo durante el cual se produce el movimiento. Su unidad en el Sistema Internacional (S.I.) es el segundo (s) • H: La altura desde la que se deja caer el cuerpo. Se trata de una medida de longitud y por tanto se mide en metros. • g: El valor de la aceleración de la gravedad que, en la superficie terrestre puede considerarse igual a 9.8 m/s2 Movimiento Circular En cinemática, el movimiento circular también llamado movimiento circunferencial es el que se basa en un eje de giro y radio constante, por lo cual la trayectoria es una circunferencia. Si además, la velocidad de giro es constante (giro ondulatorio), se produce el movimiento circular uniforme, que es un caso particular de movimiento circular, con radio, centro fijo y velocidad angular constante. Conceptos En el movimiento circular hay que tener en cuenta algunos conceptos básicos para la descripción cinemática y dinámica del mismo: • Eje de giro: Es la línea recta alrededor de la cual se realiza la rotación, este eje puede permanecer fijo o variar con el tiempo, pero para cada instante concreto es el eje de la rotación (considerando en este caso una variación infinitesimal o diferencial de tiempo). El eje de giro define un punto llamado centro de giro de la trayectoria descrita (O). • Arco: Partiendo de un centro fijo o eje de giro fijo, es el espacio recorrido en la trayectoria circular o arco de radio unitario con el que se mide el desplazamiento angular. Su unidad es el radián (espacio recorrido dividido entre el radio de la trayectoria seguida, división de longitud entre longitud, adimensional, por tanto). • Velocidad angular: Es la variación del desplazamiento angular por unidad de tiempo (omega minúscula, W). • Aceleración angular: Es la variación de la velocidad angular por unidad de tiempo (alfa minúscula, ). En dinámica de los movimientos curvilíneos, circulares y/o giratorios se tienen en cuenta además las siguientes magnitudes: • Momento angular (L): Es la magnitud que en el movimiento rectilíneo equivale al momento lineal o cantidad de movimiento, pero aplicada al movimiento curvilíneo, circular y/o giratorio (producto vectorial de la cantidad de movimiento por el vector posición, desde el centro de giro al punto donde se encuentra la masa puntual). • •

Momento de inercia (I): Es una cualidad de los cuerpos que depende de su forma y de la distribución de su masa y que resulta de multiplicar una porción concreta de la masa por la distancia que la separa al eje de giro. Momento de fuerza (M): O par motor es la fuerza aplicada por la distancia al eje de giro (es el equivalente a la fuerza agente del movimiento que cambia el estado de un movimiento rectilíneo).

148


La Fuerza Centrípeta Podemos particularizar para el caso del movimiento circular uniforme, en el que, aunque su celeridad es constante, su vector velocidad cambia continuamente de dirección gracias a la aceleración normal. De acuerdo con las leyes de Newton, si dicho cuerpo posee aceleración quiere decir que se encuentra sometido a la acción de alguna fuerza. En concreto: En un movimiento circular uniforme o m.c.u., la fuerza centrípeta ሺΣFnሻ es la fuerza responsable de dotar de aceleración centrípeta a un cuerpo. Tiene la dirección del radio de la circunferencia, sentido hacia el centro y módulo constante. No se trata de una fuerza en sí misma, si no que dependiendo del sistema, la fuerza centrípeta puede ser el peso, la tensión de una cuerda, etc. o generalmente la fuerza resultante de algunas de estas fuerzas. A la hora de estudiar la dinámica de este tipo de movimientos, es recomendable utilizar un sistema de referencia intrínseco, donde el eje normal será el eje X y el tangencial el eje Y. En este caso, la fuerza centrípeta se obtiene por medio de la siguiente expresión. ∑Fn = ∑Fx = m ⋅ an = m ⋅ v2R ⋮ ∑Fy = 0

Paralelismo entre El Movimiento Rectilíneo y El Movimiento Circular A pesar de las diferencias evidentes en su trayectoria, hay ciertas similitudes entre el movimiento rectilíneo y el circular que deben mencionarse y que resaltan las similitudes y equivalencias de conceptos y un paralelismo en las magnitudes utilizadas para describirlos. Dado un eje de giro y la posición de una partícula puntual en movimiento circular o giratorio, para una variación de tiempo Δt o un instante dt, dado, se tiene: Arco descrito Arco angular o desplazamiento angular es el arco de la circunferencia recorrido por la masa puntual en su trayectoria circular, medida en radianes y representado con las letras griegas: Este arco es el desplazamiento efectuado en el movimiento circular y se obtiene mediante la posición angular en la que se encuentra en un momento determinado el móvil y al que se le asocia un ángulo determinado en radianes. Así el arco angular o desplazamiento angular se determinará por la variación de la posición angular entre dos momentos final e inicial concretos (dos posiciones distintas): Siendo el arco angular o desplazamiento angular dado en radianes. Si se le llama e, al espacio recorrido a lo largo de la trayectoria curvilínea de la circunferencia de radio R, se tiene que es el producto del radio de la trayectoria circular por la variación de la posición angular (desplazamiento angular):

149


En ocasiones se denomina s, al espacio recorrido (del inglés "space"). Nótese que, al multiplicar el radio por el ángulo en radianes, al ser estos últimos adimensionales (arco entre radio), el resultado es el espacio recorrido en unidades de longitud elegidas para expresar el radio y circunferencia. Lanzamiento horizontal El lanzamiento horizontal consiste en lanzar un cuerpo horizontalmente desde cierta altura. En la siguiente figura puedes ver una representación de la situación:

El lanzamiento horizontal resulta de la composición de un movimiento rectilíneo uniforme (mru horizontal) y un movimiento rectilíneo uniformemente acelerado de caída libre (mrua vertical). El cuerpo en movimiento en un tiro horizontal puede ser cualquier cosa: una pelota de futbol, de tenis, un dardo, una gota de agua... a todos ellos los denominaremos de manera genérica proyectiles. En física suele denominarse proyectil a cualquier cuerpo lanzado en el espacio por la acción de una fuerza. Ecuaciones Las ecuaciones del lanzamiento horizontal son: Las ecuaciones del m.r.u. para el eje x 𝑥 = 𝑥0 + 𝑣𝑥 ⋅ 𝑡 Las ecuaciones del m.r.u.a. para el eje y 𝑣𝑦 = 𝑣0𝑦 + 𝑎𝑦 ⋅ 𝑡 𝑦 = 𝑦0 + 𝑣0𝑦 ⋅ 𝑡 + 12 ⋅ 𝑎𝑦 ⋅ 𝑡2 Dado que, como dijimos anteriormente, la velocidad forma un ángulo α con la horizontal, las componentes x e y se determinan recurriendo a las relaciones trigonométricas más habituales:

Finalmente, teniendo en cuenta lo anterior, que y0 = H, x0 = 0, y que ay = -g, podemos reescribir las fórmulas tal y como quedan recogidas en la siguiente tabla. Estas son las expresiones finales para el cálculo de las magnitudes cinemáticas en el lanzamiento horizontal:

150


Tiro Parabólico La composición de un movimiento uniforme y otro uniformemente acelerado resulta un movimiento cuya trayectoria es una parábola. • Un MRU horizontal de velocidad vx constante. • Un MRUA vertical con velocidad inicial voy hacia arriba. Este movimiento está estudiado desde la antigüedad. Se recoge en los libros más antiguos de balística para aumentar la precisión en el tiro de un proyectil. Denominamos proyectil a todo cuerpo que una vez lanzado se mueve solo bajo la aceleración de la gravedad. 1. Disparo de Proyectiles Consideremos un cañón que dispara un obús desde el suelo (y0=0) con cierto ángulo θ menor de 90º con la horizontal. Las ecuaciones del movimiento, resultado de la composición de un movimiento uniforme a lo largo del eje X, y de un movimiento uniformemente acelerado a lo largo del eje Y, son las siguientes:

Las ecuaciones paramétricas de la trayectoria son • x=v0·cosθ·t • y=v0·senθ·t-gt2/2 Eliminado el tiempo t, obtenemos la ecuación de la trayectoria (ecuación de una parábola)

2. Alcance: El alcance horizontal de cada uno de los proyectiles se obtiene para y=0.

Su valor máximo se obtiene para un ángulo θ =45º, teniendo el mismo valor para θ =45+a, que para θ =45-a. Por ejemplo, tienen el mismo alcance los proyectiles disparados con ángulos de tiro de 30º y 60º, ya que sen (2·30) =sen (2·60). 3. Altura Máxima: La altura máxima que alcanza un proyectil se obtiene con vy=0. Su valor máximo se obtiene para el ángulo de disparo θ =90º.

151


Biología

152


Biología La Biología es la ciencia que estudia a los seres vivió y sus características, como su origen, su evolución y sus propiedades, nutrición, morfogénesis, reproducción (asexual y sexual), patogenia, etc. Se ocupa tanto de la descripción de las características y los comportamientos de los organismos individuales, como de las especies en su conjunto, así como de la reproducción de los seres vivos y de las interacciones entre ellos y el entorno. De este modo, trata de estudiar la estructura y la dinámica funcional comunes a todos los seres vivos, con el fin de establecer las leyes generales que rigen la vida orgánica y los principios de esta. Ciencia La ciencia es un sistema ordenado de conocimientos estructurados que estudia, investiga e interpreta los fenómenos naturales, sociales y artificiales. El conocimiento científico se obtiene mediante observación y experimentación en ámbitos específicos. Dicho conocimiento es organizado y clasificado sobre la base de principios explicativos, ya sean de forma teórica o práctica. A partir de estos se generan preguntas y razonamientos, se formulan hipótesis, se deducen principios y leyes científicas, y se construyen modelos científicos, teorías científicas y sistemas de conocimientos por medio de un método científico.

RAMAS DE LA BIOLOGÍA La biología se divide en una multitud de disciplinas, y como avanza el conocimiento, van apareciendo de nuevas. Además, que algunas se estrechan con otras grandes ciencias que sirven para apoyarse, como con la química o la geología. Aun así, se puede hablar de 10 ramas principales que han servido como base para la masiva diversificación del a ciencia de la vida. Empecemos. 1. Biología celular La célula es la unidad primordial de los seres vivos, ya que todos están formados por ellas. Por ello no es extraño que una de las ramas de la biología se centra en el estudio de ella. Anteriormente conocida como citología, esta disciplina, como su nombre bien indica, se especializa en el conocimiento de las estructuras y funciones que llevan a cabo las células. 2. Biología del desarrollo Unos de los fenómenos más impresionantes de la vida son cómo de la unión de dos gametos se puede generar todo un organismo multicelular. Estoy hablando de la fecundación mediante un espermatozoide y un óvulo (en el caso de los animales) para formar un zigoto. Esta rama de la biología se especializa en el estudio de todos los procesos celulares que se llevan a cabo en el desarrollo de un nuevo organismo mediante la reproducción sexual.

153


3. Biología marina La Tierra también es conocida como el planeta azul, y es que casi el 71% de la extensión de este está ocupada por agua. La vida en los mares no es poca cosa, muestra de ello es el hecho de que existe toda una rama de la biología que se centra en el estudio de ella, desde los seres que la habitan hasta su interacción con el medio ambiente. 4. Biología molecular Si antes hablé de la biología celular que se especializa en el estudio de las estructuras y funciones de las células, la biología molecular se centra en las herramientas que utilizan las células para llevar a cabo tales funciones. Esta disciplina estudia las proteínas y los procesos que llevan a cabo a partir de ellas, como la síntesis de estos componentes o los procesos relacionados con el metabolismo.

5. Botánica Los seres vivos son el principal objeto de estudio de la biología, pero hay muchísima variedad de estos, por lo que es necesario diversificar. La botánica se especializa principalmente en el estudio de los vegetales, tales como plantas, arbustos y árboles, pero también de formas de vida que no son vegetales y sin embargo comparten características con ellos, como las algas, los hongos y las cianobacterias. Todos ellos tienen en común una reducida movilidad y que pueden realizar la fotosíntesis (menos los hongos). 6. Ecología El medio ambiente es un elemento muy importante para la vida y un tema cada vez más actual. La ecología es la rama de la biología que estudia las interacciones íntimas que se establecen entre los seres vivos y su entorno o hábitat, formando lo que se conocen como ecosistemas.

7. Fisiología Si la biología celular se centra en las funciones de las células, la fisiología es la disciplina que se especializa en el estudio de los procesos que ocurren en los órganos, es decir, funciones que se realizan a partir de un conjunto de células. Por ejemplo, la circulación de fluidos internos o mecanismos de respiración. Existen tanto fisiología para animales como para vegetales.

154


8. Genética La célula es la unidad de la vida, pero sin el ADN no sería nada. El material genético contiene toda la información necesaria para desarrollar a un organismo. Por ello, existe toda una disciplina que se centra en el estudio del contenido genético, que no es otra que la genética. El estudio del genoma siempre ha sido de interés especial para la biología.

9. Microbiología Sí la botánica abarca a las plantas principalmente, la microbiología se centra en el estudio de los microorganismos, seres vivos unicelulares de tamaño muy reducido, solo visibles a través de un microscopio. Entre los seres que se investigan están las bacterias, las arqueas (antiguamente llamadas arqueobacterias), los protozoos (organismos unicelulares eucariotas) o los enigmáticos virus, si bien aún se debate si estos últimos son seres vivos. 10. Zoología La última rama de biología que se especializa en el estudio de los seres vivos es la zoología, que abarca el último de los reinos, que no es otro que el de los animales. Desde las esponjas hasta los mamíferos, un gran abanico de seres vivos se encuentra bajo su campo de estudio.

11. Biotecnología “La biotecnología permite mejorar los cultivos al incorporar a su estructura genética uno o dos genes que le brindan características que no tenían” La biotecnología moderna utiliza técnicas de ingeniería genética para transferir características de un organismo a otro. Sus aplicaciones van desde la producción de insulina humana y vacunas, el desarrollo de alimentos más sanos, semillas más fuertes y el uso de microbios para limpiar los suelos, entre otros. Aplicada al campo, la biotecnología permite mejorar los cultivos al incorporar a su estructura genética uno o dos genes que le brindan características que no tenían, como: defenderse de plagas o enfermedades o resistir condiciones climáticas extremas. Desde 1996, cuando comenzó el uso comercial de las semillas biotecnológicas y el consumo de sus derivados en muchos países del mundo, se han desarrollado un sinnúmero de estudios que han comprobado sus beneficios y descartado posibles consecuencias negativas tanto para la salud humana o animal como para el medio ambiente.

CIENCIAS AUXILIARES DE LA BIOLOGÍA. 1. Química. Los seres vivos están constituidos por materia, por lo tanto de átomos y moléculas. Las reacciones químicas que suceden en nuestros cuerpos (metabolismo) es competencia de química. Ejemplo: la descomposición de los cuerpos (materia), la digestión de los alimentos. 2. Física. Todas las leyes de la física se pueden aplicar a los fenómenos naturales.

155


3. Matemáticas. Es la aplicación de las relaciones numéricas a los fenómenos naturales. Conteo de poblaciones, estadística. 4. Geografía. Apoya en la distribución y localización de zonas, climas, vegetación... etc. Ejemplo: distribución de las especies. 5. Historia. La biología maneja antecedentes históricos de la ciencia, como leyes y teorías. Leyes de Mendel (genética) 6. Zoología. Estudia específicamente a los animales en cuanto a su composición, función y comportamiento. 7. Botánica. Estudia específicamente a las plantas en cuanto a su composición, función y comportamiento. 8. Histología. Es la ciencia del estudio de los tejidos; los órganos de los seres vivos están constituidos por tejidos. 9. Fisiología. Apoya en explicar la funcionalidad de los seres vivos. 10. Citología. Apoya en explicar la funcionalidad, estructura de las células.

TEORÍA DEL ORIGEN DE LA VIDA A principios del siglo XIX la química experimentaba con la síntesis de muchos compuestos, y fue el químico alemán Friedrich Wilmer quien hizo una de las contribuciones más importantes de la época, logró sintetizar urea, un compuesto orgánico, a partir cianato de amonio que es un compuesto inorgánico. Este experimento constituyó un gran avance ya que por un lado, inicia la química orgánica como una disciplina independiente y por otro, logró establecer el puente entre los organismos y los compuestos inorgánicos, conocimientos que sentaron las bases para la bioquímica. A partir de este experimento se hicieron nuevas aportaciones que fueron ratificando la relación entre los compuestos sintetizados exclusivamente por seres vivos y compuestos inorgánicos. Dentro de los más relevantes están los experimentos del químico alemán Adolph Strike quien logró sintetizar alamina, un aminoácido, a partir de una mezcla de acetaldehído, amoníaco y cianuro de hidrógeno. O bien, los experimentos del químico ruso Alexander M. Bulero, quien demostró que el tratamiento del formaldehído con catalizadores alcalinos fuertes como el hidróxido de calcio, conduce a la síntesis de azúcares. A finales del siglo XIX, ya existía una gran cantidad de investigaciones sobre síntesis orgánica, que mostraban la formación abiótica de ácidos grasos y azúcares mediante descargas eléctricas con diversas mezclas de gases. Aunque el objetivo de estos experimentos no era el entender el origen de la vida, estas aportaciones contribuyeron de manera importante en el posterior desarrollo de esta área de estudio. El siglo XIX también fue una época importante, en cuanto al planteamiento de nuevas teorías acerca de la vida. Por un lado, Pasteur realiza los experimentos que le permiten refutar la teoría de generación espontánea, la cual establecía que la vida podía generarse de manera espontánea a partir de compuestos orgánicos, inorgánicos o una mezcla de estos. De manera casi simultánea, Darwin publica su teoría del origen de las especies donde estableció que los organismos son el resultado histórico de cambios graduales de la materia sin vida.

156


TEORÍAS DE LA EVOLUCIÓN El concepto más importante en la Biología es el de la Evolución, teoría unificadora que explica el origen de diversas formas de vida como resultado de cambios en su carga genética a través del tiempo. La teoría de la evolución establece que los organismos modernos descienden, con modificaciones, de formas de vida preexistentes. Los organismos son el producto de la interacción de sus genes heredados de sus ancestros y las condiciones ambientales en que se desarrollan. Si todos los organismos de una especie fueran idénticos (genéticamente hablando), cualquier cambio desfavorable en el ambiente sería desastroso y la especie se extinguiría. La capacidad de adaptación (que reside en la presencia de variabilidad genética) permite la adaptación a los cambios ambientales, esto se traduce en modificaciones de las poblaciones, no de los individuos. Tales adaptaciones son el resultado de procesos evolutivos que se suceden durante prolongados períodos de tiempo y comprenden muchas generaciones. • El Origen de las Especies Se asume que los cambios o modificaciones genéticas son aleatorios. Se niega que la evolución tenga una fuerza impulsora real que permita la adaptación de las especies al medio. Ni Darwin ni posteriormente se ha podido demostrar científicamente la aleatoriedad de los cambios en la información genética. Esto es un axioma para Darwin. Por ejemplo, no se sabe de dónde salen los genes que las bacterias incorporar a su genotipo para hacerse resistentes a los antibióticos. La teoría se basa en el método inductivo de la observación de determinados hechos. La generalización que efectúa debería cumplir los requisitos de consistencia y reproducibilidad. Pero los ejemplos que no cumplen la teoría implican la refutación de esta: la selección natural no está provocando la aparición de los nuevos seres; los virus hacen cambios en el ADN de las células invadidas para reproducirse a sí mismos.... La teoría no explica saltos evolutivos. Lo resuelve argumentando cambios en la estructura básica del código genético a través de mutaciones. El cambio de procariotas a eucariotas pone de manifiesto una enorme discontinuidad evolutiva de la historia de la vida en la Tierra. Los restos fósiles evidencian que la evolución posiblemente no ha sido un proceso paulatino, sino se ha producido mediante saltos bruscos a lo largo de la historia. El registro fósil está muy incompleto y no encaja adecuadamente con la Teoría de Darwin. La teoría del Salta sionismo Evolutivo explica la evolución mediante un proceso discontinuo o a saltos. • Teoría Celular Evolución celular. La teoría celular es una parte fundamental de la biología que explica la constitución de los seres vivos sobre la base de células, el papel que estas tienen en la constitución de la vida y en la descripción de las principales características de los seres vivos. Las primeras células deberán estar impulsadas de organismos sencillos capaces de una óptima adaptación, es así como varios postulados se han basado en experimentos empíricos, donde se trata de replicar condiciones primitivas, como bajo índice de oxígeno, excesiva cantidad de dióxido de carbono, ambientes ácidos, entre otras, mediante los cuales se busca conocer la forma de adaptación y proliferación de los organismos, con el fin de llegar a un antepasado común del cual se desprenda toda la historia. Todos estos registros se encuentran establecidos por un sin número de estudios complementarios al conocimiento actual de esta teoría los cuales han corroborado teorías anteriores a ellas y han sustentado nueva información de gran relevancia para las personas en la actualidad.5La hipótesis más aceptada para explicar el origen biológico de las células eucariotas establece que cierto tipo de procariotas necesitaron trabajar de manera grupal, de donde consecuentemente cada una fue especializándose y adquiriendo una función que más tarde estructurarían un organismo completo. De manera general se establece que el antepasado del cual surgen todas las clasificaciones y que presenta características comunes se denomina pronto bisonte, ya que esta estará dotada de los implementos necesarios para la transcripción y la traducción genética; de esta se derivan por diversas características más especializadas tres modelos de procariotas, se conoce como arceas, eucariotas y bacterias, las cuales permanecieron así durante un período largo de tiempo, en el cual estos

157


organismos adaptaron su proceso metabólico a las intensas condiciones terrestres. Muchos de estas definiciones no se las pudo establecer de manera inmediata ya que se partía de que la materia se conformaba por moléculas y no se podía concluir cuales eran las unidades básicas estructurales. En cuanto a la realización de los intentos de las células por buscar su supervivencia se generó otras etapas celulares que lo describen: o Heterótrofas anaerobias: Necesitadas de compuestos orgánicas disponibles en el medio, con el paso del tiempo se llegaron a limitar estas condiciones, razón por la cual cierto grupo de células tuvo que buscar otras adaptaciones, de donde se derivan. o

Fotosíntesis: Algunas de estas células primitivas logran fabricar sustancias orgánicas mediante la fijación y reducción de CO2, dando los primeros pasos para la fotosíntesis, medio de alimentación de carácter autótrofo, en la fotosíntesis se utiliza el agua como donante de electrones, esto nos da como origen el O2, este proceso será indispensable, mediante el cual se logra el cambio de una atmósfera reductora en la oxidante.

o

Células eucariotas: La característica más relevante de ellas es la presencia de un núcleo definido. Según la evolución y la teoría celular este tipo de células intentaron fagocitar a las células procariotas, pero fallaron, razón por la cual plantearon una relación entre las dos principalmente se asocia con bacterias anaerobias heterótrofas en donde la estabilización y colaboración se daba cuando la una proporcionaba sustancias orgánicas y la otra aprovechaba la capacidad de realizar procesos oxidativos.

Función Celular Las células son la unidad mínima de la vida. En ellas se han de llevar a cabo todas las funciones indispensables para que un ser unicelular sobreviva y de continuidad a su especie. En los organismos pluricelulares primitivos las células cumplen todas las funciones necesarias, igual que en los unicelulares y además existe cierta comunicación entre las células. En los organismos pluricelulares más complejos las células se han especializado durante el desarrollo del individuo de forma que ya no realizan todas las funciones propias del individuo. En estos organismos la especialización celular puede llegar a ser de gran complejidad, dando lugar a células cuyo único cometido es el almacenamiento de grasa, por ejemplo, a pesar de contener toda la maquinaria para realizar todas las funciones del organismo, en las levaduras unicelulares la reproducción se da por gemación. La célula debe ser capaz por lo tanto de cumplir tres funciones básicas: • Reproducirse, debe ser capaz de, mediante la copia de su material genético y posterior división, dar lugar a dos células hijas de características iguales. En los organismos unicelulares el mismo individuo es el que se dividirá dando lugar a dos nuevos individuos. Por el contrario, en los organismos pluricelulares tan solo una pequeña parte de las células que lo componen darán lugar a los órganos reproductores y a los gametos responsables de reproducir el organismo completo en la siguiente generación. Sin embargo, las células no reproductoras han de ser capaces de dividirse para dar lugar a células de su mismo tipo celular, con el que formarán los tejidos y los órganos. • Nutrirse, las células necesitan energía y compuestos químicos para mantener su funcionamiento metabólico, crecer y mantener sus estructuras internas. Para ello debe ser capaz de captar de su ambiente los nutrientes esenciales. En el caso de los seres unicelulares la célula tiene que ser capaz de captar de su medio todos los nutrientes necesarios para sobrevivir y en el interior de la célula a de contener la maquinaria para procesar todo lo que capte. En contraposición, en los seres pluricelulares una proporción de las células son las encargadas de la obtención de la energía y los nutrientes. En las plantas las hojas son las encargadas de captar la energía y las raíces se encargan de coger los nutrientes necesarios para el crecimiento del suelo. • Finalmente, la tercera función que deben cumplir todas las células es la de comunicarse. Los organismos unicelulares contienen receptores en su membrana externa con capacidad para

158


detectar la concentración de sustancias nocivas o beneficiosas para elegir la dirección de su marcha. También son capaces de detectar a otros seres vivos, mediante reconocimiento de proteínas de superficie y actuar en consecuencia, alejándose, intentando engullirlo o incluso liberando toxinas. En las células de los organismos pluricelulares es donde la comunicación entre las células alcanza su mayor importancia. Al estar extremadamente especializadas en determinadas actividades las células de un organismo pluricelular deben mantener una comunicación constante y con mucha información para saber en cada momento qué deben hacer. Las neuronas deben comunicarse con los músculos para hacer mover las extremidades, o las células del hígado deben comunicarse con las del estómago para saber cuándo han de aumentar su actividad metabólica.

ORGANIZACIÓN DE LOS SERES VIVOS Todos los organismos, desde los más sencillos hasta los más complejos, comparten la característica de estar formados por una o muchas unidades microscópicas llamadas células, es decir, los seres vivos están constituidos por células, siendo éstas la unidad estructural de todos ellos y en donde se llevan a cabo el intercambio de materia y energía con el medio que las rodea, las transforman y las utilizan en reacciones químicas necesarias para la vida, crecen y se multiplican. Por estos motivos se dice que cada célula es una unidad viva, que cumple con las funciones vitales de todo organismo. Niveles de organización La materia que compone a los seres vivos se organiza en niveles, de lo más simple a lo más complejo, en los siguientes niveles: Célula, tejido, órgano, sistemas de órganos y organismo. 1. Célula: Primer nivel de organización en el que aparece la vida. Es la unidad básica o estructural, funcional y de origen de todos los seres vivos. Un organismo puede estar constituido por una célula, como los Unicelulares o por varias de ellas, como los Pluricelulares. Ejemplos de Unicelulares son las bacterias, amabas o paramecios y de Pluricelulares son plantas y animales. Todas las células comparten ciertas características básicas, tales como: • Están rodeadas por una membrana, denominada Membrana Plasmática o Celular, la cual separa a la célula del medio externo y permite el intercambio de sustancias a través de ella. •

Poseen una sustancia viscosa en su interior denominada Citoplasma, en la cual se realizan todas las reacciones químicas necesarias para mantener la vida de éstas.

Llevar información para dirigir las actividades celulares en unas estructuras llamadas Cromosomas.

Estructura básica de una célula: Nótese que presenta un compartimento interno llamado Núcleo, el cual encierra a los cromosomas. Las células que presentan Núcleo se denominan Eucariontes y las que carecen de éste, Procariontes.

159


2. Tejido: Conjunto de células especializadas en una función en común. En los organismos pluricelulares, como los humanos las células se agrupan en clases de tejidos, tales como:

Tejido Conectivo: Realiza funciones de soporte y unión, está presente en todo nuestro organismo. Lo constituyen el tejido óseo (Ver figura 6), cartilaginoso y conjuntivo.

Tejido Epitelial: Su función es recubrir superficies externas e internas del cuerpo y órganos. Revisten internamente a las cavidades, espacios, órganos, conductos y forman glándulas y mucosas. Tejido Muscular: responsable del movimiento de diferentes partes de nuestro cuerpo, forma los músculos y se clasifican en tres tipos:

Tejido Nervioso: Recoge información procedente del exterior e interior del organismo, procesa información, proporciona un sistema de memoria y elabora respuestas apropiadas frente a un estímulo. 3. Músculos: Musculatura lisa: responsable del movimiento de estructuras internas, como vasos sanguíneos, órganos y glándulas.

Musculatura esquelética: Responsable del movimiento de nuestro esqueleto, es decir, permite el movimiento de marcha y la manipulación de objetos.

Musculatura Cardiaca: Tejido que permite el movimiento coordinado del corazón, es automático, es decir, funciona por sí mismo.

160


4. Órganos: Unión de diferentes tejidos, en forma estructural y coordinada en sus actividades.

5. Sistemas de órganos: Conjunto de órganos que trabajan en forma coordinada e integrada en desempeñar una función particular. Ejemplos: Sistema cardiovascular (Ver figura 9), Sistema digestivo, Sistema nervioso, Sistema respiratorio, entre otros.

6. Organismo o Individuo: Conjunto de sistemas de órganos que constituyen a un organismo viviente, que es capaz de interactuar con el medio ambiente, sus componentes vivos y no vivos. Cada nuevo nivel de organización no constituye de manera simple la agrupación de los componentes del nivel anterior, sino que presenta propiedades nuevas, variadas y diferentes de las de cada uno de sus componentes.

NIVELES DE ORGANIZACIÓN Conocemos como Niveles de Organización a los distintos grados de complejidad en los que podemos encontrar organizada la materia. Es decir, que en cada uno de los niveles se hallan elementos que, unidos entre sí, forman una estructura más compleja con distintas características y nuevas propiedades. A su vez, esta estructura, al agruparse con otras como ella, es capaz de formar una materia aún más compleja. Por ejemplo, las células están formadas por elementos más simples. Más tarde, la agrupación de células forma, entre otras estructuras, tejidos y órganos. Veamos ahora la clasificación de los distintos niveles de organización y lo que en ellos encontramos: •

Nivel Subatómico: Protones, neutrones y electrones, (partículas que, agrupadas, forman los átomos).

161


• Nivel Atómico: Átomos, (unidad más pequeña de la materia que conserva sus propiedades).

Nivel Molecular: Enlazando distintos átomos se obtienen moléculas. Estas moléculas presentan, según sea el caso, distintos grados de complejidad. • Nivel Celular: Aquí encontramos, por ejemplo, las células musculares y las células epiteliales, células simples que, agrupándose forman el siguiente nivel.

Nivel de Tejido: Por ejemplo, el tejido muscular o el epitelial: tejidos formados por células especializadas.

• Nivel de Órgano: Los diferentes tejidos del nivel anterior se unen para formar órganos. Así nace, por ejemplo, el corazón.

Nivel de Sistema: Un conjunto de órganos similares, formados por el mismo tipo de tejido, que realizan una función concreta forman un sistema. Por ejemplo, el sistema muscular. • Nivel de Aparato: Conjunto de órganos diferentes entre sí que trabajan juntos, cada uno desempeñando su papel, en funciones más complejas. Por ejemplo, el sistema muscular, el sistema óseo y el sistema nervioso trabajan juntos constituyendo el aparato locomotor, el cual permite el movimiento de los seres vivos.

Nivel de Organismo: El ser vivo propiamente dicho, en el cual coexisten organismos formados de muchas células, o pluricelulares, y otros formados por sólo una célula o unicelulares. • Nivel de Población: Los organismos o seres vivos que comparten características se agrupan dando lugar a las poblaciones.

162


• Nivel de Comunidad: Dependiendo del lugar en dónde se hayan establecido, las poblaciones forman comunidades. Dentro de este nivel encontramos las distintas especies, que distingue los organismos de una comunidad de los del resto de comunidades. • Nivel de Ecosistema: El ecosistema es el resultado de la interacción de los seres vivos con el lugar en el que se han establecido, en cómo se influyen entre sí y se adaptan para sobrevivir.

Nivel de Paisaje: En este nivel podemos encontrar ecosistemas diversos que conviven en una zona geográfica amplia pero determinada. • Nivel de Región: Agrupación de diferentes paisajes dentro de una zona geográfica más amplia.

Nivel de Bioma: Un Bioma está formado por grandes ecosistemas que viven bajo un tipo de clima concreto, y del cual son característicos, y que interactúan entre ellos para adaptarse al medio y subsistir. • Nivel de Biosfera: Conjunto formado por los seres vivos, los seres inertes y el medio físico en el que todos se encuentran y por las relaciones que se establecen entre ellos.

ECOLOGÍA La ecología es la rama de la biología que estudia las relaciones de los diferentes seres vivos entre sí y con su entorno: «la biología de los ecosistemas» (Margalef, 1998). Estudia cómo estas interacciones entre los organismos y su ambiente afectan a propiedades como la distribución o la abundancia. En el ambiente se incluyen las propiedades físicas y químicas que pueden ser descritas como la suma de factores abióticos locales, como el clima y la geología, y los demás organismos que comparten ese hábitat (factores bióticos). Los ecosistemas están compuestos de partes que interactúan dinámicamente entre ellas junto con los organismos, las comunidades que integran, y también los componentes no vivos de su entorno. Los procesos del ecosistema, como la producción primaria, la patogénesis, el ciclo de nutrientes, y las diversas actividades de construcción del hábitat, regulan el flujo de energía y materia a través de un entorno. Estos procesos se sustentan en los organismos con rasgos específicos históricos de la vida, y la variedad de organismos que se denominan biodiversidad.

163


La visión integradora de la ecología plantea el estudio científico de los procesos que influyen en la distribución y abundancia de los organismos, así como las interacciones entre los organismos y la transformación de los flujos de energía. La ecología es un campo interdisciplinario que incluye a la biología y las ciencias de la Tierra. Niveles de organización ecológica Los niveles de organización ecológica son individuo, población, comunidad, ecosistema, biosfera y bioma. Describen la disposición de los organismos biológicos con relación entre sí, siendo una clasificación y organización de los diversos ecosistemas. Estos ecosistemas pueden ser estudiados en pequeños o en grandes niveles. En el nivel más simple de la jerarquía están los organismos individuales, donde no se consideran las interacciones con otros organismos. Al subir la jerarquía, los ecologistas han encontrado formas más complejas de describir las relaciones entre los organismos. Estos culminan en la biosfera, que describe la totalidad de todos los seres vivos en el planeta Tierra. 1. Individuos u organismos Los individuos u organismos constituyen la unidad básica de estudio en la ecología. En cada nivel, la unidad biológica tiene una estructura y una función específica. En este nivel se estudian la forma, la fisiología, el comportamiento, la distribución y las adaptaciones en relación con las condiciones ambientales. Los organismos o individuos similares tienen el potencial de cruzarse y producir descendencia fértil (que luego se llaman especies). El organismo o individuo realiza todos sus procesos de vida independientemente. Un individuo u organismo está totalmente adaptado a su entorno. Tiene una vida definida que incluye etapas como el nacimiento, la eclosión, el crecimiento, la madurez, la senescencia, el envejecimiento y la muerte. La competencia, el mutualismo y la depredación son diversos tipos de interacción entre organismos. Los aspectos de la evolución se utilizan ampliamente en el estudio de este nivel. En este nivel, la ecología se ocupa del desarrollo biológico, morfológico y fisiológico de organismos individuales en respuesta a su entorno natural. 2. Población Una población ecológica está conformada por un grupo de individuos de una especie dada que viven en un área geográfica específica en un momento dado y que funcionan como una unidad de comunidad biótica. Las poblaciones incluyen individuos de la misma especie, pero pueden tener diferentes características genéticas como el color y tamaño del pelo, ojos y piel entre ellos y otras poblaciones. Por ejemplo, los individuos de elefantes o tigres en una zona constituyen una población. Generalmente, las interacciones entre poblaciones son estudiadas. Estas interacciones pueden ser las de un depredador y su presa, o un parásito con su huésped. La competencia, el mutualismo, el comensalismo, el parasitismo y la depredación son diversos tipos de interacciones.

164


3. Comunidad Las comunidades incluyen a todas las poblaciones en un área específica en un momento dado. Una comunidad incluye poblaciones de organismos de diferentes especies. Por ejemplo, las poblaciones de peces, salmones, cangrejos y arenques coexisten en un lugar definido conformando una comunidad ecológica. La organización comunitaria biótica resulta de la interdependencia y de las interacciones entre poblaciones de diferentes especies en un hábitat. Se trata de un conjunto de poblaciones de plantas, animales, bacterias y hongos que viven en una zona e interactúan entre sí. Una comunidad biótica tiene una composición y estructura de especies distintas como animales, plantas y descomponedores (es decir, bacterias y hongos). 4. Ecosistema Los ecosistemas como parte de la naturaleza, son el lugar donde los organismos vivos interactúan entre sí y con su entorno físico. Un ecosistema está compuesto de una comunidad biótica, integrada con su entorno físico a través del intercambio de energía y reciclaje de los nutrientes. Los ecosistemas pueden ser reconocidos como unidades autorreguladoras y autosuficientes del bioma, pudiendo ponerse por ejemplo un estanque o un bosque. Un ecosistema tiene dos componentes básicos: abiótico (no vivo) y biótico (organismos vivos). Los componentes abióticos comprenden materiales inorgánicos tales como carbono, nitrógeno, oxígeno, CO2, agua, etc., mientras que los componentes bióticos incluyen productores, consumidores y descomponedores. Factores de ecosistema La Ecología es una rama de la Biología que intenta comprender el funcionamiento de los sistemas formados por los seres vivos. Estos sistemas son conocidos como ecosistemas o sistemas ecológicos. Estos ecosistemas están constituidos por factores ambientales que influyen en la composición de la biodiversidad. Estos factores son los abióticos y bióticos. • Factores Bióticos: Se conoce como biocenosis a la parte viva de un ecosistema, o sea a los seres vivos que lo habitan. Una forma simple de clasificarlos es en productores (plantas, algas, algunos protozoarios y bacterias), consumidores (animales herbívoros y carnívoros) y desintegradores (algunos hongos, bacterias y protozoarios). Si la temperatura ambiente es demasiado baja o alta, como en los ecosistemas formados por arrecifes de coral, sus límites de supervivencia son estrechos, pues el aumento de la temperatura del agua puede terminar con poblaciones de arrecifes y otros organismos pueden desarrollar actividades vitales. A esto se le denomina intervalo de tolerancia al medio, como luz, humedad, salinidad o temperatura. o LAS PLANTAS: Llamadas también productores u "organismos autótrofos" ya que producen su propio alimento. Su función principal en los ecosistemas es purificar el aire, además de ser la fuente de alimento para la mayoría de los animales. o LOS ANIMALES: Reciben también el nombre de consumidores u "organismos heterótrofos". Estos sirven como fuente alimento y de transporte para los seres humanos. o LOS MICROORGANISMOS (Hongos y Bacterias) Son organismos descomponedores. Por ende, se encargan de descomponer la materia orgánica muerta.

165


• Factores Abióticos: También conocidos como biotopos. Es la parte no viva del ecosistema, está formado por factores sidéreos que son aquellas propiedades de la Tierra; como la gravedad y la presión atmosférica. Factores edáficos que son, la estructura del suelo y contenido de sales minerales, también por factores climáticos como la temperatura y luz solar, y, por último, por factores químicos, como el aire, el agua, el pH y la salinidad. o LA LUZ O RADIACIÓN SOLAR: Esta produce luz y calor gracias a la energía lumínica del sol. La duración, la intensidad y la calidad que tiene, ejercen una influencia considerable en los seres vivos. La luz es un factor de gran importancia para los seres vivos porque sin ella no habría vida. Su principal función tiene relación con los seres fotosintéticos, los cuales aprovechan para producir materia orgánica por medio de la fotosíntesis; de donde obtienen materia y energía los demás seres vivos. Desde el punto de vista ecológico, es importante la cantidad de luz, la intensidad de los rayos solares y la cantidad de la misma. o EL AIRE: Está compuesto básicamente por Nitrógeno (78%) y Oxígeno (21%), lo demás es Ar, CO2, Ne, Kr y otros elementos que corresponden en conjunto a menos del 0,1%. Es indispensable para la respiración y la descomposición de la materia orgánica. El aire de los lugares donde abunda la vegetación o en los sitios naturales, es fresco y rico en oxígeno; al respirarlo, nos produce una sensación muy plácida. o EL AGUA: Es el factor más importante para las funciones biológicas de todos los seres vivos, sin ella no se concibe la vida. En estado líquido, cae en forma de lluvia y se almacena temporalmente en charcos, lagunas, ríos o penetra en el suelo en donde, en parte, las raíces de las plantas la toman. Las aguas aptas para el consumo humano se denominan “POTABLES”. Estas son frescas, transparentes, inoloras y están libres de microorganismos patógenos, a las aguas sucias que contienen impurezas y microorganismos, se les llama “IMPOTABLES”. Estas no sirven para el consumo humano ya que pueden ocasionar enfermedades como la diarrea y el tifo (fiebre). o EL SUELO: Constituye el soporte para las plantas. En el se encuentran los nutrientes o minerales indispensables para subsistencia de las plantas. Es considerado como el aparato digestivo de la tierra, pues allí se realizan numerosas transformaciones que permiten el reciclaje de materiales en la biosfera, es el resultado de la acción del clima y los seres vivos sobre las rocas de la superficie terrestre. De este modo, el suelo no solo es un "factor" del ambiente, sino que es producto de ellos mismos, en especial de la vegetación. En consecuencia, el suelo está compuesto por sustancias bióticas y abióticas. La descomposición de las rocas suministra al suelo sustancias abióticas, como arena, arcilla y limo, este último llamado también lodo. Por su parte, los seres vivos suministran humus, sustancias orgánicas que resulta de la descomposición de restos de seres vivos por acción de los organismos descomponedores, y que es la que le da el color oscuro al suelo. o LA TEMPERATURA: Se define como el grado de calor o frío de un lugar. Como la tierra es curva, no todas sus partes están expuestas a la misma cantidad de luz solar, la región ecuatorial recibe mayor energía que los polos. Esta es la razón por la cual los trópicos son más cálidos y los polos más fríos. La temperatura de una determinada región ayuda a saber que especies están en posibilidades de vivir allí. Nunca encontraremos en condiciones naturales, leones en los páramos, ni una selva tropical en New York, ni osos polares en Hawái. Interacción de las capas terrestres Un sistema puede definirse como un conjunto de elementos o partes unidas por alguna forma de relación o interdependencia regular. Un sistema es una estructura mayor que la suma de sus partes ya que del resultado de la unión surgen propiedades llamadas emergentes que no están presentes en los componentes separados.

166


Nuestro planeta Tierra puede ser considerado como un gran sistema en donde encontramos subsistemas como las capas terrestres atmósfera, hidrosfera, biosfera y geosfera que interaccionan entre ellas. Es un sistema abierto (recibe energía especialmente procedente del sol y materia de los meteoritos) y experimenta una pérdida de energía en forma de calor. Se trata de un sistema que autorregula su temperatura manteniendo una media de unos 15 º C, lo que permite la existencia de agua líquida y, por tanto, de vida. Algunas de las interrelaciones entre los diferentes subsistemas terrestres son: a) Atmósfera: Capa gaseosa que rodea a la Tierra Composición: Cambia con el tiempo. Componentes importantes: O2, CO2, vapor de agua. Influye el vulcanismo. Influye la evaporación de agua de los océanos. Pueden afectar al balance energético del planeta (balance entre la energía recibida y la irradiada al exterior). Produce alteración en las rocas por reacción con los componentes atmosféricos: O2, CO2, H2O. Debido a las diferencias de temperatura, vientos, precipitaciones etc. originan el clima. b) Hidrosfera: El CO2 puede pasar de la atmósfera al agua y viceversa. El viento origina las corrientes superficiales (oleaje...) El vapor de agua pasa a la atmósfera, se condensa y cae en forma de lluvia, nieve o granizo incorporándose así a la hidrosfera. La temperatura del agua está determinada fundamentalmente por la temperatura ambiente atmosférica y viceversa (influencia de las corrientes marinas). c) Biosfera: La vida depende de los gases atmosféricos como el O2 (en la respiración) y el CO2 para la fotosíntesis y el efecto invernadero natural, que permite que la temperatura media de la Tierra sea de unos 15ºC, apta para permitir la vida sobre nuestro planeta. Algunos gases como el ozono (O3) de la estratosfera evitan que llegue hasta la Tierra radiación ultravioleta de determinadas gamas de longitudes de onda, que serían fatales para las células, y por tanto para los seres vivos. En las zonas altas de la atmósfera (ionosfera) las radiaciones de onda corta del tipo rayos gamma y rayos X son absorbidas por moléculas de nitrógeno y oxígeno. Estas radiaciones producirían roturas y destrucción de biomoléculas, y como consecuencia harían imposible la vida. d) Geosfera: Las precipitaciones, el viento, los cambios de temperatura etc. Producen meteorización en las rocas, y por tanto modifican la geosfera. Esta alteración de las rocas será un factor fundamental en el proceso de formación de suelos.

167


e) Hidrosfera: Conjunto de las aguas de la Tierra. Ciclo hidrológico. Diferencias entre las aguas de los océanos: se diferencian en: o Composición (tipos de sales disueltas) o Salinidad (porcentaje de sales disueltas) o Temperatura o Densidad Corrientes oceánicas: Las corrientes oceánicas influyen en el clima. Sedimentos marinos: En la formación de los sedimentos marinos influyen, como veremos más adelante: o Las corrientes o Los aportes detríticos o Los organismos marinos o La salinidad de las aguas Sedimentos en aguas continentales: hay sedimentos que se depositan en aguas continentales. Mediante los procesos (comunes a todo tipo de sedimentación) de: o Erosión o Transporte o Depósito Se interrelaciona con todas las demás capas terrestres mediante el ciclo del agua. Más específicamente podemos exponer:

CICLOS BIOGEOQUÍMICOS Gracias a los ciclos biogeoquímicos, los elementos se encuentran disponibles para ser usados una y otra vez por otros organismos; sin estos ciclos los seres vivos se extinguirían por esto son muy importantes. Estos son procesos naturales que reciclan elementos en diferentes formas químicas desde el medio ambiente hacia los organismos, y luego a la inversa. Agua, carbono, oxígeno, nitrógeno, fósforo y otros elementos recorren estos ciclos, conectando los componentes vivos y no vivos de la Tierra. La tierra es un sistema cerrado donde no entra ni sale materia. Las sustancias utilizadas por los organismos no se "pierden" aunque pueden llegar a sitios donde resultan inaccesibles para los organismos por un largo período. Sin embargo, casi siempre la materia se reutiliza y a menudo circula varias veces, tanto dentro de los ecosistemas como fuera de ellos. Existen varios tipos de ciclos biogeoquímicos como el del fósforo y del azufre que son de tipo sedimentario (los nutrientes circulan principalmente en la corteza terrestre) y del carbono, nitrógeno y oxígeno que son de tipo gaseoso (los nutrientes circulan principalmente entre la atmósfera y los organismos vivos). Para el caso particular del ciclo del agua o hidrológico, esta circula entre el océano, la atmósfera, la tierra y los organismos vivos; este ciclo además distribuye el calor solar sobre la superficie del planeta. 1. Ciclo del agua o ciclo hidrológico El ciclo hidrológico se define como el "proceso integrante de los flujos de agua, energía y algunas sustancias químicas". En la figura se resumen cualitativamente los principales elementos componentes del ciclo hidrológico. Así, el agua cae sobre la superficie terrestre en forma de precipitación líquida o sólida (nieve, granizo, etc.). Parte de aquella puede ser evaporada antes de tocar la superficie terrestre. Aquella fracción que alcanza la vegetación es parcialmente retenida por las hojas y cobertura foliar de las plantas

168


(intercepción). De allí, una parte es evaporada nuevamente hacia la atmósfera o escurre y cae hacia el suelo, desde donde puede infiltrarse o escurrir por las laderas siguiendo la dirección por las mayores pendientes del terreno. Aquella fracción que se infiltra puede seguir 3 rutas bien definidas: una parte es absorbida por la zona radicular de las plantas y llega a formar parte activa de los tejidos de las plantas o transpirada nuevamente hacia la atmósfera; puede desplazarse paralelamente a la superficie del terreno a través de la zona no saturada del terreno, como flujo subsuperficial hasta llegar a aflorar en los nacimientos o manantiales y la otra ruta es continuar infiltrándose hasta llegar a la zona saturada del terreno, donde recargará el almacenamiento de aguas subterráneas. Las aguas subterráneas, que se hallan limitadas en su parte inferior por depósitos impermeables (arcillas, formaciones rocosas, etc.) no permanecen estáticas, sino que a su vez se desplazan entre dos sitios con diferencias en sus equipotenciales. No hay que olvidar que la evaporación es un proceso continuo cuasi-estacionario presente en todos los puntos de la cuenca, el cual va desde la evapotranspiración en la vegetación hasta aquella proveniente de la superficie del terreno, los cuerpos abiertos de agua, las corrientes principales y secundarias y las zonas no saturadas y saturadas del terreno. El ciclo hidrológico comprende una serie de interacciones continuas bastante complejas y de carácter no lineal. En conclusión, se puede definir: • El ciclo hidrológico: es la sucesión de estados que atraviesa el agua al pasar de la atmósfera a la tierra y volver a la atmósfera: evaporación del suelo, del mar, o de superficies de aguas continentales; condensación para formar nubes, precipitación, acumulación en el suelo y en superficies de agua y re evaporación. •

El ciclo hidrológico externo: es la componente del ciclo hidrológico tal que el vapor de agua evaporado de la superficie del mar se condensa bajo la forma de precipitación, la cual cae sobre los continentes.

El ciclo hidrológico interno: es la componente del ciclo hidrológico limitado a una cierta superficie continental: el vapor de agua evaporado por esta superficie se condensa bajo la forma de precipitación dentro de los límites de esta misma región. (En realidad, parte del agua evaporada no entra dentro de la circulación interna porque es arrastrada por los vientos fuera de los límites del territorio dado).

2. Ciclo del Carbono El carbono es parte fundamental y soporte de los organismos vivos, porque proteínas, ácidos nucleicos, carbohidratos, lípidos y otras moléculas esenciales para la vida contienen carbono.El ciclo del carbono es un ciclo biogeoquímico donde el carbono sufre distintas transformaciones a lo largo del tiempo (ver Figura 4). Este ciclo juega un papel importante en la regulación del clima del planeta. Este elemento se encuentra depositado en todas las esferas del sistema global en diferentes formas: en la atmósfera como dióxido de carbono, metano y otros componentes; en la hidrosfera, en forma de dióxido de carbono disuelto en al agua; en la litósfera, en las rocas y en depósitos de carbón, petróleo y gas; en la biosfera, en los carbohidratos; en la antroposfera, en diferentes formas en los objetos creado por la sociedad. El carbono circula entre la atmósfera, la hidrosfera, la biosfera y la litosfera por medio de la interacción en escalas de tiempo que van desde procesos que demoran algunas horas, días, meses y estaciones hasta aquellos que tardan largos periodos geológicos.

169


3. Energía en los ecosistemas La energía en los ecosistemas va de un organismo a otro a través de las cadenas alimenticias y las redes tróficas, quedándose una cantidad menor de esta en el último organismo que lo consume. Para que un ecosistema pueda funcionar necesita de un aporte energético que llega a la biosfera en forma principalmente de energía lumínica, la cual proviene del Sol y a la que se le llama comúnmente flujo de energía (algunos sistemas marinos excepcionales no obtienen energía del sol sino de fuentes hidrotermales). El flujo de energía (como la del sol) es aprovechado por los productores primarios u organismos de compuestos orgánicos que, a su vez, utilizarán los consumidores primarios o herbívoros, de los cuales se alimentarán los consumidores secundarios o carnívoros. De los cadáveres de todos los grupos, los descomponedores podrán obtener la energía necesaria para lograr subsistir. De esta forma se obtendrá un flujo de energía unidireccional en el cual la energía pasa de un nivel a otro en un solo sentido y siempre con una pérdida en forma de calor. 4. Flujo de energía en bosques Los bosques acumulan una gran cantidad de biomasa vertical, y muchos no son capaces de acumularla a un ritmo elevado, ya que son bajamente productivos. Esos niveles altos de producción de biomasa vertical representan grandes almacenes de energía potencial que pueden ser convertidos en energía cinética bajo las condiciones apropiadas. Dos de esas conversiones de gran importancia son los incendios forestales y las caídas de árboles; ambas alteran radicalmente la biota y el entorno físico cuando ocurren. Igualmente, en los bosques de alta productividad, el rápido crecimiento de los propios árboles induce cambios bióticos y ambientales, aunque a un ritmo más lento y de menor intensidad que las disrupciones relativamente abruptas como los incendios.

ECOSISTEMAS TERRESTRES Son aquellos distintos hábitats terrestres alrededor de la tierra en el que los seres vivos, animales y plantas viven en el suelo y el subsuelo. La flora y fauna se desarrolla en el propio suelo. Es uno de los tipos de hábitat biológicamente más diversos y ricos qué dependen de la cantidad de la humedad, la latitud y altitud o la temperatura. Estos últimos factores determinarán su clasificación. Los principales ecosistemas terrestres que podemos encontrar en la tierra: • Desiertos Las diferentes tipos de desiertos del mundo se identifican por presentar unas altas temperaturas en el día y bajas de noche, otros factores característicos de los desiertos son la humedad reducida y la evidente escasa precipitación en la mayoría de zonas desérticas. Principalmente se clasifican en dos tipologías: a. Arbustos de hojas escasas y duras b. Vegetación de hojas carnosas, son los típicos Cactus. • Páramos Las zonas de páramos son equivalentes a las tundras en algunos países. Se identifican por presentar aire frío, nieves y neblinas la mayoría del año o suelos áridos. La flora está constituida por vegetales perennes, plantas herbáceas, arbustos y árboles enanos, musgos, líquenes y ciertos pastos.

170


Entre los animales se pueden localizar palomas, osos, venados, patos, anfibios, reptiles, roedores o aves. Los páramos de Argentina son muy conocidos donde las plantas y seres que habitan la región del páramo, principalmente presentan adaptaciones para resguardarse del frío, como; bastante pelo y vello; las hojas de los vegetales están tupidas con pelusas abrigadas y finas. • Sabanas Las sabanas son zonas formadas por grandes praderas con escaso arbolado, donde prevalecen los pastizales, gramíneas o plantas de consistencia herbácea. Entre la fauna animal se pueden localizar mamíferos, ganados, roedores, reptiles o aves. En la sabana sobresale la ganadería, puesto que son zonas perfectas para la cría y desarrollo de todo género de ganado. Tiene dos temporadas de lluvias bastante claras y necesarias para la vida animal y vegetal de estas zonas. Actualmente por la poca conciencia y el desarrollo urbano descontrolado de las ciudades, están ocupando gran parte de las sabanas de alrededor del mundo. •

Bosques Los bosques se definen como aquellas zonas “superpobladas” de árboles, arbustos y matorrales, caracterizados por sus húmedos y con temperaturas que oscilan entre los veinticuatro grados. Los organismos y animales que existentes son variadísimos y exóticos tanto en fauna como en vegetación. La verdad que existen múltiples géneros de bosques, en dependencia del tiempo de la zona, de la situación geográfica y peculiaridades prácticamente de cada país.

Entre aquéllos que sobresalen y podemos distinguir claramente son: I. El bosque tropical: El ecosistema tropical lluvioso se identifican por presentar árboles con hojas anchísimas y verdes, con zonas de lluvias a lo largo de toda la temporada del año, alta humedad y temperatura, donde también predominan las inundaciones. El bosque tropical presenta una flora muy exótica y exuberante, en lo que se refiere a los animales, podemos encontrar una gran pluralidad de anfibios, reptiles y también múltiples insectos. II.

El bosque andino: La percepción del bosque andino es que están formados por cinturones de bosques en la “zona andina”, con temperatura normalmente tibias o bien frías, se distribuyen en las partes próximas al páramo. En los bosques andinos podemos encontrar una sucesión de flora como palmeras, leguminosas, helechos, animales del estilo de osos hormigueros, venados, ardillas, puerco espines, conejos, zorros, y aves y una diversidad de pastos generosa.

Tipos de animales que hay en el ecosistema terrestre Al igual que el hábitat acuático, los animales terrestres pueden vivir en diferentes regiones. Sus cuerpos se han adaptado y están preparados para arrastrarse, correr, prepara, caminar o volar, según el lugar del planeta en el que vivan. Los animales terrestres necesitan del oxígeno para vivir; en su mayoría tienen pulmones y se alimentan o de otros animales de menor tamaño normalmente o de plantas. Algunos son muy pequeños y otros de gran tamaño. También podemos encontrar una fauna variada que al nacer pueden valerse por sí mismos y otros qué son mucho más dependientes y tienen que ser ayudados por sus padres para sobrevivir. Principalmente los animales de los ecosistemas terrestres se

171


diferencian entre sí por la composición interna de su cuerpo hola esto dura corporal y qué determina en mayor medida sus funciones vitales. Serían los vertebrados o invertebrados. I. Animales vertebrados: Son aquellos que tienen una columna vertebral o con algún tipo de estructura cartilaginosa o ósea. El ejemplo perfecto serían los mamíferos (león, caballo…etc). II. Animales invertebrados: Son aquellos que no tienen ningún tipo de estructura interna. El ejemplo perfecto serían los gusanos, por ejemplo. También suelen clasificarse según su dieta alimentaria, es decir, según el tipo de nutrientes que comen para vivir. I. Carnívoros: Es aquella fauna o animales que se alimentan de la carne de donde extraen sus nutrientes y energía para vivir. Sporting de un aparato más complejo que los herbívoros o los omnívoros y más musculoso, además de colmillos y garras que le permiten tanto cazar cómo comer de una forma más sencilla. Ejemplos representativos tendríamos los leones, los lobos…etc. II.

Herbívoros: Son aquellos que se alimentan únicamente de vegetación y plantas por lo que tienes un estómago mucho más simple con la diferencia que los procesos digestivos son más la y complejos para consumir los nutrientes necesarios en su alimentación. Como ejemplo estaría en las cabras, los elefantes, los caballos…etc.

III.

Omnívoros: Son los animales terrestres que tiene una dieta mixta, que consumen tanto vegetales como carne, por lo que tienen un aparato digestivo más desarrollado que los herbívoros y por ello pueden adaptarse mejor a diferentes tipos de ecosistemas. Como ejemplos representativos tendríamos los avestruces, los cerdos, osos, los erizos…etc.

ECOSISTEMAS ACUÁTICOS El elemento más importante de la tierra es el agua donde gracias a ella vivimos y no solo eso, sino que los ecosistemas acuáticos encontramos todo tipo de seres vivos (animales, vegetación, flora y organismos) cuya actividad y vida se establece en este hábitat que cubren alrededor del 70% de la superficie terrestre. Conforman de forma general los lagos, ríos, arroyos, lagunas, océanos, mares y todos aquellos hábitats donde se localiza agua que alberga vida, es una simbiosis que se produce tanto en agua dulce como en salada. Por norma, para poder estudiarlos con coherencia y ver de forma clara sus características se dividen en dos tipos de ecosistemas acuáticos básicos. Son dos grandes grupos que, aunque en ambos casos el entorno es el agua, existen diferencias en los criterios de interacción y flujo entre los diferentes seres vivos y su entorno, sobre todo, dependiendo de si tienen agua dulce o agua salada: • Marinos: Las regiones del ecosistema marino incluyen océanos, mares, marismas…etc. Estos medios son sumamente estables de cara al desarrollo de la vida en comparación con cualquier sistema terrestre de agua dulce. En verdad, la vida nació en el mar y hasta el día de hoy, sigue siendo un lugar excepcional y aún muy desconocido.

172


De agua dulce: Estas regiones están determinadas por los lagos, ríos, pantanos…etc. Constituyen una gran biodiversidad de especies de todo género y de todo color, tanto faunística como de vegetación. Por lo general hallamos muchos anfibios, también se puede localizar un enorme número peces asociados a ellos. La extensa presencia de flora es una de las peculiaridades palpables de los ecosistemas de agua dulce. Lo curioso de los ríos, es que las condiciones pueden cambiar entre tramos y regiones, con lo que un mismo río puede tener múltiples micro ecosistemas.

También, se pueden clasificar y organizar en cuatro grupos diferentes por la manera de desplazarse y el modo de vida de sus organismos. Siendo los más importantes, el plancton, el bento, el necton y neuston: Tipos micro ecosistemas acuáticos I. Acuático bentónico: Son aquellos que los organismos vivos denominados bentos se sitúan en el fondo de los ecosistemas acuáticos. Son aquellas zonas que no son muy profundas donde los primordiales habitantes son algas. II.

Acuático nectónicos: Los organismos vivos denominados necton. Se desplazan con total libertad y nadan activamente en las áreas acuáticas.

III.

Acuático planctónicos: Seres vivos denominados plancton, viven flotando en el agua terrestre o bien marina y son arrastrados por las corrientes, no se trasladan por movimientos propios. Puede dividirse en fitoplancton y zooplancton. o En el fitoplancton se incluyen organismos que realizan la fotosíntesis, es decir, productores, como las algas microscópicas y las cianobacterias. Este grupo de organismos es vital para los ecosistemas acuáticos porque constituyen el primer eslabón de las cadenas tróficas. o El zooplancton está formado por seres heterótrofos que se alimentan del fitoplancton, es decir, consumidores primarios, entre los que se encuentran protozoos, algunos crustáceos y las larvas de animales.

IV.

Acuático neustónicos: Seres vivos denominados neuston, viven sobre la superficie, flotando.

SISTEMAS DEL CUERPO HUMANO Definición de Sistema: Un sistema es un conjunto de órganos y estructuras que trabajan en conjunto para cumplir alguna función fisiológica en un ser vivo.

173


Sistemas de cuerpo humano y sus funciones

1. Sistema Circulatorio: Es el sistema de conexiones venosas y arteriales que transportan la sangre a los órganos del cuerpo. Está formado por el corazón, los vasos sanguíneos (venas, arterias y capilares) y la sangre.

2. Sistema Digestivo: Es el sistema encargado del proceso de la digestión que es la transformación y la absorción de los alimentos por las células del organismo. La función que realiza es el transporte de los alimentos, la secreción de jugos digestivos, la absorción de los nutrientes y la excreción.

3. Sistema Endocrino: (Sistema hormonal) Es el sistema que produce hormonas que son liberadas a la sangre y que regulan algunas de las funciones del cuerpo incluyendo el estado de ánimo, el crecimiento y el metabolismo.

4. Sistema Inmunológico: (Sistema inmunitario) Es el sistema que permite proteger contra enfermedades identificando y matando células patógenas y cancerosas.

5. Sistema Linfático: Es el sistema de conductos cilíndricos parecidos a los vasos sanguíneos que transporte un líquido transparente llamado linfa. Unas funciones del sistema linfático incluyen formar y activar el sistema inmunitario y recolectar el quilo (un fluido producto de la digestión de las grasas de los alimentos ingeridos). El sistema linfático está compuesto por los vasos linfáticos, los ganglios, el bazo, el timo, la linfa y los tejidos linfáticos (como la amígdala y la médula ósea). 6. Sistema Muscular: Es el sistema que permite que el esqueleto se mueva, se mantenga estable y dé forma al cuerpo. El sistema muscular sirve como protección para el buen funcionamiento del sistema digestivo y otros órganos vitales.

174


7. Sistema Nervioso: Es el sistema de conexiones nerviosas que permite transmitir y tener información del medio que nos rodea.

8. Sistema Óseo: Es el sistema de apoyo estructural y protección a los órganos internos mediante huesos.

9. Sistema Reproductor: Es el sistema que está relacionado con la reproducción sexual.

10. Sistema Respiratorio: Es el sistema encargado de captar oxígeno y eliminar el dióxido de carbono procedente del anabolismo celular. Las fosas nasales son usadas para cargar aire en los pulmones donde ocurre el intercambio gaseoso.

11. Sistema Urinario: (sistema excretor) Es el sistema que tiene la función de expulsar los desechos que ha dejado el proceso digestivo.

METABOLISMO El metabolismo es un conjunto de reacciones químicas que se dan dentro de las células del cuerpo. Estas reacciones son las responsables de transformar todos los alimentos que se ingieren en el combustible necesario para llevar adelante todas las funciones vitales, desde respirar hasta moverse, y hacen posible que las células estén sanas y funciones adecuadamente. Es decir que cuando se consumen alimentos se están consumiendo proteínas, grasas e hidratos de carbono que serán descompuestos en unidades más pequeñas por parte de moléculas denominadas enzimas. De este proceso resultarán aminoácidos, ácidos grasos y azúcares respectivamente, que serán entonces absorbidos hacia el torrente sanguíneo para dirigirse a las células del cuerpo y metabolizarse de modo que se libere o se almacene energía. El metabolismo consta de dos tipos de procesos: el anabolismo, que consiste en la fabricación de tejidos corporales y reservas de energía, y el catabolismo, responsable de la descomposición de tejidos y reservas de energía para utilizarla como combustible. Diferentes hormonas, producidas por el sistema endócrino serán las que regulen la velocidad y el sentido de estos procesos.

175


Cuando el metabolismo falla, aparecen las enfermedades metabólicas, que deben tratarse y controlarse. Algunas de ellas son: •

Galactosemia: es un trastorno heredado que se caracteriza por la dificultad para descomponer la galactosa, un azúcar componente de la lactosa, presente en los productos lácteos. Esto se da por una deficiencia en la enzima responsable de hacerlo.

• Hipertiroidismo: es una enfermedad que resulta de una producción excesiva de tiroxina por parte de la glándula tiroides. Esta hormona acelera el metabolismo basal, con lo cual se produce un descenso de peso, una aceleración del ritmo cardíaco, hipertensión, ojos saltones e inflamación de la glándula tiroides.

Diabetes: puede ser de tipo 1, cuando el páncreas no produce o produce muy poca insulina, y la de tipo 2, cuando el organismo no responde a la insulina adecuadamente. Síntomas típicos de la diabetes son la necesidad frecuente de orinar, la sed y el hambre extremos. A largo plazo puede tener complicaciones como problemas en riñones, en los nervios, retinopatías, ceguera y enfermedad cardiovascular.

Fases del metabolismo 1. Catabolismo o metabolismo destructivo. Procesos liberadores de energía a partir de la ruptura de enlaces químicos presentes en los nutrientes, usualmente a través de la degradación y oxidación, convirtiendo moléculas complejas en otras más simples. Y obteniendo a cambio energía química (ATP), poder reductor (capacidad de donar electrones o recibir protones de ciertas moléculas) y los componentes necesarios para el anabolismo. 2. Anabolismo o metabolismo constructivo. Procesos constructivos que consumen energía química, para emprender el proceso inverso al catabolismo, formando así moléculas más complejas a partir de estructuras simples, y suministrando al organismo proteínas, lípidos, polisacáridos o ácidos nucleicos.

176


FECUNDACIÓN Y CICLO MESTRUAL La menstruación: es la descamación del revestimiento interno del útero (endometrio), que se acompaña de sangrado. Se produce aproximadamente en ciclos mensuales durante los años fértiles de la vida de la mujer, excepto durante el embarazo. La menstruación empieza en la pubertad (con la menarquia) y cesa definitivamente con la menopausia. Por definición, el primer día de sangrado se considera el comienzo de cada ciclo menstrual (día 1). El ciclo finaliza justo antes de la siguiente menstruación. Los ciclos menstruales normales varían entre 25 y 36 días. Solo del 10 al 15% de las mujeres tienen exactamente ciclos de 28 días, mientras que como mínimo en el 20% de las mujeres los ciclos son irregulares, es decir, más largos o cortos que el intervalo normal. Por lo general, los ciclos varían más y los intervalos entre los períodos son más prolongados en los años inmediatamente posteriores al inicio de la menstruación (menarquia) y anteriores a la menopausia. El sangrado menstrual dura de 3 a 7 días, con un promedio de 5 días. La sangre perdida durante un ciclo menstrual oscila entre 15 y 75 cm3. Una compresa higiénica o un tampón, según el tipo, puede absorber unos 30 cm3 de sangre. La sangre menstrual, a diferencia de la sangre que brota de una herida, no forma coágulos a menos que el sangrado sea muy intenso. Las hormonas regulan el ciclo menstrual. Las hormonas latinizantes y folículo estimulante, producidas por la hipófisis, promueven la ovulación y estimulan a los ovarios para producir estrógenos y progesterona. Los estrógenos y la progesterona estimulan el útero y las mamas para prepararse para una posible fecundación. El ciclo menstrual tiene tres fases: 1. Folicular (antes de la liberación del óvulo) 2. Ovulatoria (liberación del huevo) 3. Lútea (después de la liberación del óvulo) El ciclo menstrual: comienza con una hemorragia (menstruación), que marca el primer día de la fase folicular. Cuando se inicia la fase folicular, los niveles de estrógeno y progesterona son bajos. Como consecuencia, se produce la descomposición y el desprendimiento de las capas superiores del revestimiento uterino (endometrio) y tiene lugar la menstruación. En esta fase, el nivel de hormona folículo estimulante aumenta ligeramente y estimula el desarrollo de varios folículos de los ovarios. Cada folículo contiene un óvulo. Más tarde en esta fase, a medida que la concentración de hormona folículo estimulante va disminuyendo, solo un folículo sigue su desarrollo. Este folículo produce estrógenos. La fase ovulatoria comienza con un aumento en la concentración de las hormonas latinizante y folículo estimulante. La hormona latinizante estimula el proceso de liberación del óvulo (ovulación), que suele ocurrir entre 16 y 32 horas después de que comience su elevación. El nivel de estrógenos llega a su punto máximo y el nivel de progesterona comienza a elevarse. Durante la fase lútea descienden las concentraciones de las hormonas latinizantes y folículo estimulante. El folículo roto se cierra después de liberar el óvulo y forma el cuerpo lúteo, que produce progesterona. Durante la mayor parte de esta fase, la concentración de estrógenos es alta. La progesterona y los estrógenos provocan un mayor engrosamiento del endometrio, que se prepara para una posible fertilización. Si el óvulo no se fertiliza, el cuerpo lúteo degenera y deja de producir progesterona, el nivel de estrógenos disminuye, se descomponen y desprenden las capas superiores del revestimiento, y sobreviene la menstruación (el inicio de un nuevo ciclo menstrual). La fecundación: es el proceso por el cual dos gametos (masculino y femenino) se fusionan durante la reproducción sexual para crear un nuevo individuo con un genoma derivado de ambos progenitores. Los dos fines principales de la fecundación son la combinación de genes derivados de ambos progenitores y la generación de un nuevo individuo. En el caso de las plantas con semilla, se debe diferenciar el fenómeno de la fecundación propiamente dicho (unión íntima de dos células sexuales hasta confundirse sus núcleos respectivos y, en mayor o menor grado, sus citoplasmas), del proceso biológico de la vaca que lo antecede:

177


La polinización, en el que los granos de polen, desarrollados en las tecas que contiene cada antera de un estambre (hoja reproductora masculina), son transportados por el viento o los insectos a los estigmas, donde germinan emitiendo un tubo polínico que crece hacia el ovario. En este caso no se trata de gametos, sino de esporas, pues cada grano de polen contiene dos gametos o células reproductoras masculinas, que son transportadas a una hoja reproductora femenina (carpelo) de otra flor (polinización cruzada) o de la misma flor (autopolinización).

BIOLOGÍA DE LA SEXUALIDAD Las explicaciones biológicas de la conducta sexual en general se han basado en el concepto del instinto y esta idea de una fuerza innata ha demostrado ser muy útil, pero hasta ahora los científicos han fracasado en definir de modo suficientemente específico lo que significan términos como instinto, impulso o pulsión. Una explicación más sencilla y probable es que los humanos y otros animales participan en encuentros sexuales porque les son placenteros, y en estos casos el incentivo está en el acto mismo más que en sus posibles consecuencias. El término sexo, que se circunscribe dentro de la dimensión biológica de la sexualidad, se refiere a la serie de características físicas determinadas genéticamente, que colocan a los individuos de una misma especie en algún punto del continuo que tiene como extremos a los individuos reproductivamente complementarios. Para los seres humanos, en un extremo se encontrará la mujer con capacidad reproductiva y en el otro el hombre con la misma condición, y en caso de darse una relación coital entre ellos, existe la posibilidad de que se lleve a cabo un proceso de fecundación que daría como resultado un nuevo ser. A lo largo de ese continuo podemos encontrar diferentes puntos intermedios donde se localizan aquellas personas que tienen como peculiaridad el no tener la posibilidad de fecundar o de ser fecundados, como por ejemplo los bebés, los niños y las niñas antes de la pubertad, las mujeres después de la menopausia y durante el climaterio, los hombres y las mujeres que utilizan o que se han sometido a procedimientos anticonceptivos temporales o definitivos, o bien que por diversas razones están imposibilitados para reproducirse, etc. Así pues, todos ellos estarían colocados en diversos puntos sobre esta línea, pero por su incapacidad reproductiva no se ubican en los extremos. Al centro se encuentran las personas denominadas hermafroditas, o más correctamente pseudohermafroditas o estados intersexuales (que es un trastorno de la diferenciación sexual), del griego demacraditos, joven de gran belleza hijo de Hermes y de Afrodita de quien estaba enamorada la ninfa Sal macis sin ser correspondida. La mitología cuenta que estando el joven bañándose en una fuente, sal macis se unió a él sin su consentimiento y pidió a los Dioses que sus cuerpos formasen uno solo, por lo que se le representa como un joven con pecho de mujer o con la figura de Afrodita con genitales masculinos. Planificación Familiar La planificación familiar permite a las personas tener el número de hijos que desean y determinar el intervalo entre los embarazos. Se logra mediante la aplicación de métodos anticonceptivos. El termino planificación familiar. El termino planificación familiar se refiere habitualmente al conjunto de prácticas que pueden ser utilizadas por una mujer, un hombre o una pareja de potenciales progenitores orientadas básicamente al control de la reproducción mediante el uso de métodos anticonceptivos en la práctica de relaciones sexuales. El control o planificación familiar puede tener como objetivo engendrar o no descendientes y, en su caso, es decidir sobre el número de hijos, el momento y las circunstancias-sociales, económicas y personales en las que desea tenerlos. La planificación familiar es un método importante para ayudar a muchas jóvenes para que no queden embarazadas a temprana edad y puedan seguir sus estudios para que un embarazo no los afecte tanto a ella como a su familia.

178


INFECCIONES DE TRASMISIÒN SEXUAL • • • • • •

Las ITS son enfermedades infecciosas, que pueden transmitirse de una persona a otra durante una relación sexual vaginal, anal u oral. Las ITS afectan a todos independientemente de la orientación sexual o identidad de género. Desde el comienzo de la vida sexual puedes estar expuesto/a estas infecciones. Las producen más de 30 diferentes tipos de virus, bacterias y parásitos. Las más frecuentes son la sífilis, gonorrea, clamidia, herpes, hepatitis B y C, VIH y VPH. La mayoría de las ITS se pueden prevenir usando preservativo y, en caso de que tengas alguna de estas infecciones, son tratables y muchas de ellas se curan. Si no son tratadas, las ITS pueden producirte: • Infertilidad tanto en hombres como en mujeres • Dolor crónico en la pelvis • Embarazo ectópico • Algunas pueden pasar al bebé durante el embarazo, el parto o la lactancia. • Pueden aumentarte la posibilidad de adquirir VIH. • El VPH no tratado puede relacionarse con algunos cánceres. • Algunas infecciones pueden dar cuadros generalizados.

Principales Síntomas De Las ITS • Cualquier lastimadura en la zona genital, que duela o no. • Secreciones de pus en los genitales (vagina, pene o ano). • Ardor al orinar. • Flujo genital u anal diferente al habitual. • Dolor en la parte baja del abdomen. • Lesiones en la boca o manchas en la piel. Las ITS pueden no dar síntomas, sobre todo en las mujeres. Algunas veces solo se detectan con un examen médico. Cuando se manifiestan pueden aparecer de diferentes formas. Recomendaciones Generales para Prevenir o Detectar a tiempo una ITS • La mayoría de las ITS se pueden prevenir usando preservativo desde el comienzo de la relación sexual. • Consultando al profesional de la salud ante cualquier síntoma ya que la mayoría son tratables y muchas de ellas se curan. • Si estás embarazada, es importante que vos y tu pareja se realicen los análisis para –en el caso que sea necesario – ambos puedan tratarse y evitar transmitírselas al bebé. • En el caso de la Hepatitis B, existe una vacuna efectiva para prevenir esta infección que está incluida en el Calendario Nacional de Vacunación.

SALUD Y AMBIENTE Como todos los seres vivos, los seres humanos dependen del medio ambiente que los rodea para satisfacer sus necesidades de salud y supervivencia, y aunque presentan resistencia a condiciones ambientales nocivas, su salud es vulnerable a dichas condiciones. Cuando el medio ambiente deja de satisfacer las necesidades básicas y al mismo tiempo presenta numerosos riesgos, la calidad de vida y la salud de las personas se ve muy afectada. En la siguiente figura se trata de dar una idea de la complejidad de las interacciones ambientales con la salud. Peligros ambientales para la salud humana Para una mejor comprensión de cómo el “medio ambiente” puede tener “peligros” o representar “amenazas” para la salud humana, comenzamos por definirlos: Medio ambiente: se refiere a todo lo que rodea a un objeto o a cualquier otra entidad. El hombre experimenta el medio ambiente en que vive como un conjunto de condiciones físicas, químicas, biológicas, sociales, culturales y económicas que difieren según el lugar geográfico, la infraestructura, la estación, el momento del día y la actividad realizada.

179


Peligro: es el potencial que tiene un agente ambiental para afectar la salud. Los diferentes peligros ambientales pueden dividirse en “peligros tradicionales” ligados a la ausencia de desarrollo, y “peligros modernos”, dependientes de un desarrollo insostenible. Una de las diferencias entre los peligros ambientales tradicionales y los modernos es que los primeros suelen manifestarse con rapidez relativa en forma de enfermedad. Por el contrario, muchos de los peligros modernos requieren largos períodos de tiempo antes de manifestar sus efectos en la salud.

NORMAS DE HIGIENE Las normas de higiene personal son claves para mantener la limpieza y el aseo del cuerpo externo, siendo una importante ayuda a la hora de incrementar la confianza y la autoestima. Algunas de las medidas más importantes son ducharse, limpiarse los dientes o lavarse las manos antes de comer. Asimismo, la higiene personal es una manera efectiva de defendernos en contra de las enfermedades en el ambiente. Tener una higiene personal adecuada es importante no sólo para verse bien, sino también para prevenir el contagio de enfermedades a otras personas. Algunas de estas serían: Bañarse diariamente: La mejor manera de deshacerse de cualquier partícula de tierra, sudor, y/o gérmenes que pudiera tener el cuerpo al ser acumulados durante el día, es bañarse diariamente. Previenen las enfermedades relacionadas con la higiene y además hacen que la persona se sienta y se vea limpia a lo largo del día. Utilizar desodorante/antitranspirante: El antitranspirante ayuda a controlar el exceso de sudor, mientras que el desodorante cubre un color corporal desagradable causado por el sudor. Si una persona elige no utilizar desodorante en su vida diaria, puede considerar utilizarlo en los días en los que planea sudar excesivamente, como al practicar alguna actividad deportiva, o cuando se dirige a una ocasión especial.

180


Lavarse el cabello con champú: La regularidad en la que una persona se lava el cabello dependerá de sus hábitos, actividades y tipo de cabello. Sin embargo, es recomendable lavarlo con champú como mínimo una vez a la semana. Si no se quiere lavar el cabello todos los días, se puede invertir en un gorro para la ducha y utilizarlo al bañarse. Lavarse las manos: La mayoría de las infecciones, como los resfriados y la gastroenteritis, son contagiadas cuando los gérmenes se transmiten desde las manos sucias hasta la boca.

Cepillarse los dientes: Cepillarse regularmente ayuda a prevenir las enfermedades de las encías, como la gingivitis, y el mal aliento; minimiza la acumulación de bacterias en la boca. Es de especial importancia cepillarse los dientes cada vez que se come algo dulce o algo ácido que pueda causar erosión en los dientes. Usar hilo dental: Utilizar hilo dental también ayuda a mantener unas encías fuertes y saludables. La bacteria que se acumula en las encías y que causa la periodontitis puede ir directo al corazón y causar serios problemas de salud. Unas encías no saludables también pueden causar la pérdida de los dientes; adicionalmente pueden causar problemas al masticar. Lavarse la cara: Generalmente, la cara debe lavarse menos dos veces al día. La piel de la cara es más sensible que la piel de otros lugares del cuerpo. Por este motivo, se puede usar un limpiador especialmente diseñado para el tipo de piel de cada persona. La cara puede ser lavada en la ducha o separadamente en el lavamanos. Cortar las uñas de las manos y de los pies regularmente: Cortar las uñas previene daños potenciales a las mismas; el sucio no se puede introducir en las uñas cortas. Por eso es preferible mantenerlas en un largo adecuado. Qué tan seguido se cortan las uñas dependerá del gusto personal. También es recomendable utilizar un palito de naranja para remover la tierra y lo sucio que se acumula debajo de las uñas; esto es útil para prevenir enfermedades bacterianas. Concebida la salud como algo que se formula entre el individuo y su entorno y que comparte con otros, cabe pensar en la adecuación de ese medio y esa colectividad para beneficio de la salud de todos. La manera de lograrlo es la salud pública, una combinación de ciencias, técnicas y creencias, dirigidas al mantenimiento y mejora de la salud de las personas a través de acciones colectivas y sociales. Con esta base, cabe afirmar que en los niveles de salud actúan, a grandes rasgos, estos cuatro factores: biológicos, medio ambiente, forma de vida y sistema sanitario. Estudios norteamericanos han evidenciado que lo que más influye en la salud –apreciada según índices de mortalidad– es la forma de vida y lo que menos el sistema sanitario. Sin embargo, el gasto que generan ambos factores es inverso. El mayor coste se sitúa en el sistema sanitario y el menor en la forma de vida. Así, la relación entre demanda de servicios y recursos que pueden arbitrarse tiende a tal desfase

181


que el mantenimiento de la situación actual puede acabar –empieza ya– por agotamiento. De ahí que, sin detrimento de una atención sanitaria más cualitativa cada vez, será preciso dedicar recursos humanos y materiales a mejorar la manera de vivir.

LOS TRES NIVELES DE ATENCIÓN DE SALUD Primer Nivel: 0 atención primaria. representa el primer contacto con Los pacientes, y consiste en llevar la atención medica lo más cerca posible al paciente, ya sea a su comunidad, a su trabajo o a donde lo requieran. Este integrado por unidades médicas ambulatorias y su estructura puede ser desde un solo consultorio o muchos de ellos. algunas cuentan con laboratorio y estudios de imagen. Siendo su característica principal el hecho de ser ambulatorio. La red de consultorios privados también entra en este primer nivel de atención. El primer nivel de atención es el de mayor importancia para el sistema de salud ya que es en donde se realizan más esfuerzos para prevención, educación. protección y detección temprana de enfermedades. Se trata hasta el 80% de los padecimientos, atendiendo patologías frecuentes y con gran extensión como diabetes. Hipertensión, obesidad, etc. Si es necesario de este nivel se deriva al paciente al segundo o tercer nivel cuando fuera necesario. Segundo Nivel: Es una red de hospitales generales que dan atención a La mayoría de Los padecimientos cuando se requiere hospitalización o atención de urgencias. Brinda cuatro especialidades principales: cirugía general, medicina interna, pediatría y gineco-obstetricia: de Las cuales se derivan algunas subespecialidades cuando son necesarias. Los procedimientos realizados son de mediana complejidad y se ofrece tratamiento a los pacientes referidos desde el primer nivel de atención. Tercer Nivel: Aquí se agrupan Los hospitales de alta especialidad. cuyas subespecialidades y/o equipos no existen en el segundo nivel de atención. Aquí se atienden problemas de salud que requieren un mayor conocimiento o tecnología especifica. Aquí también se desemperia La docencia y la investigación. Algunos hospitales privados se encuentran en este nivel de atención principalmente Los hospitales privados que cuentan con muchos recursos, Aquí se tratan enfermedades de baja prevalencia y alto riesgo, así como enfermedades más complejas. Así definimos Los niveles de atención y hablamos de que conforma a cada nivel. Hay que enfatizar La importancia del primer nivel de atención, ya que es la base del Sistema Nacional de Salud. y es al que se le deberían invertir mayores recursos ya que ahí es donde se hace La mayor Labor de prevención. Factores que contribuyen a la salud La salud y el bienestar se ven afectados por múltiples factores; aquellos relacionados con la mala salud, la discapacidad, la enfermedad o la muerte se conocen como factores de riesgo. Un factor de riesgo es una característica, condición o comportamiento que aumenta la probabilidad de contraer una enfermedad o sufrir una lesión. Los factores de riesgo a menudo se presentan individualmente. Sin embargo, en la práctica, no suelen darse de forma aislada. A menudo coexisten e interactúan entre sí. Por ejemplo, la inactividad física, con el tiempo, acaba causando aumento de peso, presión arterial elevada y un alto nivel de colesterol. Esta combinación aumenta significativamente la probabilidad de desarrollar enfermedades cardiacas crónicas y otros problemas relacionados con la salud. El envejecimiento de la población y la mayor expectativa de vida han conllevado un aumento en las enfermedades y discapacidades a largo plazo (crónicas), que resultan caras de tratar.

182


Cada vez hay más demanda de atención sanitaria, lo que supone una mayor presión presupuestaria en el sector que no siempre se satisface. Es importante que, como sociedad y usuarios de sistemas de atención sanitaria, comprendamos las causas y los factores de riesgo de las enfermedades, de forma que podamos participar activamente en los programas disponibles y rentables de prevención y tratamiento. Por lo general, los factores de riesgo pueden dividirse en los siguientes grupos: 1. De conducta 2. Fisiológicos 3. Demográficos 4. Medioambientales 5. Genéticos Estos se describen en mayor detalle a continuación: 1. Factores de riesgo de tipo conductual: Los factores de riesgo de tipo conductual suelen estar relacionados con «acciones» que el sujeto ha elegido realizar. Por lo tanto, pueden eliminarse o reducirse mediante elecciones de estilo de vida o de conducta. Son, por ejemplo: • El tabaquismo; • Un consumo excesivo de alcohol; • Las elecciones nutricionales; • La inactividad física; • Pasar mucho tiempo al sol sin la protección adecuada; • No haberse vacunado contra determinadas enfermedades y • Mantener relaciones sexuales sin protección. 2. Factores de riesgo de tipo fisiológico: Los factores de riesgo de tipo fisiológico son aquellos relacionados con el organismo o la biología del sujeto. Pueden verse influidos por una combinación de factores genéticos, de estilo de vida o de tipo más general. Son, por ejemplo: • El sobrepeso u obesidad; • Una presión arterial elevada; • El colesterol alto y • Un alto nivel de azúcar en sangre (glucosa). 3. Factores de riesgo de tipo demográfico: Los factores de riesgo de tipo demográfico son los que están relacionados con la población en general. Son, por ejemplo: • la edad; • el género y • los subgrupos de población como el trabajo que se desempeña, la religión o el sueldo. 4. Factores de riesgo de tipo medioambiental: Los factores de riesgo de tipo medioambiental abarcan un amplio abanico de temas como factores sociales, económicos, culturales y políticos; así como factores físicos, químicos y biológicos. Son, por ejemplo: • el acceso a agua limpia e instalaciones sanitarias; • los riesgos laborales; • la polución del aire y • el entorno social. 5. Factores de riesgo de tipo genético Los factores de riesgo de tipo genético se basan en los genes del sujeto. Algunas enfermedades como la fibrosis quística y la distrofia muscular se originan totalmente en función de la «composición genética» del individuo. Muchas otras como el asma y la diabetes reflejan la interacción entre los genes del individuo y factores medioambientales. Algunas enfermedades como la anemia falciforme son más prevalentes en determinados subgrupos poblacionales.

183


Química

184


Química La química es la ciencia que estudia la composición, estructura y propiedades de la materia, así como los cambios que esta experimenta durante las reacciones químicas y su relación con la energía. Linus Pauling la define como la ciencia que estudia las sustancias, su estructura (tipos y formas de acomodo de los átomos), sus propiedades y las reacciones que las transforman en otras sustancias en referencia con el tiempo. La química se ocupa principalmente de las agrupaciones supratómicas, como son los gases, las moléculas, los cristales y los metales, estudiando su composición, propiedades estadísticas, transformaciones y reacciones. La química también incluye la comprensión de las propiedades e interacciones de la materia a escala atómica. La mayoría de los procesos químicos se pueden estudiar directamente en el laboratorio, usando una serie de técnicas a menudo bien establecidas, tanto de manipulación de materiales como de comprensión de los procesos subyacentes. Una aproximación alternativa es la proporcionada por las técnicas de modelado molecular, que extraen conclusiones de modelos computacionales. La química moderna se desarrolló a partir de la alquimia, una práctica protocientífica de carácter esotérico, pero también experimental, que combinaba elementos de química, metalurgia, física, medicina, biología, entre otras ciencias y artes. Esta fase termina con la revolución química, con el descubrimiento de los gases por Robert Boyle, la ley de conservación de la materia y la teoría de la combustión por oxígeno postuladas por el científico francés Antoine Lavoisier.3 La sistematización se hizo patente con la creación de la tabla periódica de los elementos y la introducción de la teoría atómica, cuando los investigadores desarrollaron una comprensión fundamental de los estados de la materia, los iones, los enlaces químicos y las reacciones químicas. Desde la primera mitad del siglo XIX, el desarrollo de la química lleva aparejado la aparición y expansión de una industria química de gran relevancia en la economía y la calidad de vida actuales. Definición La definición de química ha cambiado a través del tiempo, a medida que nuevos descubrimientos se han añadido a la funcionalidad de esta ciencia. El término química, a vista del reconocido científico Robert Boyle, en 1661, se trataba del área que estudiaba los principios de los cuerpos mezclados. En 1662, la química se definía como un arte científico por el cual se aprende a disolver cuerpos, obtener de ellos las diferentes sustancias de su composición y cómo unirlos después para alcanzar un nivel mayor de perfección. Esto según el químico Christopher Glaser. La definición de 1730 para la palabra química, usada por Georg Stahl, era el arte de entender el funcionamiento de las mezclas, compuestos o cuerpos hasta sus principios básicos, y luego volver a componer esos cuerpos a partir de esos mismos principios. En 1837, Jean-Baptiste Dumas consideró la palabra química para referirse a la ciencia que se preocupaba de las leyes y efectos de las fuerzas moleculares. Esta definición luego evolucionaría hasta que, en 1947, se le definió como la ciencia que se preocupaba de las sustancias: su estructura, sus propiedades y las reacciones que las transforman en otras sustancias (caracterización dada por Linus Pauling). Más recientemente, en 1988, la definición de química se amplió, para ser «el estudio de la materia y los cambios que implica», según palabras del profesor Raymond Chang.

ÁREAS DE ESTUDIO DE LA QUÍMICA 1. Catálisis La catálisis es el proceso por el cual se aumenta la velocidad de una reacción química, debido a la participación de una sustancia llamada catalizador y aquellas que desactivan la catálisis son denominados inhibidores.

185


2. Espectroscopia La espectroscopia o espectroscopía es el estudio de la interacción entre la radiación electromagnética y la materia, con absorción o emisión de energía radiante. Tiene aplicaciones en astronomía, física, química y biología, entre otras disciplinas científicas.

3. Química analítica La química analítica estudia y utiliza instrumentos y métodos para separar, identificar y cuantificar la materia. En la práctica, la separación, identificación o cuantificación puede constituir el análisis completo o combinarse con otro método. La separación aísla los analitos. 4. Química Computacional La química computacional es una rama de la química que utiliza computadoras para ayudar a estudiar y resolver problemas químicos a través de la aplicación de modelos y simulaciones computacionales de sistemas moleculares.

5. Química De Materiales La ciencia de materiales implica investigar la relación entre la estructura y las propiedades de los materiales. ... La investigación en el área de química de materiales cuenta con dos laboratorios de síntesis donde se desarrolla la línea de generación de conocimiento “Síntesis y caracterización de materiales funcionales”. 6. Física Química La química física es una ciencia que investiga fenómenos fisicoquímicos usando técnicas de la Física atómica y molecular, y de la Física del estado sólido; es la rama de la Física que estudia los procesos químicos desde el punto de vista de la física.

7. Química Inorgánica La química inorgánica se encarga del estudio integrado de la formación, composición, estructura y reacciones químicas de los elementos y compuestos inorgánicos; es decir, los que no poseen enlaces carbono-hidrógeno, porque estos pertenecen al campo de la química orgánica.

186


8. Química Medicinal La química medicinal, farmoquímica o química farmacéutica es una de las consideradas ciencias farmacéuticas, con profundas raíces en la química. Sus objetivos son la identificación, la síntesis y el desarrollo de nuevos compuestos químicos que sean adecuados para el uso terapéutico. 9. Química Ambiental La química ambiental, denominada también química medioambiental es la aplicación de la química al estudio de los problemas y la conservación del ambiente.

10. Química Nuclear La química nuclear es la rama de la química que tiene que ver con la radiactividad, con los procesos y propiedades nucleares. Es la química de los elementos radiactivos tales como los actínidos, radio y radón junto con la química asociada con el equipo, los cuales son diseñados para llevar a cabo procesos nucleares. 11. Química Orgánica La química orgánica es la rama de la química que estudia una clase numerosa de moléculas que en su gran mayoría contienen carbono formando enlaces covalentes: carbono-carbono o carbono-hidrógeno y otros heteroátomos, también conocidos como compuestos orgánicos. 12. Química Teórica Parte de esta disciplina puede ser clasificada como química computacional, aunque la química computada normalmente indica la aplicación de la química teórica con una configuración específica

EL LABORATORIO QUÍMICO Es el que hace referencia a la química y que estudia compuestos, mezclas de sustancias o elementos y es un lugar donde se comprueba la validez de los principios químicos mediante la aplicación del método científico a través de experimentos generalmente en el que se planea y se organiza para un grupo de estudiantes que participan activamente o como observadores en la elaboración de los mismos, en que las personas ayudan a comprobar las teorías que se han postulado a lo largo del desarrollo de esta ciencia. Es importante hacer notar que un laboratorio de química es una habitación construida y adecuada para este fin, observando el cumplimiento sobre el contenido básico de un laboratorio seguro como: Regadera, lava-ojos, instalación de gas, instalación de agua corriente, drenaje, extintores, iluminación natural y artificial, sistemas de ventilación o ventanas abatibles, accesos lo suficientemente amplios para permitir el desalojo del laboratorio con orden y rapidez en caso de un accidente o evacuación precautoria por la acumulación de gases emitidos por los experimentos o fugas en la instalación de gas o equipos instalados sobre las mismas líneas de gas y equipo de primeros auxilios (botiquín).

187


Condiciones de Laboratorios Normalizadas • Temperatura: La temperatura ambiente normal es de 20 °C, variando las tolerancias en función del tipo de medición o experimento a realizar. Además, las variaciones de la temperatura (dentro del intervalo de tolerancia) han de ser suaves, por ejemplo en laboratorios de metrología dimensional, se limita a 2 °C/h (siendo el intervalo de tolerancia de 4 °C).

• Humedad: Usualmente conviene que la humedad sea la menor posible porque acelera la oxidación de los instrumentos (comúnmente de acero); sin embargo, para lograr la habitabilidad del laboratorio no puede ser menor del 50% ni mayor del 75%.

Presión Atmosférica: La presión atmosférica normalizada suele ser, en laboratorios industriales, ligeramente superior a la externa (25 Pa) para evitar la entrada de aire sucio de las zonas de producción al abrir las puertas de acceso. En el caso de laboratorios con riesgo biológico (manipulación de agentes infecciosos) la situación es la contraria, ya que debe evitarse la salida de aire del laboratorio que puede estar contaminado, por lo que la presión será ligeramente inferior a la externa. • Alimentación Eléctrica: Las variaciones de la tensión de la red deben limitarse cuando se realizan medidas eléctricas que pueden verse alteradas por la variación de la tensión de entrada en los aparatos. Todos los laboratorios deben tener un sistema eléctrico de emergencia, diferenciado de la red eléctrica normal, donde van enchufados aparatos como congeladores, neveras, incubadoras, etc. para evitar problemas en caso de apagones.

Polvo: Se controla, por ejemplo, en laboratorios de interferómetro ya que la presencia de polvo modifica el comportamiento de la luz al atravesar el aire. En los laboratorios de Metrología Dimensional el polvo afecta la medición de espesores en distintas piezas.

• Vibración y Ruido: Al margen de la incomodidad que supone su presencia para investigadores y técnicos de laboratorio, pueden falsear mediciones realizadas por procedimientos mecánicos. Es el caso, por ejemplo, de las Máquinas de medir por coordenadas.

188


NORMAS PARA MANIPULAR INSTRUMENTOS Y PRODUCTOS 1. Antes de manipular un aparato o montaje eléctrico, desconéctalo de la red eléctrica. 2. No pongas en funcionamiento un circuito eléctrico sin que el profesor haya revisado la instalación. 3. No utilices ninguna herramienta o máquina sin conocer su uso, funcionamiento y normas de seguridad específicas 4. Maneja con especial cuidado el material frágil, por ejemplo, el vidrio. 5. Informa al profesor del material roto o averiado. 6. Fíjate en los signos de peligrosidad que aparecen en los frascos de los productos químicos. 7. Lávate las manos con jabón después de tocar cualquier producto químico. 8. Al acabar la práctica, limpia y ordena el material utilizado. 9. Si te salpicas accidentalmente, lava la zona afectada con agua abundante. Si salpicas la mesa, límpiala con agua y sécala después con un paño. 10. Evita el contacto con fuentes de calor. No manipules cerca de ellas sustancias inflamables. Para sujetar el instrumental de vidrio y retirarlo del fuego, utiliza pinzas de madera. Cuando calientes los tubos de ensayo con la ayuda de dichas pinzas, procura darles cierta inclinación. Nunca mires directamente al interior del tubo por su abertura. Instrumentos de Laboratorio Los instrumentos utilizados en un laboratorio son todos los recipientes y herramientas que sirven para llevar a cabo mediciones, síntesis y análisis de diversos tipos. Estos instrumentos deben construirse con materiales resistentes y de alta calidad para no alterar los resultados de los estudios. Refrigerante Con él se realizan destilaciones. Está formado por dos conductos concéntricos: por el exterior circula agua fría y por el interior, los vapores que se quieren refrigerar. Estos ceden calor al agua.

Mechero Bunsen Dispositivo para producir una llama de gas, utilizado en los laboratorios científicos para calentar, esterilizar o proceder a la combustión de muestras o reactivos químicos.

Vaso de precipitado Sirve para depositar sólidos o líquidos; y, además, para realizar mezclas y reacciones químicas. Mide volúmenes de forma aproximada. Se puede calentar.

Matraz aforado Se emplea únicamente para preparar y almacenar soluciones. No se puede calentar, ya que variaría la medida exacta de su capacidad.

Escobilla Sirve para limpiar instrumentos delicados o de difícil acceso.

Balanza Sirve para medir la masa de las sustancias.

Embudo Sirve para trasvasar sustancias.

Agitador Es una varilla de vidrio macizo.

189


Espátula Permite manipular y coger pequeñas cantidades de sólidos sin tocarlos con la mano.

Tubo de ensayo Se utiliza para depositar pequeñas muestras de líquidos, con el fin de calentar o realizar pruebas.

Bureta Útil para medir con precisión líquidos. El líquido que sale se controla mediante una llave de paso.

Cristalizador Es un recipiente utilizado para evaporar lentamente soluciones y obtener cristales.

Pipeta Instrumento que permite trasvasar pequeñas cantidades de líquidos. Debe ser utilizado con un pipeteador.

Probeta Instrumento para medir con precisión volúmenes de líquidos. Como cualquier otro vidrio graduado, no se puede calentar.

Gradilla Sirve para colocar tubos de ensayo. Facilita el manejo de los tubos.

Embudo de decantación Sirve para separar líquidos inmiscibles. Se emplea tanto en separaciones como en extracciones.

Matraz de Erlenmeyer Tiene la misma función que el vaso de precipitado. Su boca más estrecha permite agitar los líquidos que contiene sin que se derramen.

Termómetro Sirve para medir la temperatura de las sustancias en grados Celsius.

Gotero Permite tomar pequeñas cantidades de líquidos y dejarlos caer gota a gota.

Vidrio reloj Se utiliza para pesar o transferir sólidos o cubrir recipientes.

NORMAS DE SEGURIDAD EN EL LABORATORIO Normas Generales • La persona no tendrá que fumar, comer o beber en el laboratorio. • Deberá Utilizar una bata y tenerla siempre bien abrochada, así siempre la persona protegerá su ropa. • Debe guarda sus prendas de abrigo y sus objetos personales en un armario o taquilla y no los dejes nunca sobre la mesa de trabajo. • No lleves bufandas, pañuelos largos ni prendas u objetos que dificulten tu movilidad. • Procura no andar de un lado para otro sin motivo y, sobre todo, no corras dentro del laboratorio.

190


• • • • • • •

Si tienes el cabello largo, recógetelo. Dispón sobre la mesa sólo los libros y cuadernos que sean necesarios. Ten siempre tus manos limpias y secas. Si tienes alguna herida, tápala. No pruebes ni ingieras los productos. En caso de producirse un accidente, quemadura o lesión, comunícalo inmediatamente al profesor. Recuerda dónde está situado el botiquín. Mantén el área de trabajo limpia y ordenada.

Normas para Manipular Instrumentos y Productos • Antes de manipular un aparato o montaje eléctrico, desconéctalo de la red eléctrica. • No pongas en funcionamiento un circuito eléctrico sin que el profesor haya revisado la instalación. • No utilices ninguna herramienta o máquina sin conocer su uso, funcionamiento y normas de seguridad específicas. • Maneja con especial cuidado el material frágil, por ejemplo, el vidrio. • Informa al profesor del material roto o averiado. • Fíjate en los signos de peligrosidad que aparecen en los frascos de los productos químicos. • Lávate las manos con jabón después de tocar cualquier producto químico. • Al acabar la práctica, limpia y ordena el material utilizado. • Si te salpicas accidentalmente, lava la zona afectada con agua abundante. Si salpicas la mesa, límpiala con agua y sécala después con un paño. • Evita el contacto con fuentes de calor. No manipules cerca de ellas sustancias inflamables. Para sujetar el instrumental de vidrio y retirarlo del fuego, utiliza pinzas de madera. Cuando calientes los tubos de ensayo con la ayuda de dichas pinzas, procura darles cierta inclinación. Nunca mires directamente al interior del tubo por su abertura ni dirijas esta hacia algún compañero. (ver imagen) • Todos los productos inflamables deben almacenarse en un lugar adecuado y separados de los ácidos, las bases y los reactivos oxidantes. • Los ácidos y las bases fuertes han de manejarse con mucha precaución, ya que la mayoría son corrosivos y, si caen sobre la piel o la ropa, pueden producir heridas y quemaduras importantes. • Si tienes que mezclar algún ácido (por ejemplo, ácido sulfúrico) con agua, añade el ácido sobre el agua, nunca, al contrario, pues el ácido «saltaría» y podría provocarte quemaduras en la cara y los ojos. • No dejes destapados los frascos ni aspires su contenido. Muchas sustancias líquidas (alcohol, éter, cloroformo, amoníaco...) emiten vapores tóxicos.

PROPIEDADES DE LA MATERIA Las propiedades de la materia son aquellas que definen las características de todo aquello que tiene masa y ocupa un volumen. Las propiedades de la materia pueden ser generales o específicas. Propiedades generales de la materia: son aquellas características comunes a todos los cuerpos: Masa: Cantidad de materia que contiene un cuerpo.

Peso: La fuerza que ejerce la gravedad sobre los cuerpos

Volumen o extensión: Espacio que ocupa un cuerpo

Porosidad: Espacio que existe entre las partículas

191


Inercia: Característica que impide a la materia moverse sin intervención de una fuerza externa

Divisibilidad: Capacidad de la materia dividirse en partes más pequeñas

Es importante recalcar que la materia y sus propiedades estarán siempre afectadas por las fuerzas gravitatorias del medio en que se encuentran y por la fuerza de atracción entre las moléculas que la componen. Propiedades específicas la materia: son las características que diferencian un cuerpo de otro y son agrupadas en: •

Propiedades físicas: son aquellas que definen la estructura medible del objeto como, por ejemplo, el olor, la textura, el sabor, el estado físico, etc.

Propiedades químicas: son aquellas que cada sustancia tiene con respecto a otras sustancias con la habilidad de crear otras nuevas como, por ejemplo, la combustibilidad, la oxidación, la reactividad, la afinidad electrónica, entre otros.

192


TRANSFORMACIONES DE LA MATERIA La materia está presente en todo el universo en diferentes estados. Algunos de ellos, incluso, recién se están investigando. La materia normalmente presenta tres estados o formas: sólida, líquida o gaseosa. Sin embargo, existe un cuarto estado, denominado estado plasma, el cual corresponde a un conjunto de partículas gaseosas eléctricamente cargadas (iones), con cantidades aproximadamente iguales de iones positivos y negativos, es decir, globalmente neutro. Solido El estado sólido se caracteriza por su resistencia a cualquier cambio de forma, lo que se debe a la fuerte atracción que hay entre las moléculas que lo constituyen; es decir, las moléculas están muy cerca unas de otras. No todos los sólidos son iguales, ya que poseen propiedades específicas que los hacen ser diferentes. Estas propiedades son: - Elasticidad - Dureza - Fragilidad Líquido En el estado líquido, las moléculas pueden moverse libremente unas respecto de otras, ya que están un poco alejadas entre ellas. Los líquidos, sin embargo, todavía presentan una atracción molecular suficientemente firme como para resistirse a las fuerzas que tienden a cambiar su volumen. No todos líquidos son iguales. Poseen propiedades específicas que los hacen ser diferentes.

Volatilidad: nos referimos a la capacidad del líquido para evaporarse. Por ejemplo, si dejas un perfume abierto, podrás ver cómo con el paso del tiempo, disminuye el volumen del líquido.

Viscosidad: nos referimos a la facilidad del líquido para esparcirse. No es lo mismo derramar aceite que agua, ésta última es menos viscosa, ya que fluye con mayor facilidad. Gaseoso En el estado gaseoso, las moléculas están muy dispersas y se mueven libremente, sin ofrecer ninguna oposición a las modificaciones en su forma y muy poca a los cambios de volumen. Como resultado, un gas que no está encerrado tiende a difundirse indefinidamente, aumentando su volumen y disminuyendo su densidad.

La mayoría de las sustancias son sólidas a temperaturas bajas, líquidas a temperaturas medias y gaseosas a temperaturas altas; pero los estados no siempre están claramente diferenciados. Puede ocurrir que se produzca una coexistencia de fases cuando una materia está cambiando de estado; es decir, en un momento determinado se pueden apreciar dos estados al mismo tiempo. Por ejemplo, cuando cierta cantidad de agua llega a los 100ºC (en estado líquido) se evapora, es decir, alcanza el estado gaseoso; pero aquellas moléculas que todavía están bajo los 100ºC, se mantienen en estado líquido.

193


Plasma Existe un cuarto estado de la materia llamado plasma, que se forman bajo temperaturas y presiones extremadamente altas, haciendo que los impactos entre los electrones sean muy violentos, separándose del núcleo y dejando sólo átomos dispersos. El plasma, es así, una mezcla de núcleos positivos y electrones libres, que tiene la capacidad de conducir electricidad. Un ejemplo de plasma presente en nuestro universo es el Sol.

Estados de agregación de la materia La materia se presenta en tres estados o formas de agregación: sólido, líquido y gaseoso. Dadas las condiciones existentes en la superficie terrestre, sólo algunas sustancias pueden hallarse de modo natural en los tres estados, tal es el caso del agua. La mayoría de sustancias se presentan en un estado concreto. Así, los metales o las sustancias que constituyen los minerales se encuentran en estado sólido y el oxígeno o el CO2 en estado gaseoso: • • •

Los sólidos: Tienen forma y volumen constantes. Se caracterizan por la rigidez y regularidad de sus estructuras. Los líquidos: No tienen forma fija pero sí volumen. La variabilidad de forma y el presentar unas propiedades muy específicas son características de los líquidos. Los gases: No tienen forma ni volumen fijos. En ellos es muy característica la gran variación de volumen que experimentan al cambiar las condiciones de temperatura y presión.

CLASIFICACIÓN DE LA MATERIA La materia la podemos encontrar en la naturaleza en forma de sustancias puras y de mezclas. Las sustancias puras son aquéllas cuya naturaleza y composición no varían sea cual sea su estado. Se dividen en dos grandes grupos: Elementos y Compuestos. •

Elementos: Son sustancias puras que no pueden descomponerse en otras sustancias puras más sencillas por ningún procedimiento. Ejemplo: Todos los elementos de la tabla periódica: Oxígeno, hierro, carbono, sodio, cloro, cobre, etc. Se representan mediante su símbolo químico y se conocen 115 en la actualidad.

194


Compuestos: Son sustancias puras que están constituidas por 2 o más elementos combinados en proporciones fijas. Los compuestos se pueden descomponer mediante procedimientos químicos en los elementos que los constituyen. Ejemplo: Agua, de fórmula H2O, está constituida por los elementos hidrógeno (H) y oxígeno (O) y se puede descomponer en ellos mediante la acción de una corriente eléctrica (electrólisis). Los compuestos se representan mediante fórmulas químicas en las que se especifican los elementos que forman el compuesto y el número de átomos de cada uno de ellos que compone la molécula. Ejemplo: En el agua hay 2 átomos del elemento hidrógeno y 1 átomo del elemento oxígeno formando la molécula H 2O.

Elementos

Compuestos

Cuando una sustancia pura está formada por un solo tipo de elemento, se dice que es una sustancia simple. Esto ocurre cuando la molécula contiene varios átomos, pero todos son del mismo elemento. Ejemplo: Oxígeno gaseoso (O2), ozono (O3), etc. Están constituidas sus moléculas por varios átomos del elemento oxígeno. *Las mezclas se encuentran formadas por 2 o más sustancias puras. Su composición es variable. Se distinguen dos grandes grupos: Mezclas Homogéneas y Mezclas Heterogéneas. a) Mezclas Homogéneas: También llamadas Disoluciones. Son mezclas en las que no se pueden distinguir sus componentes a simple vista. Ejemplo: Disolución de sal en agua, el aire, una aleación de oro y cobre, etc.

b) Mezclas Heterogéneas: Son mezclas en las que se pueden distinguir a los componentes a simple vista. Ejemplo: Agua con aceite, granito, arena en agua, etc. Decantación: Esta técnica se emplea para separar 2 líquidos no miscibles entre sí. Ejemplo: Agua y aceite. La decantación se basa en la diferencia de densidad entre los dos componentes, que hace que, dejados en reposo, ambos se separen hasta situarse el más denso en la parte inferior del envase que los contiene. De esta forma, podemos vaciar el contenido por arriba (si queremos tomar el componente menos denso) o por abajo (si queremos tomar el más denso).

195


En la separación de dos líquidos no miscibles, como el agua y el aceite, se utiliza un embudo de decantación que consiste en un recipiente transparente provisto de una llave en su parte inferior. Al abrir la llave, pasa primero el líquido de mayor densidad y cuando éste se ha agotado se impide el paso del otro líquido cerrando la llave. La superficie de separación entre ambos líquidos se observa en el tubo estrecho de goteo.

LA TABLA PERIÓDICA DE LOS ELEMENTOS La tabla periódica de los elementos es una disposición de los elementos químicos en forma de tabla, ordenados por su número atómico (número de protones), por su configuración de electrones y sus propiedades químicas. Este ordenamiento muestra tendencias periódicas, como elementos con comportamiento similar en la misma columna. En palabras de Theodor Benfey, la tabla y la ley periódica «son el corazón de la química — comparables a la teoría de la evolución en biología (que sucedió al concepto de la Gran Cadena del Ser), y a las leyes de la termodinámica en la física clásica—». Las filas de la tabla se denominan períodos y las columnas grupos. Algunos grupos tienen nombres. Así por ejemplo el grupo 17 es el de los halógenos y el grupo 18 el de los gases nobles. La tabla también se divide en cuatro bloques con algunas propiedades químicas similares. Debido a que las posiciones están ordenadas, se puede utilizar la tabla para obtener relaciones entre las propiedades de los elementos, o pronosticar propiedades de elementos nuevos todavía no descubiertos o sintetizados. La tabla periódica proporciona un marco útil para analizar el comportamiento químico y es ampliamente utilizada en química y otras ciencias. Dmitri Mendeléyev publicó en 1869 la primera versión de tabla periódica que fue ampliamente reconocida. La desarrolló para ilustrar tendencias periódicas en las propiedades de los elementos entonces conocidos, al ordenar los elementos basándose en sus propiedades químicas, si bien Julius Lothar Meyer, trabajando por separado, llevó a cabo un ordenamiento a partir de las propiedades físicas de los átomos. Mendeléyev también pronosticó algunas propiedades de elementos entonces desconocidos que anticipó que ocuparían los lugares vacíos en su tabla. Posteriormente se demostró que la mayoría de sus predicciones eran correctas cuando se descubrieron los elementos en cuestión. La tabla periódica de Mendeléyev ha sido desde entonces ampliada y mejorada con el descubrimiento o síntesis de elementos nuevos y el desarrollo de modelos teóricos nuevos para explicar el comportamiento químico. La estructura actual fue diseñada por Alfred Werner a partir de la versión de Mendeléyev. Existen además otros arreglos periódicos de acuerdo a diferentes propiedades y según el uso que se le quiera dar (en didáctica, geología, etc). Se han descubierto o sintetizado todos los elementos de número atómico del 1 (hidrógeno) al 118 (oganesón); la IUPAC confirmó los elementos 113, 115, 117 y 118 el 30 de diciembre de 2015, y sus nombres y símbolos oficiales se hicieron públicos el 28 de noviembre de 2016. Los primeros 94 existen naturalmente, aunque algunos solo se han encontrado en cantidades pequeñas y fueron sintetizados en laboratorio antes de ser encontrados en la naturaleza. Los elementos con números atómicos del 95 al 118 solo han sido sintetizados en laboratorios. Allí también se produjeron numerosos radioisótopos

196


sintéticos de elementos presentes en la naturaleza. Los elementos del 95 a 100 existieron en la naturaleza en tiempos pasados, pero actualmente no. La investigación para encontrar por síntesis nuevos elementos de números atómicos más altos continúa.

Grupos o Familias En la tabla periódica de elementos, hay siete filas horizontales de elementos llamados períodos. Las columnas verticales de elementos se denominan grupos o familias. Los elementos de la tabla periódica se clasifican en familias, también llamadas "Grupos", porque las tres categorías principales de los elementos (metales, no metales y metaloides) son muy amplias. Grupos de la Tabla Periódica Los miembros de una misma familia o grupo (misma columna vertical) en la tabla periódica tienen propiedades similares. Las familias están etiquetadas en la parte superior de las columnas de una de estas dos maneras: 1. El método más antiguo utiliza números romanos y letras (por ejemplo, IIA). Muchos químicos todavía prefieren utilizar este método. 2. El nuevo método utiliza los números del 1 al 18 Cada familia reacciona de una manera diferente con el mundo exterior. Los metales se comportan de manera diferente que los gases, e incluso hay diferentes tipos de metales. Algunos elementos no reaccionan, mientras que otros son muy reactivos, y algunos son buenos conductores de la electricidad. Las características de los elementos de cada familia están determinadas principalmente por el número de electrones en la capa externa de energía o última capa, también llamados electrones de valencia. Estos son los electrones que van a reaccionar cuando el elemento se une con otro.

197


Los grupos de la Tabla Periódica son: • Grupo 1 (I A): metales alcalinos • Grupo 2 (II A): metales alcalinotérreos • Grupo 3 (III B): familia del escandio • Grupo 4 (IV B): familia del titanio • Grupo 5 (V B): familia del vanadio • Grupo 6 (VI B): familia del cromo • Grupo 7 (VII B): familia del manganeso • Grupo 8 (VIII B): familia del hierro • Grupo 9 (VIII B): familia del cobalto

• • • • • • • • •

Grupo 10 (VIII B): familia del níquel Grupo 11 (I B): familia del cobre Grupo 12 (II B): familia del zinc Grupo 13 (III A): térreos Grupo 14 (IV A): carbonoideos Grupo 15 (V A): nitrogenoideos Grupo 16 (VI A): calcógenos o anfígenos Grupo 17 (VII A): halógenos Grupo 18 (VIII A): gases nobles

Símbolo y elementos de cada grupo:

Características de las Familias de la Tabla Periódica • La familia IA: se compone de los metales alcalinos. En las reacciones, estos elementos todos tienden a perder un solo electrón. Esta familia contiene algunos elementos importantes, tales como el sodio (Na) y potasio (K). Ambos de estos elementos juegan un papel importante en la química del cuerpo y se encuentran comúnmente en sales. Se llaman así porque cuando reaccionan con el agua forman el álcali. No entra en este grupo el Hidrógeno. •

La familia IIA: se compone de los metales de tierras alcalinas. Todos estos elementos tienden a perder dos electrones. El calcio (Ca) es un miembro importante de la familia IIA (que necesita calcio para los huesos y dientes sanos).

198


La familia IIIA: ninguno muestra tendencia a formar aniones simples. Tienen estado de oxidación +3, pero también +1 en varios elementos. El boro se diferencia del resto de los elementos del grupo porque es un metaloide, mientras que los demás van aumentando su carácter metálico conforme se desciende en el grupo. Debido a esto, puede formar enlaces covalentes bien definidos, es un semiconductor, es duro a diferencia del resto que son muy blandos. Tienen puntos de fusión muy bajos, a excepción del boro.

La familia IVA: son los carbonos ideos, no metales. A medida que se desciende en el grupo, aumenta el carácter metálico de sus componentes. el C y el Si son no metales, el germanio es un semimetal y el Sn junto con el Pb son netamente metálicos. El C y el Si tienden a formar uniones covalentes para completar su octeto electrónico, mientras que el Sn y el Pb.

La familia VA: son los no metales nitrogenados. El N y el P son no metálicos, el arsénico y el antimonio son semimetales, a veces se comportan como metales y otras como no metales (esto es carácter anfótero). El Bi es un metal. esta variación de no metálico a metálico, a medida que se avanza en el grupo, se debe al aumento del tamaño de los átomos. resulta más difícil separar un electrón del átomo de N que hacerlo con el de Bi, porque en el primero la atracción nuclear es más intensa. Las moléculas de N son biatómicas, el P, As, Sb presentan moléculas tetralógicas en algunos de sus estados alotrópicos. el Bi es biatómico. todos estos elementos forman enlaces covalentes.

La familia VIA: son los no metales calcógenos. Sus puntos de fusión, densidad y ebullición aumentan a medida que se desciende en el grupo, es decir a medida que aumenta el tamaño de los átomos. Se combinan con el H para formar hidruros no metálicos. De acuerdo a la electronegatividad, la afinidad química con el H decrece del O al Te.

La familia VIIA: se compone de los halógenos. Todos ellos tienden a ganar un solo electrón en las reacciones. Miembros importantes de la familia incluyen el cloro (Cl), que se utiliza en la fabricación de la sal de mesa y cloro, y el yodo (I).

La familia VIIIA: se compone de los gases nobles. Estos elementos son muy reactivos. Durante mucho tiempo, los gases nobles fueron llamados los gases inertes, porque la gente pensaba que estos elementos no reaccionarían en absoluto con ningún otro elemento. Un científico llamado Neil Bartlett mostró que al menos algunos de los gases inertes si puede reaccionar, pero requiere condiciones muy especiales.

Metales de Transición: el mayor grupo de elementos en la tabla periódica, que van de los Grupos del 3 al 12. Tienen diferentes grados de reactividad y una muy amplia gama de propiedades. En general, sin embargo, los metales de transición son buenos conductores del calor y la electricidad y tienen altos puntos de ebullición y densidades.

Lantánidos: son un grupo de metales situados en la segunda fila de la parte inferior de la tabla periódica. Son bastante raros, sus números atómicos oscilan entre 57 (lantano) a 71 (lutecio). Algunos de estos elementos se pueden encontrar en los superconductores, la producción de vidrio, o láser.

Actínidos: son un grupo de metales en la última fila de la tabla periódica. La familia de los actínidos contiene quince elementos que comienzan con el actinio. Todos los actínidos son radiactivos y algunos no se encuentran en la naturaleza.

199


Períodos 1. Período 1 • Elementos del Periodo 1: Un elemento pertenece al Periodo 1 cuando está situado en la 1ª fila de la Tabla Periódica. • El Periodo 1 indica que el átomo posee electrones en un único nivel de energía. • Los elementos que pertenecen al Periodo 1 son: o Hidrógeno (Z=1): posee características similares a las de los alcalinos, por lo que se lo incluye en ese grupo. o Helio (Z=2): siguiendo los mismos criterios que los demás elementos, iría en la segunda columna, pero cómo se comporta como gas noble al tener su último orbital completo, se lo incluye en la columna de los gases nobles. 2. • • •

Período 2 Un elemento pertenece al Periodo 2 cuando está situado en la 2ª fila de la Tabla Periódica. El Periodo 2 indica que el átomo posee electrones distribuidos en dos niveles de energía. Existen 8 elementos pertenecientes al Periodo 2 son: o Litio (Z=3): perteneciente al Grupo IA, es un metal alcalino, blando, que se oxida fácilmente en el agua o en el aire. o Berilio (Z=4): pertenece al Grupo IIA, es un metal alcalinotérreo, ligero y duro, pero a la vez es también quebradizo. o Boro (Z=5): pertenece al Grupo IIIA, es un metaloide, de aspecto negruzco que tiene propiedades de semiconductor. o Carbono (Z=6): pertenece al Grupo IVA, es un no metal de aspecto y propiedades variables según se sus átomos a nivel molecular. o Nitrógeno (Z=7): pertenece al Grupo VA, es un no metal que posee una alta electronegatividad y se encuentra en forma de gas a temperatura ambiente o Oxígeno (Z=8): pertenece al Grupo VIA, es un no metal que se encuentra en forma de gas a temperatura ambiente o Flúor (Z=9): pertenece al Grupo VIIA, es un halógeno, es el elemento más electronegativo y se encuentra en forma de gas a temperatura ambiente o Neón (Z=10): pertenece al Grupo VIIIA, es un gas noble ya que tiene su última capa completa de electrones.

3. • • •

Período 3 Un elemento pertenece al Periodo 3 cuando está situado en la 3ª fila de la Tabla Periódica . El Periodo 3 indica que el átomo posee electrones distribuidos en tres niveles de energía. Existen 8 elementos pertenecientes al Periodo 3: o Sodio (Z=11) o Fósforo (Z=15) o Magnesio (Z=12) o Azufre (Z=16) o Aluminio (Z=13) o Cloro (Z=17) o Silicio (Z=14) o Argón (Z=18)

4. • • •

Período 4 Un elemento pertenece al Periodo 4 cuando está situado en la 4ª fila de la Tabla Periódica. El Periodo 4 indica que el átomo posee electrones distribuidos en cuatro niveles de energía. Existen 18 elementos pertenecientes al Periodo 4 son: o Potasio (Z=19) o Manganeso (Z=25) o Galio (Z=31) o Calcio (Z=20) o Hierro (Z=26) o Germanio (Z=32) o Escandio (Z=21) o Cobalto (Z=27) o Arsénico (Z=33) o Titanio (Z=22) o Níquel (Z=28) o Selenio (Z=34) o Vanadio Z=23) o Cobre (Z=29) o Bromo (Z=35) o Cromo (Z=24) o Cinc (Z=30) o Kriptón (Z=36)

200


5. • • •

Período 5 Un elemento pertenece al Periodo 5 cuando está situado en la 5ª fila de la Tabla Periódica. El Periodo 5 indica que el átomo posee electrones distribuidos en cinco niveles de energía. Existen 18 elementos pertenecientes al Periodo 5 son: o Rubidio o Molibdeno o Plata o Telurio o Estroncio o Tecnecio o Cadmio o Lodo o Itrio o Rutenio o Indio o Xenón o Circonio o Rodio o Estaño o Niobio o Paladio o Antimonio

6. • • • •

Período 6 Elementos del Periodo 6: Un elemento pertenece al Periodo 6 cuando está situado en la 6ª fila de la Tabla Periódica. El Periodo 6 indica que el átomo posee electrones distribuidos en seis niveles de energía. En total, los elementos que conforman el período 6 son los siguientes: o Cesio (Cs) o Osmio (Os) o Plomo (Pb) o Bario (Ba) o Iridio (Ir) o Bismuto (Bi) o Hafnio (Hf) o Platino (Pt) o Ástato (At) o Tantalio (Ta) o Oro (Au) o Radón (Rn) o Wolframio (W) o Mercurio (Hg) o Renio (Re) o Talio (Tl)

Igualmente, en este período se toman en cuenta los elementos Lantánidos: o Lantano (La) o Samario (Sm) o Holmio (Ho) o Cerio (Ce) o Europio (Eu) o Erbio (Er) o Praseodimio (Pr) o Gadolinio (Gd) o Tulio (Tm) o Neodimio (Nd) o Terbio (Tb) o Iterbio (Yb) o Prometio (Pm) o Disprosio (Dy) o Lutecio (Lu)

7. • • •

Período 7 Un elemento pertenece al Periodo 7 cuando está situado en la 7ª fila de la Tabla Periódica. El Periodo 7 indica que el átomo posee electrones distribuidos en seis niveles de energía. Los elementos que conforman este período son los siguientes: o Francio (Fr) o Bohrio (Bh) o Flerovio (Fl) o Radio (Ra) o Hassio (Hs) o Ununpetio (Uup) o Rutherfordio (Rf) o Meitnerio (Mt) o Livermorio (Lv) o Dubnio (Db) o Darmstadtio (Ds) o Ununseptio (Uus) o Seaborgio (Sg) o Roentgenio (Rg) o Ununoctio (Uuo)

Igualmente, en este período se encuentran los actínidos o Fermio (Fm) o Nobelio (No) o Mendelevio (Md) o Lawrencio (Lr).

201


Propiedades de los Elementos La tabla periódica es un esquema en el que representan los elementos químicos de acuerdo a un criterio: el número atómico. Los elementos químicos se ubican en la tabla periódica dispuestos en grupos de periodos. Tanto en los grupos como en los periodos comparten ciertas características fisicoquímicas.

La ubicación de los elementos químicos en la tabla periódica depende de su número atómico. Se ubican por número atómico creciente y las propiedades que presentan se relacionan con ese número. Entonces, al mirar la ubicación de un elemento en la tabla, ya sea en un grupo (división vertical) o en un periodo (división horizontal), es posible predecir sus propiedades físicas y químicas, así como su comportamiento químico. Entonces, ¿qué son las propiedades periódicas de los elementos? Son las características que tienen los elementos y que varían en forma secuencial por grupos y periodos. Algunas de esas propiedades son: radio atómico, potencial de ionización, electronegatividad, estructura electrónica, afinidad electrónica, valencia iónica, carácter metálico. • Estructura electrónica: es la distribución de los electrones del átomo en los diferentes niveles y subniveles de energía. Todos los elementos de un periodo tienen sus electrones más externos en el mismo nivel de energía. Los elementos de un grupo comparten la configuración electrónica externa teniendo, por lo tanto, propiedades químicas semejantes. • Electronegatividad: es la tendencia que tiene un elemento de atraer los electrones de enlace de otros elementos. En la labia periódica, la electronegatividad aumenta en los periodos de izquierda a derecha y los grupos, de abajo hacia arriba. • Radio atómico: los electrones se ubican en diferentes niveles alrededor del núcleo y el radio atómico es la distancia, más probable, que existe entre los electrones de la última capa y el núcleo. La expresión probable se debe a que los electrones no describen orbitas cerradas. Disminuye a lo largo del periodo y aumenta de arriba hacia abajo dentro de un grupo de la labia. • Potencial de ionización: es la energía necesaria para guitar un electrón a un átomo neutro, convirtiéndolo en un catión. Depende de la energía con la que el elemento en cuestión atraiga a sus electrones. En un grupo, el valor disminuye de arriba hacia abajo. En un periodo, aumenta desde la izquierda hacia la derecha.

202


Propiedades Periódicas La utilidad de la Tabla Periódica reside en que la ordenación de los elementos químicos permite poner de manifiesto muchas regularidades y semejanzas en sus propiedades y comportamientos. Por ejemplo, todos los elementos de un mismo grupo poseen un comportamiento químico similar, debido a que poseen el mismo número de electrones en su capa más externa (estos electrones son los que normalmente intervienen en las reacciones químicas). Existen, por tanto, muchas propiedades de los elementos que varían de forma gradual al movernos en un determinado sentido en la tabla periódica, como son: radio atómico, energía de ionización, afinidad electrónica y electronegatividad. 1.1- Radio Atómico (RA) Es la distancia que existe entre el núcleo y la capa de valencia (la más externa). El radio atómico dependerá del tipo de unión que presenten los átomos. La medida de los radios atómicos se expresa en angstrom (Å); así, 1 Å = 10–10 m. Pero en las unidades SI, se da en nanómetros (1 nm = 10–9 m) o en picómetros (1 pm = 10–12 m). Por ejemplo, un átomo de sodio tiene un radio de 1,86 Å; o de 0,186 nm, o de 186 pm.

En un grupo: el radio atómico aumenta al descender, pues hay más capas de electrones. En un período: el radio atómico aumenta hacia la izquierda pues hay las mismas capas, pero menos protones para atraer a los electrones. 1.2- Energía de Ionización (EI) Es la energía necesaria para separar totalmente el electrón más externo del átomo en estado gaseoso. Como resultado, se origina un ion gaseoso con una carga positiva (catión). Una manera de expresar esta información es la siguiente: X(g) + energía → X+ (g) + 1e– Si el electrón está débilmente unido, la energía de ionización es baja; si el electrón está fuertemente unido, la energía de ionización es alta. En un grupo: La energía de ionización disminuye al aumentar el número atómico, ya que los electrones externos están cada vez más alejados del núcleo y por lo tanto cada vez menos atraídos por el núcleo (será más fácil extraerlos). En un período: La energía de ionización aumenta al aumentar el número atómico, ya que para un mismo periodo los electrones se colocan en la misma capa de valencia y al ir aumentando la carga positiva del núcleo, la atracción de ésta sobre los electrones será cada vez mayor.

203


ENLACES QUÍMICOS Y ENLACE COVALENTE Conocemos como enlaces químicos a la fusión de átomos y moléculas para formar compuestos químicos más grandes y complejos dotados de estabilidad. En este proceso los átomos o moléculas alteran sus propiedades físicas y químicas, constituyendo nuevas sustancias homogéneas (no mezclas), inseparables a través de mecanismos físicos como el filtrado o el tamizado. Es un hecho que los átomos que forman la materia tienden a unirse y alcanzar condiciones más estables que en solitario, a través de diversos métodos que equilibran o comparten sus cargas eléctricas naturales. Se sabe que los protones en el núcleo de todo átomo poseen carga positiva (+) y los electrones alrededor poseen carga negativa (-), mientras que los neutrones, también en el núcleo, no tienen carga, pero aportan masa (y, por lo tanto, gravedad). Los enlaces químicos ocurren en la naturaleza y forman parte tanto de sustancias inorgánicas como de formas de vida, ya que sin ellos no podrían construirse las proteínas y aminoácidos complejos que conforman nuestros cuerpos. De manera semejante, los enlaces químicos pueden romperse bajo ciertas y determinadas condiciones, como al ser sometidos a cantidades de calor, a la acción de la electricidad, o a la de sustancias que rompan la unión existente y propicien otras nuevas junturas. Así, por ejemplo, es posible someter al agua a electricidad para separar las uniones químicas entre el hidrógeno y el oxígeno que la conforman, en un proceso denominado electrólisis; o añadir grandes cantidades de energía calórica a una proteína para romper sus enlaces y desnaturalizarla, es decir, romperla en trozos más pequeños. Tipos de Enlace Químico Existen tres tipos de enlace químico conocidos, dependiendo de la naturaleza de los átomos involucrados, así: 1. Enlace Covalente: Ocurre cuando dos átomos comparten uno o más pares de electrones de su última órbita (la más externa), y así consiguen una forma eléctrica más estable. Es el tipo de enlace predominante en las moléculas orgánicas y puede ser de tres tipos: simple (A-A), doble (A=A) y triple (A≡A), dependiendo de la cantidad de electrones compartidos. 2. Enlace Iónico: Se debe a interacciones electrostáticas entre los iones, que pueden formarse por la transferencia de uno o más electrones de un átomo o grupo de átomos a otro. Tiene lugar con más facilidad entre átomos metálicos y no metálicos, y consiste en una transferencia permanente de electrones desde el átomo metálico hacia el átomo no metálico, produciendo una molécula cargada eléctricamente en algún sentido, ya sea cationes (+1) o aniones (-1). 3. Enlace Metálico: Se da únicamente entre átomos metálicos de un mismo elemento, que por lo general constituyen estructuras sólidas, sumamente compactas. Es un enlace fuerte, que junta los núcleos atómicos entre sí, rodeados de sus electrones como en una nube, y cuesta mucho esfuerzo separarlos. Ejemplos de enlace químico Algunos ejemplos de enlace covalente están presentes en los siguientes compuestos: • Benceno (C6H6) • Freón (CFC) • Metano (CH4) • En todas las formas del carbono (C): • Glucosa (C6H12O6) carbón, diamantes, grafeno, etc. • Amoníaco (NH3) En cambio, ejemplos de compuestos con enlaces iónicos son: • Óxido de magnesio (MgO) • Cloruro de manganeso (MnCl2) • Sulfato de cobre (CuSO4) • Carbonato de calcio (CaCO3) • Ioduro de potasio (KI) • Sulfuro de hierro (Fe2S3)

204


Y, finalmente, ejemplos de elementos con enlaces metálicos: • Barras de hierro (Fe) • Yacimientos de cobre (Cu) • Barras de oro puro (Au) • Barras de plata pura (Ag) Enlace Covalente Se llama enlace covalente a un tipo de enlace químico, que ocurre cuando dos átomos se enlazan para formar una molécula, compartiendo electrones pertenecientes de su capa más superficial, alcanzando gracias a ello el conocido “octeto estable” (conforme a la “regla del octeto” propuesto por Gilbert Newton Lewis sobre la estabilidad eléctrica de los átomos). Los átomos así enlazados comparten un par (o más) de electrones, cuya órbita varía y se denomina orbital molecular. Los enlaces covalentes son distintos de los enlaces iónicos, en los que ocurre una transferencia de electrones y que se dan entre elementos metálicos. Estos últimos, además, forman moléculas cargadas eléctricamente, llamadas iones: cationes si tienen carga positiva, aniones si tienen carga negativa. En cambio, ciertos enlaces covalentes (entre átomos diferentes) se caracterizan por una concentración de electronegatividad en uno de los dos átomos juntados, dado que no atraen con la misma intensidad a la nube de electrones a su alrededor. Esto da como resultado un dipolo eléctrico, es decir, una molécula con carga positiva y negativa en sus extremos, como una pila ordinaria: un polo positivo y otro negativo. Gracias a ello las moléculas covalentes se juntan con otras semejantes y forman estructuras más complejas. Tipos de Enlace Covalente Existen los siguientes tipos de enlace covalente, a partir de la cantidad de electrones compartidos por los átomos enlazados: 1. Simple: Los átomos enlazados comparten un par de electrones de su última capa (un electrón cada uno). Por ejemplo: H-H (Hidrógeno-Hidrógeno), H-Cl (Hidrógeno-Cloro). 2. Doble: Los átomos enlazados aportan dos electrones cada uno, formando un enlace de dos pares de electrones. Por ejemplo: O=O (Oxígeno-Oxígeno), O=C=O (Oxígeno-CarbonoOxígeno). 3. Triple: En este caso los átomos enlazados aportan tres pares de electrones, es decir, seis en total. Por ejemplo: N≡N (Nitrógeno-Nitrógeno). 4. Dativo: Un tipo de enlace covalente en que uno solo de los dos átomos enlazados aporta dos electrones y el otro, en cambio, ninguno. Por otro lado, conforme a la presencia o no de polaridad, se puede distinguir entre enlaces covalentes polares (que forman moléculas polares) y enlaces covalentes no polares (que forman moléculas no polares): 1. Enlaces Covalentes Polares: Se enlazan átomos de distintos elementos y con diferencia de electronegatividad por encima de 0,5. Así se forman dipolos electromagnéticos. 2. Enlaces Covalentes No Polares: Se enlazan átomos de un mismo elemento o de idénticas polaridades, con una diferencia de electronegatividad muy pequeña (menor a 0,4). La nube electrónica, así, es atraída con igual intensidad por ambos núcleos y no se forma un dipolo molecular. Ejemplos sencillos de enlace covalente son los que se dan en las siguientes moléculas: • Oxígeno puro (O2). O=O (un enlace doble) • Hidrógeno puro (H2). H-H (un enlace simple)

205


• • • • •

Dióxido de carbono (CO2). O=C=O (dos enlaces dobles) Agua (H2O). H-O-H (dos enlaces simples) Ácido clorhídrico (HCl). H-Cl (un enlace simple) Nitrógeno puro (N2). N≡N (un enlace triple) Ácido cianhídrico (HCN). H-C≡N (un enlace simple y uno triple)

LENGUAJE QUÍMICO Los químicos utilizan un lenguaje estándar para representar los cambios que ocurren en una reacción de modo que haya un mejor entendimiento de lo que sucede en las transformaciones de algunas sustancias. Por ejemplo, la ecuación de disolución del hidróxido de sodio (NaOH) es:

Donde las letras dentro de los paréntesis de cada una de las sustancias, en termoquímica, indican lo siguiente:

La reacción necesitará calor para efectuarse y por lo tanto la reacción deberá escribirse en forma contraria, como se ilustra a continuación:

El signo del calor como identificador de las reacciones termoquímicas El uso del lenguaje químico es importante para determinar si una reacción es exotérmica o endotérmica. El calor es energía en transferencia a través de las paredes de un sistema. Este cambio de energía se representa como:

Donde E = Energía Ejemplo: La ecuación para la formación del hielo se puede escribir:

206


En termoquímica, es costumbre escribir el calor de reacción a la derecha de la ecuación química:

En la evaporación del agua se escribirá:

Para saber si una ecuación termoquímica es endotérmica o exotérmica basta fijarte en el signo del calor (ΔE) de tal forma que:

NOMENCLATURA INORGÁNICA La nomenclatura química es un sistema de símbolos y nombres, tanto para los elementos químicos como para los compuestos que resultan de las combinaciones químicas. El lenguaje de la química es universal, de tal manera que, para el químico, el nombre de una sustancia, no solo la identifica, sino que revela su fórmula y composición. La Unión Internacional de Química Pura y Aplicada (IUPAC) se reúne periódicamente con el fin de fijar las normas que se deben seguir para unificar el lenguaje y las técnicas de publicación. 1. Compuestos binarios: Son aquellos compuestos que están formados por dos elementos. En este grupo se distinguen los óxidos, los hidruros, los hidrácidos y las sales binarias. 2. Óxidos: Los óxidos son compuestos binarios formados por un elemento y oxígeno. Los óxidos se dividen en dos grupos, de acuerdo con el carácter del elemento que se une con el oxígeno. Si el elemento es metálico, el óxido es básico o simplemente óxido. Cuando el elemento que está unido a oxígeno es no metálico, el compuesto formado es un óxido ácido o anhídrido. Cuando el elemento presenta más de un estado de oxidación, esta se indica con número romano entre paréntesis. Las fórmulas se escriben anotando primero el símbolo del elemento seguido por el oxígeno, su fórmula general es ExOy. Elemento Estado de Oxidación Fórmula Nombre K +1 K20 Oxido de potasio Na +1 Na2O Oxido de Sodio Cu +1 Cu2O Oxido de Cobre (I) Cu +2 CuO Oxido de Cobre (II) Cl +1 Cl2O Oxido de Cloro (I) Cl +7 Cl2O7 Oxido de Cloro (VII) N +5 N2O5 Óxido de Nitrógeno (V) Cuando el elemento posee más de un estado de oxidación se puede usar la terminación oso y la terminación ico para el mayor. Cu2O óxido cuproso, óxido de cobre (I) CuO óxido cúprico, óxido de cobre (II).

207


Si el elemento forma óxidos con cuatro estados de oxidación, el de menor estado de oxidación se nombra con el prefijo hipo y el sufijo oso, el con segundo estado de oxidación con el sufijo oso, el siguiente con sufijo ico y el con el mayor EO con el prefijo per y el sufijo ico. Ejemplo: Cl2O Cl2O3 Cl2O5 Cl2O7

} oso } ico

<="" td="">Oxido hipocloroso Oxido cloroso <="" td="">Oxido clórico Oxido perclórico

3. Hidruros: Son compuestos binarios formados por un metal "M" y el hidrógeno. Se anota primero el metal y después el hidrógeno. Su fórmula general es MH x, donde x = EO. 4. Ácidos Ternarios u Oxiácidos: Están formados por hidrógeno, no metal y oxígeno. Se obtienen al reaccionar un óxido ácido con agua, Su fórmula general es HnXOm. N2O3 + H20 Óxido nitroso CO2 + H20 Oxido carbónico

H2N2O4 = HNO2 Acido nitroso H2CO3 Acido carbónico

Si el no metal tiene varios EO existen varios ácidos, uno para cada EO. En este caso, para nombrar el ácido se usan los sufijos oso, ico y los prefijos hipo y per, según proceda. Cuando el no metal tiene solo un EO se usa la terminación ico. En algunos casos (P, As, Sb, B), el óxido puede reaccionar con 1, 2 o 3 moléculas de agua, obteniéndose en cada caso ácidos diferentes. Se nombran anteponiendo los prefijos: metal (1 H2O), piro (2H2O) y horto (3 H2O). P2O3 + H2O P2O3 + 2H2O

H2P2O4 ===> HPO2 Ac. meta fosforoso H4P2O5 Ac. piro fosforoso

P2O3 + 3H2O

H6P2O6 ===> H3PO3 Ac. Horto fosforoso

SISTEMA DE NOMENCLATURA En química, se conoce como nomenclatura (o nomenclatura química) al conjunto de normas que determinan la manera de nombrar o llamar a los diversos materiales químicos conocidos por el ser humano, dependiendo de los elementos que los componen y de la proporción de los mismos. Al igual que en las ciencias biológicas, existe en el mundo de la química una autoridad encargada de regular y ordenar una nomenclatura para hacerla universal. La importancia de la nomenclatura química radica en la posibilidad de nombrar, organizar y clasificar los diversos tipos de compuestos químicos, de manera tal que solamente con su término identificativo se pueda tener una idea de qué tipo de elementos lo componen y, por lo tanto, qué tipo de reacciones pueden esperarse del compuesto. Existen tres sistemas de nomenclatura química: 1. Sistema estequiométrico o sistemático (IUPAC) Que nombra los compuestos en base al número de átomos de cada elemento que forman su molécula básica. Por ejemplo: el compuesto Ni2O3 se llama Trióxido de diníquel.

208


2. Sistema funcional, clásico o tradicional Que emplea diversos sufijos y prefijos (como “-oso” o “-ito”) según la valencia de los elementos del compuesto. Por ejemplo: el compuesto Ni2O3 se llama Óxido niquelito. 3. Sistema STOCK En el que el nombre del compuesto incluye en números romanos (y a veces como subíndice) la valencia de los átomos presentes en la molécula básica del compuesto. Por ejemplo: el compuesto Ni2O3 se llama Óxido de níquel (III). Por otro lado, la nomenclatura química varía dependiendo de si se trata de compuestos orgánicos o inorgánicos. Nomenclatura en Química Orgánica • Hidrocarburos Compuestos mayormente por átomos de carbono e hidrógeno, con añadidos de diversa naturaleza, pueden clasificarse en dos tipos de grupos funcionales: alifáticos, entre los que están los alcanos, alquenos, alquinos y cicloalcanos; y aromáticos, entre los que están los monocíclicos o mononucleares, y los policíclicos o polinucleares (dependiendo de la cantidad de anillos de benceno que presenten). • Hidrocarburos Aromáticos Conocidos como árenos, se trata del benceno (C6H6) y sus derivados, y pueden ser monocíclicos (poseen un solo núcleo bencénico) o policíclicos (poseen varios).

• Monocíclicos Se nombran a partir de derivaciones del nombre del benceno, enumerando sus sustituyentes con prefijos numeradores. Aunque generalmente conservan su nombre vulgar. Por ejemplo: Metilbenceno (Tolueno), 1,3-dimetilbenceno (o-xileno), hidroxibenceno (Fenol), etc. • Policíclicos En su mayoría se nombran mediante su nombre vulgar, dado que son compuestos muy específicos. Pero también se puede usar para ellos el sufijo -eno, cuando tienen el mayor número posible de enlaces dobles no acumulados. Por ejemplo: Naftaleno, Antraceno.

• Alcoholes Los alcoholes se definen por la fórmula general R-OH, se asemejan en estructura al agua, pero reemplazando un átomo de hidrógeno por un grupo alquilo. Su grupo funcional es el hidroxilo (-OH) y se nombran empleando el sufijo -ol en lugar de la terminación -o del correspondiente hidrocarburo. En caso de haber varios grupos hidroxilo, se nombran mediante prefijos numeradores. Por ejemplo: Etanol, 2-propanol, 2-propen1-ol, etc.

209


• Fenoles Los fenoles son idénticos a los alcoholes, pero con un anillo aromático unido al grupo hidroxilo, siguiendo la fórmula Ar-OH. Se emplea en ellos el sufijo -ol también, unido al del hidrocarburo aromático. Por ejemplo: onitrofenol, p-bromofenol, etc. • Éteres Los éteres se rigen por la fórmula general R-O-R’, donde los radicales de los extremos pueden ser grupos idénticos o diferentes, del grupo alquilo o arilo. Los éteres se nombran con el término de cada grupo alquilo o arilo en orden alfabético, seguidos de la palabra “éter”. Por ejemplo: etil metil éter, dietil éter, etc. • Aminas Derivadas del amoníaco por sustitución de algunos de sus hidrógenos por grupos radicales alquilos o arilos, obteniendo aminas alifáticas y aminas aromáticas respectivamente. En ambos casos se nombran usando el sufijo amina o se conserva el nombre vulgar. Por ejemplo: metilamina, isopropilamina, etc. • Ácidos Carboxílicos Formados por átomos de hidrógeno, carbono y oxígeno, se nombran considerando la cadena principal de mayores átomos de carbono que contenga el grupo ácido, y enumerando a partir del grupo carboxílico (=C=O). Entonces se emplea como prefijo el nombre del hidrocarburo con igual número de carbonos y la terminación -ico u -oico, por ejemplo: ácido metanoico o ácido fórmico, ácido etanoico o ácido acético. • Ésteres No se deben confundir con los éteres, pues se trata de ácidos cuyo hidrógeno es sustituido por un radical aquilo o arilo. Se nombran cambiando el sufijo -ico del ácido por -ato, seguido del nombre del radical que sustituye al hidrógeno, sin la palabra “ácido”. Por ejemplo: Etanoato de metilo o acetato de metilo, benzoato de etilo. • Amidas No deben confundirse con las aminas, pues se producen al sustituir el grupo -OH por el grupo –NH2. Las amidas primarias se nombran sustituyendo la terminación -ico del ácido por -amida, por ejemplo: metanamida o formamida, benzamida. Las secundarias o terciarias requieren además nombrarse como derivados N- o N. Por ejemplo: N-metilacetamida, N-fenil-N-metil-propanamida. • Haluros de Ácido Derivados de un ácido carboxílico en el que se sustituye el grupo -OH por un átomo de un elemento halógeno. Se nombran sustituyendo el sufijo -ico por -ilo y la palabra “ácido” por el nombre del haluro. Por ejemplo: cloruro de acetilo, cloruro de benzoilo.

210


Anhídridos de Ácido Otros derivados de ácido carboxílicos, que pueden ser o no simétricos. Si lo son, se nombran sustituyendo apenas la palabra ácido por “anhídrido”. Por ejemplo: anhídrido acético (del ácido acético). Si no lo son, se combinan ambos ácidos y se anteceden de la palabra “anhídrido”. Por ejemplo: Anhídrido de ácidos acético y 2-hidroxi propanoico.

• Nitrilos Se forman por hidrógeno, nitrógeno y carbono, uniendo estos últimos dos un enlace triple. En este caso se reemplaza la terminación -ico por -nitrilo del ácido correspondiente. Por ejemplo: metanonitrilo, propanonitrilo.

FUNCIÓN HIDRURO Y ACIDO Función Hidruros Los hidruros son compuestos binarios formados por hidrógeno y cualquier otro elemento menos electronegativo que el hidrógeno. Los hidruros son una excepción, en el cual el hidrógeno actúa con número de oxidación 1-. Responden a la formula EHx, donde E es el símbolo del elemento que se combina con hidrógeno (H) y x es el número de oxidación con el que actúa dicho elemento. Algunos ejemplos de hidruros son: NaH, CaH2, NH3 y SiH4. Los hidruros se nombran como hidruros de…, indicando a continuación el nombre del elemento que acompaña al hidrógeno. De este modo, NaH es el hidruro de sodio y CaH2 es el hidruro de calcio

Función del Ácido Según Arrhenius, ácido es toda sustancia que libera un ion H+ en agua. La teoría actual de BrønstedLowry define como ácido una sustancia capaz de recibir un par de electrones. Además, la teoría de Arrhenius también fue actualizada: Ácido es toda sustancia que libera un ion H3O+ Clasificación de los Ácidos De acuerdo con la presencia de oxígeno: • Hidrácidos: no poseen oxígeno en la fórmula. Ejemplos: HI, HCl, HF. • Oxiácidos: poseen oxígeno en la fórmula. Ejemplos: H2CO3, H2SO3, H2SO4, HNO2.

211


De acuerdo con el grado de disociación iónica • Hidrácidos: o Fuertes: HCl < HBr < HI o Medios: HF (puede ser considerado débil) o Débiles: los demás •

Oxiácidos: o Fuertes: si x > 1 (H2SO4) o Medios: si x = 1 (HClO2) o Débiles: si x < 1 (HClO) x = número de oxígeno - número de hidrógeno

Función Sal Una sal es un compuesto químico formado por cationes (iones con carga positiva) enlazados a aniones (iones con carga negativa) mediante un enlace iónico. Son el producto típico de una reacción química entre una base y un ácido,1 donde la base proporciona el anión, y el ácido el catión. La combinación química entre un ácido y un hidróxido (base) o un óxido y un hidronio (ácido) origina una sal más agua, lo que se denomina neutralización. Un ejemplo es la sal de mesa, denominada en el lenguaje coloquial sal común, sal marina o simplemente sal. Es la sal específica cloruro de sodio. Su fórmula molecular es NaCl y es el producto de la base hidróxido sódico (NaOH) y ácido clorhídrico, HCl. En general, las sales son compuestos iónicos que forman cristales. Son generalmente solubles en agua, donde se separan los dos iones. Las sales típicas tienen un punto de fusión alto, baja dureza, y baja compresibilidad. Fundidas o disueltas en agua, conducen la electricidad. Función Hidróxido Los hidróxidos son un grupo de compuestos químicos formados por un metal y uno o varios aniones hidroxilos, en lugar de oxígeno como sucede con los óxidos. Arrhenius dijo que un hidróxido o base es aquella sustancia que va a liberar iones Hidroxilo. Bronsted-Lowry dijo que un hidróxido o base es aquella sustancia que va a aceptar o recibir protones. El hidróxido, combinación que deriva del agua por sustitución de uno de sus átomos de hidrógeno por un metal. Se denomina también hidróxido el grupo OH formado por un átomo de oxígeno y otro de hidrógeno, característico de las bases y de los alcoholes y fenoles. Los hidróxidos se formulan escribiendo el metal seguido con la base de un hidruro del radical hidróxido; éste va entre paréntesis si el subíndice es mayor de uno. Se nombran utilizando la palabra hidróxido seguida del nombre del metal, con indicación de su valencia, si tuviera más de una. Por ejemplo, el Ni (OH)2 es el hidróxido de níquel (ii) y el Ca (OH)2 es el hidróxido de calcio (véase Nomenclatura química). Las disoluciones acuosas de los hidróxidos tienen carácter básico, ya que éstos se disocian en el catión metálico y los iones hidróxido. Esto es así porque el enlace entre el metal y el grupo hidróxido es de tipo iónico, mientras que el enlace entre el oxígeno y el hidrógeno es covalente. Por ejemplo: NaOH(aq) → Na+(aq) + OHLos hidróxidos resultan de la combinación de un óxido con el agua. Los hidróxidos también se conocen con el nombre de bases. Estos compuestos son sustancias que en solución producen iones hidroxilo. En la clasificación mineralógica de Strunz se les suele englobar dentro del grupo de los óxidos, aunque hay bibliografías que los tratan como un grupo aparte.

212


Los hidróxidos se clasifican en: básicos, anfóteros y ácidos. Por ejemplo, el Zn (OH)2 es un hidróxido anfótero ya que: Con ácidos: Zn (OH)2 + 2H+ → Zn+2 + 2H2O Con bases: Zn (OH)2 + 2OH− → [Zn (OH)4]−2 Sal Oxisal Una sal ox(o)ácida, oxosal u oxisal es el producto de sustituir alguno, o todos, los hidrógenos de un oxácido por cationes metálicos, por ejemplo, K+, o no metálicos, por ejemplo, NH4+. Cuando se sustituyen todos los hidrógenos se forma una oxisal neutra y cuando solo se sustituye una parte una sal ácida. Características de las oxisales o Las sales son compuestos que forman agua oxigenada. o La mayoría de las sales son solubles en agua. o La mayoría de los carbonatos metales alcalinos son poco solubles en agua. o Las sales típicas tienen un punto de fusión alto, baja dureza, y baja compresibilidad. o Fundidas o disueltas en agua, conducen la electricidad. Formación Es el resultado de la combinación de un hidróxido con un ácido oxácido, aunque también se pueden formar de una manera más simple por la combinación de un metal y un radical. La forma más simple de formar una oxosal es generando el oxoanión a partir del oxoácido correspondiente, de la siguiente forma: El anión resulta por eliminación de los hidrógenos existentes en la fórmula del ácido. Se asigna una carga eléctrica negativa igual al número de hidrógenos retirados, y que, además, será la valencia con que el anión actuará en sus combinaciones. Los aniones se nombran utilizando las reglas análogas que las sales que originan. Sales Cuaternarias Sustancias inorgánicas formadas, como su nombre lo indica por cuatro elementos diferentes. Por lo general son derivadas de sales oxigenadas, parcialmente hidrogenadas.

COMPOSICIÓN QUÍMICA Son aquellos compuestos que además del catión y del anión, llevan iones óxidos o iones hidroxilo. Se nombran de manera similar a otros tipos de sales, cuidando de intercalar la palabra óxido, según corresponda, precedida del prefijo numérico cuando sea necesario. Si partes del ácido sulfúrico (H2SO4) y sólo sustituyes uno de los hidrógenos por un catión metálico, obtienes una sal cuaternaria: KHSO4 o NaHSO4 Lo mismo puedes plantear si partes de cualquier ácido oxigenado que tenga varios hidrógenos (polipósicos) como el H3PO4 (de aquí salen dos sales distintas) el H 2SeO4. Fórmula Co (OH)NO3 Hidroxi nitrato de Cobalto () Hidróxido Nitrato de Cobalto. Bi (OH)2NO3 Nitrato Dihidróxido de Bismuto () Dihidroxi nitrato de Bismuto. VOSO4 Sulfato Óxido de Vanadio (IV)u Oxi Sulfato de Vanadio (IV) Pt (OH)NO3 Nitrato Hidróxido de Platino (II)Hidroxi nitrato de Platino (II)

213


Nomenclatura Sales Cuaternarias: Estas sales se forman por cuatro elementos un metal, un no metal un ion hidroxilo y oxígeno. Oxisales de Amonio Formados por un radical amonio NH 4+, un no metal y oxígeno. Se nombran igual a las oxisales cambiando la terminación por “…de amonio “. Por ejemplo. (NH4)2SO4: sulfato (VI) de diamonio o sulfato de amonio NH4NO2: nitrato (V) de amonio o nitrito de amonio (NH4 )4Sb2O7: piro antimoniato de estramonio Sales ácidas Resultan del reemplazo parcial de los hidrógeno de un oxoácido por átomos metálicos. Se forman con ácidos que presentan dos o más hidrógenos en su molécula. Por ejemplo: NaHCO3 : hidrógeno carbonato de sodio, Bicarbonato de sodio o carbonato ácido de sodio K2HPO4: hidrógeno fosfato (V) de potasio Ca (HSO3)2: hidrógeno sulfato (IV) de calcio o Sulfito ácido de calcio.

REACCIONES QUÍMICAS Una reacción química, también llamada cambio químico o fenómeno químico, es todo proceso termodinámico en el cual dos o más sustancias (llamadas reactantes o reactivos), se transforman, cambiando su estructura molecular y sus enlaces, en otras sustancias llamadas productos. Los reactantes pueden ser elementos o compuestos. Un ejemplo de reacción química es la formación de óxido de hierro producida al reaccionar el oxígeno del aire con el hierro de forma natural, o una cinta de magnesio al colocarla en una llama se convierte en óxido de magnesio, como un ejemplo de reacción inducida. Las reacciones químicas ocurren porque las moléculas se están moviendo y cuando se golpean con violencia suficiente una contra otras, los enlaces se rompen y los átomos se intercambian para formar nuevas moléculas. También una molécula que está vibrando con violencia suficiente puede romperse en moléculas más pequeñas. A la representación simbólica de cada una de las reacciones se le denomina ecuación química. Los productos obtenidos a partir de ciertos tipos de reactivos dependen de las condiciones bajo las que se da la reacción química. No obstante, tras un estudio cuidadoso se comprueba que, aunque los productos pueden variar según cambien las condiciones, determinadas cantidades permanecen constantes en cualquier reacción química. Estas cantidades constantes, las magnitudes conservadas, incluyen el número de cada tipo de átomo presente, la carga eléctrica y la masa.

FENÓMENO QUÍMICO Se llama fenómeno químico a los sucesos observables y posibles de ser medidos en los cuales las sustancias intervinientes cambian su composición química al combinarse entre sí. Las reacciones químicas implican una interacción que se produce a nivel de los electrones de valencia de las sustancias intervinientes. Dicha interacción es el enlace químico. En estos fenómenos, no se conserva la sustancia original, se transforma su estructura química, manifiesta energía, no se observa a simple vista y son irreversibles, en su mayoría.

214


La sustancia sufre modificaciones irreversibles. Por ejemplo, al quemarse, un papel no puede volver a su estado original. Las cenizas resultantes formaron parte del papel original, y sufrieron una alteración química.

LOS CAMBIOS EN LA MATERIA La materia puede sufrir cambios mediante diversos procesos. No obstante, todos esos cambios se pueden agrupar en dos tipos: cambios físicos y cambios químicos. Cambios Físicos En estos cambios no se producen modificaciones en la naturaleza de las sustancia o sustancias que intervienen. Ejemplos de este tipo de cambios son: • Cambios de estado. • Mezclas. • Disoluciones. • Separación de sustancias en mezclas o disoluciones. Cambios Químicos En este caso, los cambios si alteran la naturaleza de las sustancias: desaparecen unas y aparecen otras con propiedades muy distintas. No es posible volver atrás por un procedimiento físico (como calentamiento o enfriamiento, filtrado, evaporación, etc.) Una reacción química es un proceso por el cual una o más sustancias, llamadas reactivos, se transforman en otra u otras sustancias con propiedades diferentes, llamadas productos. En una reacción química, los enlaces entre los átomos que forman los reactivos se rompen. Entonces, los átomos se reorganizan de otro modo, formando nuevos enlaces y dando lugar a una o más sustancias diferentes a las iniciales. Método de Óxido-Reducción Se denomina reacción de reducción-oxidación, de óxido-reducción o, simplemente como reacción rédox, a toda reacción química en la que uno o más electrones se transfieren entre los reactivos, provocando un cambio en sus estados de oxidación. Para que exista una reacción de reducción-oxidación, en el sistema debe haber un elemento que ceda electrones, y otro que los acepte: • El agente oxidante es aquel elemento químico que tiende a captar esos electrones, quedando con un estado de oxidación inferior al que tenía, es decir, siendo reducido. • El agente reductor es aquel elemento químico que suministra electrones de su estructura química al medio, aumentando su estado de oxidación, es decir, siendo oxidado. Cuando un elemento químico reductor cede electrones al medio, se convierte en un elemento oxidado, y la relación que guarda con su precursor queda establecida mediante lo que se llama un «par rédox». Análogamente, se dice que, cuando un elemento químico capta electrones del medio, este se convierte en un elemento reducido, e igualmente forma un par rédox con su precursor oxidado. Cuando una especie puede oxidarse, y a la vez reducirse, se le denomina anfolito, y al proceso de la oxidación-reducción de esta especie se le llama anfolización.

215


Principio de Electro Neutralidad El principio de electroneutralidad de Pauling corresponde a un método de aproximación para estimar la carga en moléculas o iones complejos; este principio supone que la carga siempre se distribuye en valores cercanos a 0 (es decir, -1, 0, +1). Dentro de una reacción global rédox, se da una serie de reacciones particulares llamadas semirreacciones o reacciones parciales. Semirreacción de reducción: Semirreacción de oxidación: O más comúnmente, también llamada ecuación general:

La tendencia a reducir u oxidar a otros elementos químicos se cuantifica mediante el potencial de reducción, también llamado potencial rédox. Una titulación rédox es aquella en la que un indicador químico indica el cambio en el porcentaje de la reacción rédox mediante el viraje de color entre el oxidante y el reductor.

LAS REACCIONES QUÍMICAS EN NUESTRO ENTORNO Las reacciones químicas son aquellas que ocurren cuando dos sustancias las cuales reciben por nombre reactivos, a consecuencia de un factor energético se transforman en otras sustancias, las cuales son denominadas producto. Los reactivos pueden ser elementos o compuestos químicos o una combinación de ellos. En la vida cotidiana, las reacciones químicas nos acompañan en la mayoría de las actividades que realizamos, de hecho, nuestro cuerpo está considerado como un laboratorio el cual tiene una actividad constante, ya que se requiere que ocurran un sinfín de reacciones químicas para que el mismo funcione con normalidad.

• Reacciones químicas en los procesos vitales Los procesos vitales, son una serie de acciones las cuales son llevadas a cabo por los organismos vivos. A continuación, vamos a describir las reacciones químicas que se producen en algunos de los procesos vitales. Fotosíntesis: es una reacción que se produce en las plantas verdes, la cual requiere de la presencia de la luz solar, en ella se transforma en glucosa el dióxido de carbono CO2 que la planta toma del ambiente y el agua que obtiene del suelo. Su reacción química está representada por la fórmula siguiente:

216


Respiración Celular: este importante proceso tiene lugar en el interior de las células de todos los organismos vivos, puede ser aerobia o anaerobia, y es el procesamiento de los nutrientes que se obtienen a través de los alimentos mediante una reacción exoenergética, la cual hace transferencia de energía al medio exterior. C6H12O6 + 6O2 —– 6CO2 + 6 H2O Combustión: esta reacción química se produce entre un material oxidable y el oxígeno, en ella se desprende energía y su manifestación es mediante la llama o incandescencia. Fermentación: en esta reacción química interviene algunos microorganismos vivos, un ejemplo de ellos son las levaduras, y ocurre en ausencia del aire. • Reacciones químicas en la cocina Cuando cocinamos, sin darnos cuenta estamos a menudo en presencia de algunas reacciones químicas, las cuales nos ayudan a que los alimentos queden muy apetitosos. Algunas de ellas las describimos a continuación: Caramelización: en esta reacción química se produce la oxidación del azúcar, y en ella son liberados químicos volátiles por efecto del calor. Es muy utilizada para la elaboración de algunos postres como el quesillo y algunas tortas. Emulsión: cuando mezclamos dos líquidos estamos en presencia de una emulsión, en esta mezcla uno de los líquidos es parcialmente miscible y se dispersa en forma de glóbulos. Un ejemplo es la mayonesa. Reacción de Maillar: ocurre en presencia de azúcares y proteínas y en ella son liberados pigmentos marrones, puede darse a temperatura ambiente o mediante la aplicación de calor. Un ejemplo es la carne asada. Desnaturalización de las proteínas: con esta reacción se genera un cambio en la estructura de la proteína, al calentarse o combinarse con alcohol o cetona. Los huevos cocidos son un buen ejemplo de esta reacción.

ESTEQUIOMETRÍA La estequiometría es el cálculo para una ecuación química balanceada que determinará las proporciones entre reactivos y productos en una reacción química. El balance en la ecuación química obedece a los principios de conservación y los modelos atómicos de Dalton como, por ejemplo, la Ley de conservación de masa que estipula que: “la masa de los reactivos = la masa de los productos” En este sentido, la ecuación debe tener igual peso en ambos lados de la ecuación. Cálculos Estequiométricos Los cálculos estequiométricos es la manera en que se balancea una ecuación química. Existen 2 maneras: el método por tanteo y el método algebraico. • Cálculo estequiométrico por tanteo El método por tanteo para calcular la estequiometría de una ecuación se deben seguir los siguientes pasos:

217


1. Contar la cantidad de átomos de cada elemento químico en la posición de los reactivos (izquierda de la ecuación) y comparar esas cantidades en los elementos posicionados como productos (derecha de la ecuación). 2. Balancear los elementos metálicos. 3. Balancear los elementos no metálicos. Por ejemplo, el cálculo estequiométrico con el método por tanteo en la siguiente ecuación química: CH4 + 2O2 → CO + 2H2O El carbono está equilibrado porque existe 1 molécula de cada lado de la ecuación. El hidrógeno también presenta las mismas cantidades de cada lado. El oxígeno en cambio, suman 4 del lado izquierdo (reactantes o reactivos) y solo 2, por lo tanto, por tanteo se agrega un subíndice 2 para transformar el CO en CO2. De esta forma, la ecuación química balanceada en este ejercicio resulta: CH4 + 2O2 → CO2 + 2H2O. Los números que anteceden el compuesto, en este caso el 2 de O2 y el 2 para H2O se denominan coeficientes estequiométricos. • Cálculo estequiométrico por método algebraico Para el cálculo estequiométrico por método algebraico se debe encontrar los coeficientes estequiométricos. Para ello se siguen los pasos: 1. Asignar incógnita 2. Multiplicar la incógnita por la cantidad de átomos de cada elemento 3. Asignar un valor (se aconseja 1 o 2) para despejar el resto de las incógnitas 4. Simplificar Relaciones Estequiométricas Las relaciones estequiométricas indican las proporciones relativas de las sustancias químicas que sirven para calcular una ecuación química balanceada entre los reactivos y sus productos de una solución química. Las soluciones químicas presentan concentraciones diferentes entre soluto y solvente. El cálculo de las cantidades obedece a los principios de conservación y los modelos atómicos que afectan los procesos químicos. Estequiometría y conversión de unidades La estequiometría usa como factor de conversión desde el mundo microscópico por unidades de moléculas y átomos, por ejemplo, N2 que indica 2 moléculas de N2 y 2 átomos de Nitrógeno hacia el mundo macroscópico por la relación molar entre las cantidades de reactivos y productos expresado en moles. En este sentido, la molécula de N2 a nivel microscópico tiene una relación molar que se expresa como 6.022 * 1023 (un mol) de moléculas de N2. Rendimiento de reacción Química Si regresamos a la analogía de la producción de "panes con jamón", ahí veíamos que la fabricación de panes con jamón seguía la "ecuación" siguiente: 1 JAMÓN + 2 REBANADAS DE PAN → 1 “PAN CON JAMÓN” Si le entregan a uno de los cocineros 18 jamones y 36 rodajas de pan, él puede preparar los panes con jamón, pero supongamos que se le caen 2 al piso y tiene que botarlos a la basura. Calcula el rendimiento de producción de panes con jamón que tuvo el cocinero. Él debía conseguir una producción de 18 panes de jamón, "rendimiento teórico", pero en realidad solo puede entregar 16 panes de jamón, "rendimiento real".

218


El rendimiento de la reacción será:

El rendimiento teórico de una reacción es la cantidad de producto que se “esperaría” obtener si todo funciona bien. Sin embargo, frecuentemente hay reacciones secundarias (formación de otros productos), o no todos los reactivos reaccionan como se esperaría. Esto ocasiona que no se alcance el rendimiento teórico sino una menor cantidad de producto: rendimiento real. La relación entre lo que realmente (experimentalmente) se obtuvo de producto (rendimiento real) y el rendimiento teórico (lo que se esperaba obtener) es el rendimiento de la reacción. Ten en cuenta que el rendimiento se puede calcular en peso (gramos) o moles, teniendo cuidado que ambos rendimientos (real y teórico) estén en las mismas unidades.

GASES Con el término gas nos referimos a uno de los tres principales estados de agregación de la materia (junto a los líquidos y los sólidos). Se caracteriza por la dispersión, fluidez y poca atracción entre sus partículas constitutivas. Los gases son la forma más volátil de la materia en la naturaleza y son sumamente comunes en la vida cotidiana. Cuando una sustancia se encuentra en estado gaseoso solemos llamarla gas o vapor y sabemos que sus propiedades físicas han cambiado. Sin embargo, no cambian las propiedades químicas: la sustancia sigue estando compuesta por los mismos átomos. Para que cambien las propiedades químicas es necesario que se trate de una mezcla, ya que forzar a uno de sus ingredientes a volverse un gas es una forma útil de separarlo de los otros. Los gases se encuentran en todas partes: desde la masa heterogénea de gases que llamamos atmósfera y que respiramos como aire, hasta los gases que se generan dentro del intestino, producto de la digestión y descomposición, hasta los gases inflamables con que alimentamos nuestras cocinas y hornos. Leyes de los gases El comportamiento de los gases es descripto por la Ley de los gases ideales, que a su vez puede comprenderse como la unión de otras leyes: • Ley de Boyle: “El volumen de un gas varía de forma inversamente proporcional a la presión si la temperatura permanece constante.” Se expresa según la fórmula: P1xV1 = P2xV2. •

Ley de Gay-Lussac: Explica que la presión de una masa de gas cuyo volumen se mantiene constante es directamente proporcional a la temperatura que posea. Esto se formula de la siguiente manera: P1/T1 = P2/T2.

Ley de Charles: Expresa la relación constante entre la temperatura y el volumen de un gas, cuando la presión es constante. Su fórmula es: V1 / T1 = V2 /T2.

Ley de Avogadro: “En iguales condiciones de presión y temperatura, las densidades relativas de los cuerpos gaseosos son proporcionales a sus números atómicos”.

219


Tipos de Gases Los gases pueden clasificarse según su naturaleza química en: • Combustibles o inflamables: Aquellos que pueden arder, esto es, generar reacciones explosivas o exotérmicas en presencia del oxígeno u otros oxidantes. •

Corrosivos: Aquellos que al entrar en contacto con otras sustancias las someten a procesos de reducción u oxidación intensos, generando daños en su superficie o heridas en caso de ser materia orgánica.

Comburentes: Aquellos que permiten mantener viva una llama o una reacción inflamable, ya que inducen la combustión en otras sustancias.

Tóxicos: Aquellos que representan un peligro para la salud por las reacciones que introducen en el cuerpo de los seres vivos, como los gases radiactivos.

Inertes o nobles: Aquellos que presentan poca o nula reactividad, excepto en situaciones y condiciones determinadas.

Ideales: No son realmente gases sino un concepto ideal y de trabajo respecto a cómo tendrían que comportarse los gases. Una abstracción.

Propiedades de los Gases Los gases presentan las siguientes propiedades: • Intangibles, incoloros, insaboros: La mayoría de los gases son transparentes, imposibles de tocar, y además carecen de color y sabor. Esto último varía enormemente, sin embargo, y muchos gases poseen un olor característico e incluso un color típico observable. • Carecen de volumen propio: Por el contrario, ocupan el volumen del contenedor en el que se encuentren. • No poseen forma propia: También asumen la de su contenedor. • Pueden dilatarse y contraerse: Tal y como los sólidos y líquidos, en presencia de calor o de frío. • Son fluidos: Mucho más que los líquidos, los gases carecen prácticamente de fuerzas de unión entre sus partículas, pudiendo perder su forma y desplazarse de un recipiente a otro ocupando todo el espacio disponible. • Tienen alta difusión: Los gases pueden mezclarse fácilmente entre sí debido al espacio entre partículas que poseen. • Son solubles: Así como los sólidos, los gases pueden disolverse en agua u otros líquidos. • Son muy compresibles: Puede obligarse a un gas a ocupar un volumen más pequeño, forzando las moléculas a estrecharse entre sí. Así es como se obtiene el gas licuado (líquido).

220


Estado Gaseoso Se entiende por estado gaseoso, a uno de los cuatro estados de agregación de la materia, junto con los estados sólido, líquido y plasmático. Las sustancias en estado gaseoso se denominan “gases” y se caracterizan por tener sus partículas constitutivas poco unidas entre sí, o sea, expandidas a lo largo del contenedor donde se encuentren, hasta cubrir lo más posible el espacio disponible. Esto último se debe a que presentan entre sí una fuerza de atracción muy leve, lo cual se traduce en que los gases carezcan de forma y de volumen definidos, tomando las del recipiente que los contenga, y tengan además una bajísima densidad, puesto que sus partículas se encuentran en un estado de relativo desorden, moviéndose o vibrando muy velozmente. De este modo, las moléculas que componen la materia en estado gaseoso no logran sujetarse las unas a otras con firmeza y se mantienen juntas a duras penas, siendo incluso menos afectadas por la gravedad, en comparación con los sólidos y los líquidos: eso les permite flotar. A pesar de su cohesión casi nula, los gases presentan una enorme capacidad para ser comprimidos, cosa que a menudo se lleva a cabo durante su tratamiento industrial para el transporte. Transformación de la materia al estado gaseoso Es posible llevar ciertos líquidos o sólidos al estado gaseoso, generalmente sometiéndolos a cambios drásticos y sostenidos de temperatura y/o presión. Del mismo modo, pero en sentido contrario, puede transformarse un gas en un líquido o un sólido. Estos procesos pueden estudiarse por separado, de la siguiente manera: a) De líquido a gas: evaporación. Este proceso ocurre cotidianamente, con tan sólo inyectar energía calórica al líquido hasta hacer que su temperatura supere el punto de ebullición (distinto según la naturaleza del líquido). El agua, por ejemplo, hierve a los 100 °C y pasa se convierte en gas (vapor). b) De sólido a gas: sublimación. En algunos casos, los sólidos pueden pasar directamente al estado gaseoso sin atravesar primero la liquidez. Un ejemplo perfecto de ello ocurre en los polos del Planeta, donde la temperatura es tan baja que es imposible la formación de agua líquida, pero aun así el hielo y la nieve se subliman directo a la atmósfera. c) De gas a líquido: condensación. Este proceso es contrario a la evaporación y tiene que ver con la sustracción de energía calórica del gas, haciendo que sus partículas se muevan más lentamente y se junten con mayor fuerza. Es lo que ocurre en la atmósfera cuando, al alejarse de la superficie terrestre, el vapor de agua pierde temperatura y forma nubes que, eventualmente, precipitan de vuelta las gotas de agua hacia el suelo: lluvia. d) De gas a sólido: sublimación inversa. Este proceso también puede llamarse cristalización, en algunos contextos específicos. Y tiene lugar bajo condiciones de presión puntuales, que fuerzan las partículas de un gas a juntarse más allá de lo que comúnmente lo están, llevándolas directo al estado sólido sin pasar primero por la liquidez. Un ejemplo de ello es la escarcha, semisólida, que aparece sobre las ventanas de un día de invierno. Ejemplos de estado gaseoso El gas butano es de naturaleza orgánica. Algunos ejemplos cotidianos de materia en estado gaseoso son: • Vapor de agua: Como hemos dicho, el agua al evaporarse cambia de estado y se torna vapor: algo comprobable perfectamente cuando cocinamos, y al hervir ciertos líquidos podemos ver la columna de vapor emergiendo de la olla.

221


Aire: El aire que respiramos es una masa homogénea de gases de diversa naturaleza, como oxígeno, hidrógeno y nitrógeno, que son generalmente transparentes, incoloros e inodoros.

Butano: Se trata de un gas de naturaleza orgánica, derivado del petróleo, compuesto por hidrocarburos inflamables. Por eso lo empleamos para generar calor y alimentar nuestras cocinas, o los encendedores de los fumadores.

Metano: Otro gas hidrocarburo, subproducto frecuente de la descomposición de la materia orgánica, es posible hallarlo en cantidades cuantiosas en ciénagas, lodazales, o incluso en los intestinos del ser humano. Posee un desagradable olor característico.

Gases Reales Un gas real se define como un gas con un comportamiento termodinámico que no sigue la ecuación de estado de los gases ideales. Un gas puede ser considerado como real, a elevadas presiones y bajas temperaturas, es decir, con valores de densidad bastante grandes. Bajo la teoría cinética de los gases, el comportamiento de un gas ideal se debe básicamente a dos hipótesis: • Las moléculas de los gases no son puntuales. • La energía de interacción no es despreciable. La representación gráfica del comportamiento de un sistema gas-líquido, de la misma sustancia, se conoce como diagrama de Andrews. En dicha gráfica se representa el plano de la presión frente al volumen, conocido como plano de Clapeyron. Se considera a un gas encerrado en un cilindro con un embolo móvil. Si el gas se considera ideal, se mantiene la temperatura constante, obteniendo en el plano de Clapeyron líneas isotermas, es decir, líneas hiperbólicas que siguen la ecuación: p.V= cte. Si en cambio, consideramos a un gas como real, veremos que solamente con la temperatura bastante alta y la presión bastante baja, las isotermas se acercan a las hipérbolas, siguiendo la ecuación de estado de los gases perfectos. Potencial de Lennard Jones: Siguiendo una observación experimental, vemos una importante diferencia entre el comportamiento de los gases reales e ideales. La distinción primordial es el hecho de que a un gas real no se le puede comprimir indefinidamente, no siguiendo así la hipótesis del gas ideal. Las moléculas ocupan un volumen, pero los gases reales son, a bajas presiones más comprimibles que un gas ideal en las mismas circunstancias, en cambio, son menos comprimibles cuando tienen valores de presión más elevadas. Este comportamiento depende mucho de la temperatura y del tipo de gas que sea. El comportamiento de estos gases, puede ser explicado debido a la presencia de fuerzas intermoleculares, que cuando tienen valores de temperatura pequeños, son fuertemente repulsivas, y en cambio, a temperaturas altas, son débilmente atrayentes. La ley física de los gases reales, también conocida como ley de Van der Waals, describe el comportamiento de los gases reales, tratándose de una extensión de la ley de los gases ideales, mejorando la descripción del estado gaseoso para presiones altas y próximas al punto de ebullición. La ley de los gases reales, toma el nombre del físico holandés Van der Waals, el cual propone su trabajo de los gases en 1873, ganando un premio Nobel en 1910 por la formulación de esta ley.

222


Los gases de la atmosfera terrestre La atmósfera terrestre es la parte gaseosa de la Tierra, siendo por esto la capa más externa y menos densa del planeta. Está constituida por varios gases que varían en cantidad según la presión a diversas alturas. Esta mezcla de gases que forma la atmósfera recibe genéricamente el nombre de aire. El 75 % de masa atmosférica se encuentra en los primeros 11 km de altura, desde la superficie del mar. Los principales gases que la componen son: el oxígeno (21 %) y el nitrógeno (78 %), seguidos del argón, el dióxido de carbono y el vapor de agua. La atmósfera y la hidrosfera constituyen el sistema de capas fluidas superficiales del planeta, cuyos movimientos dinámicos están estrechamente relacionados. Las corrientes de aire reducen drásticamente las diferencias de temperatura entre el día y la noche, distribuyendo el calor por toda la superficie del planeta. Este sistema cerrado evita que las noches sean gélidas o que los días sean extremadamente calientes. La atmósfera protege la vida sobre la Tierra, absorbiendo gran parte de la radiación solar ultravioleta en la capa de ozono. Además, actúa como escudo protector contra los meteoritos, los cuales se desintegran en polvo a causa de la fricción que sufren al hacer contacto con el aire. Composición: En la atmósfera terrestre se pueden distinguir dos regiones con distinta composición, la homosfera y la heterosfera. • Homosfera: La homosfera ocupa los 100 km inferiores y tiene una composición constante y uniforme. Composición de la atmósfera terrestre (aire seco, porcentajes por volumen) •

Heterosfera: La heterosfera se extiende desde los 80 km hasta el límite superior de la atmósfera (unos 10 000 km); está estratificada, es decir, formada por diversas capas con composición diferente. 80-400 km - capa de nitrógeno molecular 400-1100 km - capa de oxígeno atómico 1100-3500 km - capa de helio 3500-10 000 km - capa de hidrógeno

223


Estadística Descriptiva y Comercial

224


Estadística Ciencia matemática que se ocupa el recolectar, analizar e interpretar datos que buscan explicar las condiciones en aquellos fenómenos de tipo aleatorio. Ciencia que recopila, organiza, analiza e interpreta la información numérica o cualitativa mejor conocida como datos, de manera que pueda llevar a conclusiones válidas.

DIVISIÓN DE ESTADÍSTICA Estadística descriptiva: Se dedica a la descripción, visualización y resumen de datos originarios a partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros son: la media y la desviación estándar. Estadística inferencial: Se dedica a la generación de los modelos, inferencial y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraen inferencias acerca de la población bajo estudio. a) Población Se refiere al conjunto de todos los elementos representativos con características comunes para una investigación. Así, el conjunto de “todos los estudiantes escritos en “Sexto Perito Contador” en un colegio o instituto de la República de Guatemala” es un ejemplo de una población bien definida y con características comunes para una investigación. Comúnmente el termino población se asocia con un conjunto de personas. Sin embargo, en estadística la población puede ser un conjunto de animales, plantas, u objetos; el conjunto de todos los animales que hay en el zoológico “La Aurora”, es un ejemplo de población. b) Muestra Son subconjuntos, es decir la selección parcial de algunos de los elementos de la población. Conjunto de cosas, personas o datos elegidos al azar, que se consideran representativos del grupo al que pertenecen y que se toman para estudiar o determinar las características del grupo. c) Variables Es cada una de las características que pueden observarse de un elemento de la muestra. Siguiendo con el ejemplo de las piezas se puede medir grosor, peso, resistencia, etc. Además de los datos a medir es necesario especificar, cuando sea preciso, la unidad de medida (por ejemplo, el grosor en centímetros o en milímetros). Las variables pueden ser clasificadas en dos grupos: • Cualitativas: Toman valores no numéricos. Dentro de este grupo diferenciamos: o Nominativas: no existe ningún orden entre las categorías de variables. Por ejemplo: el grupo sanguíneo (A, B, AB, 0) o el color del pelo (moreno, rubio, pelirrojo). o Binarias: cuando toman dos valores posibles -si/no, presencia/ausencia- (por ejemplo: casado sí o no, tener el carnet de conducir sí o no). o Ordinales: existe un cierto orden entre las categorías de las variables, por ejemplo, el nivel de estudios (sin estudios, básico, secundarios, etc.) o categoría dentro de una empresa (peón, encargado, etc.) •

Cuantitativas: Toman valores numéricos. Dentro de éstas se agrupan en: o Discretas: tomas valores aislados, normalmente números enteros, por ejemplo, número de hermanos o de hijos. o Continuas: teóricamente puede tomar cualquier valor numérico, por ejemplo: el peso de un individuo. Aunque en la práctica todas tomarían valores discretos por la imposibilidad de tener aparatos lo suficientemente sensibles para realizar mediciones intermedias.

225


Toma de Muestras o Muestreo Según la cantidad de elementos de la muestra que se han de elegir de cada uno de los estratos, existen dos técnicas de muestreo estratificado: Asignación proporcional: el tamaño de la muestra dentro de cada estrato es proporcional al tamaño del estrato dentro de la población.

Estimación de Parámetros En una población cuya distribución es conocida, pero desconocemos algún parámetro, podemos estimar dicho parámetro a partir de una muestra representativa. Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona información sobre el valor del parámetro.

Contraste de Hipótesis Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población. Fue iniciada por Ronald Fisher y fundamentada posteriormente por Jerzy Neyman y Karl Pearson. Diseño Experimental El diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa y efecto. Interferencia bayesiana La inferencia bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el matemático Thomas Bayes. Método no paramétrico La estadística no paramétrica es una rama de la estadística inferencial que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan.

226


Método Estadístico El método estadístico consiste en una secuencia de procedimientos para el manejo de los datos cualitativos y cuantitativos de la investigación. En este artículo se explican las siguientes etapas del método estadístico: recolección, recuento, presentación, síntesis y análisis. El Método Estadístico como proceso de obtención, representación, simplificación, análisis, interpretación y proyección de las características, variables o valores numéricos de un estudio o de un proyecto de investigación para una mejor comprensión de la realidad y una optimización en la toma de decisiones. Este método posee de etapas para su realización las cuales son: 1. Recolección 2. Recuento 3. Presentación 4. Descripción 5. Análisis Análisis e Interpretación Estadística Esto se realiza mediante dos tareas íntimamente ligadas: el análisis y la interpretación de resultados. El análisis consiste básicamente en dar respuesta a los objetivos o hipótesis planteados a partir de las mediciones efectuadas y los datos resultantes. Análisis de Resultados El análisis del resultado obtenido por un determinado fondo es un proceso que se desarrolla en dos etapas. Primero, se compara la rentabilidad del fondo respecto a su índice de referencia. Luego, se analiza los métodos utilizados por los gestores para llegar a ese resultado. Interpretación Es la vinculación de los resultados de los análisis de datos con la hipótesis de investigación, con las teorías y con conocimientos ya existentes y aceptados. Tipos de problemas que podríamos tener con las interpretaciones de ciertos datos específicos: Atenuación de la escala de medida. Como han de interpretarse ejecuciones que alcanzan sistemáticamente o nunca pueden alcanzar, los límites de la escala de medida. Este problema se puede resolver haciendo un estudio piloto, detectando estos fallos y ampliando la escala en la nueva interpretación.

TIPOS DE REPRESENTACIONES GRAFICAS Cuando se muestran los datos estadísticos a través de representaciones gráficas, se ha de adaptar el contenido a la información visual que se pretende transmitir. Para ello, se barajan múltiples formas de representación: • Diagramas de barras: muestran los valores de las frecuencias absolutas sobre un sistema de ejes cartesianos, cuando la variable es discreta o cualitativa. • Histogramas: formas especiales de diagramas de barras para distribuciones cuantitativas continuas.

227


• • • • •

Polígonos de frecuencias: formados por líneas poligonales abiertas sobre un sistema de ejes cartesianos. Gráficos de sectores: circulares o de tarta, dividen un círculo en porciones proporcionales según el valor de las frecuencias relativas. Pictogramas: o representaciones visuales figurativas. En realidad son diagramas de barras en los que las barras se sustituyen con dibujos alusivos a la variable. Cartogramas: expresiones gráficas a modo de mapa. Pirámides de población: para clasificaciones de grupos de población por sexo y edad.

FUENTES DE INFORMACIÓN DEL PROYECTO Los datos que utilizaras son los mismos que graficaras manualmente de los ejercicios que estarán definidos en esta unidad, de modo que pueda escoger los datos que prefiera. Una segunda opción es que visites las páginas del Banguat, INE, de cualquier ministerio del gobierno de Guatemala, que contenga cuadros estadísticos, los cuales te puedan servir de insumo en le elaboración de tu proyecto. Las Fuentes Primarias Las fuentes primarias son aquellas más cercanas posible al evento que se investiga, es decir, con la menor cantidad posible de intermediaciones. Por ejemplo, si se investiga un accidente automovilístico, las fuentes primarias serían los testigos directos, que observaron la acción ocurrir. En cambio, si se investiga un evento histórico, la recopilación de testimonios directos sería una fuente primaria posible.

Fuentes de Información Secundaria Las fuentes de información secundaria, en cambio, se basan se basan en las primarias y les dan algún tipo de tratamiento, ya sea sintético, analítico, interpretativo o evaluativo, para proponer a su vez nuevas formas de información. Por ejemplo, si se investiga un evento histórico, las fuentes secundarias serian aquellos libros escritos al respecto tiempo después de ocurrido a lo ocurrido, basándose en fuentes primarias o directas si lo que se investiga como el ejemplo anterior, es un accidente, entonces un resumen un resumen de los testimonios de los testigos, escritos por la policía, constituye una fuente secundaria. Fuentes de Información Terciaria Se trata de aquellas que recopilan y comentan las fuentes primarias y/o secundarias, siendo así una lectura mixta de testimonios e interpretaciones, por ejemplo. Atendiendo al caso del accidente, una fuente terciaria al respecto sería el archivo policial completo, en el que figuran fotos, testimonios, etc.

228


REPRESENTACIÓN DE GRÁFICAS Existen muy diversos tipos de gráficas, generalmente aplicándose unas u otras en función de lo que se pretenda representar o simplemente de las preferencias del autor. A continuación, indicamos algunas de las más conocidas y comunes. 1. Gráfico de barras El más conocido y utilizado de todos los tipos de gráficos es el gráfico o diagrama de barras. En éste, se presentan los datos en forma de barras contenidas en dos ejes cartesianos (coordenada y abscisa) que indican los diferentes valores. El aspecto visual que nos indica los datos es la longitud de dichas barras, no siendo importante su grosor. Generalmente se emplea para representar la frecuencia de diferentes condiciones o variables discretas (por ejemplo, la frecuencia de los diferentes colores del iris en una muestra determinada, que solo pueden ser unos valores concretos). Únicamente se observa una variable en las abscisas, y las frecuencias en las coordenadas. 2. Gráfico circular o por sectores El también muy habitual gráfico en forma de “quesito”, en este caso la representación de los datos se lleva a cabo mediante la división de un círculo en tantas partes como valores de la variable investigada y teniendo cada parte un tamaño proporcional a su frecuencia dentro del total de los datos. Cada sector va a representar un valor de la variable con la que se trabaja. Este tipo de gráfico o diagrama es habitual cuando se está mostrando la proporción de casos dentro del total, utilizando para representarlo valores porcentuales (el porcentaje de cada valor). 3. Histograma Aunque a simple vista muy semejante al gráfico de barras, el histograma es uno de los tipos de gráfica que a nivel estadístico resulta más importante y fiable. En esta ocasión, también se utilizan barras para indicar a través de ejes cartesianos la frecuencia de determinados valores, pero en vez de limitarse a establecer la frecuencia de un valor concreto de la variable evaluada refleja todo un intervalo. Se observa pues un rango de valores, que además podrían llegar a reflejar intervalos de diferentes longitudes. Ello permite observar no solo la frecuencia sino también la dispersión de un continuo de valores, lo que a su vez puede ayudar a inferir la probabilidad. Generalmente se utiliza ante variables continuas, como el tiempo. 4. Gráfico de líneas En este tipo de gráfico se emplean líneas para delimitar el valor de una variable dependiente respecto a otra independiente. También puede usarse para comparar los valores de una misma variable o de diferentes investigaciones utilizando el mismo gráfico (usando diferentes líneas). Es usual que se emplee para observar la evolución de una variable a través del tiempo. Un ejemplo claro de este tipo de gráficos son los polígonos de frecuencias. Su funcionamiento es prácticamente idéntico al de los histogramas aunque utilizando puntos en vez de barras, con la excepción de que permite establecer la pendiente entre dos de dichos puntos y la comparación entre diferentes variables relacionadas con la independiente o entre los resultados de distintos experimentos con las mismas variables, como por ejemplo las medidas de una investigación respecto a los efectos de un tratamiento, observando los datos de una variable pretratamiento y postratamiento.

229


5. Gráfico de dispersión El gráfico de dispersión o gráfico xy es un tipo de gráfico en el cual mediante los ejes cartesianos se representa en forma de puntos todos los datos obtenidos mediante la observación. Los ejes x e y muestran cada uno los valores de una variable dependiente y otra independiente o dos variables de la que se esté observando si presentan algún tipo de relación. Los puntos representados el valor reflejado en cada observación, lo que a nivel visual dejará ver una nube de puntos a través de los cuales podemos observar el nivel de dispersión de los datos. Se puede observar si existe o no una relación entre las variables mediante el cálculo. Es el procedimiento que se suele usar, por ejemplo, para establecer la existencia de rectas de regresión lineal que permita determinar si hay relación entre variables e incluso el tipo de relación existente. 6. Gráfico de caja y bigotes Los gráficos de caja son uno de los tipos de gráficas que tienden a utilizarse de cara a observar la dispersión de los datos y cómo éstos agrupan sus valores. Se parte del cálculo de los cuartiles, los cuales son los valores que permiten dividir los datos en cuatro partes iguales. Así, podemos encontrar un total de tres cuartiles (el segundo de los cuales se corresponderían con la mediana de los datos) que van a configurar la “caja “en cuestión. Los llamados bigotes serían la representación gráfica de los valores extremos. Este gráfico es útil a la hora de evaluar intervalos, así como de observar el nivel de dispersión de los datos a partir de los valores de los cuartiles y los valores extremos. 7. Gráfico de áreas En este tipo de gráfico se observa, de manera semejante lo que ocurre con los gráficos de líneas, la relación entre variable dependiente e independiente. Inicialmente se hace una línea que une los puntos que marcan los diferentes valores de la variable medida, pero también se incluye todo lo situado por debajo: este tipo de gráfica nos permite ver la acumulación (un punto determinado incluye a los situados por debajo). A través de él se pueden medir y comparar los valores de diferentes muestras (por ejemplo, comparar los resultados obtenidos por dos personas, compañías, países, por dos registros de un mismo valor….). Los diferentes resultados pueden apilarse, observándose fácilmente las diferencias entre las diversas muestras. 8. Pictograma Se entiende por pictograma a un gráfico en el que, en vez de representar los datos a partir de elementos abstractos como barras o círculos, se emplean elementos propios del tema que se está investigando. De este modo se hace más visual. Sin embargo, su funcionamiento es semejante al del gráfico de barras, representando frecuencias de la misma manera 9. Cartograma Este gráfico resulta de utilidad en el terreno de la epidemiología, indicando las zonas o áreas geográficas en las que aparece con mayor o menor frecuencia un determinado valor de una variable. Las frecuencias o rangos de frecuencias se indican mediante el uso del color (requiriéndose una leyenda para comprenderse) o el tamaño.

230


10. Gráfico de anillos Un gráfico de anillos es esencialmente un gráfico de sectores con un área del centro cortada. Sin embargo, los gráficos de anillos tienen una ligera ventaja sobre los gráficos de sectores, que a veces son criticados por centrarse en los tamaños relativos de las piezas entre sí y a la carta en su conjunto, sin dar ninguna indicación de los cambios en comparación con otros gráficos circulares. Un gráfico de anillos aborda parcialmente este problema de énfasis, para que el espectador se centre más en los cambios de los valores globales, prestando atención a la lectura de la longitud de los arcos, en lugar de comparar las proporciones entre las rebanadas. También los gráficos de anillos pueden ocupar menos espacio, con la ventaja sobre los gráficos de sectores de prestarse a mostrar información también en su espacio interior en blanco. 11. Histograma Es una gráfica de la distribución de un conjunto de datos. Es un tipo especial de gráfica de barras, en la cual una barra va pegada a la otra, es decir no hay espacio entre las barras. Cada barra representa un subconjunto de los datos. Muestra la acumulación o tendencia, la variabilidad o dispersión y la forma de la distribución. 12. Polígono de Frecuencia Es un gráfico que se obtiene a partir de un histograma, uniendo los puntos medios de los techos, o bases superiores, de los rectángulos. Se acostumbra a prolongar el polígono hasta puntos de frecuencia cero. Un polígono de frecuencia permite ver con gran claridad las variaciones de la frecuencia de una clase a otra. Son muy útiles cuando se pretende comparar dos o más distribuciones, ya que, así como es difícil representar dos o más histogramas en un mismo gráfico, resulta muy sencillo hacerlo con dos o más polígonos de frecuencias. La suma de las áreas de los rectángulos de un histograma de amplitud constante, es igual al área limitada por el polígono de frecuencias y el eje X. 13. Ojiva Es el polígono frecuencial acumulado, es decir, que permite ver cuántas observaciones se encuentran por encima o debajo de ciertos valores, en lugar de solo exhibir los números asignados a cada intervalo. La ojiva apropiada para información que presente frecuencias mayores que el dato que se está comparando tendrá una pendiente negativa (hacia abajo y a la derecha) y en cambio la que se asigna a valores menores, tendrá una pendiente positiva. Una gráfica similar al polígono de frecuencias es la ojiva, pero ésta se obtiene de aplicar parcialmente la misma técnica a una distribución acumulativa y de igual manera que éstas, existen las ojivas "mayor que" y las ojivas "menor que".

INTERPOLACIONES La interpolación lineal es un procedimiento muy utilizado para estimar los valores que toma una función en un intervalo del cual conocemos sus valores en los extremos (x1, f(x1)) y (x2,f(x2)). Para estimar este valor utilizamos la aproximación a la función f(x) por medio de una recta r(x) (de ahí el nombre de interpolación lineal, ya que también existe la interpolación cuadrática). La expresión de la interpolación lineal se obtiene del polinomio interpolador de Newton de grado uno.

231


Recta de Interpolación Lineal Veamos los pasos que tenemos que seguir para hallar la recta de regresión: • 1º. Dados los puntos de la función (x1, y1) y (x2, y2), queremos estimar el valor de la función en un punto x en el intervalo x1<x<x2. •

2º. Para hallar la recta de interpolación nos fijaremos en la siguiente imagen: Para ello utilizamos la semejanza de los triángulos ABD y CAE, obteniendo la siguiente proporcionalidad de segmentos: AB/AC=BD/CE.

3º. Despejando el segmento BD (ya que el punto D es el que desconocemos) obtenemos: BD=(AB/AC)∙CE. Traduciendo al lenguaje algebraico obtenemos que:

Y despejando y, obtenemos:

La misma expresión que se obtiene al utilizar el polinomio interpolador de Newton que ya habíamos comentado. Recordad que y1=f(x1) y análogamente y2=f(x2).

Representación Tallo Hoja Permite obtener simultáneamente una distribución de frecuencias de la variable y su representación gráfica. Para construirlo basta separar en cada dato el último dígito de la derecha (que constituye la hoja) del bloque de cifras restantes (que formará el tallo). El diagrama de tallo y hojas (Stem-and-Leaf Diagram) es un semigráfico que permite presentar la distribución de una variable cuantitativa. Consiste en separar cada dato en el último dígito (que se denomina hoja) y las cifras delanteras restantes (que forman el tallo).

Es especialmente útil para conjuntos de datos de tamaño medio (entre 20 y 50 elementos) y que sus datos no se agrupan alrededor de un único tallo. Con él podemos hacernos la idea de qué distribución tienen los datos, la asimetría, etc.

El nombre de tallo y hojas hace referencia a la ramificación de una planta, siendo los dígitos delanteros marcan el tallo donde se encuentra el número y el dígito final la hoja.

TABLAS DE FRECUENCIA Es una tabla que muestra la distribución de los datos mediante sus frecuencias. Se utiliza para variables cuantitativas o cualitativas ordinales. Es una herramienta que permite ordenar los datos de manera que se presentan numéricamente las características de la distribución de un conjunto de datos o muestra.

232


Construcción de la Tabla de Frecuencias 1. En la primera columna se ordenan de menor a mayor los diferentes valores que tiene la variable en el conjunto de datos. 2. En las siguientes columnas (segunda y tercera) se ponen las frecuencias absolutas y las frecuencias absolutas acumuladas. 3. Las columnas cuarta y quinta contienen la las frecuencias relativas y las frecuencias relativas acumuladas. 4. Adicionalmente (opcional) se pueden incluir dos columnas (sexta y séptima), representando la frecuencia relativa y la frecuencia relativa acumulada como tanto por cien. Estos porcentajes se obtienen multiplicando las dos frecuencias por cien. Elementos de las Tablas de Frecuencias • Datos: Los datos son los valores de la muestra recogida en el estudio estadístico •

Frecuencia absoluta: La frecuencia absoluta (ni) es el número de veces que aparece un determinado valor en un estudio estadístico. Número de veces que se repite el í-esimo valor de la variable. La suma de las frecuencias absolutas es igual al número total de datos, que se representa por n

Frecuencia absoluta acumulada: La Frecuencia absoluta acumulada (Ni) es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valor considerado. o N1 = n1 o N2 = n1 + n2 = N1 + n2 o N3 = n1 + n2 + n3 = N2 + n3 o Nk = n. Se interpreta como el número de observaciones menores o iguales al í-esimo valor de la variable.

Frecuencia relativa: La frecuencia relativa (fi) es la proporción de veces que se repite un determinado dato. La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos. o fi = ni/n o La suma de las frecuencias relativas es igual a 1.

Frecuencia relativa acumulada: La frecuencia relativa acumulada (Fi) es el número de observaciones menores o iguales al í-esimo valor de la variable pero en forma relativa. o F1 = fl o F2 = f1+ f2 = F1 + f2 o F3 = f1+ f2 + f3 = F2 + f3 o Fk = 1

Tabla de frecuencia de datos no agrupados Los datos no agrupados son las de observaciones realizadas en un estudio estadístico que se presentan en su forma original tal y como fueron recolectados, para obtener información directamente de ellos. La Tabla de frecuencia de datos no agrupados indica las frecuencias con que aparecen los datos estadísticos sin que se haya hecho ninguna modificación al tamaño de las unidades originales. En estas distribuciones cada dato mantiene su propia identidad después que la distribución de

233


frecuencia se ha elaborado. En estas distribuciones los valores de cada variable han sido solamente reagrupados, siguiendo un orden lógico con sus respectivas frecuencias. La tabla de frecuencias de datos no agrupados se emplea si las variables toman un número pequeños de valores o la variable es discreta. Tabla de frecuencia de datos agrupados La Tabla de frecuencia de datos agrupados aquella distribución en la que los datos estadísticos se encuentran ordenados en clases y con la frecuencia de cada clase; es decir, los datos originales de varios valores adyacentes del conjunto se combinan para formar un intervalo de clase. La tabla de frecuencias agrupadas se emplea generalmente si las variables toman un número grande de valores o la variable es continua. En este caso se agrupan los valores en intervalos que tengan la misma amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Las clases deben ser excluyentes y exhaustivas, es decir que cada elemento de la muestra debe pertenecer a una sola clase y a su vez, todo elemento debe pertenecer a alguna clase. Cada clase está delimitada por el límite inferior de la clase y el límite superior de la clase. Los intervalos se forman teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el límite superior no pertenece intervalo, se cuenta en el siguiente intervalo. No existe una regla fija de cuantos son los intervalos que se deben hacer; hay diferentes criterios, la literatura especializada recomienda considerar entre 5 y 20 intervalos. El número de intervalos se representa por la letra "K". El Recorrido es el límite dentro del cual están comprendidos todos los valores de la serie de datos,. Es la diferencia entre el valor máximo de una variable y el valor mínimo que ésta toma en una investigación cualquiera. R = Xmax. - Xmin. La Amplitud de la clase es la diferencia entre el límite superior e inferior de la clase y se representarán por "Ci" Ci = R/K Se considerará la misma amplitud para todos los intervalos. La Marcas de clases (Xi) representa a la variable a través de un valor. Se calcula como el punto medio de cada clase, o bien la semi suma de la clase La tabla de frecuencias puede representarse gráficamente en un histograma. Normalmente en el eje vertical se coloca las frecuencias y en el horizontal los intervalos de valores.

MEDIDAS DE TENDENCIA CENTRAL Promedio o Media La media de tendencia central, más conocida y utilizada en la media aritmética o promedio aritmético. Se presenta por la letra griega µ cuando se trata del promedio del universo o población y por Ȳ cuando se trata del promedio de la muestra.

234


Series Simples En primer término, es necesario definir lo que se entiende por una serie estadística y posteriormente se hará lo mismo para las series estadísticas simples y agrupadas. Series estadísticas de observaciones cuantitativas. Cuando ya se ha efectuado el proceso de recolección de la información cuantitativa, esta debe ser organizada para poder manejarla eficientemente y efectuar su óptimo análisis. La manera en que ha de organizarse la información, depende en gran parte del volumen de información recabada. Cuando ya se ha efectuado el proceso de recolección de la información cuantitativa, esta debe ser organizada para poder manejarla eficientemente y efectuar su óptimo análisis. La manera en que ha de organizarse la información, depende en gran parte del volumen de información recabada. Esto es, la información se organiza mediante series estadísticas, que según el número de datos pueden clasificarse en simples o agrupadas. En primer término, es necesario definir lo que se entiende por una serie estadística y posteriormente se hará lo mismo para las series estadísticas simples y agrupadas. Se catalogan así a las series en las que, a cada dato del hecho estudiado, se le asigna de manera unívoca el valor extraído de la observación. En otras palabras, debido a que se cuenta con pocos elementos, será posible indicar qué valor de la característica de interés pertenece a determinado sujeto; o bien, cuando se cuente con pocos datos, estos pueden ser manejados con facilidad en forma de listado. Datos agrupados y sus medidas estadísticas Cuando los valores de la variable son muchos, conviene agrupar los datos en intervalos o clases para así realizar un mejor análisis e interpretación de ellos. • Para construir una tabla de frecuencias con datos agrupados, conociendo los intervalos, se debe determinar la frecuencia absoluta (fi) correspondiente a cada intervalo, contando la cantidad de datos cuyo valor está entre los extremos del intervalo. Luego se calculan las frecuencias relativas y acumuladas, si es pertinente. • Si no se conocen los intervalos, se pueden determinar de la siguiente manera: (recuerda que los intervalos de clase se emplean si las variables toman un número grande de valores o la variable es continua). - Se busca el valor máximo de la variable y el valor mínimo. Con estos datos se determina el rango. - Se divide el rango en la cantidad de intervalos que se desea tener, (por lo general se determinan 5 intervalos de lo contrario es ideal que sea un numero impar por ejemplo 5, 7, 9) obteniéndose así la amplitud o tamaño de cada intervalo. - Comenzando por el mínimo valor de la variable, que será el extremo inferior del primer intervalo, se suma a este valor la amplitud para obtener el extremo superior y así sucesivamente. • Otra forma de calcular la cantidad de intervalos es aplicando los siguientes métodos: Método Sturges: k = 1 + 3,332 log n donde: k= número de clases n= tamaño muestral

235


Debemos tener en cuenta 2 cosas. Primero que el número de intervalos me tiene que dar impar, segundo que el resultado se redondea generalmente a la baja. Si al redondear a la baja nos da como resultado un número par debemos redondear al alza. Este es el método que tiene mayor precisión.

MEDIDAS ESTADÍSTICAS Y SUS DATOS AGRUPADOS 1. Media Aritmética Por Datos Agrupados Se calcula sumando todos los productos de marca clase con la frecuencia absoluta respectiva y su resultado dividirlo por el número total de datos:

2. Moda Es el valor que representa la mayor frecuencia absoluta. En tablas de frecuencias con datos agrupados, hablaremos de intervalo modal. La moda se representa por Mo. Todos los intervalos tienen la misma amplitud.

3. Mediana Es el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a mayor. La mediana se representa por Me. La mediana se puede hallar sólo para variables cuantitativas. Cálculo de la mediana para datos agrupados La mediana se encuentra en el intervalo donde la frecuencia acumulada llega hasta la mitad de la suma de las frecuencias absolutas. Es decir, tenemos que buscar el intervalo en el que se encuentre: N/2. Luego calculamos según la siguiente fórmula:

FORMULAS ESTADÍSTICAS PARA DATOS AGRUPADOS • Media La media se calcula usando la siguiente fórmula:

Ejemplo 1 Determina la media de la siguiente distribución:

236


Dado que tenemos 5 intervalos, la media la calculamos usando la fórmula:

En la tabla, agregamos una columna donde colocaremos todos los valores de x.f :

Calculamos los valores de x.f :

Finalmente, calculamos el valor de la media, dividiendo la suma de valores de la columna x.f entre n.

El valor de la media sería 9,810. • Mediana Para estimar la mediana, hay que seguir 2 pasos: Encontrar el intervalo en el que se encuentra la mediana usando la fórmula:

Usar la fórmula de la mediana:

Donde: Li: límite inferior del intervalo en el cual se encuentra la mediana. n: número de datos del estudio. Es la sumatoria de las frecuencias absolutas. Fi-1: frecuencia acumulada del intervalo anterior al que se encuentra la mediana. Ai: amplitud del intervalo en el que se encuentra la mediana. fi: frecuencia absoluta del intervalo en el que se encuentra la mediana. Ejemplo 2 Encontrar la mediana de la siguiente distribución:

237


Para estimar el valor de la mediana, seguimos los 2 pasos. Primero encontramos el intervalo en el cual se encuentra la mediana usando la fórmula:

Este valor, lo buscamos en la columna de frecuencias acumuladas. Si no aparece, buscamos el valor que sigue. Como vemos, después del 11 sigue el 14, por lo tanto, la mediana se ubica en el intervalo 3.

Ahora, aplicamos la fórmula de la mediana:

El valor de la mediana, sería: Me = 9,667. • Moda Para estimar la moda, se siguen los siguientes pasos: Encontrar el intervalo en el cual se encuentra la moda, que es el intervalo con mayor frecuencia absoluta. Usar la siguiente fórmula para estimar el valor de la moda:

Donde: Li: límite inferior del intervalo en el cual se encuentra la moda. fi-1: frecuencia absoluta del intervalo anterior en el que se encuentra la moda. fi: frecuencia absoluta del intervalo en el que se encuentra la moda. fi+1: frecuencia absoluta del intervalo siguiente en el que se encuentra la moda. Ai: amplitud del intervalo en el que se encuentra la moda. Ejemplo 3 Encontrar la moda de la siguiente distribución:

238


Primero, encontramos el intervalo en el cual se encuentra la moda, es decir, el intervalo con mayor frecuencia absoluta. El intervalo 3, tiene la mayor frecuencia absoluta (6), por lo tanto, aquí se encontrará la moda.

Ahora, aplicamos la fórmula para estimar la moda:

Por lo tanto, el valor de la moda sería: Mo = 9,333.

MEDIDAS DE DISPERSIÓN PARA SERIES SIMPLES Medidas de dispersión. Parámetros estadísticos que indican como se alejan los datos respecto de la media aritmética. Sirven como indicador de la variabilidad de los datos. Las medidas de dispersión más utilizadas son el rango, la desviación estándar y la varianza Rango: Indica la dispersión entre los valores extremos de una variable. se calcula como la diferencia entre el mayor y el menor valor de la variable. Se denota como R.

Desviación Media: Es la media aritmética de los valores absolutos de las diferencias de cada dato respecto a la media.

Desviación Estándar: La desviación estándar mide el grado de dispersión de los datos con respecto a la media, se denota como s para una muestra o como σ para la población. Varianza: Es otro parámetro utilizado para medir la dispersión de los valores de una variable respecto a la media. Corresponde a la media aritmética de los cuadrados de las desviaciones respecto a la media. Su expresión matemática es:

239


Coeficiente de Variación: Permite determinar la razón existente entre la desviación estándar (s) y la media. Se denota como CV. El coeficiente de variación permite decidir con mayor claridad sobre la dispersión de los datos.

LOS DATOS AGRUPADOS Y SUS MEDIDAS ESTADÍSTICAS Cuando los valores de la variable son muchos, conviene agrupar los datos en intervalos o clases para así realizar un mejor análisis e interpretación de ellos. •Para construir una tabla de frecuencias con datos agrupados, conociendo los intervalos, se debe determinar la frecuencia absoluta (fi) correspondiente a cada intervalo, contando la cantidad de datos cuyo valor está entre los extremos del intervalo. Luego se calculan las frecuencias relativas y acumuladas, si es pertinente. • Si no se conocen los intervalos, se pueden determinar de la siguiente manera: (recuerda que los intervalos de clase se emplean si las variables toman un número grande de valores o la variable es continua). Se busca el valor máximo de la variable y el valor mínimo. Con estos datos se determina el rango. Se divide el rango en la cantidad de intervalos que se desea tener,(por lo general se determinan 5 intervalos de lo contrario es ideal que sea un numero impar por ejemplo 5, 7, 9) obteniéndose así la amplitud o tamaño de cada intervalo. Comenzando por el mínimo valor de la variable, que será el extremo inferior del primer intervalo, se suma a este valor la amplitud para obtener el extremo superior y así sucesivamente. • Otra forma de calcular la cantidad de intervalos es aplicando los siguientes métodos: Método Sturges: k = 1 + 3,332 log n donde: k= número de clases n= tamaño muestral Debemos tener en cuenta 2 cosas. Primero que el número de intervalos me tiene que dar impar, segundo que el resultado se redondea generalmente a la baja. Si al redondear a la baja nos da como resultado un número par debemos redondear al alza. Este es el método que tiene mayor precisión. Método Empírico: este método depende del criterio del evaluador de los datos, por lo tanto es arbitrario. Dice lo siguiente. 5 ≥ k ≥ 20

240


ASIMETRÍA La simetría de una distribución de frecuencias hace referencia al grado en que valores de la variable, equidistantes a un valor que se considere centro de la distribución, poseen frecuencias similares. Es un concepto más intuitivo a nivel visual, especialmente, si se observa una representación gráfica (diagrama de barras, histograma…) de la distribución de frecuencias. Ésta será simétrica si la mitad izquierda de la distribución es la imagen especular de la mitad derecha. Media y mediana coinciden en las distribuciones simétricas. Si sólo hay una moda (distribución unimodal), el valor de ésta también será igual a las dos anteriores. En distribuciones unimodales, el nivel de simetría se suele describir de acuerdo a tres grandes categorías: distribuciones simétricas, distribuciones asimétricas positivas (o sesgada a la derecha) y distribuciones asimétricas negativas (o sesgada a la izquierda). Tomando como eje de referencia a la moda, estas categorías de asimetría vienen definidas por el diferente grado de dispersión de los datos a ambos lados (colas) de ese eje virtual. La cola más dispersa en el lado de los valores altos de la variable caracteriza a la asimetría positiva; si en el lado de los más bajos, a la asimetría negativa; y si la dispersión es igual o muy similar a ambos lados, a una distribución de frecuencias simétrica. En caso de asimetría, los valores de la media, mediana y moda difieren. En concreto si la asimetría es positiva: media>mediana>moda. Si la asimetría es negativa: media<mediana<moda.

A continuación, se presentan diferentes índices estadísticos que permiten cuantificar el nivel de asimetría de una variable. Destacar antes que para variables nominales no tiene sentido el plantear este tipo de índices, dado que no existe un orden intrínseco a los valores de la variable. • Índice de asimetría para variables ordinales: Se basa en las distancias entre los cuartiles a fin de establecer un resumen de la asimetría de la distribución.

NOTA: oscila entre -1 y 1 lo cual facilita la comprensión.

• Índice de asimetría para variables cuantitativas: Primer coeficiente de Pearson: se basa en la relación existente entre la media y la moda en distribuciones unimodales asimétricas.

Interpretación del coeficiente de Pearson: los valores menores que 0 indican asimetría negativa; los mayores, asimetría positiva y cuando sea cero, o muy próximo a cero, simétrica. No está limitado a un rango de valores.

241


• Coeficiente de asimetría de Fisher: Se basa en las desviaciones de los valores observados respecto a la media. La interpretación de los resultados proporcionados por este coeficiente es igual a la del primer coeficiente de Pearson.

Y para el caso de datos tabulados:

Acorde al tipo de variable que nos ocupa, El histograma representa la mejor opción en la visualización de la asimetría de una variable, por otro lado, el diagrama de caja y bigotes (boxplot) también constituye una opción válida para tal fin. A continuación, se presenta un ejemplo con ambos tipos de gráficos superpuestos, en que se muestran 3 variables que ilustran distribuciones con diferente nivel de asimetría:

CURTOSIS El apuntamiento o curtosis de una distribución de frecuencias no tiene un referente natural como en el caso de la simetría, sino que se sustenta en la comparación respecto a una distribución de referencia, en concreto, la distribución normal o campana de Gauss. En consecuencia, su obtención sólo tendrá sentido en variables cuya distribución de frecuencias sea similar a la de la curva normal – en la práctica ello se reduce, básicamente, a que sea unimodal y más o menos simétrica. El apuntamiento expresa el grado en que una distribución acumula casos en sus colas en comparación con los casos acumulados en las colas de una distribución normal cuya dispersión sea equivalente. Así, de forma análoga a la asimetría, se diferencian 3 grandes categorías de apuntamiento: 1. Distribución platicúrtica (apuntamiento negativo): indica que en sus colas hay más casos acumulados que en las colas de una distribución normal. 2. Distribución leptocúrtica (apuntamiento positivo): justo lo contrario. 3. Distribución mesocúrtica (apuntamiento normal): como en la distribución normal. Coeficiente de apuntamiento de Fisher para variables cuantitativas: se basa en las desviaciones de los valores observados respecto a la media.

Y para el caso de datos tabulados:

242


Interpretación: el valor de este coeficiente para la distribución normal será igual a 0, o sea que cualquier distribución para la que se obtenga un valor de K igual o próximo a 0 significará que su nivel de apuntamiento es como el de la distribución normal (mesocúrtica). Valores mayores que 0, expresan que la distribución es leptocúrtica, mientras que si son menores que 0 ponen de manifiesto que la distribución es platicúrtica. No está limitado a un rango de valores. Curva de Lorenz Es una forma gráfica de mostrar la distribución de la renta en una población. En ella se relacionan los porcentajes de población (abscisas) con porcentajes de la renta (ordenadas) que esta población recibe. En la curva de Lorenz en el eje de abscisas, por tanto, se representa la población «ordenada» de forma que los percentiles de renta más baja quedan a la izquierda y los de renta más alta quedan a la derecha. El eje de ordenadas representa las rentas. Índice de Gini Mide el grado de la distribución de la renta (o del consumo) entre los individuos de un país con respecto a una distribución con perfecta igualdad. El índice de Gini mide la concentración de la renta. Su valor puede estar entre cero y uno. Cuanto más próximo a uno sea el índice Gini, mayor será la concentración de la riqueza; cuanto más próximo a cero, más equitativa es la distribución de la renta en ese país. El valor 0 representa la igualdad perfecta y el 1, la desigualdad total. Son dos indicadores relacionados entre sí que miden el grado de distribución de la renta en un país.

Teorema de Chebyschev La desigualdad de Chebyshev es un teorema utilizado en estadística que proporciona una estimación conservadora (intervalo de confianza) de la probabilidad de que una variable aleatoria con varianza finita, se sitúe a una cierta distancia de su esperanza matemática o de su media. Su expresión formal es la siguiente:

X = Valor estimado µ = Esperanza matemática del valor estimado Ϭ = Desviación típica del valor esperado k = Número de desviaciones típicas Partiendo de esta expresión general y desarrollando la parte que queda dentro del valor absoluto tendríamos lo siguiente:

Si prestamos atención a la expresión anterior, se aprecia que la parte de la izquierda no es más es un intervalo de confianza. Este nos ofrece tanto una cota inferior, como una superior para el valor estimado. Por lo tanto, la desigualdad de Chebyshev nos dice la probabilidad mínima, de que el

243


parámetro poblacional se encuentre dentro de una determinada cantidad de desviaciones típicas por encima o por debajo de su media. O dicho de otra manera, nos da la probabilidad de que de que el parámetro poblacional se encuentre dentro de ese intervalo de confianza. La desigualdad de Chebyshev proporciona cotas aproximadas para el valor estimado. A pesar de tener cierto grado de imprecisión, es un teorema bastante útil dado que se puede aplicar a un amplio abanico de variables aleatorias independientemente de sus distribuciones. La única restricción para poder utilizar esta desigualdad es que k tiene que ser mayor que 1 (k>1). Formula del Teorema de Chebyshev Para poder investigar este teorema, primero es necesario comparar los cálculos con la regla general 68-95-99.7 para distribuciones normales. Dado que esos números representan los datos que se encuentran dentro de los límites, se utiliza la desigualdad de Chebysgev para los datos dentro de los límites. Esta fórmula es la siguiente: Probabilidad = 1 – (1 / k 2) Donde, matemáticamente, los valores menores o iguales a 1 no son válidos para este cálculo. Sin embargo, conectar los valores de k para 2 y 3 es más simple de lo que parece. En esos casos de 2 y 3, el Teorema de Chebyshev establece que al menos el 75% de los datos caerán dentro de las 2 desviaciones estándar de la media y se espera que el 89% de los datos caigan dentro de las 3 desviaciones estándar de la media. Esto es menos preciso que los 95% y 99.7% que se pueden usar para una distribución normal conocida; sin embargo, el Teorema de Chebyshev es cierta para todas las distribuciones de los datos, no solo para una distribución normal.

Transformación de Variables Una transformación pudiera ser necesaria cuando los residuos exhiban varianza no constante o no normalidad. Las transformaciones también pudieran ser útiles cuando el modelo exhibe una falta de ajuste significativa, lo cual es particularmente importante en los experimentos de análisis de superficie de respuesta. Supongamos que usted incluye todas las interacciones significativas y los términos cuadráticos en el modelo, pero la prueba de falta de ajuste indica la necesidad de términos de orden más alto. Una transformación puede eliminar la falta de ajuste. Si la transformación corrige el problema, usted puede utilizar el análisis de regresión en lugar de otros análisis, posiblemente más complicados. Un texto apropiado sobre regresión o análisis de experimentos diseñados puede ofrecer una orientación adecuada con respecto a cuáles transformaciones resuelven diferentes problemas. La transformación de Box-Cox es la transformación de estabilización de la varianza utilizada con más frecuencia.

244


Datos no transformados En esta gráfica, los residuos exhiben una varianza no constante.

Datos transformados Esta gráfica muestra los residuos después de la transformación de estabilización de la varianza. La escala de valores ajustados (eje X) cambia y la varianza se hace constante.

Gráficos de cajas Es un método estandarizado para representar gráficamente una serie de datos numéricos a través de sus cuartiles. De esta manera, el diagrama de caja muestra a simple vista la mediana y los cuartiles de los datos, pudiendo también representar los valores atípicos de estos. Componentes del diagrama de caja El diagrama de caja es compuesto de los siguientes elementos: • Rango (sin datos atípicos) • Datos atípicos. • Rango intercuartil (también conocido como RIC) • Cuartiles (denotados como Q1, Q2 y Q3) • Mediana (Q2) • Mínimo y máximo. Elaboración manual del diagrama de caja Para la elaboración de manera manual de este tipo de gráfico, primero obtenemos la media de cada intervalo, y luego la mediana de la tabla de frecuencias en general. Con estos datos utilizamos la fórmula de la media de cada intervalo elevado a la mediana. Los datos obtenidos en esta fórmula son la interpretación.

Ordenar los datos y obtener el valor mínimo, el máximo, los cuartiles Q1, Q2 y Q3 y el rango intercuartílico (RIC): En el ejemplo, para trazar la caja: Valor 7: es el Q1 (25% de los datos) Valor 8.5: es el Q2 o mediana (el 50% de los datos) Valor 9: es el Q3 (75% de los datos) Rango intercuartílico (Q3–Q1)

245


Los «bigotes», las líneas que se extienden desde la caja, se extienden hasta los valores máximo y mínimo de la serie o hasta 1,5 veces el RIC. Cuando los datos se extienden más allá de esto, significa que hay valores atípicos en la serie y entonces hay que calcular los límites superior e inferior, Li y Ls. Para ello, se consideran atípicos los valores inferiores a Q1–1.5·RIC o superiores a Q3+1.5·RIC. En el ejemplo: inferior: 7–1.5·2 = 4 superior: 9+1.5·2 = 12 Ahora se buscan los últimos valores que no son atípicos, que serán los extremos de los bigotes. En el ejemplo: 4 y 12 Marcar como atípicos todos los datos que están fuera del intervalo (Li, Ls). En el ejemplo: 0,5 y 2,5 Además, se pueden considerar valores extremadamente atípicos aquellos que exceden Q1–3·RIC o Q3+3·RIC. De modo que, en el ejemplo: inferior: 7–3·2 = 1 superior: 9+3·2 = 15 Utilidad Proporcionan una visión general de la simetría de la distribución de los datos; si la mediana no está en el centro del rectángulo, la distribución no es simétrica. Son útiles para ver la presencia de valores atípicos también llamados outliers. Pertenece a las herramientas de las estadísticas descriptivas. Permite ver como es la dispersión de los puntos con la mediana, los percentiles 25 y 75 y los valores máximos y mínimos. Ponen en una sola dimensión los datos de un histograma, facilitando así el análisis de la información al detectar que el 50% de la población está en los límites de la caja.

CÁLCULO DE PROBABILIDADES • • •

246

La probabilidad mide la mayor o menor posibilidad de que se dé un determinado resultado (suceso o evento) cuando se realiza un experimento aleatorio. Para calcular la probabilidad de un evento se toma en cuenta todos los casos posibles de ocurrencia del mismo; es decir, de cuántas formas puede ocurrir determinada situación. Los casos favorables de ocurrencia de un evento serán los que cumplan con la condición que estamos buscando.


• • • •

La probabilidad toma valores entre 0 y 1 (o expresados en tanto por ciento, entre 0% y 100%): El valor cero corresponde al suceso imposible; ejemplo: lanzamos un dado al aire y la probabilidad de que salga el número 7 es cero. El valor uno corresponde al suceso seguro, ejemplo: lanzamos un dado al aire y la probabilidad de que salga cualquier número del 1 al 6 es igual a uno (100%). El resto de sucesos tendrá probabilidades entre cero y uno: que será tanto mayor cuanto más probable sea que dicho suceso tenga lugar.

Eventos Compuestos Evento que incluye dos o más eventos independientes. Un ejemplo es el evento de obtener el mismo lado (la misma cara) al lanzar dos veces una moneda. El resultado del primer lanzamiento no afecta al segundo resultado. Es necesario considerar ambos resultados para determinar el resultado final. En el mundo de las probabilidades, los eventos compuestos son probabilidades de dos o más cosas que pasan al mismo tiempo. Por ejemplo ¿cuál es la probabilidad de que se te olvide hacer la tarea y de que haya un examen sorpresa en la clase?

247


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.