Física aplicada a la Arquitectura
[
HERNAN SANTIAGO NOTTOLI
]
nobuko
Armado digital: Florencia Turek Hecho el depósito que marca la ley 11.723 Impreso en Argentina / Printed in Argentina La reproducción total o parcial de este libro, en cualquier forma que sea, idéntica o modificada, no autorizada por los autores, viola derechos reservados; cualquier utilización debe ser previamente solicitada.
ISBN 987-1135-41-6 © nobuko Enero 2004 En Argentina, venta en: LIBRERIA TECNICA Florida 683 - Local 13 - C1005AAM Buenos Aires - Argentina Tel: (54 11) 4314-6303 - Fax: 4314-7135 E-mail:
[email protected] - www.cp67.com ♦ FADU - Ciudad Universitaria Pabellón 3 - Planta Baja - C1428EHA Buenos Aires - Argentina Tel: (54 11) 4786-7244 ♦ La Librería del Museo (MNBA) Av. Del Libertador 1473 - C1425AAA Buenos Aires - Argentina Tel: (54 11) 4807-4178 En México, venta en: LIBRERIAS JUAN O’GORMAN Av. Constituyentes 800 - Col. Lomas Altas, C.P. 11950 México D.F. Tel: (52 55) 5259-9004 - T/F. 5259-9015 E-mail:
[email protected] - www.j-ogorman.com Sucursales: ♦ Av. Veracruz 24 - Col. Condesa, C.P. 06400 México D.F. Tel: (52 55) 5211-0699 ♦ Abasolo 907 Ote. - Barrio antiguo, C.P. 64000 Monterrey, N.L. Tel: (52 81) 8340-3095 ♦ Lerdo de Tejada 2076 - Col. Americana, C.P. 44160 Guadalajara, Jal. Tel: (52 33) 3616-4430
Indice PROLOGO ______________________________5 INTRODUCCION GENERAL ________________7 CAPITULO I
Hidrostática _______________25
CAPITULO II
Hidrodinámica _____________39
CAPITULO III
Calor _____________________55
CAPITULO IV
Acústica __________________93
CAPITULO V
Electricidad_______________127
CAPITULO VI
Iluminación _______________159
CAPITULO VII Iluminación artificial _______183 CAPITULO VIII Iluminación natural ________193 CAPITULO IX
Uso racional de la energía __241
TRABAJOS PRACTICOS _________________285 TABLAS _______________________________329
Prólogo Este libro es el resultado de varios años de docencia en la Facultad de Arquitectura, Diseño y Urbanismo (FADU) de la Universidad de Buenos Aires, dedicados a la enseñanza de las distintas ramas de la Física que tienen relación con el quehacer arquitectónico y el diseño. Pero todo libro es una síntesis de largos años de estudio, investigación y numerosas experiencias enseñando y aprendiendo, lo que luego se condensará en una reducida cantidad de hojas. Y al margen de la vocación de escribir, suele haber algún disparador que genera la idea de abocarse a un tema en particular, por encima de tantos otros que rondan la mente. En este caso particular se han conjugado algunos factores significativos para decidirme a escribir las páginas que siguen. Por un lado, no existe una bibliografía que siga estrictamente los temarios programáticos que se enseñan en la FADU, y que responden básicamente a proveer al estudiante de los conocimientos necesarios elementales, que luego deberá aplicar y usar en el desarrollo del aprendizaje de los sistemas de instalaciones de un edificio. Por otra parte, los libros tradicionales de física no apuntan, como es deseable en esta instancia, a ilustrar los conceptos con casos de aplicación en el campo arquitectónico o del diseño en general. Por ello, y sin abrir juicio sobre los méritos que puedan contener las páginas de este libro, tarea que quedará para los lectores y los críticos, se destaca la propuesta de ver desde un ángulo distinto del tradicional, la enseñanza de la Física elemental dirigida en este caso, a los diseñadores. Pero también existen otros factores significativos y desencadenantes, que dan lugar a la aparición de una obra escrita. En el caso de este libro lo fue sin dudas la disponibilidad de contar con una detallada, precisa y meticulosa versión escrita de las clases al frente de mis alumnos. Y el mérito de haber tomado esos apuntes y de habérmelos facilitado para generar los primeros borradores, se debe a un destacado discípulo, el hoy Arq. Aldo Carou a quién expreso mi particular agradecimiento por su aporte eficaz y desinteresado. En este punto ha sido también invalorable el trabajo de corrección de pruebas previas del Prof. Tomás Jaliquias, quién aportó incluso ideas y conceptos destacables.
5
En la transcripción de todo el material y la ejecución de gráficos agradezco el trabajo minucioso y eficiente realizado por la Arqta. Carmen Perrini de la FADU. Muchos otros han contribuido a gestar este trabajo y destaco especialmente el aporte del Arq. Juan Gil en el capítulo sobre Uso racional de la Energía, ya que los conceptos allí vertidos son en gran medida de su autoría. También el Diseñador Industrial Martín Gil merece en ese tema mi reconocimiento por su apoyo en la narración e ilustraciones. Me permito nombrar en la lista que consigno al final de estas reflexiones iniciales a otros distinguidos colaboradores, sin destacar ex profeso méritos y participación específica, pues todos han sido generosos para conmigo, y partícipes ineludibles y eficaces en la elaboración de material que pusieron a mi disposición, junto a sus atendibles sugerencias y reflexiones sobre este libro. Me disculpo con aquéllos que también han contribuido a mi trabajo y que por un pecado de memoria infiel, no se mencionen taxativamente. H. N. Buenos Aires, diciembre de 2001 Agradecimientos: Arq. Guillermo O. Gini Prof. Jorge Blumenfarb Sr. Eduardo Tommasi Sr. Carlos Darío Perez
6
¿Einstein? ¿O Cristo? ¿Mi pronóstico? ¿Dicotomía? ¿Simbiosis? Lo que se ve claramente o se ve a medias Y el Hombre atrapado en el medio Es la Piel que recibe el Sol Atravesada por los diversos Misterios; Donde la metafísica se vuelve sangre Lo que parecía el mal, ahora pulsa el Bien. El método científico encuentra El espíritu santo que une las sustancias Y le da nombre y lo representa en gráficos Ray Bradbury
Introducción General Los conceptos que se desarrollan en este libro, corresponden fundamentalmente a la temática de la asignatura FÍSICA APLICADA A LA ARQUITECTURA, correspondiente a la carrera de Arquitectura de la Facultad de Arquitectura, Diseño y Urbanismo de la Universidad de Buenos Aires. Hay que recordar que esta asignatura constituye el primer contacto del alumno que cursa las carreras de arquitectura y diseño, con una introducción a los temas que serán desarrollados luego en el área de las instalaciones. A partir de los principios básicos que se intenta plantear en este libro, se propende a que el estudiante despierte su entusiasmo vocacional, incorpore a su acervo intelectual conocimientos que le serán imprescindibles en su vida profesional, y que visualice las aplicaciones prácticas que esta rama de las ciencias brinda al futuro arquitecto diseñador. También, el texto intenta lograr ciertos objetivos, tales como presentar la Física como una disciplina conceptual y totalizadora que introduzca las primeras referencias a fenómenos básicos que se verifican en los procesos del hecho constructivo (o del diseño en general), propiciando la integración con el resto de las disciplinas que debe manejar un diseñador. Se ha tratado en ese sentido, que los temas se vayan desarrollando siguiendo una sistematización y ordenamiento que los ligue según un proceso lógico, dentro de la interrelación obligada que presenta el programa actual de dictado.
7
Se observará en todos los capítulos, la insistencia en relacionar cada concepto teórico con su verificación en el hecho real, en particular constructivo, tratando siempre de vincular la Física a las áreas de arquitectura y diseño. El enfoque que se busca también, es apuntar a incentivar la capacidad de observación de la realidad circundante por parte del lector, para verificar que los principios físicos que se explican, están en todos y cada uno de los hechos arquitectónicos o elementos de diseño observados. Se aspira a que el estudiante que lea estas páginas, llegue a conocer la influencia de la Física en las diferentes etapas del desarrollo de los procesos inherentes a la arquitectura y el diseño, desde su vinculación con la creación del objeto diseñado, hasta la conexión de la disciplina con el resto de las temáticas que integran la currícula de una carrera de diseño. Muchas veces no son tan importantes los procedimientos de cálculo o uso abstracto de fórmulas, sino más bien el desarrollo pleno de la capacidad imaginativa al servicio de la creación y resolución de problemas físicos de toda índole, en particular aquellos vinculados al proceso de diseño y que se resuelvan con procesos lógico - analíticos, es decir a través del enriquecedor proceso del razonamiento y de la racional aplicación de las leyes físicas. Todo lo dicho, sin negar la importancia de manejar conceptos abstractos generales que permitan a cada futuro profesional aplicarlos luego a soluciones particulares y novedosas que resulten un aporte al diseño del hecho arquitectónico u objeto proyectual. Por ello este texto intenta abrir un abanico de nuevas posibilidades en el desarrollo de los temas tratados, de forma tal que éstos no sean un fin en sí mismos, sino que se constituyan en un punto de partida para las innumerables opciones que la imaginación y las leyes físicas brindan a un diseñador del “hábitat” humano. Introducción de temas básicos La física tiene como objeto describir y explicar racionalmente los caracteres y el comportamiento de los entes físicos. A partir de estas premisas, elabora leyes, teorías e hipótesis. Se expresa en una ley o principio una regularidad estable y típica en el comportamiento o los caracteres de un fenómeno físico. Cuando las leyes o principios reúnen en un todo coherente un conjunto amplio de fenómenos, configuran una teoría. Y por su parte, una teoría factible pero no verificada, es lo que llamamos una hipótesis.
8
Pero en física no hay, como en matemáticas, deducciones a partir de postulados elementales establecidos por la mente del hombre y que poseen validez sin verificación práctica. Para su total validación, las leyes físicas deberán pasar por la experimentación, o surgir a partir de ella. Por ello, una teoría se desarrolla apoyándose en dos componentes sustanciales: •
principios y postulados básicos
•
hechos y datos experimentales observables
Asimismo, una teoría conduce a dos resultados generales, que son: •
crear un modelo o descripción eficaz de los hechos observados
•
predecir nuevos hechos cuya verificación experimental posterior, confirmará o invalidará
A partir de los hechos observables o predictivos, es que se establece o se enuncia una teoría, que configura un modelo cuando es una versión eficaz de lo que se desea verificar. Un modelo eficaz, en consecuencia (y por lo tanto la teoría a que corresponde) posee a su vez dos aspectos: • •
describe adecuadamente los hechos observados permite predecir como consecuencia hechos nuevos
Es importante señalar que todo modelo puede ser sustituido por otro distinto más simple o que explique mayor número de hechos. Asimismo, cualquier modelo puede ser modificado por la introducción de nuevos hechos conocidos1.
1
P. Ej.: La teoría de la relatividad general de Einstein modificó gran parte de las teorías Newtonianas sobre el Universo.
9
Medidas y magnitudes Cuando un hecho observable puede asociarse en forma invariable a un número, se dice que dicho hecho ha sido medido. Todo cuando es susceptible de ser asociado a un número (medido) se define como magnitud. Se consideran como magnitudes fundamentales las que no pueden definirse o expresarse en función de otras. En física, las magnitudes fundamentales o simples son: ESPACIO MASA TIEMPO
e m t
Las magnitudes asociadas exclusivamente a un número se llaman escalares, por ejemplo 5m; 20 segundos; 7dm3; etc. Pero también existen magnitudes asociadas a vectores, las que reciben el nombre de vectoriales, por ejemplo las fuerzas, velocidades direccionales, etc. Recordemos que los elementos de un vector (segmento orientado) son los que se indican en su representación gráfica de la figura I.1:
SENTIDO
MODULO
DIRECCION (medida)
Figura I.1 Medida de una magnitud y unidades de las magnitudes fundamentales Se considera como cantidad a la porción de una magnitud que se asocia a un número concreto. La operación por la cual se realiza esta asociación se llama medida de la magnitud. Por lo tanto, podemos decir que medir una cantidad de una magnitud es compararla con otra cantidad de la misma que se toma como unidad, obteniéndose por resultado un número.
A ( cantidad dada ) = No (medida) U ( cantidad unitaria)
10
Un conjunto de unidades elegidas parra medir las magnitudes fundamentales constituye un sistema fundamental de unidades. Existen varios sistemas, entre los cuales pueden citarse como muy usuales el mks (metro, kilogramo, segundo); el cgs (centímetro, gramo, segundo), etc. Representación de magnitudes Una cantidad de una magnitud cualquiera, puede representarse sobre una recta por un segmento cuya longitud se relaciona con la medida de la magnitud dada según una correspondencia convencional que define una escala de representación. Algunos ejemplos: 1 cm--------------------------- 50 Kg. 1 cm -------------------------- 10 seg 1 cm -------------------------- 20 ºC 1 cm--------------------------- 30 Km También puede indicarse la escala gráficamente, como se observa en las figuras I.2 (a) y I.2 (b).
50 kg
0
100
200
300
400
500 km
(b)
(a) Figura I.2
Cuando la magnitud a representar es también una longitud, la escala puede expresarse por una razón:
En lugar de : 1 cm - - - - - - - - - - - - - 50 Km
Puede ponerse :
1 cm 1cm 1 = = 50 Km 5.000.000 cm 5.000.000
O expresado en forma más convencion al, ESCALA 1 : 5.000.000
11
Representaciones gráficas Un hecho experimental traducido en medidas da por resultado por lo menos dos conjuntos de valores numéricos relacionados entre sí, formando pares ordenados de valores correspondientes, tal cual se presentan esquemáticamente en la figura I.3.
x
x1
x2
x3
x4..................xn
y
y1
y2
y3
y4..................yn
Figura I.3 Cuando se tienen dos series de valores correspondientes, cada par de ellos puede asociarse a un punto de un plano en una representación gráfica, respecto de un sistema de ejes coordenados cartesianos2 ortogonales, tales como los de la figura I.4.
y o
y1
0
P1 (x1;y1)
x1
x
x - eje de abcisas y - eje de ordenadas Figura I.4 2
Nombre derivado de su creador Rene Descartes, filósofo y matemático francés (1596 - 1650), creador de la geometría analítica y descubridor de los fundamentos de la óptica geométrica. Impuso nuevos métodos de raciocinio, generando los principios de la moderna metafísica.
12
Cuando una de las magnitudes es angular, puede utilizarse la representación directa de los ángulos empleando el sistema de coordenadas polares (ver figura I.5). P1 (ω1 r1) r1 ω1 0
ω
r
ω1 ω2 ω3 ω4
r1 r2 r3 r4
...................
Figura I.5
ωn
rn
0 = origen angular r = radio vector ω = argumento En física teórica, el análisis de los fenómenos conduce al establecimiento de funciones de variaciones, entre por lo menos un par de valores variables. Ello se expresa habitualmente en forma explícita como: y= f (x) Donde
x = variable independiente y = variable dependiente
Sobre la base de las características matemáticas de la curva asociada a la función, puede efectuarse la representación gráfica de la misma, como se ejemplifica en la figura I.6. Ej: y = x2/6 – x + 4
Figura I.6
La función anterior es una parábola cuadrática, en la cual se pueden mencionar como elementos significativos, las ramas hacia arriba, determinadas por el signo positivo del término al cuadrado de su expresión matemática. También que se halla desplazado su vértice, respecto al centro de coordenadas por la presencia de un término lineal (la variable x a la primera potencia) y de un término independiente (el número 4). Posee un valor mínimo en la posición de su vértice, cuyas coordenadas sugerimos hallar a los lectores como práctica de cálculo. Unidades físicas de uso habitual y citadas en el presente texto Temperatura •
Unidad usual: grado Celsius [°C ] (antiguamente centígrada); temperatura relativa. Puntos de referencia: 0 °C temperatura del hielo fundente. 100 °C temperatura del agua en ebullición, a la presión atmosférica normal
•
Grado Fahrenheit (°F) Unidad utilizada en los países de habla inglesa, también temperatura relativa. Puntos de referencia: 32 °F temperatura del hielo fundente. 212 °F temperatura del agua en ebullición, a la presión atmosférica normal.
La temperatura en °F se obtiene, a partir de la temperatura en °C, o a la inversa, mediante las fórmulas siguientes: o
•
F=
9 o C + 32 5
o
o
C=
5 o ( F - 32) 9
Grado Kelvin (°K) Unidad del sistema internacional (SI), escala de temperatura absoluta. La graduación es la misma que en la escala Celsius, pero la temperatura del hielo fundente corresponde a 273 °K.
Así pues, se obtiene la temperatura en °K partiendo de una temperatura en °C sumándole 273. Esta escala la utilizan preferentemente los físicos.
14
Ciertas fórmulas de cálculo emplean los °K, como por ejemplo en el caso de establecer la dilatación de un cuerpo. Cantidad de calor y potencia térmica unidad usual = kilocaloría = Kcal. La Kcal, es la cantidad de calor necesaria para aumentar 1 °C la temperatura de un kilogramo de agua. La frigoría (fg) es una unidad equivalente a la kilocaloría, pero se utiliza en aquellas instalaciones de climatización, cuando se trata de transferencias de calor en sentido inverso, es decir, para los aparatos que absorben el calor interno y lo transfieren al exterior de un hábitat. Podría decirse, en consecuencia, que una frigoría es una kilocaloría negativa. La potencia de un intercambiador de calor, o de un aparato, se expresa en kilocalorías por hora (kcal/h), si se produce una emisión de calor, o en frigorías por hora (fg/h) si existe una absorción de calor, Otras unidades •
La British Thermal Unit o BTU (libra - grado Fahrenheit), utilizada en Inglaterra y en USA: 1 BTU = 0.2517 kcal = 0.25 kcal
•
La ton of refrigeration o ton, basada en la tonelada imperial o “long ton” de 2240 libras (o pounds): (1 libra = 453.6 gramos) = 3340 fg/h
•
La ton of refrigeration basada en la tonelada USA o “short ton” de 2000 libras: ( 1 libra = 453.6 gramos) = 3024 fg/h
15
Esta unidad se usa con mayor frecuencia que la precedente. Se acostumbra designarla por medio de iniciales I.M.E. (Ice melting equivalent, o equivalente del hielo fundente). En la actualidad, la unidad internacional (SI) de cantidad de calor, legal en algunos países europeos es el Julio o Joule (J), denominado también “equivalente mecánico de la caloría”. El vatio o Watt (W) es la unidad de potencia térmica. Se usa habitualmente en el caso de la corriente eléctrica, pero en realidad es una unidad de potencia en general, es decir trabajo en la unidad de tiempo, en todas las ramas de la física. Hay algunas indicaciones técnicas que señalan la potencia térmica, referida al tiempo de aplicación, en Watt/h y su uso depende de la elección que deciden en cada caso, los técnicos vinculados a procesos caloríficos. Otras unidades anglosajonas
métricas
y
sus
equivalencias
en
unidades
Longitudes: • • • • • • • • • • •
Amstrong (A) = 1 diez millonésimo de mm micrón (µ) = 1 milésimo de mm milímetro (mm) = 0,0394 pulgada centímetro (cm) = 0,3937 pulgada decímetro (dm) = 3,937 pulgadas = 0,328 pie metro (m) (U.SI) = 3,28 pies = 1,093 yardas kilómetro (km) = 1093,6 yardas = 0,62 milla pulgada (inch, in) = 25,4 mm pie (feet, ft) = 12 pulgadas = 30,5 cm yarda (yd) = 3 pies = 91,4 cm milla (ml, o M) = 1609 m
Superficies • • • • • • •
= 0,0015 pulgada cuadrada milímetro cuadrado (mm2) centímetro cuadrado (cm2) = 0,155 pulgada cuadrada decímetro cuadrado (dm2) = 15,5 pulgada cuadrada = 0,107 pie2 metro cuadrado (m2) = 10,75 pie2 pulgada cuadrada (square inch, squin) = 6,45 cm2 pie cuadrado (square feet, sqft) = 9,29 dm2 yarda cuadrada (square yard, sqyd) = 0,83 m2
16
Volúmenes • centímetro cúbico (cm3) = 0,06 pulgada cúbica • decímetro cúbico (cm3) = 61 pulgada cuadrada • metro cúbico (cm3) = 35,31 pies cúbicos • pulgada cúbica (cubic inch, cuin) = 16,4 (cm3) • pie cúbico (cubic feet, cuft) = 28,32 dm3 • galón (inglés) = 4,55 dm3 • pinta = 0,57 dm3 • quart = 1,136 dm3 • galón (americano) = 3,79 dm3 Masas • gramo (g) = 0,035 onza • kilogramo (kg) (U. SI) = 2,205 libras • onza (ounce, oc) = 28,35 g • libra (pound, Ib) = 453,6 g • tonelada imperial = 1016 kg • tonelada USA = 907 kg Presiones • Unidad SI : pascal (Pa) o Newton(*) por m2 • mm de columna de agua (mm CA) = 0,98 daPa • decapascal (dapa) [decanewton por m2 ] = 1,02 mm CA • bar = 104 daPa = 1 daN/cm2 = 1,02 kgf/cm2 • kilogramo (fuerza) por centímetro cuadrado (kgf/cm2) ≈ 1 dan/cm2 = 14,2 libras/pulg2 ≈ 10 mCA • torr = milímetro de columna de mercurio (mmHg) = 4/3 de milibar • pulgada de agua (in of w) = 25,4 mm CA • libra/pulgada cuadrada (psi) = 0,0686 bar = 0,07 kgf/cm2 Caudales • Metro cúbico por segundo (m3/seg) = 35,31 pies3/s • metro cúbico por hora (m3/h) = 0,588 pies3/min • pie cúbico/minuto (cfm) = 1,7 m3/h • galón/minuto (gpm) = 0,227 m3/h
(*)
El newton es la unidad SI de fuerza. El antiguo kilogramo-fuerza vale 9,81 N, o sea 1 daN aproximadamente.
17
Velocidades • metro por segundo (m/s) = 198 pies/min • kilómetro/hora (km/h) = 0,278 m/s • pie/minuto (fpm) = 0,0051 m/s • milla/hora (ml/h, o M. P. H. ) = 1,61 km/h Unidades eléctricas (SI) • • • • • • •
Tensión: voltio (V) Intensidad: amperio (A) Energía: Joule o julio (J) Potencia: Watt o vatio (W) Resistencia: ohmio (Ω) Resistividad: ohmio-metro (Ωm) Submúltiplos: Ω-cm y µΩ-cm Frecuencia: herzio (Hz) (período por segundo)
Unidades eléctricas y térmicas de energía y de potencia3: • • • • •
1 Wh = 0,860 kcal; 1 kWh = 860 kcal; 1 kcal = 1,16 Wh 1 J = 0,23892 cal; 1 cal = 4,1855 J 1 B.T.U. = 1 kcal = 0,252 kcal 1 kcal/h = 1 fg/h = 1,163 W 1 kW = 860 kcal/h = 239 cal/s = 1,36 caballos (CV)
Conceptos básicos relacionados con las unidades antes descriptas Fuerza: puede definirse como la sensación de presión al contacto con un cuerpo. Está vinculada a la llamada ley de reciprocidad que dice: “se concibe la fuerza como una acción recíproca entre dos cuerpos, de tal manera que ambos obran uno sobre otro con fuerzas de igual intensidad dirigidos en sentidos contrarios” (principio de acción y reacción). La fuerza es un vector, que si no es “libre”, se supone concentrado en un punto que se llama “punto de aplicación”. Sobre todo cuerpo situado en la superficie terrestre obra una fuerza (su peso) que da al cuerpo una aceleración constante de caída (g=9,81m/seg2), y que en un mismo punto es independiente del peso y de la substancia del cuerpo que cae. 3
Unidad de potencia calorífica de un combustible sólido: 1 kcal/kg Unidad de potencia calorífica de un combustible líquido: 1 kcal/m3
18
El valor consignado de g es promedio, pues varía con la latitud geográfica y la altura sobre el nivel del mar. Masa: En esencia es distinta del peso, pues es la cantidad de materia de un cuerpo (si bien 1 Kg masa pesa en la superficie terrestre 1 Kg fuerza). Representa una magnitud escalar peculiar del cuerpo que es independiente de la situación de éste, mientras que el peso varía proporcionalmente a g. El factor de proporcionalidad por el cual hay que multiplicar la aceleración terrestre para obtener el peso P, es la masa m del cuerpo, de lo que resulta la relación: P = m.g Con una balanza de pesas no se determina el peso de un cuerpo, sino su masa, pues estas balanzas dan el mismo resultado en cualquier parte de la superficie terrestre. En consecuencia lo que habitualmente uno denomina como “pesarse” o pesar un cuerpo, es determinar la masa o la cantidad de materia de ese cuerpo. La masa de un cuerpo permanece constante a pesar de todas las variaciones físicas o químicas que el cuerpo sufra, y como ejemplo de diferencia entre peso y masa, puede citarse el caso de los astronautas llegados a la Luna; pesan más en la Tierra que en su satélite natural, aun cuando la masa de su cuerpo es la misma en uno y otro lado. Peso: de los conceptos anteriores, es dable definir al peso como el producto de la masa por la aceleración de la gravedad. La masa podría interpretarse como el coeficiente respecto de la aceleración con el que un cuerpo cae en el vacío. Fuerza: Generalizando lo dicho respecto del peso, y ya que éste es una fuerza, se puede decir que una fuerza se puede expresar como el producto de una masa por una cierta aceleración. La masa es el coeficiente de inercia cuando actúa una fuerza cualquiera sobre el cuerpo; entonces se mide la masa por la aceleración que adquiere por la acción de una fuerza conocida. Peso específico: es el peso de la unidad de volumen:
γ=
P V
Masa específica o densidad: es la masa de la unidad de volumen: δ =
19
m V
Estados físicos de la materia Básicamente los estados de la materia son: • • • •
Sólido Líquido Gaseoso Plasma
Descartaremos referirnos a este último, por cuanto no es un estado físico con el cual los arquitectos trabajemos en nuestro quehacer constructivo. Nos referiremos en tanto a los tres restantes. Sólido: es el estado de aquellos cuerpos de forma y volumen definidos y constantes bajo condiciones estables. Todo cuerpo sólido puede cambiar su estado a líquido o gaseoso, si se modifica su estructura molecular, por ejemplo con la acción del calor. El agua (ejemplo conocido). puede pasar del estado sólido (hielo), al estado líquido y al gaseoso (vapor de agua), con el sencillo proceso de adicionarle energía térmica; proceso que puede revertirse por el camino inverso de restarle calor. Otra característica propia de los sólidos es la de transmitir fuerzas. Fluidos: se designa así indistintamente a líquidos y gases, caracterizándose éstos por la suma pequeñez de las fuerzas necesarias para producir en ellos deslizamientos de unas moléculas sobre otras. La pequeñez de estas fuerzas se manifiesta en el hecho de que un líquido o un gas adoptan la forma del recipiente que los contiene, no requiriéndose por lo tanto prácticamente ningún trabajo, para que la configuración de un líquido o un gas varíe. Los fluidos transmiten presiones (no soportan esfuerzos de corte). Los gases tienden a ocupar siempre un volumen mayor necesitándose de fuerzas exteriores para evitar que el volumen de un gas aumente. Los líquidos por el contrario, tienen un volumen determinado y se necesitan fuerzas enormes para producir una variación del mismo, lo que no sucede con los gases cuyo volumen varía con fuerzas pequeñas. Presión: Un prisma cuya base tiene una superficie S (cm2) al apoyarse sobre un plano horizontal, ejerce sobre él una fuerza F, igual a su peso,
20
que se reparte uniformemente sobre toda la superficie de apoyo. Se llama presión, a la fuerza que se ejerce por unidad de superficie p =
unidades de presión son
F S
Kg tn (ver figura I.7). 2 ó cm m2
S
F
Figura I.7 Unidad técnica de masa:
Siendo :
δ (densidad) =
masa volumen
g. δ =
de lo que se deduce que g =
δ=
γ g
Kg =
m
m3
seg 2
=
γ δ
Peso = γ (peso específico ) volumen (g = aceleració n de la gravedad)
Kg . seg 2 (unidad técnica de masa) m4
Angulo sólido Se llama ángulo sólido al espacio delimitado por una superficie cónica.
21
Se mide el ángulo sólido por la relación entre el área de la superficie determinada por el cono, sobre una esfera cualquiera de centro en el vértice O del cono y el cuadrado del radio de la esfera (ver figura I.8).
S
O
Figura I.8 La unidad del ángulo sólido se tiene cuando S=R2 y se denomina esterorradián. El ángulo sólido correspondiente a toda la esfera será, por lo tanto, Ω=4π. En cambio el correspondiente a media esfera será Ω=2π y así proporcionalmente. Colofón Como cierre para esta introducción, queremos destacar algunas ideas que consideramos esenciales. En todos los fenómenos que planteamos en las páginas de este libro se darán fundamentaciones, leyes y explicaciones respecto del porqué se producen los sucesos, siguiendo ciertos patrones de comportamiento que hacen que se puedan repetir reproducir y confirmar su validez. Pero en todos los casos, si siguiéramos preguntando porqué se producen esos fenómenos bajo esas características, la respuesta final será “porque sí”.
22
Veamos un ejemplo: la ley de atracción gravitacional enunciada por Newton dice que “los cuerpos se atraen en razón directa de sus masas y en razón inversa al cuadrado de la distancia que los separa”. Con el conocimiento de esta ley se explican una multiplicidad de fenómenos que van desde descifrar cómo giran los planetas alrededor del Sol, hasta saber porqué pesamos lo que pesamos en la superficie terrestre. Pero si luego preguntáramos “¿y porqué los cuerpos se atraen en razón directa de sus masas?”, la respuesta será “porque sí”. Aun cuando en el futuro surja una explicación a nivel subatómico, también la pregunta será porqué ello sucede y la respuesta la misma. Todo esto nos lleva a razonar que en cualquier fenómeno hay algo de método científico que permite analizarlo, desmenuzarlo, estudiarlo y algo metafísico, mítico y trascendente que es lo que se refiere al comportamiento de la naturaleza y el cosmos todo, y que está regido por las leyes establecidas por un orden superior. Por ello en el epígrafe de esta introducción general hemos hecho referencia a un parágrafo de un escritor contemporáneo como Bradbury4, y que consideramos pertinente para reafirmar esta doble vertiente que tiene la física como disciplina y que aúna lo científico con lo místico. A nuestro entender, lo rescatable de tener claras estas ideas es, sobre todo para un diseñador, tomar conciencia de que el conocimiento de posibilidades y limitaciones en el campo de lo físico, ayuda a ejercer más eficientemente nuestro trabajo. Que además, con el acercamiento a las leyes básicas que rigen nuestro mundo, se puede desarrollar con mayor plenitud la labor de diseñar y construir. Y que sabiendo que nuestro entorno físico nos plantea limitaciones a veces insalvables con la actual tecnología, estará en nuestra capacidad y sapiencia usar los recursos hasta lograr los mejores resultados. Este enfoque conducirá, si se acompaña con los imprescindibles componentes éticos y morales que deben regir el quehacer de un profesional, a un ejercicio sustentable5 de la labor del arquitecto o diseñador. Este es un rol ineludible para quienes cumplimos tareas tan directamente vinculadas al hábitat del hombre, sobre todo cuando pensemos en la trascendencia de lo que hagamos hoy, para el futuro de nosotros mismos como especie en el universo. 4
Bradbury, Ray (n.1920), escritor nacido en Illinois EEUU, es uno de los autores de ciencia ficción más celebrados de nuestro siglo. Entre sus obras más conocidas se encuentran Crónicas Marcianas, Farenheit 451 y El País de Octubre. 5 Usamos el término sustentable (o sostenible), para referirnos a aquello que mejore la vida de generaciones futuras en nuestro planeta y el mundo.
23
CAPITULO I
Hidrostática La hidrostática es la rama de la Física que estudia a los líquidos en reposo. Etimológicamente el nombre está integrado por los vocablos “hidro” = agua o líquido y “estática” que significa equilibrio. ¿Dónde encontramos líquidos en equilibrio en el hecho arquitectónico?. Los ejemplos son variados; los tanques de almacenamiento de agua en los edificios o casas, mientras no hay consumo, las piscinas en caso de no recirculación del líquido, cisternas civiles o industriales para líquidos varios, etc. La lista sería interminable y los ejemplos citados no son más que casos muy comunes que el arquitecto encontrará inevitablemente en cualquier proyecto que encare. Vamos a estudiar en consecuencia, qué es lo que sucede desde el punto de vista físico en un recipiente que contiene líquido en estado de reposo. Razonemos en esta etapa sobre dos conceptos sustanciales vinculados al análisis que se desarrollará a continuación. El primero de esos conceptos es destacar que hablamos de recipiente, pues es claro que en el medio físico de trabajo del arquitecto, cuando el líquido está sometido a la atracción gravitacional del globo terrestre, los líquidos no poseen forma propia y se adaptan al recipiente que los contiene. La segunda consideración a tener en cuenta es que los razonamientos que se efectuarán, corresponden a lo que en física se llama un líquido ideal, y cuyas características son: Incompresible: propiedad que indica que, aún sometido a grandes presiones, no cambia su volumen significativamente. No viscoso: en su masa, el desplazamiento de una molécula libremente respecto de las otras es considerable. Si esto no sucede el estado físico del líquido se empieza a aproximar al sólido. Los líquidos y los gases tienen la propiedad común de que bastan fuerzas muy pequeñas para producir en ellos deformaciones de la magnitud que se desee.
25
Irrotacional: la circulación del líquido por un conducto no presenta rotación de sus moléculas – unas respecto de las otras - en ningún sector de la masa líquida. El remolino de un río es un ejemplo opuesto a lo irrotacional. Régimen constante: esta cualidad es la que indica que por un cauce o una cañería, circula una determinada cantidad de líquido constante en una unidad de tiempo considerada. Se podría objetar que en realidad un arquitecto no va a trabajar con líquidos ideales, pero ello no es un argumento que desvirtúe totalmente las deducciones y la validez de las fórmulas, pues, por ejemplo, el agua se comporta prácticamente como líquido ideal y es el elemento más usual en el campo de la construcción y las instalaciones. En contraposición existe un material que es fluido antes de su fragüe, que es el hormigón y que citamos para destacar que su viscosidad lo aleja del concepto de líquido ideal, al margen de conocer el hecho de que no se trata de un líquido, sino una mezcla de materiales que por el contenido de agua y por su uso habitual en estructuras, creemos que merece citarse en este segmento particular de la temática de este libro. Recordemos que con el nombre genérico de fluidos se designa en conjunto tanto a líquidos como a gases, por la total movilidad de sus partes entre sí y la carencia de forma propia. En este punto es importante señalar como característica específica que los líquidos se pueden considerar de volumen constante, mientras que los gases poseen un volumen variable que depende, en los casos más generales, del recipiente que los contenga. Y los líquidos transmiten presiones, ya que son como se ha dicho, prácticamente incompresibles, no pudiendo resistir en cambio fuerzas, pues no soportan el esfuerzo de corte – entendiendo en su acepción más sencilla al corte, por ahora, como el hacer que se interrumpa la continuidad entre moléculas. Los sólidos, para marcar la diferencia, si pueden, merced a esa propiedad de resistir esfuerzos de corte, transmitir fuerzas de un lado a otro de su masa. Si el fluido está en equilibrio las presiones que actúan desde todas direcciones sobre una partícula cualquiera deben equilibrarse → resultante nula (ver figura 1.1).
26
Figura 1.1 En caso contrario la resultante de las presiones sobre la partícula la impulsará provocando un estado de movimiento en el fluido (hidrodinámica o neumodinámica). En el líquido contenido en un recipiente, llamaremos superficie libre del líquido, a aquella que separa el líquido de la atmósfera. En condiciones de reposo, esta superficie puede asimilarse a un plano horizontal perfecto, ya que no actúan sobre él fuerzas que hagan que las distintas moléculas que componen esta superficie puedan estar a diferentes alturas respecto de la superficie terrestre. La presión que el líquido transmite sobre su superficie libre es nula. Efectivamente, si hubiera una presión normal como en las restantes superficies no podría presentarse una reacción equilibrante y las partículas del líquido se proyectarían hacia afuera. Las partículas que se encuentran junto a una de las superficies del recipiente que contiene el líquido en equilibrio transmiten a dicha superficie una presión perpendicular a ellas, sean rectas, curvas (en este caso la presión es perpendicular a la tangente de la superficie en el punto considerado) y cualquiera sea su posición relativa: horizontal, vertical u oblicua. Si la presión no fuera normal, se presentaría una componente tangencial no equilibrada que desplazaría la partícula, contradiciendo la condición supuesta de líquido en reposo. Dicho esto, veamos como analizar el comportamiento del líquido contenido dentro de un recipiente. Y para ello, pensemos que introducimos un cubo de un material indeterminado, dentro de un recipiente con agua. El primer fenómeno observable será que el cubo puede hundirse, flotar o mantenerse entre dos aguas, expresión con la que queremos decir que no emerge ni se va al fondo. Veremos que se cumple un concepto verificable en la experiencia física y que analizaremos a continuación, y que es el principio físico conocido como:
Principio de Arquímedes: “Todo cuerpo sumergido en un líquido (o fluido) recibe un empuje de abajo hacia arriba, igual al peso del volumen del líquido (o fluido) desalojado”. 27
En la siguiente figura 1.2, vemos un esquema, sobre el cual desarrollaremos el análisis correspondiente a las fuerzas y presiones actuantes en el líquido. Ps
Pp E
Figura 1.2 Donde: Pp: peso propio del cubo Ps : peso de la porción de líquido sobre la cara superior del cubo E: empuje Y donde se verifican las siguientes relaciones de igualdad y desigualdad: E = Pp + Ps (equilibrio entre dos aguas) E > Pp + Ps (el cuerpo sumergido flota) E < Pp + Ps (el cuerpo sumergido se hunde)
Ecuación e inecuaciones de equilibrio (2)
En esta instancia es bueno recordar algunos conceptos básicos tales como: Presión:
p=
F(fuerza ) S(sup erficie)
⇒ Presión . superficie = Fuerza
28
Peso específico: γ =
P( peso) V( volumen)
⇒ γ.V = P
Ej.: γHg (mercurio) = 13,6 gr/cm3 Densidad:
δ=
γ H2O (agua) = 1gr/cm3
Masa Volumen
De las relaciones anteriores identificadas como (2) tomemos la situación de equilibrio, que implica que el cubo es ahora virtual, y que está compuesto del mismo material que el líquido en el cual está sumergido. Tendríamos entonces: E = Pp + Ps Lo que equivale, llamando supi a la superficie del cubo donde incide E y sups a la superficie donde incide Ps y haciendo las sustituciones correspondientes, resulta: E → p .sup = γ.V + p s .sup s
i
Pero
entonces:
i
sup i = sup s y V = sup i . h
p .sup = i i
γ . sup i . h + p s .sup i
Y simplificando supi que aparece en todos los términos, tenemos:
p
i
- p
s
29
=
γ.h
Ley general de la hidrostática En forma equivalente, consideremos en el seno de una masa líquida en equilibrio, una porción de la misma definida por el volumen cilíndrico de altura h y bases de superficie S (ver figura1.3). Dicho volumen cilíndrico supera en los puntos de su superficie, presiones desde el resto de la masa líquida que originan fuerzas laterales como FL y verticales como F1 y F2. Las fuerzas laterales se oponen de a pares anulándose todas entre sí. El sistema actuante sobre el cilindro se reduce entonces a F1 , F2 y el peso propio del líquido del mismo: Pp (ver figura 1.4). A-B moléculas Ps Ps
B
Pp
Superficie Ss (superior)
h
Pp
A
E
E E
Figura 1.3 F1 Pp
Fi
F2
Figura 1.4
30
Superficie Si (inferior)
Si el cilindro considerado está inmóvil en el seno del líquido (hidrostática), la resultante del mencionado sistema de fuerzas debe ser nula. F1 + Pp = F2 (1) Siendo p1 la presión en la base superior, p2 la presión en la base inferior, y γ el peso específico del líquido, se tiene: F1 = p1. S F2 = p2 . S Pp = γ. S. h Por consiguiente, reemplazando en la fórmula (1), tenemos: p1 . S + γ . S . h = p2 . S Dividiendo por S y ordenando, llegaremos nuevamente a la Ley general de la Hidrostática:
p2 - p1 =
γ.h
Según esta conclusión, la diferencia de presión entre dos puntos cualquiera de un líquido es el producto del peso específico del líquido, multiplicado por la altura que separa ambos puntos. Es decir que la diferencia de presión depende exclusivamente de la posición relativa de los mismos (diferencia de altura h), ya que el peso específico de un determinado líquido es constante.
Recordemos algunas unidades: P (empuje-fuerza perpendicular a la dirección del movimiento): Kg F (área): m2 g (aceleración de la gravedad ): 9.81
m seg 2
p (presión) : Kg/m2 o bien atmósferas: Kg/cm2 ó mm de columna de mercurio (Hg) V (volumen ): m3 t (tiempo) : segundo γ (peso específico) líquido o gas: Kg/m3
31
Y también un fenómeno particular tal cual es la: Tensión superficial y capilaridad En el límite entre dos fluídos ó entre fluídos y sólidos obran fuerzas moleculares que tienden a una disminución de la superficie (tensión superficial). Se generan fuerzas como las indicadas en la figura 1.5, que desplazan el líquido contenido en un conducto de reducida sección (capilar), venciendo incluso a la fuerza de gravedad. La fuerza componente F1, hace desplazar el líquido, mientras que las perpendiculares a las paredes del capilar F2, son absorbidas por éste. Consecuencia de ello es, por ejemplo la forma esférica de las gotas que caen libremente. En el límite entre un líquido y un cuerpo sólido - como consecuencia de la tensión superficial - la superficie del líquido se eleva o se deprime según las propiedades de las substancias contiguas. Estas depresiones reciben el nombre de ángulo de mojado y su modificación por medio de distintos materiales de construcción (siliconas, etc.) permite corregir las inadecuadas filtraciones de agua a través de fisuras pequeñas en los cerramientos. R F1
F2
R
F2 Líquido
Capilar
Figura 1.5 Obsérvese que en el caso planteado, la superficie libre del líquido está deprimida respecto de lo que sucede en la pared del capilar. Ese ángulo que determina la resultante R puede variar según el líquido (en el caso del mercurio es inverso) o según el tratamiento que se haga de las paredes del conducto. En ese caso se dice que se invierte el ángulo de mojado.
32
Vasos comunicantes Consideremos un líquido en reposo que se encuentra en varios vasos comunicados entre sí y que llamamos vasos comunicantes (figuras 1.6 y 1.7). Es posible observar que la superficie libre del líquido en todos los vasos se encuentra en un mismo plano horizontal, lo cual puede deducirse a partir de la Ley general de la Hidrostática, ya enunciada. PLANO HORIZONTAL
Figura 1.6 Se observa siempre, que en las condiciones anteriores, la superficie libre del líquido en todos los vasos se encuentra en un mismo plano horizontal. Este principio tiene aplicación en dispositivos que permiten determinar diversos puntos que se encuentran a un mismo nivel (en un mismo plano horizontal).
h2
h1
A
B
Figura 1.7 33
El razonamiento analítico de lo anterior es:
pA = γ . h1
y
pB = γ . h2
pero pA = pB (si no fuera así el líquido no estaría en equilibrio) igualando los segundos miembros, es:
γ . h1 = γ . h2 h1 = h2
y entonces:
En trabajos de construcción simple, donde no se requiera una gran exactitud se usa también el llamado “nivel de manguera“, que consiste en una manguera transparente de plástico que se llena de agua (cuidando que no queden burbujas en el interior del líquido), y al funcionar ésta como un sistema de vasos comunicantes, permite establecer una igualdad de nivel en sus dos extremos. Líquidos no miscibles Se denominan así aquellos líquidos que no se mezclan, como sería el caso de agua y aceite, en contraposición a aquellos que sí se mezclan, generando una masa homogénea, como en el caso de agua y alcohol. Si los líquidos son no miscibles nos encontramos en el caso que se grafica en la figura 1.8. Se ha determinado en este caso un plano virtual general horizontal que contiene a la superficie de contacto de ambas sustancias, y en ese plano se han establecido dos puntos de referencia A y B. Resulta entonces el siguiente análisis del proceso físico que relaciona las alturas de columna de cada líquido respecto al citado plano horizontal y con relación a los respectivos pesos específicos. PA = γ1.h1
PB = γ2.h2
y
Pero, en tanto el sistema esté en equilibrio, es: PA = PB
34
Y en consecuencia: γ1.h1= γ2.h2 de lo que deducimos por pasaje de términos, que:
γ1 = h2 γ 2 h1 Las alturas de las columnas de cada líquido respecto al plano horizontal, son inversamente proporcionales a los pesos específicos de los mismos. Si se piensa en el caso de que en vez de dos líquidos, sea una mezcla de gases como la atmósfera, y un líquido, también el fenómeno se verifica y podremos ver el principio en el que se basa el aparato para medir la presión atmosférica, llamado barómetro. Presión atmosférica: ≈ 1Kg/cm2 ≈ 10,33m H2O ≈ 76cm Hg → → 76cm3.13,6gr/cm3=1033gr/cm2 Equivalente: 1013 milibares (mb) ó 1033 gr/cm2 1 Milibar =
1Newton m2
N=
Kgm seg 2
γ1 h1
γ2 A
h2
B
Figura 1.8
35
El físico Torriceli enunció la validez del principio según el cual la presión atmosférica se ejerce en todas direcciones y sentidos, lo que puede generalizarse al fenómeno que se verifica en el seno de cualquier fluido. A Torricelli también se le adjudica la invención del primer barómetro de mercurio, cuyo diseño está esquematizado en la figura 1.9. Un tubo cerrado en uno de sus extremos (A) se llena de mercurio y se introduce su boca abierta en una cubeta, también llena de mercurio. Una vez sometido a su libre equilibrio el sistema, la columna de mercurio dentro del tubo descenderá, generando un vacío (B) en el interior del citado tubo, pero sólo lo hará hasta el punto en que la presión atmosférica (Po) - peso del aire sobre la superficie del globo terráqueo - equilibre a la columna del metal líquido. En ese momento el descenso se interrumpirá y en condiciones de presión atmosférica normal la columna de mercurio por encima del nivel de la cubeta y en el interior del tubo medirá 760 mm. Por encima y por debajo de ese valor el artefacto indicará alta o baja presión atmosférica respectivamente. A 760 mm B
Hg
Po
Mercurio Hg
Figura 1.9
36
Principio de Pascal - Prensa hidráulica Si a un punto cualquiera de un líquido en reposo se le aplica una presión suplementaria pi , la misma se transmite invariable a todos los demás puntos del líquido. Si no fuera así, entre el punto considerado y otro cualquiera se habría incrementado en pi , la diferencia de presión que existía entre ellos. La anterior consecuencia de la ley general de la hidrostática se conoce como Principio de Pascal y tiene una aplicación directa en el sistema de la prensa hidráulica. Prensa hidráulica Es un sistema en el cual un líquido está inmerso en un recipiente con dos extremos en los cuales existen dos émbolos que pueden desplazarse (ver figura 1.10). Si a uno de ellos se le aplica una presión, ésta se transmite al otro extremo cumpliendo las siguientes leyes físicas, en base a los conceptos antes desarrollados:
p1 = F1
S1
;
p2 = F2
pero
S2
p1 = p2
F1 = F2 S1 S2
Entonces: F2 = 15 Kg
F1= 5 Kg Sup. 1
Sup. 2 émbolos
e2 = 1 cm e1 = 3 cm P1 P2
Vr (válvula de retención)
Figura 1.10 37
Si al émbolo menor (de superficie S1) de la prensa se aplica una fuerza F1 , se crea en el líquido una presión suplementaria p , siendo:
F p= 1 S 1 F p= 2 S 2
Ya que los líquidos transmiten presiones, esta presión se transmitirá al otro extremo de la prensa (al denominado con los subíndices 2) y entonces se verificará que: Y por lo tanto, se puede establecer la igualdad:
F1 F = 2 S1 S2
→
F .S F2 = 1 2 S1
Que es la expresión que permite establecer el valor de la fuerza F2 que equilibra el sistema. Ejemplo:
F2 =
F1 . S2 5Kg.30cm2 = = 15Kg S1 10cm2
La obtención de una fuerza mayor en un extremo de la prensa que la aplicada en el otro extremo, en el ejemplo desarrollado es F2>F1, se explica en razón de que son iguales los trabajos realizados. Se puede ver que para un determinado desplazamiento del émbolo pequeño, el émbolo mayor se desplazará en menor medida. Lo hará en razón inversa a la mayor sección que posea respecto del émbolo más chico. Pero, como se dijo, los trabajos son iguales. Recordando que el concepto de trabajo se puede expresar como fuerza por distancia, para el caso analizado será: F2 . e2 = F1 . e1 ⇒ 15Kg .1cm = 5Kg . 3cm = 15Kgm
38
CAPITULO II
Hidrodinámica El vocablo “hidrodinámica” es la conjugación de “hidro” = líquido tal cual lo hemos dicho y “dinámica” = movimiento. Ahora, a diferencia de lo visto en el capítulo anterior, nos vamos a encontrar con líquidos que se mueven, que se desplazan por conductos, cañerías, cauces, en caída libre, etc. Siempre pensando en líquidos que se aproximen a la categoría de ideales, pero sabiendo que el agua es un buen ejemplo de ellos, empezaremos a estudiar conceptos y fenómenos que no sólo resultan análisis teóricos, sino circunstancias vinculadas directamente al quehacer del arquitecto en una obra de arquitectura. Los líquidos circulando por conductos en general los encontramos en las instalaciones sanitarias, tanto de provisión de agua como de evacuación de ”aguas servidas” (las que ”sirvieron” para diversos usos en baños, cocinas, etc.). También en las cañerías que derivan ordenadamente las aguas pluviales (o de lluvia), en los sistemas de calefacción o acondicionamiento climático, donde a veces el agua cae libremente (como en el caso de las torres de enfriamiento de sistemas de aire acondicionado central). y, aunque quizás con menos frecuencia, también habrá líquidos diversos (aceites, soluciones especiales, hidrocarburos etc.) que deberemos saber cómo se comportan cuando hay que manejarlos en edificios industriales, grandes depósitos de carga y descarga o tuberías de traslado. Desarrollaremos primero algunos conceptos generales que nos ayuden a estudiar los fenómenos de los fluidos en movimiento y la distribución de presiones y velocidades que se presentan en estos casos. Se dice que el movimiento de un fluido es laminar, cuando las partículas del mismo se mueven en forma ordenada manteniendo una estructura de capas regulares. Se considera como movimiento estacionario, un movimiento laminar en el que la velocidad correspondiente al fluido en un punto cualquiera es invariable. Las leyes generales que estableceremos seguidamente, se referirán a movimientos laminares y estacionarios de los fluidos y el estudio se efectuará específicamente referido a líquidos. Toda corriente de líquido circula habitualmente por conductos cerrados o abiertos tales como cañerías o simples canales. A partir de esta condición,
39
es posible enunciar la ley fundamental de la circulación laminar estacionaria en un conducto de sección variable, la cual es: S . v = Constante Donde S es la sección del conducto, v la velocidad de circulación y la constante un valor aplicable a todo el tramo considerado. Esta idea también puede expresarse, referida a dos tramos de una cañería que identificaremos con los subíndices 1 y 2:
S1 v 2 = S 2 v1 La expresión anterior es una proporción donde puede observarse que los subíndices están “cruzados”, es decir que las secciones de la cañería son inversamente proporcionales a las velocidades de circulación. Esto también puede entenderse como que cuanto mayor es la sección de paso, menor es la velocidad de circulación; o que a menor sección mayor será la velocidad. Pero la idea anterior se refiere a una cantidad constante de líquido circulando por la cañería en un tiempo determinado, concepto que recibe el nombre de caudal. El caudal de la corriente, que también puede denominarse gasto del conducto, puede entenderse entonces como el producto constante de la velocidad de corriente por la sección de conducción. La fórmula que lo define resulta, en consecuencia:
Q =S. v y las unidades en que puede expresarse son
m3 seg
;
m3 min
;
litros ; etc. seg
Obsérvese que se usan indistintamente en el numerador unidades de volumen y de capacidad, que pueden equipararse (p.ej.: 1 litro = 1 dm3) y que además la sección y la velocidad son directamente proporcionales al caudal.
40
Teorema de Bernoulli6- Pérdida de carga Consideremos un conducto descendente alimentado por un depósito a nivel constante, la pendiente y la sección del conducto pueden ser variables (figura 2.1). Llamaremos hc a la carga total teórica, hd a la altura que genera la presión dinámica y he la altura correspondiente a los valores de la presión estática en cada punto, siendo esta última la que define el llamado plano piezométrico. En este caso, la energía potencial de una masa dada de líquido que se desplaza hacia abajo, respecto de un plano de comparación, va disminuyendo en proporción a la disminución de la altura hz a que se encuentra. PLANO DE CARGA IDEAL h
hd hc
.
he
P
hz
PLANO DE COMPARACIÓN
Figura 2.1 El teorema de Bernoulli expresa el hecho de que la suma de energía potencial y cinética de una masa dada, para cada posición P de la misma es constante, de lo que resultan las siguientes fórmulas:
6
Bernoulli Daniel (1700 - 1782): físico y matemático suizo que desarrolló entre otros conceptos fundamentales, la teoría cinética de los fluidos.
41
h e + h d + h z = Cte he = hd =
p
p = presión; γ = peso específico
γ
v2 2.g
v = velocidad; g = aceleración de la gravedad
hc = hd + he La presión estática p en el caso del líquido en movimiento es siempre inferior a la que correspondería en el mismo punto para líquido inmóvil. La velocidad de circulación en el conducto es siempre inferior a la velocidad de salida libre que correspondería para ese punto. Pérdida de carga En condiciones reales la viscosidad de los líquidos y la naturaleza de la superficie interna de los conductos, así como sus posibles cambios bruscos de dirección o de diámetro, originan resistencia a la circulación del líquido. El trabajo de vencer dicha resistencia se efectúa empleando parte de la energía potencial representada por la presión estática pe. En el caso de un conducto horizontal, con v constante se tendría (ver figura 2.2): PLANO DE CARGA IDEAL
PLANO DE CARGA
hd
h
he P Figura 2.2 42
La línea correspondiente a los valores de he (indicadora de la presión estática en cada punto), define el llamado plano piezométrico. Este valor piezométrico es sumamente importante en el caso de las instalaciones sanitarias de un edificio, ya que es la altura a la que llega el agua de la red general, sin necesidad de incorporarle presiones adicionales con bombas o tanques neumáticos. La diferencia ∆h para cada punto P respecto del plano de carga ideal representa la energía invertida desde el origen de la corriente hasta el punto considerado, recorriendo la distancia d, para vencer las resistencias a la conducción (ver figura 2.3). CARGA IDEAL ∆h
∆h
CARGA REAL
hd
h
PLANO PIEZOMÉTRICO
he P d
Figura 2.3 En condiciones de conducción con tuberías de pendientes y resistencias variables no se tiene un plano de carga sino una “superficie” o “línea de carga irregular”. La pérdida de carga
∆h
cm , m
se expresa normalmente en
correspondiendo a los centímetros de altura ∆h que se pierden cada metro de longitud de conductos.
43
En tablas especiales se computa el equivalente en (
cm ) de pérdida m
suplementaria de carga por la presencia de codos, derivaciones, válvulas y toda clase de oposiciones a la circulación. La pérdida de carga depende en general del diámetro del conducto y la velocidad de circulación. Una fórmula práctica aproximada para calcularla es:
∆h =
0.002 v 2
d
cm ) y d cm, pero en este caso no se opera con seg cm las unidades, sino que se expresa ∆h en ( ). m
v tiene como unidad (
Otra forma de ver el teorema de Bernoulli puede referirse al caso de una cañería de sección variable y que salva una altura determinada (ver figura 2.4). S2 v2
p2
h h2 S1 v1 p1
h1
PLANO DE COMPARACIÓN ARBITRARIO
Figura 2.4 44
Bernoulli descubre la fórmula cuya ecuación es:
δ .v 2 δ .v 2 2 + γ .h 1 + γ .h1 = p 2 + k = p1 + 2 2 2 k: constante de Bernoulli Si la velocidad es nula, es decir el líquido deja de circular por el conducto, se elimina la velocidad en todos los términos donde aparece y resulta: V1 = 0 y V2 = 0 y queda p1 + γ.h1 = p2 + γ.h2 ∴ p1 - p2 = γ.(h2 - h1) Y consecuentemente:
p1 - p2 = γ.h
En la fórmula de Bernoulli antes citada, γ.h1 y γ.h2 representan el aumento de presión con la profundidad como consecuencia del peso del líquido que se encuentra encima. Estos términos de la fórmula representan la parte de la presión que ejerce sobre una partícula líquida, el empuje hidrostático. Pero como éste es igual y de sentido contrario el peso de esta partícula, en el seno del líquido se compensan los efectos de la presión y de la gravedad. A la expresión siguiente, antes analizada para velocidades nulas:
p1 + γ .h1 = p 2 + γ .h 2 se la llama presión reducida Si los aparatos para la medida de presiones se encuentran a igual altura respecto del plano de comparación y las tuberías de presión desde los puntos de medidas a los aparatos están llenas del mismo líquido en el cual se han de medir las presiones, los aparatos de medida indican esta presión reducida, p + h.γ. El término
v 2 .δ 2
en cambio, es la energía cinética de la unidad
de volumen del líquido y se lo denomina presión de velocidad.
45
En lugar de la presión de velocidad (Kg/m2) o (mm de columna de agua) se puede también dar la altura de una columna de un líquido que produzca la misma presión. Esta altura es:
v2 2g
y se llama altura de velocidad.
La ecuación de Bernoulli, es aplicable a toda la zona líquida en que el movimiento es libre de rotación. Para movimientos estacionarios resulta, introduciendo al mismo tiempo la presión reducida, la forma sencilla y más generalmente usada de la ecuación de Bernoulli que es:
v 2 .δ + p = constante 2
Cuando los líquidos rotan puede producirse el fenómeno de cavitación, que es aquél que se observa en los líquidos sometidos a fuerte presión. Este fenómeno consiste en la formación de una cavidad en el agua detrás del plano real o virtual que genera la rotación. Por ejemplo un cambio brusco de dirección en una cañería, un elemento material inmerso en una corriente líquida, tal como un pilote de un puente en el lecho de un río, las palas de una hélice en movimiento de una embarcación, los álabes (grupo de paletas) de las turbinas hidráulicas, etc. Una cavitación pequeña no perjudica el rendimiento de las máquinas y hasta puede aumentarlo, pero genera muchas veces acción corrosiva sobre los materiales. Teorema de Torricelli7 En un recipiente con nivel constante (ver figura 2.5), la corriente de líquido que fluye libremente por un orificio practicado a una profundidad h, bajo dicho nivel, lo hará a una velocidad v constante. Dicha velocidad es equivalente a la velocidad con que caería libremente una determinada masa del líquido desde la superficie libre hasta la profundidad h y puede calcularse con la fórmula:
v = 2g.h
7
Torricelli, Evangelista (1608 – 1647): físico y geómetra italiano nacido en Faenza, discípulo de Galileo. Inventó el barómetro y demostró los efectos de la presión atmosférica.
46
p0
h
p0
Figura 2.5 Para demostrar este teorema, a partir de la fórmula de Bernoulli, esquematicemos el caso de un recipiente de grandes dimensiones con pequeño orificio de salida como el graficado en la figura 2.6. p1
v1 y S1
h = h1 - h2 v2 y S2 p2
Figura 2.6
Si analizamos la sección S1, vemos que allí la v1 tiende a 0 y en la sección S2, la v2 = v , ya que es la única que subsiste.
47
Por otra parte p1= p2 = p0 (siendo p0 la presión atmosférica), pues no actúa en este caso ninguna presión adicional. Por lo tanto en la expresión de Bernoulli tendríamos:
δ v2 δ v2 2 +γ h po + 1 + γ h = po + 1 2 2 2 simplifica ndo y agrupando queda δ v2 pues p desaparece y v tiende a 0 γh -γ h = o 1 2 1 2 sacando factor común en el primer miembro es :
δ γ ( h - h ) = v2 1 2 2 y despejando v tenemos :
v=
γ.h.2 (*) δ
Pero recordemos que densidad puede expresarse como:
δ=
masa volumen
y peso específico como
γ=
peso volumen
Y si multiplicamos en la expresión de la densidad, ambos miembros por la aceleración de la gravedad g resultará:
δ.g = pero :
masa . g = peso
masa . g volumen entonces
48
δ.g = γ
y
g=
γ δ
Con lo que reemplazando esta última expresión en la anterior ecuación marcada como (*) nos da la fórmula de Torricelli a la que queríamos arribar:
v = 2.g.h La velocidad de salida de un líquido por un orificio pequeño practicado en la pared delgada de un recipiente de gran sección es la misma que adquiriría cayendo libremente en el vacío desde la superficie libre hasta el nivel del orificio. Recordemos en este punto algunas de las unidades intervinientes en las fórmulas de Bernoulli y Torricelli: γ: peso específico del líquido (Kg/m3) g: aceleración de la gravedad (9,81 m/seg2) v: velocidad (m/seg)
2 kg . seg δ = masa específica o densidad del líquido o gas ( ) 4 g m
γ
El vector velocidad, en el teorema de Torricelli, está considerado en el momento de la salida horizontal y se lo estima aplicado al centro del orificio. Inmediatamente después de la salida del recipiente las partículas del líquido se encuentran sometidas a una caída libre vertical por la aceleración de la gravedad. La trayectoria de caída del líquido tiene entonces forma parabólica, como resultante de la composición de las componentes horizontales y verticales de la velocidad. La altura h que determina la importancia de la velocidad de salida se denomina “carga ” de salida y aplicada a la fórmula:
v = 2.g.h da la salida teórica de salida.
49
Algunos ejemplos de velocidades teóricas de salida para diversas cargas se ejemplifican en la tabla que se consigna a continuación: CARGA
VELOCIDAD TEÓRICA
m v seg
h[ m]
0. 10 ------------------------------------------- 1. 401 0. 20 ------------------------------------------- 1. 981 1. 00 ------------------------------------------- 4. 429 2. 00 ------------------------------------------- 6. 264 3. 00 ------------------------------------------- 7. 672 4. 00 ------------------------------------------- 8. 858 5. 00 ------------------------------------------ 9. 904 10. 00 ------------------------------------------ 14. 006 20. 00 ------------------------------------------ 19. 808 30. 00 ------------------------------------------ 24. 260 40. 00 ------------------------------------------ 28. 013 50. 00 ------------------------------------------ 31. 329 Gasto teórico y gasto real de un orificio El gasto teórico Q se calcula con la sección efectiva S del orificio y la velocidad teórica de salida de acuerdo a la carga h.
Q = S . 2.g.h Este gasto teórico es válido para orificios practicados sólo en paredes delgadas, ya que en aquellos casos de paredes de gran espesor o donde existan conductos intermedios de salida de un recipiente, las condiciones varían, modificando los valores de cálculo. La sección real de la corriente se llama sección contraída S’ y es menor que la sección efectiva S del orificio. S′ = k S
k<1
50
El factor de reducción K se denomina factor de contracción y para orificios circulares en paredes delgadas se toma normalmente k = 0,62. De acuerdo a lo anterior el gasto real Q R del orificio es menor que el gasto teórico y debe calcularse aplicando el coeficiente K.
Q R = k . S . 2.g.h Si la pared no es delgada o existe un conducto inicial de salida de longitud mayor que el diámetro d del orificio, el fenómeno de salida se hace más complejo y aumenta el valor de la contracción (disminución del gasto real respecto del teórico). En la siguiente figura 2.7, esquematizamos un tanque de reserva que puede asimilarse al caso de Torricelli, y donde se ha incorporado un sifón que garantiza la reserva de agua para casos de incendio, lo cual es de rigor y reglamentario en todo edificio.
ventilación h N Sifón
LLP LLP
LLP VL
Figura 2.7
51
Por la acción del sifón y por efecto de la presión atmosférica, el nivel del tanque no bajará más que hasta el nivel N (altura h). El fondo del tanque quedará siempre como reserva. Presión estática y presión dinámica Consideremos un conducto horizontal alimentado por un depósito a nivel constante, suponiendo cerrada la salida final del líquido (figura 2.8).
he
hc
P
.
Figura 2.8 El sistema se encuentra en condiciones hidrostáticas. Un pequeño tubo colocado en una posición P indica la “presión estática” he en dicho punto (figura 2.9).
hc
he hd
.
P
Figura 2.9 52
v
Si se abre el extremo del conducto, circulará el líquido con velocidad v y el sistema está en condiciones hidrodinámicas. Colocando un tubo acodado con su extremo interno enfrentando al desplazamiento del líquido en el punto P, se determina la altura hd representativa de la presión dinámica en el conducto. Se observa que la presión estática en el punto P ha disminuido, al transformarse parte de la energía potencial representada por la altura de carga hc del sistema en energía cinética del desplazamiento del líquido a velocidad v. Si la sección del conducto es menor (suponiendo la misma carga hc) el valor de la velocidad aumenta y por lo tanto aumenta la presión dinámica hd y se produce la correspondiente disminución de he. En un conducto horizontal, para cualquier sección del mismo, es decir con cualquier velocidad de circulación se cumple: he + hd = hc El plano superior definido por hc se denomina plano de carga ideal y es siempre horizontal.
53
CAPITULO III
Calor El calor es una forma de energía que poseen todos los elementos naturales. Esta energía térmica (o calor, ya que son dos maneras válidas para denominar lo mismo), si bien está directamente vinculada al concepto de temperatura, no puede decirse que sean sinónimos desde el punto de vista físico. En rigor el calor, como fue dicho, es energía y la temperatura por su parte es una forma de comparación de estados térmicos de la materia. Desarrollaremos en las próximas líneas estas ideas con mayor detalle. Pero es importante señalar en este punto que el calor es por una parte uno de los elementos que los arquitectos tenemos que controlar en el hábitat que diseñemos, fundamentalmente para crear condiciones de confort en el hecho construido. Por otra parte este calor, es una de las dos únicas fuentes de que disponemos para alimentar las necesidades energéticas de un edificio (la otra es la electricidad), a través de una red de alimentación general. El calor ingresa en nuestro medio por combustión, mediante los artefactos correspondientes, del gas natural o envasado. Existen ejemplos en algunas ciudades, fuera de nuestro país donde se ingresa calor a un hábitat por medio de agua caliente. Pero ello no cambia lo dicho en cuanto a que son básicamente dos, aún en centros urbanos muy bien equipados, los sistemas de redes que permiten ingresar energía a una obra construida por el hombre. Mencionamos a este respecto que no incluimos como energía disponible la energía potencial que posee el agua de alimentación o como lo llamamos, nivel piezométrico, por la restringida posibilidad de transformar esa energía en otra que cubra alguno de los requerimientos de las instalaciones de un edificio. Pero dijimos que calor y temperatura no son exactamente sinónimos y vamos a indagar más en ello. Veamos algunas ideas elementales relativas a los cuerpos materiales, que nos permitirán desarrollar luego, los conceptos físicos inherentes a la energía térmica. Básicamente, todos los cuerpos están constituidos por porciones elementales discretas, que son las moléculas, las cuales están dotadas de
55
diversos tipos de movimiento individuales en el seno de la materia que constituyen. Cada cuerpo posee entonces una energía cinética – o de movimiento interna total, que denominaremos Et proporcional al número de moléculas, es decir a la masa m del cuerpo y a la energía cinética media de cada una. Este estado de agitación molecular en los cuerpos se percibe como lo que llamamos vulgarmente sensación de calor, y determina la energía térmica de un cuerpo. La energía térmica de un cuerpo corresponde, en consecuencia, a la energía cinética de los desplazamientos de sus partículas. El valor térmico de esa energía se expresa como cantidad de calor Q y se mide en calorías (cal). Definamos entonces primero caloría como unidad de cantidad de calor, diciendo que es la cantidad de calor necesario para elevar en 1°C (de 14,5 °C a 15,5 ° C) la temperatura de 1gr de agua (H2O). Como se puede observar en la definición anterior, se entremezclan los conceptos de calor y temperatura, pero en los parágrafos posteriores se verá que, como se dijo previamente, no se corresponden con conceptos idénticos, sino relacionados. En general en las aplicaciones arquitectónicas, se utiliza un múltiplo, en razón de los valores usuales en el campo de las instalaciones de edificios, que es la Kilocaloría (Kcal), equivalente a 1000 calorías. 1000 cal = 1 Kcal Como la energía cinética se expresa en unidades de trabajo mecánico, puede determinarse la equivalencia entre estas y la unidad de calor (caloría). 1 joule = 0,24 cal 1 cal. = 0.43 Kgrm Pasemos ahora a analizar ciertos conceptos vinculados a la forma de medir el calor, rama de la física denominada termometría. Habitualmente se usan las expresiones frío, tibio, caliente, etc. para indicar ciertas sensaciones subjetivas que un individuo percibe, a través del sentido del tacto, para detectar esa forma de energía que denominamos calor. Sin embargo podemos afirmar que no existe cuerpo material en la naturaleza que no posea energía térmica.
56
Un trozo de hielo a -20°C (veinte grados celcius bajo cero), posee mayor energía térmica que otro de igual material y masa que se encuentre a -40°C, y de ambos se puede decir que poseen una cierta cantidad de calor propia. Por lo tanto desde el punto de vista físico, el frío no existe, y se puede afirmar que todos los cuerpos conocidos poseen energía térmica. Estudiemos ahora una comparación entre estados térmicos distintos, esos que vulgarmente denominamos frío o caliente. Existe una variedad de estados intermedios que la termometría nos permite mensurar, a través de valores numéricos convencionales – es decir tomando un parámetro de referencia arbitrario – que lo que hacen es individualizar un determinado estado térmico por comparación. Los distintos estados térmicos pueden ser mensurados en base a la dilatación que experimenta una determinada substancia bajo la acción del calor. El caso del mercurio contenido en un tubo capilar de vidrio es el caso más común y se grafica en la figura 3.1, donde se muestran tres escalas termométricas, que son las más usuales en los sistemas de referencia actuales en el mundo. Estudiemos esas escalas termométricas: •
La primera es la escala Celcius ó centígrada, creada por el físico Celsius8, de quien toma el nombre con la modificación ortográfica. En ella se denomina cero grado al punto de fusión del agua, o sea al que corresponde a la temperatura de hielo fundente y cien grados al punto de ebullición, o sea a la temperatura del agua al transformarse en vapor, a presión atmosférica normal, lo que equivale a una columna de 760 mm de mercurio. La distancia entre estos dos puntos se divide en 100 partes iguales, continuándose la gradación por encima y por debajo de los puntos fijos. El espacio entre 2 líneas consecutivas se denomina 1 grado Celcius o centígrado, y se denota: 1°C (la letra C individualiza la escala).
•
La segunda es la escala Fahrenheit9, también creada por un científico de ese apellido.
8
Celsius Anders (1701-1744), astrónomo y físico sueco, que estableció la escala termométrica centesimal.
57
En ella se hace corresponder, siempre para el agua, el punto de fusión a 32 °F y el de ebullición a 212 °F, dividiéndose el intervalo en 180 partes y continuándose la división en uno y otro sentido como en el caso anterior. Su autor se inspiró en las propiedades de una mezcla de hielo y cloruro de amonio para fijar el punto inferior correspondiente a 0°F. El uso de esta escala se difundió principalmente en los países sajones. •
La tercera es la escala Kelvin10. Esta escala se llama absoluta, pues se refiere a la posibilidad, aun no concretada en la realidad, ni siquiera en experiencias de laboratorio, de lograr que una substancia no posea agitación molecular, o lo que es lo mismo se encuentre a 0°K. El grado Kelvin (°K) en valor unitario es igual al grado Celcius (°C).
En la figura 3.1 puede observarse un gráfico representativo de la equivalencia entre las escalas descriptas.
Figura 3.1 9
Fahrenheit Gabriel, fabricante de instrumentos que residió en las ciudades de Däanzig y Amsterdam. En 1724 usó mercurio en un tubo de vidrio, para construir un termómetro líquido. 10 Lord Kelvin, William Thompson, (1824-1907), físico que estableció la escala de temperaturas absolutas que lleva su nombre y que se relaciona con el coeficiente de compresibilidad de los gases.
58
En las escalas se ve que 100 °C equivalen a 180 °F o de otra manera:
5 (º F - 32) 9 º C º F - 32 ∴ = 100 180 ºC =
9 + 32 5 180.º C + 3200 ∴ ºF = 100 ⇔
ºF = ºC
ºC =
100.º F - 3200 180
Y el 0 °K equivale a -273 °C y a -459 °F. Hablemos un poco de los aparatos para medir variaciones en las escalas y que reciben el nombre genérico de termómetros. Un termómetro es un instrumento que mide temperaturas sensibles en un sistema determinado, usando lo que se denomina una variación lineal. Su expresión matemática sería: t(x) = ax + b donde t es la temperatura de la substancia usada en el termómetro y las constantes a y b dependen de las propiedades de esa substancia. En el caso más común de los termómetros que contienen mercurio, éste se mantiene líquido en un rango que va desde los -38.9 °C a los 356.7 °C lo que lo hace adecuado, además de su fácil visibilidad, para este tipo de aparatos. El mercurio habitualmente está contenido en un bulbo y se desplaza por expansión a lo largo de un tubo capilar que es el que posee la escala correspondiente en grados (figura 3.2).
Figura 3.2 Uno de las primeras experiencias de que se tiene memoria para medir temperaturas con una escala termométrica se remonta al año 170 DC, cuando Galeno, el famoso médico griego, propuso crear una temperatura de referencia que llamaba neutral, y que resultaba de juntar iguales cantidades de agua hirviendo y hielo.
59
Los primeros aparatos de ese tipo fueron llamados termoscopios. Se tienen noticias del año 1641, respecto del primer termómetro sellado que usó líquido en su interior. Se cree que se le debe al ingenio de Ferdinando II, Gran Duque de Toscana, que lo fabricó con alcohol coloreado y con una escala de 50 “grados”, que en realidad eran marcas, de las cuales se ha perdido en la historia cual era su valor referencial, comparado con los posteriores. La Escala Internacional de Temperatura, que adopta como válidas las tres escalas que antes mencionáramos, y fija las normas para toda forma de medición en ese aspecto, estableció sus últimas reglamentaciones en 1990. Los términos de los valores referidos a temperaturas, los definió en función de la relación presión temperatura del isótopo del helio, concepto que no consideramos que sea útil describir con mayores detalles en este escrito. Pero como fue dicho, al margen de su temperatura, todos los elementos de la naturaleza tienen energía térmica y cuanto más energía térmica posee una substancia, ella tiene a su vez mayor agitación molecular. El siguiente gráfico (figura 3.3), muestra la relación entre agitación molecular y temperaturas absolutas, y como se observa, indicaría ausencia de agitación molecular para valor nulo de temperatura absoluta. Sin embargo, el 0°K, que se corresponde con doscientos setenta y tres grados centígrados o Celcius bajo cero, no ha sido posible de detectar en un elemento material, a pesar de los valores muy próximos que se han logrado en experimentos de laboratorio y que permitieron obtener temperaturas del orden de los -270°C. Agitación molecular
°K Figura 3.3
60
Pero a veces, ante ciertas variaciones de calor en la masa de un material, no siempre se producen variaciones de temperatura. Es el caso que se da en los cambios de estado. Si se calienta un material en estado sólido, por ejemplo, se observará que a mayor energía térmica que se le proporcione, el material aumentará su temperatura. Pero si en determinado momento comienza a fundirse, es decir a pasar del estado sólido al líquido, se podrá detectar que su temperatura se mantiene constante durante el proceso de fundición, aun cuando sea necesario entregarle calor para que se complete el cambio de estado. Luego de completarse el cambio de estado, si se le sigue proporcionando calor, el líquido continuará subiendo su temperatura, pero sufrirá un proceso similar al descripto anteriormente si como consecuencia del mayor estado térmico se produce el paso de líquido a gaseoso (vaporización). El gráfico correspondiente a este fenómeno descripto anteriormente, y ejemplificado para agua común, puede observarse en la figura 3.4. o
C 2
1
o
100 C
1
pasa de líquido a vapor
2
0oC
1
pasa de sólido a líquido
calor (Q)
Figura 3.4 1) etapa de calor sensible (cambios de calor y de temperatura) 2) etapa de calor latente (consume calor sin cambio de temperatura)
61
Consideremos ahora el fenómeno de yuxtaponer (poner uno junto a otro) dos cuerpos con distinto estado térmico, como se ve en la figura 3.5. Et2
Et1
Et1 > Et2 El calor Q pasa del elemento de mayor temperatura al de menor temperatura.
Q
Figura 3.5 Para que el proceso de transferencia de calor sea exclusivo entre ambos cuerpos, es necesario que ellos se hallen independizados de cualquier otro sistema externo, por ejemplo en un espacio aislado del exterior. Como se puede deducir, a partir de la transferencia de calor del de mayor estado térmico al de menor, en un punto dado y si no se interrumpe el proceso, ambos cuerpos tenderán a equilibrarse térmicamente. Uno por ganancia y el otro por pérdida de calor. Piénsese en ejemplos de ese tipo en el campo del hábitat del hombre. Uno de los elementos en contacto puede ser un muro de cerramiento y el otro el espacio exterior. El espacio exterior en un día de verano tórrido le cederá calor al muro, el cual repetirá el proceso con el espacio interior de un edificio. En este caso la transmisión de calor no suele ser deseada y como veremos más adelante se buscará a través del diseño y del uso adecuado de los materiales del cerramiento, evitar el paso del calor de un medio al otro. Habrá otros casos en los cuales será conveniente favorecer la transferencia de calor de un material a otro. Es la situación que se nos presenta en una estufa de tiro balanceado, donde la cámara de combustión está herméticamente separada del ambiente al que calefacciona, por razones de seguridad frente a las propiedades tóxicas del gas quemado y los gases resultantes de la combustión.
62
Pero en esta última instancia, la cámara de combustión debe estar compuesta de un material que favorezca la transmisión del calor, de forma que éste ingrese al ambiente y no se pierda en el exterior. Y efectivamente se usa para ello la chapa metálica que es un buen conductor del calor (figura 3.6).
Interior
Q
Exterior
Estufa
Etinterior > Etexterior Figura 3.6 Lo anteriormente descripto nos ha introducido en la idea de los materiales conductores y aislantes del calor. Efectivamente los materiales, de acuerdo a sus características físicas intrínsecas y a las que es posible agregarle por medio de la variación de su morfología o de las propiedades tecnológicas, permiten la mayor o menor transmisión de calor a través de ellos. Ello permite a los arquitectos, incluso con el ingenioso uso de ciertos recursos del diseño, regular las ganancias o pérdidas de energía térmica de un hábitat. Veamos dos ejemplos prototípicos de materiales aislantes o conductores que son usados en el hecho constructivo. Aislantes térmicos (también llamados adiabáticos): El aire seco y en reposo es mal conductor del calor. Por ello, una solución constructiva de uso difundido y económica, ya que el aire es un material sin costo, es la creación de una cámara de aire (es ideal que tenga entre 3 y 15 cm de espesor) ejecutada entre dos capas de ladrillo de un muro de cerramiento.
63
Conductores térmicos (también llamados diatérmicos): Los metales son buenos conductores del calor, y cuanto mayor sea su superficie de contacto con el exterior, mayor será la transferencia de calor a ese medio. Esta propiedad se usa en la ejecución de serpentinas de radiadores de equipos de refrigeración de viviendas, que así transmiten de forma más eficiente el calor interno al espacio exterior. Formas de transmisión del calor Se dice que un sistema sufre una transformación adiabática cuando no intercambia calor con el exterior. Si el calor pasa a través de un cuerpo sólido líquido o gaseoso sin que la corriente calorífica sea acompañada por un transporte de materia, se dice que hay conducción; se denomina en cambio convección al caso en que sí se produce un transporte de materia. Por lo tanto podemos decir que en los sólidos el calor se propaga por conducción; en tanto que en los líquidos y gases, la propagación podrá ser por conducción o convección o de ambas maneras a la vez. El calor se propaga además por radiación es decir por ondas caloríficas en esencia iguales a las ondas luminosas. El calor que nos llega del Sol, atravesando el espacio que se supone absolutamente vacío lo hace en esa forma. En resumen, el calor puede transmitirse de estas tres formas: • • •
Radiación: sin necesidad del medio material. Conducción: en los sólidos y eventualmente en los fluidos en reposo (de molécula a molécula). Convección: se da en los fluidos (líquidos o gaseosos) con desplazamiento molecular.
Volveremos a tratar este tópico al hablar de los cerramientos y su comportamiento frente a la energía térmica que los atraviesa. Ahora, para ampliar la definición de caloría que se diera al comienzo de este capítulo, extenderemos ese concepto al resto de los materiales, en vez de ceñirlo solo al caso del agua, que era el fluido citado en la definición. Surge entonces el concepto de calor específico de cualquier material, que nos dará la medida de su comportamiento frente a la energía térmica que recibe o cede en un determinado proceso. Pasemos a las definiciones al respecto:
64
Calor específico: se denomina así, a la cantidad de calor que 1 gr de una substancia pierde o gana cuando su temperatura cambia en 1 °C (sin cambio de estado). El calor específico se mide de la siguiente forma: 1) Ce=
Q (Calor sensible) masa. ∆t
2) Cl =
Q (Calor latente) masa
∆t cambio de temperatura Unidades:
Ejemplos de calor específico sensible:
De la expresión que define el calor específico sensible, se puede deducir la siguiente: Q = Ce . masa . ∆t Que nos permite su lectura en estos términos: la cantidad de calor en un material, es directamente proporcional a su calor específico, a su masa y a la diferencia de temperatura que experimente. Ley de Fourier o ley elemental de la conducción del calor Ahora pensemos en un material homogéneo e isótropo, es decir que todas sus moléculas constitutivas sean semejantes y que se comporte, desde el punto de vista térmico, físicamente igual en todas las direcciones en que se lo considere. Pensemos también que ese material, que puede ser el de un cerramiento, separa dos espacios con diferente estado térmico, por ejemplo el interior y el exterior de una vivienda. Y para referirlo al gráfico de la figura 3.7, digamos asimismo que los dos espacios que separa están a distinto estado térmico, siendo mayor la cantidad de calor en el identificado como Et1 y menor en el identificado como Et2.
65
Habrá entonces una transferencia de calor desde el espacio 1 al espacio 2, pero que tendrá que atravesar el material en cuestión. Si para el citado material establecemos una serie de parámetros que midan la cantidad de calor que lo atraviese, nos encontraremos con el análisis que hizo en su momento el físico Fourier11 y que dio origen a su fórmula, que contiene las siguientes variables identificadas en el gráfico: • • • • •
e: espesor del material (supuesto de caras paralelas). S: superficie a través de la cual se produce el fenómeno de transmisión del calor. h: tiempo que demora en pasar el calor de una cara a otra del material, es decir, lapso durante el cual se produce el fenómeno de transmisión del calor. λ= coeficiente de conductibilidad térmica del material. ∆t = |(t1 – t2)|: diferencia de temperatura entre los espacios a cada lado del material, que se toma en valor absoluto. e
λ : coeficiente Et1
de conductibilidad
Et2
Superficie
Figura 3.7 11
Joseph FOURIER (1768 - 1830), físico - matemático, amigo de Napoleón, a quien acompañó a Egipto, en 1798. A su regreso, se convirtió en gobernador del distrito Isère, en el sudeste de Francia y, en ese cargo, hizo construir la primera carretera, en el sentido moderno, entre Grenoble y Turín. También fue amigo del – en su época - niño Champolliom quién, posteriormente descifró la piedra Rosetta. Trabajó en la teoría de la conducción del calor y, en 1822, publicó su famosa obra Théorie Analytique de la Chaleur, en la que utilizó ampliamente las series que llevan su nombre.
66
Y la fórmula de Fourier resulta:
Q=
Sup . h . ∆t . λ e
Las unidades intervinientes en la expresión anterior, son (excepto λ): Sup.: m2 h: hora decimal (Ej.: 20 minutos se expresan como 2/3 de hora) ∆t: grado celcius e: metro de lo que resulta la unidad de
λ=
Kcal.m m 2 . h . oC
donde es posible simplificar unidades, obteniendo una de las usuales expresiones del coeficiente λ de conductibilidad térmica de un material, que es:
λ= Ejemplos de Conductibilidad
Kcal m . h . oC
λAg (plata) = 360
Kcal. m. h . o C
λAire(seco y en reposo) = 0,02
Kcal. m. h . o C
La fórmula de Fourier puede explicarse en los siguientes términos: la cantidad de calor que pasa a través de una placa es proporcional a la superficie de la misma, a la diferencia de temperatura entre sus caras, al tiempo durante el cual se produce el proceso y está en razón inversa con el espesor de dicha placa. El coeficiente λ, cuando se refiere a cerramientos en general (simples o de varias capas), suele llamarse también K y en ese caso refleja la capacidad de transmitir calor de ese cerramiento, que depende de los materiales constitutivos. El coeficiente K es en los metales, aproximadamente proporcional a la conductividad eléctrica y en los líquidos al calor específico.
67
Por su parte, como corolario de la expresión de Fourier, se pueden definir el siguiente concepto: la conductividad de una substancia es la cantidad de calor que pasa a través de 1 cm2 de la misma en 1 segundo, cuando el gradiente de temperatura (o diferencia de temperatura por unidad de espesor), es de 1 grado por centímetro. El gradiente se expresa por el cociente que se obtiene al dividir la diferencia de los valores t1-t2 de una misma magnitud escalar, tomados en dos partes distintas, por la distancia que los separa. La expresión matemática es:
t1 - t 2 d este cociente se llama gradiente de temperatura y representa la caída de temperatura por unidad de longitud. Condensación El tema anterior nos introduce en el análisis de otro fenómeno importante en el hecho constructivo, que es la llamada condensación. Este fenómeno consiste básicamente en la transformación del agua en forma de vapor, en agua en estado líquido. ¿Pero cuál es la relación entre la temperatura del aire y la condensación? Para responder a esta pregunta es necesario definir lo que se llama punto de rocío, que es la temperatura a la cual el vapor de agua contenido en el aire se transforma en líquido. Este fenómeno se verifica, por cuanto el aire, a mayor temperatura, es capaz de albergar mayor cantidad de agua en estado gaseoso (vapor), por lo tanto a menor temperatura, es posible que parte de esa agua en estado gaseoso se transforme en líquido, depositándose en alguna superficie sólida. Existen variados casos conocidos de este proceso, por ejemplo el que se denomina empañamiento en los vidrios, o el agua que se deposita en la superficie de una pared interior en invierno al prender la calefacción, etc. Pero hay que señalar, que es mayor el perjuicio que la condensación puede producir en una pared o un cerramiento en general, cuando se produce en el interior de su núcleo (condensación intersticial), ya que luego el agua condensada, si no se toman las precauciones adecuadas, afectará la estructura del cerramiento mismo, o aparecerá en su superficie, deteriorando en la mayoría de los casos las terminaciones superficiales (pinturas, empapelados, etc.).
68
El caso más común en el que se presenta condensación superficial, es cuando la temperatura de la superficie interna de una pared, techo o ventana, es menor que la temperatura de rocío del recinto que está limitando. En régimen estacionario, es decir suponiendo que la temperatura no varía con el tiempo, sino que permanece constante al menos mientras se analiza el fenómeno, la cantidad de calor que atraviesa por unidad de tiempo y de superficie una pared de caras paralelas es:
q=
t
si
- t se R
y la unidad en la que se expresa es
Kcal m2. h
donde : t : temperatur a superficial interna si t se : temperatur a superficial externa R : resistencia térmica del material de la pared en
m2. h . º C Kcal
Esta fórmula es una medida para calcular el gradiente térmico o caída de temperatura que se produce en un material y al que ya habíamos citado, refiriéndolo a la unidad de espesor. El gradiente de un material se puede graficar, indicando el cerramiento en corte, y dándole en una escala que se toma en sentido vertical, distintas alturas a las temperaturas superficiales del cerramiento. La línea que une estas distintas alturas, indica la caída de temperatura en el interior del material, que si es homogéneo, determinará una línea recta inclinada (ver figura 3.8).
tse tsi
Figura 3.8 69
Si en cambio nos encontramos con un cerramiento que posee varias capas de distintos materiales, cada uno con su propia resistencia térmica, el cálculo de cada caída de temperatura se hará por separado, y la gráfica del gradiente térmico de todo el cerramiento, resultará del tipo de la que se muestra en la figura 3.9.
tse t1
t2 tsi
Figura 3.9 Cada caída de temperatura se establece según la fórmula antes mencionada, que en nuestro ejemplo implica calcular:
q = 1
t se - t
1 de donde t - t = q . R se 1 1 1 R 1
t -t q = 1 2 2 R 2
de donde t - t = q . R 1 2 2 2
t -t q = 2 si de donde t - t = q . R 3 2 si 3 3 R 3 Humedad absoluta y relativa El punto de rocío al que nos referimos en los párrafos precedentes, está vinculado directamente a la cantidad de agua en estado de vapor o condensada en el ambiente.
70
Por ello creemos recomendable repasar los conceptos de humedad absoluta y relativa. Como fue dicho, en el aire existe vapor de agua en cantidades variables, que dependen de otros factores de afectación, tales como ubicación del lugar geográfico, época del año, condiciones ambientales externas e internas, etc. Si el aire no posee capacidad para mantener una cierta cantidad de agua en forma de vapor, por cuanto éste supera lo admisible, se dice que la atmósfera se satura. Allí es cuando se produce la condensación. Para medir estos parámetros es que se relaciona la cantidad de vapor de agua que contiene el aire en un determinado momento (expresada en gramos), respecto de la unidad de volumen del aire (en m3). Esta relación es la llamada humedad absoluta (Ha). Por su parte, si relacionamos la cantidad de vapor de agua que contiene el aire, respecto de la máxima que podría contener a una determinada temperatura, esta relación es la que se denomina humedad relativa (Hr). Para dar un ejemplo sencillo, si la cantidad máxima de vapor de agua que puede contener un metro cúbico de aire a cierta temperatura es de 14,40g, en caso de que en un determinado momento, el aire a esa temperatura contuviera 7,20g por m3, ése valor será el de la humedad absoluta y la humedad relativa será del 50%, ya que 7,20g por m3 es exactamente la mitad del máximo admisible que puede contener. Cualquier otro ejemplo se resuelve como una regla de tres simple. Volvamos ahora a ampliar algunos conceptos relativos a las formas de transmisión del calor. La conducción como forma de propagación de calor En la masa de los cuerpos sólidos la energía térmica se propaga principalmente por conducción (transferencia de energía cinética por contacto). Es una propagación de baja velocidad, a diferencia de la propagación por radiación, que es prácticamente instantánea. Si recordamos la ley de Fourier, recientemente enunciada y relacionamos la conductibilidad térmica de un material con su peso específico, se constatará que en general, aquellos materiales de menor peso específico son, por ser más porosos, los mejores aislantes térmicos. Hay por supuesto excepciones a esa regla, ya que como fue dicho, esa propiedad depende también de la estructura molecular de cada material.
71
Se da a continuación un listado de valores referenciales. CONDUCTIBILIDAD TÉRMICA Y PESO ESPECÍFICO Kg m3
ρ
MATERIALES
Planchas de corcho Vermiculita suelta Mortero vermiculita y yeso Mortero vermiculita y cemento Poliestireno en planchas Poliuretano Lana de vidrio Placas de fibras aglom. Madera ( transv. a la fibra ) Hormigón sin armar Morteros de cal Morteros de cemento Mortero de yeso Mampostería ladrillo común Mampostería ladrillo cerám. huecos Mampostería bloq. huecos canto Vidrio
300 100 700 600 20 60 200 600 600 1.800 1.900 2.100 1.000 1.600 1.100 1.200 2.700
λ
Kcal m . h .o C
0,06 0,06 0,19 0,15 0,03 0,03 0,04 0,09 0,13 1,05 1,00 1,20 0,42 0,70 0,38 0,43 0,70
Cantidad de calor transferido por conducción La cantidad de calor transferida por unidad de superficie y por hora (caudal térmico unitario qc) de superficie a superficie en proceso de conducción resulta, en términos similares a lo antes expresado en condensación:
λ e
q c = .( t 2 - t 1 )
Kcal m2 . h
.( t 2 - t 1 ) en o C (diferencia de temperatur a entre las superficies) e en m (separación entre las superficies)
72
La convección como forma de propagación de calor Recordemos lo dicho respecto a que en un cuerpo fluido, las zonas a mayor temperatura colocadas por debajo de zonas a menor temperatura, provocan desplazamientos de materia. En el proceso de convección las zonas a mayor temperatura son menos densas y tienden a desplazarse siempre hacia arriba en el seno del fluido. Esto provoca el desplazamiento hacia abajo de las zonas más frías y más densas. Este proceso se grafica en la figura 3.10, que puede representar sintéticamente un recipiente con líquido, que recibe calor de una fuente energética ubicada en su base.
t1 t2 > t1 t2 Figura 3.10 La convección, en consecuencia es un fenómeno por el cual se transfiere calor de las zonas más calientes a las más frías, donde se verifica un transporte efectivo de las partículas de mayor velocidad a zonas de partículas con menos velocidad. Es la forma de propagación característica en el seno de líquidos o gases. La propagación del calor por convección implica transporte de materia y es típica de los cuerpos fluidos, categoría que reiteramos que incluye a los líquidos y los gases. Cuando nos referimos al medio ambiente, donde se inserta el hecho constructivo, el aire es el fluido característico para las convecciones en la propagación del calor. La importancia de la convección producida depende de las posiciones relativas entre las superficies limitantes del ambiente y la masa de aire definida, así como de la relación entre la temperatura ambiente (t) y la de la superficie ( σ ).
73
La relación entre las temperaturas determina el sentido del flujo térmico (de la temperatura más alta hacia la temperatura más baja). Se tienen las siguientes posibilidades fundamentales: Superficie horizontal inferior con flujo ascendente, que se grafica en la figura 3.11. El aire se calienta por contacto con la superficie y se desplaza hacia arriba provocando una corriente convectora. t
t<σ σ
Figura 3.11 Superficie horizontal inferior con flujo descendente, que se grafica en la figura 3.12. El aire ambiente se enfría en contacto con la superficie y su descenso queda bloqueado por ella sin posibilidad de producirse una convección efectiva.
t
σ
Figura 3.12
74
t>σ
Superficie horizontal superior con flujo descendente, que se ve en la figura 3.13. El aire ambiente se calienta en contacto con la superficie y su ascenso queda bloqueado por ella sin posibilidad de producirse una convección efectiva.
σ t<σ
t
Figura 3.13 Superficie horizontal superior con flujo ascendente, que se ve en la figura 3.14. El aire se enfría en contacto con la superficie y se desplaza hacia abajo provocando una corriente convectora. σ
t
Figura 3.14
75
El caso de superficies verticales, que se observa en las figuras 3.15 (a) y (b), nos permite remitir a la situación que se describe a continuación de los gráficos.
t
t
σ
σ
(a)
(b)
t>σ
t<σ Figura 3.15
El aire junto a la superficie se calienta o se enfría (según la dirección del flujo) e inicia un movimiento laminar ascendente (a) o descendente (b) que sólo provoca una pequeña convección en el conjunto del aire del ambiente. Los casos posibles pueden reducirse entonces a tres: CASO
CONVECCIÓN
1 - Sup . horizontal - flujo ascendente 2 - Sup . vertical 3 - Sup . horizontal - flujo descendente
BUENA REGULAR DEBIL
Cuando el desplazamiento de materia del ambiente fluido con respecto a las superficies limitantes se produce exclusivamente por diferencias de densidad por las diferencias locales de temperatura, se dice que se trata de un proceso de convección natural.
76
Si existen además corrientes de aire (fluido en general) que activen por otros medios el desplazamiento de la materia junto a la superficie, se dice que se produce una convección forzada. Pero en el tema de la convección, es fundamental tomar en cuenta otro parámetro, que acompaña al sentido de las corrientes convectoras. Ello es la velocidad de movimiento del aire, que sin estar originado en una convección local, activa a ésta favorablemente. Consideremos entonces la cantidad de calor transferido por convección, y su relación con el efecto producido por la velocidad del aire. La cantidad de calor transferida en proceso de convección, de una superficie a temperatura 0 hacia el ambiente a temperatura t (o inversamente), por unidad de superficie y por grado de diferencia de temperatura, define el factor αc de transferencia superficial por convección, siendo su unidad:
αC
en
Kcal m . h .o C 2
Si (t-σ) es positivo significa que la superficie considerada recibe calor, y si es negativo, que envía calor al ambiente. El valor de αc depende del caso de convección de que se trate y de la velocidad propia del movimiento del aire no debido a la convección. Para aire con velocidad propia supuesta nula (v = 0) se tienen los siguientes valores de αc. 1 - Sup. horizontal - flujo ascendente 2 - Sup. vertical 3 - Sup. horizontal - flujo descendente
6 4 1
De acuerdo al valor de la velocidad v propia del aire, los valores de αc deben incrementarse multiplicando por los factores de corrección que se consignan en la siguiente tabla: VELOCIDAD v DEL AIRE ( m/seg ) ( Km/h ) 0 0 1 3.6 2 7.2 3 10.8 4 14.4 5 18.0 6 21.6 7 25.2
FACTOR DE CORRECCIÓN 1.0 1.7 2.3 2.9 3.3 3.7 4.0 4.3
77
Valores de velocidad de viento inferiores a 0,2 m/seg se consideran como aire totalmente en calma (v=0), situación que se corresponde normalmente con la de los ambientes interiores. La radiación como forma de propagación de calor Veamos las condiciones generales de transferencia por radiación. La superficie de todos los cuerpos emite radiación térmica de acuerdo a la temperatura τ a la que está, fenómeno que se verifica simultáneamente con el proceso de transferencia por conducción que pueda experimentar en su seno. A su vez ese cuerpo, en la medida que no está aislado de otros en la naturaleza, recibe calor radiado por otras superficies enfrentadas a él de distinta forma. Ahora, la cantidad de calor transferido por radiación desde o hacia una superficie s1, con respecto a otra superficie enfrentada s2, depende: • • •
del factor de transferencia por radiación αR de un factor de forma f de la diferencia entre la temperaturas τ2 – τ1 correspondientes a las superficies enfrentadas s1 y s2.
El factor αR representa la cantidad de calor transferido para la superficie s1 a temperatura τ1, por unidad de superficie, por unidad de tiempo y para cada grado de diferencia de temperatura τ2 – τ1, siendo su unidad:
α R en
kcal m . h .o C 2
Si τ2 – τ1 es positivo, significa que la superficie s1 considerada recibe calor y si es negativo, significa que s1 envía calor al ambiente. El valor de αR depende de los factores de emisión ε1 y ε2 de las superficies consideradas y de una constante dimensional ϕα, cuyo valor estándar se consigna a continuación:
ϕα = 5
kcal m . h .o C 2
Con respecto a los factores de emisión, para materiales comunes en los hábitats, los valores corrientes son: ε1 = ε2 ≅ 0.9
78
Y el valor usual de αR , puede ser:
αR = 4
kcal m . h .o C 2
El factor de forma “f” depende de las posiciones relativas de las superficies y está tabulado. En el caso de que las superficies del tipo s2 envíen radiación desde todas las direcciones sobre s1, circunstancia que es la más habitual, el factor de forma es: f = 1 En general todas las superficies de tipo s2 tienen temperaturas τ2 ligeramente diferentes, pero pueden sustituirse por una temperatura global equivalente llamada temperatura radiante (τR). Normalmente τR es prácticamente igual a la temperatura interior t del ambiente.
Cantidad de calor transferido por radiación La cantidad de calor transferido por unidad de superficie y por hora (caudal térmico unitario qR) entre una superficie y el ambiente, en proceso de radiación es:
qR = α R .( t - τ) expresado en
t en τ en
Kcal m2. h
o
C ( temperatur a ambiente )
o
C ( temperatur a de la superficie)
Procesos simultáneos y sucesivos En la transferencia integral del calor entre los ambientes a distinta temperatura, venciendo las resistencias térmicas representadas por un sistema divisorio, el proceso comprende dos aspectos: El paso del calor del ambiente a la superficie del divisorio, o inversamente, es de tipo simultáneo para las distintas cantidades de calor que pueden transferirse por radiación (qr) o por convección (qc) a través de la misma superficie. El paso de calor de ambiente a ambiente es de tipo sucesivo para una misma cantidad de calor que se transfiere a través de los distintos elementos del sistema divisorio.
79
En los procesos simultáneos la resistencia total a vencer sigue la ley de suma de las inversas. En este caso, siendo Rc la resistencia a la transferencia superficial por convección, Rr por radiación, se tiene:
1 1 1 = + Rt Rc Rr En los procesos sucesivos la resistencia total a vencer sigue la ley de la suma directa. En este caso, siendo R1 + R2 + R3 +............. diversas resistencias parciales, se tiene: R t = R1 + R2 + R3 +............. Transferencia superficial total Es evidente que en un hábitat generado por un diseñador, en el medio ambiente habitual en el que vivimos, y rodeados de la atmósfera convencional, la transferencia de calor que llega a nuestro cuerpo y que percibimos, se verifica a través de los fenómenos de radiación y de convección. El primero emitido por las superficies limitantes y el segundo a través del aire. Por lo tanto este fenómeno complejo se cuantifica por medio de un factor que toma en cuenta ambas formas de transmisión del calor. Ese parámetro, denominado factor total de transferencia superficial αT, entre una superficie y el aire, y que incluye simultáneamente los procesos de convección y radiación, es: αT =αc + αR Considerando para locales interiores el aire en calma y para los ambientes exteriores v = 18 Km/h (5 m/seg), los valores usuales de αT resultan:
FACTOR
TOTAL
Kcal α 2 o m . h . C Interior : α i
1 - Sup . horizontal - flujo descend. 2 - Sup . vertical 3 - Sup . horizontal - flujo ascend.
5 8 10
80
Exterior : α e 9 18 25
Sintetizando, podemos decir que la transferencia de calor en forma global, desde un ambiente a otro menor a menor temperatura, a través de un elemento divisorio, importa sucesivamente tres etapas, que son: 1 - Transferencia de ambiente a superficie (proceso de radiación y convección) 2 - Transferencia de superficie a superficie (proceso de conducción) 3 - Transferencia de superficie al ambiente (proceso de radiación y convección) Conductividad térmica de cerramientos Veamos los conceptos descriptos previamente, en el caso de un cerramiento multicapa, tal como el que se muestra en la figura 3.16. 1
2
3
4 EXTERIOR
INTERIOR
vientos corrientes convectoras
αe
αi λ1
λ2
λ3
λ4
e1
e2
e3
e4
Figura 3.16
81
De la fórmula de Fourier, es posible independizar el cociente parcial
λ al que llamaremos conductancia térmica de un material Ki e λ1 e1 1 y por lo tanto, su opuesto será Ri = = Ki = λ1 λ1 e1 e1
Siendo Ri la resistencia térmica específica de un material Mi. A partir de estas expresiones, podemos dar la fórmula que permite calcular la resistencia térmica de un cerramiento multicapa (diversas capas paralelas de materiales), que en principio es la sumatoria de las resistencias térmicas específicas de los materiales que lo componen. Resulta entonces para el ejemplo graficado en la figura 3.16, una resistencia total térmica R t :
Rt =
e3 e4 e1 e 2 + + + λ1 λ 2 λ 3 λ 4
Pero en las proximidades del cerramiento, en distancias que no exceden los pocos milímetros, sucede un fenómeno que resulta en una variación pequeña de temperatura respecto de la correspondiente a las caras del cerramiento y al medio circundante. Este fenómeno se puede medir a través del factor total de transferencia superficial o coeficiente pelicular de conductancia térmica (αT). Este factor está determinado básicamente por cuatro parámetros que son: i) ii) iii) iv)
movimiento del aire (viento o corrientes convectoras interiores) color brillo textura
Cuanto más alto es αT, peor es la resistencia térmica. Y los valores aumentan a mayor movimiento del aire, con los colores obscuros, en superficies opacas y con texturas superficiales rugosas. Obviamente disminuye el αT, para los casos opuestos. Como vimos, los valores de αT están tabulados, y pueden tomarse como promedio: Para Bs. As.
Kcal m 2 . h .o C Kcal = 20 2 o m .h. C
α int= = 7 α ext=
82
En la Patagonia, el αext puede ser más alto que en zonas cálidas y sin vientos dominantes, por ejemplo, su valor puede alcanzar:
α ext = 30
Kcal m 2 .h. o C
Con la inclusión de los coeficientes peliculares αi y αe, se completa la fórmula de la resistencia térmica total de un cerramiento multicapa. Obsérvese que la unidad del coeficiente αT es la que se corresponde para ser uno de los sumandos inversos en la citada fórmula, ya que es un coeficiente de “conductancia” térmica.
RT =
e1 e 2 e 3 e 4 1 1 + + + + + λ 1 λ 2 λ 3 λ 4 α int α ext
La unidad en que corresponde expresar los valores obtenidos es la siguiente:
RT(
m 2 . h .o C ) Kcal
Si, además, al muro multicapa se le adicionara una cámara de aire, que como fue dicho, mejora su capacidad de aislación térmica, esta modificación aparece también con un valor tabulado en la fórmula general y resulta:
RT =
e1 e 2 e 3 e 4 1 1 + + + + + + R T c.aire λ 1 λ 2 λ 3 λ 4 α int α ext
La conductancia térmica total KT, es por supuesto la inversa de RT, y por lo tanto, resulta su expresión:
KT =
83
1 RT
La gráfica del caso de un muro multicapa con cámara de aire, es la que se muestra en la siguiente figura 3.17.
INTERIOR
EXTERIOR
e1 : espesor revoque e2 : espesor muro e3 : cámara de aire e4 : espesor muro e5 : espesor revoque λ1
λ2
λ3
λ4
λ5
Figura 3.17 Los valores RT y KT , son los que se usan como referentes para indicar las capacidades aislantes o conductoras térmicas de los distintos materiales en la construcción. Creemos significativo señalar que los valores de resistencia térmica de la cámara de aire se tabulan, sin hacer un cálculo sobre la base de dividir:
e λ
pues si se generara una cámara de aire de alto espesor, se producirían en su interior corrientes convectoras, que harían disminuir sensiblemente su capacidad aislante. Por lo tanto, por razones constructivas y de eficiencia, sus dimensiones están restringidas a los valores ya señalados de entre 3 y 15 cm de espesor. Dilatación Definimos dilatación como la modificación de volumen que experimenta un objeto, por acción del calor. Siendo ∆L el incremento total de una dimensión inicial L0 en un volumen dado de materia, al aumentar en ∆t su temperatura, se llama “dilatación específica“ al cociente
∆L = L0
Lt - L0 L0
La dilatación específica es proporcional a ∆t según un coeficiente que se llama “coeficiente de dilatación“ (α).
84
Dilatación lineal (figura 3.18).
L0
Lt
Coeficiente de dilatación lineal: α
L t − L 0 = α. L 0 . ∆t
Figura 3.18
L t = L 0 + α. L 0 . ∆t
∴ L t = L 0 .(1 + α. ∆t )
Dilatación plana L0 L0
Lt
Lt Figura 3.19
85
A 0 = L20 y A t = L2t
L2t = L20 (1 + α.∆t ) 2
entonces
de lo que resulta A t = A 0 .(1 + 2α.∆t ) ya que el término (α.∆t ) 2 tiende a cero, por ser el valor de α muy pequeño.
Dilatación cúbica Lt
Lt
L0 L0
L0 Lt
Figura 3.20 V0 = L03 y Vt = Lt3 ∴ Vt = L03(1+α∆t)3 = V0(1+3α2∆t2+3α∆t+α3∆t3) como α2 y α3 tienden a 0 queda Vt = V0 (1+3α∆t ) Aunque todos los elementos materiales poseen volumetría tridimensional, a los efectos de valorar los cambios de volumen por dilatación, se toman en cada caso los coeficientes de las dimensiones predominantes. Así, por citar ejemplos en el campo de los elementos constitutivos de un edificio, se pueden considerar lineales las columnas, las cañerías, los tensores, etc. Por su parte son elementos básicamente bidimensionales las losas, los solados, las membranas, etc.
86
Y cúbico o tridimensional puede considerarse el edificio completo, o alguna de sus partes tales como caja de ascensor, un ámbito determinado, etc. En todos los casos, cuando el elemento material puede sufrir algún deterioro por efecto de estos cambios dimensionales, se requiere que se deje el espacio libre necesario para absorber esa dilatación. Esa solución técnica recibe el nombre de junta de dilatación y se materializa creando una separación entre sectores de los elementos materiales (por ejemplo pisos), a intervalos regulares, y llenando el espacio vacío con algún material elástico (por ejemplo selladores siliconados), que absorba los diversos cambios de tamaño de los materiales, que esta junta de dilatación separa entre sí. Muchas roturas de mosaicos o de pisos de canchas de tenis de cemento expuestos al sol, fisuras en la estructura de hormigón de un edificio, son casos de patologías debidas al efecto del fenómeno de dilatación, en los que no se han tomado los correspondientes recaudos para evitar los daños. Las membranas hidrófugas expuestas a cambios importantes de temperatura en los techados, son en cambio ejemplos de materiales que se han ejecutado con substancias básicas, que no sólo impiden el paso del agua, sino que poseen características de elasticidad que evitan su fractura y la consecuente falla, para el destino que cumplen en una cubierta. Ejemplos de coeficientes de dilatación coeficientes de dilatación lineal sustancia α (1/°C) hierro cobre aluminio hormigón
0.0000123 0.0000170 0.0000234 0.0000120
Los estados de la materia y la temperatura Estado físico y cambio de estado Toda disposición estructural estable entre las partículas de una sustancia configura un estado físico definido en el cuerpo que constituyen. En otras palabras, todo cuerpo se encuentra en un estado físico determinado.
87
Cuando el valor de la energía térmica de un cuerpo alcanza determinados límites por aumento o disminución del valor inicial, comienzan a producirse alteraciones en el ordenamiento estructural de sus partículas que llevan al cuerpo a un nuevo estado físico estable diferente del primitivo. Se dice entonces, que se ha producido un cambio de estado. Para un cuerpo dado, y ordenándolos en orden energético decreciente, los estados físicos son los que describiremos a continuación: El calor y los estados de la materia En un cuerpo sólido la movilidad de las moléculas es reducida. Las fuerzas de cohesión superan a la de gravitación. El cuerpo tiene forma estable y volumen definido (figura 3.21). Si se aporta energía térmica (comunicándole una determinada cantidad de calor), se incrementa la velocidad de agitación de las partículas, y en consecuencia aumenta la temperatura del cuerpo. Estado: Sólido Veloc. Media: Baja Temperatura: Baja Forma: Estable Volumen: Definido
Figura 3.21 Si el incremento de energía térmica sigue produciéndose, la velocidad media de las partículas llega a ser suficientemente elevada como para que se destruyan las fuerzas de cohesión. La estructura general se modifica y el sólido pasa a un estado físico superior: líquido el cual se grafica en la figura 3.22.
Estado: Líquido Veloc.Media: Alta Temperatura: Alta Forma: Sin forma propia Volumen: Definido
Figura 3.22
88
En el estado líquido las fuerzas de gravitación superan a las de cohesión. El cuerpo no tiene forma estable, aún cuando conserva un volumen definido. La velocidad media de los desplazamientos moleculares es superior a la que el mismo cuerpo tiene en el estado sólido. El cuerpo se encuentra a mayor temperatura que en dicho caso. Continuando el incremento de energía térmica, la velocidad media de las partículas llega a valores muy altos y se rompe totalmente la cohesión interna, pasando el cuerpo a un estado físico superior: gaseoso. En el estado gaseoso las moléculas tienen total movilidad. Sin fuerzas de ligadura, se desplazan en trayectorias rectilíneas superando las fuerzas gravitatorias. Las distancias entre partículas tiende a aumentar indefinidamente. El cuerpo carece de forma y volumen propios, tal cual se grafica en la figura 3.23
Estado: Gaseoso Veloc. Media: Muy Alta Temperatura: Muy Alta Forma: Sin forma propia Volumen: Sin volumen propio
Figura 3.23 Un máximo incremento de la energía térmica llega a dislocar la estructura no sólo a nivel molecular sino atómico. Se pierden las características físicas normales de un gas y se llega al estado hipergaseoso o plasma. La evaporación de un líquido Las moléculas de mayor velocidad llegan a vencer las fuerzas de cohesiones y gravitatorias y escapan desde la superficie libre del líquido. Se produce evaporación, fenómeno que se grafica en la figura 3.24.
89
Figura 3.24 Como consecuencia del fenómeno de evaporación, la velocidad media de las partículas del líquido se reduce. El líquido permanece durante el proceso a una temperatura constante, y el calor que recibe es consumido por el cambio de estado (líquido a gas). En consecuencia: Todo proceso de evaporación lleva implícita una disminución de la temperatura del líquido que se evapora. La presión de un gas Cuando un gas se encuentra confinado en un volumen determinado, los choques de sus partículas en movimiento contra las superficies limitantes de su volumen crean la llamada presión del gas. Las unidades de presión corresponden a fuerzas que se relacionan con las superficies donde dichas fuerzas actúan (tensión), y se expresan corrientemente en gr/cm2 o Kg/cm2. Las fuerzas elementales de presión actúan siempre perpendicularmente a las superficies límites y para el conjunto del volumen de gas, se equilibran entre sí dando una resultante total nula. Puede verse esta característica en la figura 3.25(a). Es claro que en el caso de superficies límites curvas, la perpendicularidad se establece respecto de la tangente a la superficie en el punto considerado.
P
(a)
Figura 3.25 90
(b)
La única fuerza que queda actuando sobre las partículas del gas es el peso propio de las mismas, dando como resultante el peso P del volumen del gas considerado, como se grafica en la figura 3.25(b). Considerando un gas como vapor correspondiente al cambio de estado de un líquido (evaporación o vaporización), la presión se llama también “tensión del vapor “. Inercia térmica - Velocidad de enfriamiento Se mencionó ya el concepto de inercia térmica al hablar de calor sensible y calor latente. Ampliaremos ahora esa idea. Si la superficie de un cierto material de espesor e se encuentra a temperatura τ2, expuesta en un ambiente a temperatura τ1 (siendo τ2 > τ1), dicha superficie se enfría. Si fuera τ2 < τ1 la superficie sufre un paulatino calentamiento. En ambos casos y para una diferencia dada ∆τ = τ2 - τ1, la rapidez con que la superficie alcanza una determinada temperatura diferente de la inicial, depende de la naturaleza del material y el espesor e. El proceso determina lo que se llama inercia térmica del material en función del mayor o menor tiempo necesario para cumplirlo. Este fenómeno es el que explica porqué los muros, por ejemplo, entregan calor por las noches, cuando la temperatura ambiente disminuye, al interior de los ambientes. O porqué los sótanos son frescos aún en días cálidos y relativamente templados en el más crudo invierno. La inercia térmica de la masa de tierra que los rodea, les conserva esa temperatura intermedia que por comparación con la exterior, da las diferencias señaladas. Como dato interesante al respecto, en la ciudad de Buenos Aires, a 30 metros de profundidad, la temperatura (que miden los especialistas en el tema), está en un promedio de 20 °C durante todo el año, con una variación de no más de ± 4°C. Como caso de aplicación en el campo constructivo, en zonas desérticas, donde la temperatura ambiente sufre grandes variaciones a lo largo de un mismo día, una de las soluciones para resguardar durante las frías noches el calor de las horas de Sol, es ejecutar la vivienda o el edificio con muros de gran masa (por ejemplo jerarquizando el espesor). Ello hace que la energía térmica acumulada durante el período diurno, se restituya a los ambientes interiores a lo largo de la noche, funcionando como un sistema no mecánico de calefacción. A su vez, estos muros tienen la virtud de resultar aislantes térmicos mientras el calor exterior es excesivo, en base a su gran espesor (recuérdese la fórmula de Fourier).
91
Por lo tanto, con un adecuado cálculo de la cantidad de energía que se debe aislar o conservar, según los horarios, dichas paredes funcionan como un eficiente sistema natural de acondicionamiento térmico. Digamos también, que para considerar este fenómeno de la inercia térmica, es necesario tomar en cuenta el parámetro del tiempo, durante el cual se produce la ganancia o pérdida de calor. Por ello, debe asimismo tenerse como variable, la llamada velocidad de enfriamiento, donde se verifica que para un material dado, la rapidez de enfriamiento es mayor cuanto mayor es la diferencia ∆τ. Por lo tanto dicha velocidad es máxima al comenzar el enfriamiento y disminuye paulatinamente. Aunque el caso de interés general, es para τ2 > τ1, los conceptos anteriores valen exactamente para la situación opuesta τ2 < τ1.. Desarrollaremos más en detalle este fenómeno en el Capítulo de Uso Racional de la Energía, en el tema que se denomina Arquitectura Solar Pasiva.
92
CAPITULO IV
Acústica Esta rama de la física, denominada acústica, se ocupa de estudiar el sonido, otra de las formas de manifestarse la energía, en directa relación con el hábitat humano. En ese sentido hay que reconocer que si no se trata de un proyecto directamente vinculado con las expresiones acústicas, tal como podría serlo un teatro o un auditorio etc., en general el aspecto del tratamiento acústico merece menor atención que otros temas como los relativos al campo hidrófugo o térmico. Sin embargo, la contaminación sonora que padece el hombre de nuestro tiempo, especialmente en las grandes ciudades, hace que el cuidado del manejo del sonido o del ruido, que no es más que un sonido en general poco agradable, requieran un estudio serio y responsable en el momento de diseñar un edificio. Hemos hablado de tratamiento acústico, pues como se verá en este capítulo, no solo se debe analizar el control de transmisión del sonido a través del aire y entre diversos espacios, sino que existen diversos fenómenos adicionales, que también participan de las variables que un arquitecto tiene que manejar en su diseño del hábitat. Vayamos entonces, como primer paso, a descubrir qué es el sonido y qué características presenta como energía con la cual convive el ser humano. El sonido como un movimiento oscilatorio armónico El ejemplo prototípico de un movimiento oscilatorio armónico harto conocido es el del péndulo, que se esquematiza en la figura 4.1.
P
P’
Figura 4.1
O 93
Si se tiene un péndulo en reposo, tal como en la posición “O”, y se lo aparta de esa posición, trasladándolo a la posición “P”, se observará que se genera un movimiento de vaivén, que es un arco de circunferencia con centro en el punto de suspensión, que hace que sucesivamente vaya ocupando las posiciones P, O, P’ en forma repetida. El movimiento oscilatorio se produce como resultado de la fuerza de gravedad aplicada al cuerpo del péndulo. Este cumple un movimiento oscilatorio armónico. Movimiento en cuanto hay una partícula material que se mueve, oscilatorio por cuanto se repite cíclicamente el mismo movimiento y armónico porque se produce igual cantidad de veces en una unidad de tiempo. El péndulo recorre el camino PP′ alternativamente en uno y otro sentido. Si “O“es el punto medio de ese recorrido, se llama amplitud del movimiento vibratorio, a la distancia OP = OP′ o sea a la mayor separación del punto de su posición de equilibrio. Se dice que el péndulo ha efectuado una vibración, cuando ha recorrido el camino PP′ y P′P (ida y vuelta); y se da el nombre de frecuencia al número de vibraciones que se efectúan en un segundo. Por su parte se llama período del movimiento oscilatorio, al tiempo que tarda el mismo en efectuar una vibración u oscilación completa. La frecuencia y el período de la oscilación de un péndulo dependen del largo de la barra que une su cuerpo con el punto de sujeción. Si la longitud aumenta, se observa que la frecuencia disminuye, o sea, las vibraciones son menos rápidas y el período es mayor. Veamos como funciona equivalentemente el fenómeno del sonido, cuando la partícula móvil es una molécula de aire, o de otro material cualquiera y su oscilación está producida por una fuente emisora de ruido. Todo medio natural (sólido, líquido o gaseoso) es en realidad una agrupación de partículas vinculadas elásticamente y en ese medio, cada una de esas partículas tiene la posibilidad de efectuar ciertos desplazamientos en torno a su posición media. Por lo tanto, si se provoca un estado oscilatorio en una de las partículas del medio elástico, dicho estado oscilatorio se transmite con iguales características y en forma ordenada al resto del medio circundante. Es en esas condiciones que se genera en el medio considerado un estado oscilatorio, que se propaga a partir del punto de perturbación original, y con una velocidad de transmisión perfectamente determinada. Un ejemplo fácilmente verificable y que todo observador habrá visto en su vida, es el que se produce al arrojar una piedra en una superficie de agua quieta, como en un estanque. Se puede observar en ese caso, que se producen una serie de ondas en la superficie, a partir del punto de
94
perturbación original, que presentan la forma de frentes de onda concéntricas, y que se propagan radialmente en todas direcciones. Imaginemos que ese mismo fenómeno se produce en un espacio tridimensional, cual es el caso del aire. Tendremos allí una serie de esferas virtuales que se dilatan y se contraen oscilatoriamente por variaciones alternadas, consecuencia de una fuente que les imprimió ese movimiento original. Esa fuente resulta en nuestro caso de estudio, el emisor de sonido, que provocará en su entorno y en las partículas del aire, en todas direcciones, radialmente y bajo la forma de frentes de ondas esféricos concéntricos, un estado oscilatorio armónico. Para diferenciar ambos ejemplos, digamos que en el caso de la superficie del agua, las oscilaciones son transversales respecto a las direcciones radiales de propagación, mientras que en el espacio tridimensional, en el caso del aire, son coincidentes con la dirección de propagación. En el primer caso se dice que se trata de oscilaciones transversales y en el segundo, de oscilaciones longitudinales. De este tipo son las ondas sonoras. Resumiendo podemos señalar que las ondas sonoras son: • • •
Mecánicas: mueven elementos materiales (partículas de aire, agua, etc.), y dada esa característica, constituyen una forma de transmisión de energía que no puede darse en el vacío. Tridimensionales: Se propagan en todas direcciones y sentidos en forma esférica a partir de la fuente emisora. Longitudinales: Son coincidentes la dirección del movimiento de las partículas y la dirección de propagación de la onda.
Parámetros físicos de la oscilación y la propagación Como en todo movimiento oscilatorio armónico, se tienen los siguientes parámetros fundamentales: T - período de la oscilación: es el tiempo que dura una oscilación completa y su unidad es el segundo. f - frecuencia: es el número de ciclos, oscilaciones o vibraciones en la unidad de tiempo y su unidad es el Hertz12 o ciclos/seg. 12
Herz, Heinrich, (1857-1894), físico alemán, profesor de física en Bonn. Se especializó en estudios sobre la electricidad y la teoría ondulatoria, estableciendo importantes relaciones entre los fenómenos electromagnéticos y ópticos.
95
Se puede inferir la siguiente relación entre los dos parámetros anteriores 1 1 f= siendo la unidad correspond iente a la frecuencia o Hertz T seg A - amplitud de la oscilación: es la máxima elongación o apartamiento de las partículas respecto de su posición media y por causa de la oscilación introducida. Se vincula a la intensidad, concepto que desarrollaremos unos párrafos más adelante. λ - longitud de onda: es el espacio recorrido por la propagación, a velocidad v durante un tiempo T que corresponde al período. Su unidad está dada en medidas de longitud (m; cm; mm). A partir de estos parámetros, podemos caracterizar otros conceptos en la propagación del estado oscilatorio, tales como: v - velocidad de propagación: es la velocidad con que el estado oscilatorio va alcanzando los diversos puntos respecto del origen de la perturbación. De acuerdo a la definición de λ y al concepto general de velocidad (espacio con relación al tiempo) se tiene:
v=
λ T
por lo tanto, se deduce
v =λ.f
La velocidad de propagación de las oscilaciones acústicas en el aire, a presión normal y a la temperatura ambiente, es: v = 334 m/seg. Ese mismo valor efectuando un cambio de unidades, equivale a 1224 Km/h, velocidad que incluso tiene un nombre particular Mach1, habiendo una gran cantidad de maquinarias creadas por el hombre que la superan. Uno de los ejemplos más conocidos es el avión Concorde, que era capaz de volar al doble de esa rapidez.
96
En el agua, la velocidad del sonido es aún mayor y en los sólidos todavía más grande. Podemos decir que, en general, la velocidad aumenta con la densidad del medio, pero esta regla tiene excepciones, fundamentalmente en los materiales elásticos. El siguiente listado, detalla algunos valores standard, referidos a materiales vinculados a la construcción: Medio
Velocidad
aire agua acero caucho
334 m/seg 1435 m/seg 5560 m/seg ≅50 m/seg
Wi – potencia: la amplitud A de las oscilaciones depende de la potencia Wi, empleada en producir la perturbación inicial. Esta potencia, al igual que en otras formas de energía, tiene como unidad el Watt (W). Dicha potencia se distribuye cada vez en frentes de onda sucesivamente crecientes a medida que la perturbación se propaga en el medio. Por lo tanto, para una dirección de propagación considerada, la potencia Watt , va decreciendo a partir de cm 2
por unidad de superficie, cuya unidad es
la potencia inicial W i en el origen. A medida que un sujeto se aleje de una fuente emisora de sonido, dicho sonido se hará para su percepción auditiva, cada vez más débil. La potencia por unidad de superficie en consecuencia, resultará inversamente proporcional a la superficie esférica del frente de onda, la cual es proporcional al cuadrado del radio (por aquello de que la superficie de una esfera es igual a S = 4.π.r2). En consecuencia la expresión matemática que relaciona la potencia sonora con el frente de onda es:
W1 d 22 = W2 d12 Expresado en palabras, puede decirse que para una dirección de Watt cm 2
propagación determinada, la potencia por unidad de superficie
decrece en proporción inversa con el cuadrado de la distancia al origen de la perturbación.
97
- timbre Entre dos sonidos de igual intensidad e igual frecuencia, el oído puede distinguir cierta diferencia, sobre todo si proviene de cuerpos que están en distintas condiciones. Una nota emitida por un piano o un violín aún con la misma altura, presentan entre ellos cierta diferencia, lo que se expresa diciendo que tienen distinto timbre. La vibración principal debida al tipo de cuerda, va acompañada de otras vibraciones (provienen del aire de la caja, del entorno del instrumento, etc). Por lo tanto el “timbre” de un sonido depende de las oscilaciones secundarias que acompañan a la oscilación principal, que es la de mayor intensidad y menor frecuencia. La sensación sonora de “timbre” se corresponde con la forma de onda de la oscilación. Las diferencias entre tipo de onda y onda, en consecuencia, son las que permiten diferenciar un sonido determinado, surgido de una cierta fuente sonora, de igual sonido surgido de otra fuente. Y ello a pesar de que ambos sonidos posean igual frecuencia e intensidad. Oscilaciones de presión - Intensidad y presión acústica Para el caso de medios fluidos, como en el caso del aire, las oscilaciones longitudinales de las partículas se traducen, para cada dirección de propagación, en una serie alternada de condensaciones y descondensaciones de partículas. Lo anterior da por resultado en el medio fluido, una serie alternada de compresiones y descompresiones que se propagan, es decir un estado oscilatorio de los valores de la presión media en el fluido. Por lo tanto, la propagación de las ondas acústicas en el aire pueden considerarse como una propagación de oscilaciones del valor de la presión normal del aire. La amplitud de las oscilaciones de presión se expresa en las unidades [ bar ] , milibar [mbar ] o [ µ bar ] (microbar) din Newton = 10 6 cm 2 m2 din Newton = 10 3 1mbar = 10 -3 bar = 10 2 cm 2 m2 din Newton =1 1µ bar = 10 -6 bar = 10 -1 cm 2 m2 1 bar = 10 5
Recordemos como valor referencial, que la presión atmosféric a normal es de 1013 milibares, lo que equivale a 760 mm de columna de mercurio (Hg), 10,33 m de columna de agua (H 2 O), y a aproximada mente a 1
98
Kg cm 2
I - Intensidad del sonido: Al hablar de la amplitud como parámetro del sonido, dijimos que está directamente relacionado con la intensidad I de la oscilación acústica. Ampliemos ahora esa idea, señalando que definimos la intensidad I, a una distancia dada del origen de la perturbación, como la potencia por unidad de área, a dicha distancia. La unidad de intensidad, resulta entonces:
INTENSIDAD ACUSTICA
Watt cm 2
La intensidad de la fuente sonora, en consecuencia puede definirse como la energía (sonora), por unidad de tiempo y por unidad de superficie:
I=
Potencia Superficie
(
Watt ) cm 2
la menor intensidad percibida por el oido humano es I 0 = 10 -16
W cm 2
Por su parte la presión acústica p para una distancia dada del origen de la perturbación depende, para el medio considerado, de la intensidad I, por lo que suele tomarse como indicación de dicha intensidad:
PRESION ACUSTICA [µ bar ] ó
din cm 2
Representaciones gráficas de las oscilaciones Una oscilación armónica se puede representar por una gráfica sinusoidal que indica los valores de las elongaciones o desplazamientos que sufren las partículas perturbadas en el medio, en función del tiempo. Los cuatro parámetros fundamentales que son: la longitud de onda(λ), la amplitud(A), la frecuencia (f) y el período(T), relativos al sonido y que se han ido enunciado previamente, pueden visualizarse en el siguiente gráfico 4.2:
99
Figura 4.2 Oscilaciones de igual amplitud, pueden tener distinta longitud de onda (o frecuencia), lo que se grafica en la figura 4.3.
A
Figura 4.3 Oscilaciones de igual longitud de onda (o frecuencia), pueden tener distinta amplitud, lo que se grafica en la figura 4.4.
A2 A1
Figura 4.4 100
Pueden producirse oscilaciones compuestas, como resultado de la adición de varias oscilaciones armónicas simultáneas y la representación ya no es puramente sinusoidal. Se pueden tener entonces oscilaciones de diversa “forma“, con una amplitud y longitud de onda determinada. Este caso se grafica en la figura 4.5.
Figura 4.5 En los sonidos comunes, ni siquiera resultan sinusoides perfectas, sino con irregularidades en su onda, aunque sí es verificable que para cada sonido principal existen otros que lo acompañan y se denominan armónicos. Estos últimos cumplen la condición de ser múltiplos o submúltiplos del sonido principal en su frecuencia (ver figura 4.6).
Figura 4.6
101
Oscilaciones Acústicas - Caracteres físicos y subjetivos Las oscilaciones mecánicas de las partículas de un medio elástico, cuando poseen las características y los rangos capaces de excitar el mecanismo auditivo provocando sensaciones sonoras, se llaman sonidos. Las oscilaciones mecánicas que ordinariamente actúan sobre el tímpano del oído son oscilaciones de presión en el aire que se propagan según las características ya estudiadas. Veamos aunque sea simplificadamente cómo funciona el oído humano. Este aparato sensitivo del hombre puede ser considerado como obra maestra de ingeniería, pues de todos los órganos del cuerpo, pocos realizan tanto en tan poco espacio (ver figura 4.7). Desde el punto de vista anatómico, pueden distinguirse tres partes fundamentales, de las cuales las dos primeras son mecánicas y la última nerviosa. La primera (oído externo) va desde el pabellón de la oreja hasta el tímpano al final del conducto auditivo. Este transmite las vibraciones provenientes del exterior accionando sobre tres huesillos (martillo, yunque y estribo), ubicados en la segunda parte (oído medio), actuando como amplificadores del sonido. Por último el estribo presiona sobre la ventana oval del caracol (oído interno), y en esta tercera parte, que está llena de líquido, las vibraciones se transmiten hidráulicamente. El caracol es menor que un dedo meñique y desenrollado tiene una longitud de aproximadamente 37 mm. Dentro del mismo se halla el órgano de Corti que es el más importante mecanismo auditivo. El órgano de Corti transforma los impulsos hidráulicos en impulsos electroquímicos que, transmitidos por el nervio auditivo al cerebro son decodificados e interpretados como resultado de miles de filamentos que se flexionan ante las vibraciones sonoras. Cuando una vibración sonora supera cierta intensidad, estos filamentos pierden elasticidad y se “quiebran”, perdiendo su aptitud funcional, lo cual deriva hacia una pérdida de la capacidad auditiva.
102
Esquema del aparato auditivo
Figura 4.7 Las oscilaciones de presión, para ser capaces de provocar sensaciones sonoras en el ser humano, deben tener frecuencias comprendidas entre 20 Hz y 20.000 Hz (frecuencias límites o extremas de la gama audible). Las diversas características físicas de la oscilación (amplitud, frecuencia y forma de onda) se corresponden, a diversos tipos de sensaciones acústicas diferentes. La amplitud de la oscilación, que corresponde a la potencia empleada en la perturbación o a la magnitud de las variaciones de presión, corresponde a la sensación de “intensidad del sonido“. El sonido se percibe como más fuerte o más débil según la amplitud de la oscilación sea mayor o menor. La frecuencia (o longitud de onda) de la oscilación corresponde a la sensación de ”tono” o de “altura“ del sonido. Cuanto mayor es la frecuencia, más alto es el tono (tono agudo). Cuanto menor es la frecuencia más bajo es el tono (tono grave)
103
Nivel de intensidad del sonido Si bien hemos descripto al sistema auditivo del ser humano como de gran eficiencia, no podemos dejar de reconocer que hay muchas otras especies vivas que lo superan largamente en cuanto a poseer un oído mucho más sofisticado. Nuestro más fiel amigo, el perro, es capaz de escuchar sonidos hasta los 40.000 Hz, es decir el doble de los valores superiores que nosotros los humanos percibimos. Ni que hablar de los murciélagos, que registran hasta los 300.000 Hz, usando esa aptitud para desplazarse en vuelo y para obtener su comida (cazando insectos por ejemplo). En lo que respecta a los niveles de intensidad, también hay especies que registran sonidos que el hombre no logra detectar. Pero como nuestros estudios y nuestros clientes pertenecen en general al género humano, creemos que resulta útil referirse a la escala de sonidos o ruidos que debemos considerar en nuestros diseños, ya sea para acentuarlos, aislarlos, absorberlos, etc., es decir más genéricamente, para lograr un adecuado tratamiento acústico del hecho constructivo. Por ello, al referirnos a nivel de intensidad, en vez de a intensidad pura, lo que hacemos es establecer una escala que es válida solamente para el hombre. Con prescindencia del hecho de que haya sonidos por debajo de los mínimos (infrasonidos como los de los terremotos) y por encima de los altos (ultrasonidos que a veces se usan en mecanismos diversos, como por ejemplo los controles remotos), pero que no son audibles con nuestro sistema auditivo. La unidad que se establece para esta escala de nivel de intensidad es el decibelio [ dβ ], ( 1 Bel = 10 dβ ), y se lo puede definir como la diferencia entre dos niveles sonoros, o como la mínima diferencia entre dos presiones sonoras distintas, audibles por un oído humano joven. La referencia a la juventud es por cuanto sólo un 10 % de la población puede oír un sonido de 0 dβ , que es el piso de la escala, cualidad que se pierde por patologías o por el simple paso del tiempo. El oído humano tiene, como ya hemos dicho, un umbral de audición de
W y el sonido más fuerte es de una intensidad de: cm 2 W = 10 -4 cm 2
I 0 = 10 -16 I MAX
104
La relación entre la escala en decibeles y la intensidad del sonido se establece por la fórmula:
dβ = 10 log
I I0
(*)
Por lo tanto:
I 0 = 10 -16
W cm 2
equivale a 0 dβ
Y la intensidad máxima, calculada con la fórmula anterior (*), referida a la intensidad mínima audible, resulta:
watt cm 2 dB = 10 . log = 10 . log1012 watt 10 -16 cm 2 10 -4
lo cual equivale a 120 dB
y para despejar las intensidades, en base a la definición de logaritmo, resulta : I dB = 10 . log I0
dB I = log 10 I0
10
dB 10
=
I I0
Operando logarítmicamente con valores intermedios de intensidad, se pueden hallar sus equivalentes en dβ. En el rango de la escala de decibeles para el oído humano, que como señalamos se extiende de 0 a 120 dβ, podemos caracterizar tres valores significativos tales como: 0 dβ dB valor umbral mínimo audible 80 dβ dB sonido peligroso 120 dβ dB valor máximo que produce deterioro del oído Por encima de este último valor la sensación sonora comienza a transformarse en dolor y la destrucción del aparato auditivo se produce en corto tiempo. Pero también sonidos de alto nivel de intensidad, si se reciben durante largos períodos, conducen inevitablemente a la sordera.
105
En el tema de seguridad en la construcción, uno de los items que se vinculan a este tipo de patologías es el uso de los martillos neumáticos, que lamentablemente muchas veces es dable observar que se operan por personas que no poseen protección en los oídos. Veamos algunos valores corrientes de nivel de intensidad del sonido, en las siguientes tablas, donde se indican algunos sonidos comunes con su estimación subjetiva de intensidad, y se establece una relación de comparación con el nivel en dB correspondiente a un tono de 1000 Hz: Fuente Sonora
Estimación Subjetiva Nivel Comparable (a 1000 Hz)
Mínimo sonido perceptible Murmullo de hojas Tic - tac de un reloj Susurros Conversación normal Radio funcionando moderamente Conversación en voz alta. Automóvil no ruidoso Gritos Trenes Talleres metalúrgicos Automóvil ruidoso Remachadora Taller de calderería y forja Pleno de orquesta sinfónica
UMBRAL
0 dB
DEBIL
20 dB
NORMAL
40 dB
FUERTE
60 dB
MUY FUERTE
80 dB
FORTÍSIMO
100 dB
Motor de reacción a 5 m de distancia
INTOLERABLE
120 dB
106
EFECTOS DEL RUIDO SOBRE EL APARATO CIRCULATORIO Intensidad de Ruido (en dB)
Frecuencia cardíaca (pulsac./min.)
65 85 95
Tensión arterial (mm Hg)
76 80 85
130/80 135/85 145/90
Fuente: CIMARA-ADEMP
NIVELES DE RUIDO EN LAS CALLES DE BUENOS AIRES
Sitio de la medición Av. Córdoba y Florida Av. Las Heras y Av. Pueyrredón Sarmiento y Libertad Av. Corientes y Cerrito Suipacha y Paraguay
10 - 10.30
Niveles máximos (en dB) 106
Nivel promedio (en dB) 79
11 - 11.30
113
87
11 - 11.30
108
83
16 - 16.30
104
81
17 - 17.30
106
81
Horario
107
Av. Callao y Av. Santa Fe Lavalle y Paraná
18 - 18.30
108
82
18 - 18.30
106
80
Fuente: ADEMP- CIMARA
EFECTOS DEL RUIDO SOBRE EL RENDIMIENTO LABORAL
Intensidad de ruido ( en dB)
Duración de la Tarea
Errores cometidos (en los Test)
65
20′
6
85
24′ (+20%)
9 (+50%)
95
29′ (+45%)
13 (+del00%)
Fuente: ADEMP- CIMARA
Fuerza sonora de tonos puros - La unidad Fon En el primer cuadro anterior, se hizo la salvedad de que se establecía una comparación entre un sonido determinado y su nivel de intensidad a una frecuencia referencial. Y ello es, por cuanto la sensibilidad del oído no es la misma para las diversas frecuencias de la oscilación (tonos graves, medios o agudos). En consecuencia el umbral de audibilidad antes considerado (correspondiente a una frecuencia de 1000 Hz) no es el mismo para frecuencias inferiores o superiores.
108
Esto significa que cuando se quiere considerar la respuesta del oído a tonos puros, con frecuencias discretas definidas, la unidad decibel no es apropiada más que para 1000 Hz. Para una valoración del nivel de fuerza sonora de una sensación de tonos puros, con cualquier frecuencia, se utiliza la unidad Fon, estableciéndose experimentalmente curvas de relación con los niveles de intensidad en dB que se correspondan a una frecuencia de 1000 Hz. Dichas curvas se conocen como “Diagrama de Fletcher y Munson“
1 1
En el mismo se indican los niveles de fuerza sonora en Fones. Ejemplo:
NIVEL DE INTENSIDAD = 60 dB frecuencia f = 125 Hz
109
Nivel de fuerzas : 20 Fones
Gráfico de nivel de intensidad En este gráfico, que puede verse a continuación de la enunciación de la Ley de masa, aparecerán los siguientes parámetros: Ri = Valor de resistencia aérea acústica en db (para sonidos sólo en el aire) σ Densidad superficial σ = Peso específico x espesor = γ . e
σ (
Kg Kg ) 3 m = m m2
f = frecuencia del sonido en Hz Ley de masa Esta ley dice que cuanto mayor es la masa de un material por unidad de volumen aparente, mayor es su capacidad de aislación. La idea de que un material posea mayor masa relacionada con su volumen, se correlaciona con poseer mayor densidad y ser poco poroso. Veamos un ejemplo. ¿Qué capacidad de aislación tiene una pared de ladrillos comunes de 0.30 m de espesor? Recordemos que un ladrillo pesa ≅ 1,5 a 2 Kg. y que el peso específico promedio de la mampostería es: γ mamp. ≅ 1600 Kg/m3 Establezcamos el cálculo para una frecuencia de 1000 Hz, y calculemos la densidad superficial σ en (Kg/m2), que es el peso por m2 de un determinado material. Para determinar esa densidad por unidad de superficie, siguiendo la fórmula antes enunciada, se multiplica el peso específico γ del material, por su espesor e, resultando la unidad de σ. σ : 1600 Kg/m3 . 0.30 m = 480 Kg/m2 f. σ = 1000 Hz . 480 Kg/m2 = 480.000 Kg. Hz/ m2 Con este último valor se entra en el eje horizontal de la gráfica correspondiente a la curva de ley de masas y se obtiene la aislación equivalente en decibeles en el eje vertical.
110
Curva de la Ley de masa dB 500.000
70 60 50 40 30 20
Hz
10 100 102
1000 103
10.000 104
100.00 105 480.000
1.000.000 106
Resumiendo el uso del gráfico correspondiente a la ley de masas, se calcula el producto frecuencia por densidad superficial [ f.σ (Hz . Kg/m2)] y con ese valor ubicado en el eje de las abscisas se levanta la vertical y se obtiene su equivalente de aislación en decibeles en el eje de las ordenadas. Como puede observarse en la gráfica, a medida que crece el valor de la frecuencia, nos desplazamos a la derecha de las abscisas y por ser la “curva” creciente, resulta un mayor valor de aislación. Ello nos dice que a mayor frecuencia, los sonidos son más fáciles de aislar. En otras palabras, son más fáciles de aislar los sonidos agudos (alta frecuencia), que los sonidos graves (baja frecuencia). Se aclara que aunque la gráfica muestra una recta como función entre los parámetros considerados, nos referimos a ella como una “curva”, ya que la escala del eje horizontal es exponencial. Si se tomaran ambas escalas en forma lineal y con igual unidad, lo que haría el gráfico inadecuado por las proporciones, la función representada sería efectivamente curvilínea. Reducción sonora por ley de masa También es aplicable la fórmula que se enuncia a continuación, y que se relaciona con el mismo concepto de la ley de masa, es decir la propiedad de los materiales de alta densidad, para funcionar como aislantes del
111
sonido. En este caso, los resultados experimentales con distintos materiales que separan un semiespacio de otro, indican que la reducción sonora que se obtiene en el ámbito contiguo, respecto del sonido original, será (ver figura 4.8):
e
β1
β1 - β2 =14 . log (γ.e) + 14
β2
Figura 4.8
γ (peso
específico)
Donde aparecen los siguientes parámetros: β1 = sonido emitido en el local que posee la fuente emisora en db β2 = sonido que se percibe en el local contiguo separado por el material intermedio en db γ = peso específico del material del cerramiento intermedio en Kg/m3 e = espesor del material del cerramiento intermedio en m Ley de distancias Hemos dicho que todo sonido emitido se propaga en el aire libre como una perturbación que gradualmente se atenúa, o sea la energía de una onda sonora se extingue a medida que su radio crece con respecto a la fuente que lo originó. La presión sonora es pues decreciente a medida que nos alejamos de la fuente. Esa reducción de nivel sonoro es posible cuantificarla a través de la siguiente fórmula, que expresa la reducción en decibeles, entre dos puntos alejados de la fuente, en relación a las distancias de dichos puntos respecto del origen del sonido.
20 log
D = dB D1
112
En la fórmula anterior, son: D = distancia mayor a la fuente D 1= distancia menor a la fuente Ejemplo : distancia doble
20. log
2.D1 = 6 dB D1
distancia cuádruple
20. log
4.D1 = 12 dB D1
Cada vez que la distancia a la fuente sonora aumenta al doble, el nivel sonoro disminuye en 6 dB. Fenómenos de propagación del sonido Dirección de propagación y frente de onda Para estudiar gráficamente los diversos aspectos de la propagación del sonido, puede partirse de los dos conceptos siguientes a) dirección de propagación b) frente de onda La dirección de propagación es siempre rectilínea en un medio homogéneo isótropo. El frente de onda, por su parte se extiende en forma radial y tridimensional, a partir de la fuente emisora de sonido. Ley general de reflexión Cuando el sonido al propagarse encuentra la superficie de algún obstáculo, se refleja cumpliendo la ley, según la cual el ángulo de incidencia αi, es igual al de reflexión αr.
113
Dichos ángulos se toman respecto de la normal a la superficie en el punto de incidencia, como se grafica en la figura 4.9.
αi
αr
a
b a =b F′
Figura 4.9 Tratándose de una superficie curva, puede resolverse la reflexión, para un punto de incidencia fijado, operando con respecto al plano tangente a la curva en dicho punto, lo cual se grafica en la figura 4.10. F′
F′
F F
Figura 4.10
114
Trazando las reflexiones para varios puntos de una superficie curva puede observarse que las superficies cóncavas concentran los rayos reflejados y las superficies convexas los dispersan. También podemos explicar el fenómeno de reflexión del sonido diciendo: si en un punto A se produce un sonido, las ondas sonoras formarán superficies esféricas de centro en A, cuyo radio irá aumentando progresivamente. Si en el trayecto de las ondas sonoras se encuentra un obstáculo por ejemplo la pared PP′ el sonido se refleja en la pared o sea se superponen las ondas emitidas por el punto A, a otras ondas cuyo centro virtual está en un punto A’, simétrico de A con respecto a la pared. Se grafica en un croquis en planta, la situación antes descripta, en la figura 4.11. P 4 3 2 1 4
A
5
A’
3
P′
Figura 4.11
115
El efecto de eco La simple reflexión del sonido puede dar lugar al fenómeno de eco. Considerando las posiciones relativas de una fuente sonora y un oyente, respecto de un plano de reflexión, se observa que el sonido puede llegar al oyente en forma directa o por vía reflejada. Siempre en relación a la figura 4.11, si una persona situada en el punto A emite un sonido, oirá a éste dos veces: la primera vez directamente y la segunda después de la reflexión del sonido sobre la pared. Si el punto A está situado cerca de la pared, a causa de la persistencia de las impresiones sonoras en el oído, el observador percibirá los dos sonidos confundidos en uno, pues cuando llega el sonido reflejado persiste aún en su oído la impresión del sonido original. Evidentemente las oscilaciones de presión que lleguen al oído según el trayecto reflejado lo harán con retraso respecto a las que lleguen en forma directa, pues (ver figura 4.12):
--- --- --FA + AO > FO Según esto, para una determinada señal acústica emitida en F, el oyente debiera tener dos sensaciones sucesivas diferenciadas. Pero una sensación acústica perdura en el oído durante 1/10 de segundo después de pasada la excitación. Por lo tanto la segunda sensación sólo se percibirá como separada y distinguible de la primera, si llega con más de 1/10 de segundo de retraso. En este caso se dice que se ha producido el fenómeno de eco, los dos sonidos se perciben bien distintamente uno del otro. Como el sonido en el aire se propaga a 340 m/seg., en 1/10 de segundo el recorrido correspondiente es de 34 m. Por lo tanto para percibir eco, la diferencia de longitud entre el camino de propagación reflejado y el directo debe ser mayor de 34 m. --- ----Condición de eco: ( FA + AO ) - FO ≥ 34 m
116
Cuando el propio oyente se constituye en fuente sonora, colocado frente a un plano de reflexión, percibirá eco cuando su distancia al plano reflejante sea mayor que 17 m.
FO = O FA + AO = 2d F
d A
O
luego: 2d > 34 m d > 17 m
Figura 4.12 Efecto de reverberación Este fenómeno consiste en la persistencia del sonido, por efecto de la reflexión en un determinado recinto. El sonido emitido por una fuente sonora en el interior de un local al propagarse en todas direcciones, sufre múltiples y sucesivas reflexiones en las superficies limitantes, según la ley general de reflexión (ver figura 4.13).
F
Figura 4.13 117
Si dichas superficies fueran 100% reflejantes, no se perdería nada de la energía incidente en cada reflexión y al suprimir la producción del sonido en la fuente, la energía ya emitida perduraría en el local indefinidamente a través de infinitas reflexiones, sin decaer el nivel de intensidad . Como en rigor las superficies límites tienen un cierto coeficiente de absorción α, en cada incidencia se pierde energía. Consecuentemente, si se ha interrumpido la emisión sonora en la fuente, el nivel de intensidad de sonido en el local irá decreciendo paulatinamente. El fenómeno de perduración de la energía sonora en el recinto, con posterioridad a la interrupción de su emisión, constituye el efecto llamado de reverberación. Tiempo de reverberación Se denomina “tiempo de reverberación“ de un recinto, al tiempo que tarde en disminuir 60 db, el nivel de un sonido generado en dicho recinto, a partir del momento en que se interrumpe la emisión de sonido de la fuente sonora. El tiempo de reverberación t60 depende del volumen del local y de la absorción total At correspondiente al mismo, siendo su expresión matemática:
t 60 =
0.16 V AT
A T (en m 2 ) V ( en m 3 ) t 60 (en seg.) Efecto de difracción Cuando en el camino de su propagación el sonido encuentra obstáculos aislados los rodea, continuando la propagación detrás del obstáculo por el fenómeno de difracción. La difracción puede mostrarse claramente observando los sucesivos frentes de onda antes y después de ser alcanzado el obstáculo AB (ver figura 4.14).
118
B F
A
Figura 4.14 Se observa en el gráfico anterior, que detrás del obstáculo los frentes de onda se propagan como emitidos desde centros coincidentes con los extremos de aquél. Puede verse también que a una cierta distancia detrás del obstáculo los frentes de onda difractados, prácticamente coinciden con los correspondientes a la propagación directa desde la fuente, como si no hubiere existido el obstáculo. En el caso de una abertura, el paso del sonido a través de ella sigue las mismas leyes generales de la difracción, considerando como obstáculos las superficies que limitan la abertura. Si se supone la abertura reducida a un orificio muy pequeño, prácticamente coinciden los extremos A y B, propagándose los frentes difractados con centro en el orificio como si allí se encontrara la fuente (F fuente original), figura 4.15.
119
A B
F
Figura 4.15 Efecto de resonancia Se define como fenómeno de resonancia aquél por el cual un cuerpo vibra bajo ciertas condiciones, por efecto de un sonido que recibe. Para ello es necesario que el sonido que el cuerpo reciba sea de igual naturaleza y de igual período, que el sonido que el cuerpo receptor es capaz de emitir. Un ejemplo simple es el de dos instrumentos de cuerda que se encuentren próximos. Si están igualmente templados, cuando se hace sonar una cuerda en uno de ellos, en el otro comenzará a vibrar esa misma cuerda al recibir el sonido emitido. En el hecho constructivo este fenómeno se presenta bajo variados casos. Vibran las paredes por efecto del sonido producido por ascensores, vibran las cañerías como resultado del ruido (y la vibración propia), de los motores de las bombas elevadoras de agua, vibran los elementos anexos a los equipos acondicionadores de aire cuando éstos se encienden, etc. Como se verá, todos los ejemplos mencionados son incómodos para los usuarios del hábitat, por consiguiente será tarea del arquitecto evitar que el fenómeno de resonancia se produzca en esas circunstancias. Aunque el repertorio tecnológico es muy variado y responde a cada problema en particular, se puede decir que en general la interposición de materiales aislantes acústicos cuando el ruido es aéreo y el uso de materiales intermedios elásticos, cuando la vibración se desplaza por medio sólido, resultan los mecanismos más aptos para lograr las soluciones buscadas
120
El sonido en el hecho constructivo Consideraciones Generales Para analizar los fenómenos del sonido en los hábitat en general, es fundamental referirnos a su comportamiento respecto a los cerramientos que conforman las “cajas” de los espacios diseñados, en relación con su entorno inmediato. Sea este entorno perteneciente a otro ámbito del edificio, o el espacio exterior, lo que estudiaremos será un elemento divisorio plano, de cierto espesor, que constituye el plano limitante del espacio considerado, ya sea inferior, superior o lateral. Dicho elemento divisorio define siempre dos semiespacios, de tal forma que la energía acústica emitida en uno de ellos no puede pasar al otro más que a través de la masa del cerramiento divisorio. Llamamos semiespacio emisor al que contiene la fuente sonora y semiespacio receptor al otro. Las condiciones anteriores corresponden a una situación teórica simplificativa y corresponderá a un análisis tecnológico detallado del problema, determinar en que medida las condiciones reales de un elemento divisorio entre dos locales se aproxima a las condiciones supuestas. En base al esquema propuesto (ver figura 4.16), cuando la energía acústica Wi , proveniente de la fuente ubicada en el semiespacio emisor, incide sobre la superficie del elemento divisorio, pueden reconocerse tres aspectos básicos: •
Parte de la energía ( Wr ) resulta reflejada hacia el semiespacio de origen.
•
Parte de la energía ( Wt ) es transmitida hacia el otro semiespacio.
•
Un remanente de energía ( Wc ) se pierde convirtiéndose en otra forma de energía (calor), por diversos procesos mecánicos estructurales.
Y se cumple la relación:
Wi = Wr + Wc + Wt
121
Wi
SEMIESPACIO DE EMISIÓN
SEMIESPACIO DE RECEPCION
Wt
WR Wc
Figura 4.16 Absorción del sonido - Coeficiente de absorción y absorción total ¿Cómo funciona en realidad la absorción respecto de ciertos materiales? Al llegar el sonido a un material poroso o a una superficie irregular, es decir ni plana y ni pulida, es absorbido mediante múltiples reflexiones, transformándose en energía térmica. Se llama a este fenómeno trampa absorbente. En las condiciones anteriores, se define como energía acústica absorbida ( Wa ) por el elemento divisorio, respecto del semiespacio de emisión, a toda la energía que no es devuelta hacia dicho semiespacio. Wa = Wc + Wt
Wa ≤ Wi
Se define como coeficiente de absorción α correspondiente al material del divisorio, a la siguiente relación:
α=
Wa Wi
α≤1
Se considera como absorción A, propia de una determinada extensión S de la superficie de un material, al producto: A = S. α
(m2)
122
Como α es un número adimensional, la absorción propia de una superficie viene siempre expresada en m2. Si se tienen diversos materiales limitantes de un recinto, con extensiones etc,. y con coeficientes de absorción individuales S1 S 2 S 3 . . . etc. α 1 , α 2 , α 3 ,.....etc , la absorción total propia de todas las superficies limitantes del recinto es: A t = S1α 1 + S 2 α 2 + S 3α 3 +........... At =
∑S
n .α n
Son materiales absorbentes del sonido aquellos de bajo peso específico (corcho, poliestireno expandido [telgopor], lana de vidrio, etc.). Por el contrario, para aislar el sonido entre dos ámbitos distintos, se requiere de materiales de alto peso específico (metales, hormigón, mampostería, vidrio, etc.) También existen otros recursos resultado de emparedados de materiales diversos que usan propiedades combinadas de aislación y absorción. Tal es el caso de los parabrisas para vehículos con lámina plástica (polyvinyl/ buthadiene) entre vidrios. Además de lograr un factor de seguridad contra desprendimientos de partículas en un accidente, se obtiene una importante aislación sonora dentro de los vehículos. En el caso de los cerramientos, se usa el sistema llamado masa-resortemasa, que consiste en un sandwich, donde las capas exteriores son de un material denso, mientras que poseen una capa interior de otro material de bajo peso específico. Un ejemplo disponible en el mercado actual son los paneles de roca de yeso, conformando las capas exteriores y un relleno de lana de vidrio en su interior. Aislación con distintos materiales Para obtener una buena aislación acústica, como ya mencionamos y se desprende de lo reseñado en la validez de la ley de masa, es necesario usar materiales de alto peso específico. Dichos materiales deberán, en consecuencia, ser poco porosos y en lo posible poseer una terminación superficial lisa y pulida. Considerando un elemento divisorio infinito que define un semiespacio de emisión y otro de recepción, si es N1 el nivel sonoro emitido y N2 el nivel sonoro recibido, será en general: N2 < N1
123
A partir de ello, podemos definir como “valor de aislación“ del divisorio, a la diferencia neta: Na = N1 - N2
[dβ]
Cuanto mayor sea Na más eficaz se considera el elemento divisorio como aislante acústico. Dicha eficacia aislante depende básicamente del peso del sistema divisorio por unidad de superficie, según la llamada Ley de los pesos superficiales, que es una versión simplificada de la Ley de masa, y dice que un elemento divisorio es tanto más aislante cuanto más pesado es por unidad de superficie. El peso σ por unidad de superficie, es el mismo que se usa en el gráfico de la Ley de masa, y como se dijo, depende del peso específico del material y del espesor del elemento divisorio que constituye, siendo su unidad,
Kg m2 Kg Para σ = 1 se tiene Na = 15 dβ. A partir de este valor, se ganan 4 dβ m2
entonces:
de aislación por cada duplicación del peso. Gráficamente la regla anterior se indica en la siguiente tabla: dB
VALOR DE AISLACIÓN
60 50 40 30 20 [ kg / m2 ]
10 0 1
2
4
8
16
32
64
125
250
500
PESO SUPERFICIAL 124
1000
Ejemplo de utilización del diagrama: Material: mampostería de ladrillo común Peso específico: γ = 1600 Kg/m3 Espesor considerado e = 0.15 m Peso superficial σ = γ. e = 240 Kg/m2 Valor de aislación Na = 47 dβ La ley del peso superficial considerada se refiere exclusivamente a casos en que el sonido se origina en el espacio del sector de emisión. Se dice en este caso, que se trata de “aislación por vía aérea “. Pero el sonido puede originarse directamente sobre la superficie del elemento divisorio, del lado de emisión. En este caso se dice que se trata de un proceso de aislación por “vía sólida” o “aislación de impacto“. No debe aplicarse el criterio de la ley de los pesos superficiales a los casos de aislación por impactos. Aislamiento simple Consideremos ahora el caso de un aislamiento simple, de espesor único y su capacidad aislante. Cada vez que se duplique la densidad superficial (σ) de un cerramiento, se incrementará en un orden de 4 dβ a 6 dβ la aislación acústica que dicho cerramiento brinda. Al duplicar la frecuencia del sonido, también aumenta en 4 dβ la aislación o insonoridad del muro. Aislamiento múltiple Cuando se trate de un aislamiento conformado por un cerramiento donde por sectores nos encontramos con distintos materiales (ver figura 4.17), habrá que considerar todos y cada uno de los materiales intervinientes, su superficie de transmisión de sonido, y su capacidad aislante acústica.
M1 M3 M2
Figura 4.17 125
En el ejemplo genérico que planteamos, nos encontramos con tres materiales que componen sectores del cerramiento. Estos materiales, M1, M2 y M3, poseen cada uno de ellos un coeficiente de transmisión aérea del sonido, denominado ti (t1 , t2 , t3), que se obtiene a partir de conocer la resistencia acústica aérea respectiva Ri (R1 , R2 , R3), que es el valor obtenido del diagrama de Ley de masa o Ley de los pesos superficiales, o de una tabla al respecto. A partir de allí se aplica la relación:
.
1
R = 10 log i t
i
Y con los valores del coeficiente ti , y las superficies parciales de cada material Si (S1 , S2 , S3), y la superficie total del cerramiento ST, se aplica la fórmula siguiente:
te =
S1.t 1 + S 2 .t 2 + ....... + S n .t n ST
siendo
.
R e = 10 log
1
te
que da como resultado la aislación total del cerramiento en cuestión, Re. Resumiendo, los términos intervinientes en este proceso de cálculo, son: te: coeficiente de transmisión efectiva en cerramientos de múltiples materiales ti: coeficiente de transmisión acústica de cada material Re: resistencia acústica aérea total Si : superficies parciales de cada material ST: superficie total del cerramiento Veamos un ejemplo de cálculo sencillo de coeficiente de transmisión acústica de un determinado material, cuya capacidad aislante es de 60 dβ.
Ri = 10 . log
1 siendo Ri : resistencia al paso del sonido (aéreo) ti
Ejemplo 60 dB = 10 log
1 ti
60 1 = log10 10 ti
De lo que resulta ti =1/106 = 10-6
126
CAPITULO V
Electricidad En un capítulo anterior decíamos que la electricidad es una de las formas de energía que a través de una red y con la posibilidad de generar con su consumo múltiples quehaceres de un edificio, disponemos en el presente. No se concibe el funcionamiento de un hábitat urbano sin la existencia de la electricidad y los multitudinarios equipamientos que ella abastece energéticamente. Es más, por razones de prevención respecto al gas natural o envasado, son muchísimos los países del mundo que tienen al flujo eléctrico como único servicio a un edificio, además por cierto, junto al abastecimiento de agua potable. Aunque como fue señalado, el agua no permite su transformación energética con los sistemas actuales de las instalaciones del hábitat. Por otra parte, el hecho de que la transmisión de electricidad, si bien requiere de un medio material, no se realice con movimiento mecánico de masas (se hace la salvedad de que existe un movimiento de los electrones del conductor, lo cual por cierto no constituye un movimiento mecánico convencional), le da a esta forma de energía, características propias que detallaremos en las próximas líneas de este capítulo. Comenzaremos por los conceptos básicos que es necesario manejar para la explicación del fenómeno eléctrico. Conceptos básicos Estructura elemental del átomo Los átomos representan los componentes básicos de la estructura de la materia, pero están ellos a su vez constituidos por partículas menores, muchas de las cuales se están descubriendo día a día, y poseen cada una de ellas, características de la más diversa índole. Pero el modelo más elemental de la estructura de un átomo es aquél que contiene un núcleo compacto de partículas densamente agrupadas y una serie de partículas separadas, girando en determinadas órbitas en torno a dicho núcleo.
127
De las partículas del núcleo podemos mencionar como las fundamentales a los neutrones y los protones. Los neutrones, al igual que otras partículas secundarias, no intervienen en los procesos eléctricos en particular, razón por la cual los excluiremos de este análisis deteniéndonos en aquellas partículas que sí son fundamentales en el tema de este capitulo. Las partículas relevantes en este fenómeno eléctrico son los electrones, que son los que giran en torno al núcleo en una o más órbitas concéntricas y de los cuales existe siempre igual número que de protones (ver figura 5.1).
e
e
e N
Figura 5.1 De la anterior estructura del átomo puede deducirse (en realidad esto es lo que sucede), que en forma equivalente a lo que ocurre en un sistema planetario (aunque ello sea no más que una analogía), existen fuerzas de atracción entre los protones del núcleo y los electrones que giran alrededor de él. La diferencia se da, en que la presencia de cargas eléctricas genera fuerzas eléctricas ó fuerzas entre cargas, que contrariamente a las fuerzas de la gravedad, pueden ser tanto de atracción como de repulsión. Por ello, también existen fuerzas de repulsión entre los electrones entre sí y los protones entre sí. Esta característica especial de dichas partículas es lo que se reconoce como electricidad. Dicho en otras palabras, se puede expresar la idea señalando que las partículas antes mencionadas poseen carga eléctrica.
128
Concepto de electricidad y carga eléctrica Aunque lo que se expresa a continuación es una convención, se le adjudica una propiedad a las partículas según su comportamiento. Y así se considera que los protones tienen carga eléctrica positiva y los electrones carga eléctrica negativa, de lo cual surge la siguiente regla básica: • •
Cargas de signo contrario → Cargas de igual signo →
se atraen se rechazan
Un átomo normal es eléctricamente neutro pues se compensan igual cantidad de cargas positivas (protones) y negativas (electrones). En general, en los átomos con muchas órbitas electrónicas, pueden desprenderse algunos electrones de la órbita externa, que son los llamados electrones periféricos. En tal caso dichos electrones pasan a constituir cargas negativas libres, aisladas, y los átomos correspondientes (con exceso de protones sin compensar), quedan como cargas positivas aisladas. Substancias con muchos electrones en sus órbitas se corresponden a materiales como el uranio, que es sabido que emite radiaciones de diverso tipo. En contraposición, un átomo de hidrógeno posee un solo electrón orbitando alrededor del núcleo. Los electrones libres, que poseen en general pequeña masa, tienen bastante facilidad de desplazamiento en los espacios interatómicos e intermoleculares de las sustancias. Cuerpos cargados eléctricamente Normalmente en el seno de un cuerpo existen electrones libres, como cargas negativas, pero existe igual cantidad de cargas positivas, que son los átomos que han perdido dichos electrones. Por lo tanto los cuerpos normalmente son eléctricamente neutros, o se dice que están descargados. Pero si por algún medio, un cuerpo pierde parte de sus electrones libres, queda cargado positivamente. En forma equivalente, un cuerpo que incorpora en su seno una cantidad suplementaria de electrones libres, queda cargado negativamente. La unidad natural de carga es la carga de un electrón, de modo que la carga eléctrica de un cuerpo podría expresarse por el número de electrones ganados o perdidos respecto de su estado neutro.
129
Unidad de carga El electrón es una carga eléctrica o cantidad de electricidad muy pequeña, por lo tanto, a los efectos prácticos de medición de la energía de carga eléctrica, se utiliza normalmente una unidad múltiplo que se denomina Coulomb. Esta unidad se relaciona con la cantidad de electrones, según la expresión dada en forma de notación científica: 1 Coulomb = 6.24 x 1018 electrones La unidad práctica de la cantidad de electricidad Coulomb13 o Culombio, lleva el nombre de este físico francés. La ley de Coulomb, que es fundamental en la electrostática, dice: “dos cargas eléctricas puntuales q y q′ se atraen si son de signos contrarios y se rechazan si son del mismo signo, con una fuerza que es proporcional a dichas cargas y está en razón inversa del cuadrado de la distancia que las separa”. Generadores de carga eléctrica Cualquier dispositivo capaz de proveer en forma regular y permanente cargas eléctricas, constituye un generador de carga o simplemente, un generador. La simple acción del frotamiento de dos cuerpos puede transferir electrones libres de uno al otro. En ese caso, uno de ellos se carga negativamente y el otro positivamente. Este es el fundamento de los generadores electrostáticos de carga y un fenómeno que puede verificarse fácilmente frotando una regla de plástico (seca) y luego acercándola a pequeños trozos de papel. Se verá que como consecuencia de las cargas establecidas entre ambos materiales, la regla “atrae” a los pedacitos de papel. Otra forma de generación de electricidad son las pilas y las baterías, o acumuladores, que tan habitualmente usamos en artefactos domésticos o en nuestros automóviles. Estos son generadores químicos: las pilas, de tipo seco y las baterías, de tipo líquido.
13
Coulomb, Carlos Augusto de (1736-1806), físico francés que descubrió las leyes de la atracción y la repulsión de los cuerpos electrizados. Coulomb, Descubrió las leyes de la atracción y la repulsión de los cuerpos electrizados.
130
Veamos un esquema de una pila seca en la figura 5.2. −
+
borne (-)
borne (+)
envoltura de cinc
carbón
−
−
cloruro de amonio
Figura 5.2 La actividad química transfiere los electrones libres del núcleo de carbón, dentro de la pila, a la envoltura o recipiente externo de Cinc. Por lo tanto el borne central queda cargado positivamente y el del borde se carga negativamente. Veamos ahora el esquema de un acumulador en la figura 5.3. borne (+) borne (-)
−
placas de óxido de plomo
−
placas de litargirio solución de ácido sulfúrico
Figura 5.3 131
Pueden generarse cargas por efecto térmico en las llamadas termopilas, al calentarse la unión soldada de dos elementos metálicos diferentes. Este caso se ve en la figura 5.4.
hierro +
CALOR −
cobre Figura 5.4 También pueden generarse cargas fotovoltaicas o por efecto fotoeléctrico en las células especiales de ese tipo (ver figura 5.5). LUZ
placa de selenio
+ marco metálico
−
base metálica
Figura 5.5 Pero los generadores más usuales, cuando se trata de magnitudes importantes de energía eléctrica y de redes generales de alimentación a centros urbanos, son los dínamos.
132
Estos “fabricantes” de electricidad a gran escala tienen diversas formas de recibir otras fuentes de energía que transforman en electricidad. Entre ellas podemos señalar: las corrientes de los ríos, el consumo de gas o hidrocarburos o la energía atómica, que son los sistemas de uso masivo en nuestro país, Argentina. También hay otras formas de energía que se transforman en electricidad a través de los dínamos. Ellas pueden ser: el reflujo de las mareas marinas, los vientos, la energía térmica de napas calientes del subsuelo terrestre, etc. Este tema se desarrollará con mayor detalle en el capítulo de Uso Racional de la Energía. Pero en todos los casos mencionados, el mecanismo básico generador de electricidad es el mismo: se logra dicha energía moviendo un núcleo metálico en el espacio de acción de un campo magnético. Con los distintos tipos de energía que antes citáramos, simplemente se logra el movimiento del núcleo metálico. La electricidad fluye por los extremos del campo magnético. Ya introducidos en los conceptos básicos, pasemos ahora a analizar los parámetros bajo los cuales se puede estudiar el fenómeno eléctrico. Parámetros de la electricidad Diferencia de potencial o tensión Si consideramos los dos terminales cargados (+) y (-) de un determinado generador, enfrentados a una cierta distancia, pueden hacerse las siguientes observaciones: Por efecto de las atracciones y repulsiones entre las cargas se desarrolla una especial tendencia de las cargas a desplazarse de un terminal a otro. Esta tendencia obrará particularmente sobre los electrones (negativos), de mucha mayor movilidad que las cargas positivas, en el sentido de impulsarlos hacia el terminal positivo. Esta tendencia de las cargas eléctricas a desplazarse de un punto a otro por efecto de la presencia de otras cargas eléctricas, constituye la tensión o diferencia de potencial entre los puntos considerados. La magnitud de la tensión se mide en Volts. La unidad Volt es la diferencia de potencial existente entre los bornes terminales de una pila química patrón. TENSIÓN : símbolo E Unidad
: VOLT
133
V
Ampliando un poco la idea de diferencia de potencial podemos decir: Si dos conductores cargados de electricidad están a diferente potencial y aislados entre sí, las líneas de fuerza actuantes se distribuyen en todo el espacio circundante yendo en general, en parte de un conductor a otro. Si los conductores se unen por un hilo conductor, y este hilo se rodea con un material poco propicio para que la electricidad circule por él, gran parte del campo eléctrico o, lo que es lo mismo de las líneas de fuerza, se confinan dentro de éste y la fuerza eléctrica se desplaza continuamente. Lo descripto anteriormente es el caso que se produce en cualquier cable simple de uso cotidiano, que el lector está acostumbrado a ver y que es componente imprescindible e infaltable en el hecho construido contemporáneo de mínima complejidad. Proviniendo la fuerza eléctrica de una diferencia de potencial está claro que cuando el movimiento de la electricidad haya cesado ambos conductores estarán a un mismo nivel eléctrico. A lo largo del cable o hilo conductor que une los dos cuerpos cargados debe existir, mientras la electricidad esté moviéndose en él, una caída continua de potencial. Mientras las cargas eléctricas se desplazan en un conductor, se dice que circula por en éste, una corriente eléctrica. Algunos valores referenciales que se pueden dar para la tensión usual en redes, en nuestro país, son: Alta tensión: 500.000 a 600.000 V Media tensión: 13.200 v. Tensión trifásica 380 V Tensión monofásica 220 V Baja tensión 12 a 14 V De las centrales generadoras de electricidad sale alta tensión y como en toda red de distribución, esta electricidad se va ramificando. A medida que en un árbol las ramas se alejan del tronco se hacen más delgadas. Análogamente la tensión va disminuyendo en las redes, a medida que se va diversificando su distribución. La media tensión llegará por ser necesario su valor potencial a edificios de gran porte, industrias, grandes complejos urbanos, etc. A través de transformadores se van modificando los valores de diferencia de potencial y encontramos en casi toda vivienda multifamiliar con ascensores, tensión trifásica. También en comercios intermedios en tamaño, en pequeñas industrias, en equipos de aire acondicionado central de todo un edificio, etc.
134
Por su lado la electricidad con tensión monofásica es la habitual en nuestros hogares, y la que alimenta todos los artefactos que conocemos de uso doméstico, desde heladeras a computadoras, lámparas de luz, etc. Ello no es óbice para que algunos de los aparatos mencionados precedentemente, posean en su interior transformadores específicos de tensión, que hacen funcionar algunos sectores de su sistema con valores particulares de tensión menores (timbres) o mayores (tubo de televisión) que los de la tensión que ingresa a la unidad de vivienda. Finalmente, de la clasificación que establecimos, citamos algunos ejemplos de baja tensión en el espacio interior de los edificios, tales como los sistemas de música funcional centralizados, el teléfono, la televisión por cable, etc. Desarrollaremos más detalladamente, este tema de las alimentaciones de fluido eléctrico al hecho constructivo y las formas de obtener distintos tipos de tensión, al final de este mismo capitulo. Intensidad Si entre dos terminales de un generador se coloca un elemento conductor (en general un hilo o trenzado de hilos metálicos), por efecto de la tensión entre dichos puntos los electrones se desplazan a lo largo del conductor desde el terminal o polo (-) al polo (+), creando una corriente eléctrica. Las cargas adquieren un estado de desplazamiento en un extremo del conductor, propagándose dicho estado a las cargas vecinas, a lo largo del conductor, a una velocidad equivalente a la de la luz en el vacío, de 300.000 Km/seg. Esta es la velocidad de propagación de la corriente, pero no es la velocidad de desplazamiento de los electrones, la cual es mucho menor. La rápida acumulación de electrones en el extremo (+) por efecto de la corriente establecida, terminará por neutralizar la carga de dicho borne cesando la corriente (ver figura 5.6). −
+
Figura 5.6 135
Pero la acción del generador actúa permanentemente extrayendo las cargas negativas del terminal positivo y las vuelve a acumular en el terminal negativo. Es decir que el generador mantiene constante la tensión o diferencia de potencial entre los bornes y resulta capaz, no sólo de iniciar la corriente eléctrica, sino también de mantenerla. Establecido un desplazamiento de electrones en un conductor, se interpreta como intensidad de la corriente eléctrica que se origina, al mayor o menor caudal de las cargas en desplazamiento, relativo a la unidad de tiempo. Concretamente en una corriente eléctrica, la intensidad de la misma está dada por la cantidad de cargas que se desplazan a través de una sección del conductor en un segundo. La dimensión de la intensidad I de corriente es la de una carga dividida por un tiempo. La expresión matemática y las unidades de los términos intervinientes resultan:
I=
q 1 Coulomb ) ( 1seg t
q : cantidad de carga
t : tiempo
La magnitud de la intensidad se mide en AMPERE. INTENSIDAD : Símbolo I Unidad : AMPERE (A) Cuando pasa un coulomb por segundo, la corriente tiene la unidad práctica o técnica de intensidad, que se denomina Ampere14 o Amperio: unidad práctica de intensidad de las corrientes eléctricas. Es la intensidad de una corriente que transporta 1 coulomb por segundo. Por su parte, la cantidad de carga de la corriente eléctrica se vincula con la tensión y con el trabajo (expresado en Joule) que es capaz de ejercer, a través de la expresión:
( v ) = voltio =
L(trabajo)(Joule) q(unidad de carga) (Coulomb)
14
Ampere Andrés M., (1775 - 1836) físico francés que descubrió las leyes de las atracciones y repulsiones electromagnéticas y las acciones mutuas de dos corrientes. Sus trabajos fueron la base del electromagnetismo. Fue el creador de la Electrodinámica.
136
También se define prácticamente al amperio, como la intensidad de la corriente que pasa por un conductor cuya resistencia es de un ohmio, cuando la fuerza electromotriz ó diferencia de potencial en sus extremos vale un voltio. Se conoce a su vez como amperaje, al término empleando en la práctica eléctrica industrial, para calificar el grado de intensidad usado en las redes de distribución ó la intensidad de corriente que consumen ciertos aparatos. También es dable citar al amperio/hora, que es la unidad práctica de cantidad de electricidad referida al tiempo. Es la cantidad de electricidad que pasa por un conductor durante una hora, cuando la intensidad de la corriente es de un amperio. Como el amperio transporta un culomb por segundo, en una hora, transportará 3600 culombios, valor del amperio-hora. Esta unidad se usa en los conductores de corriente para medir el consumo. Resistencia y resistividad El grado de oposición al paso de la corriente eléctrica que presentan las diversas sustancias se llama resistividad de las mismas y se expresa por el símbolo ρ. Si se tiene un conductor de cierto material y con dimensiones determinadas (largo y sección), la magnitud de su oposición al paso de la corriente será una característica bien definida de ese conductor, que se llama resistencia eléctrica. En 1826, el físico Ohm dedujo experimentalmente que “si por un conductor sólido, mantenido a temperatura y presión constantes, se hacen circular corrientes eléctricas estacionarias, la relación entre las diferencias de los potenciales aplicados a sus extremos y las respectivas intensidades de aquellos es constante”. Si llamamos E 1, E 2.....E n a diversas diferencias de potencial, las que de acuerdo a anteriores definiciones, son el trabajo que “gastan” las fuerzas eléctricas por el transporte de una unidad de carga entre los extremos del conductor. Y denominamos I1, I2..... In, a las diversas intensidades de las corrientes que circulan por un conductor, se obtiene la relación:
E E 1 = 2 = E n = constante In I I 2 1
137
Esa constante, que no depende del valor de la intensidad, ni tampoco de la diferencia de potencial, sino que relaciona ambos parámetros, se considera como la medida de una propiedad del cuerpo mismo, a la cual se denomina resistencia eléctrica del conductor, indicándola con R. La resistencia se mide en Ohms RESISTENCIA : Símbolo R Unidad : Ohm La unidad de resistencia también puede ser expresada por la letra griega (Ω), que en la graficación de planos con instalaciones eléctricas, representa asimismo a los tomacorrientes. De acuerdo con la expresión de R, un conductor tiene la unidad de resistencia en un sistema dado cuando actuando entre sus extremos la unidad de diferencia de potencial del mismo sistema, fluye por él la unidad de intensidad. Por lo que: un conductor tiene una resistencia de 1 Ohm, cuando existiendo entre sus extremos una diferencia de potencial de 1 volt, circula por él, una corriente de 1 ampere. 1Ohm = 1Ω = 1 volt/1 ampere
En signos R = E / I
De los conceptos enunciados previamente surgen las llamadas leyes de Ohm, que se enuncian a continuación: Primera Ley de Ohm 15 Cuando entre dos puntos entre los cuales hay una tensión E, se establece una corriente de intensidad I, a lo largo de un conductor de resistencia R, se pueden efectuar las siguientes observaciones: Para un conductor de resistencia dada la intensidad es directamente proporcional a la tensión. Para una tensión dada, la intensidad es inversamente proporcional a la resistencia.
15
Ohm, Jorge (1789 – 1854), físico alemán que formuló las leyes fundamentales de la corriente eléctrica.
138
Estas relaciones se expresan en consecuencia, en la primera ley de Ohm:
I=
E R
Ampere =
Volt Ohm
E I E = R.I R=
Segunda Ley de Ohm Puede verificarse también que la resistencia de un conductor es directamente proporcional a la resistividad ρ del material del que está compuesto. Por otra parte la resistencia es también, directamente proporcional a la longitud L del mismo. Finalmente se observa también que es inversamente proporcional a la sección del conductor S. Designando entonces con R la resistencia se tiene:
R =ρ
L S
Si se mide la longitud L en m y la sección S en mm2, se tendrá para R:
1 Ohm = ρ
1m 1mm 2
Por lo tanto las unidades de ρ son:
ρ
Ohm . mm 2 ( ) m
Aunque se conozca habitualmente como segunda Ley de Ohm, esta regla fue descubierta por el físico H. Davy en 1821, antes que Ohm.
139
En otras palabras, puede interpretarse de la siguiente forma: “si L y S son iguales a la unidad en el sistema elegido, es R=ρ, la resistencia específica de una sustancia es igual a la resistencia de un conductor construido con ella, respecto de la unidad de longitud y de la unidad de sección”. En la práctica, en lo que a la resistencia se refiere, se usa como unidad de longitud el metro (m) y como unidad de sección el milímetro cuadrado (mm2). Damos en la tabla siguiente algunos ejemplos de valores de resistividad de algunas sustancias conductoras, donde es dable observar el excelente comportamiento del cobre como material apto para el paso de la electricidad, por su baja resistencia. Ello hace que sea el componente principal de los cables de uso habitual en la actualidad.
Sustancia
ρ
Ohm mm 2 m
Aluminio Cobre Oro Hierro Plomo Mercurio Níquel Plata Estaño Tungsteno
0.0262 0.0158 0.0219 0.1120 0.1977 0.9379 0.1000 0.0147 0.1049 0.0436
Volviendo ahora al fenómeno general de la electricidad, digamos que el hecho concreto de que los electrones se desplacen realmente desde un punto a otro, con determinada diferencia de potencial, depende de la facilidad con que el medio interpuesto entre ambos puntos permita ese desplazamiento de los electrones. Las sustancias que facilitan el desplazamiento de las cargas eléctricas negativas en su seno se llaman conductoras, y las que dificultan dicho desplazamiento se llaman aislantes. El físico inglés Stephan Gray (1670 - 1736), incorporó otra categoría y las clasificó en aislantes, conductoras y semiconductoras.
140
Son substancias conductoras los siguientes materiales, de uso en el hecho constructivo (los metales finos se usan en los contactos de los accesorios eléctricos): Carbón de leña Cobre Aluminio Grafito Oro Plata Acidos ( Metales en general) Semiconductoras: Alcohol Eter Madera seca Son substancias aislantes los siguientes materiales, también de uso en el hecho constructivo: Parafina Seda Lana Papel seco Porcelana Goma Vidrio Mica Caucho Porcelana Aceites Aire seco Circuitos eléctricos Todos los parámetros mencionados anteriormente, pueden visualizarse en la graficación de lo que se llama un circuito eléctrico y cuyas variantes básicas se verán en las siguientes páginas.
141
Como es sabido, se llama circuito a un recorrido que tiene un mismo punto de origen y de final. En el caso de la corriente eléctrica, el nombre de circuito eléctrico resulta de que los dos puntos de sus extremos están efectivamente en un mismo lugar, que es el centro generador de la red, o los bornes o conectores de una casa o edificio. Comenzaremos a mostrar los ejemplos más sencillos, partiendo del caso más simple, donde aparezca una única resistencia, denominada R. Indicaremos la resistencia de carga, en el circuito con el símbolo, que es una esquematización de un conductor enrollado con varias vueltas o bobinado y que se muestra en la figura 5.7(a) y a la fuente de energía eléctrica con el símbolo de la figura 5.7 (b), que esquematiza las placas de una batería.
Figura 5.7(a)
Figura 5.7(b)
Circuito simple Teóricamente un hilo conductor unido a los terminales (+) y (-) de un generador de modo que a través de aquél pueda circular en forma estable una corriente eléctrica, constituye un circuito eléctrico (ver figura 5.8).
Figura 5.8 142
Pero realmente los circuitos eléctricos se establecen para utilizar externamente los efectos derivados de ciertos elementos que forman parte del mismo y que pueden transformar en forma útil, la energía representada por el trabajo eléctrico Te que realiza la corriente. Tal es el ejemplo de las lámparas eléctricas cuyo filamento se pone incandescente por el efecto térmico de la corriente y están por lo tanto en condiciones de emitir luz, y cuya imagen ilustrativa vemos en la figura 5.9.
Figura 5.9 Normalmente un elemento destinado a utilizar algún efecto de un circuito eléctrico se considera como carga del circuito y representa un determinado valor de resistencia R. Esta resistencia de la “carga “ del circuito es la que determina la realización del trabajo Te, parte del cual se aprovecha con fines útiles (calor, luz, movimiento). Por el motivo anterior los hilos conductores hasta los elementos de carga deben tener la menor resistencia eléctrica posible, para no tener trabajo eléctrico improductivo. En todos los casos supondremos nula la resistencia propia de los conductores, estando dada la resistencia del circuito por la que corresponde a la carga del mismo. Por otra parte, es necesario poder utilizar a voluntad el paso de corriente por el circuito, por lo que ordinariamente un circuito elemental incluye un interruptor, cuyo símbolo es (ver figura 5.10):
Figura 5.10
143
Los elementos típicos fundamentales de un circuito eléctrico básico son entonces (ver figura 5.11): •
Generador de tensión
•
Resistencia de carga
•
Conductor de corriente
•
Interruptor de corriente
R
I
E Figura 5.11 La relación entre la intensidad I de corriente que circule, la tensión E del generador y la resistencia R del circuito viene dada siempre por la primera ley de Ohm. Veamos un ejemplo sencillo de cálculo de los parámetros intervinientes en el circuito: R:10 Ω
E: 200 V
R=
E I
I=
E 200 V = = 20 amp. R 10 Ω
144
Circuitos en serie y en paralelo Cuando la corriente ha de ser utilizada en varios puntos distintos del circuito a través de elementos diferentes, se tendrá más de una resistencia de carga. En tal caso hay dos formas básicas de intercalar las resistencias en el circuito: • •
EN SERIE EN PARALELO
Consideremos un circuito en serie con tres resistencias R1, R2, R3,tal como el que se ve en la figura 5.12.
E1 I1
E2 I2
R1
R2 E3 R3 I3
I
E Figura 5.12
Como los valores I , R , E , están siempre ligados por la ley de Ohm, cada valor de R considerado implica los correspondientes de intensidad y tensión.
145
Característica distintiva de un circuito en serie: La corriente atraviesa sucesivamente las resistencias intercaladas en el circuito. Como la corriente de electrones fluye en forma normal y uniforme desde un borne del generador hasta el otro a través del circuito, en ningún punto del mismo se producen acumulaciones o carencias de cargas. En consecuencia la cantidad de cargas que se desplazan por segundo, es en todos los puntos la misma. Por lo tanto:
I =I1 =I2 =I3 Puede demostrarse que la tensión o diferencia de potencial entre los extremos de cada resistencia cumple la relación:
E = E1 + E2 + E3 Dividiendo los términos de esta expresión por I, o sus iguales, resulta:
E I
=
E1 E 2 E 3 + + I1 I 2 I 3
En consecuencia, según la ley de Ohm, se tiene:
R = R1 + R2 + R3 Esta es la relación fundamental entre la resistencia total R del circuito y las resistencias parciales del mismo, cuando están conectadas en serie. Para un circuito en serie pueden reconocerse las siguientes características generales: • • • •
Todos los elementos intercalados en el circuito deben estar funcionando. La eliminación o deterioro de uno de ellos interrumpe la utilización de todo el circuito. La tensión para cada elemento es siempre inferior a la tensión total suministrada al circuito por el generador. E Si hay η resistencias iguales la tensión para cada una de ellas es: η
146
La resistencia total del circuito es siempre mayor que cualquiera de las resistencias parciales. Consideremos a continuación un circuito en paralelo, con tres resistencias, tal cual se ve en la figura 5.13. B
.
R1
R2
R3
I1
I2
I3
E1
E2
R
E3
A
.
I Figura 5.13 Característica distintiva de un circuito en paralelo: La corriente atraviesa simultáneamente las resistencias intercaladas en el circuito. El caudal de cargas eléctricas que se desplazan por el circuito, al llegar al punto A se subdivide en caudales menores, pero el total permanecerá invariable:
I = I1 +I2 +I3 La tensión entre los extremos de cada resistencia es en todos los casos la que existe entre los puntos A y B, que es igual a la suministrada por el generador:
E = E1 = E 2 = E 3
147
Dividiendo los términos de la expresión resulta:
I E
=
I1 E1
+
I2 E2
+
I = I1 +I2 +I3 por E, o sus iguales,
I3 E3
En consecuencia, según la ley de Ohm se tiene:
1 1 1 1 = + + R R R R 1 2 3 Esta es la relación fundamental entre la resistencia total R del circuito y las resistencias parciales del mismo, cuando están conectadas en paralelo. Para un circuito en paralelo pueden reconocerse las siguientes características generales: •
Puede interrumpirse a voluntad o accidentalmente el funcionamiento de cualquiera de los elementos colocados en paralelo sin que se interrumpa la circulación de corriente por los restantes.
•
La tensión para todos los elementos en paralelo es la misma e igual tensión total suministrada al circuito por el generador.
•
Si hay
η resistencia iguales Rx , la resistencia total es:
Rx η
La resistencia total del circuito es siempre menor que cualquiera de las resistencias parciales. Cálculo de la resistencia de un circuito La resistencia total de un circuito en serie o en paralelo se calcula aplicando las fórmulas indicadas en el apartado anterior. Las mismas permiten calcular además todos los elementos del circuito (E, I, R) según sean los datos. Cuando se trata de circuitos mixtos (con partes en paralelo y partes en serie) deben reducirse progresivamente a alguno de los dos casos fundamentales, calculando resistencias parciales para cada sector del circuito.
148
Caso de un sector de resistencias en paralelo, colocado en serie con otra resistencia (ver figura 5.14).
R2
R1 R′
R3
Figura 5.14
I I I + , = R2 R3 Y el cálculo de la resistencia R total del circuito resulta: R R = R1 + R , Caso de un sector de resistencias en serie; colocado en paralelo con otra resistencia adicional (ver figura 5.15).
R1
R2
R4
Figura 5.15 149
R3
Y el cálculo de la resistencia R total del circuito resulta: R’ = R1 + R2 + R3
I I I + = , R4 R R Mostramos ahora la conexión de un tubo fluorescente, que es un artefacto de uso cotidiano y que posee en el diseño de su circuito de funcionamiento, ambas variantes de elementos conectados en serie y en paralelo (ver figura 5.16). Conexión tubo fluorescente ∼3cm
-
+
Llave
Arrancador R
Reactancia (en serie)
∼12cm tubo
A
Reactancia
Arrancador (en paralelo)
Figura 5.16 Creemos interesante mencionar que para medir parámetros de la corriente eléctrica, la intensidad I, que se establece a través de un amperímetro, se intercala en serie en el circuito. A diferencia de lo anterior la diferencia de potencial E, que se mide con un voltímetro, se coloca en paralelo con los puntos entre los cuales se desea establecer el valor de caída de potencial.
150
Resistencia, Inductancia y Capacitancia Los circuitos considerados hasta ahora incluían sólo elementos con resistencia R, pero sabemos también que pueden tener otros elementos tales como bobinas o condensadores, que agregan otras oposiciones al paso de la corriente. Ejemplo de ello son la inductancia, debida a la reactancia inductiva de las bobinas y la capacitancia, debida a la reactancia capacitiva de los condensadores. Se considera como impedancia total de un circuito, a la oposición conjunta a la circulación de corriente, debida a los efectos de resistencia (R), la inductancia ( X L ) y la capacitancia ( X C ) . La impedancia se mide en Ohm. IMPEDANCIA : Símbolo Z Unidad : Ohm Ω La impedancia del circuito se relaciona con la tensión y la intensidad siguiendo la Ley de Ohm:
I=
E Z
La potencia efectiva utilizable en un circuito que posea alguna reactancia, no es igual al producto directo E.I (Volt x Ampere) sino menor, pues las reactancias absorben potencia no aprovechable . El factor de reducción se considera como Factor de Potencia (fp). Por lo tanto la potencia se calculará P = E.I . fp El factor de potencia es un número menor que uno. Ordinariamente entre 0,75 y 0,95. Para un circuito con resistencia pura es fp = 1. Motores y generadores - Distribución monofásica y trifásica Los motores y generadores eléctricos funcionan en base al efecto magnético de la corriente eléctrica en un sistema de bobinas en rotación.
151
En el caso de los motores, se aplica corriente eléctrica al sistema, produciéndose el movimiento rotativo. En el caso de los generadores, se pone mecánicamente en rotación el sistema y se genera corriente eléctrica. En el caso de un generador con un solo bobinado, se tiene un sistema monofásico que provee tensión alterna a dos hilos de distribución (ver figura 5.17).
+
-
220 V
N
Figura 5.17 En la instalaciones usuales esta tensión es de 220 V, y uno de los conductores se conecta a tierra como conductor NEUTRO. El conductor neutro no tiene tensión respecto de tierra, pero sí respecto del otro conductor, designado como CONDUCTOR VIVO. En el caso de un generador con dos bobinados, se tiene un sistema bifásico que puede proveer tensión alterna a redes de distribución de tres hilos (ver figura 5.18). + -
220 V 440 V
N 220 V
Figura 5.18 152
+
En este caso se tienen usualmente 220 v entre cada conductor vivo y el neutro o 440 v entre los dos conductores vivos. Conexión en triángulo Si se tiene un generador con tres bobinados se tiene un sistema trifásico que puede proveer tensión alterna a redes de distibución de tres hilos o de cuatro hilos (ver figura 5.19).
220 V
220 V 220 V
Figura 5.19 En la distibución trifilar, que se denomina conexión en triángulo, se tiene la misma tensión, usualmente 220 V, entre dos hilos cualesquiera. No se toma conductor neutro. Conexión en estrella En la distribución de cuatro hilos uno de ellos es neutro, utilizándose normalmente una tensión de 220 V, entre cada hilo vivo y el neutro, resultando una tensión de 380 V, entre cada dos conductores vivos cualesquiera (ver figura 5.20).
380 V 380 V
220 V
380 V
220 V 220 V N
Figura 5.20 153
Trabajo y potencia eléctrica Una carga eléctrica q desplazándose venciendo la resistencia del conductor, realiza mayor trabajo cuanto mayor es la tensión necesaria E. El trabajo eléctrico es: Te = E . q La potencia eléctrica P, que es el trabajo referido a la unidad de tiempo será entonces:
T q P= e =E t t Recordando que la carga por unidad de tiempo es precisamente la intensidad I, queda: P=E.I Expresando E en voltios e I en amperes, la potencia queda expresada en vatios. POTENCIA : Símbolo (P) Unidad : VATIO o Watt (W) También pueden enunciarse las siguientes relaciones:
P=
L(trabajo)( joule) t(seg)
P=
V.q V.I.t = = V.I t t
V=
L q
L = V.q
I=
q q = I.t t
P = V.I
Por lo que la potencia resulta, en el caso de la corriente eléctrica y de la deducción anterior, igual al producto de la diferencia de potencial por la intensidad.
154
La unidad de potencia también puede expresarse como el trabajo que gastan por segundo fuerzas eléctricas provenientes de la unidad de diferencia de potencial, que mantienen una corriente de la unidad de intensidad del mismo sistema. Las unidades de P = V.I , de acuerdo con la definición de Watt, resultan 1 Watt = 1Volt . 1Ampere y pueden expresarse equivalentemente como:
107 erg 1joule 1watt = = seg seg Ello se interpreta como que una corriente eléctrica tiene la unidad práctica denominada Watt, cuando las fuerzas eléctricas gastan un trabajo de un Joule en cada segundo. Volviendo a la ley de Ohm: R =
V ∴ V = R.I ∴ P = V.I = R.I.I = R.I 2 I
Por lo que el trabajo eléctrico, cuya unidad práctica es el Joule, resulta:
L = P.t = R .I 2 .t = Joule siendo las unidades (ohm . Amp 2 . seg ) Efecto térmico de la corriente o efecto Joule El desplazamiento de los electrones libres en el seno de la materia supone el movimiento de una masa a lo largo de un camino irregular venciendo choques y rozamientos que representan una resistencia mecánica concreta. Ello supone la realización de un “trabajo eléctrico“ definido, que genera una determinada cantidad de calor. Esta cantidad de calor eleva la temperatura de un conductor hasta el punto que se produce el equilibrio térmico con la cantidad de calor que el propio conductor puede disipar al ambiente Todo lo anterior constituye lo que se llama efecto térmico de la corriente eléctrica o efecto joule. De acuerdo al equivalente mecánico del calor, si el trabajo eléctrico Te desarrollado por las cargas en movimiento se expresa en Joules, la cantidad de calor generado Q queda expresada en calorías según la relación: Q = 0,24 . Te
155
Para un mismo conductor de resistencia R dada, el trabajo Te será mayor cuanto mayor sea la cantidad de cargas desplazadas en un mismo tiempo, es decir cuanto mayor sea la intensidad I. Por otra parte para una misma intensidad I de corriente, el trabajo Te será mayor cuanto mayor sea la resistencia R opuesta al desplazamiento de las cargas. Corriente continua y alterna Todo lo que hemos enunciado previamente en este capítulo relativo a la electricidad, se refiere al caso de que la corriente circula entre las dos terminales de un generador, con un sentido definido y único, que va del polo (-) al (+) venciendo una resistencia R (ver figura 5.21). (-)
(+) P
Figura 5.21 Si la tensión E entre bornes se mantiene constante y no cambia la polaridad de los mismos, se tendrá una corriente que recibe el nombre de contínua, de intensidad uniforme (ver figura 5.22). I
Amp.
E
Volt
TENSIÓN (E)
INTENSIDAD (I)
t [seg]
O
Figura 5.22
156
En todo momento la relación entre E e I será la dada por la Ley de Ohm, para la resistencia R. Si la tensión E varía según el tiempo conforme a una cierta función se tendrá una corriente variable de intensidad en todo momento relacionada con E según la Ley de Ohm (ver figura 5.23).
E Volt
I Ampere
t seg Figura 5.23 Pero si por un dispositivo cualquiera, que puede ser el generador de la corriente eléctrica, la polaridad de los terminales de dicho generador fuera cambiando alternadamente, se tendría en el conductor una corriente de sentido alternativo (en una dirección, y en la contraria, alternadamente) y la corriente resultante será corriente alterna o alternada. La corriente alterna es entonces una corriente oscilante que tendrá un período T y una frecuencia f. La frecuencia es normalmente de 50 Hz (en nuestro país) o de 60 Hz (en otros países, como por ejemplo E.E.U.U.). Recordamos que un Hertz es un ciclo por segundo; por lo tanto la corriente alternada puede considerarse una forma de energía de baja frecuencia, si la comparamos con otros tipos de energías. El efecto calorífico de una corriente alterna que alcanza valores de intensidad Imax (valores de pico), es mucho menor que el de una corriente continua con este valor de intensidad en forma invariable.
157
Se denomina entonces corriente alterna, a la que se obtiene al variar la tensión según una ley sinusoidal, alcanzando alternativamente valores máximos positivos y negativos (ver figura 5.24).
Figura
5.24
Este tipo de corriente alterna, es la que nos proveen en los centros urbanos de nuestro país, las compañías generadoras de electricidad.
158
CAPITULO VI
Iluminación Este es un tema sustancial en el campo del diseño del hábitat y para su análisis se desglosará en dos subcapítulos, de forma tal de desarrollar los conceptos generales y los aspectos relativos a la iluminación artificial en la primera parte y la iluminación natural en la segunda sección. Por de pronto es conveniente aclarar que la iluminación artificial es aquella creada por el hombre a través de los distintos artefactos; y la natural la que se origina en el Sol, y que como se ha dicho, será tema del capítulo subsiguiente. Comenzaremos por hablar acerca de la luz, que es obviamente el fenómeno natural que da origen a la iluminación. La naturaleza de ese fenómeno es de características muy particulares, que generaron amplios debates entre los científicos a lo largo de la historia. Para dar una idea simplificada de las diversas teorías respecto a la esencia de la luz, podemos mencionar aquella que asignaba al fenómeno características de objeto material, con masa propia. Esta teoría, que opinaba que la luz estaba compuesta por partículas de masa llamadas fotones, tuvo sus adeptos durante un largo período y se sustentaba en un hecho verificable, que es el que la luz es susceptible de ser atraída por campos gravitacionales importantes, tales como, por ejemplo, los que genera la masa de un planeta. Esta particularidad fue observada, comprobada y mensurada por varios astrónomos del siglo XVI y posteriores. La otra teoría sobre la naturaleza de la luz es la denominada ondulatoria y que cataloga el fenómeno como un tipo de onda o movimiento oscilatorio armónico, de determinadas características en cuanto a sus parámetros, que vinculan el caso al de otras ondas de similar (aunque no idénticas) características, tales como las ondas de radio, los rayos X, Gamma, etc. Las últimas opiniones de los físicos tienden a describir el fenómeno luminoso como una combinación de las dos teorías antes mencionadas. Sin embargo, la luz posee características propias que la hacen singular para el hombre respecto a otras manifestaciones de la naturaleza. La primera y más significativa para quienes son diseñadores, es que el ser
159
humano posee un sentido que permite percibirla naturalmente, que por supuesto es la vista. Téngase en cuenta que no sucede lo mismo con las ondas de radio por ejemplo. En este punto es válido mencionar que la luz que percibimos abarca una serie de matices en cuanto a colorido, que va desde el rojo hasta el violeta, pasando por el amarillo como color central. Esta paleta multicolor recibe el nombre de espectro luminoso y en él es posible clasificar a cada color por su longitud de onda particular. Por “debajo” del rojo existen radiaciones que el hombre no percibe con la vista y que reciben el nombre de infrarrojas, pero que influyen notoriamente en el diseño de un hábitat, ya que poseen características térmicas - una significativa cantidad de calor - y que son percibidas por el sentido del tacto. También son destacadamente importantes, aunque imperceptibles por el ojo humano, las ondas que se encuentran por “encima” del violeta, llamadas ultravioletas (U.V.), responsables por ejemplo del tostado de la piel, pero asimismo en el campo de lo constructivo, de la degradación de ciertos materiales. Esta condición hace que partes del hecho construido que están expuestas al Sol, sufran los efectos adversos de esta emisión de rayos U.V., ya que la estrella alrededor de la cual giramos, emite no solo luz, sino una amplia variedad adicional de ondas entre las que se encuentran las anteriormente citadas. Las membranas aislantes hidrófugas, ciertos revestimientos, pigmentos de pinturas, etc. son algunos de los ejemplos de materiales que se deterioran al estar expuestos a la luz solar. Los efectos de calentamiento por efecto de los infrarrojos, que se potencian al atravesar cerramientos vidriados, son también un componente substancial del diseño del hábitat y serán analizados en forma más detallada en el capítulo ulterior, en el que se hablará de energías convencionales y no convencionales. Otra distintiva cualidad de la luz es su velocidad de propagación, que es la mayor velocidad a que se desplace un elemento conocida hasta el día de hoy, y que es de 300.000 km. por segundo. Este valor se considera para su desplazamiento en el vacío, cualidad que también posee, pues no es imprescindible la existencia de un medio material para su traslado. Si bien existen diferentes valores de velocidad de desplazamiento de la luz en diversos medios materiales, la diferencia respecto de la cifra antes mencionada es significativamente escasa, lo cual hace irrelevante el dato para su análisis desde el punto de vista de un arquitecto o un diseñador.
160
Dato destacable respecto de la velocidad de la luz es su invariabilidad aún cuando la fuente emisora esté en movimiento. Esto la constituye en un valor constante que interviene en numerosas expresiones de fenómenos físicos, siendo probablemente el más conocido el que relaciona la energía (e), con la masa (m), que se debe al destacado científico Albert Einstein y cuya expresión matemática es e=m.c2 donde c, el término al cuadrado, es justamente la velocidad de la luz. Si bien hemos denominado a este capítulo “Iluminación”, pues es un determinante relevante del diseño del hábitat humano y un tema que se desarrollará con mayor profundidad en los cursos de instalaciones de un edificio, es dable señalar que la rama de la física que estudia el fenómeno luminoso, recibe el nombre de “óptica”. Las leyes de la óptica serán el primer punto a considerar para el estudio de la luz desde el punto de vista arquitectónico y del diseño en general. Para ello es necesario, como condición inicial, aceptar una abstracción que permite analizar el comportamiento de la luz como emergiendo de una fuente que la genera y a posteriori, incidiendo en ciertos objetos que determinarán su comportamiento según sus características propias. Esa abstracción es suponer que la luz emergente de una fuente luminosa - que puede ser puntual (p.ej. una lámpara incandescente) o extensa (p.ej. un tubo fluorescente) - está compuesta por infinitos ”rayos” - lo que se denomina haz de luz - y que cada uno de esos rayos se puede estudiar por separado. Es claro que la infinitud de los rayos es de por sí un concepto abstracto y el estudio de cada uno de ellos, que carecerá de magnitud para su análisis, una entelequia o idea pura, establecida solo a efectos de simplificar su estudio. Ya hemos hecho una primera clasificación respecto de las características de la fuente emisora; ahora haremos otra respecto de los objetos que reciben el haz de luz o iluminados, de acuerdo a cómo se comportan frente a este fenómeno. Los materiales al recibir la luz pueden clasificarse en: Opacos: no permiten el paso de la luz (p.ej. metales, maderas, mampostería, etc.) Transparentes: dejan pasar la luz y no distorsionan la dirección de los rayos, por lo cual las imágenes no se deforman a través de ellos (p.ej. vidrios, acrílicos y policarbonatos)
161
Translúcidos: dejan pasar la luz, pero distorsionan la dirección de los rayos, por lo cual deforman las imágenes (p.ej. mármoles claros y de baja densidad, vidrios, acrílicos y policarbonatos) En el caso de materiales opacos, cuando la luz incide en ellos, al no poder atravesarlos es reflejada - fenómeno de reflexión - lo cual sucede en mayor o menor grado según la brillantez, textura y color de la superficie de incidencia. A mayor brillantez, mayor lisura y colores más claros, mayor será la reflexión. Cuanto menos brillante, más rugosa y más obscura sea la superficie de incidencia, menor será la cantidad de luz reflejada y en su mayor parte será absorbida por el material. En el caso de los materiales que permiten el paso de la luz, el fenómeno que se produce recibe el nombre de refracción y se rige por leyes, que equivalentemente al caso anterior, desarrollaremos en los tramos siguientes de este libro. Radiación luminosa La energía radiada bajo la forma de oscilaciones del campo electromagnético, constituye un flujo de energía que se denomina flujo radiante. Este tipo de radiaciones se propagan a la velocidad de la luz en el vacío: c = 300.000 Km/seg Como todo proceso que se propaga con carácter oscilatorio, tiene una frecuencia de oscilación f y una longitud de onda λ que cumplen la condición: λ.f=c La radiación electromagnética puede presentarse con longitudes de onda comprendidas entre 1010µ y 10-10µ (µ = 1 milésima de mm), no estando perfectamente definidos estos extremos. Pero, a la totalidad de las ondas que responden a este fenómeno, las denominamos espectro electromagnético. Dentro del amplio espectro electromagnético, existe un intervalo que se traduce en radiación luminosa, y ese rango es la gama de radiación electromagnética comprendida entre 0.38µ y 0.76µ. Dicha radiación luminosa es capaz de excitar la retina del ojo y dar lugar, a través del mecanismo de la visión, a la sensación de luz.
162
Veamos un cuadro (tabla 6.1) en el que se encuentran listadas por longitud de onda las ondas electromagnéticas y donde se da la equivalencia en metros o sus múltiplos y submúltiplos. Pensemos que la percepción del fenómeno luminoso, combina la existencia de radiación luminosa, con el funcionamiento del mecanismo de la visión, dando por resultado esa singular manifestación de los sentidos, que es la luz. De acuerdo al concepto anterior, podemos definir como luz, a la sensación obtenida a través del mecanismo de la visión, como respuesta a la excitación por radiación electromagnética con longitudes de onda entre 0,38 y 0,76 µ.
Cuadro 6.1 163
Fotometría - Unidades Fundamentales Flujo luminoso Definiremos ahora como flujo luminoso (Φ), a la potencia de la sensación de luz, correspondiente a una potencia P de excitación dada. El flujo luminoso tiene como unidad el lumen [lm] , por lo tanto el rendimiento visual (RV) puede expresarse:
Rv =
Φ P
(
lm ) watt
Φ = Rv .P Siendo watt la unidad de potencia de radiación, unidad que es común a otras formas de energía ya vistas. Combinando las unidades vistas precedentemente, se puede generar una curva que relacione funcionalmente esos parámetros. Esa función se grafica en la llamada curva internacional de luminosidad. Esta función muestra que el rendimiento visual del ojo no es el mismo para todas las longitudes de onda, que es más sensible a los colores intermedios del espectro visible (el color más destacable para el ojo humano es el amarillo), y que esta percepción se atenúa hacia los extremos del espectro de la radiación sensible a la vista. Por lo tanto, si actúa la misma potencia en todas las longitudes de onda, el flujo luminoso resultante no es en cambio el mismo. En consecuencia la curva del rendimiento visual resulta particularizada para ciertos valores, que constituyen un estímulo visual acorde con los parámetros que determinan la mayor o menor capacidad de percibir un estímulo visual. La curva siguiente (que se muestra en la figura 6.2), está ejecutada considerando una radiación actuante con una potencia de un watt, respecto de todas las longitudes de onda.
164
Φ [Watt/µ ] 100 %
685 600
80 %
500 60 %
400
40 %
300 200
20 %
100 0%
0 0.3
0.4
0.5
0.6
0.38
0.555
0.7
[ µ]
0.8 0.76
SENSACIÓN
p [ Watt/µ ]
EXCITACIÓN
1
0.3
0.8
λ [ µ]
Figura 6.2 El máximo rendimiento visual se tiene para λ = 0,555 µ
Mv = max
y es de:
Φmax 685 lm / µ = 685 lm / watt = P 1watt / µ
165
Como ejemplo, puede verse que para λ = 0,7 µ el rendimiento luminoso es de aproximadamente 100 lm /watt En consecuencia, si actuara en una longitud de onda de 0,7 µ una radiación luminosa de 20 watt de potencia, el flujo luminoso equivalente sería:
Φ = 100
lm x20watt = 2000 lm watt
Si tomamos el rendimiento máximo como 100 %, se pueden establecer valores porcentuales de rendimiento visual, que son los valores que se consignan en el eje lateral derecho de la curva antes descripta. El nombre de “curva internacional de luminosidad“ se le da, pues es reconocida por determinar los valores normalizados del equivalente de flujo luminoso para cada potencia de radiación actuante. Intensidad del flujo luminoso Para analizar la intensidad de una fuente luminosa, partiremos de una fuente de tipo puntual (recordemos que las fuentes también pueden ser extensas), y que emita luz en forma tridimensional, con un flujo Φ ω ,
donde el subíndice ω se refiere justamente a que la luz se distribuye esféricamente. Básicamente, la intensidad luminosa I que emana de un foco luminoso, es su capacidad de emitir luz, o la medida de la luz que emite como fuente lumínica. Si bien existen múltiples unidades para medir este parámetro, la de uso actual e internacional es la candela, también llamada bujía internacional. Se define en función del brillo que presenta el platino a la temperatura de fusión. Si una fuente luminosa emite entonces luz, en todas direcciones, de los rayos de luz que se distribuyen en forma esférica, pueden “independizarse” aquellos que inciden en una superficie de 1 m2, ubicada a 1 m de distancia de la fuente emisora. Este volumen virtual así generado, recibe el nombre de estereorradián o ángulo sólido. La medida de un ángulo sólido ω en estereorradianes se define en base al área A que el ángulo determina en la superficie de una esfera de radio r con centro en el vértice del ángulo (ver figura 6.3).
166
ω
F
A
C
ω =
A r2
[ ester . ]
Figura 6.3 Si en el caso genérico anterior, el área A fuese de 1 m2, y estuviera a 1 m de distancia de la fuente (F), ubicada en el centro de la esfera (C), para una intensidad de una candela, el flujo luminoso incidente en la superficie A sería de 1 lumen. Esta idea nos permite expresar con otra terminología la intensidad I, diciendo que es la densidad angular de distribución del flujo, lo que se traduce en la siguiente expresión:
I=
Φω ω
Intensidad direccional e intensidad media Para una fuente puntual que irradia flujo luminoso en diversas direcciones, la densidad angular de emisión (intensidad) puede no ser la misma en cada dirección. Puede indicarse esta característica en un diagrama polar de emisión donde en una cierta escala, el radio vector indica siempre la intensidad en cada dirección, tal como puede verse en la figura 6.4.
167
I3
I2
I1 I3
I2 I1
Figura 6.4 La intensidad tiene entonces carácter direccional, y esta es una cualidad con la que se caracteriza a la distribución de luz de diversos artefactos de uso en el hábitat, y que responde a su morfología, diseño y tipo de materiales empleados en su ejecución. Si la fuente emite uniformemente en todas direcciones, el diagrama representativo es circular y la intensidad es igual para todas las direcciones. En la práctica lo que más se asemeja a este tipo de forma de emisión, es una lámpara incandescente sin pantallas que interfieran su emisión de luz (aunque es evidente que la base roscada limita un sector de campo de su distribución tridimensional).
Si se designa con ΦT el flujo luminoso total emitido desde un punto en todas direcciones (con cualquier valor para cada dirección), como el ángulo sólido total ω en torno a un punto vale 4π estereorradianes (pues 4π m2
T
es la superficie de una esfera de 1m de radio), se tiene:
Im = Im =
ΦT
ωT ΦT
=
ΦT 4π
12.56 Φ T = 12,56 I m El valor Im se considera como intensidad media esférica y equivale a la intensidad que tendría para cualquier dirección, una fuente puntual que emitiera uniformemente el flujo total.
168
Iluminación Si volvemos al gráfico de la figura 6.3 y como dijimos, incide sobre el área
A un flujo luminoso Φ A , podemos definir como iluminación E del área considerada, a la densidad superficial de distribución del flujo incidente.
Φ
A A
E=
En otras palabras, una fuente luminosa de 1 candela, que como se explicó emite en un estereorradián un flujo luminoso de 1 lumen, producirá en una superficie de 1 m2 ubicada a 1 m de distancia una iluminación de 1 lux. Por tanto se define como lux [lx] a la unidad de medida de la iluminación. Su expresión es la que sigue:
1 lx =
1 lm 1 m2
El área se mide en m2 Relación entre iluminación e intensidad Como el Φ A incidente sobre el área A es el mismo flujo Φ ω emitido dentro del ángulo ω correspondiente a A , puede ponerse :
Φ A = Φω ω=
A r
∴
2
ΦA
Substituyendo en la expresión E =
A
y recordando el valor de I , resulta:
E=
I r
2
169
A = ω. r
, se tiene:
2
E=
Φω ω. r
2
El valor r corresponde a la distancia entre la superficie iluminada y la fuente de luz. Todo ello se considera para el caso de una superficie esférica, donde todos los puntos están a igual distancia de la fuente F. Además, se supone que el flujo Φ A incide para todos los puntos, en forma perpendicular a A. Si designamos como E N la iluminación que se produce cuando el flujo incide normalmente a la superficie, puede demostrarse que si el ángulo de incidencia es α , la iluminación efectiva es:
E = E N . cos α Por otra parte, si se considera una superficie no esférica, la distancia de cada punto a la fuente no se interpreta ya como un radio, y la designamos por d.
I
En consecuencia la expresión E =
r
general:
se expresa en la forma más
2
E=
I α cos α d2
Esta relación es conocida como ley general de la fotometría y permite conocer la iluminación en cada punto P de una superficie siendo: d
- la distancia del punto a la fuente luminosa .
α
- el ángulo de incidencia del flujo luminoso
Iα
- la intensidad de la fuente en la dirección α
Reflexión, absorción y transmisión Cuando consideramos un flujo Φ i en un cierto material, pueden producirse, en general, tres tipos de procesos (ver figura 6.5): 1 - Una parte del flujo es reflejado =
Φr
2 - Una parte del flujo es transmitido por transparencia = 3 - Una parte del flujo es absorbido =
Φa
170
Φt
Φi
Φt Φr
Φa
Figura 6.5 En este caso, se definen los siguientes coeficientes, característicos del material considerado: Coeficiente de reflexión:
Coeficiente de transmisión:
Coeficiente de absorción:
Kr =
Φr Φi
Kt = Ka =
Φt Φi Φa Φi
≤1
≤1
≤1
Puede demostrarse lo siguiente:
Kr + Kt + Ka =
Φ r + Φ t + Φa Φi
pero: Φ r + Φ t + Φa = Φi Luego: K r + K t + K a = 1
171
El coeficiente K t puede ser nulo (cuerpos opacos a la luz) El coeficiente K r puede ser nulo (superficie absolutamente negra) El coeficiente K a puede ser nulo (cuerpo absolutamente transparente). Las formas de reflexión y transmisión pueden modificarse según la estructura superficial o interna del cuerpo dando lugar a los casos prototípicos, que se grafican en el cuadro 6.6. En el caso normal (cuerpos especulares o totalmente transparentes) se produce una reflexión o transmisión neta según las leyes básicas de reflexión y refracción. En los demás casos el flujo luminoso es devuelto al ambiente distribuido en todas direcciones con diversos valores. En este caso decimos que se produce difusión (por reflexión o por transmisión). NORMAL o perfecta
DIFUSA MIXTA
REFLEXIÓN (cuerpos opacos )
TRANSMISIÓN (cuerpos transparentes )
Cuadro 6.6 172
COMPLETA o perfecta
El fenómeno de reflexión Cuando un rayo luminoso i incidente sobre una superficie plana es reflejado, lo hace según la dirección r tal que: αi = αr Siendo éstos los ángulos de incidencia y de reflexión, respectivamente, ambos tomados respecto a la normal N al plano de incidencia (ver figura 6.7). N i
r αi
αr
Figura 6.7 También debe cumplirse la condición de que el rayo incidente, el rayo reflejado y la normal a la superficie de incidencia, deben estar contenidos en un mismo plano (en este caso sería la hoja de papel en el que están representados). En otras palabras, no puede ser que un rayo luminoso incida en el plano de la hoja y emerja en dirección al lector o hacia atrás del libro. El fenómeno de refracción Si el rayo luminoso i incide sobre la superficie de un medio transparente, se propaga en el mismo desviando la trayectoria inicial y estamos frente al fenómeno de refracción. El sentido de la desviación depende de si pasa de un medio menos denso a uno más denso, o inversamente, como puede observarse en la figura 6.8. En caso de pasar de un medio menos denso, como podría ser el aire, a otra más denso como por ejemplo un vidrio, el rayo se acerca a la normal N, al plano de incidencia.
173
Se cumple en este caso la siguiente relación matemática, entre el ángulo de incidencia i (el que forman la normal N y el rayo incidente) y el ángulo de refracción r del segundo medio (el que forman la normal N y el rayo refractado):
sen ˆi µ= sen rˆ Siendo µ (en la expresión anterior, el índice de refracción de un medio respecto del otro. Como la función seno tiene una variación que implica, a mayor ángulo, mayor valor de la función (es decir que son coeficientes directamente proporcionales), se pueden dar los siguientes casos: •
µ > 1 implica que el ángulo de incidencia es mayor que el ángulo de refracción, luego se deduce que el medio inicial es menos denso que el segundo medio al que pasa (figura 6.8a).
•
µ < 1 implica que el ángulo de incidencia es menor que el ángulo de refracción, luego se deduce que el medio inicial es más denso que el segundo medio al que pasa (figura 6.8b).
N
N
MEDIO MENOS DENSO
i
r
i r (a)
MEDIO MÁS DENSO
Figura 6.8 174
(b)
También en este fenómeno de refracción, al igual que en el de reflexión, debe cumplirse la condición de que el rayo incidente, el rayo refractado y la normal a la superficie de incidencia, deben estar contenidos en un mismo plano. Cuando se tiene una lámina de caras paralelas, por ejemplo el vidrio de una ventana, el rayo incide en una dirección en el medio aéreo, pasa luego por el vidrio y finalmente vuelve a emerger en un tercer medio igual al de origen. En este caso, la desviación que se produce al ingresar al material intermedio, se compensa al salir y el rayo emergente conserva la dirección inicial, con un pequeño desplazamiento lateral que depende del espesor atravesado, tal cual se grafica en la figura 6.9 (a).
N
N
i
i
r
r
N’ (a)
(b)
Figura 6.9 Nos referimos antes al ejemplo común en el campo constructivo, de un vidrio que forme parte de un cerramiento. En ese caso y debido al espesor pequeño de la lámina transparente, puede suponerse que la dirección inicial se mantiene sin alteración, como se grafica en la figura 6.9 (b). Frente a todos estos fenómenos antes descriptos, no hay que dejar de tener en cuenta como idea fundamental que su estudio, en el caso de los diseñadores, está dirigido al adecuado tratamiento visual del hábitat en general.
175
Por lo tanto, es relevante poner todo lo desarrollado en función del sujeto receptor de los estímulos relativos al campo de la iluminación, sea éste el que proyecta o el usuario. Por ello dedicaremos algunos párrafos adicionales a cómo el hombre percibe su entorno y sus características destacables. La visión de objetos y colores La visión, nuestro más usual sentido de percepción, es la que nos permite distinguir formas colores, movimientos, etc. que constituyan un estímulo para nuestros ojos. Estudiemos aunque sea brevemente este mecanismo en el hombre. El flujo luminoso incidente en el ojo, proveniente de los objetos del campo visual, penetra a través de la pupila, similar a un diafragma de máquina fotográfica y se refracta en el cristalino, que es como en una lente biconvexa, para llegar a la retina. La retina, constituida por células sensibles a la luz y al movimiento, conforma una imagen real e invertida de los objetos exteriores, la cual se transforma en impulsos nerviosos que casi instantáneamente llegan al cerebro en condiciones normales (ver figura 6.10).
Figura 6.10 La reinversión de esta imagen es un mecanismo que está en relación con la conducción nerviosa a los centros cerebrales y con diversos procesos de la psiquis. El flujo luminoso emitido por los objetos en dirección al ojo puede ser percibido en la medida que los rayos de luz penetren en el globo ocular. Sería imposible percibir un rayo de luz que pase frente a nuestros ojos, sin incidir en la retina, y en realidad cuando “vemos” rayos de luz (como los del Sol en un atardecer, atravesando las nubes), en realidad lo que percibimos
176
en nuestro sentido de la vista es la luz que esa imagen hace incidir en forma directa en nuestra retina. Por lo tanto, lo que el ojo ve realmente, son distintas zonas de luminancia de valores diversos, diferenciados entre sí y que corresponden a los estímulos visuales que ingresan al aparato visual humano. La respuesta visual a la radiación incidente tiene dos aspectos: uno cuantitativo y otro cualitativo. Por el primero, los elementos sensibles de la retina responden a la mayor o menor potencia incidente, permitiendo valorar cuantitativamente un mayor o menor flujo luminoso, según la curva de sensibilidad del ojo. Por el segundo, los elementos sensibles de la retina pueden reconocer cualitativamente flujos luminosos que corresponden a longitudes de onda diversas (diversas composiciones espectrales). Estas diversas “cualidades de luz“ son interpretadas como colores diferentes, tema que desarrollaremos en los siguientes parágrafos. Conceptos generales sobre el color Los diferentes colores no son otra cosa que las diferentes sensaciones de luz con que el ojo decodifica las distintas longitudes de onda de la radiación luminosa incidente en la retina. Ya hemos mencionado la banda perceptible por el ser humano que abarca las longitudes de onda de 0,38 a 0,76 µ. Podemos señalar ahora que cuando se perciben en forma simultánea, todas esa longitudes de onda, es cuando nuestro cerebro recibe la sensación de ver el color blanco. En contraposición, el color negro significa la ausencia de sensación visual, es decir que la potencia de radiación incidente es nula en todas las longitudes de onda de la gama visible. Entre esas situaciones extremas, surgen otras opciones respecto a la percepción visual. Por ejemplo una radiación en una longitud de onda única se dice que es monocromática, es decir se corresponde con un único color. Y los tonos o matices, lo que representan es la longitud de onda dominante en una composición espectral. Cada color posee su propio matiz – tiene tonalidades anaranjadas, o azuladas....decimos de un cierto objeto – correspondiendo cada caso a una composición espectral diferente. Veamos en el siguiente cuadro de nomenclaturas y en la gráfica 6.11, algunas bandas estrechas típicas del espectro total de radiación visible que muestran colores prototípicos.
177
Denominación Rp Ro Na Am Ve Av Az Vi 400
Color correspondiente rojo púrpura rojo naranja amarillo verde azul verdoso azul violeta 500
600
700 760 [ m µ ]
380 Vi
Az
Av
Ve
Am
Na
Ro
Rp
Figura 6.11 Veamos cómo “reacciona” una superficie cuando recibe luz blanca, situación común en el caso de un objeto de diseño. Agregaremos a este análisis las posibilidades de tratar la superficie (con texturas, brillos pinturas, etc.), lo cual le conferirá variados comportamientos frente a la luz que recibe, y consecuentemente una imagen particular, resultado del logro que busque el diseñador en su tratamiento. Si el objeto se ilumina con luz blanca, es decir con la gama completa de longitudes de onda, su superficie reflejará la radiación incidente, según sus factores de reflexión K R (coeficiente ya mencionado), para cada longitud de onda. Por lo tanto la composición espectral de la radiación reflejada depende del tipo de superficie y puede diferir totalmente de la correspondiente a la luz blanca. Como el ojo ve siempre el flujo luminoso que le llega desde los objetos y no el que incide sobre los mismos, la superficie se verá de acuerdo a las ondas que refleje. Por lo tanto sus características superficiales determinarán color y aspecto.
178
Con respecto al color, si se reflejaran en la misma proporción todas las longitudes de onda incidentes de una fuente de luz blanca, la superficie del objeto se verá blanca. Si no se reflejaran las longitudes correspondientes al rojo, naranja y amarillo, lo cual implica que la superficie del objeto las absorbe, el cuerpo se vería de color azul verdoso. Por supuesto que si la superficie del cuerpo absorbe todas las radiaciones incidentes en él, se verá de color negro. Consecuentemente, si una superficie se ve blanca al iluminarse con luz blanca significa que refleja todas las longitudes de onda. Esa misma superficie, si se ilumina con luz roja, se verá de color rojo (composición espectral de la radiación reflejada). Pero si la superficie se ve de color rojo al iluminarla con luz blanca, significa que solo refleja la radiación correspondiente al rojo. Y por supuesto diremos “que es roja”. Por lo tanto, podemos generalizar el concepto anterior, diciendo que normalmente consideramos como color propio de un objeto, al color con el que lo percibimos al iluminárselo con luz blanca De acuerdo a todo lo expresado previamente, es importante concluir que el color con que se ve un objeto no es algo propio e invariable del mismo, sino que depende de la composición espectral de la luz incidente y de los factores de reflexión y transmisión que correspondan. Todo lo dicho respecto de superficies opacas iluminadas, vale para objetos transparentes o traslúcidos, si se considera en lugar del factor de reflexión el factor de transmisión. Prisma de refracción Si un haz de luz blanca incide sobre un prisma de refracción, cada longitud de onda componente de esa luz incidente, sufrirá una desviación distinta luego de atravesar el prisma, lo cual se muestra en la figura 6.12. Si los rayos de luz emergentes se proyectan sobre una pantalla blanca, se observará en ésta la serie continua de tonos puros discriminados desde 380 hasta 760 mµ. PANTALLA BLANCA Luz blanca
Gama espectral de 380 hasta 760 mµ.
Figura 6.12 179
Si se realizaran aberturas convenientemente elegidas en la pantalla, se podrían obtener haces de luz monocromática de cualquier longitud de onda que se desee elegir. Así funcionan los filtros (por ejemplo los de las máquinas fotográficas), y también muchos materiales usados como terminaciones superficiales en la construcción, por ejemplo las pinturas. En el hecho constructivo los cerramientos poseen características superficiales que les confieren ciertas propiedades frente a la luz que reciben y que les pueden imprimir su color, tono y aspecto propios, tal el caso por ejemplo del hormigón a la vista. En otros casos, la terminación superficial se obtiene por aplicación de películas superficiales como tintas, pinturas, etc. En el caso de las pinturas, éstas son en general preparados líquidos de pigmentos transparentes coloreados, en suspensión en un medio transparente fluido incoloro. De esta forma, cuando una película de pintura cubre una superficie, el flujo luminosos enviado sobre ella es reflejado y difundido después de atravesar los pigmentos colorantes, que obran como filtros. Como el flujo luminoso que el filtro permite llegar al ojo es precisamente aquel que no absorbe, la superficie se ve del color no absorbido. Mezclas aditivas y sustractivas Los colores se mezclan “aditivamente“ cuando el color resultante contiene todas las longitudes de onda de los colores componentes. Por lo tanto mezclamos aditivamente cuando sumamos luces de distintos colores proyectadas en forma sobrepuesta sobre una superficie. Por su parte, los colores se mezclan “sustractivamente“, si en el color resultante falta algunas de las longitudes de onda presentes en los colores componentes. De resultas de ello, si consideramos que pintar una superficie con un determinado color implica evitar que se reflejen los restantes del espectro, si mezclamos pinturas de varios colores, estaremos efectuando una mezcla sustractiva cuando la usemos como terminación superficial. Si se usaran todos los colores del espectro en una mezcla de pinturas, el resultado sería el color negro o total absorción de la luz. Estudiemos ahora casos demostrativos de este comportamiento aditivo y sustractivo de las radiaciones cromáticas. Para una comprensión más accesible del tema, podemos hacer una clasificación elemental de los colores dividiendo el espectro total en tres zonas, como se esquematiza en la figura 6.13.
180
1
2
Azul
Verde
3
Rojo
Figura 6.13 En este caso designamos como colores primarios aditivos a los representados por las longitudes de onda centrales de cada zona. Colores primarios aditivos Az Ve Ro
AZUL VERDE ROJO
ZONA 1 ZONA 2 ZONA 3
Si consideramos simultáneamente dos zonas del espectro, llamamos colores primarios sustractivos a los representados por las longitudes de onda de las zonas centrales de las zonas dobles. Am
AMARILLO
ZONA 2 3
Av
AZUL VERDOSO
“
1
2
Mg
MAGENTA
“
1
3
Hacemos la salvedad que el color magenta es en realidad un tipo de morado púrpura que no existe directamente en el espectro. Las mezclas aditivas realizadas con los colores primarios dan los siguientes resultados: •
Mezclando primarios aditivos, se produce un primario sustractivo Ejemplo : Ro + Az = Mg
181
•
La mezcla de los tres primarios aditivos da por resultado blanco
•
La mezcla de un primario aditivo con el primario sustractivo que es mezcla de los otros dos da por resultado blanco Ejemplo : Az + Am = Bl
•
El primario aditivo y el sustractivo que sumados aditivamente dan blanco, se designan complementarios entre sí.
Las mezclas sustractivas realizadas con los colores primarios dan los siguientes resultados: •
Mezclando primarios sustractivos, se produce un primario aditivo Ejemplo :
•
Am + Av = Ve
La mezcla de los primarios aditivos da por resultado siempre negro.
182
CAPITULO VII
Iluminación artificial En este capítulo se analizarán los artefactos que el hombre ha creado para generar luz y que tienen vigencia hoy en el campo del diseño del hábitat. Se estudiarán los principios básicos de su comportamiento como fuente luminosa, así como los parámetros que permiten dimensionar una instalación de iluminación, tema que en profundidad se estudia en el campo de las instalaciones, en las carreras de arquitectura. En primer lugar es válido tener en cuenta que los actuales artefactos capaces de generar luz, con aplicaciones en el campo del diseño en general y que el mercado ofrece al usuario, son sin excepción alimentados por electricidad. Esa cualidad debe tenerse en cuenta para otros cálculos del sistema de iluminación de un espacio o edificio, y señalando que lamentablemente el rendimiento de las “máquinas” que generan luz, no es demasiado eficiente, pues solo una pequeña porción de la energía eléctrica logra ser transformada en energía lumínica. El resto se “pierde” en otras energías no deseadas, tales como calor, radiaciones varias, etc. Buen desafío para futuros diseñadores es crear algún artefacto que mejore los existentes, lo cual sin dudas sucederá a corto o mediano plazo. Este tema del rendimiento, al que denominaremos con la letra griega η, es cuantificable, y recordando lo dicho sobre la relación electricidad - luz, estamos en condiciones de indicar cómo se expresa este parámetro, a través de la relación entre flujo de luz emitido, respecto de la potencia eléctrica consumida.
η=
lumen Watt
183
Damos a continuación, algunos valores tabulados que indican el rendimiento de ciertos artefactos convencionales, de uso actual:
Lámparas incandescentes
Flujo en lm
rendimiento
25 W 40 W 60 W 75 W 100 W
230 430 730 960 1380
9,2 10,7 12,2 12,9 13,8
Lámparas fluorescentes
Flujo en lm
rendimiento
16 W 20 W 40 W 65 W
730 - 820 900 - 1200 1700 - 2350 2650 - 4250
45 - 50 45 - 60 42 - 58 40 - 55
η
η
Ya mencionamos que en el caso de la iluminación artificial, en nuestros tiempos, la forma de generarla, al menos en forma masiva y comercialmente, es a través de artefactos alimentados por electricidad. También es bueno señalar que se hace una abstracción cuando se dice que el flujo de luz que emite una fuente genera “rayos de luz”, pues en esencia éstos no son segregables. Pero por el comportamiento de lo que llamamos rayos de luz, podemos afirmar que éstos son rectilíneos en espacios finitos. Es sabido que esos rayos pueden curvarse por efecto de campos gravitacionales importantes, en grandes distancias y con valores mensurables, pero a los efectos de su análisis en el campo del diseño y en la superficie terrestre, es válido aceptar su calidad de rectilíneos. Por otra parte, recordamos que la intensidad luminosa se refiere siempre a una determinada dirección, tal como la horizontal, la vertical o la de un ángulo determinado respecto de la vertical. La fuente luminosa emite los rayos en forma tridimensional y lo que podemos hacer los diseñadores es generar artefactos o usar los que los especialistas diseñan, a los efectos de regular la emisión de luz de la fuente y aprovechando los fenómenos que se han descripto en el capítulo general de iluminación. Pensemos ahora en el artefacto más simple y común de uso, en la instalación de iluminación en la vivienda y que genera luz a través de transformar la electricidad que recibe. Nos referimos a la lámpara incandescente, algunas de las cuales ilustramos en la figura 7.1.
184
Figura 7.1 En estas lámparas podemos definir la intensidad luminosa horizontal media (Ih), como la intensidad media en el plano horizontal que pasa por el centro luminoso de la lámpara. La intensidad luminosa esférica media (Ims) es la intensidad media de las intensidades radiadas en todas las direcciones, con la fuente como centro. Es igual al flujo luminoso (Fs) en lumenes dividido por 4 π.
F I ms = s 4π
Esta expresión deriva directamente de lo que ya definimos en forma previa, como distribución esférica de una fuente luminosa y nos permite reiterar como concepto que, dado que 4π es el valor del ángulo sólido subtendido por la esfera, la intensidad esférica media puede expresarse como el flujo luminoso medio por unidad de ángulo sólido. También podemos reafirmar en otras palabras y en base a las definiciones generales que ya se han dado en la reseña general del tema, que llamamos lux ó metro-bujía, a la iluminación incidente normal producida por una bujía a una distancia de un metro. Dicho de otra forma, pero que conceptualmente equivale a igual idea, cuando la iluminación media de una superficie de 1 m2, es de 1 lux, el flujo luminoso proyectado sobre tal superficie es de 1 lumen, por lo que la iluminación resulta de 1 lumen/m2 (ver figura 7.2).
185
A partir de ello podemos decir que la iluminación media de una superficie en lux, es igual al flujo luminoso en lúmenes que se proyecta sobre la superficie, dividido por el área en m2.
Esfera de radio unitario 1m
Estereorradián ó ángulo sólido Area en la superficie de la esfera: 1m2
Superf. Esfera = 4πr2
Figura 7.2 Por lo antedicho y lo que se observa en la gráfica anterior, si no hay elementos que restrinjan la emisión tridimensional de la luz, el flujo luminoso total emitido por una fuente puntual uniforme de una bujía es de 4π lúmenes. Pero veamos que sucede cuando a partir de una determinada fuente luminosa puntual, que emite un flujo de un lumen en el estereorradián, consideramos la iluminación que produce este flujo al doble de la distancia (figura 7.3). A un metro de distancia la iluminación es de un lux, pero resulta que a dos metros de distancia de la fuente emisora, la superficie donde ese flujo luminoso de un lumen incide es de 4m2 (por cuanto se corresponde a equivalente superficie a la que recibe un lm, pero en una esfera de dos metros de radio). Por lo tanto la iluminación resultará de la división entre el flujo de un lumen dividido por el cuádruple de la superficie anterior. En consecuencia la iluminación a 2m de distancia, será cuatro veces menor que a 1m metro de distancia de la fuente. De lo anterior surge que la iluminación varía con el cuadrado de la distancia, y en general: “Para un flujo constante de luz, a mayor
186
distancia, la iluminación decrece y lo hace en razón inversa al cuadrado de la distancia”, lo cual se expresa matemáticamente :
E=
I d2
1m
2m 4m2 1m2
Figura 7.3 También se mencionó en la introducción general de este tema, que los rayos de luz que se proyectan sobre una superficie son reflejados, absorbidos, transmitidos, difundidos o refractados, de acuerdo con la naturaleza de la sustancia que forma la superficie. Ampliamos acá ese concepto, diciendo que la cantidad proporcional de luz reflejada por una superficie dada, depende de los siguientes factores: • • •
la condición molecular o color de la superficie. el ángulo de incidencia o ángulo que los rayos forman con la normal a la superficie en el punto de incidencia. la longitud de onda o color de los rayos incidentes.
Si la superficie es rugosa, áspera o irregular en su textura, los rayos reflejados son difundidos. Con adecuada elección y disposición de moléculas de una sustancia, puede lograrse que sean reflejados los rayos de determinadas frecuencias y absorbidos otros, lo que da lugar al color de los objetos. Por ejemplo una superficie que se pinta de rojo, en realidad lo que recibe al pintarla, es un pigmento que absorbe todos los colores del espectro de la luz blanca, excepto el rojo, que es devuelto a nuestra vista por el fenómeno
187
de reflexión. Este comportamiento recibe el nombre de reflexión selectiva. Recordemos ahora el fenómeno de refracción, para mostrar en un gráfico aclaratorio, como a mayor densidad, los rayos de luz que provienen de un medio poco denso (en nuestro caso el aire), al pasar a medios más densos se alejan de la normal a la superficie de incidencia y si pasaran a medios menos densos, se acercarían a dicha normal (ver figura 7.4). N aire
i αi Plano de separación de medios
αr
aire agua vidrio diamante
Figura 7.4 Digamos ahora que para materiales de uso en la construcción del hábitat, si los rayos que pasan de un medio a otro se desvían, pero conservan todos ellos sus direcciones paralelas entre sí, la imagen que los generó se mantendrá a la vista sin deformaciones. Este es el caso de los materiales transparentes (vidrios, acrílicos o policarbonatos son los disponibles en el mercado actual). Si por el contrario, frente a un material que permite el paso de los rayos de luz, éstos sufren variaciones unos respecto de otros, por las características de la superficie o del seno del material, entonces la imagen se distorsionará y la figura original se verá modificada. Este es el caso de los vidrios u otros materiales traslúcidos. Veamos a continuación, una versión simplificada de la ley general de la fotometría, que se corresponde a la incidencia de rayos de luz oblicuos en
188
una superficie, que para nuestro ejemplo puede ser un tablero de trabajo o una simple mesa. El análisis se realiza para una fuente luminosa F, ubicada cerca de uno de los extremos del plano iluminado, y se estudia la iluminación incidente en un punto P de la superficie iluminada, pero que no se encuentra bajo la perpendicular a la fuente luminosa (ver figura 7.5). Identificamos como: •
d a la distancia de la fuente al plano de trabajo
• •
d’ a la distancia de la fuente al punto considerado P α al ángulo que forma la normal al plano de trabajo, con la dirección del rayo luminoso que incide en el punto P
F d
α
d′
90°
P
Figura 7.5 En este caso se puede hacer la abstracción que implica que se cambia la inclinación del plano de trabajo, en vez de decir que el rayo de luz incide en forma oblicua. Como se puede inferir los resultados serían los mismos. Pero esta simplificación de la idea es más fácilmente apreciable en un esquema como el de la figura 7.6. Alli S es la superficie donde un flujo luminoso ϕ incide perpendicularmente y S’ la superficie cuando ese flujo luminoso incide oblicuamente.
189
S′ ϕ Flujo luminoso
perpendicular al plano de trabajo
α
S Figura 7.6
φ (flujo luminoso) φ = E.S S φ E ' = , ⇒ φ = E , .S, S S cos α = , ⇒ S = S, .cos α S , E.S .cos α = E , .S, ⇒ E.cos α = E , E=
Como el cos 0° = 1 y cos 90° = 0, si en la fórmula final se considera el caso de una fuente luminosa perpendicular al plano de trabajo, es α = 0° , y obviamente E = E’, en cambio si la fuente luminosa es rasante con la superficie de trabajo, será α = 90°, y resultará E = 0. Sin embargo, aunque la fuente luminosa sea rasante con la superficie considerada, ésta resulta algo iluminada. Ello sucede por cuanto la fuente luminosa ilumina los corpúsculos del aire y sus partículas; y el reflejo en ellos es el que funciona como nueva fuente de luz para proporcionar iluminación al plano de trabajo. Hemos mencionado a las lámparas incandescentes, las que con muy ligeras variantes respecto de la que inventara el científico Edison16, se usan en nuestros días como fuentes luminosas puntuales. Sin embargo, el mercado actual de luminarias cuenta con una gama más amplia de “máquinas simples” que transforman electricidad en luz. Entre ellas es destacable el incremento de rendimiento (relación potencia/lúmenes), que se obtuvo a partir de la aparición de las lámparas 16
Edison.Thomas Alva, (1847 – 1931) fue un prolífico inventor de objetos fundamentales de nuestro presente tecnológico, entre ellos la lámpara incandescente, el fonógrafo y los acumuladores.
190
denominadas genéricamente fluorescentes, ya que en su origen era predominantemente flúor el gas que contenían en su interior. Esas lámparas se basan en la propiedad que tienen ciertos gases de generar luz cuando pasa electricidad a través de ellos. Para ello es necesario que se le confieran ciertas propiedades (ionizarlos, proceso que no es pertinente extender en esta descripción para diseñadores), que una vez obtenidas hacen que el gas en el interior de receptáculos de vidrio, emita luz de diversos tonos y colores. El mercado actual ha extendido la variedad de gases que cumplen esa propiedad de luminiscencia a otras sustancias (mercurio, neón, etc.), que junto con los más diversos formatos, constituyen una oferta múltiple disponible para quien deba proyectar la instalación lumínica de un hábitat. Se muestran algunos ejemplos en la siguiente figura 7.7:
Figura 7.7 En otros casos se ha optimizado la emisión de luz de las lámparas, proveyéndolas de pantallas reflectoras propias, que mejoran su rendimiento respecto de determinadas direcciones. A su vez, mediante la posición focal de la fuente propiamente dicha respecto de la pantalla parabólica reflejante, también es posible variar el ángulo de emisión de lúmenes en un determinado rango apto para distintos usos (espacios generales, vidrieras, etc.). Nos referimos en esta última descripción a las lámparas dicroicas, una de las cuales se muestra en la figura 7.8.
191
Figura 7.8 Todas estas nuevas tecnologías respecto de lámparas de mayor rendimiento, tienen como contrapartida la necesidad de accesorios de funcionamiento más sofisticado, tales como reactancias, arrancadores, transformadores de tensión, etc. que confieren mayor complejidad a las instalaciones, en compensación a una duración mayor de la luminaria y a un menor consumo respecto del flujo de luz emitida (ver figura 7.9).
Figura 7.9 Cerramos este capítulo con una tabla donde se ejemplifican las iluminaciones recomendadas para ciertos tipos de trabajo, con sus diferentes niveles de requerimiento.
Alumbrado según la clase de trabajo baja General 60 lx Trabajo específico Secundario -
mediana 120 lx 250 lx 20 lx 192
Precisión alta 250 lx 500 lx 40 lx
muy alta 600 lx 1000 lx 80 lx
CAPITULO VIII17
Iluminación natural Ya vistos los principios básicos de la óptica en el capítulo anterior, se analizarán en este apartado los condicionantes que se refieren a la iluminación natural, aquella no creada por el hombre y cuya fuente es única y constante en nuestros tiempos, el Sol18. Efectivamente esta estrella, centro de nuestro sistema planetario, es generadora de dos tipos de energía sustanciales e imprescindibles para la vida humana: la luz y el calor. Estas dos energías las recibimos en el planeta Tierra en forma permanente y con grados de intensidad que alguna vez generaron la vida y hoy en día posibilitan la existencia de seres vivos – inclusive nosotros mismos – en condiciones de aceptable confort en casi toda la superficie terrestre. Pero si bien el Sol brinda generosamente y con una encomiable regularidad su aporte energético, también es cierto que somos absolutamente incapaces de controlar su comportamiento como “máquina” creadora de energías varias, que también a veces provoca efectos indeseados (catástrofes climatológicas, dificultades en las comunicaciones inalámbricas y satelitales, alteraciones de campos magnéticos, etc.). Esta misma dificultad en poder manejar el comportamiento natural del Sol, hace que el hombre y en nuestro caso particular el arquitecto o diseñador, deba poner sus esfuerzos en establecer controles o regulaciones a las dos energías solares citadas – la luz y el calor – por medio del diseño del hábitat o del uso de artefactos que mejor aprovechen esas formas de aporte energético a la vida humana.
17
Este capítulo está dedicado a la memoria del Ing. Hector Ottonello, quien fue mi destacado maestro de las ciencias matemáticas en mi paso por la Facultad de Arquitectura de la UBA. Además, señalo que casi todos los conceptos que se desarrollan aquí, han sido rescatados de mis propios apuntes de sus clases, por valiosos y por su permanente vigencia. (El autor). 18
El sol está a una distancia promedio de 150.000.000 de Km. de la Tierra. Su diámetro es de aproximadamente: 1.250.000 Km. Su intensidad lumínica es de 2,3x1027 Bujías y su temperatura oscila en los 6.000 °C.
193
Para el tema de cómo saber usufructuar las virtudes de la luz natural, que es el que se tratará en este capítulo, sin dudas es fundamental conocer como se nos presenta y se desplaza a nuestra observación, esa fuente luminosa que parece moverse respecto del observador como si éste fuera un hipotético punto fijo de un sistema. Al desplazamiento del Sol que se presenta a nuestra vista desde un punto determinado de la superficie terrestre, se lo denomina movimiento aparente del Sol. Para entenderlo es que desarrollaremos a continuación, una serie de conceptos fundamentales, la mayoría de ellos expresados en forma gráfica, ya que creemos que es el medio más idóneo para su comprensión por parte de un futuro diseñador de espacios habitables. Por empezar, recapitulemos conocimientos básicos, seguramente conocidos, pero que se reiteran con relación a los desarrollos posteriores de este apartado. Por ejemplo que la Tierra gira alrededor del Sol, dando una vuelta completa cada 365 días + 6 horas y algunos minutos (traslación), y además girando sobre sí misma cada 24 horas (rotación). La órbita alrededor del Sol recibe el nombre de eclíptica. Pero el eje de rotación terrestre, no es perpendicular al plano que contiene a la órbita de traslación alrededor del Sol, y esto es lo que produce los cambios de incidencia de los rayos solares, en las distintas épocas del año y en los diversos lugares del globo terráqueo. Vemos esto en la figura 8.1, que contiene además fechas de referencia para cada posición de la Tierra. Obsérvese que hemos situado el globo terráqueo con el Polo Sur hacia arriba y el Norte hacia abajo. En tales condiciones, mirando la órbita alrededor del Sol desde “arriba”, veríamos girar a la Tierra en sentido horario. 21/3
PS 21/12 sol
21/6
PN eclíptica 21/9
Figura 8.1 194
A partir de esto, y en tanto la Tierra es aproximadamente una esfera, pasaremos a referirnos a un sistema de coordenadas que, por situarse en una superficie como la terrestre, adoptan ese mismo nombre – coordenadas esféricas – y constituirán la base de las descripciones subsiguientes. Coordenadas Absolutas Con este esquema inicial empezaremos por describir las conocidas coordenadas que permiten situar un punto en la superficie del globo terráqueo, teniendo presente lo dicho de nuestro planeta, el cual aunque por aproximación, posee esa forma de esfera. Respondiendo a uno de los principales movimientos de la Tierra, que es el de rotación sobre si misma, es posible determinar dos elementos básicos de referencia (ver figura 8.2): •
el eje de rotación, que es el que une el Polo Norte con el Polo Sur geográficos
•
el plano del Ecuador, que es el plano perpendicular al eje de rotación referido y que pasa por el centro de la Tierra PN
PN = Polo Norte PS = Polo Sur E
E’ E E’ = Plano del Ecuador
PS
Figura 8.2
195
Este primer sistema de coordenadas esféricas que presentamos es el de las llamadas coordenadas absolutas, ya que dependen del movimiento de rotación de la Tierra y no de la posición del observador. Veamos algunas definiciones relativas al movimiento de la Tierra respecto al Sol y a su rotación, que se pueden observar en la figura 8.3, donde se amplían los elementos de referencia que observamos en la gráfica anterior (figura 8.2): Eclíptica: además de ser la curva cerrada que indica el movimiento de la Tierra alrededor del Sol, también puede definirse en la superficie terrestre como la línea determinada por el plano que contiene a la órbita terrestre, y la cual determina un círculo máximo de la esfera celeste, que en la actualidad19 corta al Ecuador en un ángulo de 23° 27′ y señala el curso aparente del Sol durante el año. Meridiano: relativo a la hora del mediodía. Círculo máximo de la esfera celeste, que pasa por los polos del mundo. Determina la longitud de un lugar que se mide en grados: de 0°a 180° sobre el Ecuador o sobre un paralelo a partir del primer meridiano o meridiano de origen, el cual (aunque por razones convencionales) es el de Greenwich, ciudad cercana a Londres en Inglaterra. Cada lugar de la tierra tiene su meridiano magnético correspondiente, que en general no coincide con el geográfico, sino que forma con él, un ángulo que es la declinación magnética del lugar. Paralelo: cada uno de los círculos menores paralelos al Ecuador, que se suponen descriptos en el globo terráqueo y que sirven con los meridianos para determinar la posición de cualquiera de sus puntos o lugares, o en la esfera celeste. Trópico: cada uno de los círculos menores que se consideran en la Tierra o en la esfera celeste, paralelos al Ecuador y que tocan a la eclíptica en los puntos más alejados del Ecuador, de intersección de la misma con el globo terráqueo. Sus declinaciones son de: [+23°27′ ] y [-23°27′] y el sol los recorre aproximadamente los días 21 de junio y 21 de diciembre. El del hemisferio boreal se llama Trópico de Cáncer y allí es donde el sol alcanza su declinación mínima. El del hemisferio austral se llama, Trópico de Capricornio, y allí es donde el sol alcanza su declinación máxima. Los 19
Decimos en la actualidad, por cuanto también el eje de la tierra sufre un movimiento como de trompo, que modifica ese valor, pero en períodos sumamente largos (del orden de miles de años). Por ello no se tiene en cuenta para ningún cálculo en el campo de la arquitectura.
196
conceptos de máxima y mínima se refieren a la Tierra considerada con el polo sur “hacia arriba”. Solsticio: cada uno de los puntos de la eclíptica en los que el Sol alcanza sus declinaciones máxima y mínima, en uno de los dos paralelos celestes correspondientes a los extremos de la eclíptica más alejados del Ecuador, lo cual sucede alrededor del 21 de junio para el trópico de Cáncer y alrededor del 21 de diciembre para el trópico de Capricornio. Equinoccio: época en que por transitar en forma aparente el sol el Ecuador celeste, el día es igual a la noche en toda la Tierra. Esto se verifica anualmente alrededor del 21 de marzo y del 21 de setiembre. Austral: perteneciente al sur. En general, referido al polo y al hemisferio sur, comprendido entre el Ecuador y el polo antártico. Boreal: perteneciente al norte. También llamado septentrional, referido al polo y al hemisferio norte. Hiemal: es el solsticio que se refiere al invierno del hemisferio norte (de verano en nuestro país). Se corresponde en el hemisferio boreal con el día más corto y la noche más larga del año y en el hemisferio austral con la situación inversa. Vernal: es el solsticio que se refiere al verano del hemisferio norte (de invierno en nuestro país). Se corresponde en el hemisferio boreal con el día más largo y la noche más corta del año y en el hemisferio austral con la situación inversa. Cenit: punto del hemisferio celeste superior al horizonte, que corresponde verticalmente a un lugar de la tierra. También se llama así al punto más elevado que alcanza el sol en su movimiento aparente diurno. Nadir: punto de la esfera celeste diametralmente opuesta al cenit. Mediocielo: es el punto determinado por la circunferencia del Ecuador con la circunferencia que limita el plano meridiano en su parte superior. Hora sidérea y hora media: La hora sidérea es aquella que se corresponde con la veinticuatroava parte del recorrido del Sol en un día. Si bien es distinta de la hora media, que es la que se indica en nuestros relojes, basta saber que la duración de la hora sidérea y de la hora media tienen una diferencia irrelevante para el arquitecto (es muy poco menor la primera que la segunda). Si en un día describe la Tierra una circunferencia, en una hora describirá un arco de
360 o = 15º de arco y en un segundo de 24
tiempo 15′′ de arco. Círculo de declinación de un astro: El Eje del Mundo y un punto fuera de él (un astro) determinan un plano, que al interceptar la esfera celeste
197
origina una circunferencia y el círculo que la limita llamado círculo de declinación del astro. Angulo horario: se llama ángulo horario de un astro A, al arco de Ecuador MB, comprendido entre el mediocielo M y el pie del círculo de declinación de dicho astro (B), medido de 0° a 360° o de 0 horas a 24 horas en sentido retrógrado (contrario a las agujas del reloj). Declinación: Se llama declinación de un astro A, al arco de su círculo de declinación BA, comprendido entre su pie sobre el Ecuador (B) y el astro, medido de 0° a + 90° o de 0° a - 90° a partir del Ecuador, según que el astro esté situado en el Hemisferio Norte o Sur, respectivamente. PS
Meridiano de Greenwich
Trópico de Capricornio 23° 27′
Eclíptica
E
Ecuador
23° 27′ Trópico de Cáncer
PN
Figura 8.3 El paralelo otorga la latitud de un punto cualquiera del globo. Va de 0° en el Ecuador a 90° en el polo. El meridiano en cambio determina la longitud de un punto y como se dijo, si no hay alguna otra razón técnica que lo determine, se toma respecto del meridiano de origen de Greenwich, que corresponde entonces a longitud 0º.
198
La declinación (δ) en el sistema de coordenadas ecuatoriales horarias, es universal puesto que se mide a partir del plano del Ecuador que es único. En cambio el ángulo horario es local, pues se mide a partir del plano meridiano del lugar, tema que ampliaremos en las coordenadas locales que se desarrollan a continuación. Coordenadas Locales Son aquellas referidas a la posición del observador (ver figura 8.4). Es decir que para un sujeto ubicado en Buenos Aires, por ejemplo, y suponiéndolo en posición de pié, existirá una línea virtual que pasa por sus pies y su cabeza y que consecuentemente recibe el nombre de vertical del lugar. Es el eje principal de este sistema de coordenadas, y sus extremos son los puntos ya definidos anteriormente cenit (Z) y nadir (Z’). El plano principal es perpendicular a dicha vertical y en consecuencia recibe el nombre de plano horizontal o del horizonte. Vertical del lugar Cenit Plano del horizonte
H
H
horizontal
Nadir
Figura 8.4 Las coordenadas significativas que permiten ubicar un punto (o un astro, incluido el Sol) en este sistema son las que se definen a continuación (ver figura 8.5):
199
•
Azimut: en un astro o un objeto, es el ángulo formado por el plano vertical que pasa por el centro del cuerpo y el plano del meridiano de referencia.
El azimut se mide convencionalmente de 0° a 360°, desde el sur hacia el oeste (el Oeste en cosmografía se indica con la letra W del West inglés), en los cálculos astronómicos y desde el norte hacia el este (E), en los trabajos topográficos. En astronomía: es el ángulo que el meridiano de referencia (en la figura 8.5 este meridiano es el que marca la dirección cardinal norte PN’), forma con el círculo vertical que pasa por un punto de la esfera celeste o del globo terráqueo. A los efectos de nuestro trabajo como arquitectos, se puede adoptar otra convención respecto a cómo medir el azimut. En vez de medirlo, como se indicó en el párrafo precedente, es recomendable adoptar este otro sistema. Se toma como referente la dirección Norte, y se establecen los grados que correspondan al Este o al Oeste y se escribe así: a = N 30° E a = N 40° W a = 0° , en este caso el astro cruza el meridiano y se encuentra exactamente al Norte. a = 180°, en este caso el astro se encuentra exactamente al Sur. •
Altura: es el ángulo medido sobre un círculo máximo que pasa por el cenit y el nadir, y formado por el punto de la superficie terrestre o la visual a un astro y el plano del horizonte. En la figura 8.5 está indicado como h.
Si observáramos al Sol desde un punto terrestre, la altura del astro está dada por un arco virtual y vertical, ubicado sobre la esfera celeste, y que está definido por nuestra visual al Sol y el plano del horizonte. También podemos definir a la altura de un astro A, al ángulo formado por la visual dirigida al astro y su proyección sobre el plano del horizonte. Se cuenta a partir del horizonte de 0° a + 90° si el astro es visible, es decir arriba del horizonte, y de 0° a - 90°, si el astro es invisible, es decir si el astro se encuentra debajo. El complemento ZA de la altura de un astro A, se llama distancia zenital del mismo.
200
Es evidente que al Arquitecto no le interesan las alturas negativas. En sus cálculos de asoleamiento, lo único que le interesa es el azimut y la altura del Sol. Es por ello que observando en estas latitudes al Sol mirando al Norte, le es más cómodo definir el azimut del Sol, tomando como origen al Norte y contar los grados hacia el Este, si es en horas de la mañana, o hacia el Oeste, si es por la tarde (y con 180º en cada caso es suficiente). En el hemisferio norte se medirán, adoptando este sistema, a partir del Sur hacia el Este o hacia el Oeste, según sea de mañana o de tarde. El azimut y la altura se pueden medir con el teodolito y hay que recordar que son coordenadas locales, es decir que si en un mismo instante se mide la altura y azimut del Sol, en Buenos Aires y en Usuahia, se llegará a resultados distintos pues el horizonte de Usuahia, no es el mismo que el de Buenos Aires. Cenit
A
PN’
PS’
h
H
H’
azimut
Nadir
Figura 8.5 Veamos un ejemplo sencillo, de un cuerpo o edificio cuya cara principal mira al Sol (figuras 8.6 a y b), en corte y perspectiva, cuyos datos de referencia son: •
Hs: altura solar = 48o
201
•
Azimut = N 20o W (la notación indica: punto de referencia la dirección norte, ángulo 20º , desviación hacia el oeste).
Corte
altura del edificio h
Hs=48o S sombra
Figura 8.6 (a)
Norte
S
Perspectiva Sombra del sol 20o
Figura 8.6 (b)
202
En las definiciones anteriores nos hemos referido indistintamente a puntos de la superficie terrestre o a visuales al Sol. Pero como nuestro estudio de este tema se va a referir fundamentalmente a esta última opción, daremos algunas especificaciones más directas a ese respecto. Sabemos que las distancias estelares e incluso el diámetro de la órbita terrestre (unos 300 millones de Km.), son magnitudes enormes comparadas con las dimensiones de la Tierra (6.378 Km. en su semieje ecuatorial). Por lo tanto, nuestro planeta, referido a la esfera celeste, bien puede representarse por un punto. Por ello, lo que representemos a continuación tendrá a la Tierra como un punto, que es el centro de la esfera celeste. Aclaremos algunos conceptos respecto de esta esfera virtual que llamamos esfera celeste. Esta esfera no es nada más que una ilusión, no existe tal esfera, es un efecto de óptica aérea. Los puntos luminosos del cielo son la proyección de los astros que están a diferentes distancias de la Tierra y que en general no tienen ninguna relación entre sí. La gran mayoría de los astros que se ven brillar a simple vista son el Sol, la Luna y las estrellas, hay también cúmulos, nebulosas, dos o tres planetas y muy rara vez un cometa. Veamos un esquema referencial en la figura 8.7.
o A
*
*
B
o D′ o A′
*
B′ C′ o
*
C
D O
Figura 8.7 A′ B′ C′ y D′ son las proyecciones de los astros A, B, C y D. Aparentemente los astros A y D están juntos, sin embargo la distancia que los separa puede ser enorme.
203
En el gráfico anterior, se llama distancia angular entre dos astros B y C al ángulo B′ O C′ y distancia esférica entre los astros B y C, al arco B′ C′ medido por su ángulo al centro B′ O C′. Volvamos ahora a ubicarnos en el sistema de coordenadas locales y ampliemos algunos conceptos (ver figura 8.8). Z ALMICANTARADA
H
H′
HORIZONTE RACIONAL A HORIZONTE
GEOCÉNTRICO O
H
H′
Z’
Figura 8.8 Consideremos que el punto A, representa el lugar en que nos encontramos de la Ciudad de Buenos Aires, y que por ese punto se corte al globo terráqueo por un círculo máximo (círculo máximo es el que resulta de cortar a una esfera por un plano que pase por su centro). Desde ya que el punto representativo del lugar en que estamos puede ser cualquier punto de la circunferencia que limita al círculo máximo, pero por comodidad elegimos el A. La vertical de un lugar es una recta que podría considerarse materializada por la dirección del hilo de la plomada, una herramienta sencilla, pero de uso permanente y actual en cualquier obra de arquitectura. El plano del horizonte, por su parte, también puede encontrarse en una obra en construcción, materializado en la superficie de un líquido en reposo en un tanque, o a través de la herramienta denominada nivel (de
204
mano o de manguera) que también en casos simples, es de uso actual y cotidiano. Es obvio que cada lugar de la Tierra tiene su vertical, su zenit y su nadir, existen pues infinitas verticales. Sin error sensible, aunque no sea una esfera perfecta, todas las verticales se cortan en el centro de nuestro planeta. Hablemos un poco más de los “distintos” horizontes: El plano perpendicular a la vertical que pasa por el ojo del observador se denomina horizonte racional (HH). El horizonte geocéntrico (H′H′) del mismo observador, es el plano paralelo al anterior que pasa por el centro de la Tierra. Como el radio de la Tierra es infinitamente pequeño con respecto a las distancias estelares, los dos horizontes se confunden en uno solo. Las rectas HH y H′H′ de la figura 8.8, son las trazas de los horizontes al cortar el círculo máximo. Se llaman almicantaradas a los círculos menores de la esfera celeste paralelos al horizonte del lugar. Coordenadas absolutas celestes El eje del mundo corta a la esfera celeste en dos puntos, llamados polos celestes. El polo celeste que puede ser visto por el observador se le llama Polo alzado (segundo punto notable). En Buenos Aires, el polo alzado es el Sur o austral y el polo depreso es el Norte o Boreal. El eje del mundo, también puede verse como el diámetro alrededor del cual gira toda la esfera celeste durante el movimiento diurno. El eje del mundo no es otra cosa que la prolongación del eje de rotación de la Tierra. El eje del mundo celeste pasa por el centro de la Tierra y al cortar a su superficie determina los polos geográficos. En general, sabemos que dos rectas que se cortan determinan un plano. El eje del mundo y cualquier vertical se cortan en el centro de la Tierra, luego determinan un plano. Ese plano es el meridiano local que contiene a la vertical del lugar, existiendo por tanto infinitos planos meridianos. El meridiano es el segundo plano notable. El eje del mundo determina en el plano meridiano dos semiplanos. El semiplano que contiene el Cenit se le llama meridiano. Al opuesto antimeridiano.
205
El Ecuador (tercer plano notable), al cortar a la esfera celeste determina el Ecuador celeste y ese mismo plano al cortar a la Tierra, el Ecuador terrestre. Los planos paralelos al Ecuador se les llama paralelos celestes cuando cortan a la esfera celeste y geográficos, como fue dicho, cuando cortan al globo terráqueo. La recta determinada por la intersección del plano del horizonte del lugar con el meridiano del mismo lugar se llama meridiana. La meridiana es otra recta notable que determina el rumbo Norte - Sur. Y plano vertical primario es el plano perpendicular al meridiano, y su traza con el horizonte determina la dirección Este - Oeste. Combinación de coordenadas locales y absolutas Vamos a generar a continuación, gráficos en los que se superponen las esferas correspondientes a coordenadas locales y absolutas. Estudiemos un ejemplo donde un observador de cara al Norte, tiene a su derecha el punto Este y a su izquierda el Oeste (ver figura 8.9). Z
E
P′s
E’ ϕ K h′ H
Ps S
h
A
N
Ps H′
O P’N
E′
PN
E Z′
Figura 8.9 206
En el ejemplo anterior podemos distinguir: Z Z′ = vertical del lugar H H′ = horizonte geocéntrico paralelo al del lugar. E E = Ecuador celeste. E′ E′ = Ecuador geográfico. PSPN= Eje del mundo o eje de rotación de la tierra P’S= Polo Sur alzado P’N= Polo Norte depreso N-S meridiana y traza del Horizonte racional local. Plano meridiano local (el plano del círculo mayor contenido en la hoja del libro). Un observador situado en A ve el Polo alzado según la recta APS (con trazos) y el ángulo S A PS es el que mide la altura del Polo. Si el radio de la circunferencia exterior fuese mayor, el ángulo S A PS aumentaría, pero como el radio de la esfera celeste es infinito, la visual A Ps es paralela al eje del mundo. Esta consideración anterior, permite la demostración del teorema fundamental, que dice: La latitud es igual a la altura del Polo (ϕ = h) El arco E′A, del Ecuador al lugar, indica la latitud del lugar medido por el ángulo central ϕ. ' La altura del Polo h está dada por el ángulo S A PS . Los ángulos h y h′ son iguales por tener sus lados paralelos y dirigidos en el mismo sentido, y observando la figura resulta: h′ + K = 1 Recto ϕ + K = 1 Recto
→
h′ + K = ϕ + K
y sustituyendo h′ por su igual h y simplificando K, resulta que h = ϕ
207
El observador A de la figura anterior puede ver el Polo Sur celeste, al Ecuador celeste, pero en cambio no puede ver al Ecuador geográfico, al Polo Sur geográfico, ni al Polo Norte celeste y geográfico, ya que estos últimos puntos mencionados y el Ecuador geográfico se encuentran debajo de su horizonte. Leyes del movimiento diurno Al estudiar los sistemas de coordenadas celestes, que tienen por objeto fijar la posición de un astro en el cielo, es posible razonar que el sistema local de coordenadas horizontales - azimut y altura - permite mediante el empleo de un teodolito y un cronómetro, fijar de hora en hora la ubicación de varias estrellas desde el momento en que aparecen por el oriente hasta que se ocultan en el occidente. Llevadas estas sucesivas posiciones a nuestra esfera celeste, se observa: 1°) que todas las estrellas describen una circunferencia cuyo centro es un punto del Eje del Mundo. 2°) que el movimiento es uniforme y constante en el tiempo. 3°) que su sentido es retrógado de Este Oeste. Por qué se dice que el sentido es retrógrado? Porque el movimiento de la esfera celeste no es nada más que una ilusión. Parece que se mueve de Este a Oeste porque en realidad es la Tierra la que gira de Oeste a Este. Es un fenómeno análogo al del pasajero de un tren que sentado al lado de la ventanilla, le parece que los postes que limitan la zona de la vía, se trasladan en sentido contrario al de la marcha. En ese caso, el sentido directo es que sigue el tren y el retrógrado el aparente en que se mueven los postes. De esta comparación resulta que el sentido del movimiento directo es el de la Tierra de Oeste a Este y retrógrado el aparente de los astros de Este a Oeste. En la esfera que suponemos para Buenos Aires, también es posible observar respecto de las circunferencias que describen las estrellas, que los círculos limitados por esas circunferencias son planos que forman con el plano del horizonte un ángulo aproximado de 56°. Este valor no es común para cualquier lugar de la Tierra. En cualquier otro punto geográfico, excepto los que se encuentran en el mismo paralelo al plano mencionado, ese ángulo será distinto.
208
El caso general, basado en el teorema fundamental que antes enunciáramos, es que ese ángulo es complementario de la latitud del lugar. En consecuencia en una ciudad como Buenos Aires, cuya latitud es 34° Sur, forma el plano un ángulo de 56° (90° - 34° = 56°). En el Ecuador, donde la latitud es 0°, los planos son perpendiculares al horizonte (90° - 0° = 90°) y en cualquiera de los Polos, de latitud 90°, los planos son paralelos al horizonte (90° - 90° = 0°). En un punto de latitud 60°, por citar otro ejemplo, el plano de los círculos limitados por las circunferencias que describen las estrellas, forma con el horizonte un ángulo de 30°. Hemos descripto algo conceptualmente importante, que la esfera celeste para Buenos Aires es la misma que para otro lugar de la Tierra que tenga la misma latitud. Por lo tanto, aunque con diferencia horaria, cualquier observador que esté en una determinada latitud, verá moverse al Sol de igual forma un día específico del año. Adoptando para Buenos Aires, su latitud de 34° Sur, se obtiene la siguiente esfera celeste graficada en la figura 8.10, donde el Polo alzado es el Sur, es decir el Polo que “se ve” en el cielo desde Buenos Aires y que aproximadamente se encuentra prolongando 3 veces y medio a partir del pie, el brazo mayor de la constelación llamada Cruz del Sur. Z E
PS
ϕ=34° S
N
PN E’ Z′
Figura 8.10 209
Un observador situado en Buenos Aires, representado ahora por un punto (centro de la esfera celeste), contempla astros que salen por la zona del Este y se van levantando hasta llegar a su máxima altura, culminan en el plano meridiano local determinado por la intersección de la vertical del lugar y el Eje del Mundo, para ir paulatinamente disminuyendo su altura hasta ocultarse en al zona del Oeste. Ese mismo observador contempla astros que no tienen salida y puesta, es decir que describen una circunferencia que no intercepta al horizonte. Esos astros son las llamadas estrellas circumpolares, uno de cuyos ejemplos son las cuatro estrellas de la Cruz del Sur, que siempre pueden observarse sobre nuestro horizonte. Si el observador se pone de cara al Norte, también verá estrellas que tienen salida y puesta, pero también puede afirmar que hay estrellas que no ve, pues las órbitas que describen no alcanzan a cortar su horizonte. Si ese mismo observador comienza a viajar hacia el Norte, irá viendo que las estrellas de la Cruz tienen menor altura sobre el horizonte, hasta que dejan de ser circumpolares y en su viaje comenzará a ver estrellas que en Buenos Aires no podía ver. Pasando el Ecuador puede contemplar a la estrella Polar, y siguiendo siempre al Norte hasta llegar al Polo del mismo nombre la verá brillar casi sobre su cabeza. Por el contrario viajando rumbo al Sur, a partir de Buenos Aires, verá cada vez más altas las estrellas de la Cruz y en el Polo Sur las verá describir un círculo sobre su cabeza. Creemos pertinente hacer aquí una importante aclaración: •
El meridiano local contiene siempre a los puntos notables: Sur cardinal, Polo alzado, Cenit, Cardinal Norte, Polo depreso y Nadir. Luego el plano meridiano puede determinarse, teniendo presente que tres puntos no alineados determinan un plano, en este caso: el observador, su cenit y el Polo alzado.
Veamos ahora un ejemplo que constituye un caso de lugares simétricos, desde el punto de vista cosmográfico, situados en la superficie terrestre. Un lugar de la Tierra de latitud 34° Norte, por ejemplo la isla de Creta, en el Mar Mediterráneo, tendría una esfera representativa muy similar a la de Buenos Aires (bastaría con intercambiar PN con PS en la figura 8.10). Analicemos estas dos posiciones de la Tierra. En Buenos Aires, se observa que las órbitas de los astros se inclinan hacia el Norte (en Creta lo harían hacia el Sur).
210
También se observa que el arco que describen algunas estrellas es mayor el que está sobre el horizonte, que el que está debajo; arco diurno cuando esté arriba aunque sea de noche y nocturno debajo. En otras ocurre lo contrario, las que describen el Ecuador el arco diurno y nocturno son iguales. También se observa, por medio del cronómetro y teodolito que las velocidades angulares son iguales (15° por hora que resultan de los 360º diarios que recorre un astro en la esfera celeste, dividido por las 24 horas del día), pero en cambio las velocidades lineales disminuyen a medida que el astro se aproxima al Polo, hasta quedar inmóvil cuando el astro coincide con él. Es el caso de la estrella Polar (dista del Polo Norte más o menos 1°), ésta permanece inmóvil en el cielo Boreal, hecho que permitió a los primitivos navegantes fijar el rumbo Norte con suficiente aproximación. Todas las estrellas aparentemente giran alrededor del Eje del Mundo (en realidad la que gira es la Tierra), describiendo círculos paralelos al Ecuador que siempre distan del mismo la misma distancia angular. Esto no es del todo exacto, pero en adelante se admitirá que la distancia angular del Ecuador al paralelo que describe cada estrella es invariable. En cambio el Sol, la estrella más próxima a la Tierra, continuamente varía su distancia angular del Ecuador al paralelo que aproximadamente describe cada día. Prácticamente el Sol, el 21 de marzo describe el Ecuador, aumentando en los sucesivos días su distancia angular hasta el 21 de junio, en que describe el trópico de Cáncer, que dista 23° 27′ al Norte del Ecuador. El 21 de junio comienza a describir paralelos que distan en grados, menor distancia de la máxima 23° 27′ a que puede llegar. Pareciera que el Sol camina hacia atrás como los cangrejos, de ahí el nombre de Cáncer que se le da al trópico de máxima declinación Norte. Luego, el “astro rey” sigue disminuyendo su declinación (la distancia angular del Ecuador al astro) hasta el 21 de septiembre en que vuelve a describir el Ecuador (declinación 0° del Sol). En los días sucesivos irá aumentando su declinación pero hacia el Sur, hasta el 21 de Diciembre en que recorre el trópico de Capricornio, y desde ese día va disminuyendo su declinación Sur, hasta que el 21 de marzo vuelve a recorrer el Ecuador. Para un observador del hemisferio norte, a partir del 21 de diciembre, el Sol va subiendo, va trepando como las cabras, de ahí el nombre de trópico de Capricornio. En cambio para un observador del hemisferio sur ocurre todo lo contrario, desciende en Capricornio y sube en Cáncer.
211
En la esfera que sigue, que vuelve a representar el caso de Buenos Aires se puede observar el recorrido del sol el 21 de junio. En ese momento alcanza su máxima declinación de 23° 27′ Norte (figura 8.11). Z E
PS
M 23°27’
ϕ=34° E N
S W
PN E’ M’ Z′
Figura 8.11 En esta esfera para Buenos Aires, se observa que el arco EMW es el arco diurno del sol. Sale por el punto E (un punto de la zona del Este, a la derecha del observador con la cara al Norte) va subiendo hasta llegar a M (mediodía, M es un punto del meridiano, de ahí el nombre de meridiano - del latín meridies - mediodía) va descendiendo hasta llegar al punto W - un punto de la zona del oeste - y sigue descendiendo debajo del horizonte.
212
Pero se sigue viendo el resplandor del Sol, hasta que llega a un horizonte llamado crepuscular, situado a 6° debajo del primer horizonte, cuando ya en el cielo brillan las estrellas de primera magnitud. Sigue descendiendo el Sol hasta que llega a M′, (medianoche, un punto del antimeridiano) y empieza a subir hasta llegar nuevamente a 6° por debajo del horizonte, en que comienza la aurora. Cuando el Sol llega a E, es el momento de la salida; del comienzo del nuevo día solar. A simple vista se ve que el 21 de junio, en Buenos Aires, la duración del día es mucho menor que de la noche. Comparemos ahora el mismo día en Creta, que tiene aproximadamente al Norte la misma latitud que Buenos Aires; resulta que mientras en la capital argentina la duración del día es corta y la de la noche larga, en la isla mediterránea ocurre lo contrario, el día es largo y la noche corta. El día en Creta está representado por el arco en línea fina que por debajo del segmento EW, complementa el giro total diurno del Sol el 21 de junio. Como ejercicio se sugiere a los lectores dibujar el arco diurno crepuscular y nocturno en la esfera para Buenos Aires, el 21 de diciembre y lo mismo y en el mismo día, en la esfera de Creta. Observarán que el día es largo en Buenos Aires y es corto en Creta, resultando por el contrario la noche corta en el primer caso y larga en el segundo. También recomendamos analizar y graficar los casos correspondientes al 21 de marzo y al 21 de septiembre en los que el Sol recorre el Ecuador celeste. ¿Cómo es la duración del día y la noche en estas fechas? Pensamos que la respuesta es suficientemente sencilla para explicarla y la dejamos para que la conteste el lector. Interesantes conceptos que se deducen de la observación de las esferas En Buenos Aires, para ver el Sol hay que ponerse de cara al Norte. En Europa hay que ponerse de cara al Sur. Por ello es recomendable para el estudiante de arquitectura analizar la ubicación de los vanos, en buenos proyectos de obras ubicadas en uno y otro hemisferio. A mediodía el Sol corta el meridiano local, luego un observador europeo, ve al astro al mediodía, justamente en la dirección Sur cardinal, de ahí que en Europa, al Sur cardinal se lo llame mediodía. El demi-jour francés. En cambio, un observador en Buenos Aires a mediodía ve el Sol justamente en la dirección cardinal Norte. Por lo tanto, resulta que el Sol ilumina y calienta más en la latitud Sur, a los frentes que miran al Norte y
213
por el contrario en los de latitud Norte, a los que miran al Sur, siendo por tanto, la mejor orientación en nuestro hemisferio austral, la de los frentes que miran al Norte y en el Norte la de los que miran al Sur. El 21 de Junio el Sol recorre el Trópico de Cáncer, al otro día recorre un paralelo que se encuentra un poco más al Sur y así sucesivamente, de manera que el Sol en cada momento va cambiando su declinación, que no hay por que apreciar hora por hora, pero el hecho es que el Sol no cierra el paralelo que describe. Al cabo de un año ha descripto una hélice cuya primer espira comienza en el Trópico de Cáncer, para llegar al cabo de seis meses al de Capricornio. Recorriendo después las mismas espiras llega al cabo de otros seis meses al punto de partida. Las estaciones Cuanto más perpendiculares son los rayos solares, generan más calor sobre la superficie terrestre, cuando más oblicuos en cambio, producen menos calor. Cuando la radiación solar alcanza la atmósfera terrestre, una parte considerable de la energía es reflejada nuevamente hacia el espacio antes de alcanzar la superficie terrestre. Un tercio, aproximadamente llega hasta ella y es rápidamente transformada en otros tipos de energía. Las radiaciones luminosas son tamizadas cuando pasan a través de la atmósfera terrestre, por las moléculas gaseosas y el polvo en suspensión en el aire. Pero desde el punto de vista de la iluminación natural, la fuente de luz diurna considerada es la bóveda celeste. Por el contrario, cuando se considera el caso de la iluminación funcional, la luz solar muy raras veces se usa para iluminar directamente los lugares de trabajo. Su intensidad es demasiado alta y produce contrastes indeseables y consecuentemente un deslumbramiento tal que perturba la visión. Por eso se la descarta como fuente de luz natural. A ello debe agregarse como inconveniente, la paralela potencia calorífica que llevan inmersa los rayos del Sol y que los hacen inadecuados bajo ciertas condiciones climáticas tórridas. Comparada con el sol (fuente puntual), la bóveda celeste (fuente superficial), tiene una gran área visible y relativamente poca luminancia. La trayectoria solar propia de cada latitud y las características locales de nubosidad y fenómenos meteorológicos, hacen que la bóveda celeste parezca más o menos luminosa a lo largo del día y durante el transcurso del año.
214
En Buenos Aires, el 21 de diciembre a mediodía, los rayos del Sol forman con la meridiana, aproximadamente un ángulo de 79°27’ y el 21 de junio de 32°33’. En Buenos Aires, el Sol no pasa nunca por el Cenit. Por lo tanto, si no fuera por las corrientes atmosféricas, el día más caluroso del año en Buenos Aires, sería el 21 de diciembre y el más frío el 21 de junio. Los casos paradigmáticos que podemos considerar para estas posiciones extremas del Sol, respecto de ciertos puntos de la superficie del globo terráqueo, pueden asimilarse a las llamadas tres esferas. Ellas son: 1. La esfera oblicua, que es la que corresponde a una latitud comprendida entre 0° y 90°. Todas las esferas dibujadas hasta ahora son oblicuas. En ellas se observa: • • •
que una estrella es circumpolar, si su distancia angular al Polo alzado, es inferior en valor absoluto al de la latitud del lugar. una estrella tiene salida y puesta, si su distancia angular al Polo alzado está comprendida entre el valor absoluto de la latitud y su suplemento. una estrella es invisible, es decir permanece debajo del horizonte del lugar si su distancia angular al Polo alzado es superior al suplemento del valor absoluto de la latitud.
2. La esfera recta, que es la que corresponde a un punto ubicado en el Ecuador, es decir un lugar de la Tierra de latitud 0° (ver figura 8.12). Z
E PN ≡ N
S ≡ PS W
Z′ 215
Figura 8.12
En esta esfera, el eje del mundo se confunde con la meridiana, y por lo tanto el Polo Sur celeste con el Sur cardinal y el Polo Norte celeste con el Norte cardinal. La altura del Polo debe ser igual a la latitud del lugar; como la latitud es 0°, el Eje del Mundo y la meridiana deben confundirse. El Ecuador es el plano que pasando por el centro de la Tierra, es perpendicular al Eje del Mundo; luego en este caso, el Ecuador celeste contiene a la vertical del lugar, al Cenit y al Nadir. Como el Ecuador contiene a la vertical que es perpendicular al horizonte, el plano del Ecuador es perpendicular al horizonte y por consiguiente son también perpendiculares todos los planos paralelos. Observando la figura, todas las estrellas tienen salida y puesta, excepto y esto desde un punto de vista teórico, las que coinciden justamente con los dos polos celestes. Suponiendo que le estrella Polar, coincidiera exactamente con el Polo Norte celeste, en cualquier punto del Ecuador (no considerando la refracción) la mencionada estrella brillaría sobre el mismo plano del horizonte, Desde el Ecuador se puede contemplar toda la esfera estrellada. 3. La esfera paralela, que es la que corresponde a los Polos geográficos de latitud 90°. En el ejemplo que sigue se tomará la correspondiente al Polo Sur (ver figura 8.13). Z ≡ Ps
Z ≡ PN
Figura 8.13
En esta esfera la vertical se confunde con el Eje del Mundo y por consiguiente el Polo Sur celeste, con el Cenit. En todas las esferas dibujadas hasta ahora el meridiano local es el plano del papel impreso, intersección del Eje del Mundo y la vertical del lugar, pero en el caso de la esfera paralela, los dos ejes se confunden en una recta perpendicular al plano del horizonte. Por una recta perpendicular a un plano pasan infinitos planos perpendiculares al primero. Luego en el Polo, por los dos ejes confundidos en una recta perpendicular al plano del horizonte pasan infinitos meridianos. La meridiana es la recta de intersección del plano del meridiano local con el plano del horizonte que determina la dirección Norte a Sur. En el Polo, hay infinitos meridianos, luego hay infinitas meridianas y por lo tanto no existen los rumbos cardinales. Cuando en Londres, son las 12 del día, en Buenos Aires son las 8 de la mañana en New York las 7, en San Francisco las 4 de la mañana, en Moscú las 3 de la tarde, etc., (todos los horarios son convencionales para un país y por lo tanto sujetos a cambios periódicos). Pero como en el Polo coinciden todos los meridianos, coinciden también todas las horas. En el Polo no habría horarios y nada más que a efectos de ordenar las actividades sería necesario un reloj que marque en su cuadrante las 24 horas, del tipo de los que se usan en las embarcaciones de alta mar. Observando la figura de la esfera que estamos considerando, resulta que el plano del horizonte se confunde con el del Ecuador, todas las estrellas describen círculos paralelos al plano del Ecuador, ninguna tiene salida y puesta, son todas circumpolares. Posición de un astro en coordenadas celestes Se ubica la posición de un astro mediante dos coordenadas angulares. Pero para obtener estas dos coordenadas, es preciso referirse a un plano, un eje, un polo, un origen y un sentido. El plano debe ser uno de los fundamentales descriptos, el eje es siempre la recta perpendicular al plano considerado, el punto es el Polo de referencia (intersección del Eje con la esfera celeste), el origen uno de los puntos notables del plano y el sentido puede ser el directo, o el retrógrado.
217
Veamos, como puede determinarse el sentido (ver figura 8.14). Z
W S
N E
Z′
Figura 8.14 Para dirigirse del Sur al Norte, pueden elegirse dos caminos: pasando primero por el Oeste o pasando primero por el Este. Observando la figura resulta que estos dos sentidos son contrarios. ¿Cuál es el directo?.Para determinar el sentido directo, téngase presente la marcha de las agujas del reloj con la esfera hacia el observador. Imaginemos un reloj, no con un cuadrante en que se marque doce horas, sino en el que indique 24 horas y que además en vez de dos agujas, tenga nada más que la aguja horaria (ver figura 8.15). 12
6
18
24
Figura 8.15
En cualquier lugar del mundo al Norte del trópico de Cáncer, durante todo el año se ve el globo solar mirando al Sur. Luego, un observador ubicado al Norte de Cáncer, cuando la aguja del reloj marca las seis de la mañana, le está indicando la posición del Sol, cuando se levanta por el Este, transponiendo el horizonte. A las doce horas, marca la posición del Sol al cruzar el meridiano, a las 18 horas (seis de la tarde), muestra al Sol cuando se pone por el Oeste y a las 24 horas, la posición del Sol en el antimeridiano a la media noche. Es decir que en el Norte, el sentido de las agujas del reloj, indica la marcha aparente del sol de Este a Oeste en la bóveda celeste, porque el Sol y toda la esfera estrellada parecen girar de Este a Oeste. Esta es una ilusión que se produce para el observador terrestre, porque en realidad, es la Tierra la que realmente gira de Oeste a Este. Al Sur del Trópico de Capricornio, se ve durante todo el año, al globo solar mirando al Norte. Entonces al observador en el hemisferio austral, cuando son las seis de la mañana, la aguja horaria (del reloj de 24 horas), le está indicando un punto del Oeste, a las doce del día al Sol cruzando el meridiano, a las seis de la tarde un punto del Este y a las doce de la noche el Sol en el antemeridiano. Resumiendo: En el hemisferio norte, en cualquier lugar, si nos paramos mirando al punto cardinal Sur, veremos que el Sol sale por el Este, pasa por el Sur y se pone por el Oeste, siguiendo un recorrido aparente directo, es decir según las agujas del reloj. En el hemisferio Sur, si nos paramos mirando al punto cardinal Norte, veremos al Sol ir de Este a Oeste, pasando por el Norte, con un recorrido aparente retrógrado, es decir contrario a las agujas del reloj. Ubicación aproximada de un astro por sus coordenadas horizontales en una esfera de latitud Sur. Vamos a describir algunos ejemplos prácticos, para familiarizar al lector con la graficación que pone en ejecución las ideas básicas antes desarrolladas.
219
Veamos un primer ejemplo (figura 8.16): Z
a =S 140º W (directo) A
h = 40o
N
o también
S
a = N 40o W (retrógrado) B
W
h = 40o
Z′
Figura 8.16 Otro ejemplo (figura 8.17): Z A
a = S 200º W (directo) E
h = 30o
N
S W
o también a = N 20o E (directo) h = 30o
Z′
Figura 8.17 220
Los puntos cardinales, a partir del Sur, tienen las siguientes coordenadas: Sur Oeste Norte Este
a = 0° a = 90° a = 180° a = 270°
h = h = h= h=
0° 0° 0° 0°
h= h= h= h=
0° 0° 0° 0°
o también a partir del Norte Sur Oeste Norte Este
a = 180° a = N 90° W a= 0° a = N 90° E
Un astro situado en el Zenit tiene altura 90°, y su azimut, es cualquiera. Veamos otro ejemplo para una esfera Norte (figura 8.18). Z
a = 130o E
h = 35o A
N
o también S
a = S 50o W h = 35o
W
Z′
Figura 8.18
221
Ubicación gráfica de un astro por sus coordenadas horizontales, proyectado en el plano meridiano (ver figura 8.19). A′ Z B
C A
O′
h = 50o h= 50o N
S
a = N 30o E
O
Z′
Figura 8.19 Por el punto B pasa una almicantarada o plano de igual altura paralelo al horizonte, cuya traza es BC. Rebatida la almicantarada con radio O′ B, y a partir del punto B cuya proyección esférica es el Norte se miden 30°, y se obtiene A’. Proyectando A′ sobre BC, se tiene la ubicación del astro A. Ahora bien, sin los datos numéricos, la ubicación del astro queda indeterminada. La altura del astro puede determinarse midiendo el ángulo NOB y su azimut midiendo el BO′A′, pero no es posible establecer si está adelante de la hoja de papel (Oeste) o detrás (Este). La indeterminación se levanta con el dato N 30° E. Entonces está al Este del meridiano, o también a = 210°, h = 50°, en este caso por ser a > 180° al Este, si hubiera sido menor al Oeste, y si a = 180°, en el mismo meridiano.
222
Ubicación aproximada de un astro por sus coordenadas horarias en una esfera de ϕ = 34° Sur. En los ejemplos que siguen, es necesario indicar la latitud de la esfera, pues dada esta, queda ubicado el Ecuador, que es el plano fundamental (figura 8.20). ϕ = 34º Sur
Z
t = 2 horas M 0 hs
δ = 20º Sur A
PS B
δ
18 hs
N
S 6 hs
PN
12 hs Z’
Figura 8.20 El sentido es retrógrado, y por tratarse de una esfera Sur, el sentido está dado por el movimiento contrario al de las agujas del reloj, colocado en el plano del Ecuador mirando al Polo Sur. Al expresar que t = 2 horas queda también dicho que hace dos horas que el astro pasó por el meridiano superior del lugar.
223
Cuando el astro cruza el horizonte por el Oeste t = 6 horas, cuando cruza el antemeridiano t = 12 horas, cuando sale por el Este t = 18 horas y cuando vuelva a cortar el meridiano superior t = 24 horas ≡ 0° horas. Se advierte que esto exactamente ocurre, cuando el astro describe el Ecuador. Al dar la hora en la forma habitual, se está expresando el ángulo horario del sol. Así pues, “son las tres de la tarde”, quiere decir que hace tres horas que el Sol cruzó el meridiano superior del lugar. “Las doce de la noche”, hace doce horas que cruzó el meridiano superior y en esa hora está cruzando el inferior. “Las once de la mañana”, hace veintitrés horas que cruzó el meridiano superior y falta una hora para ser mediodía. Estos ejemplos no son del todo exactos, ya que como se ha dicho, hay diferencias entre la hora sidérea y la del reloj. A ello se le agrega que cada país establece una hora oficial para su territorio (a veces más de una si se extiende por varios husos horarios, como en el caso de EEUU), que coincide con la hora solar, probablemente en unas pocas ciudades dentro de sus fronteras. Cuando el ángulo horario se encuentra entre 0 y 12 horas el astro está al Oeste del meridiano y cuando t es mayor que 12 y menor que 24 horas al Este y siendo t = 0, en el meridiano superior y t = 12 en el inferior. Ubicación gráfica de un astro por sus coordenadas horarias, proyectado en el plano meridiano (ver figura 8.21). Z
W PS B A
δδδ
N
S
O t=3h A′
O’
PN
C C Z′
Figura 8.21
E
Todos los astros, exceptuando al Sol y la Luna recorren todos los días un mismo paralelo (en realidad a lo largo de los años hay pequeñas diferencias, que no se tienen en cuenta), vale decir que cada astro recorre un paralelo que se encuentra a tantos grados al Norte o al Sur del Ecuador, En el ejemplo, se traza entonces una paralela a 20° al Norte del Ecuador, que es la intersección del paralelo considerado con el meridiano, Rebatiendo con centro O′ y radio O′B, el paralelo y a partir de B, cuya proyección esférica sobre el Ecuador es el Mediocielo; se mide 45° que equivale a 3 horas, obteniéndose el punto A′, como extremo del arco. Proyectando A′ sobre la traza del paralelo se obtiene el punto A, que indica la posición del astro proyectado sobre el plano meridiano. Aquí, como en la representación en coordenadas horizontales, sin los datos numéricos la ubicación del astro queda indeterminada, Si el ángulo horario del astro es de 3 horas se fija en A, pero si es de 21 horas, también se fija en A, luego si no se da el dato numérico, no es posible establecer si está adelante de la hoja del papel (Oeste) o detrás (Este). La indeterminación se levanta con el dato t = 3 horas. Se sabe entonces que está al Oeste del meridiano, pues como ya se ha dicho si t se encuentra entre 0 y 12 horas está al Oeste y si toma valores entre 12 y 24 horas está al Este. Arco diurno, crepuscular y nocturno para cualquier día del año en cualquier latitud Ya hablamos de que hay un momento del día en que no puede decirse si es de noche, o si es de día. A ese período de semi-luz que se observa entre el día claro y la noche cerrada, se le llama aurora, o crepúsculo matutino antes de levantarse el Sol y crepúsculo después de trasponer el horizonte. En Buenos Aires, la duración del crepúsculo es de unos 28 minutos. Creemos que con lo expuesto en los parágrafos anteriores, el lector puede estimar gráficamente la duración del día, del crepúsculo y de la noche en cualquier latitud y en cualquier día del año. Veamos un ejemplo: Para Buenos Aires el 28 de julio. ϕ = 34° S. δ o = 19° N.
225
En la esfera de 34° Sur se traza el paralelo que el sol recorre ese día, y además a 6° debajo del horizonte, el crepuscular. El sol corta al horizonte en A, y el crepuscular en B. Rebatiendo el paralelo del sol y proyectando los puntos A y B, se obtienen los puntos A′ y B′ (ver figura 8.22). Z E
PS
S*
A
N
S
B
Crepuscular 6o debajo A′ B′
PN
E Z′ Z Z′
Figura 8.22 El arco S*A′ medido en grados y convertido en tiempo nos da la duración desde el momento que sale hasta el mediodía. El arco S*B′ dede el momento en que dejan de verse las estrellas de primera magnitud hasta mediodía y el arco A′B′ la duración de la aurora. Duplicando esos tiempos se tiene respectivamente la duración del día, de los dos crepúsculos y por diferencia a 24 hs. la de la noche. S*A′ = 76° = 5 h. 4m. S*B′ = 83° = 5 h. 32 m. A′B′ = 7° = 28 m.
226
Duración total del día: 10 hs. 8 m. Duración de los crepúsculos: 56 m. Duración de la noche cerrada: 12 hs. 56 m. Para calcular la hora de la salida y puesta del sol a 12 hs. se le resta 5 hs. 4 m. que es el tiempo que tarda el sol en recorrer el arco A′S* (el punto S* en el meridiano es mediodía), resultando 12 hs. - 5 hs. 4 m. = 6 hs. 56 m. A este resultado se le debe sumar una hora legal argentina actualmente en vigencia, la del meridiano 45° al Oeste de Greenwich, resultando entonces que el sol sale a las 7 hs. 56 m. y se pone a las 18 hs. 4 m. Si se consulta un almanaque astrónomico, calculado para Buenos Aires, se encontrarán en algunos casos diferencias de cerca de 20 minutos en más o menos. Esta diferencia, se debe a lo siguiente: que el sol que se considera en este ejemplo y en los que siguen, es el verdadero y la hora que indica nuestros relojes, es la del sol medio. Para obtener la hora media habrá que agregar o quitar a la verdadera la ecuación del tiempo y para obtener la hora legal la diferencia de longitud del lugar con el meridiano que da la hora, que en nuestro país es el 45° al W de Greenwich. Cálculo gráfico del azimut y altura del sol en determinada hora de cualquier día del año y en cualquier latitud Por ejemplo: calcular gráficamente la altura y azimut del Sol en Buenos Aires el 28 de abril a las 10 de la mañana (hora Argentina) que prácticamente son 9 horas solares verdaderas (ver figura 8.23). Se dibuja la esfera para la latitud de Buenos Aires. Se busca la declinación del Sol para el 28 de abril, δo = 14° Norte, consultando el almanaque o interpolando en la tabla que se da al final de este capítulo, y sin considerar los minutos (si pasa de 30′ se toma por exceso y si no por defecto). Se rebate el paralelo del Sol. El Sol se encuentra en δo a mediodía verdadero y a las 9 de la mañana (verdadera) en A, midiendo el arco AS* 45° (3 x 15° = 45°). Es decir que el Sol debe recorrer en su paralelo un arco de 45° para culminar en el meridiano. La misma ubicación A corresponde a las 3 de la tarde verdadera. Proyectando A sobre la traza del paralelo δo T, se obtiene el punto A′. Por A′ se traza una paralela a la meridiana N S, y se obtiene la intersección de la almicantarada C D que pasa por A′ con el plano meridiano.
227
Uniendo O con D o con C se obtiene el ángulo que da la altura del Sol en Buenos Aires el 28 de abril a las 9 horas verdaderas de la mañana, que resulta h = 25°. Es preferible unir O con C, cuya proyección es el Norte a Sur.
Z
A′′
Sol=S*
PS
E
C
h=25o
O
N A
D
O′′
A’
S
O′
E PN
T
Figura 8.23 Con radio O′′ D se rebate la almicantarada y sobre esta rebatida se obtiene el punto A′′. Uniendo O′′ con A′′ se obtiene el ángulo del azimut del Sol, que resulta a = N 51° E, que se lee Norte 51° al Este, vale decir que del Norte se han de contar 51° al Este. A las 3 horas verdaderas de la tarde del mismo día 28 de abril el sol tiene un azimut a = N 51° W , que se lee Norte 51° Oeste. Obviamente en horas de la mañana el sol se encuentra al Este del meridiano y por la tarde al Oeste. Cualquier punto de la almicantarda C D, forma con el centro O, el mismo ángulo. Resulta pues evidente que los puntos que deben elegirse son C o D, intersecciones de la almicantarada con el meridiano.
228
En el gráfico, son: A. Astro en la almicantarada. A′. Proyección del astro en el plano meridiano. El astro A, se encuentra a la izquierda del observador mirando al Norte, es decir en la zona del Oeste. La posición simétrica A′′ con respecto al punto A′,indica el astro al Este, derecha del observador mirando al Norte. Los tiempos se suponen siempre verdaderos, su conversión a tiempo medio no interesa al arquitecto20. Veamos otro ejemplo: Calcular la altura y azimut del sol en Buenos Aires, el 28 de diciembre a las 7 de la tarde, coincidente con la hora 6 pm verdadera (ver figura 8.24). Z Latitud = 34o Sur
E α
28 Diciembre δo = 23o Sur
PS 6h Sol
h
N
S
PN E Z′
Figura 8.24
20
Nota: cuando se da la hora argentina, téngase presente que está adelantada 1 hora, de tal manera, que cuando se dice 10 de la mañana, corresponde a las 9 horas = 45°; 3 de la tarde, corresponde a las 2 de la tarde = 30°, etc.
229
Para los datos consignados, resultan: h = 15° a = N 113° W, azimut de valor numérico grande, que se explica por la fuerte declinación Sur que tiene el Sol en esa época del año. Si el lector el 28 de Diciembre a las 7 horas de la tarde se para frente al edificio de la Facultad, en el frente que mira opuesto al Río de la Plata, observará que el Sol ilumina oblicuamente su fachada. Y si mirando al Norte, con el brazo extendido marca el azimut de 113° al Oeste y luego lo levanta 15°, tendrá la dirección de los rayos del Sol que proyecta su luz sobre esa fachada. Longitud y dirección de la sombra de una varilla iluminada por el Sol Calcular la longitud y dirección de la sombra que proyecta una varilla de 2 m de altura, vertical e iluminada por el Sol en Buenos Aires, el 7 de Agosto a las 9 horas verdaderas de la mañana. Por el consabido método gráfico se determina la altura y azimut del Sol (ver figura 8.25).
Z E
ϕ = 34° Sur 7 de Agosto → → δo = 16° Norte
PS α
v
N
h = 20° a = N 50° E
h
S
PN
Z′
Figura 8.25 230
Cálculo de la longitud de la sombra (ver figura 8.26).
varilla = sombra x tg 20o sombra = varilla/tg 20o = varilla x cotg 20o 2 metros x 2,72 = 5,44 metros
varilla 20o sombra
Figura 8.26 N
50o
W
E
50o
S
Figura 8.27 La flecha indica la dirección de la sombra (figura 8.27). La sombra que proyecta una varilla etc., sigue exactamente la dirección Norte Sur a mediodía verdadero, instante en que el Sol verdadero cruza el meridiano.
231
Si una persona se detiene en una esquina en la que se halla una pared que mira respectivamente al Sur y al Oeste, podrá observar al Sol mirando exactamente al Norte cuando cruza la pared que en esa esquina se levanta, dicha pared sigue sensiblemente la dirección Norte Sur. Todos los conceptos y gráficos desarrollados previamente en este capítulo, permiten con una razonable aproximación, determinar la posición del Sol en cualquier época del año y para cualquier punto de la superficie terrestre. Consecuentemente establecerán los parámetros a tener en cuenta por un diseñador para la ubicación de las vistas, los vanos y sus dispositivos de cerramiento o de oscurecimiento, etc. relativos a cada proyecto. Sin embargo, a pesar de ser procedimientos gráficos y de cálculo sencillo, hoy se dispone de ábacos o gráficos standard, que permiten con mayor facilidad determinar la posición del Sol para un determinado lugar o latitud geográfica terrestre. La limitación de estos ábacos es que sirven para una posición determinada y no son generales, por lo que sería necesario uno para cada lugar de implantación de un proyecto. La aparición de softwares que resuelven los casos generales ha dado una solución a ese problema. Pero si no se dispone de esas herramientas informáticas, o se conocen escasamente su uso y posibilidades, no será posible reemplazar con ellas los mecanismos simples que antes hemos enunciado. Además, aun en el caso de que se usen recursos computarizados, el acabado conocimiento de las variables a tener en cuenta para incorporar los datos a un ordenador, es requisito fundamental para lograr resultados eficientes. Es por ello que creemos sustancial el conocimiento conceptual de los conocimientos básicos que sobre esta temática de la iluminación natural, se han volcado a estas páginas. Igualmente mostramos en los párrafos siguientes el uso de un ábaco que se identifica como 8.28, que corresponde a una latitud de 34º sur (como es el caso de Buenos Aires), y que de una forma muy accesible, posibilita establecer altura y azimut del sol, en cualquier hora y época del año, para esa posición terrestre. Los arcos de distinta curvatura de posición aproximadamente horizontal, contienen como dato las fechas, mientras los otros arcos en posición cuasi vertical, son los que indican la hora a considerar. Elegimos como ejemplo el 21 de febrero a las 11,00 hs. Donde se cortan las líneas correspondientes a ambos datos, queda definido un punto que también pertenece con aproximación al círculo de la serie de concéntricos del gráfico, que son los que indican la altura del sol en esa fecha y hora.
232
En nuestro caso el círculo correspondiente nos da como información h = 60º. Luego trazamos un segmento que una el centro del gráfico total, con el punto hallado para la hora y día buscados y lo prolongamos hasta que corte al borde exterior del gráfico. Allí encontraremos un valor 30º que está situado entre las orientaciones NNE y NE. Este dato es el azimut, que resulta entonces a = N 30º E, es decir que los rayos solares en el día y hora buscados, inciden según su proyección en el plano horizontal, en un ángulo de 30º hacía el este, tomando como punto cardinal de referencia el Norte.
Latitud 34º Abaco 8.28
N 233
En la siguiente figura 8.29, mostramos en primer lugar, un esquema de incidencia de rayos solares en una superficie como la terrestre, para representar luego, en otro gráfico, un caso particular del ejemplo que estamos desarrollando.
Figura 8.29 A partir de toda esta información podemos dibujar la “mancha” de luz solar que ingresa a un recinto, que estimamos que posee un vano de 2,50 m de altura (tomados a partir del piso) y cuya planta se esquematiza en la figura 8.31. Nos valdremos también de un ábaco, que llamamos de líneas dominantes de luz (identificado como gráfico 8.30), que nos da la proporción de sombra o luz, según el caso, que se corresponden a una determinada altura del sol respecto de una superficie horizontal. Ese ábaco, que se transcribe a continuación, se usa colocando en escala la medida del elemento cuya proyección queremos obtener según la altura del sol, y se lo ubica en una línea horizontal del gráfico (resaltada en negro), que corresponde a los 45º de altura. Esto es, por cuanto al ser la inclinación de la luz solar de dicha medida, la altura de cualquier elemento vertical, es igual en tamaño a la sombra que proyecta. Una persona de 1,80 m de altura de pie, proyecta una sombra de ese mismo largo, cuando los rayos del sol inciden a 45º, la sombra de un edificio es igual a su altura, etc, etc. A partir de esa medida de referencia, es claro ver que la sombra (o la luz que entra a un local a través de sus vanos), se reduce respecto a la altura del elemento de referencia a medida que la altura del sol aumenta.
234
Por el contrario, cuando la altura del sol va siendo menor, las sombras se alargan o su luz penetra más profundamente a través de ventanas o vanos en general que estén expuestos a su presencia en el cielo diurno.
Para nuestro ejemplo se ubica en escala en la línea de 45º la altura real de 2,50m del vano del local, y se obtiene la medida de la proyección para 60º de altura de los rayos solares, medida que está determinada por el segmento ad.
a
d
250 cm
Gráfico 8.30 235
Si en igual escala a la adoptada sobre la línea de 45º, o en proporción respecto del segmento obtenido, dibujamos la planta del local de referencia, obtendremos la gráfica de la figura 8.31, que muestra en blanco la mancha de luz solar correspondiente al ejemplo que estamos presentando (el segmento ad es la medida en escala obtenida del ábaco anterior).
Sol
30º
N
Figura 8.31 Obsérvese también la orientación del vano, ya que si el local estuviera orientado hacia otra dirección, la incidencia de rayos de luz no cambiaría, pero sí la entrada de luz solar al recinto. Pensemos que si el vano estuviera orientado al sur o al oeste, en la hora y día establecidos para el ejemplo, carecería de entrada de luz del sol. El ángulo de 30º indicado en planta respecto de la dirección norte, es el azimut que antes calculáramos, e indica que se está en horas de la mañana, ya que el sol todavía se encuentra al este de la posición del mediodía (norte solar). Si el local poseyera como vano una ventana y ésta estuviera colocada con su alfeizar (parte inferior) aproximadamente a 0,90 m del piso, estando su dintel (parte superior), a la misma altura que en el caso anterior, la mancha
236
solar resultaría como la que se muestra en la figura 8.32, donde el tramo ab es el sector de sombra proyectada por la pared bajo la ventana y bc el tramo correspondiente a la ventana que permite la entrada de luz solar.
Sol
Puerta
Figura 8.32 Obviamente la puerta de acceso al local, aunque abierta, no proporcionaría ninguna entrada de luz, por su orientación. En ninguno de los casos se hizo mención especial al ancho de las aberturas, ya que dicha medida no está influida por la altura del sol y por cuanto los rayos de luz solares llegan paralelos a la Tierra. Por lo tanto a mayor anchura ingresará más luz, pero esta dimensión de un vano no varía la entrada de luz solar a lo largo de un día en razón del cambio de altura del sol. De cualquier forma, como se ha visto en estos ejemplos, múltiples son las posibilidades del diseñador para controlar la entrada de luz solar al hecho constructivo. Ya que el recorrido del sol es inmutable, quedan entonces los parámetros descriptos como recursos para lograr mayores o menores ganancias de luz diurna. A ello se agrega una gran variedad de dispositivos de oscurecimiento y control de la luz natural, tales como bris soleil, vidrios tonalizados, celosías, parasoles, persianas, cortinas de enrollar, etc. que ya verá un futuro diseñador a lo largo de sus estudios y de la vida profesional.
237
Estos elementos completarán las posibilidades de brindar al hábitat un óptimo manejo de la luz del sol y las consecuentes ganancias o pérdida térmicas que esa forma de radiación también conlleva. Cálculo aproximado anual de la declinación del Sol Repasando algunos conceptos del capítulo, cerramos el mismo, dando a continuación valores básicos respecto al movimiento del Sol en la esfera celeste, para la confección de gráficos que permitan calcular sus parámetros específicos (ver figura 8.33): PS 23o 27’
23º 27’
A 21/VI
PN
B 21/XII
SOL
Figura 8.33
La Tierra se mueve en su órbita en sentido directo. Imaginando un reloj colocado en el plano de la elíptica con su cuadrante hacia arriba, hacia el Sur, las flechas que marcan el recorrido de nuestro planeta, indican el sentido del movimiento de las agujas. Observemos en el dibujo, donde se encuentra la Tierra el 21 de junio. El Sol envía uno de sus rayos que se clava en A. Al girar la Tierra, el punto A describe una circunferencia paralela al Ecuador que dista del mismo 23° 27′ al Norte, esta circunferencia es el Trópico de Cáncer. El 21 de diciembre el rayo del Sol se clava en B, describiendo un paralelo a 23° 27′ al Sur del Ecuador, este paralelo es el Trópico de Capricornio. Del 21 de junio al 21 de diciembre han transcurrido seis meses, pasando el Sol de 23° 27′ de declinación Norte a 23° 27′ de declinación Sur. Luego si ha pasado de la máxima declinación positiva a la máxima declinación negativa, ha tenido que pasar por cero y esto ocurre a los tres
238
meses, 21 de septiembre, en que el Sol recorre el Ecuador y que en nuestro hemisferio comienza la primavera. Análogamente el Sol pasa de la máxima declinación negativa el 21 de diciembre a la máxima positiva el 21 de junio, por lo que a los tres meses, el 21 de marzo, debe recorrer el Ecuador con declinación cero, comenzando en ese día el otoño en nuestro hemisferio. Resumiendo: Junio 21
δo
Septiembre 21
δo
Diciembre 21
δ o 23° 27′ Sur
- Capricornio
Marzo 21
δo
- Ecuador
23° 27′ Norte 0°
- Cáncer - Ecuador
0°
Como se ve el Sol cambia su declinación en seis meses, pasando de un máximo a un mínimo, resultando evidente que en todos los días, en todas las horas, en todos los instantes, va cambiando su declinación, no recorriendo por tanto cada día un paralelo, sino una hélice cuyas espiras están muy juntas cerca de los trópicos y más separadas en el Ecuador. Los almanaques astronómicos indican día por día la declinación del Sol en su paso por el meridiano. El lector puede obtener la declinación que necesite, interpolando entre los datos consignados en esta tabla simplificada, que para resolver gráficamente los problemas de asoleamiento que se le presenten en el ejercicio de su profesión, es más que suficiente: Junio 21 Julio 21 Agosto 21 Septiembre 21 Octubre 21 Noviembre 21 Diciembre 21 Enero 21 Febrero 21 Marzo 21 Abril 21 Mayo 21 Junio 21
aprox. “ “ “ “ “ “ “ “ “ “ “ “
δo δo δo δo δo δo δo δo δo δo δo δo δo
23° 26′ 20° 12° 0° 12° 20° 23° 26′ 20° 12° 0° 12° 20° 23° 26′
239
Norte Norte Norte Ecuador Sur Sur Sup Sur Sur Ecuador Norte Norte Norte
Así pues, si se necesita conocer la declinación del sol el 1° de junio, se verá en la tabla que está comprendida entre 20° y 23° 26′ Norte y que en 30 días el sol aumentó su declinación en 3° 26′. Se puede resolver la siguiente regla de tres: 30 días . . . . . . . . . . 3° 27′ 10 días . . . . . . . . . . x Resultando por aproximación 1° 10′ Luego la declinación del sol el 1° de junio es aproximadamente de 20° + 1° 10′ = 21° 10′ Norte, pero como el 1° de junio no es de los próximos al 21 del mismo mes, en que las diferencias son muy pequeñas - solsticio = sol detenido - porque parece que en los días próximos al 21 de junio y 21 de diciembre, el sol recorriese el mismo paralelo, puede aumentarse en 50′ la estimación y llegar a los 22° Norte, que es la que indica el almanaque. Ese cálculo es muy aproximado, porque las diferencias de declinación no son proporcionales a los tiempos, pero en definitiva, tomando 21° o 22°, las diferencias que se obtienen a los efectos de una posible aplicación son insignificantes para el arquitecto, aunque resulten inadmisibles para el astrónomo, el agrimensor y el marino. Todos los años para un mismo día, el Sol no tiene la misma declinación, pero esas diferencias son menores y de ninguna importancia para el profesional de arquitectura
240
CAPITULO IX
Uso racional de la energía
A lo largo de los capítulos de este libro, hemos visto variadas formas de energía, sus aplicaciones en el campo de la arquitectura, las instalaciones y los elementos constitutivos del hecho constructivo. Pero, la gran pregunta es: ¿usamos racionalmente esas energías? Y la respuesta tiene los múltiples matices que el avance tecnológico, la cultura del género humano, la ecología, la arquitectura sostenible y otros condicionantes generados por el hombre, le aportan como fundamento. Ese hombre al que nos referimos genéricamente es la especie que más ha transformado el planeta en el que vive. El que ha inventado máquinas eficientes, como el motor eléctrico (95% de eficiencia en la ecuación energía ↔ movimiento) y otras mucho más precarias, como las lámparas incandescentes (15% de eficiencia en la ecuación energía ↔ movimiento). Claro que en el caso de las “máquinas simples” generadoras de luz artificial, que recién citáramos, la elección no deja alternativas, pues no hay soluciones mucho más rendidoras. Lámparas halógenas, fluorescentes, dicroicas y otras variantes, no han mejorado mucho la performance. Pero en otros casos, la solución a un problema relativo a la vida cotidiana, no siempre pasa por la racionalidad en el consumo energético. Veamos el caso del problema que implica el traslado de una persona de un lugar a otro, en distancias que por tiempo, comodidad o necesidad, no se pueden cubrir a pie. En muchísimos casos se opta por movilizar a esa persona (60 o 70 Kg. de peso promedio), en una máquina de 1000 o 1500 Kg., impulsada por un motor de escaso rendimiento energético. ¿El nombre de esa máquina? Automóvil, por supuesto. Las generaciones futuras probablemente critiquen y con razón ese desperdicio de un recurso no renovable - el petróleo - que además genera, al ser consumido, una multifacética gama de contaminantes tóxicos a nuestra atmósfera.
241
Hemos descripto el caso del automóvil por ser paradigmático, pero el lector sabe que no es imprescindible aguzar el ingenio para encontrar una multiplicidad de ejemplos similares, de cómo el ser humano degrada a su planeta. Sin embargo, en las últimas décadas del recién concluido Siglo XX, la toma de conciencia de esta agresión del hombre a su hábitat natural, empezó a cuestionarse severamente. Nació la ecología como ciencia destinada a estudiar la preservación del medio ambiente y sus criaturas vivientes. Organizaciones gubernamentales y otras surgidas de la propia comunidad, se ocuparon del tema. El cuidado por las especies y recursos no renovables se hizo carne en gran parte de la humanidad. Ha sido a partir de ese cambio de mentalidad, que pareciera que la especie humana se ha empezado a preocupar por el planeta en el que vive. Ese tercer planeta del sistema solar, se llama Tierra, y en él han evolucionado seres de cierta inteligencia. Ese es el ser humano, con su idiosincrasia actual para situarse frente a su entorno. Un entorno, que si lo ampliamos a nuestro sistema planetario, tiene por centro esa modesta estrella llamada Sol, que es hasta el momento la energía predominantemente significativa externa a la Tierra. Desde los comienzos del planeta, hace aproximadamente unos 4500 x 106 años, su convulsionada y yerma corteza primordial, con mares hirvientes, cubierta por una primitiva atmósfera de gases preponderantemente formados por amoníaco (NH3), gas metano (CH4) y vapor de agua (H2O) (v), tuvo que esperar millones de años antes de alcanzar su estado actual. Hoy se constituye en un medio apto para la vida, con una atmósfera III (la que respiramos), expuesta siempre a nuevas modificaciones catastróficas por acciones naturales o inducidas, como podrá inferirse durante el desarrollo de este tema. Pero recién hace unos 3500 x 106 años (!!!!), la vida hizo su aparición. Durante el largo período que transcurrió hasta que la combinación de gases alcanzara el estado de atmósfera II, la evolución del proceso aleatorio primigenio que engendró la vida, debió haber sido muy distinta de los resultados hoy conocidos. La persistente incidencia de los muy energéticos ultra violetas (UV) sobre la superficie del planeta, provocó la fotodisociación del agua (disociación en H y O) que la redujo a un ½ de su volumen original. El H2 fugó al espacio exterior y la nueva composición de gases entonces fue: vapor de agua (H2O) (v), nitrógeno (N2) y abundantes cantidades de bióxido de carbono (CO2), pero con ausencia de oxígeno (O2). Durante el lento proceso evolutivo hacia la síntesis de moléculas complejas de tipo proteicas, entre el estado I y II, la aparición fortuita de anillos de porfirina con un núcleo de magnesio (Mg), permitió convertir la luz visible,
242
reemplazando a los UV y formando nuevos compuestos, que aunque distintos a los actuales cloroplastos y granas de clorofila, comenzaron a fotosintetizar el CO2, convirtiéndolo en biomasa vegetal y liberando O2 al medio ambiente, sin disminución de H2O. En el nuevo y revolucionario proceso, parte del O2 se combinó en forma de O3 (ozono), formando paulatinamente un paraguas protector contra los UV a 25 Km. de altura sobre el nivel del mar y automáticamente el proceso de fotodisociación se fue deteniendo progresivamente. Probablemente una hambruna a escala planetaria debe haber acontecido hasta la constitución de la actual atmósfera. Esta nueva atmósfera III estuvo formada preponderantemente por N2, O2 y una pequeña proporción de otros gases, entre ellos el CO2 notablemente disminuido a tan sólo un 0,03%, ¿Pero qué pasó entonces con las ingentes cantidades de bióxido de carbono?. La única explicación coherente es la acumulación en forma de biomasa vegetal, consecuencia de la profunda metamorfosis ocasionada por la fotosíntesis. Del más que sintético desarrollo precedente puede inferirse que es el Sol, la única fuente de energía pasada y presente, capaz de provocar todas las manifestaciones energéticas significativas registradas en la superficie terrestre; desde movimientos telúricos a masas de agua en movimiento, desde fenómenos meteorológicos hasta el desarrollo evolutivo de la vida. Todo ello constituye motivo más que suficiente como para que el ser humano se afane primero en comprender y luego en tratar de dar una respuesta adecuada, acerca de las causales que han producido tan profundos cambios en el tiempo, los cuales sin dudas hacen a su actual y futura existencia. Sin embargo, como podrá apreciarse durante el desarrollo del presente capítulo, parece ser que la capacidad mental otorgada por la madre naturaleza a este incipiente ser inteligente es muy limitada; pues no le permite discernir entre intereses generales y de grupo. Esto es lo que explica su incapacidad en prever las nefastas consecuencias que pueden desencadenar actitudes sustentadas sólo en su fuerza como especie y no en la racionalidad. En la actualidad, el ejemplo más notable lo constituye el manifiesto desprecio de los países más desarrollados, hacia los demás miembros de la comunidad internacional que conforman el planeta, relativo a contaminación ambiental y efecto invernadero, aduciendo un daño a sus intereses tecnológicos; sin percibir que éste será irreversible en forma global y no particular, afectándolos a todos por igual.
243
A partir de la gran explosión (Big Bang), el Sol, estrella de segunda generación, lleva ya una existencia de aproximadamente 5000 x 106 años, encontrándose en estado de secuencia principal - estado de equilibrio entre su poderoso campo gravitacional y las fuerzas de repulsión resultantes de la inmensa temperatura interior (15 x 106 °C) - generada por los efectos de la fusión entre núcleos atómicos de su material de combustión, el H21. El resto de su “apacible existencia”, de no acontecer alteraciones externas a su normal desenvolvimiento, transcurrirá durante aproximadamente 6000 x 106 años más. Luego, dada su discreta masa, nunca se transformará en una nova, sino que cuando se esté agotando su combustible, pasará a ser una gigante roja, engulléndose a todos los planetas interiores, para finalmente convertirse en una enana blanca de tamaño aproximado a nuestro planeta. Pero la enorme energía actual irradiada por el Sol a causa del proceso de fusión nuclear, incide en la superficie de nuestro planeta en razón de su posición y proximidad. Por ello la Tierra está expuesta permanentemente a radiaciones de todo tipo, de distintas longitudes de onda y frecuencia, registradas físicamente como espectro electromagnético (ver Tabla 6.1 del Capítulo 6). Estas radiaciones difieren de otros tipos de ondas, como aquellas que se propagan en la materia, caso típico de las del sonido ya vistas. Por ello creemos conveniente recalcar qué características diferencian a las ondas longitudinales de las transversales. La discrepancia fundamental surge de que para una dirección dada las formas de propagación difieren. En el caso de ondas longitudinales (sonido), la propagación es una vibración coincidente con la dirección. Este tipo de onda se produce en el seno de un medio material cualquiera sea su estado, gaseoso, líquido o sólido, de lo que se infiere que - como ya mencionáramos en el capítulo de acústica - el sonido no se propaga en el vacío. Los efectos de este tipo de situación pueden ejemplificarse imaginando una esfera pulsante sumergida en el interior de un líquido, que se mueve con rítmicas contracciones y dilataciones. El fenómeno es diametralmente opuesto si se trata de ondas transversales, ya que en este caso la perturbación es perpendicular a las líneas de dirección, de forma análoga al efecto que produciría la esfera (ya no pulsante), sino sumergida en una gelatina o líquido viscoso con un movimiento de cortas y rítmicas oscilaciones rotatorias, pendulares respecto de un eje fijo. 21
Para mayor información sobre este tema, ver “Soles en Explosión”, Isaac Asimov, Editorial Sudamericana Planeta.
244
Con su vaivén las partículas de gelatina formarán una onda transversal a la dirección de los radios de la esfera, desplazándose la perturbación en forma concéntrica (ver figura 9.1).
Figura 9.1 Este tipo de propagación responde a cualquier onda perteneciente al espectro electromagnético y contrariamente a las ondas materiales, su forma óptima de propagación se da en el vacío (carente de materia). La velocidad de estas ondas es igual a la de la luz, y son portadoras de los cuantos de energía propios de cada tipo de onda del espectro. En el espectro electromagnético las ondas oscilan transversalmente a la dirección de propagación, alcanzando la velocidad constante e insuperable (por ahora), de 300.000 Km/seg. en el vacío, que se recordará que es la velocidad de la luz, valor igual al resto del espectro. Dentro del espectro, existe una estrecha banda que corresponde a la luz visible (ver figura 9.2).
Figura 9.2 245
Son el tipo de ondas más abundantes, por lo que no resulta extraño, que el sentido de la visión haya sido una consecuencia del proceso de evolución. En sus inmediaciones en lo que a longitud de onda se refiere, parte del espectro puede ser captado por ciertos animales (las víboras captan los rayos infrarrojos, así como las abejas lo hacen con los UV). Toda la energía que llega al planeta antes de hacer su entrada a su atmósfera tiene un valor constante, conocido como constante solar. Su valor es de 1,94 cal/cm2 por minuto, lo cual equivale aproximadamente a 5.1021 Kcal /año, valor ideal (si el Sol incidiera perpendicularmente en toda la superficie terrestre), de no existir ni nubes, ni neblinas o ni siquiera aire, ya que todos estas barreras físicas reducen esa ganancia energética. El equivalente energético aproximado de glucosa sería unas 20 x 109 Ton. Gluc./H., suficiente como para suplir todas las necesidades animales durante un año. Sin embargo la cantidad anual recibida por el planeta es mucho menor que las 1021 Kcal /año citadas y se reduce a tan sólo unos 1018 Kcal /año ¡y no más!, que en equivalencia energética de glucosa es de 40 x 1010 Ton. Gluc./año. Esto es debido a que cuando la energía ingresa al planeta, el 60% se pierde por reflexión en nubes, neblinas y absorción propia de la atmósfera. Del 40% restante, la mayor parte se pierde por ineficacia de los rayos infrarrojos (IR), muy débiles como para fotosintetizar. Otros factores son la reflexión marina, rocas, arena y color de la vegetación, así como cierta ineficiencia en la fotosíntesis. También deben considerarse otras variables menores como la fertilidad del suelo, acceso a las fuentes de agua, etc. Todas estas causales en su conjunto determinan que el cálculo razonable estimado de ganancia energética sea el ya citado de aproximadamente 40 x 1010 Ton. Gluc./año. Considerando que las necesidades promedio para cada ser humano son de poco mas de 2000 Kcal/dia o su equivalente 750.000 Kcal/año, entonces resulta de fácil comprensión que un crecimiento exponencial demográfico (curva de potencial biótico) como el existente en la población humana, que se duplica cada 50 años, plantee un inquietante dilema (ver gráficos 9.3).
246
Figura 9.3 Si las 1018 Kcal/año es un límite tecnológico de difícil superación, entonces las necesidades energéticas del ser humano deben ser examinadas con extrema minucia, ya que la capacidad de sostenimiento poblacional K (techo límite para cada tipo de población), accionará ante cualquier desborde poblacional. Si así no ocurriere, no se cumpliría la correspondiente curva logística (ver figura 9.4), entonces el proceso, siguiendo dentro de la curva de potencial biótico en forma sostenida, alcanzaría una expresión con valores realmente fantásticos.
Figura 9.4 247
De continuar el crecimiento demográfico con la tendencia actual (lo cual es absurdo), entonces en el año 2450 las necesidades humanas harían que la única dieta posible fuese, para alegría de los naturistas, sólo de vegetales. En el 5200 la masa de seres humanos sería igual a la del Sol y en el 9000 la masa humana habría alcanzado a la de todo el universo; por lo que puede concluirse sin temor a equivocarse que el homo-sapiens, de persistir en su actitud, no sobrevivirá ni siquiera 2000 años más22. Naturalmente el comportamiento de las poblaciones humanas difiere en mucho del resto de las otras poblaciones ecológicamente analizadas hasta el momento, sean éstas vegetales o animales. Al no existir estadística capaz de establecer comparaciones con otras civilizaciones inteligentes, no resulta factible determinar la capacidad de sostenimiento que responda con grado de probabilidad deseable, acerca del comportamiento de la población humana. Especie, por otra parte, que por el dinamismo desbordante de su tecnología, establece variables ajenas al resto de las especies conocidas. Ante esta indeterminación sólo pueden hacerse conjeturas basadas en comparaciones con otros análisis previamente establecidos de orientación similar. En la búsqueda de una explicación, que permita obtener tentativamente posibles respuestas relativas a las posibilidades de continuidad de la especie humana, un modelo es la ecuación propuesta por Drake23 22
Para mayor información sobre este tema, ver “Fotosíntesis”, Isaac Asimov, Editorial Plaza y Janes S.A. Formula de Drake: N=N* fp ne f1 fi fc fL en que todas las (f) son fracciones entre 0 y 1, que irán reduciendo el elevado valor de N*. N significa la cantidad de civilizaciones técnicas posibles existentes en nuestra galaxia. Si N* es 23
el número de estrellas de la galaxia ≅ 4(10 ); fp fracción de estrellas con planetas ≅ 1/3; ne número de planetas aptos para la vida, por sistema estelar ≅ 2; f1 fracción de planetas aptos en los que se desarrollaría la vida ≅ 1/3; fi fracción de vida inteligente y fc fracción de civilizaciones con capacidad de comunicación 11
tecnológica siendo ( fi fc ) ≅ 1/100. El último factor fLes el % probable de vida de una civilización técnica que haya alcanzado características como la nuestra. El 9 producto de los 5 primeros términos (≅ 10 ) determina aproximadamente cuántos millones de planetas pudieron haber existido como civilizaciones técnicas en nuestra galaxia, desde el comienzo del Universo, lo cual no significa que aun
existan. Si fL ≅ 1/108, entonces N ≅ 109 ×1/108 ≅ 10, cantidad de civilizaciones técnicas, que podrían estar habitando en nuestra galaxia. Los valores asignados son los mismos que se encuentran en el libro “Cosmos”de Carl Sagan, por considerarlos ampliamente fundamentados. De los primeros factores existen
248
referente a civilizaciones avanzadas de la Galaxia, que de por sí abarca gran parte del Cosmos24. Establecidos ya los lineamientos generales relativos a la energía, cabe entonces circunscribir desde un punto estrictamente técnico, las distintas manifestaciones de la misma, distinguiendo entre aquellas energías que son convencionales (desde el pasado hasta el presente inclusive) y las no convencionales (aquellas que actualmente están en avanzado desarrollo y evolución). Asimismo cabe una particular explicación acerca de las características de otro tipo de energía, la energía de fusión, cuyo desarrollo teórico-práctico, aunque no resuelto aun completamente a nivel tecnológico, constituye el fundamento acabado de las anteriores, pues incluye a las demás formas de energía. Una explicación, aunque somera y limitada, que haremos al finalizar el capítulo, referente a energías no convencionales o alternativas, permitirá vislumbrar el inmenso logro de la física teórica, de concretarse sus supuestos llevados a terrenos técnicamente posibles. Veamos a continuación un cuadro ilustrativo sobre los distintos tipos de energías (cuadro 9.5).
amplios conocimientos, en cambio los últimos son estimaciones vagas y por lo tanto más subjetivas, en particular ( fi fc ). 24
Para mayor información sobre este tema, ver “Cosmos”, Carl, Sagan.
249
Cuadro 9.5
250
Comencemos por desarrollar el tema de las energías llamadas convencionales: Energías Convencionales Se dividen en tres grupos diferenciados para alcanzar una mayor claridad conceptual. Estos grupos son: • • •
Contaminantes Ambientales No Contaminantes Contaminantes
Contaminantes Ambientales (no renovables) En este primer grupo de energías convencionales se ubican los hidrocarburos. Estos compuestos están constituidos exclusivamente por átomos de (C) e (H), origen de su denominación, formando cadenas “abiertas” o “cerradas”. Estos hidrocarburos tienen una capacidad de enlace peculiar, formando una diversa cantidad de sustancias que resultan ser clave en la estructura de la vida del planeta. Pero el carbono no sólo es el componente necesario de todo ser vivo, sino que también forma parte de toda la gama de compuestos sintéticos, que comprenden desde plásticos y fibras, hasta las más diversas sustancias medicinales o pesticidas. La sofisticada química promete, ante el indudable agotamiento de los combustibles fósiles una alternativa; el uso del monóxido de carbono (CO). Pero esta alternativa es igualmente preocupante ya que los costos energéticos de producción superarían a los de los hidrocarburos naturales. La energía de estos últimos, es la más simple de liberar y la máxima fuente de energía concentrada en forma de biomasa acumulada, durante el transcurso de millones de años. Como contrapartida, los hidrocarburos naturales resultan ser los máximos liberadores de dióxido de carbono (CO2) emitidos al medio ambiente. Históricamente el uso deliberado de la energía tiene sus orígenes cuando los primeros homínidos manipularon y dominaron el fuego, en lento aunque sostenido proceso de incorporación de CO2 al medio ambiente; consecuencia del uso de la madera (leña), acompañado en un principio por un paulatino aumento demográfico de las poblaciones humanas.
251
El proceso continuó con similares características hasta los comienzos de la revolución industrial a fines del siglo XVIII, en que el aumento de este gas se hace notablemente pronunciado con la explotación de los hidrocarburos naturales. Pero donde el hecho se hace más notable es en los últimos 100 años como consecuencia de la revolución tecnológica. El inusitado incremento de dióxido de carbono atmosférico, en aproximadamente un 15%, permite estimar que hacia el año 2050, el aumento de la temperatura global será de 2°C por efecto invernadero (nos explayaremos sobre este tema a continuación de estos conceptos relativos a los hidrocarburos). Ampliemos las referencias a los hidrocarburos naturales y a su importancia desde una perspectiva energética. Sus orígenes se remontan desde el carbonífero, hace 350 millones de años, hasta el jurásico, hace aproximadamente 135 millones de años. Estas sustancias, en larguísimo proceso de transformación, obviamente son no renovables. La imposibilidad de recrear las condiciones de espacio - tiempo hacen que su explotación determine forzosamente su definitiva extinción. El producto de estos restos fósiles vegetales, en un principio de compuestos orgánicos y posteriormente de animales enterrados en lenta descomposición, sufrieron variados y violentos eventos en el transcurso del tiempo. Las combinaciones químicas del carbono y el hidrógeno son de una variedad casi infinita, partiendo desde estructuras muy simples como ser el metano (CH4), hasta muy complejas estructuras como el ADN, este último fundamento de la vida. Veamos en detalle algunos ejemplos de este tipo de materias: a) Los carbones minerales (carbón de piedra), como la antracita, hulla, lignito y turba, de remotísimo origen, resultaron de la lenta descomposición de vegetales de lujuriosas selvas tropicales calurosas y húmedas. Helechos gigantes, cicadales y cubresuelos de plantas rastreras constituyeron principalmente la flora, de gran expansión, durante el período Carbonífero. Estos vegetales enterrados a cierta profundidad fueron secándose y reduciéndose principalmente a celulosa. Posteriormente sufrieron la pérdida de (O) e (H) con un enriquecimiento progresivo de (C); resultando ser más ricos cuanto más antiguos eran. b) El petróleo es una mezcla de hidrocarburos oxigenados, nitrogenados o sulfurados. Los depósitos resultan de la descomposición de materia orgánica depositada y presionada entre mantos de capas geológicas profundas, en forma de arcos convexos. No existe en depósitos
252
líquidos. Se encuentra como gotitas dispersas en las capas de roca porosa, cubierta a su vez por otras de rocas esquísticas que impiden su escape. Al realizar la perforación del estrato, el petróleo es presionado violentamente por la roca que lo rodea y emerge en forma de chorro (ver figura 9.6).
Figura 9.6 Pero antes de su aparición en la superficie surge gas butano (C4 H10) en mayor o menor medida. Este gas natural que durante mucho tiempo se quemó a la cabeza de la salida de los pozos como producto de deshecho, revalorizado como combustible tiene múltiples aplicaciones. Dentro del conglomerado de gases que componen al gas natural, el butano licuado tiene variados usos en encendedores manuales, cocinas y lámparas de camping, etc. Es evidente que la energía potencial de la naturaleza en sus múltiples formas requiere de ciertas transformaciones que permitan su liberación, en búsqueda de un máximo aprovechamiento y óptimo rendimiento. Es competencia de la física y de su accionar tecnológico, encausar el trabajo por medio de un reducido número de mecanismos. El trabajo generará el movimiento necesario, transformándolo finalmente en energía eléctrica. En general la secuencia de trabajos destinados a la obtención del objetivo propuesto no presenta grandes variantes. Un caso prototípico a citar como ejemplo es la liberación de la energía contenida en el carbón de piedra que tuvo por destino la máquina de vapor, característico del S XIX y que logró la generación de movimiento impulsor de los generadores productores de electricidad.
253
Por su parte, los motores de combustión interna hicieron similar transformación energética (energía ↔ movimiento), por medio de combustibles derivados del petróleo. Varias de las usinas eléctricas de nuestro país (p.ej. Dock Sud) también son claros ejemplos de estas transformaciones de energía. Las turbinas resultan ser el mecanismo más adecuado para otras situaciones. Las de tipo hidráulicas transforman el movimiento del agua en energía mecánica, como en el caso de las represas. Sean éstas de poca o gran altura, los modelos están regulados en función del caudal o de la velocidad a la salida del distribuidor (ver figura 9.7). En el caso de turbinas a vapor, las variantes son: de presión normal y condensación, o de baja presión inicial y contrapresión. Sintetizando: en general el esquema en la secuencia de mecanismos obedece a lo explicitado en el gráfico 9.8. 2
2
Figura 9.7
254
Figura 9.8 En un reducido número de casos, las transformaciones son de aplicación directa sin necesidad de ingenios intermedios. Tal es el caso de la fotoelectricidad, los cristales piezoeléctricos, las baterías eléctricas o los molinos eólicos. Efecto Invernadero La causa del llamado efecto invernadero: “es provocado por el ingreso de la luz a un recinto cerrado, al atravesar alguna sustancia que actúa de elemento separador entre el exterior y el interior”. La interacción entre luz y sustancia modifica las condiciones interiores incrementando la energía térmica, acentuando así la diferencia de temperatura entre ambos medios. La luz, al igual que toda vibración del espectro electromagnético, es de tipo transversal. Se encuentra ubicada dentro de una angosta franja - que mostráramos en la figura 9.2 - comprendida entre 400 y 700 mµ de longitud onda (un milimicrón mµ = una millonésima de mm.). Estas vibraciones tienen la propiedad de atravesar ciertas sustancias transparentes, relativamente opacas para otras longitudes de onda (λ) como los IR (infrarrojos) y UV (ultravioletas). La constante penetración de la luz al interior del ambiente va suministrando mayores cantidades de energía, que al ser absorbidas por los objetos, provoca un aumento de la agitación molecular de sus estructuras, emitiendo IR (todo buen absorbente es buen emisor). Pero esta nueva emisión en forma de IR, tiene longitud de onda mayor a la de la luz visible, característica que dificulta el traspaso de la estructura intermedia (p.ej. un vidrio), por lo cual quedan en gran medida atrapados en el interior. Siendo esta dificultad para el egreso, la misma que se verificaba para su ingreso, se produce entonces el fenómeno de efecto térmico (aumento de la temperatura interior del recinto) que es la que ha recibido el nombre de efecto invernadero. Finalmente la estabilidad se alcanza cuando la energía luminosa entrante se compensa con el exceso de IR del interior, generándose un equilibrio en la temperatura interna del recinto.
255
Cuanto mayor sea el espesor o densidad de la sustancia interceptora, mayor será la diferencia de temperaturas entre el interior y el exterior (siempre mayor la temperatura interior, salvo que se regule con algún artificio físico, p.ej. equipo de aire acondicionado). Sustancias de comportamiento análogo al de cristales perfectamente transparentes (no coloreados) a la luz, son el dióxido de carbono (CO2), los policarbonatos y los acrílicos, entre otros. La propiedad que tiene el vidrio incoloro de dejar pasar la luz, es lo que permite obtener un aumento de temperatura en los invernaderos, que conjuntamente con un grado de humedad regulado, determina su microclima, facilitando el mantenimiento de ciertos vegetales. La comprensión del sistema ha permitido su aplicabilidad a requerimientos de tipo arquitectónico como ser el aprovechamiento de la energía solar tanto pasiva (muro Trombé), como activa en forma de paneles solares. Si consideramos que el sistema es extensible a escala planetaria, el “recinto cerrado” abarcaría toda la biosfera. Las alteraciones por el efecto invernadero, a nivel de macro sistema, alterarían el delicado equilibrio del 0,03% de CO2 como justo componente regulador térmico. El aumento de energía térmica provocaría una reacción global sin precedentes. Las supuestas consecuencias, sólo adquieren significado al comparar el conocimiento de nuestra probable atmósfera primitiva, que hemos desarrollado precedentemente, con los conocimientos actualmente adquiridos sobre la atmósfera del planeta Venus que presenta ciertas analogías al respecto. Durante el siglo XIX se creyó que la nubosa atmósfera de Venus respondía a la imagen de un planeta pantanoso, húmedo y sumido en penumbras. Pero con la aparición de la espectroscopía, tal concepción quedó desvirtuada, al constatarse la total ausencia de H2O con la presencia de enormes cantidades de CO2. La imagen entonces pasó de un mundo acuoso a uno totalmente árido. Posteriormente las emisiones de microondas (ondas cortas de radio) captadas por los radiotelescopios, permitieron establecer que su superficie debía ser extremadamente caliente, del orden de los 480 °C. Este dato se verificó con certeza por medio de sondas, que escasamente sobrevivieron a aquel infierno por menos de una hora, al fotografiar y registrar su superficie y temperatura25. Los efectos a escala planetaria han comenzado a manifestarse por causa de la polución ambiental. Su generación obedece fundamentalmente a las excesivas emanaciones de CO2 volcadas a la atmósfera, producto de irracionales procesos tecnológicos e industriales. 25
Para mayor información sobre este tema, ver “Cosmos”, Carl, Sagan.
256
De persistir en esta dirección, el desequilibrio global actuará sobre la totalidad del sistema en forma de retroalimentación positiva imposible de controlar en el pequeño o mediano plazo. Variaciones en el clima modificarán los niveles del mar por derretimiento de las masas de hielo polares. El recalentamiento global favorecerá en principio los incendios forestales → más aumento de CO2 → mayor temperatura → luego más incendios. Finalmente es probable que el aumento de energía térmica superficial actúe sobre las delgadas placas tectónicas favoreciendo la frecuencia de terremotos, maremotos y vulcanismo; todo ello difícil de predecir, aunque generando un futuro, que nos haría retrotraer hacia el estado originario de nuestro planeta. Recientes estudios permiten eclipsar los pronósticos estimados para el año 2100, en que aumentos de la temperatura global entre 1,8 y 3,5 °C pasarían a cifras aún más preocupantes, que estarían comprendidas entre los 1,8 y 5,8 °C de temperatura en superficie. En consecuencia las catástrofes anunciadas (según cierta prensa especializada) son: • • • • • •
Aumento de concentración de CO2 desde 1750 a la fecha 31%. Aumento de la temperatura global durante el siglo XX, 0,6° C. Aumento estimado de la temperatura durante el siglo XXI, (2 a 6 °C). Aumento del nivel de los mares entre 0,09 cm a 0,88 cm. Deshielo de glaciares y profusión de témpanos Antárticos. Ciudades costeras sumergidas (N. Orleáns, Venecia, Alejandría, Recife, Miami).
•
Desde 1970 aumento de precipitaciones en la región pampeana en un 35%, afectando los cultivos forrajeros. Mayor frecuencia de ciclones y huracanes. Proliferación de insectos y aumento de epidemias.
• •
Pasemos ahora a analizar las energías llamadas: No contaminantes En este segundo grupo de energías convencionales se ubican: 1) Las represas hidroeléctricas 2) Aprovechamiento de la energía de las mareas (mareomotriz)
257
1) Hidroeléctricas Son aquellos emprendimientos destinados al aprovechamiento de los saltos de agua o cambios de nivel por medio de represas, que transforman el trabajo realizado por la fuerza de gravedad en movimiento impulsor de generadores eléctricos. Aunque no contaminante, la energía que demanda este tipo de construcción es de alto costo, pues no solo modifica su entorno inmediato sino que su influencia se extiende a escala regional. Las consecuencias de las complejas y sutiles modificaciones ocasionadas al ecosistema, muchas veces resultan imposibles o muy difíciles de predecir. Ejemplos claros de este tipo son: modificación del régimen de ríos (caso Nilo, cambio de su régimen natural y pérdida cultural e histórica entre otras), cambios del microclima por causa de grandes espejos de agua, destrucción ictícola etc. En la Argentina emprendimientos del tipo citado son: Chocón Cerros Colorados (Neuquen), dique Escaba y Cadillal (Tucumán), Yacyretá Apipé (internacional – Argentina, Brasil, Paraguay), Salto Grande, (internacional – Argentina, Uruguay). En este último caso se ha perdido la natural pureza y transparencia de las aguas del río y el poblado de Antigua Federación quedó sumergido en el reservorio de agua. Pero siempre hay algo que entregar a cambio de dar solución a las complejas necesidades humanas (ver esquema de represa en figura 9.9).
Figura 9.9 258
2) Mareomotrices Son emprendimientos destinados al aprovechamiento del flujo y reflujo inverso marino entre zonas estratégicas no muy distantes, separadas por una lengua estrecha terrestre. La diferencia de altura entre niveles del mar resulta ser la fuerza impulsora aplicable a las turbinas que mueven los generadores eléctricos. Este tipo de ingenio ha tenido realidad efectiva en países como Francia. La idea no es nueva y tiene antecedentes en la Edad Media y en el siglo XIX, el escritor francés Víctor Hugo destacó la importancia que tendría el aprovechamiento de la inmensa fuerza de las mareas. La Argentina tuvo una propuesta similar hace varias décadas para la Península de Valdez, que finalmente no se efectivizó. De haberse concretado, grandes desajustes de la fauna marina hubiesen ocurrido en la actualidad. Finalmente estudiemos el tercer grupo que son las energías catalogadas como: Contaminantes 1. Química 2. Atómica por fisión 1) Química En este apartado se describen aquellos dispositivos que transforman la energía química en eléctrica, conocidos como acumuladores. En términos generales, éstos pueden definirse como dispositivos destinados a almacenar y conservar la energía, hasta el instante que según requerimientos debe ser utilizada. En términos más específicos, de estos dispositivos puede señalarse que están referidos a la capacidad potencial que tiene la energía química como para transformarse en energía eléctrica. Por el momento es el único sistema eficaz, a pesar de los múltiples inconvenientes que acarrea (bajo rendimiento y deficiencias), aunque ciertamente existen en estudio otros ingenios prometedores que en un futuro incierto probablemente resuelvan dichos inconvenientes, pero que están fuera de los lineamientos a desarrollar en este libro.
259
Como ejemplo podemos citar un tipo clásico de acumulador, constituido por un recipiente de base rectangular (cubeta), lleno con una solución de ácido sulfúrico (SO4H2), con dos placas de plomo metálico (Pb) poroso en su interior, haciendo la salvedad de que aquella placa que actúa como electrodo positivo (ánodo), está recubierta por bióxido de plomo (Pb O2). Ambas placas o electrodos se hallan vinculadas entre sí interiormente por la solución de ácido sulfúrico de la cubeta, mientras que sus bornes externos lo harán por medio de un conductor que posee un interruptor. Cuando se cierra el circuito por medio del interruptor, en el interior del acumulador se provocan una serie de reacciones químicas por las cuales el ácido sulfúrico ionizado actúa sobre el bióxido de plomo formando sales de sulfato de plomo (SO4Pb) en el ánodo y una sulfatación en el electrodo negativo a expensas del plomo metálico, al tiempo que por el conductor circula una corriente continua de electrones liberados por la reacción. En síntesis, la reacción química entre componentes transforma la energía química en eléctrica. Este tipo de acumulador es de acción electroquímica reversible y de recarga económica, lo cual se logra haciendo pasar una corriente eléctrica de dirección opuesta a la de descarga. Un acumulador de esta naturaleza tiene un potencial de 2,0 V. Si se desea aumentar la carga eléctrica se emplean 3 o 6 de estos módulos conectados en serie, usando como separadores habitualmente caucho entre láminas de madera o fibra de vidrio, obteniendo baterías de 6 o 12 V. respectivamente. El resultado son las incómodas y pesadas baterías de automóvil, con sus 6 aberturas con tapa por módulo, a las que siempre les falta el agua necesaria como para evitar su colapso prematuro. Esto conduce al aumento del espesor de placas a fin de evitar su deformación, provocada por el incremento de actividad química y descarga eléctrica, lo que redunda en un necesario aumento de masa y volumen, lo cual constituye una característica poco ventajosa. Las pilas (ver figura 9.10), son dispositivos similares en su principio a los anteriormente mencionados. Están confeccionadas con metales de diferente potencial, separados entre sí por una solución gelatinosa ácida o alcalina como electrolito.
260
Figura 9.10 Son variantes de este tipo de acumuladores las pilas secas de linterna de 1,5 V; las de mercurio (Hg) de 1,4 V (tamaño botón) usadas en cámaras fotográficas, en relojes y otros artefactos y una inmensa variedad para distintos usos y aplicaciones. Desafortunadamente los residuos de la producción electroquímica son altamente contaminantes, por lo que se requiere de un tratamiento industrial especial para su desactivación y neutralización. Y paralelamente existe otra limitación significativa y es que en general, la capacidad de generación de energía de estos artefactos es mil o miles de veces menor que la de otros tipos de generadores. ---------------------------------------------------------------------Escolio: breve reseña de la constitución atómica, isótopos Como describimos en conceptos anteriores, la materia está compuesta por elementos denominados átomos. Los átomos son la porción más pequeña de materia capaz de conservar las propiedades químicas de cada elemento y de entrar en reacciones químicas en la formación de otras más complejas (moléculas). Pero a su vez la estructura del átomo está constituida por partículas, cuya interacción física merecen una breve descripción.
261
Descripción de la estructura atómica: La estructura del átomo está constituido por un núcleo de protones con cargas positivas y generalmente neutrones de igual masa a ellos, pero con ausencia de cargas. Alrededor del núcleo se mueven y vibra una tenue nube de electrones negativos de masa despreciable comparados con los protones, estableciendo un equilibrio entre cargas opuestas. Suele representarse al átomo como una imagen plana de electrones orbitando en derredor del núcleo y aunque esto no refleje la compleja realidad, a los fines prácticos en alcances y requerimientos para los conceptos a desarrollar en este libro es suficiente (ver figura 9.11).
Figura 9.11
262
La realidad probable es una imagen tridimensional, ya que sus propiedades ondulatorias los agrupa a distancias medias distintas con relación al núcleo, en orbitales diferentes, caracterizados por números cuánticos. Lo que sí creemos necesario, es explicitar y rememorar brevemente aspectos pertinentes a la nomenclatura y simbología de los elementos, así como el significado de índices y sub-índices que los afectan. Si el elemento X está afectado por un subíndice cuantificador (c) ubicado a su derecha, representa al número de elementos que intervienen dentro de una fórmula estequiométrica26. En cambio si hay un superíndice a la izquierda del mismo [número atómico (Z)], representa la cantidad de protones en el núcleo, igual a la de electrones que orbitan. Si se trata de un subíndice [número másico (A)] ubicado a la izquierda, indica la masa relativa del elemento (ver figura 9.12).
Figura 9.12 Pero aunque haya constancia de protones para un mismo elemento, si existe una diferencia en la cantidad de neutrones (N) que componen el núcleo, entonces se está en presencia de un isótopo (ver Figura 9.11). Estas diferencias en la masa de un isótopo implican variaciones en sus propiedades físicas. -----------------------------------------------------------------
26
Equilibrio químico entre los componentes de una fórmula determinada.
263
2) Atómica por fisión nuclear Las centrales atómicas actuales están basadas en la fisión controlada de núcleos atómicos pesados de material radiactivo (uranio U 235), por medio de reactores de diverso tipo. Estos ingenios usan como proyectiles de fisión neutrones lentos, que al impactar sobre los núcleos pesados del uranio provocan su fragmentación con liberación de ingentes cantidades de energía (E), generando nuevos átomos de bario (Ba 138) y Kriptón (Kr 95). Asimismo se desprenden nuevos neutrones lentos que impactan a su vez en otros núcleos de U 235, generando la reacción en cadena controlada (ver figura 9.13).
Figura 9.13 Este proceso denominado reacción en cadena (ver figura 9.14), es controlado por el reactor-generador en forma ordenada en un largo período de tiempo, evitando la caída en torrente de (E) descontrolada en tiempo infinitesimal y crecimiento exponencial, tal cual es, por ejemplo, lo que sucede con la denominada bomba atómica.
264
Figura 9.14 La energía térmica que genera el proceso controlado, transformará el agua del reactor en vapor, que a su vez dará impulso a las turbinas que pondrán en movimiento los generadores de electricidad. Un reactor está diseñado en base al uso de material radiactivo U 235, isótopo práctico para su entrada en régimen pero con el inconveniente de ser muy escaso dentro de las muestras de uranio. Solo siete partes de cada mil (7/1000) son de este tipo. El resto es U 238, combustible no práctico que sólo se fisiona con neutrones rápidos. El U 235 es muy difícil de ser separado del U 238. Superada la dificultad de separación, el U 238 actuará como envolvente del U 235, absorbiendo los neutrones lentos producto de la fisión provocada por este último. Como consecuencia dará origen a un nuevo elemento inexistente en estado natural. Este nuevo elemento es el plutonio (Pu 239), combustible práctico y fácil de separar que se activa con neutrones lentos. El resultado de un diseño adecuado es el de un “reactor generador” que produce más Pu 239, respecto al U 235 consumido. Otra variante de reactor generador es rodear al U 235 por el elemento torio (Th 232), que absorberá los neutrones lentos, convirtiéndose finalmente en U 233; combustible práctico que como el resto de los elementos fisionables, es de número másico impar. El serio inconveniente de todos estos procesos son los residuos radiactivos, que aunque atenuados en su rendimiento efectivo, seguirán
265
activos durante larguísimos períodos de tiempo, con riesgos para todos los seres vivos. Poniendo fin a esta sección de energías convencionales, resulta conveniente establecer una clara diferencia entre los procesos de fisión y los de fusión; fenómeno este último desarrollado en la segunda sección referente a energías alternativas. Los procesos que en ambos casos llevan a la conversión de la materia en energía son muy distintos, tanto en procedimientos como en resultados, en expectativas como en consecuencias. El procedimiento para provocar la fisión consiste en la fractura de grandes núcleos de elementos inestables por el impacto de neutrones, dando como resultado la liberación de considerables cantidades de (E) con pérdida de masa. Contrariamente la fusión actúa sobre núcleos ligeros para formar otros más pesados pero estables, sin dejar residuos contaminantes. Nuevamente hay una pérdida de masa por fusión de núcleos, en que la masa del producto resultante será menor que la sumatoria de las masas de los núcleos antes de fusionarse y consecuentemente de la liberación de (E). Este fenómeno es el que mantiene y alimenta el fuego de las estrellas del universo. Energías no Convencionales / Alternativas Los comienzos del siglo XX sorprenden al planeta con un cambio de paradigmas tan revolucionarios que conmueven los fundamentos físicomatemáticos. Puede decirse que la reticencia a dichos cambios por gran parte de la comunidad científica, perduró hasta la tercera parte del siglo. Comenzado el S. XXI, puede decirse sin temor a equivocarse, que la mayoría de la gente acepta a la nueva concepción como hecho consumado y no porque comprenda sus conceptos y alcances. No resulta fácil aceptar ciertos relativos y nuevos absolutos surgidos del concepto de la velocidad de la luz (c) como límite, que establece la no independencia entre espacio y tiempo. La concepción actual del interdependiente espacio-tiempo establece como nuevo absoluto al intervalo entre acontecimientos; surgido de sus componentes de espacio y de tiempo. Estos componentes no son fáciles de asimilar. El principio de incertidumbre27 es un nuevo absoluto que destierra al concepto determinista en el universo de lo muy pequeño, convirtiendo a la mecánica cuántica en una abstracción matemática de ecuaciones 27
Heisemberg, Werner, físico que elaboró el principio, que básicamente dice que la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad y por la masa de la partícula, nunca puede ser más pequeña que una cierta cantidad que se conoce como Constante de Plank (h).
266
algebraicas28. Sus implicaciones estallan en inesperadas soluciones tecnológicas mas allá de toda comprensión. Sin embargo, a pesar de la incomprensión dentro de un marco lógico tradicional, los resultados son coherentes con la realidad física. Las antipartículas vislumbradas y nacidas de la interpretación de signos opuestos de resultados de raíces cuadradas, permiten que la materia y antimateria confluyan, aniquilándose en un destello de energía pura. Todo va de lo inexplicable a lo asombroso en abierto desafío al pensamiento y sentido común. Las partículas sólo tienen existencia y adquieren realidad en el momento del experimento. Nada puede decirse de su existencia anterior o posterior al mismo. Materia y Energía Todavía a principios del S. XX se hacía distinción entre materia y energía. Pero ante el cambio forzoso impuesto al pensamiento contemporáneo, resulta más correcta la noción de materia-energía como dos manifestaciones de una misma entidad; esencia de nuestro Universo. Quedó atrás y desactualizado el concepto de la física clásica que tradicionalmente definía a la materia como “todo aquello que era impenetrable, ocupaba un lugar en el espacio y no podía crearse ni destruirse”. Uno a uno todos estos conceptos terminaron por desvanecerse. Actualmente resulta más conveniente remitirse al pensamiento que sobre estos temas han expresado grandes matemáticos, filósofos o físicos contemporáneos. En 1959 el filósofo matemático inglés Bertrand Russell responde así a la pregunta -“¿Qué es la materia? – Es de la que los metafísicos plantean y responden en enormes libros de increíble oscuridad”. O lo expresado por el físico matemático Louis de Broglie - “En resumen, la luz es la forma mas refinada de materia”. Definitivamente bien puede decirse entonces que con exclusión de la “nada”, todo es materia o energía. Respecto de la energía el físico cuántico R. P. Feynman ha dicho - “Es importante constatar que en la física de hoy no sabemos que es la Energía”.
28
Estudiadas por Paul Adrien Dirac, físico matemático inglés, que ocupó la titularidad de la célebre Cátedra Lucasian de matemática, en la Universidad de Cambridge. Fue premio Nobel en 1933.
267
La masa en reposo (m0) de una partícula inmóvil puede considerarse como (E) congelada. Pero si se trata de un sistema independiente de partículas confinadas (conjunto de partículas), la masa total del sistema bien puede ser mayor a la de la suma de las masas individuales por poseer energía interna resultante. Resulta así que un pastel de manzanas caliente pose energía cinética nula al igual que otro frío de iguales características por hallarse en reposo respecto a la mesada en que están. Pero el pastel caliente contiene más (E) térmica y por lo tanto más masa que el frío, y en consecuencia es más difícil de acelerar y por lo tanto su peso en la “balanza” será mayor. Esto no significa que el pastel caliente tenga más sustancia, materia o átomos que el frío, pero “sí” tendrá más masa por su mayor contenido energético. Con solo poseer conocimientos de matemática elemental y ponerlos en práctica, el lector podrá comprobar mediante la ecuación de Einstein, E=m.c2 que la cantidad de (E) concentrada en 1 gramo de masa es enorme al ser liberada. Si en la fórmula anterior consideramos las unidades de (E) expresadas en ergios, la masa en gramos y la velocidad de la luz (c) en cm/seg., realizando las operaciones se alcanzará la increíble cifra de 900 trillones de erg. (9×1020). Relacionando 1 Kcal. (42.000 millones de ergios) con la (E) total de transformación del gramo masa, se deducirá que su valor es aproximadamente igual a 22.000 millones de Kcal. Un ser humano necesita unas 2500 Kcal diarias para su alimentación, entonces las necesidades alimentarias anuales serán de 912.500 Kcal. La conclusión es que con solo 1 gramo de energía transformada a dichas necesidades ([22.000x(106)] ÷ 912.000), éstas quedarán satisfechas por 24.110 años; cifra bastante mayor a sus posibilidades de vida. Otra equivalencia energética es la de una lamparita eléctrica de 100 W, la cual hipotéticamente podría permanecer encendida durante 28.100 años. Continuando con el ordenamiento trazado en el cuadro relativo a energías convencionales y alternativas, desarrollaremos el primer apartado referido a Energía Solar (Alternativa). 1- Solar Pasiva 2- Solar Activa
268
Solar Pasiva La misma se basa en el aprovechamiento pasivo de la energía de la luz solar por el uso y disposición funcional de sus componentes constructivos y de diseño arquitectónico. Tal es el caso del muro Trombé y de la disposición de vanos vidriados que permiten la libre entrada de la luz, para un óptimo aprovechamiento del efecto invernadero y su regulación por medio de dispositivos de oscurecimiento adecuado (forma de parasoles fijos o regulables exteriores). El uso del muro Trombé se fundamenta principalmente en su gran capacidad de absorción, retención y emisión regulada de la (E) térmica. Desde un punto de vista físico, un objeto buen receptor (absorbente) es un buen emisor. Pero todo cuerpo es absorbente y reflejante a la vez, aunque sea en pequeña medida. Si es un buen absorbente también será un buen emisor. Por el contrario, si es buen reflejante será un mal emisor. En consecuencia si es buen receptor será mal reflejante. Un ejemplo de arquitectura antigua comparable en sus efectos al del muro Trombé sería el palacio de Sargón II en Jorsabad. Sus gruesos muros de 6 y 12 mts. resultaban ser buenos reguladores térmicos de los ambientes, tanto en verano como en invierno. Una versión vernácula es el Cabildo de la Ciudad de Buenos Aires, que con sus muros de un metro de espesor, también es un ejemplo de edificio equilibrado térmicamente en su interior. Solar Activa A diferencia del ítem anterior, este caso particular consiste en la creación de mecanismos o ingenios tales como colectores solares y celdas fotovoltaicas. Colectores solares Son dispositivos destinados a captar la luz solar por medio de un conjunto de artificios y que transforman la capacidad energética de los rayos luminosos en energía térmica. Cada panel consta de un vidrio perfectamente transparente y espesor doble o triple por frente. Un tubo de cobre en serpentina sujeto a un fondo rígido absorbente, formado por un panel de fibra de vidrio y una lámina de aluminio o de chapa obscura completan al conjunto. El sistema se estructura por medio de un burlete en U de neopreno y un marco de aluminio de igual forma como cierre hermético(ver figuras 9. 15 y 9.16).
269
Descripción de funcionamiento: el efecto invernadero permite que la (E) luminosa quede atrapada entre el vidrio y su respaldo. El agua fría ingresa por la parte inferior de la serpentina de cobre. Al aumentar la energía térmica del agua que circula por la serpentina, se produce el llamado termosifón, que hace ascender el agua que tomó mayor temperatura y la traslada finalmente a un tanque intermediario con tratamiento térmico. El sistema es utilizado para aprovisionar de agua caliente a viviendas y otros complejos edilicios (ver figura 9.17).
Figura 9.15
Figura 9.16 270
Figura 9.17
Notable!!! En 1903 E. G. Dodge (licenciado en letras), especulando acerca de energías alternativas, pensaba que aprovechando los saltos de agua, al igual que la fuerza del viento y usando molinos de viento, se podía captar las formas de energía. Otro recurso ingenioso fue imaginar que por medio de espejos parabólicos en la Luna se podía concentrar la luz solar hacia las aguas del planeta Tierra para producir vapor de agua que permitiese generar movimiento. Pero a Dodge no se le ocurrió la idea de generar directamente “fotoelectricidad”, ignorando que ya Becquerel29, un químico francés, había hecho notar los cambios que la luz era capaz de provocar sobre ciertos materiales, que como el selenio (Se) producían electricidad. En 1888 Hertz observó que al pasar una corriente eléctrica e incidir un haz de rayos UV sobre el polo negativo de un entrehierro, había un aumento en la emisión de electrones (ver figura 9.18). 29
Becquerel, Henri, físico francés que realizó importantes estudios sobre pilas eléctricas.
271
Figura 9.18 Pero recién en 1905, Einstein explicó por medio de la teoría “cuántica” el efecto fotoeléctrico, por lo que recibió el premio Nobel. Si bien la primer “fotocélula” tuvo su nacimiento por la excitación de luz sobre sustancias alcalinas activas y peligrosas, fue el perfeccionamiento con selenio (Se gris), el que permitió al “ojo eléctrico” la apertura y cierre de puertas automáticas. Recién con la aparición y el uso del silicio (Si), surgieron las primeras “células solares” que perfeccionadas alcanzaron una eficacia del 16%. Celdas fotovoltáicas Aunque individualmente las “células solares” resultan económicas, en grandes revestimientos resultan onerosas. Su gran ventaja reside en que los procesos de producción eléctrica no son contaminantes. La diferencia fundamental de estos dispositivos según lo historiado precedentemente, es la transformación directa de la luz a energía eléctrica. Sus aplicaciones más simples se verifican en las pequeñas calculadoras de bolsillo, pero adquieren importancia en generadores fotovoltáicos aplicados a complejos arquitectónicos. Descripción: Un conjunto de celdas o células solares encapsuladas en un plástico aislante con un frente de vidrio templado y enmarcado dentro de
272
un perfil de aluminio conforman un módulo. A su vez un conjunto de módulos configuran un generador solar fotovoltáico (ver figura 9.19). Estos generadores resuelven holgadamente las necesidades de variados complejos edilicios. Captando la (E) luminosa y transformándola en electricidad, se deriva ésta para ser acumulada en baterías y distribuida en forma de corriente continua o alterna. Con ello se abastece a artefactos domésticos de todo tipo. Los modelos se fabrican en módulos de 14, 20, y 42 W de potencia y tensiones de 15V. Otros usos son: balizas, casas rodantes, náutica, etc.
Figura 9.19 Energía piezoelectrica Este caso posee muy baja energía, pero es suficiente y de gran utilidad en el encendido de artefactos que usan gas como combustible. El mecanismo en que se sustenta el sistema, reside en el aprovechamiento de una pequeña fuerza mecánica o manual que actúa rápidamente sobre un cristal piezoeléctrico. Dicho cristal sometido a una veloz compresión y descompresión transforma el trabajo en una chispa, que aunque corta, contiene la suficiente (E) como para provocar la ignición del combustible.
273
Un ejemplo de cristal con esas propiedades es el rubí, pero al ser una piedra de alto costo ha sido reemplazada comercialmente por ciertas cerámicas que cumplen con igual propiedad. El chispero para encendido de artefactos de gas, que como dijimos es su principal aplicación, puede ser manual o incorporado a los artefactos, resultando de gran utilidad por ejemplo en las estufas de tiro balanceado, donde la cámara de combustión por razones de seguridad es hermética. Energía eolica Estos nuevos ingenios están destinados a captar la fuerza producida por el viento encauzando el movimiento y transformándolo en (E) eléctrica. El concepto no es nuevo, pues consiste en una modificación mejorada y sofisticada de los antiguo molinos de viento destinados a otros usos. Gracias a lo avanzado de la tecnología actual, cada unidad puede tener dimensiones reducidas en el caso de pequeñas necesidades energéticas o estar conformada por una alta torre- mástil de más de 40 mts. de altura y 3 mts. de diámetro, en el caso de requerimientos mayores, capaces de abastecer a un pequeño pueblo con un solo molino. El sistema está rematado en todos los casos, por un cabezal móvil en el que se encuentra el generador, impulsado en los modelos más grandes, generalmente por 3 gigantescas palas de más de 20 mts. de longitud (ver figura 9.20). La (E) producida se almacena en acumuladores de electricidad. La base de generación es similar a otras ya especificadas precedentemente, que transforman un movimiento rotatorio en electricidad, a través de una dínamo.
274
Figura 9.20 La sofisticación ingenieril ha centrado sus esfuerzos en la aerodinamia de las palas, destinadas a optimizar la captación del viento, minimizando al máximo los efectos del empuje horizontal en el extremo libre del mástil. Cada día que pasa suelen aparecer nuevas propuestas de diseño referentes al mejoramiento y optimización de captación de energía eólica, ya que es una de las tecnologías que crece a pasos más rápidos y agigantados. Cabe una aclaración de tipo paisajista, y es que si bien estos ingenios resuelven las necesidades a la demanda de (E), al igual que las torres de alta tensión son entes extraños de difícil integración con la naturaleza. Según los requerimientos energéticos las necesidades pueden demandar varias unidades, generando centrales eólicas formadas por granjas o parques eólicos capaces de abastecer a núcleos urbanos.
275
En Argentina existieron varios emprendimientos que se vieron frustrados por razones económicas, pero fundamentalmente políticas. Otros sólo quedaron en proyectos. A efectos de información general, algunos de los emprendimientos que quedaron en simples proyectos fueron: En 1986, la Comisión Nacional de Energía Atómica (CONEA), conjuntamente con la Provincia de Río Negro, idearon estaciones muy económicas para la región del Comahue (suspendido). En 1989 la Secretaría de Ciencia y Técnica (SECYT), conjuntamente con otros organismos estatales, intentaron un proyecto con turbinas Tea-10 de 10 Kw. (suspendido). En 1990 el Ing. Erik Spinadel, con auspicio de Austria intentó con una turbina Voest de 40 Kw., la que permanece arrumbada en los sótanos de la Facultad de Ciencias Exactas de la Ciudad Universitaria. Es un pecado no insistir en proyectos con este tipo de aprovechamiento energético, ya que la Argentina posee el mayor corredor de vientos del planeta en la Provincia de Santa Cruz, entre la cordillera de los Andes y el puerto de San Julián en el Atlántico. Existió una propuesta por parte del Ministerio de Ciencia y Técnica de Alemania sin cargo alguno para la realización de 5 parques eólicos. Estos serían capaces de generar electricidad anual equivalente a 2 veces la producción de Yaciretá o 6 veces la potencia nuclear de la CONEA.; se ha perdido en el olvido. Energía geotérmica Esta forma de (E) es atípica, ya que en la tierra pude considerarse como independiente de la energía solar. Aunque tan antigua como esta última por ser parte en la formación del sistema solar, la diferencia reside fundamentalmente en que la energía terrestre quedó atrapada en su interior cuando se solidificó su superficie. El aprovechamiento de este tipo de (E) consiste en encausar directamente la fuerza generada por el vapor de agua que surge de las profundidades de la tierra hacia las turbinas que mueven los generadores eléctricos. En este particular, es Islandia el país mas favorecido en (E) geotérmica. Isla basáltica de formación volcánica joven, muchos de estos volcanes activos, con profusión de fumarolas, campos de lava y géiseres, la torna en un medio ideal para este tipo de emprendimiento. Su superficie de aproximadamente 103.000 Km2, es menor a media Provincia de Buenos Aires. Con solo ¼ de millón de habitantes y una producción eléctrica de 4.500 millones de Kw/h, usando el vapor de agua que surge naturalmente de los “géiseres”, se tienen aseguradas
276
holgadamente las necesidades energéticas. En Argentina aunque de envergadura menor, existe un proyecto para la provincia de Salta. En el próximo tema a desarrollar, no puede dejar de hacerse mención a la excelente respuesta dada por la biotecnología, en solucionar complejos problemas energéticos Energía de biomasa Dentro de la biomasa existe una gran variedad de materia orgánica (M.O) que plantea un desafío a las aspiraciones de la biotécnica por reemplazar en buena medida a los combustibles fósiles por otros que además de renovables sean menos contaminantes. Aprovechando la natural interacción entre plantas, microorganismos y (M.O) en general, la técnica consiste en obtener combustibles como ser los alcoholes y el gas metano (CH4) entre otros. Dentro de este contexto la obtención de metano a partir de deshechos biodegradables es altamente prometedor. El primer contacto que el hombre tuvo con gases inflamables viene de tiempos remotos cuando observó pequeñas luminosidades en los pantanos; “fuegos fatuos” o gas de los pantanos que suele encenderse con el contacto del aire. Hace 3.000 años ya los chinos hablaban sobre estos “fuegos de los pantanos” constituidos por ciertos gases con preponderancia del gas metano, el cual podía ser usado como combustible. En la actualidad el metano es de gran importancia, ya que es el elemento constitutivo del gas natural. Ciertas bacterias vienen operando sobre la materia orgánica desde hace millones de años, descomponiendo las células muertas de plantas y animales con producción de metano. El gas metano está a su vez íntimamente relacionado con la producción de carne. Las células de hierbas y pasturas están rodeadas por una gruesa membrana de celulosa; sustancia no digerible por animales carnívoros, pero sí por herbívoros rumiantes (vaca). El estómago de la vaca se halla compartimentado. Dentro del mismo existe una gran variedad de bacterias especializadas en “romper” la celulosa por procesos de fermentación, liberando el metano y haciendo digerible al vegetal ingerido. Actualmente los biotecnólogos estudian a estas bacterias metanógenas con el fin de detectar la secuencia en los procesos de la liberación de metano. La materia prima es extremadamente compleja, por lo tanto las bacterias intervinientes en las reacciones químicas también lo son.
277
Sintetizando, el objetivo es la producción directa de metano, partiendo de la materia prima vegetal sin intervención del fermentador (vaca). Técnicamente existen instalaciones simples para materia como la de los residuos domésticos y agrícolas llamados “digestores”; productores de “biogás”. El “biogás” está constituido por varios tipos de gas, con preponderancia de metano. En Argentina esta técnica tiene uso en zonas del Delta del Río de la Plata. En la República Popular de China existen instalaciones sencillas de “digestores” calculados en millones, usando estiércol de vacas. En muchas aldeas de la India los “digestores” se cuentan por miles, siendo esta pequeña escala la más adecuada por simples razones de proximidad, evitando así gastos de transporte. En E.E.U.U. funcionan plantas experimentales perfeccionadas que realizan su trabajo en 2 fases. La primera consiste en el cultivo de ciertas algas sobre aguas residuales, que a la vez que descontaminan absorben la (E) luminosa fotosintetizándola. El crecimiento extraordinario de estas algas (hasta 14 cm. por día) significa un aumento de la (E) de biomasa y en consecuencia su conversión a biomasa. La segunda fase consiste en instalar a las algas en los “digestores”, a fin que sobre ellas actúen las bacterias metanógenas. Este sistema requiere agua en abundancia para el cultivo de las algas, pero también existen especies que prosperan excelentemente en aguas salobres. Por fin para concluir la serie de temas referentes a las diversas manifestaciones de la (E), se desarrollará un sucinto panorama acerca de los alcances y consecuencias de la energía de fusión. Energía de fusión A modo de introducción a la sección referente a Energías no convencionales, quedó explicitado con suficiente claridad la diferencia fundamental entre los procesos de fisión y fusión. Este último apartado tiene como finalidad hacer una somera descripción sobre los esfuerzos y metas que la ciencia física persigue, a fin de dar solución a uno de los grandes problemas de su incumbencia. Como se ha especificado en la introducción al tema de la energía, el gran objetivo de la física consiste en interpretar cómo son los procesos de fusión que hacen a la vida de las estrellas y crear un artificio adecuado capaz de emular a las mismas.
278
La pretensión, que no es poca; consiste en armar un dispositivo que permita, en buena medida, independizarse del padre Sol y para caracterizarlo de alguna manera, construir una estrella de bolsillo. Pero para poder comprender como se alcanzó el conocimiento del que hoy disponen los científicos, es necesario historiar en apretada síntesis, los acontecimientos del más remoto pasado imaginable. Todo pasó hace unos 15.000 millones de años, cuando un “huevo cósmico” de reducidas dimensiones, sin espacio ni tiempo, estalló en la más grande explosión universal que pueda concebirse, el Big Bang. A partir de ese instante, la materia increíblemente comprimida y caliente más allá de todo lo concebido, comenzó a expandirse hacia la creación del espacio-tiempo. Una fracción de segundo después, el Universo en expansión se enfrió lo suficiente. Pero tuvieron que pasar muchos millones de años de oscuridad, antes de la que las nuevas partículas que conformaban las inconmensurables nubes cósmicas de materia oscura irregularmente agrupada, diesen comienzo a los procesos de choque y fusión. Estas nuevas partículas, protones, neutrones, electrones, podían relacionarse entre sí o fusionarse si sus cargas eran opuestas, dando nacimiento a los primeros átomos. Un protón positivo, por fuerza electromagnética, capturó a un electrón negativo formándose el hidrógeno H1. No se produjeron fusiones entre partículas de igual signo (protón/protón, neutrón/ neutrón) pues se repelían. Pero sí, se produjeron fusiones protón/ neutrón por la acción de la “interacción fuerte”, la más intensa de las fuerzas, conservando al electrón en su orbital. Surge así el átomo estable hidrógeno-2, isótopo de masa doble al anterior denominado Deuterio. Cuando núcleos de Deuterio chocaron violentamente y se fusionaron, dieron como resultado un nuevo elemento, el helio4. Este último está formado por un núcleo de 2 protones y 2 neutrones (número másico 4) y 2 electrones orbitándolo, liberando prodigiosas cantidades de (E). Estas pistas fueron concluyentes para entender la clave de ordenamiento de piezas sueltas, las cuales compaginarían el maravilloso caleidoscopio del Universo. Asimismo permitió descubrir los procesos que daban equilibrio a la larga vida de las estrellas. Este perfecto equilibrio de regulación queda establecido entre cantidad y masa de combustible de reacción. Las partículas eran el combustible, constituido por núcleos de protones, deuterio y neutrones, formando inconmensurables nubes de polvo cósmico. Pero la irregular distribución de estas oscuras nubes, ocasionó
279
que la acción cada vez más fuerte de la gravedad, provocara choques y fusiones. El telescopio Hubble, el cual orbita por fuera de la atmósfera terrestre, ha dado testimonio fotográfico, detectando colosales nubes de polvo interestelares que han comenzado a brillar a millones de años luz. Cabe destacar que la fotografía registra un fósil cósmico de nuestro pasado, ya que lo que ocurre aquí y en este instante es la imagen de aquello que nos transmite la luz, en su largo recorrido a través del tiempo. En este testimonio se observa el nacimiento de estrellas que comienzan a brillar emitiendo ingentes cantidades de (E) radiante. Es este plasma encendido en el corazón de las estrellas el que determinará sus existencias. Ahora si bien la gravedad tiende a acelerar exponencialmente los procesos de choque en raudales de emisión de (E), esto provoca una elevación de la temperatura, que tiende a alejar a las partículas, hasta alcanzar con el tiempo el equilibrio que neutraliza a la fuerza gravitacional (secuencia principal). Si la masa de combustible es muy grande (muchas partículas), mayor será la fuerza que ejerza la gravedad y más rápidamente se consumirá, acortándose la vida de la estrella. Es decir, a mayor cantidad de combustible, menor será la vida de la estrella. Es el caso de estrellas masivas, cuyo colapso termina en explosiones de novas o supernovas. Por el contrario, cuanto menor sea el combustible, la pequeña estrella dosificará mejor sus reservas y vivirá mayor cantidad de años, que es el caso de nuestro Sol. Habiendo comprendido los procesos precedentes, los físicos prácticos tenían por delante imaginar qué artefactos podrían dar solución al desafío de generar energía por medio de fusión. También determinar el combustible adecuado, a fin de que el funcionamiento reprodujese los acontecimientos de la naturaleza. El (H1) es el elemento de la naturaleza más abundante y como se dijo el combustible básico a utilizar en este proceso. Pero a pequeña escala para sostener la temperatura necesaria de fusión se necesitan unos 1.000 millones de ºC de forma tal de mantener confinadas a las partículas dentro del aparato, elevadísima temperatura que las impulsaría a escapar. Resulta necesario, en consecuencia, un prodigioso campo magnético a modo de crisol para retenerlas. En el caso de nuestro Sol, las enormes fuerzas gravitacionales, permiten que la temperatura de reacción dentro de su núcleo, esté en los 15 millones de grados centígrados. Si se usara el (H2) [Deuterio] como combustible, la temperatura de fusión disminuiría notablemente a 400 millones de ºC. Este elemento se
280
encuentra en el agua de mar en proporción de 1 (D)/7.000 de (H1) y su separación no resulta ser muy onerosa. De un balde de agua marina de aproximadamente 5 litros, se puede extraer una gota de (D) a un costo de 3 ctv. de dólar, para ser usado como combustible y alimentar al artefacto cuando está en régimen (ver figura 9.21).
Figura 9.21 La (E) producida es equivalente a 272 lts. de nafta o comparativamente 1 m3 de (D) es equivalente a todas las reservas de petróleo. Asombroso!!!! Esta (E) es la que irradian las estrellas. Lo que es más, la cantidad de (D) que hay en el mar es suficiente como para abastecer de combustible a toda la humanidad durante 6.000 millones de años; tiempo de vida que le resta a nuestro Sol. Pero todo ello será posible, sólo si el crecimiento demográfico mundial se detiene y no lo sigue haciendo en forma geométrica como hasta ahora. De no ser así, ningún sistema tecnológico podrá remediarlo.
281
Esquema de funcionamiento de un generador nuclear por fusión En principio, con la tecnología actual (en experimentación), resulta difícil alcanzar la temperatura crítica de régimen y mantener al sistema funcionando aproximadamente durante 2 segundos. A medida que aumenta la temperatura, la (E) perdida por radiación, supera holgadamente a la entregada por fusión. Pero como la (E) de fusión crece en relación inversa a la pérdida por radiación, llega un instante en que ambas energías se igualan cuando la temperatura alcanza el punto crítico. Es el momento en que el sistema se automantiene con sólo suministrarle combustible para que el proceso de fusión continúe. Uno de los sistemas está basado en ir aumentando la temperatura y mantener a las partículas confinadas dentro de un poderoso campo electromagnético (ver figuras 9.22 y 9.23).
Figura 9.22
Figura 9.23
282
Para bajar aún más la temperatura de fusión a 45 millones de ºC se usa Tritio (T) como detonador. El tritio es otro isótopo radiactivo del hidrógeno, pero por ser muy inestable sería imposible de usarlo como combustible por su gran escasez (ver figuras 9.24, 9.25 y 9.11 precedente).
Figura 9.24
Figura 9.25 283
Otro sistema consiste en la concentración de gran número de láseres sobre el combustible, para alcanzar rápidamente la temperatura crítica. Sin embargo hasta ahora no se ha logrado el objetivo, habiéndose mantenido al reactor encendido sólo unas décimas de segundos. Existen expectativas de que en el período 2020/2050, ya se encuentre la solución al funcionamiento práctico de este tipo de reactores energéticos. Con esta última forma de energía creemos haber dado un recorrido por todas las modalidades que utiliza el hombre en la actualidad, para satisfacer sus necesidades energéticas. Se apela a los futuros arquitectos, a los que dedicamos estas páginas, a orientarse hacia una búsqueda racional de la energía, destinada a la conservación de las reservas planetarias. Que los recursos sean regulados equitativamente para alcanzar la subsistencia y perduración de la raza humana. Siendo la arquitectura el medio idóneo para alcanzar la máxima expresión de calidad de vida, debe contribuir a impedir la devastación de la naturaleza; fundamental proveedora de los recursos vitales para la subsistencia del hombre Resumiendo y sellando el presente trabajo, se espera que los arquitectos del Siglo XXI perfeccionen lo hecho hasta el presente, en búsqueda de un mundo mejor utilizando como objetivo prioritario lo tan reiterado precedentemente; un uso racional de la energía.
284
TRABAJOS PRACTICOS
Trabajo Práctico Nº 1 1- Hallar la presión ejercida en una canilla ubicada en el primer piso de un edificio según el croquis. 2.00
TR
0.60 2.80
3o
2.80 o
2
1o
0.90
2.80 3.20
P. Baja 0.60
TB
3.00
Sótano
Especificar la presión que debe vencer una bomba ubicada en el sótano del edificio para elevar agua al tanque de reserva. 2- Calcular la altura de colocación de un tanque de reserva de agua, sabiendo que la presión de trabajo mínima para un calentador de agua instantáneo (calefón), es de 0,15 kg/ cm2, considerando un coeficiente de seguridad de 1,5.3- Calcular qué fuerza hay que aplicar en una prensa hidráulica a un émbolo de 3 cm de diámetro que suministra presión a un liquido, para que produzca la elevación de una carga de 2000 kg. mediante el movimiento de un émbolo de 24 cm de diámetro.-
285
4.- El flotante de un tanque de reserva de agua es de forma cilíndrica de 10 cm de diámetro y 20 cm de alto . Determinar la cantidad de arena que habrá que introducirle para que se sumerja hasta 2/3 de su altura , despreciando el peso propio del flotante .(γarena = 1300 kg/m3 ) 5.- La presión atmosférica normal es igual a 1013 Hectopascales ( o milibares ) siendo 1P = 1 Newton / m2 . Probar mediante la adecuada sustitución de unidades, que dicha presión equivale a 1,033 kg / cm2 comparable a una columna de agua de 10,33 m ó de Hg de 759 mm.-
286
Soluciones T.P. Nº 1 1)
p = γ.h γagua = 1 kg / dm 3
p = (presión ) = γ (peso específico en los líquidos) × h (altura) F p= F = fuerza en los sólidos S = sup erficie S
= 1000 g / dm 3 = 1 g / cm 3 ∴ p 1 = 1 g / cm 3 × 1050 cm = 1050 g / cm 2 = 1,05 kg / cm 2 p 2 = 1 g / cm 3 × 1520 cm = 1520 g / cm 2 = 1,52 kg / cm 2 2)
p = γ.h 0,15 kg / cm 2 p = = 150 cm γ 0,001 kg / cm 3 coef . seguridad 1,5 ∴ h ' = 1,5 h = 1,5 × 150 cm = 225 cm h=
3)
FA = ?
FB = 2000 kg
3 cm
24 cm
S A = πr 2 = 3,14 × (1,5 cm) 2 = 7,06 cm 2 SB =
pA =
3,14 × (12 cm) 2 = 452,16 cm 2
FA FB F .S 2000 kg.7,06 cm 2 = ∴ FA = B A = = 31,2 kg SB SA SB 452,16 cm 2
287
FA SA
pB =
FB SB
4)
P = peso V = volumen E = empuje
P E = V V ∴ E = γ.V γ=
20 cm
φ = 10 cm ↑E E = Vsumergido .γ líquido = 3,14 × (5 cm) 2
2 20 cm × 1 g / cm 3 3
= 1046 g γ=
1046 g P P ∴V = = = V γ 1,3 g / cm 3
5) Recordando que 1 Pascal = 1
804 cm 3
Newton Kg.m Kg.cm =1 = 100 seg 2 .m 2 seg 2 .m 2 m2
Resulta: 1013 Hp = 101300
Kg.m Kg.cm Kg = 1013 = 1013 2 2 2 2 2 seg .m seg .cm seg .cm
Y por otra parte, y siendo: →
1 Kg ( fuerza ) = 1 Kg (masa). g (aceleración de la gravedad)
288
se deduce que: → Kg 981 cm Kg Kg 1,033 = 1,033 . ≅ 1013 2 2 2 cm seg seg . cm cm 2 Igual resultado que el cálculo anterior. Queda al lector calcular en forma similar (con cierta facilidad), que es equivalente a los valores anteriores, el de una columna de agua de 10,33 m y (con no mucho más trabajo) el de una columna de mercurio de 759 mm.
289
Trabajo Práctico Nº 2 1- En una cañería de diámetro 10 cm. circula un líquido a una velocidad de 2 m/seg. Si el diámetro disminuye a 2” y se mantiene constante el caudal, ¿cuál será la velocidad en la sección reducida ? 2.- Sabiendo que la constante K de BERNOULLI en una cañería vale 632 g/cm2, que en una sección determinada la altura es de 1,20 m. con respecto a la cota de referencia, la presión igual a 0,5 kg/cm2 y el líquido que circula es aceite lubricante (γaceite = 0,8 kg/dm3 ) establecer la velocidad del líquido en dicha sección. 3.- Una cañería horizontal contiene agua. Estando en reposo, su presión hidrostática es de 952 g/cm2. Determinar que sucede cuando el agua circula una velocidad de 4 m/seg 4.- Por una cañería horizontal de 18 cm2 de sección, circula agua a una presión de 0,45 kg/cm2. Si la sección se reduce a la mitad y la presión a 0,32 kg/ cm2 cuántos litros fluyen por el tubo en un minuto? 5.- En un recipiente de gran sección lleno de agua y a 1,20 m debajo de la superficie libre se realiza un agujero circular de 5cm de radio. Calcular: a) La velocidad de salida del agua. b) El caudal. Suponer invariable el nivel del recipiente.
291
Soluciones T.P. Nº 2 1)
Q1 = A 1 × v1 Q 2 = A 2 × v2
Q1 = Q 2
2' ' = 5 cm
10 cm
caudal = sección × velocidad A 1 .v1 = A 2 .v2
m = π v2 2.v2 seg cm 3,14 (5cm) 2 .200 = 3,14 (2,5cm) 2 .v2 seg π v1.2
v2 = ?
m v1 = 2 seg
Unidades sugeridas
cm seg
cm 3 15700 = 19,625 cm 2 .v2 seg cm 3 15700 cm m seg v2 = = 800 = 8 2 seg seg 19,625 cm γ (peso específico) g (aceleración gravedad) Unidades sugeridas g 0,8 3 2 g cm = 0,00081 g seg cm δ = cm cm 4 seg 980 seg 2 1 g p1 + δv12 + γ h 1 = K (constante de Bernoulli) = 632 2 2 cm 2 g seg g 1 g g 500 2 + 0,00081 v1 2 + 0,8 3 .120cm = 632 2 4 2 cm cm cm cm 2 2 g seg g g g 1 + 96 2 = 632 2 500 2 + 0,00041 v 4 cm cm cm cm
2)
δ (densidad) =
292
g cm 2 h = 1,20 m kg p = 0,5 2 cm kg γ = 0,8 3 dm
K = 632
v1 =
632
g g g − 500 2 − 96 2 2 cm cm cm = 296 cm 2 seg g seg 0,00041 4 cm
comprobaci ón 2
g seg 2 g g 1 cm g 296 + 0,8 .120 cm = 632 500 + 0,00081 2 4 2 32 2 seg cm cm cm cm 2 g 1 3 g seg 2 γ cm 3) (agua) δ = = ≅ 0,001 cm Unidades sugeridas g cm 4 980 2 g seg cm 1 1 seg p1 + δv12 = p 2 + δv2 2 2 2 2
g seg 2 g seg 2 g 1 1 cm 0,001 .0 p 0,001 . 400 952 + = + 2 2 4 4 seg 2 2 cm cm cm 14444244443 80
952
4)
g
cm 2
g g = p 2 + 80 2 cm cm 2 g g g p 2 = 952 − 80 = 872 2 2 2 cm cm cm
Q = Av
A 1 v1 = A 2 v 2 A 1 v2 = A 2 v1
caudal = sección x velocidad
A 1 = 18cm2
18 cm 2 v2 v2 = ∴ = 2 ⇒ v2 = 2v1 v1 v1 9 cm 2 1 1 p 1 + δ v1 2 = p 2 + δ v2 2 2 2
293
A 2 = 9 cm 2
g seg 2 g seg 2 g 1 g 1 2 + 0,001 + 0,001 (2v1)2 .v1 = 320 450 2 4 2 4 { 2 2 cm cm cm cm 2 4v1
2
450
2
g seg g seg g g v1 2 = 320 v1 2 + 0,0005 + 0,002 2 4 2 4 cm cm cm cm
0,0005
2 g seg 2 2 − 0,002 g seg . v1 2 = 320 g − 450 g . v 1 cm 4 cm 4 cm 2 cm 2 g seg 2 g . v1 2 = −130 − 0,0015 4 cm cm 2
∴ 0,0015
g seg 2 2 g .v1 = 130 2 cm cm 4
g cm cm 2 cm 2 = = 294,4 86666 66 v1 = , 2 2 seg g seg seg 0,0015 4 cm cm cm v2 = v1 = 2x 294,4 = 588,8 seg seg 130
A 2 = 9cm 2
A 1 = 18 cm 2 v1 = 294,4
cm seg
v2 = 588,8
p 1 = 0,45 kg/cm 2
p 2 = 0,32 kg/cm2
Q 1 = A 1 v1 = 18 cm 2 .294,4
cm cm 3 = 5300 seg seg
Q 2 = A 2 v 2 = 9 cm 2 .588,8
cm cm 3 = 5300 seg seg
5300
cm seg
cm 3 dm 3 l l = 5,3 = 5,3 = 318 seg seg seg min
(5,3 × 60) 1 min = 60 seg
294
5)
a) v = 2gh
Torriccelli
v = 2.980 = 485
cm cm 2 = 235200 .120 cm seg 2 seg 2
cm seg
cm seg g (aceleración de la gravedad) = 980 cm2 seg
2 b) Q = A.v = π.r .v
= 3,14.(5 cm ) .485 2
= 38072
Unidades sugeridas
cm seg
cm 3 seg
295
Trabajo Práctico Nº 3 1.- La longitud de una columna de mercurio de un termómetro es de 4 cm cuando se sumerge en agua con hielo y de 24 cm cuando el termómetro se coloca en agua hirviendo . a) Cuál será su longitud en una habitación a 22 ºC ? b) Si la columna de mercurio mide 25,4 cm cuando el termómetro se coloca en una solución química hirviendo, cuál será la temperatura de la solución expresada en grados Kelvin y Farenheit ? 2.- Calcular que dilatación tendrá una losa de hormigón armado de 60 m de largo desde los días más fríos del año ( -5 ºC ) hasta los más calurosos del verano ( 40º C ) . Si se dividiera la losa en dos paños de 30 m cada uno ¿Qué medida debería tener la junta a fin de que no lleguen a tocarse? αhormigón armado = 11 x 10-6 = 0,000011 3.- Un recipiente térmicamente bien aislado contiene 500 gramos de agua a 18,3 ºC. Se introduce un trozo de aluminio de 100 gramos a 100 ºC. Calcular cuál será la temperatura final del agua y del aluminio al llegar al equilibrio ?. Ce aluminio = 0,217 cal / g ºC 4.- Qué cantidad de calor hay que entregar a 35 g de hielo que se hallan a - 17 ºC para pasar a 35 g de vapor a 130 ºC ? Representar el proceso en un par de ejes coordenados ( calor temperatura ) Ce hielo = 0,48 cal / g ºC Ce agua = 1 cal / g ºC Ce vap = 0,45 cal / g ºC
Cl hielo = 80 cal / g Cl vapor = 540 cal / g
5.- Un local habitable está cerrado al exterior por una pared de 4 m de largo por 2,60 m de alto y 0,30 m de espesor de ladrillos huecos con una ventana de 1,50 x 1,10 m con un vidrio de 3,5 mm de espesor. Si la temperatura exterior es de -5 ºC y la interior es de 20 ºC, calcular la cantidad de calor que debe ser suministrada a la habitación en el lapso de una hora y media para compensar las pérdidas de calor por conducción a través del muro y la ventana.
297
= 0,7 kcal. ./ m . H . ºC λ vidrio λ mampostería = 0,52 kcal . / m . H . ºC
6.- Calcular la resistencia térmica de un techo construído con una cubierta de tejas francesas sobre entablonado de madera con fieltro asfáltico. Se pide además: a) La resistencia térmica del techo agregando una capa de lana de vidrio sobre el fieltro. b) Idem anterior agregando un cielorraso suspendido de yeso. DATOS
ESPESOR (m)
λ kcal . m m2. H . ºC
_______________________________________________________ teja 0,01 0,600 fieltro 0,001 0,160 madera 0,012 0,125 lana de vidrio 0,025 0,038 ciel. de yeso 0,015 0,550 _______________________________________________________
R. ático = 0,70
αe =
20
2
m . H . ºC Kcal.
Kcal. 2
m . H . ºC
αi =
7
Kcal. 2
m . H . ºC
298
Soluciones T.P. Nº 3 1) 100º
24 cm 0º
20 cm
22º 0º
0º
4 cm 0ºC
a) 100º 1º 22º x = 4,4 cm + 4 cm =
b) 20 cm 1 cm (25,4 cm - 4 cm) 21,4 cm
100ºC
20 cm 20 cm 100º 20 cm × 22º = 4,4 cm 100º 8,4 cm 100º 100º 20 cm 100º×21,4 cm = 107º C 20 cm
5 (º F − 32 ) 9 9 º F = º C + 32 5
ºK=ºC+273
224º F
ºF
ºC
ºK
212
100
373
32
0
273
-273
0
299
4
cm
8,4 cm
22ºC
ºC =
9 º F = 107º C + 32º C = 5
4,4 cm X?
373ºK
100ºC
273ºK
0ºC
0ºK
-273ºC
107ºC + 273ºC =
380ºK BC = Al
2) A
lo = 60 m
A
α(coeficiente dilatación) = Al = lo.º C.α
B
lf = lo (1 +α.At) 60 m (1 + 0,000011 . 45º) 60 m (1,000495) 60,0297 m
C
lf
Al = 60 m . 45ºC . 0,000011 = 0,0297 m = 2,97 cm ≅ 3 cm 7,5 mm
7,5 mm
7,5 mm
30 m
7,5 mm 30 m
Junta = 1,5 cm 3)
H2O.500g (18,3ºC)
Al.100g (100ºC) Ce
Calor específico cap. calórica del material
lf − lo lo.º C
cal Q cant. calor(Kcal) = At (º C). m (g) gº C diferencia temp. (tºf – tºi)
300
Q = Ce . At . m
cal (100º−tº f )100g gº C cal (tº f − 18,3º ) 500g =1 gº C
Q AI = 0,217 Q agua 0,217
Q AI = Q agua 100º − tº f tº 18,3º 1f4−2 43
para que dé positivo
cal (100º− tº f )100g = 1 cal (tº f − 18,3º )500g gº C gº C 2170 − 21,7tº f = 500tº f − 9150 2170 + 9150 = 500tº f + 21,7tº f 11320 = 521,7tº f 11320 = 21,7º C tº f = 521,7
4)
calor sensible
calor latente
Q = Ce . At . m cal Q h = 0,48 .17º C . 35g = 285 cal gº C cal Qa = 1 .100º C . 35 g = 3500 cal gº C cal Q u = 0,45 . 30º C . 35 g = 472 cal gº C 4257 cal cal Q f = Clf . m = 80 . 35g = 2800 cal g cal Q v = Clv . m = 540 . 35 g = 18900 cal g 21700 cal Qtotal= 25957 cal
301
ºC 130 sensible latente
100
sensible
0
latente cal
sensible -17 L 2800
/ /
285 S
/
3500 S
L 18900
/
/ /
472 S
ext = -5ºC
e = 3,5 mm
λ e
coeficiente conductancia térmica
e λ
coeficiente resistencia térmica
int = 20ºC
1,1 m
2,60 m
5)
1,5 m 4m
030 m
S sup .(t 1 − t 2 )
dif tº
(Fourier) Q cant. calor = λ coef. conductiblidad térmica 0,52 Q pared =
Kcal m m2 h º C
.h
tiempo
e espesor
[(2,6 m × 4 m ) − (1,50 m ×1,10 m )]25º C .1,5 h 0,30 m
= 568 Kcal
302
0,7 Q vent =
Kcal m (1,50 m ×1,10 m) 25º C .1,5 h m2 h º C 0,0035 m
= 12375 Kcal Q total = Q pared + Q vent = 568 Kcal + 12375 Kcal = 12943 Kcal
6)
R resistencia térmica =
1 K conductancia
fieltro
/ / /
=
1 αi coef.pelicular de conductibilidad
Teja entablonado
1 0,01 0,001 0,012 1 + + + + 7 0,6 0,16 0,125 20 = 0,143 + 0,017 + 0,006 + 0,096 + 0,05 R1 =
m2 h º C Kcal 0,025 = R 2 = 0,312 + 0,038
= 0,312
R 3 = 0,97 + 0,070 +
0,97
m2 h º C Kcal
0,015 = 1,70 0,55
m2 h º C Kcal
303
+
ei
1
∑ λi + αe + R
CA
Trabajo Práctico Nº 4 1.- La velocidad de una onda en cierto movimiento vibratorio es de 360 m/seg. Si la longitud de onda es de 3 metros, cuál es el período y la frecuencia? ¿Es audible al ser humano? 2.- El oído humano puede detectar ondas sonoras entre frecuencias de 20 a 20.000 Hertz. Calcular la longitud de onda correspondiente a estos valores para el sonido en el aire y en el agua. ◊ velocidad del sonido en el aire 340 m/seg ◊ velocidad del sonido en el agua 1500 m/seg 3.- Representar gráficamente el movimiento de una gota de agua que al ser alcanzada por una onda vibra con un período T = 0,6 seg. y una amplitud de 1 cm. ¿Cuál es la elongación al cabo de 0,2 seg.? 4.- Si se tiene una pared de ladrillos revocada de 30 cm de espesor (γ mampostería = 1.600 kg / m3 ): a Determinar que reducción sonora se puede obtener con la misma para una frecuencia sonora de 1.000 ciclos / seg. b Cuál sería esa reducción si la pared fuera de 15 cm y del mismo material. c Analizar como se modifica la eficacia de la pared al variar las frecuencias. 5.- El tabique separador de dos oficinas (de dimensiones 4,00 m x 2,60 m) se construyó con bloques de hormigón de 5 cm revocado de ambos lados, con una puerta de 0,70 x 2,00 m de vidrio de 6 mm con estructura de hierro. Calcular que aislación sonora se obtiene para una frecuencia de 1 khz. Analizar qué ocurre si se practica en el tabique anterior una abertura de 20 cm x 20 cm. 6.- Calcular cuántas veces aumenta la intensidad de un sonido de 10 db. si el nivel de intensidad se duplica. ¿y si se triplica? (vale decir es de 30 db) 7.- Un automóvil tiene un caño de escape imperfecto generando un ruido de 90 db. Si el máximo ruido permitido en los reglamentos para este tipo de vehículo es de 80 db. calcular en qué porcentaje de intensidad de sonido se excede el valor permitido. 8.- Recordando que el sonido se propaga en forma tridimensional, se tiene una fuente sonora que emite sonido con una potencia de 100 watts. Cuál será la presión
305
incidente en el oído si se supone la distribución sonora homogénea, despreciando la energía absorbida por el aire y que el receptor se encuentra a 3 m de la fuente citada. Indices de aislación para particiones simples (en db) Frecuencias Partición 1. Planchas de amianto 6 mm s/estruct. acero (bastidor) 8,3 kg/m2 2. Planchas de amianto 12 mm s/estruct. madera (bastidor) 9,3 kg/m2 3. Aglomerado 1 cm s/bast. 2 madera, 13 kg/m 4. Vidrio 6 mm s/estruct. de metal, 16,5 kg/m2 5. Vidrio 9 mm s/estruct. de madera. 25 kg/m2 6. Paneles de yeso 9,3 mm 2 s/bast. madera. 9,3 kg/m 7. Madera terciada 1 mm 1 kg/m2 8. Idem 7. de 9 mm 5,4 kg/m2 9. Planchas de pino americ. 2 espesor 2,2 cm. 9,7 kg/m 10. Placas de caoba 5,1 cm 24 kg/m2 11. Pared de ladrillos 12 cm 185 kg/m2 12. Idem 11 revocada una cara con 9 mm espesor 210 kg/m2 13. Idem 11 revocadas ambas caras 1,2 cm esp. c/u. 259 kg/m2 14. Bloques de H0 ( con agreg. clinquer) de 5 cm revoc. ambos lados 1,2 cm 98 kg/m2 15. Poliestireno expandido 4,5 cm esp. frenteado con hardboard de 3mm a cada lado. 7,8 kg/m2
125
250
500
1000
2000
3150
Prom
13
24
29
33
38
25
18
13
16
20
25
24
25
21
17
22
27
30
32
31
26
20
23
26
30
29
35
27
23
26
30
32
32
39
29
15
20
24
30
33
35
26
5
6
10
12
17
20
11
13
17
22
25
26
22
20
16
20
21
23
29
32
22
20
23
25
30
37
42
28
36
38
40
46
54
57
43
--
36
38
48
57
62
--
30
35
41
48
54
58
53
29
34
30
40
46
51
37
8
17
19
22
19
39
20
306
Soluciones T.P. Nº4 v( velocidad) = 1) T = f =
λ (longitud de onda) T(período)
f (frecuencia) =
1 1 ∴ T= T f
λ 3m = = 0,0083 seg v 360 m seg
1 1 oscilaciones = = 120 Hz T 0,0083 seg seg
ciclos Audible: de 20 a 20000 Hz seg 1 f
2) λ = v . t = v . = 1
aire 2
1
agua 2
v f
m v 340 seg = = 17 m f 20 Hz 340 m seg v λ= = = 0,017 m f 20000 Hz
λ=
m v 1500 seg λ= = = 75 m f 20 Hz m 1500 seg v λ= = = 0,075 m f 20000 Hz
} . t 3) e (elongación) = a (amplitud) . sen 2Tπ º Si t = 0 seg e = 1 cm . sen 0,360 60seg .0 seg = 0 cm 360 º = oscil . compl .
(
Si t = 0,30 seg Si t = 0,15 seg Si t = 0,075 seg Si t = 0,20 seg
)
e = 1 cm . sen(600 . 0,3 seg ) = 0 cm e = 1 cm . sen (600.0,15 seg ) = 1 cm e = 1 cm . sen (600.0,075 seg ) = 0,707 cm e = 1 cm . sen(600.0,02 seg ) = 0,866 cm
307
e(cm) 1cm 0,866cm 0,707cm
0,075
4)
0,15
0,20
t(seg)
0,30
0,60
P Densidad superficial 2 m
a)
σ = esp.γ = 0,30m.1600
Kg m
∴ 480
Kg m
2
.
m
2
Kg m
2 Kg Hz m
Kg m
Kg
= 480
1000 ciclos / seg (Hertz) = 480000
b) σ = esp.γ = 0,15m.1600 ∴ 240
3
3
= 240
tablas) (de → 67db
2
Kg m
2
1000 ciclos / seg (Hertz) = 240000
.
Kg Hz m
2
(de tablas) → 60db
c) Si aumento la frecuencia f = 2000 Hz y mantengo los espesores será: Para 0,30m 480
Kg m
2
.
2000 Hz = 960000
Kg Hz m
2
(de tablas)
→ 70 db
Para 0,15m 240
Kg m
2
.
2000 Hz = 480000
Kg Hz m
2
(de tablas)
→ 67 db
Si disminuyo la frecuencia f = 500 Hz y mantengo los espesores será:
308
Para 0,30m 480
Kg m
2
.
500 Hz = 240000
Kg Hz m
(de tablas)
→ 60 db
2
Para 0,15m 240
Kg m
2
.
500 Hz = 120000
Kg Hz m
(de tablas)
→ 52 db
2
se aislan mejor que
Las frecuencias altas (agudos) T
las frecuencias bajas (graves) T
5)
S = 2,60m . 4m – (0,70m . 2m) = 9m2
1
1
e=5cm
70
260
2
S = 0,70m . 2m = 1,40m2 2
e=6mm
200
400
R ( resistencia o capacidad de aislación) = 10 log10 1 te
te = Coef. de transmisión efectiva aérea del sonido
R1= 40 db (de tabla) R2= 30 db (de tabla) 1 1 1 1 40 = 10 log 4 = log 10 ⇒ 10 4 = ⇒ t e = 10 −4 = 0,0001 10 1 te te te 2
1 30 = 10 log10 te te =
∑ t .S i
3 = log 10 2
1
1
1
1 1 ⇒ 10 3 = ⇒ t e = 10 −3 = 0,001 te te 2 2
2
i
S total 309
te
=
t e 1S 1+ t e S
cerr
2
Stotal
0,0001. 9 m 2 + 0,001. 1,40 m 2 0,0009 + 0,0014 = = 0,000221 10,40 9 m 2 + 1,4m 2
R total = 10 log10
1 0 , 000221
con el agujero 1 R = 10 log10 te
3
0 = 10 log10
R = 10 log10
= 36,5 db
1 1 1 1 = log10 ∴ 10 0 = ⇒1= ∴ t e 3= 1 te3 te 3 te3 te 3
t e cerr = 0,000221 +
6)
=
2
0,2m x 0,2m x 1 = 0,000221 + 0,00384 = 0,004067 10,40m 2
1 0 , 004067
= 23,9 db
β (nivel de intensidad sonora en db ) = 10 log I β = log 10 I0
β
⇒ 10 10 =
I I0
β
10 ( db ) 10
β
20 ( db ) 10
β
30 ( db ) 10
I a = I 0 . 10 10 = 10 −16 10 I b = I 0 . 10 10 = 10 −16 10 I a = I 0 . 10 10 = 10 −16 10 7) β = 90 db
I I0 ∴
Intensidad mínima audible=10-16
I = I 0 . 10
β 10
10 veces 100 veces = 10 −16 100 −16 = 10 1000
= 10 −16 10
β1 = 80 db
Cálculo auxiliar. -8 _____ 100% 10 I a = I 0 . 10 = 10 . 10 = 10 1000 veces −5 −7 2 80 10 10 10 3 10-7_____ x = = 10 = 1000 veces = I b = I 0 . 1010 = 10−16. 108 = 10− 8 −8 −8 10 10 Vf − Vi 10−7 −10−8 10−7 10−8 %= 100% = 100% = − = (10 −1) 100% = 9.100% = 900% Vi 10−8 10−8 10−8 90 10
8)
−16
9
−7
S = 4 π r 2 = 4 π (3 m ) = 4 π 9 m 2 = 36π m 2 ≈ 113 m 2 = 1 130 000 cm 2 100W W I= = 0,0000884 = 8,84 . 10 −5 2 1 130 000 cm cm 2 2
310
Trabajo Práctico Nº 5 1.- La resistencia de un alambre es de 10 Ω. Calcular la resistencia del mismo material pero: a.- de la mitad de longitud. b.- un diámetro una cuarta parte mayor. c.- del doble de largo y el diámetro reducido a la mitad. 2.- Un circuito sencillo funciona con un acumulador de 24 V. y contiene una resistencia de 120 Ω. Cuánto vale la intensidad de la corriente? 3.- Calcular la intensidad de los siguientes circuitos dando circuitos equivalentes. a) 3Ω
2Ω
10 V
b)
10V
2Ω
3Ω
311
4.- Indique la diferencia de potencial entre los puntos indicados 3Ω 4Ω
1Ω A
B
D
E
C F
100 V
2Ω
G
VAB VBC VCD VDE VAH
H
5.- Calcular la corriente que atraviesa un calentador de 120 watts que funciona a 120 V. 6.- Suponiendo que la ley de Ohm vale para corriente alterna, calcular la intensidad de la corriente que circula por: a.- una lámpara de 100 watts. b.- una lámpara de 25 watts. c.- una lámpara de 60 watts. d.- el cable de entrada a la casa si tiene funcionando 10 lámparas de 60 watts y un acondicionador de 2500 watts. 7.- Calcule la potencia disipada por los circuitos del ejercicio 3a y 3b especificando la potencia que disipa cada elemento. 8.- Cuánto tiempo habría que tener encendido un calentador eléctrico de 100Ω de resistencia conectado a una red de 220 V para hervir 10 litros de agua que están a una temperatura de 17 ºC, si todo el calor que produce el calentador pasa directamente al agua.
312
Soluciones T.P. Nº5 Ley de Ohm I(intensidad) (amperios) =
R= a)
ρl S
V(diferencia de potencial) (voltios) R (resistencia) (ohms)
l = longitud S = sec ción
R = 10 Ω
l
= 10 Ω
S1
2
ρ l1 = 2 S1
R = 10 Ω
R1
=
10 Ω =5Ω 2
S 2 = π (r1 + 14 r1 )
2
S1 = π r12
Rb =
ρ l1
R1 =
l ρ 1 2 Ra = S1
c)
ρ l1
π (r1 + r
1 4 1
)
2
=
ρ l1
π( r
5 4 1
)
2
=
ρ l1
R1
()
5 2 4
πr
2 1
=
10 Ω 25 16
R = 10 Ω 2
l 3 = 2 l1
r S3 = π 1 = 2
8 ρ l1 ρl ρ2l Rc = 3 = S 1 = 1 S3 S1 4 2)
V I
ρ = coef. de resistividad
(2 ª Ley de Ohm )
l1 S1 ρ
b)
⇒ R=
I=
π r12 2
S1
=
S1 4
R1
= 8.10 Ω = 80 Ω
V 24 V = = 0,2 A R 120 Ω
313
=
160 Ω = 6,4 Ω 25
3) Circuito en serie R = R1 + R 2 Circuito en paralelo R + R1 R 2 R1 1 1 1 = + = 2 ⇒ R= R R1 R 2 R 1R 2 R1 + R 2 10 V 10 V V a) I = = = =2A R1 + R 2 2 Ω + 3 Ω 5 Ω b) 1 1 1 1 1 3+ 2 5 6 = + = + = = ⇒ R= Ω R R1 R 2 2 Ω 3 Ω 6 Ω 6 Ω 5 V 10 V 50 V I= = 6 = = 8,33 A R Ω 6 Ω 5 10 V 50 V V Otro camino I = = 6 = = 8,33 A R 1R 2 6Ω 5 Ω R1 + R 2
4) I
I
R I
I1
I
I2
R
V
V I
R1
R2 I1 I
314
I2
I1 R 1 = I 2 R 2
I1 R 2 = I2 R1
⇒
R t = R s + R p = (1 Ω + 4 Ω ) +
3Ω.2Ω 6 31 =5Ω+ Ω = Ω 3Ω+2Ω 5 5
V 100 V = 31 = 16,1 A R 5 Ω VAB = I . R = 16,1 A . 1 Ω = 161 V VBC = I . R = 16,1 A . 4 Ω = 64,4 V VCD = I . R = 0 (No hay resistencia)
I=
I1 R 2 2 Ω 2 = = ∴ I1 = I 2 I2 R1 3 Ω 3 I1 + I 2 = 16,1 A =
2 3
I 2 + 33 I 2 = 53 I 2 ∴ I 2 =
16,1 A 5 3
= 9,66 A
I1 = 16,1 A − 9,66 A = 6,44 A VDE = I1 . R 1 = 6,44 A . 3 Ω = 19,32 V VFG = I 2 . R 2 = 9,66 A . 2 Ω = 19,32 V ∴ 16,1 V + 64,4 V + 19,32 V ≅ 100 V VAH = 100 V 5)
P(potencia) (Watt) = V(diferencia de potencial) (voltios) . I(intensidad) (amperios) ∴ I=
P 120 W = =1A V 120 V
P 100 W = = 0,45 A V 220 V 25 W = = 0,113 A b) I = 220 V 60 W c) I = = = 0,27 A 220 V
6) a) I =
315
d) I = 7)
=
3100 W = 14,09 A 220 V
P = V.I 3a) I = 2A ∴ P = V . I = 10 V . 2 A = 20 W A
C
B
VAB = I . R = 2A . 2Ω = 4V P = V . I = 4V . 2A = 8W VBC = I . R = 2A . 3Ω = 6V P = V . I = 6V . 2A = 12 W
3Ω
2Ω
20 W
3b)
I = 8,33A P = V . I = 10V . 8,33A = 83,3W A 10V
C 3Ω
2Ω
D
B
I1 R 2 = I2 R1
⇒ I1 . R 1 = I 2 . R 2
I1 . 2 Ω = I 2 . 3 Ω ∴ I1 =
2 . 8,33 A 3 5 I 2 + I 2 = 8,33 A ⇒ I 2 = 8,33 A ∴ I 2 = = 3,33 A 2 2 5 3 3 I1 = I 2 ⇒ I1 = 3,33 A = 5 A 2 2 VAB = I1 . R 1 = 5 A . 2 Ω = 10 V VCD = I 2 . R 2 = 3,33 A . 3 Ω = 10 V PAB = VAB . I1 = 10 V . 5 A = 50 W PBC = VCD . I 2 = 10 V . 3,33 A = 33,3 W
316
83,3 W
3 I2 2
8)
Q = 0,24 . P . t
pero cal Q = m . C G . ∆t = 10 000g 1 83º = 830 000 cal g V2 V V P =V.I ⇒ I= ⇒ I=V = R R R V2 ∴ Q = 0,24 .t R Q 830 000 cal t= .t = = 7145 seg = 119 min = 1 h 59' 2 V (220V) 2 0,24 0,24 100 Ω R
O también Q = 0,24 R I 2 . t
R = 100 Ω V = 220 Volt V 220V I= = = 2,2 A R 100 Ω
830 000 cal = 0,24 100 Ω (2,2 A ) 2 . t 830 000 cal t= = 7145 seg 0,24 100 Ω (2,2 A) 2
317
Trabajo Práctico Nº 6 1.- Un foco de I = 70cd se encuentra a 3 m de altura del piso de una habitación. Calcular: a La iluminación en los puntos situados en la intersección de la vertical que pasa por el foco con el plano del piso y con el plano de una mesa a 0,80 m del piso. b Idem en las intersecciones de un rayo luminoso que forme un ángulo de 60º con la vertical con respecto a los mismos planos. c A qué distancia habría que ubicar el plano de la mesa con respecto al piso para que la iluminación de la mesa sea el doble de la del piso. 2.- Una lámpara incandescente de 100 W ubicada en el vértice superior derecho de un tablero de dibujo que mide 1,10 m de largo por 0,80 m de ancho con un rendimiento de 18 Lum / watt y una distribución semiesférica produce en el borde superior derecho una iluminación de 1000 Lux. Calcular: a La distancia a que se encuentra la lámpara del tablero. b Cuál será la iluminación en el vértice inferior izquierdo si la intensidad de la lámpara es la misma en todas las direcciones. 3.- Calcular a qué distancias deberán ubicarse dos lámparas incandescentes de 75 y 100 W respectivamente que iluminan cada una una cara de una pared, para que la iluminación sea la misma en ambas caras (Eficacia 16 Lum / watt). 4.- Dos lámparas de 20 y 40 cd. están separadas una distancia de 10 m. Determinar dos puntos, sobre una recta que las une, en que las iluminaciones producidas por ambas sean iguales. 5.- Calcular el flujo luminoso necesario para lograr una iluminación de 110 Lux en una superficie equivalente a la del tablero del ejercicio 2.-
319
Soluciones T.P. Nº 6 1)
E (iluminación) a)
(lux)
=
I(intensidad) (cd) d 2 (distancia) (m 2 )
I=70cd
2,20m
3m
E2 φ ⇒ φ= I.W W E = φ ⇒ φ = E . sup sup I=
0,80m
E1
E1 = 70 cd = 70 cd = 7,77 lux (3m )2
9 m2 E2 = 70 cd 2 = 70 cd 2 = 14,46 lux (2,20m ) 4,84 m b) 60º d2
d1 d=2,20 m
E4
3m
0,80m
ε2
cat ady d 2,20 m d = ∴ d1 = = = 4,40 m hipot d1 cos 60º 0,5 3m d2 = =6m cos 60º E1 = I2 . cos 60º = 70 cd 2 . 0,5 = 1,8 lux d1 (4,40m ) E2 = I2 . cos 60º = 70 cd2 . 0,5 = 0,97 lux d2 (6 m ) cos 60º =
320
c)
E2 = 2 E1 = 2 . 7,77 lux = 15,54 lux E2 = I ∴ d = I = 70 cd x
d 2x
ε2
15,54 lux
= 2,12 m
I=70cd
2,12m
0,88m
2)
φ (flujo luminoso) (lumen) = R ( rendimiento).W
I(intensidad) (cd) =
φ <) sólido
a) φ = 18 lum / W.100 W = 1800 lum φ 1800 lum I= = = 286 cd 2π 6,28
ε=
I d2
∴ d=
I = ε
286 cd = 0,53 m 1000 lux 100 W α 0,53m d 90º 1000 lux
0,80m
D
1,10m
321
D 2 = (0,80 m ) + (1,10 m ) 2
d 2 = (0,53 m ) + (1,36 m ) 2
2
⇒ D=
2
⇒ d=
(0,80 m )2 + (1,10 m )2 (0,80 m )2 + (1,10 m )2
= 1,36 m = 1,46 m
cat ady 0,53 m = = 0,36 hipot 1,46 m E = I2 . cos α = 286 cd2 . 0,36 = 48 lux d (1,46m ) cos α =
3)
75 W 1
100 W
ε1 ε2
φ1
φ2
21
d2
d1
Rend = 16 lum / W φ1 = 16 . 75 W = 1200 lum φ 2 = 16 . 100 W = 1600 lum I=
φ <) sólido
E1 = E2 1200 lum <) sólido d 12
φ1 φ2 1200 lum 1600 lum = I2 = = <) sólido <) sólido <) sólido <) sólido I I E1 = I12 E2 = I 22 ∴ 12 = 22 d1 d2 d1 d 2 1600 lum 1200 lum 1600 lum <) sólido = ⇒ = d 22 d 12 d 22 I1 =
322
1200 lum . d 22 = 1600 lum . d 12 ⇒ d2 = d1 4)
d 22 = d 12
d 22 1600 lum = ⇒ d 12 1200 lum
1600 lum 1200 lum
1600 lum ≅ 1,15 ⇒ d 2 = 1,15 d 1 1200 lum A
B
I2=40cd •
I1=20cd
•
•
d1
d1
d2
10 m
E1 = E2
I1 I = 22 2 d1 d 2
⇒
20 cd 40 cd = d 12 d 22
⇒ 20 d 22 = 40 d 12
Pero d 1 + d 2 = 10 m ⇒ 20 (10 m − d 1 ) = 40 d 12 20 (100 m 2 − 20 m d 1 + d 12 ) = 40 d 12 ⇒ 2000 m 2 − 400 m d 1 + 20 d 12 = 40 d 12 2
2000 m 2 − 400 m d 1 + 20 d 12 − 40 d12 = 0 ⇒ 2000 m 2 − 400 m d 1 − 20 d 12 = 0 2000 m 2 − 400 m d1 − 20 d12 = 0 ⇒ − 20 d12 − 400 m d1 + 2000 m 2 = 0 Recordando que ax 2 + bx + c = 0 ⇒ x = d1 =
400 m ±
(− 400m )2 − 4.(−20).2000m 2 − 40
− b ± b 2 − 4ac 2a =
d = 24,14m 400m ± 565,68m = 1' − 40 d 1 = 4,14m
Los puntos a y b son ambos soluciones válidas
323
Luego
A
B
I2=40cd •
I1=20cd •
24,14
4,14
10-4,14=5,86
Verificación: 1) I1 I 20 cd 40 cd = 22 ⇒ = ⇒ 1,1668 ≅ 1,1648 2 2 d1 d 2 (4,14m) (5,86m) 2 20 cd 40 cd 2) = ⇒ 0,03432 ≅ 0,03431 2 (24,14m) (34,14m) 2 φ(flujo) (lumen) 5) ε (iluminación) (lux) = S(superficie) (m 2 )
φ = ε . S = 110 lux (0,80 m . 1,10 m) = 96,8 lum
324
Trabajo Práctico Nº 7 1.- Determinar altura y azimut del sol los siguientes días a las 12 horas solares en las latitudes que se indican: DIA a - 21 / 3 b - 21 / 12
LATITUD 70º S 24º N
2.- Determinar altura y azimut del sol los siguientes días y horas : DIA 21 / 2 21 / 4 15 / 9
HORA 14 12 18
3.- Cuál es el día y la hora en que el sol alcanza la máxima altura ? 4.- a) Determinar entre qué horas tendrá sol una fachada orientada al N el 21/ 1b) Idem si estuviera orientada al NE. c) Idem si estuviera orientada al O. 5.- Determinar qué sombra proyecta un mástil de 4 m de altura el día 23 / 10 a las 9 horas. 6.- Cuál será la saliente de un alero para evitar la entrada de la radiación solar a una habitación a través de una puerta balcón de h = 2 m orientada al ENE si la altura del alero es de 2,50 m durante el período 1/12 al 31/3 entre las 11,00 hs. y las 15.00 hs. Nota: los ejercicios 2 a 6 inclusive, se desarrollan para la ciudad de Buenos Aires ( Latitud 34º S )
325
Soluciones T.P. Nº7 1a)
1b)
trópico
2
E PS PN
70º
E
23º 70º
70º h
H
H
24º
H
H
h 24º PS
E
PN
E N
N
h = 90º −(24º +23º ) = 43º a = 0º (21/12 – el Sol recorre el trópico)
h = 90º −70º = 20º
a = 0º (21/03 – el Sol recorre el Ecuador)
2) Ver el ábaco a) b) c) 3) 22/12
h a 52º 55º NO 42º 0º N No se ve el Sol (Hay Sol hasta 17:50 hs.)
12hs.
h = 78º
4) a) b) c)
08:15 5 12
/ 15:45 hs. / 13 hs. / 19 hs.
326
5)
cat.op. 4m = cat.ady. S 4m 4m S= = = 4,44m tg 42º 0,9 tg 42º =
h=4m
42º del ábaco
S
6)
2,50m
48º
a
tg 48º =
2,5m a
∴ a=
2,50m 2,50m = = 2,25m tg 48º 1,11
327
Tablas Abaco correspondiente a una latitud de 34º Sur (como es el caso de Buenos Aires)
Latitud 34º
329
Ley de Masa Gráfico correspondiente a la Ley de Masas para determinar aislamiento acústica
330
Abaco de líneas dominantes de luz
331