viernes, 26 de noviembre de 2010

Edisson Altuve seccion 1 EES

Contaminación lumínica


Ciudad de México de noche, con el cielo iluminado por la contaminación lumínica en 2005
Los Ángeles de noche, con el cielo iluminado por la contaminación lumínica

La contaminación lumínica puede definirse como la emisión de flujo luminoso de fuentes artificiales nocturnas en intensidades, direcciones, rangos espectrales u horarios innecesarios para la realización de las actividades previstas en la zona en la que se instalan las luces.

Un ineficiente y mal diseñado alumbrado exterior, la utilización de proyectores y cañones láser, la inexistente regulación del horario de apagado de iluminaciones publicitarias, monumentales u ornamentales, etc., generan este problema cada vez más extendido.

La contaminación lumínica tiene como manifestación más evidente el aumento del brillo del cielo nocturno, por reflexión y difusión de la luz artificial en los gases y en las partículas del aire, de forma que se altera su calidad y condiciones naturales hasta el punto de hacer desaparecer estrellas y demás objetos celestes.

Es indudable que el alumbrado exterior es un logro que hace posible desarrollar múltiples actividades en la noche, pero es imprescindible iluminar de forma adecuada, evitando la emisión de luz directa a la atmósfera y empleando la cantidad de luz estrictamente necesaria allí donde necesitamos ver. Toda luz enviada lateralmente, hacia arriba o hacia los espacios en donde no es necesaria no proporciona seguridad ni visibilidad y es un despilfarro de energía y dinero.

Sobre este grave problema, hasta el momento, existe escasa conciencia social, pese a que genera numerosas y perjudiciales consecuencias como son el aumento del gasto energético y económico, la intrusión lumínica, la inseguridad vial, el dificultar el tráfico aéreo y marítimo, el daño a los ecosistemas nocturnos y la degradación del cielo nocturno, patrimonio natural y cultural, con la consiguiente pérdida de percepción del Universo y los problemas causados a los observatorios astronómicos.

Estos perjuicios no se limitan al entorno del lugar donde se produce la contaminación —poblaciones, polígonos industriales, áreas comerciales, carreteras, etc.—, sino que la luz se difunde por la atmósfera y su efecto se deja sentir hasta centenares de kilómetros desde su origen.

Desde comienzos de los años 1980 existen diferentes movimientos organizados de gente preocupada por este problema y que promueven campañas de prevención de la contaminación lumínica. Es posible aplicar medidas que, manteniendo un correcto nivel de iluminación, llevarían a prevenir el problema de la contaminación lumínica como las siguientes:

  • a) Impedir que la luz se emita por encima de la horizontal y dirigirla sólo allí donde es necesaria. Emplear de forma generalizada luminarias apantalladas cuyo flujo luminoso se dirija únicamente hacia abajo.
  • b) Usar lámparas de espectro poco contaminante y gran eficiencia energética, preferentemente de vapor de sodio a baja presión (VSBP) o de vapor de sodio a alta presión (VSAP), con una potencia adecuada al uso.
  • c) Iluminar exclusivamente aquellas áreas que lo necesiten, de arriba hacia abajo y sin dejar que la luz escape fuera de estas zonas
  • d) Ajustar los niveles de iluminación en el suelo a los recomendados por organismos como el Instituto Astrofísico de Canarias[1] o la Comisión Internacional de Iluminación.[2]
  • e) Regular el apagado de iluminaciones ornamentales, monumentales y publicitarias.
  • f) Prohibir los cañones de luz o láser y cualquier proyector que envíe la luz hacia el cielo.
  • g) Reducir el consumo en horas de menor actividad, mediante el empleo de reductores de flujo en la red pública o el apagado selectivo de luminarias. Apagar totalmente las luminarias que no sean necesarias.

Para medir la calidad del cielo, se utilizan escalas cómo por ejemplo la escala de cielo oscuro de Bortle.

El 20 de abril de 2007 se promulgó la Declaración de la Palma por el derecho a observar las estrellas, con el apoyo de la Unesco.

Edisson Altuve seccion 1 EES

Contaminación acústica


Se llama contaminación acústica (o contaminación auditiva) al exceso de sonido que altera las condiciones normales del ambiente en una determinada zona. Si bien el ruido no se acumula, traslada o mantiene en el tiempo como las otras contaminaciones, también puede causar grandes daños en la calidad de vida de las personas si no se controla adecuadamente.

El término contaminación acústica hace referencia al ruido (entendido como sonido excesivo y molesto), provocado por las actividades humanas (tráfico, industrias, locales de ocio, aviones, etc.), que produce efectos negativos sobre la salud auditiva, física y mental de las personas.

Este término está estrechamente relacionado con el ruido debido a que esta se da cuando el ruido es considerado como un contaminante, es decir, un sonido molesto que puede producir efectos nocivos fisiológicos y psicológicos para una persona o grupo de personas.

Las principales causas de la contaminación acústica son aquellas relacionadas con las actividades humanas como el transporte, la construcción de edificios y obras públicas, las industrias, entre otras.

Se ha dicho por organismos internacionales, que se corre el riesgo de una disminución importante en la capacidad auditiva, así como la posibilidad de trastornos que van desde lo psicológico (paranoia, perversión) hasta lo fisiológico por la excesiva exposición a la contaminación sónica.

Un informe de la Organización Mundial de la Salud (OMS), considera los 50 dB (a), como el límite superior deseable.

En España, se establece como nivel de confort acústico los 55 dBa. Por encima de este nivel, el sonido resulta pernicioso para el descanso y la comunicación.

Según estudios de la Unión Europea (2005): 80 millones de personas están expuestos diariamente a niveles de ruido ambiental superiores a 65 dBa y otros 170 millones, lo están a niveles entre 55-65 dBa.

Un avión pasando muy cerca de viviendas en Londres.
  • 1 Medición del ruido ambiental
    • 1.1 Lp




    • 1.2 Leq, T




    • 1.3 SEL o Nivel de exposición de sonido




    • 1.4 LAmax




    • 1.5 LKeq, T




    • 1.6 LDN o Nivel equivalente Día-Noche









  • 2 Efectos del ruido sobre la salud
    • 2.1 Efectos auditivos
      • 2.1.1 Desplazamiento temporal del umbral de audición (TTS:Temporary threshold shift)




      • 2.1.2 Desplazamiento permanente del umbral de audición (PTS:Permanent threshold shift)




      • 2.1.3 Interferencia en la comunicación oral









    • 2.2 Efectos no auditivos
      • 2.2.1 Efectos psicopatológicos




      • 2.2.2 Efectos psicológicos




      • 2.2.3 Efectos sobre el sueño




      • 2.2.4 Efectos sobre la conducta




      • 2.2.5 Efectos en la memoria




      • 2.2.6 Efectos en la atención




      • 2.2.7 Efectos en el embarazo




      • 2.2.8 Efectos sobre los niños














  • 3 Lucha contra la contaminación acústica (Evolución de la protección del ambiente)
    • 3.1 Bolivia




    • 3.2 Ecuador




    • 3.3 España




    • 3.4 Chile




    • 3.5 Venezuela




    • 3.6 Planes de solución
      • 3.6.1 Protección auditiva personalizada




      • 3.6.2 Materiales absorbentes




      • 3.6.3 Barreras acústicas




      • 3.6.4 Aislamientos




      • 3.6.5 Casetas sonoamortiguadas














  • 4 Medidas que se deben tomar ante la presencia de contaminación acústica




  • 5 Referencias




  • 6 Véase también




  • 7 Enlaces externos





Medición del ruido ambiental

Para medir el impacto del ruido ambiental (contaminación acústica) se utilizan varios indicadores que están en continuo desarrollo, a partir de Lp:

  • "Nivel de presión sonora", Lp
  • Nivel de presión sonora continuo equivalente, (Leq, T)
  • SEL Sound Exposure Level o Nivel de Exposición de Sonido.
  • LAmax
  • LKeq, T "Nivel de presión sonora continuo equivalente ponderado Ha corregido"
  • LDN

Lp

El Nivel de presión sonora se define como 20 veces la relación logarítmica de la presión sonora eficaz respecto a una presión de referencia p0, de valor p0= 2 10-5 N/m², obtenida mediante una ponderación normalizada de frecuencias y una ponderación exponencial normalizada de tiempos.

Si no se mencionan explícitamente, debe sobreentenderse que se trata de la ponderación temporal FAST y de la ponderación de frecuencias A, adoptando la siguiente nomenclatura LpA.

Leq, T

SEL o Nivel de exposición de sonido

El SEL es el nivel LEQ de un ruido de 1 segundo de duración. El SEL se utiliza para medir el número de ocasiones en que se superan los niveles de ruido tolerado en sitios específicos: barrios residenciales, hospitales, escuelas, etc.

LAmax

Es el más alto nivel de presión sonora continuo equivalente ponderado A, en decibelios, determinado sobre un intervalo temporal de 1 segundo (LAeq,1) registrado en el periodo temporal de evaluación.

LKeq, T

Es el nivel de presión sonora continuo equivalente ponderado A, corregido por el tipo de fuente de ruido (trafico o industrial), por el carácter del ruido (impulsivo, tonal) y por el período considerado (nocturno, vespertino, fin de semana). LKeq, T = LAeq, T + Kj

LDN o Nivel equivalente Día-Noche

El LDN mide el nivel de ruido Leq que se produce en 24 horas. Al calcular el ruido nocturno, como no debe haber, se penaliza con 10 dBa a los ruidos que se producen entre las 10 de la noche y las 7 de la mañana.

Efectos del ruido sobre la salud

Efectos auditivos

El sistema auditivo se resiente ante una exposición prolongada a la fuente de un ruido, aunque esta sea de bajo nivel.

El déficit auditivo provocado por el ruido ambiental se llama socioacusia.

Una persona cuando se expone de forma prolongada a un nivel de ruido excesivo, nota un silbido en el oído, ésta es una señal de alarma. Inicialmente, los daños producidos por una exposición prolongada no son permanentes, sobre los 10 días desaparecen. Sin embargo, si la exposición a la fuente de ruido no cesa, las lesiones serán definitivas. La sordera irá creciendo hasta que se pierda totalmente la audición.

No sólo el ruido prolongado es perjudicial, un sonido repentino de 160dBa, como el de una explosión o un disparo, pueden llegar a perforar el tímpano o causar otras lesiones irreversibles. Citando puntualmente las afecciones auditivas que produce el ruido tenemos: Desplazamiento Temporal Del Umbral De Audición y el Desplazamiento Permanente del umbral de audición.

Desplazamiento temporal del umbral de audición (TTS:Temporary threshold shift)

Consiste en una elevación del umbral producida por la presencia de un ruido, existiendo recuperación total al cabo de un período, siempre y cuando no se repita la exposición al mismo. Se produce habitualmente durante la primera hora de exposición al ruido.

Desplazamiento permanente del umbral de audición (PTS:Permanent threshold shift)

Es el mismo efecto TTS pero agravado por el paso del tiempo y la exposición al ruido. Cuando alguien se somete a numerosos TTS y durante largos períodos (varios años), la recuperación del umbral va siendo cada vez más lenta y dificultosa, hasta volverse irreversible.

El desplazamiento permanente del umbral de audición esta directamente vinculado con la presbiacucia (pérdida de la sensibilidad auditiva debida a los efectos de la edad).

La sordera producida por el desplazamiento permanente del umbral de audición afecta a ambos oídos y con idéntica intensidad.

Interferencia en la comunicación oral

La inteligibilidad de la comunicación se reduce debido al ruido de fondo. El oído es un transductor y no discrimina entre fuentes de ruido, la separación e identificación de las fuentes sonoras se da en el cerebro. Como ya es sabido, la voz humana produce sonido en el rango de 100 a 10000Hz, pero la información verbal se encuentra en el rango de los 200 a 6000Hz. La banda de frecuencia determinada para la inteligibilidad de la palabra, es decir entender palabra y frase, esta entre 500 y 2500 Hz. La interferencia en la comunicación oral durante las actividades laborales puede provocar accidentes causados por la incapacidad de oír llamados de advertencia u otras indicaciones. En oficinas como en escuelas y hogares, la interferencia en la conversación constituye una importante fuente de molestias.

Efectos no auditivos

La contaminación acústica, además de afectar al oído puede provocar efectos psicológicos negativos y otros efectos fisiopatológicos. Por supuesto, el ruido y sus efectos negativos no auditivos sobre el comportamiento y la salud mental y física dependen de las características personales, al parecer el estrés generado por el ruido se modula en función de cada individuo y de cada situación.

Efectos psicopatológicos

  1. A más de 60 dBa.
    1. Dilatación de las pupilas y parpadeo acelerado.
    2. Agitación respiratoria, aceleración del pulso y taquicardias.
    3. Aumento de la presión arterial y dolor de cabeza.
    4. Menor irrigación sanguínea y mayor actividad muscular. Los músculos se ponen tensos y dolorosos, sobre todo los del cuello y espalda.
  2. A más de 85 dBa.
    1. Disminución de la secreción gástrica, gastritis o colitis.
    2. Aumento del colesterol y de los triglicéridos, con el consiguiente riesgo cardiovascular. En enfermos con problemas cardiovasculares, arteriosclerosis o problemas coronarios, los ruidos fuertes y súbitos pueden llegar a causar hasta un infarto.
    3. Aumenta la glucosa en sangre. En los enfermos de diabetes, la elevación de la glucemia de manera continuada puede ocasionar complicaciones médicas a largo plazo.

Efectos psicológicos

  1. Insomnio y dificultad para conciliar el sueño.
  2. Fatiga.
  3. Estrés (por el aumento de las hormonas relacionadas con el estrés como la adrenalina). Depresión y ansiedad.
  4. Irritabilidad y agresividad.
  5. Histeria y neurosis.
  6. Aislamiento social.
  7. Falta de deseo sexual o inhibición sexual.


Todos los efectos psicológicos están íntimamente relacionados, por ejemplo:

  • El aislamiento conduce a la depresión.
  • El insomnio produce fatiga. La fatiga, falta de concentración. La falta de concentración a la poca productividad y la falta de productividad al estrés.

Entre otros efectos no auditivos tenemos:

Efectos sobre el sueño

El ruido produce dificultades para conciliar el sueño y despierta a quienes están dormidos. El sueño es una actividad que ocupa un tercio de nuestras vidas y nos permite descansar, ordenar y proyectar nuestro consciente. El sueño está constituido por dos tipos: el sueño clásico profundo(No REM (etapa de sueño profundo), el que a su vez se divide en cuatro fases distintas), y por otro lado está el sueño paradójico (REM). Se ha demostrado que sonidos del orden de aproximadamente 60 dBA, reducen la profundidad del sueño, acrecentándose dicha disminución a medida que crece la amplitud de la banda de frecuencias, las cuales pueden despertar al individuo, dependiendo de la fase del sueño en que se encuentre y de la naturaleza del ruido. Es importante tener en cuenta que estímulos débiles sorpresivos también pueden perturbar el sueño.

Efectos sobre la conducta

El ruido produce alteraciones en la conducta momentáneas, las cuales consisten en agresividad o mostrar un individuo con un mayor grado de desinterés o irritabilidad. Estas alteraciones, que generalmente son pasajeras se producen a consecuencia de un ruido que provoca inquietud, inseguridad o miedo en algunos casos.

Efectos en la memoria

En aquellas tareas en donde se utiliza la memoria se ha demostrado que existe un mayor rendimiento en aquellos individuos que no están sometidos al ruido, debido a que este produce crecimiento en la activación del sujeto y esto en relación con el rendimiento en cierto tipo de tareas, produce una sobre activación traducida en el descenso del rendimiento. El ruido hace que la articulación en una tarea de repaso sea más lenta, especialmente cuando se tratan palabras desconocidas o de mayor longitud, es decir, en condiciones de ruido, el individuo se desgasta psicológicamente para mantener su nivel de rendimiento.

Efectos en la atención

El ruido hace que la atención no se localice en una actividad especifica, haciendo que esta se pierda en otros. Perdiendo así la concentración de la actividad.

Efectos en el embarazo

Se ha observado que las madres embarazadas que han estado desde comienzos de su embarazo en zonas muy ruidosas, tienen niños que no sufren alteraciones, pero si la exposición ocurre después de los 5 meses de gestación, después del parto los niños no soportan el ruido, lloran cuando lo sienten, y al nacer tienen un tamaño inferior al normal.

Efectos sobre los niños

El ruido repercute negativamente sobre el aprendizaje y la salud de los niños. Cuando los niños son educados en ambientes ruidosos, éstos pierden su capacidad de atender señales acústicas, sufren perturbaciones en su capacidad de escuchar, así como un retraso en el aprendizaje de la lectura y la comunicación verbal. Todos estos factores favorecen el aislamiento del niño, haciéndolo poco sociable.

Lucha contra la contaminación acústica (Evolución de la protección del ambiente)

Hace varios años en las normativas de protección del ambiente no se consideraba el contaminante ruido, pero pese a que la industrialización y en sí ciudades y países han ido creciendo y evolucionando, en todos los países del mundo se han elaborado normas y estatutos que se encargan de la protección del medio ambiente contra el exceso de ruido. Los esfuerzos más serios de las comunidades internacionales se traducen en la profundización de los estudios sobre causas y origen (fuentes), deterioro y políticas de prevención y control de la contaminación sonora. A continuación hablaremos de las medidas adoptadas por los diferentes países:

Bolivia

En el caso de este país, su reglamentación se ha basado en los estatutos de los organismos internacionales, incluyendo disposiciones de defensa y preservación de los recursos. En el 92 se dicta la ley 1333 general del Medio Ambiente, moderna normativa que incluye la EIAcon inclusión de disposiciones de defensa y preservación de los recursos naturales.

Ecuador

No se ha determinado normativa especifica a la contaminación sonora. En algunos decretos generales de protección del ambiente se han hecho alusiones pequeñas a este tipo de contaminación. En la ciudad de Quito se emitió la ordenanza metropolitana 123 el 5 de julio de 2004 denominada "La ordenanza para la prevención y control de la contaminación por ruido, sustitutiva del capítulo II para el control del ruido, del título V del libro segundo del código

España

  • Directiva 2003/10/CE del Parlamento Europeo y del Consejo, de 6 de febrero de 2003, sobre las disposiciones mínimas de seguridad y de salud relativas a la exposición de los trabajadores a los riesgos derivados de los agentes físicos (ruido).[1]
  • Ley 37/2003, de 17 de noviembre, del Ruido.[2]
  • Real Decreto 286/2006, de 10 de marzo, sobre la protección de la salud y la seguridad de los trabajadores contra los riesgos relacionados con la exposición al ruido.[3]

Chile

En relación con el control del ruido ambiental, en Chile, se ha avanzado regulando las fuentes fijas como industrias, talleres, bares, etc, con el Decreto Supremo Nº 146 de 1997 del Ministerio Secretaría General de la Presidencia y las fuentes móviles más ruidosas, como los buses de locomoción colectiva, con el Decreto Supremo Nº 129 de 2002 del Ministerio de Transportes y Telecomunicaciones. Además, el 15 de septiembre de 1999 se aprueba el reglamento sobre condiciones sanitarias y ambientales básicas en los lugares de trabajo que en su Título IV, Párrafo III, Artículos 70 al 82, regula la exposición al ruido en el trabajo.

  • D.S. Nº146 de 1997 Norma de Emisión de Ruidos Molestos Generados por Fuentes Fijas (1997).
  • D.S. Nº129 de 2003 Norma de Emisión de Ruido para Buses de Locomoción Colectiva Urbana y Rural (2002 - Mod. 2007).
  • D.S. Nº594/99 Reglamento Sobre Condiciones Sanitarias y Ambientales Básicas en los Lugares de Trabajo.

Venezuela

En 1976 se establece la ley Orgánica del Ambiente la cual promulga los principios rectores para la conservación, defensa y mejoramiento del ambiente en beneficio de la calidad de vida. En el artículo 88 de esta ley, impone pena de arresto "a quienes dentro de parques nacionales. monumentos nacionales, reservas o refugios de fauna silvestre: Inc. 2: Utilicen radiorreceptores, fonógrafos o cualquier instrumento que produzca ruido que por su intensidad, frecuencia o duración fuesen capaces de causar daño o turbar la calma y tranquilidad de esos lugares. Inc. 10: Perturbar conscientemente a los animales por medio de gritos, ruidos, proyecciones de piedras, derrumbes provocados o cualquier otro medio. El artículo 101 establece que quien, contraviniendo las disposiciones legales dictadas por autoridad competente produzca o permita la producción de ruidos que por intensidad, frecuencia o duración fuesen capaces de causar daño o malestar a las personas, será sancionado con arresto de 15 a 30 años y multa de 15 a 30 días de salario mínimo. Si el ruido es producido en zonas o bajo condiciones capaces de aumentar el daño y malestar de las personas, la pena será aumentada al doble.

Bolivia, Colombia, Perú, Ecuador y Venezuela firmaron en Cartagena de Indias el Acuerdo Acta de Barahona" con fecha 5 de diciembre de 1991, creando un Comité Ambiental Andino con base en la primera reunión de actividades nacionales del medio ambiente celebrada en Caracas en agosto de 1991. Su objeto fue centralizar los esfuerzos sobre conservación del medio y disminución de contaminación a nivel regional, nacional y municipal en la zona, sin que hasta el presente, conforme a informes diplomáticos, el mismo se haya puesto en práctica.

Planes de solución

Con el fin de erradicar y atenuar un poco los efectos del exceso de ruido en las diferentes partes del planeta, muchos especialistas en el tema han planteado algunos métodos para éstos: en algunos casos se habla de la elaboración de un mapa acústico, en el cual se encierran medidas y análisis de los diferentes niveles sonoros de diversos puntos de la ciudad, haciendo énfasis en el sonido provocado por el tráfico sin olvidar otro tipo de emisores de ruido.

Teniendo en cuenta la importancia de estos métodos de erradicación del ruido, a continuación citaremos una breve explicación de algunos elementos que se implementan con este fin:

Protección auditiva personalizada

Constituye uno de los métodos más eficientes y a la vez económicos. Se trata de los denominados tapones auditivos (o conchas acústicas), que tienen la capacidad de reducir el ruido en casi 20 dB, lo cual permite que la persona que los usa pueda ubicarse en ambientes muy ruidosos sin ningún problema. Muy usado por los operarios y demás trabajadores de algunas industrias ruidosas.

Materiales absorbentes

Su utilización consiste en ubicarlos en lugares estratégicos, de forma que puedan cumplir con su función eliminando aquellos componentes de ruido que no deseamos escuchar. Entre los materiales que se usan tenemos: resonadores fibrosos, porosos o reactivos, fibra de vidrio y poliuretano de célula. La función principal de estos materiales es la de atrapar ondas sonoras y posteriormente transformar la energía aerodinámica en energía termodinámica o calor. A la hora de seccionar el material adecuado, de acuerdo a la aplicación requerida, debe tenerse en cuenta el coeficiente de absorción sonora del material, la cual es un dato que debe brindar el fabricante.

Barreras acústicas

Su función principal es la de evitar la transmisión de ruido de un lado a otro de su cuerpo físico. Su mayor utilidad se encuentra en áreas con un alto nivel de ruido. Su desempeño se basa en la eliminación de propagación de ondas y contaminación sonora de áreas contiguas de producción. En este caso, la selección de una barrera acústica determinada se basa en el coeficiente de transmisión de sonido, traducido en la cantidad de potencia sonora que la barrera puede contener. Una barrera acústica es una especie de cortina transparente de vinil o poliuretano de célula abierta. También se usan paneles metálicos con altos índices de absorción.

Aislamientos

Los aislamientos se hacen en secciones industriales ruidosas. Su función básica es la de disipar la energía mecánica asociada con las vibraciones. Su foco de acción se concentra en zonas rígidas de la maquinaria en cuestión, los cuales son los puntos donde se generan vibraciones y donde se promueven el colapso de ondas sonoras. En la actualidad, muchos fabricantes de maquinaria ruidosa desde secadores hasta refrigeradores, han adoptado medidas de este tipo, conscientes del gran perjuicio que puede causar a la salud humana.

Casetas sonoamortiguadas

Pese a su gran capacidad de controlar niveles muy altos de ruido por medio del aislamiento de la fuente emisora del mismo, del resto de la fuerza laboral, son poco utilizadas en la industria. Estas casetas permiten que maquinarias industriales emisoras de un alto nivel de ruido desempeñen su función bajo niveles de ruido tolerables.

Medidas que se deben tomar ante la presencia de contaminación acústica

La reducción del ruido se debe llevar a cabo siguiendo la siguiente secuencia de medidas a tomar, ordenadas de mayor a menor eficacia y de un aspecto colectivo a uno individual:

  1. Eliminar las fuentes molestas que producen el ruido.
  2. Control de producción del ruido (en el origen).
  3. Llevar a cabo la reducción a través de medidas en el entorno.
  4. Aplicar medidas de tipo individual.

Edisson Altuve seccion 1 EES


Contaminación electromagnética

La contaminación electromagnética, también conocida como electropolución, es la contaminación producida por las radiaciones del espectro electromagnético generadas por equipos electrónicos u otros elementos producto de la actividad humana.

Un aspecto polémico refiere a los efectos nocivos que producirían las emisiones de radiación electromagnética. Cierta información referente a aumentos en la probabilidad de cáncer en personas que viven en zonas cercanas a torres de alta tensión, como así también la reciente preocupación sobre el uso de la telefonía celular, y de la antenas de celulares y o WiMAX han contribuido a despertar una preocupación general en la sociedad.


  • 1 Orígenes del problema




  • 2 Espectro electromagnético




  • 3 Interacción de los campos electromagnéticos




  • 4 Posibles efectos dañinos en la salud
    • 4.1 Argumentos en contra




    • 4.2 Argumentos a favor




    • 4.3 Efectos posibles









  • 5 Pruebas y cambios en la legislación




  • 6 Efectos en los dispositivos electrónicos




  • 7 Consejos para disminuir la exposición a los CEMs




  • 8 Perspectiva




  • 9 Referencias




  • 10 Bibliografía




  • 11 Enlaces externos





Orígenes del problema

Los seres vivos han estado expuestos a influencias electromagnéticas desde siempre: La luz del Sol y sus rayos ultravioleta, los rayos cósmicos, y otras, son radiaciones naturales de diferente naturaleza. Sin embargo, hacia principios del siglo XX, el control de la zona inferior (radiofrecuencia del espectro electromagnético) propició el inicio de una actividad productiva sobre dicho fenómeno. Aunque la mayoría de la gente desconoce que el alumbrado e incluso una fogata o una chimenea son fuente de radiación electromagnética.

Espectro electromagnético

Espectro electromagnético.

El espectro electromagnético es un diagrama en el que se encuentran todas las radiaciones electromagnéticas ubicadas desde las frecuencias más altas a las más bajas. En la parte superior del espectro están los rayos X y los rayos gamma, y al final se encuentran los campos eléctricos y magnéticos. Estas radiaciones pueden ser divididas en 3 grupos principales:

  • Radiación electromagnética indirectamente ionizante: peligrosa porque puede inducir a cambios moleculares debido a la gran cantidad de energía almacenada en las ondas de alta frecuencia. Aquí se encuentran los rayos ultravioletas, los rayos X y los gamma.
  • Visible: no es peligrosa. Corresponde a los colores del arco iris.
  • Radiación no ionizante: este tipo produce efectos térmicos e incluye a los rayos infrarrojos, las microondas y las radiofrecuencias. Los efectos nocivos de este tipo de radiación están sujetos a una amplia discusión y a extensa investigación.

La radiación electromagnética está formada exclusivamente por fotones. Se caracteriza exclusivamente por la frecuencia de dicha radiación que corresponde a su color. La energía de cierta radiación electromagnética depende igualmente de la frecuencia y solo de ésta.

Interacción de los campos electromagnéticos

Los campos electromagnéticos contienen energía y ésta puede ser transmitida a otros elementos que encuentren. La radiación electromagnética corresponde solamente al transporte de energía lumínica en forma de paquetes de fotones.

La energía electromagnética se transmite a baja frecuencia en forma de incremento de la energía cinética media de las partículas con las que interacciona, es decir, simplemente genera calor.

A partir de cierta barrera (que no es progresiva y empieza en la banda del ultravioleta medio) se genera de forma indirecta radiación ionizante, ya que la energía individual de los fotones pueden hacer a los electrones romper su barrera de potencial que los mantiene unidos al átomo.

Posibles efectos dañinos en la salud

Niveles de corriente alterna en el cuerpo humano (si hay un perfecto apoyo de los pies).

Argumentos en contra

  • Un campo electromagnético NO es un campo eléctrico ni es un campo magnético. Ningún estudio actual permite establecer un mecanismo de interacción entre radiación electromagnética no ionizante distinto de la transmisión de energía calorífica. Los estudios respecto a las consecuencias de los efectos térmicos en los seres vivos, han sido hasta hace algunos años los dominantes. La utilización de este punto de vista en la regulación respecto a la radiación electromagnética no ionizante se conoce como criterio térmico.
  • El campo electromagnético tampoco actúa sobre las partículas de hierro de nuestro organismo que está presente en forma agregada.
  • Los estudios que correlacionan la radiación electromagnética no ionizante con daños a la salud presentarían problemas metodológicos. El principal problema de los estudios poblacionales suele ser la aparición de variables ocultas como por ejemplo que las personas que viven cerca de torres de alta tensión pueden ser personas de menor poder adquisitivo que vivan en peores condiciones de salud, higiene y educación.
  • Falta establecer los mecanismos causales por el cual la radiación electromagnética no ionizante afecta a los seres vivos. Se señala que este tipo de radiación no interactuaría con la materia, salvo a través de los ya mencionados efectos térmicos.
  • Los seres humanos hemos estado desde siempre expuestos a la irradiación solar, la que incluye irradiación en gran parte del espectro electromagnético.
  • Organismos como la Organización Mundial de la Salud,[1] la Comisión Europea,[2] la Universidad Complutense de Madrid,[3] la Asociación Española contra el Cáncer, el Ministerio de Sanidad y Consumo de España, o el Consejo Superior de Investigaciones Científicas de España[4] han emitido informes que descartan estos problemas.

Argumentos a favor

Desde esta posición la investigación científica ha pasado de señalar que los efectos dañinos no solo serían posibles, sino además probables:

  • Algunos estudios poblacionales y epidemiológicos correlacionan significativamente la radiación electromagnética no ionizante con daños a la salud humana. Por ejemplo Horst Eger et al. señalan que la probabilidad de cáncer aumenta en tres veces en la población que vive dentro de un radio de 400 metros de una antena de telefonía móvil en comparación con la población que vive fuera de ese radio.[5] Otro estudio, de Ferdinand Ruzicka, señala que el promedio de vida disminuye en 10 años en los habitantes que viven cerca de una antena emisora de contaminación electromagnética, si se comparan con los que viven lejos de una[6]
  • Si bien es cierto que desde siempre hemos estado expuestos a irradiación electromagnética, nunca antes en la historia de la humanidad el fenómeno ha sido tan masivo, tanto en fuentes de emisión (líneas eléctricas, celulares, antenas de telefonía, antenas de WiMAX, WiFI, entre otros artefactos) como en duración. [cita requerida]
  • Los estudios que menosprecian los efectos dañinos de la contaminación electromagnética no considerarían los efectos a la exposición a largo plazo y la interacción de múltiples y diversas fuentes de emisión. Además consideran criterios parciales (por ejemplo, el térmico) o no consideran efectos relevantes (por ejemplo la interacción del magnetismo con el sistema inmune)[cita requerida]
También existen estudios a largo plazo, hasta 40 años, que no encuentran tal relación. Se trata de estudios tanto sobre usuarios de telefonía móvil,[7] como sobre operadores militares de radar y comunicaciones,[8] o trabajadores de empesas de comunicaciones.[9] Un resumen de diferentes estudios a largo plazo, con resultados en general negativos, puede ser encontrado en The Lancet[10]

Efectos posibles

Dentro de los diversos daños a la salud que se han investigado, se encuentran:[11]

  • Efectos térmicos: absorción de calor; se suele considerar que un efecto es térmico si viene acompañado por un aumento de temperatura corporal de al menos un grado. Suceden con intensidades de campo relativamente altas. El resultado es similar al generado por un golpe de calor: incluyen aumento de la tensión sanguínea, vértigo, cansancio, desorientación, cefalea, náuseas y, en casos extremos (con intensidades de potencia mayores que 1000W/m2), cataratas, quemaduras y esterilidad.
  • Efectos no térmicos o atérmicos; aquellos que no vienen acompañados por un aumento de temperatura. Se discute si serían causados, en caso de existir, por un mecanismo hasta hoy desconocido, o bien sigue tratándose, en última instancia, de una absorción de calor. Sucederían con intensidades de campo menores y aplicadas durante un largo plazo; entre ellos se incluye cáncer, enfermedades inmunes, cambios genéticos, arritmias cardíacas y daños neurológicos. Sin embargo, no hay ningún estudio que pueda concluir la existencia de tales efectos.

Pruebas y cambios en la legislación

Con el auge de la telefonía celular, las preocupaciones comenzaron a surgir, no sólo debido a los efectos que podrían tener en el cerebro de los usuarios, sino también que a medida que su uso se expande, se necesita una mayor cantidad de antenas transmisoras en todo el mundo, lo que lleva a la preocupación sobre la amplitud de los campos electromagnéticos próximos a los transmisores. En Alemania, el Wissenschafts Zentrum Umwelt ha desarrollado un sistema de medición de EMVU, lo que permite que la intensidad de estos campos sea medida con profesionalidad. Se trata de un sistema diseñado para un registro a largo plazo de campos electromagnéticos de alta frecuencia para observar las variaciones de este tipo de emisiones de los transmisores de radio y la distribución proporcional de las emisiones desde diferentes servicios de transmisión.

La preocupación y la alarma social trajo consigo cambios en la legislación de varios países: en 1974 la Unión Soviética fue la primera al aprobar una ley que establece que las líneas de tensión que generen campos superiores a los 25 kV/m deben estar ubicados a no menos de 110 metros de la edificación más cercana.

En Estados Unidos, no existe una legislación federal de salud para el caso de los CEM de 60Hz. Sólo seis estados han establecido estándares en los campos eléctricos de las líneas de transmisión: Florida, Montana, Nueva Jersey, Nueva York y Oregón. Mientras que sólo dos de ellos, Nueva York y Florida, establecieron niveles máximos permitidos para los campos magnéticos en las líneas, bajo condiciones de carga máxima, lo que les permite que las líneas de energía futuras no superen esos niveles.

De acuerdo a un trabajo realizado en 1990 por la International Radiation Protection Association (IRPA) y la International Comission of Non-Ionizing Radiation Protection (INIRC), en los campos eléctricos de 10 a 30 kV/m, la intensidad del campo (kV/m) x hora, no debería exceder los 80 por jornada laboral completa. El cuerpo expuesto a campos magnéticos por hasta 2 horas por día no tendría que exceder los 50 Gauss.

Las directrices establecidas por estos dos organismos están fundamentadas bajo el "principio de precaución" y no siempre se refieren a campos de naturaleza electromagnética.

Efectos en los dispositivos electrónicos

La radiación electromagnética artificial ha aumentado paulatinamente con el desarrollo de nuestra tecnología y se encuentra alrededor de las líneas de energía, herramientas de electricidad, electrodomésticos, y se extiende a varios centímetros, incluso a metros de su ubicación. La contaminación electromagnética también es responsable de la interferencia electromagnética entre dispositivos.

No hay que confundir radiación electromagnética con otro tipo de fuerzas o campos. La radiación electromagnética es eléctricamente neutra, no transporta cargas y está formada por un paquete de una partícula fundamental llamada fotón.

En cuanto a las líneas de alta tensión. La población en general desconoce que su desarrollo obedece precisamente a que es el mejor método de transmisión de energía eléctrica sin pérdida. Es decir, cuanto mayor sea la diferencia de potencial en la transmisión menor pérdida por irradiación tendrá la línea.

La energía transportada obedece a la fórmula E=V*I*t. Es decir, para transportar cierta energía por unidad de tiempo podremos optar por transportarla aumentando su voltaje o bien su intensidad.

La eficacia del transporte en alta tensión queda de manifiesto tanto en la ley de Joule como en la ley de Ampère. La primera dice que la pérdida de energía en un conductor depende del cuadrado de la intensidad. La segunda dice que la pérdida de energía por irradiación depende exclusivamente de la intensidad que atraviesa una sección de conductor y no de su voltaje.

Consejos para disminuir la exposición a los CEMs

  • Determinar la distancia a la que se debe encontrar de los emisores de CEMs hasta lograr el nivel de 2,5 mG.
  • Reubicar los muebles, especialmente aquellos en los que se está más tiempo, lejos de los emisores de CEMs como la luz fluorescente, calentadores, etc.
  • Los dispositivos eléctricos deberían ser examinados con un medidor antes de ser comprados en la tienda y se debería determinar cuáles son los de menor emisión electromagnética.
  • Consulte con un electricista calificado que pueda reconocer la pérdida de radiaciones en el hogar.
  • En caso de sospechar de la existencia de elevada radiación proveniente de líneas de energía cercanas al lugar de residencia, se puede informar a las autoridades correspondientes para que tomen medidas.
  • Reducir la pérdida de radiación del monitor de su computadora. Para ello deberá ingresar al Panel de Control, encontrar "Ver Propiedades" y allí hacer clic en el Protector de Pantalla y marcar la casilla de Espera de Baja Energía. Seleccione la cantidad de minutos para que se active el modo de espera y clic en Aceptar. Con esto, el monitor se apagará en el tiempo determinado, con una salida de radiación cercana a cero cuando no haya actividad en el teclado o el ratón (mouse). Para volver al modo anterior, sólo deberá presionar cualquier tecla o mover el ratón. Esta medida es mejor que los protectores de pantalla, ya que no reducen la radiación o el consumo de energía.

Perspectiva

El tema de la contaminación electromagnética continúa siendo objeto de controversia. La desinformación del público, de las autoridades y de los medios de comunicación genera una sensación de incertidumbre. Los criterios actuales (principalmente el térmico) no serían los más adecuados para evaluar los impactos a largo plazo en los seres vivos. Las diferentes normativas respecto a los rangos de exposición inocuos presentan una diversidad muy grande. Existe un creciente alarma social, debido tanto al crecimiento exponencial de las antenas en algunas poblaciones, como a la falta de una regulación adecuada y/o clara en algunas zonas. Uno de los temas pendientes, tanto científico como político, refiere a cuales son los límites de exposición inofensivos para los seres vivos, y si los límites actuales son o no adecuados.

jueves, 25 de noviembre de 2010

Edisson Altuve seccion 1 EES

El Protocolo de Kyoto

El Protocolo de Kyoto es un acuerdo internacional asociado a la Convención de Cambio Climático de las Naciones Unidas. Su característica más importante es que los 37 países industrializados y la comunidad Europeas han puesto objetivos para reducir sus emisiones de gases de efecto invernadero. En promedio se han propuesto reducir un 5% los niveles de emisiones de 1990 durante los 5 años desde el 2008 al 2012.

La mayor diferencia entre el Protocolo y la Convención es que mientras la Convención alienta a los países industrializados a estabilizar sus emisiones de gases contaminantes, el protocolo loc compromete a hacerlo.

El Protocolo de Kyoto se adopto en Kyoto, Japón, el 11 de diciembre de 1997 y entró en vigor el 16 de febrero del 2005. Los detalles para la implementación del protocolo se adoptaron en el COP7 en Marrakech en el 2001, por lo que son llamados los "Acuerdos de Marrakech".

Bajo el tratado, los países deben llegar a sus objetivos principalmente por medidas nacionales. Sin embargo, el Protocolo de Kyoto les ofrece medios adicionales para alcanzar sus objetivos mediante unos mecanismos.

Los Mecanismos de Kyoto son:

• Intercambio de Emisiones, también conocidos como mercado de carbón.
• Mecanismos de desarrollo limpio (CDM)
• Implementación conjunta (JI)

Estos mecanismos ayudan a simular inversiones ecológicas y ayudan a las partes a cumplir sus objetivos de una manera costo/efectiva.

Monitoreando las emisiones objetivo

Bajo el Protocolo, las emisiones actuales de los países deben ser monitoreadas en precisos historiales que deben ser almacenados para su análisis.

El Secretario del Cambio Climático de las Naciones Unidas, con base en Bonn, Alemania, tiene un historial de las transacciones internacionales para verificar que estas sean consistentes con las reglas del Protocolo, es decir para que los países no hagan trampa.

Los reportes los hacen los mismos países y se entregan de manera anual con medidas de emisiones y reportes nacionales de lo que se está haciendo.

El camino por delante

El Protocolo de Kyoto es visto como un importante primer paso hacia una gran reducción de gases de efecto invernadero que a la larga las estabilicen, y provee de la arquitectura esencial para cualquier acuerdo internacional del futuro.

Cuando se termine el plazo de este protocolo en el 2012, se necesita trabajar en un nuevo acuerdo internacional para ratificar y negociar nuevos objetivos para la reducción de gases contaminantes.


Para conocer en profundidad los detalles del Protocolo de Kyoto, véase el texto del Protocolo.

La principal característica del Protocolo es que tiene objetivos obligatorios relativos a las emisiones de gases de efecto invernadero para las principales economías mundiales que lo hayan aceptado. Estos objetivos van desde -8% hasta +10% del nivel de emisión de los diferentes países en 1999 "con miras a reducir el total de sus emisiones de esos gases a un nivel inferior en no menos de 5% al de 1990 en el período de compromiso comprendido entre el año 2008 y el 2012″. En casi todos los casos, incluso en los que se ha fijado un objetivo de +10% de los niveles de 1990, los límites exigen importantes reducciones de las emisiones actualmente proyectadas. Se prevé el establecimiento de objetivos obligatorios futuros para los "períodos de compromiso" posteriores a 2012. Éstos se negociarán con suficiente antelación con respecto a los períodos afectados.

Los compromisos contraídos en virtud del Protocolo varían de un país a otro. El objetivo global del 5% para los países desarrollados debe conseguirse mediante recortes (con respecto a los niveles de 1990) del 8% en la Unión Europea (UE [15]), Suiza y la mayor parte de los países de Europa central y oriental; 6% en el Canadá; 7% en los Estados Unidos (aunque posteriormente los Estados Unidos han retirado su apoyo al Protocolo), y el 6% en Hungría, Japón y Polonia. Nueva Zelandia, Rusia y Ucrania deben estabilizar sus emisiones, mientras que Noruega puede aumentarlas hasta un 1%, Australia un 8% (posteriormente retiró su apoyo al Protocolo) e Islandia un 10%. La UE ha establecido su propio acuerdo interno para alcanzar su objetivo del 8% distribuyendo diferentes porcentajes entre sus Estados Miembros. Estos objetivos oscilan entre recortes del 28% en Luxemburgo y del 21% en Dinamarca y Alemania a un aumento del 25% en Grecia y del 27% en Portugal.

Para compensar las duras consecuencias de los "objetivos vinculantes", el acuerdo ofrece flexibilidad en la manera en que los países pueden cumplir sus objetivos. Por ejemplo, pueden compensar parcialmente sus emisiones aumentando los "sumideros" –bosques, que eliminan el dióxido de carbono de la atmósfera. Ello puede conseguirse bien en el territorio nacional o en otros países. Pueden pagar también proyectos en el extranjero cuyo resultado sea una reducción de los gases de efecto invernadero. Se han establecido varios mecanismos con este fin (véanse los apartados sobre "comercio de derechos de emisión", el "Mecanismo para un desarrollo limpio" y la "aplicación conjunta".

El Protocolo de Kyoto ha avanzado lentamente: se encuentra todavía en lo que se conoce con el nombre de "fase de ratificación", y es un acuerdo complicado. Razones no faltan. El Protocolo no sólo debe ser eficaz frente a un problema mundial también complicado; debe ser también políticamente aceptable. En consecuencia, se ha multiplicado el número de grupos y comités creados para supervisar y arbitrar sus diferentes programas, e incluso después de la aprobación del acuerdo en 1997, se consideró necesario entablar nuevas negociaciones para especificar las instrucciones sobre la manera de instrumentalizarlo. Estas normas, adoptadas en 2001, se conocen con el nombre de "Acuerdos de Marrakech".

Los tratados internacionales deben tratar de conseguir un delicado equilibrio. Los que se proponen conseguir un apoyo general muchas veces no son lo bastante enérgicos como para resolver los problemas que tratan de solucionar (como se consideraba que la Convención Marco presentaba esa deficiencia, a pesar de sus numerosas y valiosas disposiciones, se creó el Protocolo con la finalidad de complementarla). En cambio, los tratados con disposiciones firmes pueden tener problemas a la hora de conseguir el apoyo necesario para que resulten eficaces.

Lo que ahora se necesita realmente es que el Protocolo consiga ratificaciones suficientes para entrar en vigor. Lo mismo que el Protocolo en general, esta materia es complicada. El Protocolo será jurídicamente vinculante cuando lo hayan ratificado no menos de 55 países, entre los que se cuenten países desarrollados cuyas emisiones totales representen por lo menos el 55% del total de las emisiones de dióxido de carbono en 1990. Ello no ha ocurrido todavía. El principal problema es que deben decidir adherirse más naciones industrializadas que se verán afectadas por los límites de emisión del Protocolo. Una segunda preocupación es que los Estados Unidos y Australia han manifestado que no apoyarán ya el tratado.

Al mismo tiempo, una novedad positiva es que algunos mecanismos del Protocolo cuentan con apoyo suficiente y se están estableciendo antes incluso de la entrada en vigor del Protocolo. Por ejemplo, el Mecanismo para un desarrollo limpio –a través del cual los países industrializados pueden cumplir en parte sus objetivos vinculantes de emisión mediante "créditos" obtenidos patrocinando proyectos que reducen las emisiones de gases de efecto invernadero en los países en desarrollo– cuentan ya con una junta ejecutiva que está preparando algunas propuestas.

La ciencia del cambio climático

La actividad humana –en particular, el consumo de combustibles fósiles– ha hecho que la capa de gases de efecto invernadero que rodea a la Tierra sea más "gruesa". El aumento resultante de las temperaturas mundiales está alterando la compleja red de sistemas que hacen posible la vida sobre la tierra, como la cubierta de nubes, las precipitaciones, las pautas de los vientos, las corrientes oceánicas y la distribución de las especies vegetales y animales.

El efecto invernadero y el ciclo del carbono. Cada vez es más la energía solar que se ve atrapada en la atmósfera, y una parte mucho mayor del carbono mundial (en forma de dióxido de carbono) se deposita en el aire, en vez de en los árboles, el suelo y los depósitos subterráneos.

Pruebas actuales del cambio climático. Algunas consecuencias del calentamiento atmosférico son ya visibles.

Efectos futuros. La complejidad del sistema climático hace que las predicciones varíen enormemente, pero incluso los cambios mínimos previstos podrían significar frecuentes inundaciones de las zonas costeras, perturbaciones en los suministros de alimentos y de agua y la extinción de muchas especies.

En 1988, se creó un Grupo Intergubernamental sobre el Cambio Climático (IPCC) por iniciativa de la Organización Meteorológica Mundial y el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA). Este Grupo presentó en 1991 un primer informe de evaluación en el que se reflejaban las opiniones de 400 científicos. En él se afirmaba que el calentamiento atmosférico era real y se pedía a la comunidad internacional que hiciera algo para evitarlo.

El IPCC tiene ahora una función claramente establecida. En vez de realizar sus propias investigaciones científicas, examina las investigaciones realizadas en todo el mundo, publica informes periódicos de evaluación (hasta ahora han sido tres) y compila informes especiales y documentos técnicos. Las observaciones del IPCC, por el hecho de reflejar un consenso científico mundial y ser de carácter apolítico, representan un contrapeso útil en el debate, con frecuencia muy politizado, sobre qué se debe hacer con respecto al cambio climático.

¿Qué se puede hacer?

Algunas medidas –que dependen en gran parte de la existencia de espíritu de equipo y voluntad política– pueden frenar el ritmo del calentamiento atmosférico y ayudar al mundo a hacer frente a los cambios climáticos que se produzcan.

Reducción de las emisiones. Una manera de combatir el problema en el origen es el consumo más eficiente del petróleo y el del carbón, la adopción de formas renovables de energía, como la energía solar y eólica, y la introducción de nuevas tecnologías para la industria y el transporte.

Ampliación de la superficie forestal. Los árboles eliminan el dióxido de carbono, principal gas de efecto invernadero, de la atmósfera. Cuantos más tengamos, mejor. En cambio, la deforestación –que es la tendencia actual– libera todavía más carbono y agrava el calentamiento del planeta.

Cambio de los estilos de vida y de las normas. Las culturas y hábitos de millones de personas –en particular, si derrochan energía o la utilizan con eficiencia– tienen importantes repercusiones en el cambio climático. Lo mismo cabe decir de las políticas y reglamentos gubernamentales.

Medidas de respuesta. Deben adoptarse medidas –pronto mejor que tarde– para limitar los daños debidos a consecuencias del calentamiento mundial que son ya inevitables.

Logros hasta la fecha… y problemas. Un efecto secundario de la difícil transición económica de Europa oriental fue un ligero descenso de las emisiones de gases de efecto invernadero en las grandes economías del mundo entre 1990 y 2000. Pero para conseguir progresos más sostenidos habrá que superar una serie de obstáculos.

Disposiciones del Protocolo de Kyoto y sus normas

El Protocolo de Kyoto de 1997 tiene los mismos objetivos, principios e instituciones de la Convención, pero refuerza ésta de manera significativa ya que a través de él las Partes incluidas en el anexo I se comprometen a lograr objetivos individuales y jurídicamente vinculantes para limitar o reducir sus emisiones de gases de efecto invernadero. Sólo las partes en la Convención que sean también partes en el Protocolo (es decir, que lo ratifiquen, acepten, aprueben o se adhieran a él) estarán obligadas por los compromisos del Protocolo, cuando entre en vigor. Los objetivos individuales para las Partes incluidas en el anexo I se enumeran en el anexo B del Protocolo de Kyoto. Entre todos suman un total de recorte de las emisiones de gases de efecto invernadero de al menos el 5% con respecto a los niveles de 1990 en el periodo de compromiso de 2008-2012.









martes, 23 de noviembre de 2010

Edisson Altuve seccion 1 EES

ECOLOGÍA

La ecología es la ciencia que estudia las relaciones existentes entre los seres vivos y el medio en el que viven. Así pues, estudia la relación entre el hombre y su medio, la Tierra un gran almacén que proporciona recursos materiales de todo tipo: agua, oxigeno, minerales, madera, alimento..., todo cuanto es precioso para la vida. Sin embargo, existe la posibilidad de que ese gran almacén se agote. Efectivamente, los recursos del planeta son abundantes a partir de la década de los años setenta la Humanidad es consciente de que dichos recursos son finitos y que es preciso reducir su consumo. Desde entonces, la preocupación por el medio ambiente ha ido en aumento y se han creado asociaciones y organismos dedicados a su estudio y protección, así como se han firmado algunos tratados y protocolos entre diversos países con el fin proteger las especies amenazadas y limitar la emisión de productos nocivos.

No obstante, no se ha logrado detener ni el proceso de agotamiento y malversación de los recursos terrestres, ni el de la contaminación del medio ambiente. Al contrario, a los desastres naturales, como las erupciones volcánicas, se suma un número creciente de desastres accidentales o indirectamente provocados (mareas negras y vertidos incontrolados de materias contaminantes al mar, accidentes en centrales nucleares, incendios de pozos de petróleo, desecación de zonas naturales, etc.) que contribuyen a la contaminación atmosférica y de las aguas, a la desertización de grandes zonas del Planeta, a la deforestación de los bosques, a la desaparición de especies animales, radicalización de los cambios climáticos, a la disminución de la capa de ozono y, cómo no, al incremento de las enfermedades. En una palabra, el hombre esta interfiriendo, incluso, en las altas capas de la atmósfera de modo que su cualidad de depredador, practicada desde los tiempos más remotos de su historia, ha alcanzado cotas inimaginables hace solo medio siglo, que conducen al Planeta a un situación límite y de alto riesgo. Ello se debe, en parte, a los efectos de la actividad industrial de la sociedad contemporánea, pero también a las necesidades derivadas del desorbitado incremento de la población mundial, la cual se ha duplicado en los últimos cuarenta años. Es más, las previsiones demográficas señalan un período de únicamente veinte años para que se duplique de nuevo, por lo que es preciso actuar con urgencia a nivel colectivo e industrial si se quiere que la Tierra siga manteniendo a la Humanidad.

Es quizás el momento de subrayar las palabras del Dalai Lama, Premio Nobel de la Paz, sobre este nuevo jinete apocalíptico: "Nuestro planeta madre nos está poniendo una luz roja de peligro; sed cuidadosos, cuidar la Tierra es cuidar nuestro propio hogar".

La contaminación

La atmósfera, los océanos y la superficie terrestre, en una palabra los diferentes ecosistemas que conforman la Tierra, podrían parecer relativamente indiferentes a las actividades humanas, pero todos los organismos vivos forman parte de un inmenso ecosistema y la más mínima variación de una de sus partes puede alterar el equilibrio del conjunto. A la alteración causada por la inyección de elementos extraño a la biosfera, productos de las actividades del hombre, se la conoce como contaminación.

En otras épocas, los problemas ambientales no ocupaban el primer plano de la actualidad; la población humana era reducida, las fuentes de materias primas parecían ignorables y el Planeta era una vasta región sin explotar. Los verdaderos problemas surgieron con la industrialización y los modernos métodos de agricultura y silvicultura, de modo que, a principios de la década de los sesentas, los expertos en medio ambiente comenzaron a advertir al mundo sobre los peligros que comportaba la polución. La controversia pública se inició con la publicación del libro del libro de Rachel Carson "La primavera silenciosa" en 1962. En aquellos años, hubo grandes mortandades entre las aves de presa, debido a la acumulación en sus tejidos de sustancias venenosas como el DDT; en el Japón mucha gente murió o quedo invalida a consecuencia de los vertidos de mercurio al mar durante años por las fábricas Minimata; se mostraron los efectos de contaminantes múltiples como el fósforo, los gases sulfuros, los detergentes o el plomo de la gasolina y se descubrió que el mar no diluía ni neutralizaba las impurezas a la velocidad que se creía.

LA CONTAMINACION DE LAS AGUAS

La alteración del medio acuático

Durante mucho tiempo el hombre ha ido arrojando sus residuos a los ríos y al mar y, al no percibir ninguna alteración manifiesta, ha considerado infinita la capacidad de autodepuración de estos medios acuáticos. Sin embargo, con la llegada de los procesos industriales a gran escala, tanto la cantidad como la calidad de los contaminantes se ha multiplicado hasta límites intolerables.

No sólo se vierten hoy cantidades ingentes de estos productos sino que, lo que resulta todavía más peligroso, la capacidad destructiva de muchos de ellos es infinitamente mayor de la que poseían residuos de hace unas pocas décadas. Productos químicos concentrados, pesticidas, defoliantes, residuos nucleares, etc. han ido destruyendo gran parte de los ríos de los países industrializados y el mar, al que en un principio se considera con mayor capacidad de regeneración, da hoy muestras evidentes de encontrarse también gravemente afectado.

Uno de los principales peligros que supone esta contaminación es la posible vía que dichos residuos tóxicos seguirán en la naturaleza, pues se desconoce como se integra en los ciclos naturales, por lo que se desconoce también dónde y en qué medida causarán daños. Sin embargo, no hay duda de que el ser humano, que es miembro de estas cadenas, resulta afectado en algún punto de ese recorrido.

La importancia del medio acuático, del agua en general, es evidente al ser el origen y la base de la vida en nuestro planeta. Es el medio en que ésta se generó y sólo podemos encontrarla allí donde existe el agua, aunque se presente en formas ocultas: hielo, rocío en las rocas de un desierto, etc. El agua actúa como intermediario en el metabolismo de casi todos los organismos, es vehículo de sustancias y no en vano forma parte de la propia sustancia celular, del citoplasma, llegando a constituir casi el 99% del peso de algunos animales (medusas por ej.). La presencia en ella de sustancias tóxicas es naturalmente destructiva para el ser vivo, pero incluso aunque esas sustancias no sean tóxicas su presencia física perturba muchas de las propiedades del agua (el pH, la dencidad, la presión osmótica ejercida, etc.) y éste es un factor al que las células de cualquier organismo reaccionan con gran sensibilidad. Los peces dulceacuícolas mueren si aumenta la salinidad del agua y si un mamífero debe beber agua salada, acaba muriendo. Otro tanto sucede con las plantas y cualquier alteración de las condiciones hídricas destruye fácilmente el plancton vegetal, que está en la base de todas las cadenas tróficas del mar. Resumiendo, el agua no es únicamente importante como un medio líquido sino como un compuesto químico de determinadas características que la contaminación altera.

La contaminación en ríos y lagos

Los lagos han sido los primeros en manifestar los efectos de la contaminación, al ser muchos de ellos sistemas cerrados y, en cualquier caso, porque la entrada y salida de sus aguas no suele ser suficiente para deshacerse de una cantidad excesiva de residuos. La contaminación inicial era de tipo doméstico, procedente de las poblaciones humanas asentadas en sus orillas. Al ser productos orgánicos en su mayoría, se produjo un paulatino aumento de nutrientes en el agua, convirtiéndose los lagos oligotróficos en eutróficos y desapareciendo da manera lenta las formas de vida más exigentes.

Con los modernos métodos agrícolas, que recurren a fertilizantes y plaguicidas para aumentar la producción, el número y la peligrosidad de los residuos ha aumentado, acelerando los procesos. El resultado ha sido la muerte biológica de gran número de masa lacustres en los países industrializados.

Los ríos, gracias a su capacidad de arrastre, han sido capaces de absorber mayor cantidad de agresiones, pero también el proceso de intensificación y concentración de esos contaminantes ha superado los límites de la capacidad de auto regeneración, rompiéndose el equilibrio entre los distintos componentes del medio fluvial. Las cloacas circulantes en que se han convertido en el mundo industrializado son una buena prueba de ello. La flora y la fauna han quedado en muchos casos irreparablemente dañadas.

Al ser los ríos la fuente principal de suministro de agua potable para las poblaciones humanas, el problema se ha convertido en prioritario para las autoridades y las legislaciones actuales intentan impedir la contaminación, al tiempo que se llevan a cabo costosos proyectos de limpieza y regeneración de las aguas. La disponibilidad de agua potable está en camino de convertirse en uno de los decisivos del desarrollo humano para el cercano siglo XXI, transformándose en un bien preciado y cada vez más costoso.

La contaminación del mar

Los residuos arrojados a los lagos y ríos pasan de modo natural al mar y allí las corrientes los dispersan y trasladan a los puntos más lejanos. Muchos de estos contaminantes son transformados en elementos utilizables por los organismos marinos, dentro del proceso de auto depuración del mar. Pero hay otros, sobre todo los residuos radiactivos y los productos químicos de alta concentración utilizados en procesos muy diversos, que no pueden incorporarse a ningún ciclo natural de estas características y permanecer como tales provocando enormes daños en la flora y fauna marinas. Sus efectos son a menudo a largo plazo o en lugares remotos. Así, DDT utilizado masivamente en los años 50 y 60 en la agricultura paso a través de los ríos a las aguas de los océanos, acumulándose en los elementos del plancton y, de aquí, pasando a los tejidos de los peces, que en un superdepredador, el ser humano, utiliza como alimento. Se han encontrado restos de DDT en cantidades peligrosas en focas y otros carnívoros marinos.

A los vertidos directos a través de los ríos hay que añadir la contaminación con las precipitaciones que arrastran residuos tóxicos, los vertidos incontrolados en altamar y los accidentes de superpetoleros que vierten millones de litros de hidrocarburos a las aguas, o, a menor escala, pero igual de grave por su reiteración, las pequeñas cantidades resultantes de limpiar depósitos en altamar o procedente de fugas de los motores.

Agua potable

Más valiosa que el oro

Buenos Aires. Argentina. Por el simple gesto de mantener la canilla abierta mientras se cepilla los dientes, Roberto M. gasta diez litros de agua al día.

Bou Djébéha. Malí. En mitad del árido paisaje, media docena de niños peules acarrean tres baldes. Después de caminar 6 km. Conseguirán agua para abastecer a sus familias durante una jornada.

Nueva York. Estados Unidos. Cada vez que uno de sus habitantes vacía el depósito del inodoro desaparecen catorce litros de agua potable por las cañerías.

Depresión de Houleh. Israel. Diez litros de agua por día, utilizados gota a gota, sirven para regar unos 100 metros cuadrados de cultivos hortícolas.

París. Francia. 500.000 metros cúbicos de agua, aproximadamente el 50% del consumo diario de la ciudad, son vertidos a las alcantarillas día a día sin que hayan servido a nadie.

El empleo que el hombre hace del agua está relacionado con factores tan dispares como las costumbres, educación, grado de desarrollo y, sobre todo, región del mundo en donde viva. Pero siempre, desde que la especie humana apareció sobre el planeta, nuestra existencia ha estado ligada a este elemento. Y no sólo el hombre depende por completo del agua. El inicio de la vida en la Tierra aconteció en su seno. A partir de entonces, todos los seres viven en el agua o contienen grandes porcentajes de este irremplazable líquido, que en el caso de los humanos representa un 75% de su peso.

El agua es un bien escaso y muy vulnerable, que el hombre malgasta la mayoría de las veces. Durante la celebración, del 5 de junio de 1990, del Día del Medio Ambiente, los diferentes grupos de trabajo de distintos países llegaron a la misma conclusión: la escasez de agua dulce es el mayor problema con el que se enfrenta el mundo. Resulta evidente que la Tierra ya no tiene agua suficiente para abastecer una demanda que es excesiva y creciente. Nuestro planeta contiene la misma cantidad de agua que hace millones de años, en tanto que su uso y, sobre todo, su abuso por parte del hombre no deja de aumentar.

A fines del siglo XX el estilo de vida de los países occidentales se ha convertido en el modelo a imitar para el resto del mundo. Sin embargo, por historia, tradición y cultura, es una civilización que consume mucho agua, en cantidades incluso insultantes, si se contempla desde aquellos lugares en que el incoloro elemento es un bien escaso. Una persona necesita para vivir cinco litros de agua por día. Las exigencias del consumo occidental sitúan el gasto de esa misma persona entre 200 y 400 litros diarios. Para evitar esta absurda sangría, en algunos municipios de países como Alemania, Francia u Holanda se construyen viviendas con doble sistema de cañerías. Por un lado para el agua que podría llamarse normal, utilizada en toda clase de usos domésticos, como limpiar lavar o bañarse, y que llega a las casas sin pasar por todos loa procesos de depuración; y por otro la súper, empleada solo para beber y cocinar, siendo reciclados sus sobrantes en el primer circuito. Asimismo, actividades tan aparentemente poco preocupantes por el medio ambiente, como puede ser el

diseño industrial, han comenzado a tener en cuenta ese factor. Así, ya se comercializan canillas que sólo dejan fluir el agua cuando se mantiene la mano debajo de esta.

LA CONTAMINACION DEL AIRE

Contaminación y ecosistema

La contaminación de la atmósfera engloba todas aquellas alteraciones del medio aéreo, en cuanto a sus propiedades físicas y químicas, que se producen como consecuencia de la intervención directa o indirecta del hombre. Por consiguiente, las descargas de origen natural que en forma de humos o partículas en suspensión pueden producirse en el curso de, por ej., una erupción volcánica no deben incluirse en este contexto, considerándoselas como factores normales en la dinámica del ecosistema terrestre y como uno de los medios de relación entre las zonas más profundas del medio geológico y la capa de la biosfera.

La atmósfera ha experimentado en el curso de la historia geológica del planeta multitud de cambios y aquella primera que se formó en los inicios de la guarda escaso parecido con la que hoy conocemos. Las emisiones volcánicas, la acción de las radiaciones exteriores sobre los compuestos y elementos presentes y la propia actividad de los seres vivos, al principio básicamente las plantas (como productoras de oxígeno), han ido alterando la composición química y las propiedades físicas de esa masa gaseosa. Pero los cambios producidos han sido regresivos y, además, lo que es más importante, han ido estrechamente interrelacionados con la evolución de los seres vivos, es decir, al ser la atmósfera también un producto de la actividad biológica, sus cambios no han perturbado el ciclo natural de los organismos, si bien han actuado evidentemente como un factor evolutivo importante. La presencia de oxígeno en la atmósfera en cantidades suficientes permitió la conquista de los medios terrestres y aéreo por parte de formas vivas provenientes de otras surgidas en los mares. En cambio, la contaminación, como alteración ajena al desarrollo natural del ecosistema terrestre, supone un grave riesgo de destrucción de varios eslabones de la cadena y en última instancia del propio ecosistema terrestre.

La actividad industrial ha ido sobrecargando la atmósfera con sustancias de todo tipo y a partir de un umbral determinado los daños han comenzado a producirse de un modo acelerado, afectando en particular a los aspectos más visibles del ecosistema y también al entorno más inmediato del ser humano (el aire que respira, la destrucción de sus monumentos, etc.).

Esto ha despertado la conciencia de la población sobre la gravedad de esta agresión al medio.

Causas y efectos de la contaminación

atmosférica

Los agentes contaminantes son partículas sólidas, como por ejemplo hollín, así como vapores, gases, humos y diversas sustancias, a menudo de carácter tóxico, que se vierten a la atmósfera como producto residual de actividades industriales o domésticas y que muy a menudo aunque no sean tóxicos reaccionan allí con otros componentes, transformándose en productos peligrosos, como por ej., ácidos.

En la mayoría de los casos esta contaminación es evitable, ya sea utilizando filtros depuradores, mejorando la eficacia de los procesos o utilizando combustibles menos contaminantes.

Los contaminantes suelen dispersarse en la atmósfera a merced de los vientos imperantes, provocando a veces problemas en lugares distantes, donde esos residuos pueden acumularse. La propia dinámica atmosférica facilita de este modo hasta cierto punto la autodepuración, pero contribuye por otro lado a propagar el mal. Otras veces, cuando no sopla el viento, se acumulan formando una especie de hongo por encima de la zona que los genera (visible con frecuencia sobre las grandes ubres) o mezclándose y reaccionando con la niebla para dar lugar al llamado "smog".

El efecto de todos estos productos no sólo se manifiesta en la pérdida de calidad de vida en las urbes y conglomerados urbanos y en la aparición de enfermedades respiratorias entre sus pobladores, sino que altera también gravemente los procesos de respiración natural de las plantas, provocando a menudo su muerte. De este modo se destruye la base de las cadenas tróficas y, en consecuencia, uno de los principales eslabones del ecosistema terrestre.

Hay tres efectos de la contaminación atmosférica especialmente notables que veremos en apartados especiales: la destrucción de la capa de ozono, el efecto invernadero y la lluvia ácida.

La destrucción de la capa de ozono

La erosión de la capa de ozono

La detección hace algunos años de una disminución del espesor de la capa de ozono en la Antártida y en el Ártico, el denominado "agujero" en la capa de ozono, ha planteado la hipótesis de una grave interferencia humana en la atmósfera, ya que el filtro que ejerce el ozono estratosférico sobre la radiación solar ultravioleta es esencial para el mantenimiento de la vida sobre el Planeta.

¿Qué es el ozono?

El ozono es un gas que de forma continua se genera en las capas altas de la estratosfera. Este gas es el resultado de una serie de reacciones químicas que sufre la molécula de oxígeno al aportarle energía suficiente, como por ej. Las radiaciones ultravioletas o una descarga eléctrica. Esta energía produce la ruptura de la molécula de oxígeno y forman el oxígeno triatómico, llamado ozono, un gas fuertemente corrosivo y venenoso.

Elementos destructores del ozono

La presencia de este gas en la estratósfera es beneficiosa puesto que cumple la misión de filtro de los rayos ultravioletas, los cuales si llegaran directamente a la Tierra dañarían muchos procesos vitales.

Sin embargo, el ozono es atacado por el cloro y otros elementos como el metano, el bromo y el flúor. Estos se liberan de los compuestos sintéticos que se originan en los aerosoles, frigoríficos, acondicionadores de aire, extintores, productos de limpieza y disolventes, así como en la fabricación de los materiales de aislamiento térmico o de las espumas plásticas. Todos estos productos contienen un nuevo gas, el freón, compuesto de clorofluorocarbonos (CFC).

Así mismo, el progresivo recalentamiento de las capas inferiores de la atmósfera, debido a desastres naturales, como las erupciones volcánicas o también desastres artificiales, como el efecto invernadero, provoca un enfriamiento de la estratósfera. Este enfriamiento puede conducir a la formación de más partículas de hielo ácido que facilitan una mayor liberación de cloro activo y el consiguiente incremento de la destrucción del ozono.

El "agujero en la capa de ozono

Las oscilaciones del espesor de la capa de ozono guardan estrecha dependencia con las variaciones de la radiación solar. Por eso, en los polos, la desigual incidencia de la radiación solar en verano o invierno ocasiona acusados contrastes en el espesor de la capa de ozono que los hace particularmente vulnerables a los efectos perjudiciales de los CFC.

Así por ej., en la estratosfera de la Antártida, a la acción destructora de los CFC se une la acción de las partículas de hielo ácido, que se forman sobre todo en primavera, causante de la liberación de cloro activo que destruye la capa de ozono. El resultado es la formación estacional de un "agujero" en la capa de ozono, que es motivo de preocupación, ya sea por el temido aumento del efecto invernadero en lo sucesivo, como por las consecuencias en materia sanitaria derivada de la debilitación en el tamizado de los rayos ultravioleta.

Cierta cantidad de rayos ultravioleta son necesarios, pues, por ejemplo, activan la vitamina D. Sin embargo, su exceso puede producir enfermedades en los ojos, como las cataratas, cáncer de piel, inhibir el sistema inmunológico o simplemente graves quemaduras. Además, pueden también retrasar o impedir el crecimiento de las plantas, así como deteriorar el plancton y el ecosistema marino.

Efecto invernadero

El anhídrido carbónico es un producto natural del metabolismo orgánico, producido por plantas y animales. Sin embargo, cuando se genera en cantidades excesivas en procesos artificiales (motores de combustión, etc.) se acumula en la atmósfera y actúa como un cristal filtrante, permitiendo el paso de la energía solar pero impidiendo su salida cuando la superficie del planeta refleja una parte de ella (albedo). La consecuencia es un progresivo calentamiento de la atmósfera, como sucede en el interior de un invernadero con paredes de cristal. Un aumento tal de la temperatura global es muy peligroso por sus consecuencias climáticas y, por tanto, sus efectos sobre el equilibrio natural de los ecosistemas

Lluvia ácida

Las partículas de anhídrido sulfúrico emitidos en el curso de numerosos procesos industriales y en el funcionamiento de los motores de los automóviles reaccionan con el vapor de agua para dar primero ácido sulfuroso y después sulfhídrico. Éste, mezclado con el agua de lluvia, cae al suelo alterando el pH de éste y de las masas de agua continentales (sobre todos los lagos), que al volverse ácidas impiden toda forma de vida en su interior. Además, el ácido tiene un efecto corrosivo directo sobre las plantas y, por ej., monumentos, como son las catedrales de Europa o simplemente los edificios convencionales.

La deforestación

En la actualidad, la superficie continental del globo está cubierta en un 30% por bosques. Estos constituyen ecosistemas terrestres más ricos, es decir son uno de los mayores recursos naturales de la tierra, tanto en flora como en fauna y muy especialmente en los bosques subtropicales húmedos. Que cubren África Occidental y Central, Asia Meridional, parte de América Central y del Sur, de Australia nororiental y muchas islas del Pacífico. Desde tiempos remotos, el hombre ha ido deforestando superficies boscosas. Con objeto de obtener materias primas como la madera o ganar tierras para la práctica de agricultura y del pastoreo: pero, a partir del siglo XX. El ritmo de deforestación a crecido de modo alarmante, sobre todo en regiones de bosque tropical húmedo, hasta poner en peligro el futuro de la biosfera. Se calcula que, por estos conceptos. Latinoamérica ha perdido un 37% de sus bosques, Asia el 42% y África el 52%.

La silvicultura comercial

Los bosques tropicales poseen variedades de árboles que dan valiosas maderas muy apreciadas en la fabricación de muebles de calidad. Con frecuencia, grandes empresas madereras foráneas explotan el bosque sin tener en cuenta su restablecimiento. Tal es el caso de la selva brasileña. El bosque y la selva cobijan además innumerables especies animales, por lo que la deforestación propicia también la extensión de la fauna.

Agricultura comercial

Principalmente en Latinoamérica se talan bosques para sustituirlos por pastos para el ganado o plantaciones. En los pastos se engorda el ganado que luego es producto de exportación. Por otra parte, en las plantaciones se cultivan productos también exportables, como la caña de azúcar o bien frutas y hortalizas muy solicitadas en los mercados de los países industrializados, como plátanos, piñas, cacahuetes, etcétera.

Agricultura de supervivencia

La presión demográfica a la que se encuentran sometidas muchas de estas zonas conduce a una explotación de las tierras poco productivas y muy dañina. Los campesinos siguen el proceso siguiente: talan y queman los árboles y la vegetación del terreno que se pretende explotar, utilizando las cenizas como fertilizante. Plantan cultivos de subsistencia y tras tres o cuatro cosechas el terreno se agota por lo que deben talar nuevos árboles y comenzar el proceso. Unos 150 mil millones de campesinos en todo el mundo esta modalidad en la actualidad.

Consecuencias de la deforestación

Las consecuencias más inmediatas y claras son la erosión del suelo, el avance del desierto y la pérdida de especies vegetales y animales que acompañan al ecosistema y que al desaparecer éste, sucumben.

Sin embargo existe otro tipo de efectos relacionados, como son las inundaciones, la pérdida de códigos genéticos de las especies vegetales y también el impacto climático global por incremento del efecto invernadero en el planeta.

Así, las inundaciones que en principio deberían catalogarse como desastres naturales, tienen su origen, en ocasiones, en la acción irracional del hombre. Por otra parte, la destrucción del medio y de todo lo que con él se relaciona comporta, entre otras cosas, la desaparición de especies primitivas de las plantas de cultivo. Estas últimas son híbridos más débiles que sus ancestros silvestres frente a las plagas y enfermedades y, según los especialistas, las nuevas enfermedades que afectan las plantas pueden vencerse aislando genes de resistencia procedentes de las especies originarias. Además, los bosques tropicales son ricos en plantas medicinales, muchas de ellas total o escasamente conocidas, por lo que su conservación es un esencial recurso sanitario.

Por último, la pérdida de masa forestal es especialmente grave dada la cantidad de dióxido de carbono que absorben de la atmósfera y el oxígeno que desprenden. Al disminuir la masa forestal, aumenta la concentración del gas carbónico atmosférico, lo que contribuye al efecto invernadero, causante del incremento de la temperatura global en la biosfera.

Energías alternativas

Los recursos no renovables

Las fuentes energéticas pueden dividirse en dos grandes grupos: el primero de ellos incluye todas aquellas ya formadas y con unas existencias más o menos grandes pero limitadas, por lo que reciben el nombre de no renovables. Una de las más importantes y las primeras que utilizó el hombre son las de origen fósil, siendo el carbón y el petróleo las más abundantes y utilizadas en la actualidad. Se trata de recursos con yacimientos de calidad diversa y distribuidos por distintas partes del mundo y que a largo plazo se agotarán, pues para su regeneración se requieren muchos millones de años (los mismos que tardaron en formarse) y unas condiciones ambientales que no se dan en la actualidad en nuestro planeta.

Otro aspecto de creciente preocupación son los residuos contaminantes producidos en la combustión de estos recursos. Muchos tipos de carbón pretenden cantidades muy elevadas de compuestos tóxicos y apenas pueden utilizarse. Los derivados del petróleo como son la gasolina y otros combustibles, provocan emisiones, muy perjudiciales. El gas natural es el que menos contaminación provoca, pero lo mismo que los restantes sus yacimientos, aunque de enormes proporciones todavía, son limitados.

La energía nuclear pareció al principio de su utilización ser un recurso prácticamente inagotable dado el elevado número de unidades enérgicas que proporciona en relación a su peso, muy superior a los de los combustibles tradicionales, pero no ha conseguido tampoco satisfacer las esperanzas puestas en ella. Las técnicas de su aprovechamiento no han alcanzado aún el rendimiento ni el nivel de seguridad esperados y, además, los residuos reactivos plantean un enorme problema de eliminación, no resultó hasta la fecha. Por ese motivo, gran numero de países han renunciado al empleo de esta forma de energía, en particular después de los numerosos incidentes en centrales ocurridos en todo el mundo y el espectacular y destructivo incendio de la central ucraniana de Chernobil, que además de las víctimas directas (muchas de ellas mortales) ha provocado una contaminación radiactiva de su entorno cuyas consecuencias son a muy largo plazo.

Los recursos renovables

El otro tipo de fuentes enérgicas son las denominadas renovables, es decir, aquellas que se están produciendo de nuevo constantemente. Unas son de origen vegetal, como es el caso de la madera (y en general de la biomasa procedente de las plantas), y aunque el exceso de consumo puede provocar dificultades de abastecimiento siempre es posible renovarlo, si bien puede dejar de ser rentable. Otras por el contrario, son prácticamente ilimitadas y dentro de ese grupo se incluyen el sistema solar, la geometría, la eólica y las producidas por las corrientes y mareas.

Entre estos recursos renovables, los que mayor importancia presentan en la actualidad son los llamados «limpios», es decir, los que no contaminan ni perjudican al medio ambiente. Sin embargo, de esta ventaja no es aprovechable en todo su enorme potencial puesto que las tecnologías disponibles no permiten todavía un aprovechamiento óptimo de estos recursos.

Aun cuando una energía de este tipo no perjudique directamente al medio ambiente, en ocasiones los medios técnicos utilizados para su aprovechamiento constituyen al menos riesgos potenciales para algunos ecosistemas. Este es el caso, por ejemplo, de las grandes compuertas que se necesitan para aprovechar la fuerza de las mareas, que provocan un cambio radical en las condiciones mecánicas del área marina afectada, alternado gravemente el régimen general de las corrientes, las variaciones cíclicas de los niveles del mar (a las que están genéticamente adaptadas numerosas especies marinas) y, en consecuencia, el ecosistema costero. De manera similar las grandes persas de los ríos, levantadas con fines de aprovechamiento hidroeléctrico, pueden destruir por completo el ecosistema fluvial, impidiendo el libre intercambio de especies entre los distintos tramos e interrumpiendo el curso natural de las migraciones de muchos peces, como anguilas o salmones.

Las energías limpias

La principal de estas energías es la solar, que se aprovecha en la actualidad mediante células que la transforman en electricidad. Se fabrican con silicio y se utilizan ya, además de en las naves y estaciones espaciales, en aplicaciones domésticas. Un sistema de células solares puede abastecer de energía a una vivienda y esta opción se utiliza sobre todo en aquellas regiones que el transporte de las formas convencionales de energía eléctrica a través de tendidos de cable resulta muy costoso debido a su aislamiento. Existen algunas centrales en diversos países que pueden producir electricidad conectada a la red general. Aunque el coste inicial de las instalaciones de energía solar resulta más elevado que el de las convencionales, tras unos pocos años de funcionamiento se amortiza y el consumo se realiza entonces de modo gratuito.

La energía eólica cuenta con una vieja tradición en los molinos de viento, pero en los actuales dispositivos la energía obtenida no es mecánica sino también eléctrica. Los llamados parques eólicos consisten en una serie de grandes molinos de aspas alargadas que se sitúan en regiones donde los vientos sean mas o menos constantes y de una determinada fuerza.

La energía geotérmica se basa en el propio calor de la superficie terrestre, cuya temperatura va aumentando con la profundidad. Para aprovechar este fenómeno se inyecta agua hasta una cierta profundidad, donde se calienta y asciende. Con intercambiador de calor, este aumento de la temperatura puede convertirse en energía eléctrica. De manera similar, se utilizan también aguas termales y géiseres.

La gran fuerza del oleaje y de las mareas ha sido también objetos de estudios para su aprovechamiento. Para ello se han realizados proyectos que contemplan la instalación de grandes compuertas y turbinas en regiones de mareas muy vivas y que se situarían en lugares confinados como una bahía o similares. El cambio de dirección de las aguas movería dichas turbinas, con las que se generaría corriente eléctrica. Un principio similar es utilizado en los ríos para obtener energía hidroeléctrica, situando turbinas accionadas por la fuente de la corriente o bien creando una presa y aprovechando de este modo una corriente artificial permanente.

El medio y el hombre

Importancia de la especie

humana para el ecosistema

El ser humano comparte con otros mamíferos la versatilidad general de este grupo zoológico que le ha permitido estar presente hoy en la mayoría de los medios del planeta. Dentro de los mamíferos se encuentra en la línea evolutiva de los primates, habiendo alcanzado un notable desarrollo psíquico y manual que son ya características de los representantes superiores de este grupo. Todos estos rasgos tienen una influencia decisiva sobre el ecosistema, después permiten al hombre intervenir de un modo mucho más activo que otros organismos y, además, independizarse él mismo en cierto modo de muchos de los factores externos.

Los pueblos primitivos de la actualidad, y nuestros propios antecesores en épocas prehistóricas y, hasta cierto punto, todavía en tiempos preindustriales, mantienen una relación intima con la naturaleza, participando en sus ciclos de un modo análogo a otros animales.

Sin embargo, la civilización como creación de nuestra especie, ha ido acompañada de una alteración cada vez más profunda del entorno, un fenómeno que hoy podemos constatar en general como destructivo. La aparición de las ciudades y de las vías de comunicación en la antigüedad supusieron ya una intrucción importante en la naturaleza, pero la relativa longitud del proceso permitió que esta se adaptara a los cambios con pérdidas poco importantes. La estepa cultivada o la dehesa (típica de la región occidental de la península Ibérica) son ejemplos de medios configurados por el hombre pero en los que la vida natural ha encontrado la vía adecuada de adaptación.

Los mayores problemas han surgido desde la era industrial debido a dos factores importantes: la generación acelerada de residuos procedentes de las actividades humanas y la gran rapidez con que se han producido los cambios, que no han permitido a las especies animales o vegetales hacer frente a las nuevas circunstancias.

Efectos de la presencia humana

El ser humano es un omnívoro que utiliza como recurso trófico una amplia variedad de organismos animales y vegetales. Este régimen alimenticio, unido a su capacidad intelectual, la han convertido en predador poderosísimo, que actúa con gran ventaja frente a los restantes animales. El incremento gigante de la población ha hecho que se pasara de la primitiva economía de subsistencia a la producción masiva de alimentos. Al no ser ya posible cubrir las necesidades con los métodos de depredación habituales (caza, pesca), el hombre se convirtió en agricultor y ganadero, actividad que biológicamente podría equiparse a un parasitismo, ya que no destruye al organismo atacado (en este caso la especie: trigo, vaca, gallina) sino que le mantiene como proveedor permanente de alimentos.

La presencia humana, por último ha adquirido un peso significativo con el conjunto de población animal del planeta al superar sus efectivos con creces a los de otras especies de mamíferos superiores. Una población de cinco a diez millones de seres supone una carga notable para el ecosistema terrestre.

La intervención humana

En los ciclos de la naturaleza

Junto a su actividad depredadora o parásita o a los efectos directos de su presencia (ya sean carreteras o urbes o bien la contaminación del medio con los residuos que produce), la intervención humana tiene un aspecto de indudable importancia y mucho menos visible pero no por ello menos peligroso. Se trata de la intervención sobre los ciclos de la naturaleza.

La simple producción de los residuos tóxicos o no, pero no por eso menos contaminantes, significa ya una alteración, a menudo muy profunda en un ciclo natural. El exceso de nutrientes vertidos a las aguas de un río o un lago lo transforman radicalmente, conviertiéndole en un medio eufórico en el que al final desaparece la vida. Estas intervenciones «brutas» conducen a unos resultados visibles que afectan directamente al propio bienestar humano, despertando por ello la conciencia de mal causado.

Pero existe además una serie de otras intervenciones que alteran también de un modo radical las condiciones del ecosistema, aunque muchas veces pasen desapercibidas. Se trata de las intervenciones indirectas que resultan de una actividad dirigida a otros fines. El caso más conocido es el del DDT. Empleado originalmente para compartir las plagas de mosquitos y después como insecticida para la agricultura, se acabó prohibiendo su uso a causa de su alto nivel contaminante; la presencia del producto en la grasa de las focas alertó sobre su peligrosidad. Al emplearlo por primer vez no se tuvieron en cuenta los ciclos de la materia a los que se encuentra sometida en nuestro planeta, los organismos vivos, incluido el ser humano, son solo eslabones en una larga cadena, a través de los cuales circulan la materia y la energía.

Otro ejemplo más actual de intervención está en el uso de variedades de plantas agrícolas obtenida por medios de ingeniería genética. Con el fin de conseguir mejores cosechas y productos más resistentes, se han provocado notaciones y se han llevado a cabo cambios artificiales en la constitución genética de varias especies, obteniéndose nuevos tipos con unas características óptimas. Otro tanto sucede con algunas especies animales, principalmente de insectos. Sin embargo, se desconocen todavía muchas de las vías por las que esos genes alterados discurrirán en la naturaleza; por consiguiente, el uso en los campos de cultivo o la liberación de esas nuevas especies modificadas supone una intervención a ciegas sobre unos ciclos en gran parte desconocidos. Un único eslabón es suficiente para cambiar todo una cadena. Las relaciones entre especies son muy diversas, como hemos visto anteriores capítulos, por lo que intervenir sobre ellas desconociendo los posibles resultados requieren un cuidado muy especial.

RESUMEN HISTORICO DE MOVIMIENTOS ECOLOGISTAS

1882: se crea en Estados Unidos el Sierra Club, que aglutina a cidar a ciudadanos amantes de las bellezas del país que ven como desaparecen con rapidez ante la voracidad humana.

1889: se funda en Gran Bretaña la Royal Society for the Protection of Birds, que agrupa actualmente a más de 500 mil afiliados.

1930-1940: surgen en diversos países el estudio y la defensa de los animales en general, que se ocupa de proyectos en todo el planeta.

1948: se crea la Unión Internacional para la Conservación de la Naturaleza y sus Recursos Naturales (UICN), con 112 agencias gubernamentales y 293 organizaciones no gubernamentales, de 57 estados.

1961: se crea el Fondo Mundial para la Naturaleza (World Wildlife Found, WWF). Su fin es organizar y financiar proyectos de protección de ecosistemas importantes en todo el planeta. Unas de sus primeras actividades fue la adquisición de terrenos para el futuro parque nacional de Doñana. Se divide en secciones nacionales (por ej., ADENA, en España).

1968: el Dr. Félix Rodríguez de la Fuente inicia sus programas divulgativos por televisión, que despiertan el interés por la naturaleza en España.

1969: se crea en EEUU la asociación Friends of the Earth, que se extienden por varios países. En España aparece en 1979, denominándose Federación de Amigos de la Tierra (FAT).

1971: aparece el núcleo inicial de lo que será Greenpeace. Un grupo de defensores de la naturaleza se opone a las pruebas nucleares estadounidenses en Alaska y crea la organización en Vancouver (Canadá). Emprende más tarde otras campañas por todo el mundo, destacando las que se oponen a la caza de las ballenas y a los vertidos tóxicos en los mares dispone hoy de socios en todo el mundo y es una de las organizaciones más conocidas y activas en la actualidad.

1971: se crea en la UNESCO el programa MAB (El hombre y la biosfera).

1972: tiene lugar en Estocolmo la Conferencia Mundial sobre el Medio Ambiente.

1972: informe del Club de Roma sobre el estado del medio ambiente y los límites de crecimiento.

1973: se reúne por primera vez el movimiento ecologista español, que cuenta ya con numerosas organizaciones.

1979: mediante el Convenio de Berna y el anterior Tratado de Washington sobre Tráfico de especies, se intenta impedir la extinción de especies naturales en peligro de desaparición.

1981: aparece el primer número de la revista Quercus, que aglutina el pensamiento conservacionista Español y que consigue una amplia difusión y permanencia hasta la actualidad, convirtiéndose en una de las principales publicaciones ecologistas españolas, con una calidad científica creciente.

1987: la CE comienza a preparar una nueva legislación europea tendente a defender con mayor eficacia a los ecosistemas amenazados.

1992: se reúnen en Río de Janeiro los representantes de 175 países en la Cumbre de la Tierra para estudiar la vulnerabilidad del planeta y tomar medidas.

1993: se prolonga la moratoria para proteger la Antártida contra su explotación.

El medio ambiente en peligro:

Un problema de todos

La contaminación de las aguas, los suelos, el aire, y la desaparición de especies vegetales y animales, nos pone a los seres humanos en el desafío de cuidar la vida en el planeta, de la cual, junto con ellos, formamos parte.

La preocupación por la preservación y la recuperación del medio ambiente ha pasado a ser uno de los problemas más importantes del mundo del siglo XX. Muchas organizaciones nacionales e internacionales se ocupan de mantener a la población informada sobre el tema, de denunciar las acciones irresponsables y, entre otras tareas, de alertar a las autoridades sobre los riesgos.