Actividades del hombre (Antropogénicas)
Entre las actividades realizadas por el hombre que más contaminan y los tipos de contaminantes respectivos, podemos destacar:
• Actividades domésticas: materiales orgánicos, basuras, aguas residuales con presencia de detergentes, aceites usados, que son lanzados directamente al océano en zonas rurales costeras o urbanas sin servicio de alcantarillado.
• Actividades industriales: materiales orgánicos, residuos químicos, metales pesados, aguas de refrigeración de la maquinaria, residuos de hidrocarburos, productos radioactivos, algunos con temperaturas diferentes a las del medio marino, ocasionando contaminación térmica.
• Actividades Forestales: sedimentos y material en suspensión
• Actividades de navegación y portuarias: residuos de petróleo, aguas sanitarias, aguas aceitosas de las maquinas, residuos orgánicos, basuras, etc.
• Actividades mineras: Residuos de metales pesados.
Accidentes por actividades antropogénicas
• Derrames de origen industrial de productos químicos, plaguicidas, derivados del petróleo, etc.
• Derrames derivados de actividades marinas, producidos por buques, plataformas marinas, etc, depositando en el medio marino residuos de petróleo, productos químicos y orgánicos.
Estos efectos dependen de la concentración en la que se encuentren las sustancias, de su persistencia y de su biodisponibilidad, pudiendo ocasionar desde efectos no letales, como el desplazamiento temporal de algunas especies, hasta la muerte de poblaciones enteras.
Los efectos de la contaminación comenzaron a ser mayormente visibles a partir de la Revolución Industrial (1830-1890), cuando la producción en masa, así como el hacinamiento de personas en las ciudades, provocó condiciones insalubres que produjeron muertes masivas, enfermedades crónicas y degenerativas, además de la devastación de bosques y ríos (Neuzil y Kovarik, 1996). Esta situación se vio magnificada posteriormente por la llamada “Revolución Química”, la cual propició la utilización de miles de sustancias para fabricar productos de consumo diario, sin la realización de estudios científicos para conocer los posibles efectos
De hecho, en 1983 se estimó que aproximadamente 63,000 compuestos eran de uso común a nivel mundial, de los cuales 3,000 representaban aproximadamente el 90% del peso total de los compuestos producidos por la industria. En ese momento, se estimó además una producción de 200 a 1000 nuevos compuestos por año (Moriarty, 1988).
La investigación formal de los efectos adversos de los contaminantes sobre los organismos se inicia en la década de los años 30, a través del desarrollo de estudios para determinar la relación causa-efecto entre la presencia de contaminantes químicos en el agua y sus efectos biológicos en poblaciones de peces. Estos estudios se enfocaron en su mayoría a confirmar si un contaminante, del que se tenía
sospecha, era el agente causante de un daño que ya había ocurrido y se basaron en pruebas de mortalidad de los organismos (pruebas de toxicidad aguda).
Entre los primeros animales acuáticos empleados en los estudios de toxicidad se encuentra la carpa dorada (pez ornamental), la cual es una especie de fácil manejo en condiciones controladas de laboratorio. Sin embargo, cuando se descubre que estos peces eran más resistentes que otras especies de importancia económica y social como las truchas, se inicia el desarrollo de una plétora de pruebas con una gran variedad de organismos. Con ello se demostró claramente la gran diferencia en la sensibilidad a los contaminantes que existe entre los organismos, la cual puede variar incluso en varios órdenes de magnitud (Macek, 1980).
Durante las décadas de1940 a 1960, los estudios que demostraron los efectos que producían los plaguicidas agrícolas sobre la vida silvestre, catalizaron el desarrollo de la toxicología ambiental y con ella el desarrollo de pruebas en las que, además de la mortalidad, se medían otros indicadores de importancia ecológica, tales como el crecimiento y la reproducción en organismos acuáticos y terrestres. Fue en esta época cuando se reconoció que este tipo de estudios requerían de la participación de investigadores de distintas áreas del conocimiento como son la química, la ecología, la biología y la toxicología, entre otras. El término “ecotoxicología” fue establecido por Thuhaut en 1969 como una extensión natural de la toxicología (que estudia los efectos en organismos individuales) enfocada al estudio de los efectos ecológicos de los contaminantes o bien al estudio de los efectos de los contaminantes en los ecosistemas (Moriarty, 1988). En 1974 se ofreció por primera vez un programa a nivel licenciatura en toxicología ambiental en la Universidad de California, el cual fue pionero en los Estados Unidos y probablemente en el mundo.
En 1977 se reunió un grupo de científicos interesados en formalizar las pruebas de toxicidad con organismos vivos. A esa reunión asistieron no solamente académicos, sino también representantes del gobierno y de la industria, los cuales discutieron las características que deberían tener estas pruebas y las categorizaron en orden de importancia de acuerdo a las siguientes aspectos:
Ser capaces de generar resultados ecológicamente significativos
Ser capaces de generar información defendible desde el punto de vista científico y legal
Estar basadas en métodos disponibles rutinariamente y ser de amplia aplicación
Ser predictivas de efectos ecológicos
Ser aplicables a una amplia variedad de compuestos
Ser simples y costo-efectivas
De las pruebas analizadas por este grupo de científicos, las evaluaciones de toxicidad aguda recibieron las calificaciones más altas, ya que cumplen con todas o casi todas las características descritas anteriormente (Henry, 2006). No obstante, cabe señalar que este tipo de evaluaciones pueden tener algunas limitantes, ya que el hecho de que demuestren que un contaminante ocasiona la mortalidad del 50% deuna especie no necesariamente significa que pueda presentarse un daño ecológico.
Asimismo, estas pruebas no pueden detectar fácilmente los efectos de compuestos que no sean letales pero que retarden el desarrollo (crecimiento o reproducción) de las especies, o de compuestos que produzcan daños a nivel poblacional, lo cual puede tener un impacto ecológico considerable (Moriarty, 1988). Sin embargo, es importante enfatizar que aún ahora las pruebas de toxicidad aguda son de gran utilidad porque permiten la construcción de bases de datos para la comparación de la sensibilidad de las especies a los contaminantes o de la toxicidad de un grupo de compuestos en una especie en particular, de una manera rápida y económica.
Actualmente, los resultados de las pruebas de laboratorio son aceptados como estimaciones conservadoras de los efectos potenciales de las sustancias en el medio ambiente y se reconoce su utilidad para los programas de monitoreo ambiental, así como para la regulación de substancias, ya que son herramientas baratas, que permiten identificar y evaluar los efectos potenciales de los contaminantes generados por actividades agrícolas, acuícolas, industriales y urbanas, sobre componentes biológicos, con lo que se puede priorizar muestras o áreas que requieren estudios más exhaustivos y caros. Aún más, integradas con análisis químicos, geológicos y ecológicos, pueden ser utilizadas para determinar índices de calidad ambiental.
Asimismo, las pruebas biológicas pueden ser utilizadas para evaluar la biodisponibilidad de contaminantes, inclusive en muestras con mezclas complejas, mediante una gran diversidad de respuestas a distintos niveles de organización biológica, que van desde alteraciones bioquímicas y moleculares, hasta disfunción endocrina, modificaciones conductuales y fisiológicas (efectos sobre crecimiento, reproducción) y de los parámetros poblacionales.
Desde el punto de vista regulatorio las pruebas biológicas pueden utilizarse para establecer criterios de calidad ambiental, para controlar descargas de aguas residuales municipales e industriales, para regular el uso y producción de sustancias químicas y para enjuiciar y defender actividades relacionadas con los contaminantes en casos de litigio ambiental. Por último, las industrias pueden incorporar las pruebas biológicas a su proceso de toma de decisiones con respecto al desarrollo, manufactura y comercialización de sus productos (Rand y Petrocelli, 1985).
Alrededor del mundo se han desarrollado ejercicios en los que se ha buscado estandarizar pruebas de toxicidad (APHA, 1981, ASTM, 1980a y 1980b) , así como seleccionar grupos de éstas con distintas especies para integrar lo que se conoce como “baterías de pruebas”, las cuales tienen como objetivo tratar de identificar los efectos de los contaminantes y de nuevas sustancias sobre un grupo de organismos que representen distintos grupos taxonómicos de importancia ecológica y cuyas sensibilidades sean complementarias. De esta forma se hace posible detectar un efecto en el caso de muestras en las que se desconoce el origen de su toxicidad.
Adicionalmente, se ha buscado demostrar su efectividad y reproducibilidad a través de ejercicios de intercalibración y estandarización-armonización. En particular para Latinoamérica y en el caso de ambientes de agua dulce, cabe destacar el esfuerzo que el Centro Internacional de Investigaciones para el Desarrollo de Canadá realizó en 1996, en el cual expertos de ocho países (Argentina, Canadá, Chile, Colombia, Costa Rica, India, México y Ucrania) llevaron a cabo un programa de intercalibración, con la finalidad de validar una batería de ensayos a través de muestras ciegas y su posterior aplicación en muestras ambientales. Como resultado de esta experiencia se publicó el libro Ensayos Toxicológicos y Métodos de Evaluación de Calidad de Aguas. Estandarización, intercalibración, resultados y aplicaciones (Castillo, 2004). Cabe destacar que de esta publicación, se han incorporado algunos capítulos en el presente documento, ya que se considera que las pruebas que se describen tienen aplicabilidad probada en México.
Experiencia y necesidades en México
En México, el sector académico ha desarrollado estudios de toxicología ambiental desde principios de los años 80, cuando se reconoció la necesidad de conocer los efectos que la contaminación estaba produciendo sobre los ecosistemas y sus componentes. Hoy en día existe un interés creciente por el desarrollo de procedimientos estandarizados para la evaluación ecotoxicológica de los compuestos o elementos químicos potencialmente dañinos. Esto exige el desarrollo o adaptación de una serie de pruebas biológicas (batería de bioensayos) para medir directamente los efectos tóxicos en los organismos y en los ecosistemas. Este requerimiento surge debido a la necesidad de adaptar los bioensayos a las condiciones particulares de nuestro país, ya que la gran mayoría de las pruebas estandarizadas hoy en día han sido desarrolladas utilizando organismos y condiciones presentes en las áreas templadas del mundo. México, por el contrario, presenta vastas regiones subtropicales y tropicales que difieren en temperatura, iluminación, entre otras condiciones ambientales, lo cual puede cambiar no solamente el comportamiento fisicoquímico de los contaminantes, si no también el metabolismo de los organismos (Johannes y Betzer, 1975). Más aún, México junto con Brasil, Colombia
e lndonesia, se encuentra entre los primeros lugares de las listas de riqueza de especies (SEMARNAP, 1999), por lo que es particularmente importante contar con pruebas que garanticen, en lo posible, la protección de esta megadiversidad.
Contar con estos procedimientos le permitirá al país tener avances importantes en la protección del ambiente. Sin embargo, estas pruebas no pueden aplicarse tal cual se hace en otros países, ya que es indispensable tomar en cuenta, además de las características propias de nuestros ecosistemas, la infraestructura disponible, así como los recursos humanos y económicos existentes.
La Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT) ha identificado que varias de las actividades que son de su competencia, tales como la revisión de estudios ecotoxicológicos para el registro de nuevos plaguicidas, el análisis de estudios de evaluación de riesgo ecológico, la caracterización de los residuos industriales, la evaluación de la contaminación por emisiones, fugas, derrames y descargas, entre otras requieren de procedimientos estandarizados para medir los impactos que ocasionan sobre los organismos y los ecosistemas. Hoy en día dichas actividades se regulan únicamente con análisis fisicoquímicos, con los cuales no es posible determinar los efectos biológicos. Por tal motivo, es importante complementar dichos análisis con bioensayos de toxicidad para determinar los efectos sobre los individuos, los cuales puedan afectar a las poblaciones y los ecosistemas en general. Con la interacción de la información generada en ambas pruebas (fisicoquímicas y biológicas) se contará con una visión más completa de los efectos adversos que ocasionan los contaminantes sobre los componentes bióticos y abióticos de los ecosistemas, coadyuvando a determinar medidas integrales para proteger el ambiente.
Esta obra es un primer esfuerzo que trata de apoyar y responder a las necesidades anteriormente planteadas y nace como un proyecto bajo el auspicio e iniciativa del Instituto Nacional de Ecología (INE).
Existen actualmente pruebas más concluyentes sobre la influencia de la actividad humana en el clima mundial. www.grida.no/climate/ipcc_tar/vol4/spanish/068.htm
Un número creciente de observaciones ofrece una visión colectiva de un mundo cada vez más cálido, y los estudios de simulación indican la probabilidad de que, en su mayor parte, el calentamiento observado en la superficie terrestre durante los últimos 50 años se haya debido a actividades humanas.
A escala mundial, es probable que el decenio del 1990 fuera el más cálido desde que tenemos registros instrumentales (desde el año 1861). Para el Hemisferio Norte, es probable que la magnitud del calentamiento en los últimos 100 años sea la mayor de cualquier siglo durante los últimos 1.000 años. Las observaciones y las simulaciones proporcionan pruebas más sólidas de que, en gran parte, el calentamiento observado durante los últimos 50 años se puede atribuir a un aumento de las concentraciones de gases de efecto invernadero. Las observaciones también dan una mayor confianza sobre la capacidad de las simulaciones para ofrecer proyecciones sobre los cambios climáticos futuros. Para una mejor cuantificación de la influencia humana, es necesario reducir las incertidumbres clave relacionadas con la magnitud y carácter de la variabilidad natural y de la magnitud de las fuerzas naturales debidas a factores naturales y a los aerosoles antropogénicos (particularmente, los efectos indirectos) y la relación de tendencias regionales con el cambio climático antropogénico.
Emisiones y concentraciones futuras de gases de efecto invernadero y aerosoles
Las actividades humanas aumentan las concentraciones atmosféricas de gases de efecto invernadero.
Desde el año 1750 (es decir, desde el principio de la Revolución Industrial), la concentración atmosférica de CO2 (el principal factor que contribuye a los forzamientos radiativos antropogénicos) ha aumentado en un 31 por ciento debido a las actividades humanas, y todos los escenarios del IEEE proyectan importantes aumentos en el futuro. Otros gases de efecto invernadero han aumentado también sus concentraciones desde el año 1750 (el CH4 en un 150 por ciento, y el N2O en un 17 por ciento). La concentración actual de CO2 no tiene precedentes en los últimos 420.000 años (el espacio de tiempo cuantificable en los testigos de hielo más importantes) y probablemente, en los últimos 20 millones de años. La velocidad de este aumento no tiene precedentes si la relacionamos con cualquier cambio mundial sostenido durante al menos los últimos 20.000 años. En las proyecciones de gases de efecto invernadero basadas en el conjunto de escenarios del IEEE , las concentraciones de CO2 continúan creciendo hasta el año 2100. La mayoría de los escenarios del IEEE muestran reducciones en las emisiones de SO2 (precursor de los aerosoles de sulfato) para el año 2100, en comparación con el año 2000. Algunos gases de efecto invernadero (como el CO2, el N2O, y los perfluorocarbonos) tienen unos tiempos de vida muy largos (un siglo o más) en la atmósfera, mientras que el tiempo de vida de los aerosoles se mide por días. Las incertidumbres clave son inherentes en las hipótesis subyacentes de la amplia gama de emisiones futuras en los escenarios del IEEE y, por lo tanto, en la cuantificación de las concentraciones futuras. Estas incertidumbres se relacionan con el crecimiento de la población, el progreso tecnológico, el crecimiento económico y las estructuras de gobierno, que son especialmente difíciles de cuantificar. Además, los escenarios disponibles de las emisiones de precursores de aerosoles y del ozono atmosférico en la atmósfera inferior eran inadecuados. Surgen incertidumbres menores debido a la falta de conocimientos sobre todos los factores inherentes en la simulación del ciclo de carbono y sobre los efectos de las respuestas climáticas. Si se tienen en cuenta todas estas incertidumbres, se produce una gama de concentraciones de CO2 en el año 2100 de unas 490-1.260 ppm (comparadas con las concentraciones preindustriales de unas 280 ppm y las 368 ppm del año 2000).
Es prácticamente seguro que las emisiones de CO2 procedentes de combustibles fósiles sean la influencia predominante en la tendencia de las concentraciones de CO2 a lo largo del siglo XXI. Esto se deduce de la gama de escenarios del IEEE en donde las emisiones proyectadas de combustibles fósiles exceden los sumideros y fuentes biosféricas previstos de CO2. Se estima que, incluso si todo el carbono emitido hasta ahora por los cambios en el uso de las tierras se devolviera a la biosfera terrestre (por ejemplo, con la reforestación), la concentración de CO2 se podría reducir en unas 40-70 ppm. Existen incertidumbres clave acerca de la influencia del cambio del uso de las tierras y las reacciones biosféricas en la absorción, almacenamiento y emisiones de carbono que, a su vez, podrían influir en las concentraciones de CO2.
Investigadores de la División de Medio Ambiente del Instituto Tecnológico y de Energías Renovables (ITER), organismo dependiente del Cabildo Insular de Tenerife, han asegurado que la ganadería es responsable del 64 por ciento de las emisiones antropogénicas de amoniaco, según informó hoy el Cabildo de Tenerife.
Así, cada vaca en Tenerife emite diariamente a la atmósfera cerca de 6.045 gramos de dióxido de carbono (CO2), 119 gramos de metano (CH4), 2 gramos de amoniaco (NH3) y 0,024 gramos de compuestos orgánicos volátiles (COVs) no metanizados.
Según el Cabildo, la tasa de emisión anual de estos gases a la atmósfera es de 45.254 toneladas de dióxido de carbono (CO2), 890 toneladas de metano (CH4), 16 toneladas de amoniaco (NH3) y 0,177 toneladas de compuestos orgánicos volátiles (COVs) no metanizados.
Estos resultados se han obtenido en observaciones en granjas locales que eran usadas como una cámara de acumulación de los gases que emitía el ganado vacuno existente en su interior, con la finalidad de evaluar la tasa de emisión de los mismos mediante el uso de técnicas analíticas convencionales y sensores ópticos remotos tipo OP-FTIR.
A escala global, la ganadería en su conjunto es responsable de un 35 ó 40 por ciento de la emisión de metano derivada de actividades antropogénicas. La mayor parte de estas emisiones son debidas a la fermentación en el pre estómago (rumen) de los rumiantes y por el almacenamiento de abonos orgánicos (estiércoles líquido y sólido). El metano se genera durante el proceso de digestión en los pre estómagos de los rumiantes por la acción de microbios (protozoos), que apoyan la digestión de carbohidratos y celulosa.
Según los expertos, en este proceso se producen ácidos grasos volátiles y gases que son expulsados cada uno ó dos minutos por la nariz y la boca durante el eructo, de manera que la ganadería contribuye a la acidez del ecosistema.
Miercoles 21 Septiembre 2005
Abrieron nueva era geológica las actividades antropogénicas:Premio Nobel de Química 1995
Se caracteriza por la influencia humana en el clima y distribución de temperaturas y precipitación por la presencia de contaminantes Desde el comienzo del siglo XIX, el crecimiento de las actividades antropogénicas abrió una nueva era geológica: el “antropoceno”, caracterizado por la influencia humana en el clima y la distribución de temperaturas y precipitación debidas a la presencia de contaminantes, afirmó en la UNAM Paul Crutzen, Premio Nobel de Química 1995.
De visita en el Centro de Ciencias de la Atmósfera (CCA), el destacado científico de origen holandés señaló que tal situación ha dado como resultado, entre otros hechos, el rompimiento de la capa de ozono en la Antártida a 25 kilómetros de la superficie.
Recordó que durante los últimos tres siglos la población mundial se ha incrementado hasta alcanzar en la actualidad más de seis mil millones de personas; tan sólo en el siglo XX se cuadriplicó y casi la mitad de la gente vive en ciudades y megaciudades.
De forma natural se emiten contaminantes. Empero, aclaró el investigador emérito del Max Planck Institute for Chemistry, con sede en Alemania, la humanidad también es responsable de la presencia en el ambiente de sustancias tóxicas y muchas más que no lo son.
Debido a la actividad antropogénica, por ejemplo, hoy día la extinción de especies animales como mamíferos, aves o anfibios es mil veces más alta que en el pasado.
Al parecer, abundó el también profesor honorario de la Universidad de Mainz, Alemania, existe una correlación entre el crecimiento de la población, el incremento de la temperatura, la emisión de contaminantes a la atmósfera y el número de variedades que desaparecen del planeta.
Las extinciones van en aumento debido a la influencia antropogénica y al calentamiento global del planeta. “No sólo se trata de que el clima pueda estar más caliente, que llueva más o menos en ciertos sitios, sino que se afectará a los ecosistemas, cuyos integrantes, animales y plantas, no tendrán el tiempo suficiente para adaptarse”, expuso.
Asimismo, se refirió a componentes de la actividad humana relacionados con la emisión de distintos gases que dañan el balance de radiación de la Tierra y que dan como resultado el calentamiento global. Entre los gases de efectos invernadero se encuentra el bióxido de carbono (CO2) –cuyo aumento anual es de 0.4 por ciento–, el metano y el ozono.
En ese sentido, Paul Crutzen sugirió la reducción de tales gases, y de hasta 60 por ciento de las emisiones actuales, lo cual requerirá “un esfuerzo de toda la humanidad” y opinó que si ella ha logrado llevar al planeta a una situación inestable, también tiene la capacidad tecnológica para regresar a otra más equilibrada, que permita la convivencia y la continuidad de las especies.
El científico, quien compartió el Nobel de Química 1995 con Rowland y Molina, mencionó que según el informe del Panel Intergubernamental de Cambio Climático del 2001, la temperatura en el presente siglo podría incrementarse hasta cinco grados. En estos momentos se hace una nueva evaluación que será publicada en 2007.
La relación entre las partículas atmosféricas y las nubes lleva a mayores incertidumbres en los modelos climáticos actuales, los cuales requieren más investigación. Uno de los elementos a considerar en ellos es el transporte de contaminantes efectuado por las nubes, la llamada convección profunda, detalló.
Insistió que de no limpiarse los gases de efecto invernadero pagaremos las consecuencias del calentamiento, cuya mayoría es atribuible a las actividades humanas. “Debemos proteger el clima de la Tierra de un gran calentamiento, y el Protocolo de Kyoto no es suficiente para lograrlo. Debe reducirse el impacto humano en el ambiente”.
Por su parte, la doctora Graciela Raga, integrante del CCA, explicó que hay un “interjuego” entre las nubes y los contaminantes. Por ello, cuando en la ciudad de México hay presencia de nubes grandes, no sólo hay precipitación, sino transporte de polución hasta distintas alturas y lugares.
Así, hace años se descubrió que las emisiones de ciertos países afectaban los lagos de otras naciones. De ese modo se comenzó a tomar conciencia de que no hay fronteras en la atmósfera.
Las emanaciones presentes en lugares remotos, donde no se expelen cantidades mayores, son claras e indican que la atmósfera es un ente dinámico que permite el traslado de tóxicos a todos los puntos.
De hecho, agregó, el descubrimiento del agujero de la capa de ozono en un sitio donde no hay emisiones es indicador claro de que la atmósfera es “toda y una”, y que no importa dónde se generen los contaminantes, se afectará, en mayor o menor grado, todo el planeta. La atmósfera es un sistema no fácil de pronosticar.
Eso fue una llamada de atención y se logró que los gobiernos tomarán conciencia y, en consecuencia, se redujo la emisión de clorofluorocarbonos (CFC), presentes en los aerosoles, culpables del incremento en la tasa de destrucción de esa capa. De hecho, México eliminó sus emisiones cuatro años antes del compromiso adquirido en el Protocolo de Kyoto, en un acto presidido por el doctor Mario Molina en la ciudad de Monterrey.
Por todo ello, agregó, es importante considerar no sólo la reacción futura de la atmósfera, sino de la humanidad, cuando se presenten grandes cambios en el clima, precipitaciones, extinciones, plagas y el uso del agua no sea suficiente ni para producir alimentos.
Debe haber una concientización individual; la humanidad somos todos, cada individuo, y lo que hagamos o dejemos de hacer, lo que no gastemos o no emitamos, tendrá efectos positivos a largo plazo y a nivel global, sentenció.
Hay muchas incertidumbres todavía, pero ningún modelo climático predice que habrá un enfriamiento en el 2100; tenemos la certeza de que ese no es el caso, finalizó la científica universitaria.