Go to top of page  INICIO | ORGANIZACIÓN | INSCRIPCIÓN | MÓDULO 1 | MÓDULO 2 |
Versión en pdf

CIENCIA Y PSEUDOCIENCIAS 2007

Módulo I: un panorama de la ciencia contemporánea

resúmenes de las conferencias y currículos de los conferenciantes

Qué es esa cosa llamada Ciencia. Inés Rodríguez Hidalgo. 1

Los arquitectos de la Ciencia Moderna. José María Riol Cimas. 4

La evolución de los organismos vivos. Carolina Martínez Pulido. 6

Paleoantropología: en busca de nuestros orígenes. María Dolores Garralda Benajes. 8

El sistema operativo de los seres vivos. Alberto Marín Sanguino. 11

El camino hacia el ADN. José María Riol Cimas. 13

Transgénicos: Ciencia y opinión pública. Antonio Rodríguez del Castillo. 15

¿Es posible curar con genes? Néstor V. Torres Darias. 17

Clonación: Frankenstein redimido. Néstor Torres Darias. 20

Neurociencia Cognitiva: mente, cerebro y computación. Horacio Barber Friend. 22

A propósito de la energía (positiva, por supuesto). Basilio Ruiz Cobo. 24

Rayos X, antenas, móviles y salud. José Hernández Armas. 26

Amenazas del cielo. Oswaldo González Sánchez. 29

¿Existe vida en el planeta Tierra? Manuel Vázquez Abeledo. 31

Mecánica cuántica para torpes. Luis Vega Martín. 33

Érase una vez en el Atlántico. El origen de las Canarias. Carmen Díaz Vilela. 36

Ecólogos y ecologistas. ¿Diferentes caras de la misma moneda? José María Fernández Palacios  38

¿Estamos cambiando el clima? Manuel Vázquez Abeledo. 40

El poder de los números: verdades y mentiras. Antonio Martinón Cejas. 42

La comunicación de los resultados científicos. Ramón García López. 45

Volver al índice

Qué es esa cosa llamada Ciencia. Inés Rodríguez Hidalgo

Doctora. Profesora Contratada Doctora Tipo I. Departamento de Astrofísica. Universidad de La Laguna (ULL)

Investigadora. Instituto de Astrofísica de Canarias

Jueves, 8 de marzo de 2007

Vivimos inmersos en la Ciencia, disfrutando sus logros, temiendo sus riesgos, influidos por sus ideas, conceptos y métodos, bombardeados por mensajes publicitarios del tipo 'científicamente probado'... En nuestra sociedad actual coexisten muy diversas opiniones y actitudes ante la Ciencia: hay quienes la critican por encontrarla fría y ajena a toda sensibilidad humana; quienes la temen y rechazan por considerarla origen de todos los males derivados de la tecnología; otros la acusan de rígida e inmovilista, de deshonesta y vendida a intereses políticos o económicos; algunos la idealizan como solución universal, creadora de bienestar, sanadora de enfermedades, portadora de esperanzas, mientras que es considerada por otros como una nueva religión de masas cuyos sacerdotes son esos 'locos científicos de bata blanca'; frecuentemente se la menciona con esa mezcla de temor y admiración que provoca en el común de los mortales lo complejo e inaccesible. Porque curiosa (y lamentablemente) en nuestra sociedad 'de la Ciencia y la Tecnología y la Comunicación', el analfabetismo científico es casi una epidemia, y muchas personas supuestamente cultas, incluyendo líderes sociales o políticos, tienen un paupérrimo conocimiento de la Ciencia y se sienten incómodos ante ella. Parece evidente, sin embargo, que la solución a graves problemas como el hambre, la superpoblación o el déficit de energía requieren la combinación de diversos avances científicos y tecnológicos; y que la formación de la opinión pública acerca de temas de actualidad como la clonación, los transgénicos, la contaminación o la eutanasia implica, además de consideraciones éticas, un mínimo de formación científica. En esta situación, hoy más que nunca es necesario aproximar la realidad científica a toda la sociedad. Y una adecuada forma de comenzar esta tarea divulgativa es tratar de responder a la pregunta: ¿qué es esa cosa llamada Ciencia, componente esencial de la cultura, que invade nuestro mundo, de la que hablamos inevitable y continuamente, pero que tan poco conocemos y comprendemos?, ¿qué tiene de especial, qué le proporciona su prestigio y su éxito?

Pues bien, la Ciencia puede definirse como una cuidadosa, disciplinada y lógica búsqueda del conocimiento acerca del mundo que nos rodea, obtenida tras examinar la mejor evidencia disponible, siempre sujeta a refutaciones, correcciones y mejoras si se encuentran pruebas más concluyentes. Ésta es la completa descripción de James Randi, famoso ilusionista fundador en Estados Unidos, junto con Paul Kurtz o Carl Sagan, entre otros, del Commitee for the Scientific Investigation of Claims of the Paranormal, CSICOP. O la asombrosamente precisa definición del célebre médico y divulgador mejicano Dr. Ruy Pérez Tamayo, Ciencia es una actividad creativa cuyo objetivo es la comprensión de la naturaleza y cuyo producto es el conocimiento (es difícil decir más con menos palabras). Conviene insistir en que la Ciencia se define, mucho más que por su contenido o resultados, por su procedimiento: ninguno de los avances científicos y tecnológicos de los que disfrutamos habría sido posible sin antes haber recorrido el camino del método (método significa precisamente camino). Nos referimos, claro, al método científico, característica esencial de cualquier disciplina o actividad que haya de ser calificada como científica. Por eso es natural que cualquier panorama de la Ciencia comience hablando del método científico, que ha demostrado desde hace algo más de cuatrocientos años ser capaz de proporcionar un conocimiento contrastado, veraz y universal cuyas consecuencias filosóficas y prácticas condicionan sin lugar a dudas nuestra vida.

La primera parte de la conferencia es una invitación a reflexionar sobre la Ciencia con objeto de definirla, desmitificarla y descubrir sus engranajes. Tras revisar los métodos inductivo y deductivo, se explicará con mayor detenimiento el método hipotético-deductivo, con especial énfasis en el criterio de falsabilidad de las hipótesis y teorías científicas y en el uso de la navaja de Ockham. Hoy día resulta especialmente necesario aprender a distinguir la Ciencia de las pseudociencias (escrito a propósito con minúsculas, para marcar la diferencia), esas variopintas actividades que se hacen pasar por Ciencia sin cumplir sus requisitos ni utilizar su método ni compartir su rigor. Esta delimitación constituye un modo adicional de definir la Ciencia por oposición.


La segunda parte presenta un ejemplo emblemático de aplicación del método científico. Se trata de una reconstrucción, más didáctica que estrictamente histórica, de la determinación de las posiciones y movimientos de la Tierra, la Luna, el Sol y los planetas (obviamente, sin profundizar en los aspectos físicos del problema). Desde los antiguos griegos hasta la revolución einsteniana, se revisarán los avances, retrocesos y traspiés de este largo y a veces tortuoso recorrido por el camino del método, que ha conducido desde la observación curiosa, asombrada, y a menudo atemorizada del cielo por parte de nuestros ancestros hasta la actual capacidad para poner en órbita los múltiples satélites meteorológicos o de comunicaciones, e incluso una gran Estación Espacial Internacional en la que se vive y trabaja.

Bibliografía

Chalmers, A.F. Qué es esa cosa llamada Ciencia. Tercera edición. Siglo XXI de España Editores. Madrid. 2000

Echeverría, J. Introducción a la Metodología de la Ciencia. Ed. Barcanova Temas Universitarios. Barcelona. 1989

Rodríguez Hidalgo, I., Díaz Vilela, L., Álvarez González, C., Riol Cimas, J.M.: Ciencia y pseudociencias: realidades y mitos. Equipo Sirius. Madrid. 2004


Ziman, J.: Introducción al estudio de las ciencias. Ed. Ariel S.A. Barcelona. 1986

Inés Rodríguez Hidalgo es Doctora en Ciencias Físicas (Astrofísica), profesora del Departamento de Astrofísica de la ULL, divulgadora científica y actual Directora del Museo de la Ciencia y el Cosmos de Tenerife. Es autora de numerosos trabajos de investigación publicados en revistas especializadas y actas de congresos internacionales de Astrofísica, así como de artículos de divulgación. Ha escrito varios capítulos en libros y es editora científica de 'Ciencia y pseudociencias: realidades y mitos' (Equipo Sirius, 2004). Imparte frecuentemente conferencias y cursos de divulgación, algunos de los cuales ha dirigido o coordinado; escribió y presentó durante varios años la sección semanal 'Un tiempo para el espacio' del programa radiofónico Canarias Innova de RNE. Es miembro de ARP-Sociedad para el Avance del Pensamiento Crítico y se implica activamente en la difusión del escepticismo y la lucha contra las pseudociencias. Participa en este curso desde su primera edición como profesora y coordinadora.

Volver al índice

Los arquitectos de la Ciencia Moderna. José María Riol Cimas

Doctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL

Jueves, 8 de marzo de 2007

Entre los siglos XVI y XVII tuvo lugar, en una buena parte de los países europeos, un proceso social extraordinario que introdujo dos cambios fundamentales para el posterior desarrollo de la humanidad. Por un lado la larga transición desde el feudalismo hasta la implantación del capitalismo, como nuevo y más evolucionado modo de producción, sustentado por la nueva clase emergente: la burguesía. Por otro lado, en el que probablemente ha sido el período revolucionario en el campo de las ideas más fructífero de la historia, tiene lugar el establecimiento de las bases de lo que, posteriormente, conoceríamos como Ciencia Moderna. La íntima relación de ambos cambios, en perfecta simbiosis, hace que no se pueda entender el progreso de uno sin la existencia del otro.

Frecuentemente se asocia el comienzo del proceso que dio lugar al nacimiento de la Ciencia moderna, conocido como Revolución Científica, a la publicación por Nicolás Copérnico, en 1543, de un libro fundamental: Sobre las Revoluciones de las Esferas Celestes. Con esta obra se liquidaba la visión geocéntrica del universo, mantenida desde los tiempos de Tolomeo. Asimismo diversos autores dan por concluida la Revolución Científica en 1687, cuando Isaac Newton publica el que, para muchos, sigue siendo el mayor trabajo científico de la historia: Principios Matemáticos de la Filosofía Natural, una obra integradora, unificadora de los grandes descubrimientos de las décadas anteriores, en la que se exponen las tres leyes del movimiento y la ley de la gravitación universal.


La Revolución Científica de los siglos XVI y XVII resultó ser un proceso fundamental para el posterior desarrollo de la humanidad, puesto que significó el nacimiento de la Ciencia moderna y suministró, por primera vez, las herramientas necesarias para una comprensión racional del mundo. Pero cuando se habla de la Revolución Científica parece que sólo se piensa en los padres de la astronomía moderna: Copérnico, Kepler, Galileo, Newton…y se piensa bastante menos en otros grandes científicos que, también en esos años, establecieron las bases de muchas otras ciencias, como Vesalio (Anatomía), Harvey (Fisiología y Embriología), van Leeuwenhoek (Microbiología), Hooke (Citología), y una larga serie de científicos que forman el ejército más pacífico de la historia, aunque también el que más guerras ha ganado a la irracionalidad, la ignorancia, el miedo, el hambre, la enfermedad…


Antes del siglo XVI la escasa Ciencia medieval cristiana se hacía casi exclusivamente a título individual y, en muchos casos, con fines religiosos, como el intento de demostración de la existencia de Dios o de un supuesto orden divino del universo. Eran los hombres sabios de cada época, por lo general al servicio de los obispos o de algún príncipe, los que producían la raquítica Ciencia de esos siglos. Por la propia naturaleza de esta relación los contactos de unos científicos con otros eran prácticamente inexistentes. La Revolución Científica venía a alterar los viejos papeles e imponía la necesidad del contraste de las hipótesis y los resultados experimentales pero, para esto, era necesaria la existencia de instituciones científicas, es decir, lugares donde los científicos pudieran agruparse con iguales para someter su trabajo a la crítica y la discusión. La institucionalización de la Ciencia sería uno de los grandes logros derivados directamente de la Revolución Científica.


Así, por aquellos años fueron creadas unas instituciones básicas para entender el posterior desarrollo de la Ciencia, las academias científicas, entre las que destacaron la Accademia dei Lincei de Roma, la Royal Society de Londres y la Acadèmie Royale des Sciences de París. Estas instituciones se convirtieron en el lugar de encuentro de los profesionales de la nueva Ciencia y, de ellas, aparte de las actividades académicas, surgieron iniciativas de gran importancia en nuestros días como la divulgación científica o la publicación de las primeras revistas científicas.

Si hay una academia científica que puede considerarse como paradigma de las creadas en el siglo XVII esa es, sin duda, la Royal Society, que fue siempre una sociedad financiada exclusivamente por sus miembros, sin apoyo económico alguno de la corona, de manera que su escasez de recursos les condujo a la asociación con el Gresham College, la institución londinense para la enseñanza de la nueva Ciencia, creada por Sir Thomas Gresham casi un siglo atrás y en cuyos salones se reunían. Y también, en esos salones, los miembros más activos de la Royal Society, como Robert Hooke, el descubridor de las células, impartirían conferencias científicas gratuitas para el público londinense.


Tras la Revolución Científica, la tradición académica y divulgadora de las instituciones británicas se vería enriquecida, entre finales del siglo XVIII y principios del XIX, con dos nuevas que irrumpen con gran fuerza: Royal Institution of Great Britain y British Association for the Advancement of Science que, como la Royal Society, siguen activas todavía hoy.

Bibliografía:

Gribbin, J.: Historia de la ciencia, 1543-2001. Editorial Crítica. Barcelona. 2002

Bernal, J. D.: Historia Social de la Ciencia. Ediciones Península. Barcelona. 1979


López Piñero, J.M., Navarro, V. y Portela, E.: La Revolución Científica. Biblioteca Historia 16. Madrid. 1989


Kuhn, T.: La Estructura de las Revoluciones Científicas. Fondo de Cultura Económica. México D.F. 1975

José María Riol Cimas es Licenciado y Doctor en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha sido Investigador postdoctoral en la Universidad Complutense (Madrid), en la Unidad de Metabolismo de los Laboratorios Farmacéuticos Wellcome (Beckenham, Londres) y en la Universidad Técnica de Viena. Autor de publicaciones internacionales sobre el metabolismo de hidratos de carbono y sobre mecanismos de transporte de nutrientes a través de la membrana celular. Ha publicado más de sesenta artículos en libros, revistas y prensa diaria sobre divulgación de la Ciencia y de su historia. Conferenciante en las seis ediciones anteriores de este curso, coordinador en las dos primeras y director de la tercera y la séptima edición. Coeditor del libro Ciencia y pseudociencias: realidades y mitos (Equipo Sirius, Madrid, 2004). Es Profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de la ULL y director del Aula Cultural de Divulgación Científica de la ULL.

Volver al índice

La evolución de los organismos vivos. Carolina Martínez Pulido

Doctora. Profesora Titular de Universidad. Departamento de Biología Vegetal. ULL

Martes, 13 de marzo de 2007

La publicación, en 1859, del más que célebre trabajo del científico británico Charles Darwin, El origen de las especies, constituyó, como es por todos conocido, un acontecimiento fundamental en la historia de la Biología moderna.

 
La característica más sobresaliente de la evolución biológica es, sin duda, su enorme capacidad para conectar todos los estudios de la vida en la Tierra, y puede definirse como 'un proceso por el que los organismos cambian con el paso del tiempo, de tal forma que los descendientes difieren de los antepasados'. El proceso evolutivo puede justificar las enormes diferencias y también las sorprendentes semejanzas observables entre los organismos. Ante la paradójica pregunta de por qué los seres vivos son tan distintos y, al mismo tiempo, tienen tanto en común, la respuesta más aceptada señala: porque son el resultado del proceso evolutivo, de una serie de cambios sufridos por los organismos y sus descendientes que, a lo largo de vastísimos períodos de tiempo, han llevado a la gran diversidad biológica del mundo actual.


Darwin, no sólo propuso un modelo de la naturaleza en el que las especies tienen la capacidad de transformarse unas en otras, sino que además, introdujo la idea de que los humanos también hemos evolucionado de acuerdo a principios que operan en el resto del mundo viviente. En la sociedad de la segunda mitad del siglo XIX, la publicación de las ideas darvinianas provocó un gran impacto. Científicos, políticos, clérigos y diversas personas de mayor o menor notoriedad se vieron inmersos en largos y acalorados debates.


Sin olvidar que la teoría darwiniana tiene una gran complejidad, aquí sólo expondremos brevemente las aportaciones fundamentales del notable naturalista. Uno de los pilares principales del concepto evolutivo está representado por la teoría del origen común y la diversificación de las especies; esta noción sostiene que cada grupo de seres vivos desciende de un antepasado común y todos se remontan a un único origen de la vida en la Tierra. La enorme diversidad orgánica se explica porque las especies se diferencian en especies hijas cuando las poblaciones se quedan geográficamente aisladas y de ellas surgen nuevas especies. 'Los seres organizados conforman un árbol irregularmente ramificado', afirmaba Darwin al tiempo que dibujaba varios esquemas de árboles, en los que incluso distinguía las especies vivientes y las extintas con diferentes símbolos. Con la metáfora del árbol de la vida Darwin fue capaz de sugerir un modelo que vinculaba a todo el mundo vivo.


Asimismo, otro importante soporte de la teoría de la evolución está constituido por el mecanismo de cambio evolutivo concebido por Darwin, esto es, la selección natural. En un mundo en el que los individuos han de competir entre ellos para sobrevivir, sólo tienen posibilidad de llegar a adultos y reproducirse los dotados de ciertas características ventajosas, que sus crías probablemente heredarán. Esta desigual proporción de supervivencia, en la que los mejor dotados para un entorno dado acaban por superar a los peor dotados, es la selección natural que, si se cumple con intensidad suficiente y durante un tiempo adecuadamente prolongado, acarrea cambios muy perceptibles en una población y culmina en la aparición de una nueva especie. El éxito procreador es la piedra angular de la selección natural.


La concepción darwiniana, al basarse exclusivamente en fenómenos empíricamente demostrados, proporcionó la primera explicación realmente científica de la evolución; el proceso podía entenderse sin recurrir a ninguna fuerza sobrenatural. Este fue el valioso legado que dejó el gran naturalista inglés: el mundo vivo también está gobernado por leyes naturales.

 
No obstante, a pesar del poderoso valor científico de la obra de Darwin, cabe apuntar que su libro El origen del hombre, publicado en 1871, contribuyó en gran medida a la proliferación de una pseudociencia que trataba de 'probar', a partir de la teoría de la evolución, la inferioridad de las mujeres. En efecto, en las últimas décadas del siglo XIX se dedicaron grandes esfuerzos al intento de convertir en 'verdad científica' un prejuicio con profundas raíces históricas: las mujeres son intelectual y moralmente incapaces del trabajo científico. En esta línea hasta el biólogo más célebre de la historia, al igual que sus predecesores y la gran mayoría de sus sucesores, colocaba a las mujeres a una posición subordinada a los hombres. Se apoyaba para tal conclusión en las diferentes funciones que en la reproducción desempeña cada sexo. Las mujeres eran inferiores a los hombres porque la naturaleza las había consagrado a la única labor de parir y criar a su prole.

 
Llegados a este punto, y para concluir, sólo nos queda subrayar las contradicciones que asolan hasta el pensamiento más brillante. La extraordinaria capacidad de razonamiento de Darwin le permitió defender al mismo tiempo una teoría científica que revolucionó al mundo y una serie de ideas que forman parte de la más burda pseudociencia.

Bibliografía

Bowler, P.: Charles Darwin, el hombre y su influencia. Alianza editorial. Madrid. 1995


Gould, S. J.: La vida maravillosa. Crítica. Barcelona. 1991

Martínez Pulido, C.: El papel de la mujer en la evolución humana. Biblioteca Nueva. Madrid. 2003


Mayr, E.: Darwin y el darwinismo, una eterna controversia. Crítica. Barcelona. 1992

Carolina Martínez Pulido es Doctora en Biología y Profesora Titular del Departamento de Biología Vegetal. Ha publicado diversos trabajos de investigación en la especialidad de Biotecnología Forestal. Ha estado becada durante dos años en la Universidad de Calgary, Canadá. Ha disfrutado de dos estancias en el Centro de Investigaciones Agrobiológicas de Galicia (CSIC, Santiago de Compostela). Ha impartido diversos Seminarios sobre Biología Evolutiva. Ha impartido diversas conferencias sobre pensamiento biológico e Historia de la Biología y colaborado con la Universidad Nacional de Tucumán, Argentina. Miembro del CEM (Centros de Estudios de la Mujer) de la ULL. Actualmente desarrolla una línea de trabajo acerca del papel de la mujer en las Ciencias Biológicas. Ha publicado cuatro libros de divulgación científica sobre este tema: También en la cocina de la ciencia (2001), Servicio de Publicaciones de la ULL; El papel de la mujer en la evolución humana (2003), Biblioteca Nueva, Madrid; Gestando vidas, alumbrando ideas (2004), Minerva ediciones, Madrid y La presencia femenina en el pensamiento biológico (2006), Minerva ediciones, Madrid.

Paleoantropología: en busca de nuestros orígenes. María Dolores Garralda Benajes

Doctora. Profesora Titular de Universidad. Departamento de Zoología y Antropología Física. Universidad Complutense. Madrid

Martes, 13 de marzo de 2007

El contenido de esta conferencia, respondiendo al marco del curso en el que va a impartirse, va a consistir en una exposición, que contribuya a hacer comprender lo complejo del tema, y a la superación de unas cuantas ideas muy comunes y de gran arraigo popular cuando se habla de Evolución Humana. Pero, a diferencia de otros años, esta vez vamos a exponer brevemente diversos aspectos sobre cómo se aborda, en este siglo XXI, el estudio de la Evolución del Hombre. Aunque extremadamente resumidos, los diferentes puntos expondrán nuestra perspectiva de científicos que disponen de nuevos métodos y de una gran cantidad de información procedente de campos tan distintos como la Prehistoria, la Genética Humana, la Geología, etc...

Comenzaremos la exposición insistiendo en la necesaria perspectiva multidisciplinar con que actualmente se enfocan estos temas, pasando luego a explicar dónde se hallan y cómo se obtienen los fósiles, cómo se forman los equipos multidisciplinares, detallando después los distintos tipos de yacimientos (primarios, secundarios, haciendo especial énfasis en las sepulturas) y las cuidadosas técnicas de excavación y manejo de los hallazgos. Posteriormente detallaremos los diversos trabajos que se realizan en los laboratorios, primero de limpieza, consolidación y reconstrucción, para proceder después a los análisis métricos y morfológicos, comparando siempre con otros fósiles o restos bien identificados; todo eso nos permitirá estimar el sexo del individuo o la edad al fallecimiento, así como asignarlo a un grupo taxonómico descrito, o quizás a uno nuevo,

Hoy en día tenemos instrumentos cruciales para analizar muchos detalles de los fósiles, como por ejemplo las importantes aportaciones de las antiguas y nuevas técnicas de análisis de imágenes que expondremos con varias fotografías. Otros varios ejemplos ilustrarán sobre la reconstrucción del estado de salud (enfermedades, traumas…) que podemos deducir del estudio de numerosos restos tanto de niños como de adultos, o de las paleodietas, inferidas, sobre todo, mediante las proporciones existentes entre algunos de los componentes químicos o minerales de los huesos.

También hablaremos de los estudios que tratan de reconstruir el comportamiento, tanto de los primates ancestrales como de cualquiera de los diferentes grupos humanos a través de su historia inicial; este tipo de trabajos requieren no solo determinados datos que pueden proporcionar los fósiles, sino también de las necesarias aportaciones de la Prehistoria. Cuando se trata, sobre todo, del comportamiento de los homínidos más antiguos, resultan muy importantes los numerosos y ahora bien conocidos datos sobre la etología de los grandes primates en libertad (gorila, orangután y, sobre todos, los chimpancés); y en el caso de la reconstrucción de sociedades humanas, existen muchísimos estudios sobre las poblaciones subactuales o contemporáneas, sobre todo de sociedades cazadoras-recolectoras, que siempre pueden ilustrar siquiera sobre la complejidad del comportamiento humano, muchas veces inexplicable si carecemos de documentos que lo interpreten.

Citaremos también la cuestión del origen del lenguaje, tema de una complejidad que supera los análisis de las diferentes regiones de los moldes del cerebro que obtenemos de los fósiles y sobre el que existen muchas más polémicas que puntos claros. Y, por último, abordaremos la problemática de los estudios genéticos, tanto de los realizados sobre muestras de poblaciones actuales, como de los pocos hasta ahora factibles a partir de fragmentos óseos.

En la exposición resumiremos no sólo los logros para algunos de los puntos principales, sino que insistiremos también en el hecho de que, en Paleoantropología, hay que ser conscientes de las numerosas lagunas y dudas existentes que aconsejan una prudencia, lejos de ser respetada en el campo profesional, y totalmente ignorada en la divulgación.

El tiempo disponible, obliga a tratar sólo algunos temas, como queda indicado, aunque podríamos ampliar cada uno de ellos o abordar muchos más. El interés que las gentes en general tienen por conocer algo sobre la Evolución del Hombre ha causado que haya muchos libritos, panfletos o revistas de divulgación con errores increíbles, y aseveraciones que hacen sonrojar, o enojarse, a los profesionales del tema. Como en otras muchas ciencias del campo de la Biología, actualmente sabemos que hemos avanzado enormemente en los conocimientos sobre nuestra propia historia evolutiva, pero que lo que ignoramos es mucho más de lo que sabemos, y todo lo que hemos aprendido nos permite vislumbrar ante nosotros un panorama mucho más complejo del imaginado hace algún tiempo. En el esfuerzo por seguir desvelando esta historia hay que proseguir con criterios y métodos serios, a la vez que con trabajos multidisciplinares, si queremos realmente hacer Ciencia y no paleopoesía.

Bibliografía

Boyd, R. y Silk, J.: Cómo evolucionaron los Humanos. Ariel Ciencia. Barcelona. 2001

Cohen, C.: Histoire de la Paléoanthropologie. En : O. Dutour, J. J. Hublin y B. Vandermeersch: Objets et Méthodes en Paleoanthropologie. C.T.H.S. Paris. 2005. pp. 21-50

Reader, J.: Eslabones perdidos. Fondo Educativo Interamericano. 1982

Stringer, C. y Gamble, C.: En busca de los Neandertales: la solución al rompecabezas de los orígenes humanos. Crítica. Barcelona. 1996

María Dolores Garralda Benajes ha impartido cursos de Licenciatura o Doctorado sobre 'Antropología Física', 'Biología de las Poblaciones Humanas', 'Biología Evolutiva del Hombre' y 'El Hombre: Origen y Evolución', en las enseñanzas de la Facultad de Biología, así como cursos o seminarios en diversas universidades españolas o extranjeras. Ha publicado más de 100 trabajos de investigación en revistas internacionales o nacionales, así como en diferentes libros. Los temas abordan siempre el estudio de diversos aspectos de las poblaciones del pasado, desde los neandertales a la Edad Media. Es miembro de diversas sociedades científicas españolas y extranjeras. Ha realizado numerosos viajes de estudios por diversas universidades y museos europeos, americanos, africanos y asiáticos, para analizar el registro fósil del hombre y sus ancestros. Asimismo ha participado en diversas excavaciones arqueológicas como las de los yacimientos clave de las cuevas de El Castillo (Santander), Qafzeh (Israel) o El Salt (Alicante).

Volver al índice

El sistema operativo de los seres vivos. Alberto Marín Sanguino

Licenciado. Investigador. Departamento de Bioquímica y Biología Molecular. ULL

Miércoles, 14 de marzo de 2007

El súbito desarrollo de la ingeniería genética durante la segunda mitad del siglo veinte ha causado un gran impacto en la opinión pública y propiciado no pocas polémicas en torno al uso de esta tecnología. La genética ha saltado de las monografías especializadas a la primera plana de los periódicos, las tertulias y hasta el mismo parlamento. Conceptos como clonación, transgénicos, armas biológicas o investigación con células madre, están continuamente en los medios y despiertan agrias discusiones salpicadas de tecnicismos, a menudo difíciles de seguir. La ingeniería genética se presenta como la solución a todos nuestros problemas o la peor amenaza tecnológica desde la invención de las armas nucleares, algo sobre lo que hay que estar a favor o en contra. Pero aún dejando de lado el sensacionalismo, la ciencia-ficción y la simple tecnofobia,  resulta indudable que la culminación del Proyecto Genoma constituye el principio de una nueva era para las ciencias de la vida y habrá de influir la concepción misma de la naturaleza humana. Esta charla tiene por objetivo  dar una introducción, lo más sencilla posible, a los conceptos básicos de la genética. Pretende orientar al alumno para ayudarle a entender otras conferencias de este mismo ciclo e iniciar su propia búsqueda de información.


Hoy en día, todos sabemos que los genes determinan, en gran medida, lo que somos. Sabemos que hay genes relacionados con el cáncer, el Alzheimer o el color de los ojos pero, ¿sabemos realmente lo que es un gen? Cuando Mendel acuñó el concepto (llamándolo factor hereditario) no tenía ni la más remota idea de donde podía estar o que aspecto podía tener, y sin embargo dio con unas leyes matemáticas que explicaban su transmisión de cada individuo a su descendencia. Esto se debe a que los genes son objetos tangibles, como lo pueden ser los engranajes de un reloj; para recalcar este hecho y desmitificar la genética, se tratará de presentar su funcionamiento de una forma asequible.


Se empezará con una breve descripción del funcionamiento de una célula y del papel de la misma como unidad básica de la vida. Esta descripción se centrará en mostrar cómo la célula se comporta igual que una compleja maquinaria formada a partir de moléculas que ella misma fabrica. Los genes contienen, no sólo la información necesaria para fabricar cada una de esas piezas, sino también indican cuando hay que fabricarlas, donde hay que colocarlas y que células deben abstenerse de usarlas. Así, lo genes son mucho más que los 'planos' de un individuo, son también el programa que dirige su funcionamiento desde que nace hasta que muere. El genoma de una célula, es decir, el total de genes que contiene, es un gigantesco conjunto de programas que cooperan entre sí para definir el comportamiento de la célula frente a cada situación. El genoma es a la célula lo que el sistema operativo a un ordenador. Como los ordenadores, una célula se puede “piratear”, como hacen los virus o incluso reprogramar, El concepto básico de la ingeniería genética es subvertir la maquinaria celular para que realice una función distinta a la habitual y, aunque hay muchas formas de hacerlo, algunos elementos resultan imprescindibles:


ADN: si queremos alterar el programa que guía la célula, habrá que introducir algún código que la especifique. Para ello usaremos un pedazo de ADN que puede ser sintético o, más frecuentemente, extraído de otra célula.


Enzimas: al manipular ADN, necesitaremos herramientas para cortarlo en pedazos, empalmar diversos fragmentos, etc. Todo esto se hace mediante unas proteínas llamadas enzimas.

Vector: es algún mecanismo que permite la entrada y puesta en funcionamiento del ADN extraño en la célula a modificar. Un ejemplo sería utilizar un virus para 'inyectar' el ADN.

Marcadores: no podemos manipular las células ni las moléculas de ADN de una en una y los procedimientos no funcionan siempre. Por esta razón, hace falta algún tipo de marcador que permita distinguir las células que han incorporado el ADN extraño de aquellas que no lo han hecho. Los marcadores son genes que entran con el ADN extraño y permiten su detección.

Así pues, una célula se comporta como una máquina muy compleja a cuya programación podemos acceder mediante las herramientas que la ingeniería genética pone a nuestra disposición. Después de más de una década de trabajo, se han creado plantas que brillan en la oscuridad o se defienden más eficientemente de sus predadores, bacterias capaces de producir proteínas humanas que curan enfermedades y muchas otras aplicaciones tecnológicas pero ¿donde está el límite? El mayor desafío de la actualidad está en comprender cómo los genes actúan conjuntamente para realizar tareas complejas. El manual del usuario de ese sistema operativo celular que son los genes aún está por escribir.

Bibliografía

Freifelder, D.: Fundamentos de Biología Molecular. Editorial Acribia. Zaragoza. 1989


Izquierdo Rojo, M.: Ingeniería Genética y transferencia génica. Editorial Pirámide. Madrid. 1999

Alberto Marín Sanguino es Licenciado en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha trabajado en las Universidades Técnica de Viena e Insbruck (Austria), Kosuth Lajos (Hungría) y Warmia-Mazuria (Polonia).  Ha participado como ponente en congresos y publicado trabajos de investigación en revistas internacionales, siendo su principal área de interés esa mezcla de Microbiología, Matemáticas e Informática que se ha dado en llamar Biología de Sistemas. Actualmente es el delegado de la empresa CANATEC 35 para la provincia de Las Palmas y realiza su tesis doctoral  en el Departamento de Bioquímica y Biología Molecular de la ULL sobre optimización de sistemas biológicos de interés industrial. Su interés por la divulgación científica le ha llevado a participar en este curso desde sus inicios y a hacerse miembro de la asociación Alternativa Racional a las Pseudociencias - Sociedad para el Avance del Pensamiento Crítico.

Volver al índice

El camino hacia el ADN. José María Riol Cimas

Doctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL

Miércoles, 14 de marzo de 2007

Hace 54 años se proponía un modelo de estructura tridimensional para el ácido desoxirribonucleico (ADN). Este descubrimiento científico, considerado por muchos el más importante del siglo XX, contribuyó decisivamente a la emergencia de la moderna Biología Molecular, que representa la gran revolución científica de nuestros días, equiparable a la provocada por Charles Darwin en 1859 con la publicación de El Origen de las Especies.


Hoy, metidos ya en el siglo XXI, los avances de la Biología Molecular y, más concretamente, de la ingeniería genética, una de sus aplicaciones prácticas, forman parte de nuestra vida cotidiana. Pero los grandes logros que hoy sorprenden a todos, como la clonación, los organismos transgénicos o la terapia génica, no son más que la continuación lógica de los acontecimientos que tuvieron lugar, sobre todo, en los años cuarenta y cincuenta del pasado siglo. Y el gran salto adelante, que sirve para dar un impulso irreversible a la Biología Molecular, tiene lugar precisamente con el descubrimiento de la estructura del ADN, la molécula de la vida mediante la que todos los seres vivos transmiten a su descendencia su información genética gracias a la capacidad de autorreproducción de la molécula. Este acontecimiento clave, y no sólo para la Historia de la Ciencia, ocurre en la primavera de 1953 en el laboratorio Cavendish de Cambridge, y los principales protagonistas del descubrimiento son dos personajes peculiares desde cualquier punto de vista: el biólogo estadounidense de 25 años James Dewey Watson y el físico británico de 36 Francis Harry Compton Crick.


Pero realmente la historia había empezado mucho tiempo atrás, puesto que el ADN no era ninguna novedad: se conocía desde 1869, cuando el médico suizo Johann Friedrich Miescher consigue aislar de núcleos celulares una sustancia, a la que llama nucleína, formada por una fracción ácida (ADN) y otra fracción básica (proteína). A partir de aquí, y generalizada la sospecha que ya flotaba en el ambiente de que el núcleo, y por ende la nucleína, tenía algo que ver con la herencia, surgieron dos tendencias científicas que perduraron más de 75 años, marcados por la polémica acerca de la naturaleza del material genético de la célula: ¿proteínas o ácidos nucleicos?


Durante éste dilatado período de tiempo cabe citar varios hitos en el largo camino de la investigación proclive a los ácidos nucleicos como responsables de la herencia. El primero cobra cuerpo cuando, en 1923, el bacteriólogo inglés Frederick Griffith hace una serie de ingeniosos experimentos con neumococos, los microorganismos causantes de la neumonía, y consigue transformar unos neumococos inocuos en otros virulentos, por lo que deduce que parece imprescindible la presencia de alguna molécula portadora de la información necesaria para realizar la transformación: sólo había que encontrarla.


A ello se dedica Oswald T. Avery, del Instituto Rockefeller para la Investigación Médica de Nueva York, quien, a partir de 1935, junto a Colin Macleod y Maclyn McCarty, comienza a resolver el inquietante enigma del factor transformante. Al fin, en 1944 y una vez descartadas las proteínas, llegaron a obtener dicho factor en estado puro: se trataba del ADN.


Así que, ahora con pruebas contundentes, se ponen tras su pista Max Delbrück y Salvador Luria, fundadores de un grupo esencial para el posterior desarrollo de la Biología Molecular, el denominado 'grupo del fago', llamado así por la dedicación de sus integrantes al estudio de los fagos, los virus más simples, de los que se sospechaba que no eran más que una forma de genes. Fueron los resultados de Avery y su grupo los que terminaron por convencer a Luria del papel fundamental del ADN como depositario de la información genética. Así que decidió enviar a su joven discípulo Watson, con sólo 22 años, a aprender Química con un químico del ADN interesado por la Genética. Tras diversos avatares, y casi por casualidad, Watson fue a parar al laboratorio Cavendish, donde trataría de desentrañar la estructura del ADN mediante la mejor técnica posible: la difracción de rayos X. En el Cavendish le enseñarían a 'leer' las fotografías obtenidas cuando los rayos X eran dispersados tras chocar con la molécula de ADN, de manera que, en el otoño de 1951, llega Watson a Cambridge, donde hacía su tesis doctoral Francis Crick, con el que formaría la pareja científica más famosa del pasado siglo.


Con buenas (y malas) artes ellos supieron conjugar los resultados de muchos especialistas. Como escribe John Gribbin, el autor de En Busca de la Doble Hélice: '…en realidad Crick y Watson no podían considerarse expertos en ninguna de las áreas científicas reunidas para ofrecer la imagen de la doble hélice (…). Pero la aportación de Watson, en particular, fue esa capacidad de captar la perspectiva general, de tomar lo necesario de las diversas disciplinas, especializadas, y construir algo nuevo, superior a la suma de las partes, que no logró percibir ninguno de los especialistas, a los que los árboles no dejaban ver el bosque'.

Bibliografía

Watson, J.: La doble hélice. Plaza y Janés. Barcelona. 1978


Crick, F.: Qué loco propósito. Tusquets. Barcelona. 1989


Gribbin, J.: En busca de la doble hélice. Salvat. Barcelona. 1989

José María Riol Cimas es Licenciado y Doctor en Ciencias Biológicas por la Universidad de La Laguna (ULL). Ha sido Investigador postdoctoral en la Universidad Complutense (Madrid), en la Unidad de Metabolismo de los Laboratorios Farmacéuticos Wellcome (Beckenham, Londres) y en la Universidad Técnica de Viena. Autor de publicaciones internacionales sobre el metabolismo de hidratos de carbono y sobre mecanismos de transporte de nutrientes a través de la membrana celular. Ha publicado más de sesenta artículos en libros, revistas y prensa diaria sobre divulgación de la ciencia y de su historia. Conferenciante en las seis ediciones anteriores de este curso, coordinador en las dos primeras y director de la tercera y la séptima edición. Coeditor del libro Ciencia y pseudociencias: realidades y mitos (Equipo Sirius, Madrid, 2004). Es Profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de la ULL y director del Aula Cultural de Divulgación Científica de la ULL.

Volver al índice

Transgénicos: Ciencia y opinión pública. Antonio Rodríguez del Castillo

Doctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL

Jueves, 15 de marzo de 2007

La era de los alimentos transgénicos para el consumo humano comenzó el 18 de Mayo de 1994 cuando la “Food and Drug Administration” (USA) autorizó la comercialización del primer alimento con un “gen extraño”: el tomate “Flavr Savr” obtenido por la empresa Calgene. Posteriormente, en 1996, Monsanto lanzó al mercado la soja “Roundup Ready”. A partir de aquí, en las sociedades industrializadas hemos sido testigos de una intensa polémica sobre los Organismos Genéticamente Modificados (OGM) o transgénicos; la discusión acerca de los beneficios y riesgos de los cultivos de plantas transgénicas  o relacionada con los efectos sobre la salud humana, debido a la ingestión de alimentos obtenidos a partir de ellos ha sido el pan de cada  día. Es de destacar que en ocasiones los argumentos utilizados en estos debates han sido de índole emotivo, en lugar de estar basados en evidencias científicas, lo que ha supuesto un terreno abonado para la aparición de teorías catastrofistas que han conseguido tener un gran eco en los medios de comunicación social. Si bien existen numerosos artículos publicados referentes a los OGM, todavía no hay una conciencia clara al respecto de: ¿ qué son estos organismos?, ¿cuáles son sus beneficios? y ¿qué riesgos potenciales pueden presentar para la salud humana y el medio ambiente? Con esta conferencia se pretende divulgar y ofrecer una visión objetiva, fundamentada en criterios técnicos, para obtener la respuesta a estos interrogantes.

Un organismo transgénico es aquel al que se le han transferido uno o varios genes de un organismo diferente, el cual pasa a constituir parte de su patrimonio genético. Este nuevo gen le confiere una característica nueva que antes no poseía. Por ejemplo, a una bacteria se le puede insertar el gen de la insulina humana, y a partir de ese momento esa bacteria es transgénica  y producirá insulina humana. Actualmente, es técnicamente posible transferir genes entre cualesquiera tipos de organismos: de animales a bacterias, de bacterias a plantas, de plantas a animales, etc. Hay que resaltar que no se crean nuevos organismos.

¿Para qué se usan los organismos transgénicos?: para investigación, para obtener proteínas humanas de interés terapéutico y en la agricultura. Las  plantas transgénicas son el grupo de OGM que ha recibido mayor oposición y rechazo por parte de diversos sectores. Actualmente, los cultivos de plantas transgénicas más importantes a nivel mundial son: la soja 50%,  algodón 20%,  colza 15% y maiz 10 %. Se cultivan principalmente en USA, Canadá, Argentina, China, India, Brasil y Sudáfrica. En la Unión Europea el desarrollo y cultivo de plantas transgénicas estuvo muy limitado por la existencia de moratorias, que fueron retiradas en el 2004. Aunque el número de plantas modificadas supera el centenar, los genes utilizados para la transformación son muy pocos. Un 70% de ellas han recibido un gen que las hace resistentes a los herbicidas, mientras que un 20% han sido transformadas con un gen que les confiere resistencia a los insectos. El 10% se lo reparten genes que dan resistencia a virus, hongos, bacterias, que retrasan la maduración de los frutos, etc.

¿Son peligrosas las plantas transgénicas para la salud o el medio ambiente? La respuesta es clara: no. No plantean ningún peligro especial. En cuanto a la salud humana, una planta transgénica sería peligrosa si: a) la proteína producida  es directamente tóxica; b) la proteína produce alergias y c) como resultado de la manipulación genética la planta activa genes silenciosos y se transforma en perjudicial. No ha habido casos ni en cultivos experimentales ni en cultivos comerciales que permitan suponer que estas plantas sean peligrosas. Durante todo el tiempo que llevan en cultivo no se ha presentado un solo caso documentado en el que se hayan encontrado problemas de toxicidad o de alergia, con una excepción en una variante de soja experimental que produjo alergia en una persona sensible a las nueces, y que no se llegó a comercializar. El grado de control de las plantas transgénicas es muy superior al de los cultivos tradicionales: en USA se llevan consumiendo bastantes años, sin que haya habido problemas de ningún tipo. Por consiguiente, la prevención del consumidor europeo frente a estas plantas no tiene justificación científica o sanitaria, y es un ejemplo claro de manipulación de la opinión pública. En este sentido, las recientes actuaciones de la Comisión Europea, permitiendo la comercialización de estos productos con un etiquetado adecuado son lógicas y razonables.

En cuanto a sus efectos sobre el medio ambiente o la economía de los países en desarrollo, los problemas que ocasionan -que los hay- son básicamente los mismos de cualquier monocultivo agrícola masivo, sea o no transgénico.

Bibliografía

Corzo Varillas, J.: Transgénicos: Ciencia y opinión pública. Resumen de la conferencia presentada en el curso Ciencia y Pseudociencias 2006

Información en Internet

http://cls.casa.colostate.edu/CultivosTransgenicos/

http://elmundosalud.elmundo.es/elmundosalud/2004/04/19/dieta/1082357695.html.

http://www.arp-sapc.org/alojadas/transgenicos.html

http://www.bcn.cl/carpeta_temas/temas_portada.2005-10-20.6359648402/documentos_pdf.2005-10-20.0953712051

Antonio Rodríguez del Castillo es Doctor en Ciencias Biológicas por la ULL. Comenzó su formación en investigación en el Departamento de Bioquímica de la Facultad de Veterinaria de la Universidad Complutense de Madrid (1987-88), donde trabajó  sobre el metabolismo de los dinucleótidos polifosfatos. A continuación, entre 1989-94, en el Department of Pharmacology, Facullty of Medicine, University of Ottawa, Canada, estudiando los mecanismos  moleculares implicados en la exocitosis. Es autor de publicaciones internacionales sobre temas como: regulación de la ingesta, conducta sexual, transporte de iones, metabolismo de dinucleótidos polifosfatos, proteínas reguladoras del citoesqueleto ó genes implicados en el mantenimiento del genoma. Actualmente es profesor Titular de Universidad del Departamento de Bioquímica y Biología Molecular de La ULL. Imparte  docencia en las facultades de Biología y Química. En el campo de la investigación está interesado en el estudio del envejecimiento en general, y en los sistemas de reparación del ADN en particular.

Volver al índice

¿Es posible curar con genes? Néstor V. Torres Darias

Doctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL

Jueves, 15 de marzo de 2007

Se denomina Terapia Génica (TG) a aquella técnica de ingeniería genética mediante la cual se introduce material genético exógeno en seres humanos con el fin de corregir deficiencias del material cromosómico (genoma) y proporcionar así alguna ventaja terapéutica. Frente a la terapia tradicional que se basa en el uso de drogas (medicamentos) que actúan sobre los productos de los genes (las proteínas) o son ellos mismos productos de los genes, la TG está dirigida a actuar sobre los genes mismos.

Se distinguen distintos tipos de TG. La germinal consiste en la intervención sobre el genoma de las células reproductoras (espermatozoides, óvulos), orientada a la curación de enfermedades hereditarias y que actúa en beneficio de la descendencia, no sobre el individuo sobre el que se actúa. La somática actúa sobre células no reproductoras para restablecer en el tejido una función no operativa debido a algún defecto de los genes responsables de su control.

La aplicación de las TG requiere la identificación de los genes implicados en la patología, el desarrollo de técnicas para la clonación de los mismos y disponer de mecanismos eficaces de transferencia y expresión. Por otra parte es necesario garantizar la transferencia de los genes deseados a las células elegidas y que estos se expresen suficientemente. Dado que en general un gen no puede ser directamente insertado en las células de una persona se requiere de un vehículo, el “vector”. Se han desarrollado varios tipos, siendo los más socorridos los virus y los liposomas. Los primeros tienen la capacidad de insertar su ADN en el de una célula mientras que los liposomas consisten en vesículas de grasa que se fusionan con las membranas celulares. Un tercer grupo lo constituyen los retrovirus que son virus con ARN como material genético. Algunas de sus aplicaciones más importantes hasta el momento han sido el tratamiento de la deficiencia en adenosina deaminasa, de la fibrosis cística y de algunos tipos de cáncer.

Son numerosos los riesgos que conlleva la utilización de las TG. Los virus pueden infectar a más de un tipo de células causando la modificación de células distintas de las objetivo. La posible inserción errónea del gen en el ADN puede provoca cáncer u otros daños; dado que es imprescindible la eliminación de los genes víricos responsables de su multiplicación existe la posibilidad de mutaciones o de que tomen fragmentos de ADN de la célula huésped e infecten al paciente. Es posible la inserción del gen en las células reproductoras lo que provocaría cambios hereditarios. El exceso de expresión de los genes podría producir un exceso dañino de la proteína. El virus vector puede causar problemas de toxicidad, reacción inmune e inflamación y finalmente existe el riesgo de la transmisión del virus a otras personas o al medio ambiente.

Otros problemas que debe afrontar el uso de las TG están relacionados con los retos técnicos que se le plantean. Así se requiere el desarrollo de métodos más sencillos y eficaces de introducir genes en el organismo; disponer de vectores específicos para las células diana; mejorar la eficacia en la inserción de los genes en las posiciones correctas del ADN humano. Pero estas no son las únicas limitaciones que presenta. Los tratamientos repetidos necesarios para que sean eficaces a largo plazo plantea el problema de la respuesta inmune que se produce siempre que un elemento extraño se introduce en un tejido. Por otra parte el ADN terapéutico introducido en las células debe permanecer funcional y las células que lo contienen ser estables y de vida larga. Las interacciones posibles con el genoma celular y la división rápida de las células de muchos tejidos impiden que la TG rinda beneficios a largo plazo.

Relacionada con la aplicación de las TG está el concepto de la eugenesia. Esta se define como la aplicación de las leyes biológicas al perfeccionamiento de las cualidades propias de la raza, incluida la especie humana y aquellas  que se desarrollan de forma óptima. Existen dos tipos de eugenesia: la negativa, destinada a la eliminación de una descendencia no deseada o que padece graves malformaciones; y la positiva, destinada a la selección de algunas características fisiológicas deseadas. La TG germinal no terapéutica abre la puerta a la eugenesia positiva: la modificación del patrimonio genético no patológico y la manipulación genética con fines no terapéuticos que es considerada inaceptable y contraria a la dignidad humana y debe excluirse expresamente en la legislación.

El desarrollo de las técnicas de ingeniería genética (terapias génicas, clonación, transgénicos), plantea los mismos conflictos éticos y morales que cualquier nuevo y poderoso desarrollo tecnológico. Pueden significar un gran bien para la humanidad o grandes males según el uso que se haga de ellas, pero es necesario aumentar los conocimientos actuales sobre transferencia génica y asegurar que los tratamientos no estarán reservados a una minoría privilegiada.

Bibliografía

Kolata, G.: Clone: The Road to Dolly, and the Path Ahead. William Morrow and Company Inc. New York. 1998


Nussbaum, M. and Sunstein, C. (Eds): Clones and Clones: Facts and Fantasies About Human Cloning.
W.W. Norton & Company. 1998

Néstor Torres Darias, Licenciado y Doctor en Química, es Profesor de Bioquímica y Biología Molecular en la Universidad de La Laguna. Ha sido investigador en las universidades de Edimburgo (Gran Bretaña), Complutense (Madrid), Técnica de Viena (Austria) y Michigan (Estados Unidos). Dirige un grupo de investigación dedicado a la ingeniería metabólica mediante el empleo de técnicas de modelización matemática y la optimización de sistemas bioquímicos. Ha sido y es Investigador Principal de varios proyectos de investigación, autor de más de cuarenta trabajos de investigación en revistas especializadas internacionales, autor de un libro sobre modelización matemática y optimización de sistemas biotecnológicos y evaluador de proyectos y artículos de numerosas revistas y agencias de investigación internacionales. Ha dirigido cursos de divulgación científica e impartido conferencias sobre estos temas. Actualmente es el Director de la Agencia Canaria de Evaluación de la Calidad y Acreditación Universitaria.

Volver al índice

Clonación: Frankenstein redimido. Néstor Torres Darias

Doctor. Profesor Titular de Universidad. Departamento de Bioquímica y Biología Molecular. ULL

Martes, 20 de marzo de 2007

Un clon es un organismo con idéntica constitución genética que otro, obtenido por métodos asexuales. Clonación es por tanto el proceso de producción de clones. Un caso bien conocido de clones naturales son los gemelos monocigóticos. Pero el hecho de que dos clones sean genéticamente idénticos, no significa que sean idénticos. El medio ambiente, tanto natural como cultural, determinará diferencias entre ellos. Esto quiere decir que un clon de Einstein no tendría por qué tener el mismo coeficiente intelectual, personalidad y carácter que el Einstein original. El clon de Einstein, desarrollado en unas determinadas condiciones, podría llegar a ser más inteligente y genial que el original, o por el contrario, ser un disminuido mental. Para que dos clones sean idénticos deberían desarrollarse exactamente en las mismas condiciones, desde la composición de nutrientes y hormonas en el útero materno hasta la educación o el ambiente familiar. Y puesto que esto no es posible, dos clones nunca serán idénticos.


La posibilidad de clonar seres humanos es un hecho técnicamente posible. Por otra parte, este desarrollo tecnológico abre expectativas y debates inusitados en temas centrales como son la identidad humana, la procreación, la salud, la calidad de vida, la ética o las creencias religiosas. Como resultado de la combinación de estos factores la sociedad se ve impelida a autorregularse a un ritmo superior a su capacidad de asimilación. El debate, la reflexión y la subsiguiente toma de decisiones en un tema en el que subyacen conceptos científicos y éticos, requiere conocer bien aquello de lo que estamos tratando.


Existen dos tipos de clonación: la reproductiva y la terapéutica. La clonación reproductiva está dirigida al nacimiento de individuos completos genéticamente idénticos. Implica la implantación del embrión clonado en el útero de una madre, el desarrollo del mismo y el nacimiento de un individuo. La clonación terapéutica por su parte está limitada a la fase celular y tiene como principal finalidad la obtención de las denominadas células madre. Estas son células capaces de reproducirse indefinidamente y que, estimuladas adecuadamente, pueden evolucionar y diferenciarse hacia cualquier tipo de tejido (piel, neuronas o músculo cardiaco). Estos tejidos se podrían utilizar para tratar a pacientes con una gran variedad de enfermedades sin problemas de rechazo.


La técnica de clonación por excelencia es la transferencia nuclear (TN). En el caso de la oveja Dolly se extrajeron células de glándula mamaria de una oveja. Estas contenían todos los genes del organismo, pero al estar especializadas sólo están activos aquellos que son necesarios para la función de la mama. Una vez extraídas y cultivadas en un medio de cultivo adecuado, en donde cesaron de dividirse, una de estas células se transfirió a un óvulo sin fertilizar de otra oveja al que previamente se le extrajo el núcleo. Esto se consiguió mediante un débil pulso eléctrico. Al conjunto así obtenido se le sometió a una segunda descarga eléctrica que sirvió para desencadenar los mecanismos que inician la formación del embrión.

Es indiscutible que la utilización de embriones clonados como fuente de células madre tiene una utilidad cierta en el desarrollo de terapias regenerativas que permitirán tratar una amplia gama de enfermedades humanas hoy incurables como la diabetes, el cáncer, el SIDA, el Parkinson o el Alzheimer. Igualmente es cierto que la clonación humana reproductiva es prácticamente posible. Ante este panorama compuesto a partes iguales de riesgos y posibilidades, ¿debe la comunidad renunciar a los beneficios potenciales por el rechazo ético que generan las cuestiones asociadas con la clonación humana en cualquiera de sus modalidades? Este es el debate que se ha abierto, en el que todos tenemos derecho a intervenir. Pero la participación exige conocimiento e información. Sólo así estaremos a salvo de las manipulaciones a las que, por motivos religiosos, ideológicos, económicos o por prejuicios basados en la ignorancia vamos a estar expuestos.


En cualquier investigación científica y en sus posibles aplicaciones siempre hay riesgos. Nuestra sociedad y nuestra cultura, basadas en los principios de democracia y respeto a la libertad individual, han resuelto este antiguo dilema a través del debate democrático y del análisis ético. Y en ningún caso la solución ha sido quemar el laboratorio, matar a Frankenstein y condenar a su criatura. Por el contrario la respuesta ha sido conocer las consecuencias de lo que se investiga en él y aceptar y limitar sus riesgos. Lo que nos lleva a que la actividad científica debe estar regulada por la sociedad a través sus instituciones y de la representación política. Instituciones y representación en las que las únicas fuerzas y argumentos no deben ser las puras del mercado y del beneficio económico o las creencias de algunos. El miedo nunca debería limitar la libertad y el progreso.

Bibliografía

Kolata, G.: Clone: The Road to Dolly, and the Path Ahead. William Morrow and Company Inc. New York. 1998


Nussbaum, M. and Sunstein, C. (Eds): Clones and Clones: Facts and Fantasies About Human Cloning.
W.W. Norton & Company. 1998

Néstor Torres Darias, Licenciado y Doctor en Química, es Profesor de Bioquímica y Biología Molecular en la Universidad de La Laguna. Ha sido investigador en las universidades de Edimburgo (Gran Bretaña), Complutense (Madrid), Técnica de Viena (Austria) y Michigan (Estados Unidos). Dirige un grupo de investigación dedicado a la ingeniería metabólica mediante el empleo de técnicas de modelización matemática y la optimización de sistemas bioquímicos. Ha sido y es Investigador Principal de varios proyectos de investigación, autor de más de cuarenta trabajos de investigación en revistas especializadas internacionales, autor de un libro sobre modelización matemática y optimización de sistemas biotecnológicos y evaluador de proyectos y artículos de numerosas revistas y agencias de investigación internacionales. Ha dirigido cursos de divulgación científica e impartido conferencias sobre estos temas. Actualmente es el Director de la Agencia Canaria de Evaluación de la Calidad y Acreditación Universitaria.

Volver al índice

Neurociencia Cognitiva: mente, cerebro y computación. Horacio Barber Friend

Doctor. Investigador “Ramón y Cajal”. Departamento de Psicología Cognitiva, Social y Organizacional. ULL

Martes, 20 de marzo de 2007

El objetivo último de la Ciencia debe ser no sólo conocer el universo que nos rodea, sino describir y explicar nuestra propia naturaleza. El intento de entender la mente humana es seguramente un elemento intrínsico a su propia existencia. Nuestra capacidad de pensar y comunicarnos depende directamente de nuestra habilidad para reconocernos a nosotros mismos como entes autónomos que pueden interpretar la conducta de sus semejantes. Por lo tanto, podemos decir que desde que el hombre es sapiens, e incluso antes, gran parte de sus pensamientos han ido encaminados a aprehender el origen y la esencia de los mismos. Resulta llamativo entonces que, a pesar de haber sido un desafío central y prioritario en nuestra sed de conocimiento, la mente se haya revelado como un objeto de estudio tan escurridizo y difícil de abordar de forma objetiva. Las razones han sido tanto de tipo pragmático como filosófico. Por un lado, su complejidad ha hecho que la madurez de otros campos del saber sea una conditio sine qua non para el comienzo de su análisis sistemático y cuantitativo. Por otro lado, las implicaciones morales y religiosas que conlleva la aceptación de cualquier axioma relativo a nuestra propia identidad han sido un obstáculo para el acercamiento ingenuo que requiere el método científico. Ambos tipos de razones se relacionan con un hecho que aún hoy no ha sido enteramente asimilado: el hecho de que la mente es el resultado de cambios físicos de carácter bioquímico que tienen lugar en nuestro cerebro. De esta manera, la aceptación de que la mente no es cualitativamente diferente del resto de nuestro mundo conocido, y que por lo tanto se rige por sus mismas leyes físicas, ha sido, o más bien está siendo, la última etapa del lento y doloroso proceso por el cual nos estamos ubicando sin privilegios especiales en nuestro universo.

Actualmente, el desarrollo de las diferentes ramas de la Ciencia nos está permitiendo avanzar considerablemente en el estudio de la mente, entendida como reflejo funcional de la actividad cerebral. Para ello, no basta con el desarrollo de una disciplina concreta, sino que se requiere la integración de métodos y conocimientos provenientes de muy diversos campos. Aunque históricamente diferentes subdisciplinas han servido como puente entre la Psicología y la Biología, en las dos últimas décadas ha surgido la Neurociencia Cognitiva como un campo interdisciplinar más amplio en el que se pretenden integrar las diferentes tradiciones que han estudiado la mente y el cerebro, entre las que destacan las Neurociencias, la Psicología Cognitiva y las Ciencias de la Computación.

Desde el punto de vista biológico, el cerebro ha sido extensamente estudiado atendiendo a su anatomía, su fisiología, o su desarrollo ontogenético y filogenético. Actualmente el gran reto consiste en  integrar los datos sobre funcionamiento molecular y celular en modelos que abarquen sistemas más complejos de procesamiento de la información. Por su parte, la Psicología Cognitiva utiliza métodos experimentales que permiten la validación empírica de modelos teóricos funcionales. En términos generales, dicha experimentación se basa en la medición precisa de las reacciones conductuales que se producen en respuesta a estímulos concretos, manipulados bajo condiciones controladas. Finalmente, las Ciencias de la Computación, y más concretamente la Inteligencia Artificial, diseña programas de ordenador que imitan funciones mentales. Estas simulaciones pueden entenderse como implementaciones lógico-matemáticas de los modelos teóricos cognitivos y biológicos, y por lo tanto constituyen una herramienta muy útil a la hora de validar o refutar dichos modelos.

Aunque los avances teóricos en los campos implicados en el estudio del cerebro han abonado el terreno para el nacimiento de la Neurociencia Cognitiva, su desarrollo ha sido finalmente posible gracias a una serie de avances tecnológicos, los cuales han permitido estudiar en tiempo real la actividad cerebral asociada a procesos cognitivos. Técnicas de neuroimagen funcional como la resonancia magnética funcional, o la tomografía por emisión de positrones hacen posible la localización exacta de grandes poblaciones de neuronas que se activan de forma contingente a tareas cognitivas concretas. Estas técnicas de baja resolución temporal se complementan con otras como la electroencefalografía o la magnetoencefalografía que aportan información crucial sobre el curso temporal de los procesos.

En esta conferencia, tras algunas consideraciones filosóficas e históricas sobre la Neurociencia Cognitiva, se describirán algunas de las principales técnicas de neuroimagen funcional empleadas en este campo y el tipo de diseño experimental que requieren. Finalmente, y a modo de ejemplo, se expondrá cómo la investigación sobre un proceso cognitivo concreto, el reconocimiento visual de palabras, supone actualmente un esfuerzo conjunto de las diferentes disciplinas citadas anteriormente.

Bibliografía

Ward, J.: The Student's Guide to Cognitive Neuroscience. J. Ward. Psychology Press. 2006

Driver, J., Haggard, P. and Shallice, T. (Eds): Mental processes in the human brain. Editores: Philosophical Transactions of Royal Society B. 2007 (en prensa)

O'Reilly, R. y Munakata, Y.: Computational Explorations in Cognitive Neuroscience: Understanding the Mind by Simulating the Brain. The MIT Press. 2000

Cabeza, R. y Kingstone, A. (Eds): Handbook of Functional Neuroimaging of Cognition. The MIT Press. 2001

Barber, H. y Kutas.: Interplay between Computational Models and Cognitive Electrophysiology in Visual Word Recognition. Brain Research Reviews. 2007. 53 (1). pp 98-123.

Información en Internet

http://www.pubs.royalsoc.ac.uk/index.cfm?page=1358

Horacio Barber Friend realizó su tesis doctoral en la Universidad de La Laguna. Posteriormente realizó estancias posdoctorales en el departamento de Ciencia Cognitiva de la Universidad de California en San Diego (UCSD), en el Departamento de Psicología de la Universidad Hebrea de Jerusalén, y en el Instituto de Neurociencia Cognitiva del University College of London (UCL). Sus temas de investigación giran en torno a los procesos de comprensión del lenguaje utilizando técnicas electrofisiológicas, y ha publicado sus trabajos en revistas destacadas dentro del campo de la Neurociencia.  Actualmente es investigador contratado del programa Ramón y Cajal  en la Universidad de La Laguna, y participa en diferentes proyectos que abarcan temas como el procesamiento del lenguaje en bilingües, la percepción parafoveal durante la lectura, o la representación semántica de las palabras en el cerebro. Asimismo, imparte docencia en la Universidad de La Laguna en los programas de doctorado de Neurociencia y Neurociencia Cognitiva.

Volver al índice

A propósito de la energía (positiva, por supuesto). Basilio Ruiz Cobo

Doctor. Profesor Titular de Universidad. Departamento de Astrofísica. ULL

Investigador. Instituto de Astrofísica de Canarias

Miércoles, 21 de marzo de 2007

A finales del siglo XIX se produce la penetración en nuestra cultura de la palabra ‘energía’ y, desde entonces, ha sufrido un fuerte aumento polisémico. Algunos de los conceptos asociados a esta palabra son erróneos y otros simples absurdos amparados en el paraguas de respetabilidad que le da la Ciencia. La presente conferencia tratará de aclarar el significado del concepto de  energía. Para ello la dividiré en cuatro partes: la energía en nuestra vida cotidiana; en la Ciencia; en la Filosofía y, finalmente, en la pseudociencia.

En la  primera parte veremos cómo, para entender nuestro mundo cotidiano, el concepto de energía es de gran utilidad dada la fuerte simplificación que introduce; veremos cómo toda la información que nos llega a través de los sentidos involucra un cambio de energía; que toda actuación sobre nuestro entorno y la vida en sí misma no son más que una serie de intercambios de energía. Veremos el origen de toda la energía de la que podemos disponer: la energía gravitatoria de una inmensa nube de hidrógeno, a través de la formación de estrellas y  las reacciones nucleares. 

En la segunda parte de la conferencia veremos la energía desde el punto de vista de la Física. Clasificaremos todos los tipos de energía en dos grupos: la energía cinética -asociada al movimiento- y la potencial -asociada a la capacidad para realizar trabajo. Veremos cómo uno de los grandes avances de la Ciencia ha consistido por una parte en comprender que el calor es simplemente la energía cinética de los átomos y moléculas y, por otra parte,  en agrupar todas las energías potenciales en sólo cuatro grupos asociados a las cuatro fuerzas presentes en la naturaleza: la fuerza gravitatoria, la electromagnética, la fuerza débil y la nuclear fuerte. Así, todo lo que ocurre en nuestro Universo puede explicarse usando estos conceptos. Una comprensión más profunda ha conseguido simplificar aun más esta clasificación agrupando estros tipos en sólo dos -la energía gravitatoria y la unificada fuerte-electrodébil. Intentaremos ver por qué los sistemas evolucionan buscando un mínimo de energía, y trataremos de entender de forma muy simple el primer y segundo principio de la termodinámica y el porqué de la imposibilidad del movimiento perpetuo. Veremos la íntima relación de dos conceptos aparentemente poco relacionados: la energía y el tiempo. El principio de indeterminación nos dice que ambos son complementarios, de tal forma que la cantidad de energía de un sistema está tanto más indefinida cuanto menor sea el intervalo de tiempo considerado. Es más, podremos redefinir la energía como la magnitud complementaria del tiempo de tal forma que de dicha definición se deduce que energía es precisamente aquello que se conserva con el tiempo.  Por último veremos, muy brevemente, cual es el significado del concepto de energía oscura introducido al tratar de entender el origen del Universo.

 En la tercera parte de la conferencia veremos, muy rápidamente, la evolución a lo largo de la historia de la Filosofía del significado asociado a la palabra energía: a pesar de ser introducido por Aristóteles el término no fue usado científicamente hasta Young (1807) para referirse a la energía cinética. A mediados del XIX  Kelvin y Joule usan energía como concepto unificador de los procesos térmicos -como la vaporización del agua- y la capacidad para realizar trabajo. Ciertos científicos de finales del XIX -como el Nobel de Química  Wilhelm Ostwald- llegaron a plantear que la energía era un concepto metafísico: la sustancia original del universo, algo que no se crea ni se destruye -relacionándose así con Anaximandro (siglo IV aC)- y que es aquello que se intercambia en los diferentes procesos físicos. Hablaremos muy brevemente de la Liga Monista creada por el biólogo Ernst Haeckel y de su concepto de energía como impulso interno inherente a la vida y de su consecuencia en la Filosofía: el vitalismo biológico.

En la última parte de la conferencia veremos como los esotéricos occidentales de principios del siglo XX encuentran en la palabra energía un comodín con resplandores de rigor científico, ampliamente aceptado por el público cultivado y con el que se puede justificar prácticamente todo con un poco de habilidad retórica. Así veremos aparecer términos como energía positiva o negativa entendidos como principio vital benefactor o pernicioso. Veremos aparecer tonterías como los secretos de las pirámides -una especie de herramientas para concentrar la energía del cosmos; las energías telúricas de las que uno puede empaparse viajando ciertos días a Machu-Picchu; las energías de los cristales y otras majaderías. Veremos como a la hora de traducir el esoterismo oriental a occidente la palabra energía es un comodín fantástico: así una bobada como el reiki (la sanación por imposición de manos) viene a traducirse como energía vital del Universo, cuando en su concepción original nada tiene que ver con eso.

Bibliografía

Frumento, A.S.: Desmitificando la energía. El Escéptico. Primavera 1999. pp. 57 y ss.

Sánchez Ferrer, J.M.: Génesis de la concepción pseudocientífica de la Energía. El Escéptico nº 20. pp. 14 y ss. Septiembre-diciembre 2005. El Escéptico nº 21. Enero-abril 2006. pp. 76-83

Basilio Ruiz Cobo nació en Los Corrales de Buelna (Santander) en 1960 y reside en Tenerife desde 1985. Es Doctor en Ciencias Físicas, Profesor Titular del Departamento de Astrofísica de la ULL e investigador del IAC dentro de grupo de Física Solar. Autor de más de cuarenta artículos de investigación en revistas internacionales con árbitro, incluyendo uno en la revista Nature y otro en Science. Ha sido evaluador de artículos científicos para las revistas Astronomy & Astrophysics y Astrophysical Journal. Está especializado en espectropolarimetría (la obtención de información del estado de la materia a partir del análisis de la luz, en especial de su polarización) así como en el modelado de atmósferas estelares mediante el uso de códigos de inversión de la ecuación de transporte radiativo, y en el magnetismo solar. Ha dirigido cuatro tesis doctorales en estos campos. Es miembro de ARP-Sociedad para el Avance del Pensamiento Crítico.

Volver al índice

Rayos X, antenas, móviles y salud. José Hernández Armas

Doctor. Catedrático de Universidad. Departamento de Medicina Física y Farmacología. ULL

Miércoles, 21 de marzo de 2007

Las radiaciones electromagnéticas son, esencialmente, energía transportada en forma de ondas electromagnéticas con una velocidad que, en el vacío, es de unos 300.000 km/segundo. Se caracterizan con los valores de unos parámetros propios de las ondas: longitud de onda, frecuencia y periodo, amplitud y velocidad de propagación. Su ordenación, considerando por ejemplo la frecuencia, es el espectro electromagnético. Aunque todas las ondas electromagnéticas tienen la misma naturaleza, el uso que de ellas se hace y los efectos que pueden hacer en la materia que alcanzan, está determinada por la frecuencia que determina la energía que transportan. Una clasificación muy frecuente de las ondas (o radiaciones) electromagnéticas se realiza atendiendo a si son capaces (o no) de producir ionizaciones en los átomos de la materia con la que interaccionan. Así se habla de radiaciones ionizantes y radiaciones no ionizantes.

La parte del espectro electromagnético de mayor frecuencia y, consiguientemente, de mayor energía (los rayos X y rayos gamma, y en alguna medida los rayos Ultravioleta de clase C) constituye el grupo de radiaciones ionizantes. Su capacidad de ionizar es la causa de los beneficios que pueden derivarse de su utilización, pero es también la responsable de los daños que estas radiaciones pueden ocasionar en la materia viva. Estas radiaciones ionizantes tienen claros efectos sobre la salud humana, como se conoce desde la fecha, ya algo lejana, en que el hombre descubrió cómo producirlas y aprendió a usarlas de forma masiva, precisamente en el ámbito médico. Aunque se conoce mucho sobre los efectos de la radiación electromagnética ionizante queda aún mucho por conocer. Debido a ello, se puede asegurar que hay un gran bloque de conocimiento científico sobre radiaciones que permite su utilización en multitud de actividades humanas: medicina, investigación, agricultura, industria, etc. Como hay mucho que aún no se conoce, y como las radiaciones se popularizaron con el uso bélico de las mismas (Hiroshima y Nagasaki), se ha generado una actitud no científica ante las radiaciones: radiofobia. Es muy frecuente oír  como se achaca a las radiaciones la culpabilidad de efectos que no son debidos a ellas.


El organismo humano está formado por agrupaciones de células constituidas, a su vez, por macromoléculas biológicas que, a modo de soluto, se encuentran disueltas en agua formando una disolución que está encerrada en una membrana celular. Los átomos de las moléculas, por la acción de ciertas radiaciones, pueden ser ionizados y, como consecuencia, se modifican las moléculas de las que forman parte, generando cambios en las células y en todo el organismo en su conjunto, en definitiva, alterando la salud. Esto evidencia la relación entre radiaciones ionizantes  y salud.


Ahora bien, la mayor parte del espectro electromagnético está constituido por aquéllas ondas con frecuencias inferiores a las de las radiaciones ionizantes. Entre ellas se encuentran la radiación ultravioleta, la luz visible, la radiación infrarroja, las microondas, las ondas de radar, televisión y telefonía y las ondas de frecuencias extremadamente bajas ligadas a los campos eléctricos y magnéticos que se generan, por ejemplo, alrededor de las líneas de alta tensión usadas para la transmisión de energía eléctrica. Este gran conjunto de ondas se denomina radiaciones electromagnéticas no ionizantes.


¿Puede asegurarse que las radiaciones electromagnéticas no ionizantes no tienen capacidad para actuar sobre los seres vivos y que no ocasionan efectos apreciables sobre la salud de los seres humanos? En absoluto. Todas las radiaciones electromagnéticas no ionizantes tienen capacidad para producir efectos en los seres vivos mediante mecanismos diferentes a los conocidos para las radiaciones ionizantes. Estos efectos son, principalmente, producir elevaciones locales de temperatura, modificar la velocidad de migración de iones a través de membranas celulares, etc. Es cierto que, hasta el momento presente, no se ha podido establecer una relación causal entre estas radiaciones y uno de los efectos más dramáticos ligados a la palabra radiación: el cáncer. Pero está bien reconocida la existencia de un gran conjunto de diversos efectos sobre la salud, que ha ocasionado la producción de normas legales. El propósito de las mismas es disminuir dichos efectos mediante medidas preventivas.


Actualmente existe una cierta inquietud social por los posibles efectos nocivos para la salud ligados al hecho de vivir cerca de cables o líneas de alta tensión así como por la utilización masiva de telefonía móvil, o por vivir cerca de antenas de telefonía. ¿Está basada en conocimientos científicos esta actitud o de nuevo se está generando una radiofobia como la que persigue a las radiaciones ionizantes?

Bibliografía


Comisión Internacional de Protección Radiológica: Recomendaciones 1990. ICRP-60. Sociedad Española de Protección Radiológica. (Apolonio Morales,27-28036 Madrid).


Radiological Protection of Patients in Diagnostic and Interventional Radiology, Nuclear Medicine and Radiotherapy. International Atomic Energy Series. Viena. 2001.


Normas básicas internacionales de seguridad para la protección contra la radiación ionizante y para la seguridad de las fuentes de radiación. Colección Seguridad nº 115. Organismo Internacional de Energía Atómica. Viena. 1997.


Real Decreto 783/2001, de 6 de julio, por el que se aprueba el Reglamento sobre protección sanitaria contra radiaciones ionizantes. (Boletín Oficial del Estado num. 178, de 26 de julio de 2001).

José Hernández Armas es Catedrático de Física Médica (área de Radiología y Medicina Física) de la ULL desde 1989. Fundador y Director del Laboratorio de Física Médica y Radiactividad Ambiental de Canarias, incluido en la Red Espaciada para la Vigilancia Radiológica Ambiental de España del Consejo de Seguridad Nuclear. Fundador y Jefe del Servicio de Física Médica del Hospital Universitario de Canarias (HUC). Jefe de Protección Radiológica del HUC. Facultativo Especialista en Radiofísica Hospitalaria. Director de seis tesinas y nueve tesis doctorales en la ULL. Miembro de los comités editoriales de las revistas españolas Física Médica y Radioprotección. Autor o coautor  de 55 trabajos en revistas especializadas y 105 comunicaciones en congresos nacionales e internacionales. Actividad docente universitaria desde 1972, impartiendo enseñanza en Física Médica, Protección Radiológica, Instrumentación Electromédica y Bases Físicas de la Audición y Fonación. Áreas de interés en investigación: radiación natural; Radón en viviendas; dosimetría de pacientes en radiodiagnóstico.

Volver al índice

Amenazas del cielo. Oswaldo González Sánchez

Licenciado. Técnico de Planetario. Museo de la Ciencia y el Cosmos (Cabildo de Tenerife – Instituto de Astrofísica de Canarias). La Laguna. Tenerife

Jueves, 22 de marzo de 2007

El ser humano siempre ha mirado al cielo con curiosidad, dejando en las estrellas sus alegrías, esperanzas y miedos. Algunos fenómenos astronómicos concretos, como la visión de un eclipse, una lluvia de estrellas o la observación de un cometa, atemorizaron a reyes y plebeyos de todas las épocas. ¿Debemos realmente temerlos en la actualidad, o sólo es una creencia más sin fundamento científico? En la aparentemente relajada vida del siglo XXI donde ya apenas se observan las estrellas, ocultas tras la luz derrochada por nuestras orgullosas ciudades, encontramos que quizás existe algo de razón en estos temores arcaicos.

 
Muchos de los miedos por la visión de eclipses o conjunciones planetarias no dejan de ser supersticiones ancestrales sin sentido. No obstante, nuestro sistema planetario está compuesto de pequeños cuerpos, asteroides y cometas, que suponen un peligro real. Algunos de ellos pueden ser muy peligrosos para la vida en la Tierra y de hecho existen probabilidades reales de colisión con nuestro planeta. Actualmente no tenemos un censo completo de todos esos diminutos y esquivos cuerpos que deambulan por el Sistema Solar. ¿Qué son exactamente los cometas y las asteroides? ¿Ha impactado alguno en tiempos pasados? ¿Dónde están y cómo se puede prevenir una catástrofe de este tipo? Aún después del gran avance científico y tecnológico desarrollado durante el último siglo, ¿seríamos ahora capaces de detener el impacto de uno de estos cuerpos?.


En esta conferencia intentaremos dar respuesta a estas preguntas. Comenzaremos realizando una clara distinción entre las amenazas ficticias (conjunciones planetarias, eclipses de sol o de luna, o fechas mágicas del calendario) y las amenazas reales (impacto de un asteroide o cometa sobre la Tierra) que se ciernen sobre nuestro planeta. A continuación, detallaremos qué es lo que conocemos actualmente de cometas y asteroides, realizando una concisa definición de estos términos. Un cometa es una bola de hielo sucio (gas y polvo) que proviene de las zonas externas de nuestro sistema planetario (del cinturón de Kuiper o de la Nube de Oort) mientras que un asteroide es sólo un cuerpo rocoso localizado normalmente entre las órbitas de Marte y Júpiter. Estudiaremos la estructura, clasificación, composición química y localización en el Sistema Solar de estos cuerpos, así como las misiones espaciales que se han realizado para saber más de ellos.

 
En 1994 se pudo observar con detalle el impacto de un cometa, el Shoemaker-Levy 9, con el planeta Júpiter. El acontecimiento sirvió para avisar a científicos de todo el mundo que, aunque las colisiones en el Sistema Solar son raras, realmente ocurren. En la Tierra parece que en 1908, no hace ni un siglo, colisionó en Tunguska (Siberia Central) un cometa de baja masa, provocando desastrosas consecuencias.


La Luna, Marte, Mercurio y los satélites de los planetas gaseosos muestran multitud de cráteres de impacto, alguno bastante reciente. En nuestro planeta son más difíciles de detectar (sólo se conocen unos 150) porque la vegetación y los océanos, junto con los potentes agentes erosivos, los esconden y borran. Incluso puede que el origen de la Luna sea consecuencia de una brutal colisión entre la Tierra y un gran asteroide hace 4 000 millones de años. La extinción de los dinosaurios también pudo haber sido provocada por el choque de un asteroide hace 65 millones de años. Los científicos se basan en varios indicios, como la detección de iridio (metal raro en la Tierra pero frecuente en asteroides) entre las capas que separan el cretácico del terciario o el hallazgo del cráter Chicxulub, de 180 kilómetros de longitud, en la península del Yucatán. No obstante, la desaparición de los dinosaurios no ha sido la única extinción masiva que se ha producido en nuestro planeta sino la última de una serie de ellas. ¿Serían también provocadas por choques de asteroides o cometas?


Así, el peligro astronómico más real para la Tierra es la colisión con un cometa o asteroide, siendo éstos los más preocupantes por su localización y abundancia. Actualmente hay más de 13.000 asteroides catalogados con órbitas definidas, pero se descubren unos 130 más cada mes. Los más pequeños son los más numerosos, desconociéndose el número total de ellos que realmente existen. A finales de 2004 hay catalogados más de 3100 asteroides potencialmente peligrosos para la Tierra. Estos objetos reciben el nombre de NEOs (Near Earth Objects) y su localización, clasificación e identificación es de enorme importancia para el futuro. Veremos qué proyectos internacionales están realizando este trabajo, así como qué ideas reales (y no las provenientes de las películas cinematográficas) se tienen para intentar evitar, en un futuro cercano, que alguno de estos cuerpos choquen con nuestro planeta.

Bibliografía

Clarke, A. C.: El martillo de Dios. Editorial Ediciones B. Colección VIB Nº 17-8. 1997


Trigo, J. M.: Meteoros: fragmentos de cometas y asteroides. Editorial Sirius. 1996


Sagan, C. y Druyan, A.: El Cometa. Segunda edición. Ed. Planeta. 1986


Información en Internet

http://neo.jpl.nasa.gov/index.html

http://seds.lpl.arizona.edu/nineplanets/nineplanets/meteorites.html

Oswaldo González Sánchez es Licenciado en Física, especialidad Astrofísica, por la Universidad de La Laguna. Astrónomo aficionado desde que empezó a caminar, ha pertenecido a diferentes asociaciones como la Liga Iberoamericana de Astronomía, agrupaciones astronómicas de Sabadell, Gran Canaria y Tenerife, y actualmente al Grupo de Observadores Astronómicos de Tenerife. Descubridor del aspecto arqueoastronómico del Almogaren del Bentayga, en Gran Canaria. Es coautor del libro oficial de texto para la asignatura optativa de Astronomía aprobado por la Consejería de Educación del Gobierno de Canarias. Colabora frecuentemente en programas de radio y televisión. Desde 1995 trabaja en el Museo de la Ciencia y el Cosmos como técnico de planetario y divulgador de Astronomía. Astrofotógrafo y perseguidor de eclipses, colabora en la telemetría de la posición de satélites artificiales. Es un amante de la observación de todo fenómeno celeste, su sueño es descubrir un cometa que impacte con la Luna.

Volver al índice

¿Existe vida en el planeta Tierra? Manuel Vázquez Abeledo

Doctor. Investigador. Coordinador de Proyectos. Instituto de Astrofísica de Canarias

Jueves, 22 de marzo de 2007

En la última década se han descubierto unos 200 planetas girando alrededor de otras estrellas, los llamados exoplanetas. Sin embargo, las técnicas actualmente disponibles tan sólo nos permiten detectar aquellos con masas similares o mayores que las de Júpiter. En estos gigantes gaseosos difícilmente podríamos esperar encontrar vida de algún tipo. La detección de planetas del tipo terrestre, es decir similares al nuestro, tendrá que esperar al menos unos diez años. Mientras tanto hemos de desarrollar técnicas para estudiar sus características, con especial énfasis en la detección de vida. El planeta Tierra visto desde la distancia será un excelente banco de pruebas.

Imágenes del Apolo 8 desde la órbita lunar permitieron observar, por primera vez, la Tierra como un cuerpo aislado en el espacio. A estas siguieron otras misiones, destacando las imágenes obtenidas por la Voyager 2 desde el borde del Sistema Solar que muestran a nuestro planeta como “un punto azul pálido” en palabras del recordado Carl Sagan. Recientemente la nave Cassini orbitando Saturno nos ha enviado una imagen similar. Numerosos satélites en órbita terrestre nos proporcionan información sobre el estado de nuestro planeta.

Un problema previo a resolver es definir lo que entendemos por vida. A la espera de una respuesta definitiva a tal pregunta, podemos pensar en unas condiciones mínimas para su existencia: a) un elemento que aglutine la formación de moléculas complejas, con el carbono como el principal candidato, b) un medio líquido en cuyo seno se desarrollen las reacciones biológicas, con el agua permaneciendo en tal estado en un amplio rango de temperaturas y c) una fuente de energía, ya sea la radiación de las estrellas u otras de tipo químico. Además necesitamos que la vida a detectar influya en la composición química del planeta.

Es razonable considerar la vida como una máquina termodinámica que evoluciona en condiciones de no equilibrio, intercambiando materia  y energía con sus alrededores. En los años sesenta James Lovelock propuso que existen varias combinaciones de gases que solo pueden mantenerse mediante la producción biológica de uno de ellos. Tal es el caso del oxígeno y el metano en la atmósfera terrestre. Sin embargo, los intentos de detectar vida en el planeta Marte ya sea in situ con los experimentos biológicos del proyecto Viking o con el análisis de un meteorito marciano en laboratorios terrestres, el ALH84001, nos hablan de la dificultad de detectar vida. El problema radica en la existencia de alternativas no biológicas que puedan explicar las anomalías químicas encontradas.

Espectros de la Tierra obtenidos desde el espacio cercano nos dicen que la presencia simultánea de bióxido de carbono, oxígeno y agua (la triple huella) parece ser un indicador preciso de la existencia de algún tipo de actividad biológica. El proceso de la fotosíntesis es utilizado por numerosos seres unicelulares y por las plantas para obtener energía.  La absorción de la luz se centra en dos bandas del rango visible del espectro electromagnético, mientras que reflejan la luz fuertemente en el infrarrojo. Ello nos hace pensar que un planeta cubierto por seres fotosintéticos en sus continentes, podría presentar un aumento de radiación en dicha zona espectral. Observaciones de la Tierra desde la nave Galileo parecían confirmarlo, pero sólo en determinadas zonas como el Amazonas. Uno de los problemas es la existencia de nubes que enmascaran la señal biológica.

Las simulaciones por ordenador nos están permitiendo en la actualidad visualizar cómo se vería nuestro planeta desde diferentes direcciones, bajo distintas estaciones astronómicas y en distintas épocas.

La recepción de mensajes de una civilización extraterrestre sería una verificación ideal de la existencia de vida fuera de nuestro planeta. Razones de economía energética nos inducen a esperar que las ondas de radio seria el canal elegido. Las señales podrían haber sido enviadas deliberadamente o formar parte de su red de comunicaciones. En nuestro planeta los sistemas militares de alerta por radar,  el radiotelescopio  de Arecibo y las emisiones de televisión son la huella de nuestra tecnología en el espacio exterior. Sin embargo, puede que la vida inteligente sea poco frecuente en el Universo.

Bibliografía

Margulis, L., Sagan, D.: ¿Qué es la vida? Colección Metatemas. Tusquets. 1996

Sagan, C.: Un punto azul pálido. Editorial Planeta. 2000

Schrödinger, E.: ¿Qué es la vida? Colección Metatemas. Tusquets. 1997

Vázquez, M., Martín Guerrero, E.: La búsqueda de vida extraterrestre. Mc Graw Hill Interamericana. 1999

Manuel Vázquez Abeledo es Doctor en Ciencias Físicas por la ULL y Coordinador de Proyectos de la plantilla del IAC, institución en la que trabaja desde 1970. Su campo de trabajo es la Física Solar. Ha publicado unos setenta trabajos en revistas especializadas, organizado siete conferencias internacionales, liderado diez proyectos de investigación y dirigido ocho tesis doctorales. Fue Coordinador de Investigación del IAC desde 1986 a 1991.
Interesado en la divulgación científica en diferentes niveles, ha publicado los siguientes libros: La Historia del Sol y el Cambio Climático, 1998, Editorial Mc Graw-Hill / Interamericana, Madrid; La Búsqueda de Vida Extraterrestre, 1999, Editorial Mc Graw-Hill / Interamericana, Madrid (junto con E. Martín Guerrero); El Sol: algo más que una estrella, 2004, Editorial Sirius, Madrid; Ultraviolet Radiation in the Solar System, 2005, Springer (junto con A. Hanslmeier).
Ha impartido conferencias en el curso Ciencia y pseudociencias desde su primera edición en 2001.

Volver al índice

Mecánica cuántica para torpes. Luis Vega Martín

Doctor. Profesor Titular de Universidad. Departamento de Física Fundamental, Experimental, Electrónica y Sistemas. ULL

Martes, 27 de marzo de 2007

La Mecánica Cuántica es la Teoría física que propusieron de modo independiente Werner Heisenberg y Erwin Schrödinger a finales de 1925 y comienzos de 1926, y que ha constituido, desde entonces, la clave para nuestra comprensión del mundo microscópico. Con ella se culmina un periodo de más de 25 años, iniciado con el descubrimiento de Max Planck del 'cuanto de energía', a lo largo del cual la Física Clásica va dejando paso a un nuevo modo de abordar los problemas del mundo molecular, atómico y nuclear.
Por sí misma la Mecánica Cuántica es una teoría revolucionaria. Hasta ella, la Física está dominada por dos modelos fundamentales: la descripción de cualquier cosa podía hacerse atribuyéndole la característica de partícula (todos los objetos materiales se suponían compuestos de materia discreta) o de onda (como ocurría con la luz). Ambos conceptos (el de partícula y el de onda) aparecen como extraídos de nuestra experiencia diaria, y con las precisiones de rigor, así es en toda la Física Clásica.


En la Mecánica Cuántica, sin embargo, la descripción de los sistemas físicos se hace en un espacio matemático abstracto, en la que las propiedades medibles de los objetos tienen una forma ajena a la experiencia ordinaria, y son descritos en términos de lo que se llaman 'funciones de onda'. Mediante un elaborado sistema matemático, es posible, a partir de estas funciones, encontrar los resultados que proporciona la medida de las magnitudes físicas en nuestra experiencia cotidiana.


Este modo de entender las cosas es complejo, y ha hecho que la Mecánica Cuántica viva rodeada de un halo de misterio. Y si ciertamente la comprensión de la teoría tiene sus dificultades, no lo es menos que está dotada de una capacidad de descripción y predicción absolutamente sin precedentes. Ochenta años después de su elaboración sigue siendo la guía más segura para la comprensión del Universo, sin que haya visos de su posible sustitución por ningún otro esquema conceptual.


Como parte central de sus postulados, la Mecánica Cuántica incorpora hechos tales como que el conocimiento físico de un sistema tiene límites naturales, que hay variables que es imposible medir simultáneamente con infinita precisión, que la predicción de los resultados de un experimento es, en el mejor de los casos, probabilista y que el observador, el experimentador, ejerce una influencia ineludible en el resultado de cualquier medida. Cualquiera de estas consideraciones es absolutamente novedosa en la Ciencia y ha provocado un sin fin de polémicas sobre la validez de la Teoría, no sólo en el campo de la Física, sino en todos los ámbitos científicos y filosóficos.

Una teoría con estas características debería experimentar, y sufrió, un duro proceso de contrastación. La Cúantica no fue aceptada sin pasar un escrutinio minucioso a manos de poderosos científicos de la talla de Einstein o Bhom. Algunos de sus fundamentos no han podido verificarse hasta principios de los años ochenta del pasado siglo. No han tenido reposo los que han intentado sustituir, total o parcialmente, alguno de sus postulados, ni los que han intentado crear teorías alternativas (singularmente las llamadas teorías de variables ocultas). De todas las pruebas, a día de hoy, la teoría ha salido reforzada.


¿Cómo aceptar vivir en un mundo en el que el resultado de un experimento nunca es 'del todo' previsible? ¿Cómo conciliar la existencia de una realidad exterior a la conciencia humana, con la ineludible necesidad que plantea la Mecánica Cuántica de la presencia de un observador? Este es el tipo de preguntas que surgen entre las personas que estudian o conocen los hechos básicos de esta formidable teoría. La aceptación de la teoría implica la necesidad de reformular muchos de los paradigmas de la teoría del conocimiento, tradicionalmente impregnados del determinismo clásico.


A pesar de todo lo anterior, es importante señalar que la Mecánica Cuántica disfruta de su status privilegiado justamente por su extraordinaria capacidad predictiva. Por extraño que pueda parecer, no hay ambigüedades en la descripción que proporciona del universo, a pesar de la aparente endeblez de sus fundamentos. Los márgenes de dudas a que da lugar no tienen nada que ver con lo mágico, ni con lo extrasensorial, ni con mundos paralelos. La causalidad permanece intacta y el mundo que se describe es preciso y lógico.
Con no poca frecuencia aparecen en periódicos, revistas y libros supuestos acontecimientos imposibles de justificar en la Ciencia ordinaria, para los cuales se pretende dar una justificación 'científica' aludiendo a la Mecánica Cuántica. Algunos, en su ignorancia y en su interés, pretenden encontrar justificación cuántica a una amplia gama de fenómenos que van desde el 'dejavu' a las conversaciones con los muertos, pasando por la telequinesia o la telepatía. Importa por ello explicar en qué consiste la Mecánica Cuántica, cual es su significado físico concreto, sus límites de validez y la visión del mundo que proporciona.

Bibliografía

Volpi, J.: En busca de Klingsor. Ed. Seix Barral. Col. Biblioteca Breve. Barcelona. 1999


Asimov, I.: Introducción a la ciencia. Plaza & Janés.


Sánchez Ron, J. M.: Historia de la Física Cuántica (2 Vol.) Ed. Crítica. 2001

Luis Vega Martín nace en La Laguna en 1956 y cursa los estudios de Física en la Universidad Complutense de Madrid, licenciándose en 1979. Desde 1981 es profesor de Física en la ULL, donde obtuvo el grado de Doctor en 1985, y una plaza de Titular de Universidad en el área de Física Aplicada en 1987. Es especialista en Física Molecular, con especial interés en el estudio de las interacciones moleculares de sustancias de importancia biológica, especialmente de las que presentan comportamiento quiral. Ha ocupado diversos cargos en la administración universitaria, y desarrolla una notable actividad en el campo de la divulgación de la Ciencia, en particular, en la comprensión y la explicación precisa de las teorías físicas. Ha sido conferenciante en todas las ediciones anteriores del curso sobre Ciencia y pseudociencias de la ULL.

Volver al índice

Érase una vez en el Atlántico. El origen de las Canarias. Carmen Díaz Vilela

Licenciada. Profesora de Enseñanza Secundaria Obligatoria. Departamento de Ciencias de la Naturaleza. Colegio Nuryana. La Laguna. Tenerife

Martes, 27 de marzo de 2007

Desde la antigüedad hasta nuestros días se han barajado muchas hipótesis para el origen de nuestras islas. Algunas, relacionadas con mitos como el de la Atlántida, permanecen en la mente de muchos y aún hoy es necesario aclarar con bases científicas la imposibilidad de este hecho. Muchas son las referencias que desde la época de Platón se han hecho al respecto y es posible incluso encontrar textos actuales, generalmente en revistas esotéricas, que hacen referencia a este continente y que, supuestamente, aportan pruebas científicas de su existencia. Sin embargo, la teoría de la Tectónica de Placas, el estudio de los fondos oceánicos, su estructura y composición, y todos los datos disponibles en la actualidad, demuestran claramente la imposibilidad de la existencia de este continente hundido en el océano Atlántico.


Descartadas también teorías como la posible 'continentalidad' de las Islas, o los cráteres de elevación, es en el marco de la Tectónica de Placas donde se han desarrollado las hipótesis geológicas recientes (punto caliente, fractura propagante, bloques levantados y modelo sintético, entre otras). Comprender el origen del volcanismo de las Islas Canarias se ha convertido en una tarea compleja. Probablemente se trata del volcanismo más difícil de explicar del planeta.


La mayor parte de los volcanes de la Tierra de distribuyen a lo largo de los límites de las placas tectónicas. En las dorsales oceánicas o bordes constructivos, la separación de las placas hace que disminuya la presión en el manto que hay bajo ellas, por lo que este se funde, generando magma que asciende y contribuye a la formación de nueva corteza oceánica. En las zonas de subducción o límites destructivos, la fricción entre la placa que se hunde y la superior genera gran cantidad de calor, los sedimentos subducidos junto con la litosfera oceánica, cargados de humedad, se funden generando volcanes. Pero además, existen otros volcanes situados en el interior de placas tectónicas, como las Islas Hawaii, cuyo origen se explica mediante los puntos calientes, volcanes ligados a regiones del manto con temperaturas anormalmente altas, que se suponen generadas por el ascenso de columnas de material a alta temperatura desde el límite entre el núcleo y el manto. Al llegar a zonas de menor presión, estos materiales se funden parcialmente generando vulcanismo. Es ésta una de las hipótesis que intenta explicar el origen de nuestras islas. Basada en la edad de las islas, progresivamente más viejas a medida que se alejan de la dorsal, esta teoría sigue siendo defendida en la actualidad por algunos geólogos.


Sin embargo no explica que La Gomera y Fuerteventura sean más viejas que Tenerife y Lanzarote, respectivamente, o que la isla más joven del archipiélago sea La Graciosa; tampoco explica el que no exista una meseta en el fondo marino cercano, como ocurre en otros archipiélagos de punto caliente, o el que la actividad volcánica se distribuya en el tiempo en islas tan alejadas como Lanzarote, La Palma o Tenerife. Estas dificultades obligaron a los partidarios del punto caliente a proponer, en los años noventa, hipótesis alternativas como la de las pompas de magma, que generaba más problemas que los que resolvía, o las de la lámina térmica, que por sí misma no explica la formación de los magmas. A causa de todas estas dificultades se desarrollaron otras teorías basadas en la continuidad de nuestras islas con el Atlas marroquí, la teoría de la Fractura Propagante, o en la propia Tectónica de Placas y las tensiones producidas en esta zona del Atlántico y en la teoría de los Bloques Levantados.


La hipótesis más reciente recoge ideas de todas las anteriores. La Teoría Sintética supone que las zonas calientes bajo Canarias son restos de la pluma que abrió el océano Atlántico hace 200 millones de años, cuya raíz habría desaparecido y su calor se habría disipado en buena parte. Por otra parte se ha comprobado que los períodos de inactividad de las islas coinciden con los períodos compresivos de Atlas, sin embargo no se ha comprobado que exista una falla que conecte Canarias y el Atlas, posiblemente porque la capa de sedimentos que se encuentra sobre la litosfera oceánica impide la propagación de las ondas sísmicas producidas en la zona y por último, la idea de los bloques levantados, que supone fallas inversas en Canarias, se modifica por fallas transpresivas, similares a las de la cordillera del Atlas y que se caracterizan por etapas alternas de fallas rumbo-compresión, rumbo-distensión.

Bibliografía

Andeweg, B., De Vicente, G., Cloctingh, S. J. y Muñoz, A.: Local stress fiel and intraplate deformation in spatial and temporal interplay of reginal stress sotirces. Tectonophisics. 305. 1999. pp. 153-164


Anguita, F.: La evolución de la tectónica de placas: el nuevo interior de la Tierra. Enseñanza de las Ciencias de la Tierra. 3. 1996. pp. 137-148


Anguita, F.y Hernán, F.: El origen de las Islas Canarias: un modelo de síntesis. 2000


Anguita, F., Marquez, A., Castiñeiras, P. y Hernán, F.: Los volcanes de Canarias. Guía geológica e itinerarios. Editorial Rueda SL. Madrid. 2002


García, C.: El Origen de las Islas Canarias: Cronología de las ideas y conceptos relacionados desde la antigüedad hasta finales del siglo XX. 2001

Carmen Díaz Vilela es Licenciada en Biología por la Universidad de La Laguna. Cuenta con 22 años de experiencia en la docencia. Ha trabajado tanto en las aulas del colegio Nuryana (La Laguna, Tenerife) impartiendo clases de Biología y Geología, como en el Museo de Ciencias Naturales, donde realizó varios cursos para la formación del profesorado y publicó informes de trabajo. Forma parte de la directiva de la Asociación de Amigos del Museo de Ciencias Naturales, cuyo principal objetivo es la divulgación científica. Apasionada por la Geología, siempre se ha preocupado por impartir los conocimientos en esta área con el máximo rigor científico y por fomentar el espíritu crítico entre sus alumnos. Ha participado como conferenciante en las tres últimas ediciones de este curso interdisciplinar de la ULL.

Volver al índice

Ecólogos y ecologistas. ¿Diferentes caras de la misma moneda? José María Fernández Palacios

Doctor. Profesor Titular de Universidad. Departamento de Parasitología, Ecología y Genética. ULL

Miércoles, 28 de marzo de 2007

Ecólogo y ecologista son dos conceptos bien diferentes a menudo confundidos por el gran público. Siempre que le preguntaban a Ramón Margalef, uno de los padres de la Ecología en España, la diferencia existente entre unos y otros, utilizaba el mismo símil: ecólogo es a sociólogo lo que ecologista es a socialista. Es decir, si el sociólogo es el profesional que estudia las sociedades, con sus estructuras, flujos, dinámicas, etc., el ecólogo sería el profesional que estudia el funcionamiento de la naturaleza. Por otra parte, mientras que un socialista es una persona, que independientemente de su formación o trabajo, aspira a un determinado modelo de sociedad, en que, por ejemplo, los intereses públicos preponderen sobre los privados, un ecologista  es una persona que aspira, también independientemente de su formación, a un modelo de relación del ser humano con la naturaleza donde ambos puedan coexistir en armonía.

Es decir, un ecólogo es alguien que requiere necesariamente poseer una formación en Ecología que puede haberse dedicado a profesiones diferentes (por ejemplo, profesor universitario, científico, gestor de la administración, etc.) y que  podrá o no tener una determinada sensibilidad ambiental. El ecologista es en cambio una persona que sin formación en Ecología (por ejemplo, un empleado de un hipermercado, un psiquiatra o un militar) posee una determinada sensibilidad ambiental. Es decir, mientras que el primero está interesado en conocer el funcionamiento de la naturaleza, y diseña y ejecuta experimentos utilizando el método científico con tal fin, o  utiliza sus conocimientos al respecto para gestionar recursos naturales, el segundo es una persona que, independientemente de su formación, lucha por alcanzar un modelo de relación del ser humano con la naturaleza, basado en su sostenibilidad. Obviamente, de la misma forma que existen sociólogos conservadores y sociólogos socialistas, también habrá que esperar que entre los ecólogos los haya más desarrollistas y más ecologistas, lo que de hecho ocurre.

Además, el grado de compromiso de un ecologista puede ser muy diferente, y podría ir desde la mera pertenencia a una organización ecologista (Adena, Sociedad Española de Ornitología, Ecologistas en Acción, Ben Magec, Conservation Internacional, etc.), financiándola, por compartir sus fines, a la participación como activistas en determinadas campañas, como las que desarrollan expertos militantes de organizaciones como Greenpeace, tremendamente llamativas y de gran eco en los medios de comunicación, hasta la participación en las elecciones políticas, de cuyos resultados podrían derivarse responsabilidades de gobierno, como ha ocurrido y ocurre con diferentes Partidos Verdes Europeos, como ocurrió por ejemplo con la nominación de Joschka Fischer, militante de “Die Grünnen”, el Partido Verde Alemán, como Ministro de Asuntos Exteriores de su país.


Sin embargo, este panorama aparentemente bien delimitado hasta hace unas décadas, resulta que con el paso del tiempo, sobre todo debido al modelo de desarrollo económico vigente en el planeta, claramente insostenible, se ha ido difuminando progresivamente, de manera que en la actualidad son cada vez más los ecólogos que luchan activamente en ámbitos académicos, pero también extraacadémicos, por problemas que preocupan también a los ecologistas, como el cambio climático, la pérdida de biodiversidad, la desertificación, la deforestación, etc. Por su parte, la formación de muchos ecologistas, bien a título individual o como colectivos, así como la información que manejan para fundamentar sus argumentos, es cada vez más rigurosa y, muchas veces, claramente científica.

La presión de un modelo de desarrollo económico insostenible a escala planetaria ha creado por lo tanto las condiciones para que el anterior antagonismo entre ecólogos y ecologistas haya dado lugar a una simbiosis, profundamente enriquecedora para ambos, que podría concretarse en una serie de actitudes, cada vez más frecuentes, como ocurre por ejemplo con el respaldo público por parte de ecólogos consagrados, como voces autorizadas, mediante manifiestos o entrevistas en los medios de comunicación de determinadas campañas de los grupos ecologistas, o como la transmisión de los grupos ecologistas a la opinión pública, a los que suele valorar de una forma alta, de las preocupaciones de los ecólogos, que suelen anticiparse en detectar problemas no percibidos por los ciudadanos y en anunciar sus consecuencias (agujero en la capa de ozono, lluvia ácida, etc.), o sencillamente la utilización de informes preparados por los ecólogos por parte de los grupos ecologistas, como base para sus reivindicaciones. El resultado ha sido que lejos de enfrentarse, los crecientes problemas ambientales que se acumulan sobre la mesa y la profesionalidad cada vez más evidente de los grupos ecologistas ha hecho posible que unos y otros luchen hombro con hombro frente a las administraciones públicas, habituales responsables, por acción u omisión, de muchos de los problemas anteriormente citados.

Bibliografía

Fernández-Palacios, J.M., Arévalo, J.R., Delgado, J.D. y Otto, R.: Canarias: ecología, medio ambiente y desarrollo. Centro de la Cultura Popular de Canarias. 2004

Ricklefs, R.: Invitación a la Ecología: La economía de la naturaleza. Ed. Médica Panamericana. 1997

Información en Internet

www.greenpeace.org

www.benmagec.org

José María Fernández-Palacios nació en Las Palmas de Gran Canaria (1958) y se doctoró en Ecología en la Universidad de La Laguna (1987). Desde 1982 es profesor de dicha Universidad, impartiendo su docencia en la Facultad de Biología y en el Centro Superior de Ciencias Agrarias. En 1991 disfrutó de una beca post-doctoral del Gobierno Canario en el Instituto de Ecología Vegetal de la Universidad de Uppsala (Suecia). Su investigación se centra en el análisis de los ecosistemas insulares desde diferentes puntos de vista (dinámica forestal, fragmentación, biogeografía). En la actualidad es director del Departamento de Parasitología, Ecología y Genética de la ULL, investigador responsable de varios proyectos y convenios de investigación, así como autor de una treintena de artículos científicos publicados en diferentes revistas internacionales, y autor o editor de diferentes libros acerca de la Ecología de Canarias en particular y de las islas en general.

Volver al índice

¿Estamos cambiando el clima? Manuel Vázquez Abeledo

Doctor. Investigador. Coordinador de Proyectos. Instituto de Astrofísica de Canarias

Miércoles, 28 de marzo de 2007

Desde sus inicios, el progreso de la civilización humana ha venido marcado por el acceso a fuentes de energía cada vez más asequibles y efectivas. Durante muchos siglos las consecuencias de dicha utilización sobre el medio ambiente fueron mínimas, si bien es cierto que la introducción del carbón provocó los primeros problemas ambientales. En el siglo XIX la Revolución Industrial permite la sustitución de una parte importante del trabajo humano por el realizado por máquinas. El creciente uso del carbón y el descubrimiento del petróleo, y después del gas natural, proporcionan lo que entonces se creyó una fuente de energía inagotable. Simultáneamente, la industria química desarrolla nuevos productos que proporcionan cosechas más abundantes y hacen más agradable la vida diaria. Pero a mediados del siglo XX comienzan a oírse las primeras voces de alarma sobre el aumento de temperaturas que sufre nuestro planeta. Ya por entonces se habían iniciado los estudios sobre la absorción de la radiación infrarroja emitida por la superficie terrestre por parte de ciertos gases. Dicho fenómeno es conocido como 'efecto invernadero' y permite que la Tierra disfrute de unas temperaturas compatibles con la existencia de vida en su superficie. Uno de los compuestos gaseosos causantes de dicho efecto es el dióxido de carbono, CO2, que se libera a la atmósfera por la combustión de los mencionados combustibles fósiles. El problema radica no en que en dicho gas esté presente en la atmósfera, sino en su desmesurado ritmo de aumento, que no puede ser compensado por los agentes naturales como los océanos y la biosfera.


Poco a poco la comunidad científica se va convenciendo de que nos encontramos ante un grave problema medioambiental, con graves implicaciones sociales y económicas. Las actuales medidas indican, sin lugar a dudas, que estamos experimentando un aumento de temperatura a un ritmo desconocido en el pasado, tal como puede comprobarse a partir de registros paleoclimáticos. Aunque existen otros factores de variabilidad climática como la actividad solar y los diferentes tipos de aerosoles, el mencionado efecto invernadero resulta ser la causa predominante del calentamiento global de la Tierra. El clima terrestre posee un alto grado de variabilidad interna, que se refleja en fenómenos como El Niño/La Niña.  Sin embargo, el calentamiento observado en los océanos descarta dicha posibilidad. 


La mejora de los modelos climáticos ha permitido realizar mejores predicciones del comportamiento futuro. Sin embargo, hay dos factores que nos obligan a plantear diferentes 'escenarios', más que pronósticos cuantitativos concretos. Por un lado, hemos de tener en cuenta que nos encontramos ante un proceso no-lineal, y posiblemente caótico, muy sensible a cualquier mecanismo de retroalimentación. Por otro lado, los cálculos han de incluir necesariamente aspectos sociales y económicos de muy difícil cuantificación. Entre ellos podemos destacar el aumento de población, la eficiencia de los procesos energéticos y el consumo de energía per capita.

 
Entre las consecuencias del calentamiento global que es posible prever son destacables las siguientes:

a) El aumento del nivel de los océanos, con la subsiguiente repercusión sobre una gran parte de la población mundial que vive en zonas costeras, b) la intensificación de las situaciones de tiempo atmosférico extremo, es decir, tanto el aumento de las olas de calor y de frío, como de los episodios de sequía e inundación, c) desplazamiento hacia latitudes medias de enfermedades y especies tropicales y d) un mayor ritmo de emigración desde los países subdesarrollados al primer mundo. Si el ritmo de emisiones se mantiene en los niveles actuales en la segunda parte de este siglo, nos empezaremos a preocupar por el colapso de las corrientes oceánicas y la liberación de metano de las tundras siberianas. El elevado tiempo de residencia del CO2  en la atmósfera terrestre, unos doscientos años, ocasiona un claro desfase entre la toma de decisiones y la  respuesta del sistema climático.

Finalmente, se comentan los problemas existentes para una transición gradual  de una economía basada en la quema de combustibles fósiles a otra en que prime el ahorro energético y las llamadas energías alternativas.

Bibliografía

Llebot, J.E.: El cambio climático. Editorial Rubes. 1998

Delibes, M., Delibes de Castro, M.: La Tierra Herida. Ediciones Destino. 2005


Ruiz de Elvira, A.: Quemando el futuro: Clima y cambio climático. Editorial Nivela. 2001

Vázquez Abeledo, M.: La historia del Sol y el cambio climático. Mc Graw-Hill Interamericana. 1998 (reimpresión de 2006)

Weart, S.: El Calentamiento Global. Editorial Laetoli. 2006

Manuel Vázquez Abeledo es Doctor en Ciencias Físicas por la ULL y Coordinador de Proyectos de la plantilla del IAC, institución en la que trabaja desde 1970. Su campo de trabajo es la Física Solar. Ha publicado unos setenta trabajos en revistas especializadas, organizado siete conferencias internacionales, liderado diez proyectos de investigación y dirigido ocho tesis doctorales. Fue Coordinador de Investigación del IAC desde 1986 a 1991.
Interesado en la divulgación científica en diferentes niveles, ha publicado los siguientes libros: La Historia del Sol y el Cambio Climático, 1998, Editorial Mc Graw-Hill / Interamericana, Madrid; La Búsqueda de Vida Extraterrestre, 1999, Editorial Mc Graw-Hill / Interamericana, Madrid (junto con E. Martín Guerrero); El Sol: algo más que una estrella, 2004, Editorial Sirius, Madrid; Ultraviolet Radiation in the Solar System, 2005, Springer (junto con A. Hanslmeier).
Ha impartido conferencias en el curso Ciencia y pseudociencias desde su primera edición en 2001.

Volver al índice

El poder de los números: verdades y mentiras. Antonio Martinón Cejas

Doctor. Catedrático de Universidad. Departamento de Análisis Matemático. ULL

Jueves, 29 de marzo de 2007

Cuando a una información o a una opinión se le añade una cantidad, un número, cobra mayor credibilidad y verosimilitud. Esta es una de las razones  por la que se procura cuantificar todo lo que se pueda. Sin embargo, muchas informaciones utilizan de manera incorrecta los números, lo que produce que el destinatario se haga una incorrecta idea de la situación.

En un periódico local se lee en el titular que en determinado documento “el 90% son propuestas del partido A”. Sin embargo, al leer la información detallada se descubre que lo ocurrido es bien diferente: el documento recoge el 90% de las propuestas que ha formulado el partido A, el 70% del partido B…

Muchas informaciones incluyen números que expresan la medida de una cierta cantidad. Valorar adecuadamente esas informaciones obliga a estimar si esos números son correctos o no lo son, y para ello es fundamental tener algunas referencias.

Por ejemplo, si se nos dice que un automóvil circulaba a 400 kilómetros por hora (km/h), lo natural es pensar que hay algún error, pues la máxima velocidad permitida suele ser 120 km/h y aunque hay quienes conducen a 200 km/h e incluso más, parece prácticamente imposible que se alcance los 400 km/h. Para hacer una correcta valoración, desde luego, juega un papel importante la unidad de medida que se utilice. Afirmar que un camión circula por una carretera a una velocidad de 10 metros por segundo (m/s), ¿es razonable? No es sencillo valorar esa información, pues se está usando una unidad de velocidad poco familiar para referirse a los automóviles. Hay que observar que decir 10 m/s es equivalente a 36 km/h, velocidad que sí resulta creíble.

Es muy habitual dar un dato numérico sin precisar que se trata de una estimación y no exactamente el resultado de una medición precisa. Un ejemplo muy frecuente es el número de los asistentes a una manifestación, que varía mucho según la fuente que se consulte. Desde luego, los organizadores suelen ser los que ofrecen los números más altos.

Las estadísticas contienen informaciones numéricas, que en muchas ocasiones son indirectas, es decir, son estimaciones. Por ejemplo, es lo que ocurre con las encuestas, en las que se pregunta a una pequeña parte de la población y de los resultados se infiere lo que piensan todos los ciudadanos.

“Mentiras, grandes mentiras y estadísticas” es una frase que expresa bien la desconfianza que en algunas personas generan las informaciones estadísticas. El chiste siguiente es un ejemplo: me he comido dos pollos y tú ninguno, así que nos hemos comido un pollo cada uno.

También se expresa la probabilidad de un suceso mediante un número comprendido entre 0 y 1, aunque es habitual usar porcentajes. Por ejemplo, se dice que la probabilidad de obtener cara al lanzar una moneda al aire es 0’5, pero también se puede afirmar que la probabilidad es del 50%.

En general existe poca formación sobre la probabilidad, de manera que la  inmensa mayoría de la población carece de referencias y ha cultivado poco su “intuición probabilística”.  Un tipo de razonamiento como el siguiente es poco frecuente, pero hay personas que lo aceptan: la probabilidad de que llueva el sábado es del 50% y de que llueva el domingo también es del 50%, así que la probabilidad de que llueva el fin de semana es del 100%.

Hay situaciones en las que viene bien tener una idea de las probabilidades que existen. Un antiguo problema planteado en el siglo XVII es el siguiente: ¿qué es más probable, sacar un 6 al tirar un dado 4 veces o sacar un 12 con 2 dados en 24 tiradas? 

Es habitual encontrar personas que muestran asombro por algunas coincidencias que son realmente muy razonables. Se piensa que es poco probable, de ahí el asombro, y realmente es muy probable. Que en una sala donde hay 40 personas, dos de ellas celebren su cumpleaños el mismo día tiene una probabilidad alta y, por tanto, no es nada asombroso que eso ocurra.

Otro error habitual es confundir causalidad con correlación. Se tienen datos de que la probabilidad de contraer la enfermedad E en los países de la Unión Europea es del 5%, mientras que en los países de África es del 1%, así que en Europa es cinco veces más probable. Sin embargo, esos datos no informan acerca de las razones por las cuales eso es así. Dicho de otro modo, las causas que explican que es cinco veces más probable para un europeo que para un africano tener la enfermedad E pueden ser muchas y sería aventurado decir, si no se dispone de más datos, que eso se produce por la comida, que es tan diferente en Europa y África.

Bibliografía

Park, R. L.: Ciencia o vudú. Debolsillo (Randon House Mondadori). Barcelona. 2003

Paulos, J. A.: El hombre anumérico. Tusquets. Barcelona. 1990

Paulos, J. A.: Érase una vez un número. Tusquets. Barcelona. 1999

Información en Internet

http://www.wikilearning.com/mentiras_medias_verdades_y_estadisticas-wkccp-3976-8.htm

Antonio Martinón Cejas es doctor en Ciencias Matemáticas. Ha sido profesor de Bachillerato y en la actualidad es catedrático de Análisis Matemático en la Universidad de La Laguna, especializado en Análisis Funcional. Ha participado de diferentes maneras en actividades de divulgación. Así, fue coordinador del libro Las matemáticas del siglo XX (Editorial Nivola, 2000), en el que numerosos autores ofrecieron una panorámica sobre las matemáticas y su enseñanza en el siglo pasado. También es autor de diversos artículos de divulgación matemática publicados en periódicos, revistas y libros, y ha impartido conferencias en diferentes universidades e instituciones. Su interés por la enseñanza y el aprendizaje le ha llevado a que parte de sus investigaciones se hayan desarrollado en el campo de la Didáctica de las Matemáticas. Ha sido director de la revista Números y en la actualidad es codirector de Unión.

Volver al índice

La comunicación de los resultados científicos. Ramón García López

Doctor. Profesor Titular de Universidad. Departamento de Astrofísica. ULL

Investigador. Instituto de Astrofísica de Canarias

Jueves, 29 de marzo de 2007

El conocimiento científico es un 'suma y sigue'. Por ello resulta interesante preguntarse: ¿cómo se comunican los científicos entre sí para difundir y discutir sus ideas y resultados en el seno de la comunidad en la que trabajan? A diferencia de la divulgación, en la que la comunicación de los resultados científicos debe hacerse de manera que su esencia pueda ser asimilada por una mayoría de la sociedad, en la comunicación interna prima el intercambio de información rigurosa entre colegas con el objetivo de contribuir al aumento del conocimiento en un aspecto determinado del saber.


La correspondencia ha supuesto un medio de comunicación habitual de los resultados científicos a lo largo del tiempo y algunas de estas cartas han llegado a convertirse en joyas para entender la evolución histórica de la ciencia y la sociedad. El correo electrónico ha tomado el relevo en nuestros días, dotando de inmediatez a este medio y posibilitando una transmisión rápida de ideas, documentos y datos entre investigadores. La particularidad de este tipo de comunicación estriba en que está muy dirigida a un grupo más o menos restringido de personas y su rigor depende de la voluntad de quien hace el envío.


Los congresos y reuniones científicas son, quizá, las manifestaciones de comunicación más conocidas por la sociedad. Propician una interacción directa persona a persona, donde se presentan resultados muy recientes que, en buena medida, sirven para preparar el trabajo futuro. Pero, en realidad, la mayor parte de la producción de los investigadores se enmarca en las publicaciones científicas. A diferencia de lo que ocurre en otros ámbitos editoriales, estas publicaciones tienen como peculiaridad que el investigador (o su institución) debe pagar para poder publicar y en muchos casos este gasto supone una partida importante dentro del presupuesto con el que se cuenta.


Para considerar a una publicación científica como 'de reconocido prestigio' (que son las que realmente cuentan) es necesario que esté sometida a un proceso de 'revisión' o 'arbitraje'. La decisión de que un artículo sea o no publicado está en manos de un colega del autor, especialista en ese tema, cuya opinión ha sido solicitada por el editor de la revista. Este arbitraje sirve para garantizar el rigor y la calidad general de los artículos publicados al rechazar trabajos mediocres o criticar constructivamente un artículo y lograr que su contenido mejore.


Una medida habitual del impacto de un trabajo en la comunidad científica es el número de citas que recibe en revistas de prestigio dentro de su campo de investigación. Pero el valor real de estas citas depende de diversos factores, por lo que no debe ser tomado como una referencia absoluta. Es un tema sobre el que existe un debate abierto en la comunidad pues incide directamente en aspectos más mundanos, pero no por ello menos importantes, como la consideración de los méritos personales para optar a un puesto de trabajo, conseguir financiación para un proyecto de investigación, etc.


Internet proporciona una vía de publicación casi inmediata de los resultados y un abaratamiento de los canales tradicionales, así como una distribución 'horizontal' de la información. Sin embargo, su inmediatez y facilidad no deben suponer una merma de la calidad. Internet ha potenciado también que los investigadores recibamos información a un ritmo difícil de asimilar de forma rigurosa. La profusión de ilustraciones, simulaciones, etc. distrae muchas veces nuestra atención del fondo del trabajo y, además, ¿dónde y cómo organizamos y almacenamos esta información? Éste es uno de los retos más importantes con los que nos enfrentamos en nuestros días.


Cabe preguntarse también: ¿deberían los investigadores recurrir a la prensa para comunicarse entre sí? Entre las ventajas potenciales de este procedimiento están la rapidez de la publicación de un resultado novedoso por parte de los medios de comunicación, el impacto que tendría en la sociedad, y el que serviría para reivindicar públicamente la propiedad del descubrimiento. Sin embargo, la experiencia diaria indica que la dinámica habitual de los medios de comunicación de masas no garantiza que se mantenga el rigor científico.


Por otra parte, ¿cómo deben los científicos abordar la tarea de divulgar sus conocimientos a la sociedad a la que se supone que sirven? ¿Deben hacerlo directamente o resulta necesaria la existencia de divulgadores profesionales que hagan de vínculo entre la especificidad del trabajo de los investigadores y los conocimientos científicos generales que se desean transmitir a la sociedad? ¿En tal caso, qué formación han de tener esos divulgadores?
Esta conferencia pretende acercar a la audiencia las herramientas de comunicación interna que utilizan los investigadores, así como aportar ideas para abrir un debate sobre la forma en que debe fluir la información científica desde los profesionales hacia el ciudadano de a pie. Pasaremos revista a ambos temas de forma general, mostrando las diferencias y los modos de actuar en los dos ámbitos.

Bibliografía

Esta conferencia está confeccionada a partir de mis propias experiencias como investigador y de mi conocimiento de la divulgación científica que se hace en el entorno en el que trabajo. Como ejemplo de uno de los muchos boletines de divulgación científica que existen en la red puedo citar a
www.caosyciencia.com que, bajo el paraguas del IAC, se acerca de una forma amena a diversos aspectos de la actualidad científica.

Ramón J. García López, licenciado en Ciencias Físicas por la ULL en 1987, presentó su Tesis Doctoral en 1992 obteniendo el Premio Extraordinario de Doctorado en 1993. Ha ocupado varios puestos como investigador en el IAC y en la Universidad de Texas (EEUU), así como en el Departamento de Astrofísica de la ULL, donde es Profesor Titular y ha sido Secretario y Director. Ha sido Coordinador del Área de Enseñanza del IAC y es Coordinador Principal del programa de doctorado 'Física del Cosmos', con Mención de Calidad desde su implantación en 2003. Actualmente es Coordinador del Área de Instrumentación del IAC. Sus líneas de investigación son el estudio de la atmósfera, estructura y evolución estelar, evolución química galáctica, astrofísica de partículas e instrumentación astrofísica. Es autor de más de 60 publicaciones en revistas especializadas y un número similar de contribuciones a congresos científicos, y editor de libros especializados de Astrofísica.

Go to top of page  INICIO | ORGANIZACIÓN | INSCRIPCIÓN | MÓDULO 1 | MÓDULO 2 |