jueves, 29 de noviembre de 2012

ANESTESIA Y SUEÑO: ASÍ SE APAGA Y SE REINICIA LA CONCIENCIA


Varios estudios sobre la anestesia ayudan a entender cómo se activa la mente consciente.
Las neuronas oscilan rítmicamente durante el sueño profundo, la anestesia y el coma.
El objetivo es comprender qué circuitos activan y desactivan el "yo".
Miles de personas se someten cada día en el mundo a los efectos de la anestesia. A través de distintas sustancias, los médicos consiguen apagar la conciencia de sus pacientes durante el tiempo suficiente para someterles a una operación. Cuando despiertan, de la misma forma en que uno regresa del sueño, la conciencia del sujeto vuelve a activarse como si nada hubiera pasado. ¿Qué ha ocurrido exactamente en ese intervalo?
Algunos de los efectos a nivel molecular de las sustancias anestésicas se conocen, pero la forma en que funciona la anestesia globalmente sigue siendo una incógnita. En el departamento de Ciencias Cognitivas y del Cerebro del Instituto Tecnológico de Massachusetts (MIT), Emery Brown y su equipo acaban de monitorizar por primera vez la actividad cerebral de varios pacientes mientras se les suministraba uno de los anestésicos más comunes, el conocido propofol. "Nuestro estudio", explica Brown  "describe por primera vez cómo se comportan las neuronas del cerebro humano en el momento en que los pacientes pierden la conciencia bajo anestesia general". El trabajo, aseguran, tiene aplicaciones clínicas y puede servir para comprender mejor cómo se construye eso que llamamos conciencia.
Señales de un cerebro anestesiado



Para realizar el estudio, los investigadores del MIT monitorizaron a pacientes con epilepsia que portan una serie de electrodos en el cerebro durante el periodo preoperatorio. Estos electrodos, entre 50 y 100, permiten registrar con enorme precisión la actividad de grandes grupos de neuronas y también de neuronas individuales mientras a los pacientes se les suministraba propofol.  Los gráficos mostraron que los sujetos perdieron la conciencia en una media de 40 segundos y que se produjo un cambio abrupto en el patrón de actividad cerebral. En concreto, las  mediciones del electroencefalograma (EEG) pasaron a mostrar ondas de baja frecuencia de alrededor de un ciclo por segundo, mientras que las neuronas individuales se activaban y desactivaban rítmicamente durante unos milisegundos creando esta oscilación que se observa en el EEG.
"Las neuronas quedan bloqueadas en este ciclo", explica Brown, "y solo pueden activarse en un rango limitado, lo que hace imposible la comunicación entre regiones del cerebro". "De alguna manera", añade Xurxo Mariño desde el Grupo de Neurociencia de la Universidad de La Coruña, que colabora con el MIT, "cuando una persona pierde la conciencia - se queda dormida o se le somete a anestesia - sus neuronas se ponen todas a hacer la ola, a bailar conjuntamente con una oscilación rítmica de una frecuencia baja. Pero ese ritmo repetitivo no genera información, puesto que para que haya información tiene que haber cambios en el mensaje". "Es decir, si todas hacen la ola, no hay mente".
"Para estar consciente", asegura Brown, "el cerebro necesita ser capaz de hacer muchas cosas. Una de ellas es transmitir información entre diversas áreas. Si esta transmisión está bloqueada, porque los circuitos están cerrados u oscilando, entonces no se puede mantener la conciencia". Las implicaciones clínicas también son significativas, según Brown, puesto que observando estas oscilaciones en el EEG durante una operación se puede evitar tanto que una persona despierte durante la anestesia como que se produzca una sobredosis.

http://noticias.lainformacion.com/ciencia-y-tecnologia/ciencias-general/anestesia-y-sueno-asi-se-apaga-y-se-reinicia-la-conciencia_mELndXqkqlMtAyAQDq0Me2/ 
http://www.catedraderamiro.blogspot.com










:

miércoles, 28 de noviembre de 2012

EL RENACER DE UNA ESTRELLA PRESAGIA EL DESTINO DEL SISTEMA SOLAR


Los astrónomos han detectado cómo una estrella agonizante similar a nuestro Sol volvía a cobrar vida tras expulsar sus capas más externas al espacio. Este fenómeno puede ser muy similar al destino que afrontará nuestro Sistema Solar dentro de unos pocos miles de millones de años.

Esta nueva imagen de la nebulosa planetaria Abell 30, situada a 5.500 años luz de nuestro planeta, combina imágenes tomadas en la banda de la luz visible por el telescopio espacial NASA/ESA Hubble con los datos recogidos en la banda de los rayos X por los telescopios XMM-Newton, de la ESA, y Chandra, de la NASA.

Una ‘nebulosa planetaria’ es el nombre que reciben las capas, a veces concéntricas, de material expulsado por una estrella en los últimos momentos de su vida. Vistas a través de los telescopios de los astrónomos del siglo XVIII, se parecían mucho a los ‘borrones’ identificados como planetas, y ese nombre ha logrado perdurar hasta nuestros días.

Hoy en día sabemos que se producen cuando una estrella con una masa menor que ocho veces la de nuestro Sol se infla en las últimas etapas de su vida hasta convertirse en una gigante roja. Durante este proceso, fuertes pulsaciones y un intenso viento estelar arrastran sus capas más externas, que son expulsadas al espacio.

La radiación ultravioleta emitida por el núcleo resultante ilumina las capas de materia expelida, dando lugar a complejas obras de arte que somos capaces de contemplar con la ayuda de los telescopios modernos.

La estrella en el corazón de Abell 30 se enfrentó por primera vez a la muerte hace 12.500 años – en una escala terrestre – cuando un lento y denso viento estelar la despojaron de sus capas más externas.

Ante los telescopios ópticos, los restos de esta etapa evolutiva se muestran como una gran cáscara brillante, prácticamente esférica, que se expande por el espacio. Hace unos 850 años, la estrella volvió a cobrar vida, tosiendo violentamente nudos de helio y materia rica en carbono.

La capa externa de la estrella se expandió brevemente durante este renacer, para luego volver a contraerse rápidamente, en apenas 20 años. Como consecuencia de esta convulsión, el viento estelar se aceleró hasta alcanzar su velocidad actual de 4.000 kilómetros por segundo – más de 14 millones de kilómetros por hora.

A medida que este rápido viento avanza y se encuentra con vientos más lentos y con grumos de materia expelida por la estrella con anterioridad da lugar a complejas estructuras, entre las que destacan las delicadas colas, similares a las de los cometas, que se pueden ver cerca de la estrella central en esta imagen.

El viento solar bombardeando estos densos cúmulos de materia proporciona una escalofriante imagen del futuro que le podría esperar a la Tierra y al resto de planetas de nuestro Sistema Solar dentro de unos pocos miles de millones de años.

Cuando nuestro Sol emita su último aliento en el corazón de una nebulosa planetaria, su intensa radiación y viento solar acribillarán y evaporarán cualquier planeta que haya logrado sobrevivir la fase de gigante roja.

Si en ese momento alguna lejana civilización observa nuestro Sistema Solar, seguramente podrá ver el resplandor de las brasas de los planetas, emitiendo rayos X mientras son engullidos por el viento solar.

http://www.esa.int/esaCP/SEM7BMGPI9H_Spain_ 0.html
http://www.catedraderamiro.blogspot .com

sábado, 10 de noviembre de 2012

ANIMALES QUE SE AUTOMEDICAN


Atacados por parásitos de toda clase, los animales deben ingeniárselas para sobrevivir. Por eso recurren a la automedicación que salva sus vida y las de sus descendientes.
La vida no es fácil para los animales, que deben enfrentarse a un medio hostil, aunque saben arreglárselas para sobrevivir.

No solo son los depredadores, son las enfermedades. Entonces toca automedicarse. No hay más opciones. Y de médicos también lo hacen bien.

Veamos 10 ejemplos exitosos de automedicación, esa que no está bien vista en los humanos. 

LA DIETA DE LA POLILLA TIGRE ISABELLA

Michael Singer de la Universidad Wesleyana encontró que el gusano de esta mariposa se alimenta muy bien, pero cambia de dieta cuando se infecta con moscas parásitas. Se alimenta entonces con alimentos tóxicos que aumentan su tasa de supervivencia.

CHIMPANCÉS CON MALESTAR ESTOMACAL 

Cuando los chimpancés sienten malestar estomacal, ingieran hojas de sabor ácido para eliminar cualquier parásito intestinal. "Remueven las hojas como si fueran un abano", explica Michael Huffman , de la Universidad de Kyoto citado por The Scientist. Se chupan el jugo y luego botan la fibra. No se nutren con ellas, pero los parásitos en su intestino reciben un buen baño tóxico.

UN RECONFORTANTE LAVADO INTESTINAL

Los gibones y macacos japoneses también eligen material vegetal por sus características físicas. Toman una hoja rugosa, la doblan y se la tragan entera. Con esto barren los parásitos intestinales.

LOS MONOS BUSCAN SU PROPIO MICROBICIDA

Los monos capuchinos se frotan el cuerpo de manera frenética con frutas cítricas y hojas de caléndula, plantas ricas en compuestos aromáticos con efectos microbicidas. No se limitan a las plantas, pues también usan milpiés, que se dice segregan benzoquinonas que repelen mosquitos. También el ácido fórmico obtenido de las hormigas les ayudan a combatir insectos.

LAS ABEJAS COMBATEN LOS HONGOS

Cuando son amenazadas por el hongo Ascophaera apis, que enferma las larvas, científicos de North Carolina State University y la Universidad de Minnesota hallaron que las obreras consiguen más propóleo y menos polen, que es rico en actividad antimicrobiana.

OVEJAS SABEN CÓMO EVITAR LOS CÓLICOS 

Las ovejas comen más alimentos ricos en taninos como alfalfa cuando padecen infecciones por nemátodos, con lo cual reducen su incidencia.

LAS MONARCA ELIGEN BIEN SU CUNA

Las mariposas monarca son infectadas por el protozoario Ophryocystis elektroscirrha. No pueden librarse de este, pero entonces ponen sus huevos en una planta rica en cardenolidas, que resultan tóxicas para los parásitos.

MOSCAS SE ALCOHOLIZAN PARA VIVIR MÁS 

La larva de la mosca Drosophila melanogaster es resistente al alcohol, pero no las avispas que las parasitan, por lo que aquellas se alimentan con una dieta rica en alcoholes.

LEMURES TIENEN LA CLAVE DE LA REPRODUCCIÓN

Las hembras preñadas de los lemures sifaka en Madagascar se alimentan con taninos, mientras los machos y las hembras no preñadas evitan estas plantas con compuestos astringentes. Ingerir taninos se correlaciona con más nacimientos exitosos.

RAMIRO VELÁSQUEZ GÓMEZ
http://www.elcolombiano.com/BancoConocimiento/N/nueve_animales_que_se_automedican/nueve_animales_que_se_automedican.asp?CodSeccion=211
http://www.catedraderamiro.blogspot.com

miércoles, 24 de octubre de 2012

¿SOBREPESO? LA MOSCA TIENE LA RESPUESTA


La leptina es una especie de sensor de alimentos que se encarga de controlar el apetito y decir al cerebro "ya basta" cuando se tiene energía suficiente.
Su estudio es muy importante para tratar enfermedades como la obesidad y la diabetes, y hasta ahora se utilizaban ratones para su análisis, ya que se trata de una hormona exclusiva de vertebrados.
Ahora, un grupo de investigadores de la Escuela Médica de Harvard (EEUU) ha encontrado una sustancia homóloga en la mosca de la fruta: se llama Upd2 y, debido a que las moscas son animales muy fáciles de estudiar en el laboratorio, gracias a este descubrimiento se podrán revelar nuevos secretos sobre la hormona de la obesidad.

Los investigadores obtuvieron moscas modificadas genéticamente que carecían de la proteína Upd2 y observaron que estos animales se comportaban metabólicamente como si tuvieran hambre constante, indicando que dicha proteína actúa de manera similar a la hormona humana.

Después, insertaron en estos animales el gen de la leptina de los humanos, y encontraron que el problema desaparecía y las moscas se comportaban de manera normal, obedeciendo a los instintos primarios de alimentación y satisfacción. 

"El funcionamiento de la leptina es muy complejo", ha explicado Akhila Rajan, uno de los autores del trabajo, que se publica en la revista Cell.

"Este tipo de hormonas adquieren un funcionamiento más complicado a medida que van evolucionando. Aquí, en la mosca, la leptina está en su forma más primitiva", ha añadido.

http://www.catedraderamiro.blogspot.com

sábado, 20 de octubre de 2012

EL VECINO DEL SISTEMA SOLAR


Astrónomos Suizos encontraron el planeta más cercano fuera de nuestro Sistema Solar, orbitando alrededor de una estrella llamada Alpha Centauri B, a una distancia de 4 años luz de nuestro planeta. En términos cósmicos, es un distancia minúscula. Este exoplaneta se encuentra demasiado cerca de su sol, haciéndola inhabitable por sus altas temperaturas. Aún así, puede no ser el único planeta cerca de esa estrella.

"Alpha Centauri B es un caso muy especial" dijo el co-autor de la investigación Stéphan Udry, del Observatorio de Ginebra en Suiza, "es un planeta vecino". Según la investigación, el planeta tiene la misma masa que la Tierra, pero se separa de su estrella a una distancia equivalente a la de Mercurio con el Sol.

El estudio fue publicado en NatureSin embargo, estudios en exoplanetas, revelan que las estrellas suelen ser orbitadas por más de un solo planeta. La estrella más cerca del Sol es la Próxima Centauri, de la que se piensa es parte de una tercia de estrellas que incluye las más brillantes. Alpha Centauri A y B. El planeta se encontró cerca del Alpha Centauri B, por elObservatorio de la Silla, al norte de Chile, del Observatorio Austral Europeo.

Se usó el espectrógrafo HARPS, el más avanzado en detectar pequeños cambios en velocidades estelares.

Descubrimiento histórico

Lo que retrasó el hallazgo de encontrar un planeta tan cercano, es porqué Alpha Centauri es un sistema solar complejo: las estrellas se orbitan entre sí, y encontrar un planeta de dimensiones tan pequeñas en proporción a sus astros anfitriones, es bastante complicado.

La investigación que tomó cuatro años, muestra que la órbita del planeta alrededor de Alpha Centauri B es de 3.6 días. Se estima que la temperatura en su superficie es de mil 200 grados Celsius.
Si muchos planetas con órbitas similares ha sido "atrapados", es debido a que el reflejo de su luz solar transporta partículas en ciertas ondas longitudinales que pueden ser captados por espectroscopía desde la Tierra.

Pero se necesita más observación sobre este planeta para saber, por ejemplo, si tiene una atmósfera.
Desde el descubrimiento de exoplanetas, cuerpos con características terrestres que se encuentran fuera del Sistema Solar, al comienzo de los noventas, se ha tenido la esperanza de encontrar un "gemelo de la Tierra", girando alrededor de una estrella a una distancia plausible para poseer una atmósfera y temperaturas similares a nuestro planeta.

Este ejemplar que gira alrededor de Alpha Centauri B, tiene una masa similar a la Tierra, haciéndolo uno de los exoplanetas más pequeños conocidos por el hombre.

Marek Kulula, astrónomo del Observatorio Real de Greenwich, cree "que la probabilidad de que existan otros planetas, un poco más alejados, pero con temperaturas más confortables es posible, así que la búsqueda continúa".

http://www.muyinteresante.com.mx/espacio/514741/encuentran-exoplaneta-cercano-al-sistema-solar/
http://www.catedraderamiro.blogspot.com

sábado, 13 de octubre de 2012

HAZAÑA: VOYAGER 1 HABRÍA SALIDO DEL SISTEMA SOLAR


A 17 horas luz del Sol, la Voyager 1 parece haber dejado al fin el Sistema Solar y sumergido en el espacio interestelar, en el que deambulan partículas de otros sistemas estelares.

Aunque la Nasa no confirma la hazaña, impensada cuando fueron lanzadas las Voyager en 1977, diversos analistas creen que sí. Las señales enviadas desde agosto revelan una ausencia casi total de partículas solares.

La Voyager 1 salió el 5 de septiembre, unos días después que Voyager 2, que también se aleja pero aún no ha abandonado el Sistema Solar.

Se trata de otro pequeño gran paso para la humanidad, pues es el primer artefacto humano en dejar el Sistema Solar y adentrarse por caminos desconocidos. La nave tiene combustible para transmitir unos 10 años más.

Los datos sugieren que salió del Sistema hace dos meses cuando se observó un gran descenso en la radiación. 

Voyager 1 ha viajado casi 18.500 millones de kilómetros, alejándose a más de 20 kilómetros por segundo.

Desde hace 2 años la información vía radio sugería que se acercaba al fin del Sistema Solar navegando por la heliopausa, zona hasta donde llega la influencia del Sol.

No es fácil saber si ya abandonó la región porque todo debe ser figurativo dado que nunca se había llegado tan lejos. En la heliopausa, las partículas eléctricamente cargadas que salen del Sol se equilibran con la presión del gas y el polvo del espacio interestelar.

La región en la que navega ha sido una sorpresa. Se esperaba que el viento solar se dispersara el encontrarse con el medio interestelar, como cuando el agua golpea una pared. “No hay un criterio bien definido de qué constituye salir de la heliosfera” (burbuja en la que influye el Sol), expresó Stamatios Krimigis , científico de partículas de carga baja, citado por Space.com.

Ed Roelof , también científico de la misión, dijo que en cualquier modelo de la heliopausa un objeto que sale de ella debe experimentar 3 cambios: aumento claro en las colisiones con rayos cósmicos, caída dramática en el número de partículas cargadas del Sol y cambio en la dirección del campo magnético alrededor.

Basados en dos de los criterios, Voyager 1 ya abandonó el Sistema Solar.

http://www.elcolombiano.com/BancoConocimiento/H/hazana_voyager_1_habria_salido_del_sistema_solar/hazana_voyager_1_habria_salido_del_sistema_solar.asp
htto://www.catedraderamiro.blogspot.com

martes, 9 de octubre de 2012

NOBEL A REPROGRAMACION CELULAR


A principios de los años cincuenta se sostenía que las únicas células que contenían la información genética suficiente para dar origen a un ser u organismo vivo eran el espermatozoide y el óvulo.
Pero fue el británico John B. Gurdon (Reino Unido, 1933), ahora profesor de la Universidad de Cambridge, el primero en desafiar el dogma de que una célula especializada está irreversiblemente destinada a cumplir su función. En 1962, planteó la hipótesis que el genoma de cualquier célula todavía guarda la información necesaria para formar cualquier otra célula del organismo en su núcleo, y realizó experimentos con ranas para corroborar que tenía razón.

Décadas más tarde, su hallazgo hizo posible el nacimiento de la oveja Dolly, el primermamífero clonado de la historia.

Ese mismo año, en 1962, cuando Gurdon hubo de publicar su trabajo en el Journal of Embryology and Experimental Morphology, nació Shinya Yamanaka en Kioto, Japón, quien cuarenta años después introdujo genes en células maduras del tejido conectivo (fibroblastos) para reprogramarlos y convertirlos en células madre ?inmaduras? que podían, a su vez, ser reprogramadas en el laboratorio para dar origen a neuronas o células del estómago, entre otras.

El investigador japonés llamó a estas células resultantes como células pluripotentes inducidas (iPS, por sus siglas en inglés)), marcando un hito en la biomedicina, y se espera que puedan usarse en el futuro para regenerar órganos y tejidos dañados. Su trabajo se publicó en el diario Cell.
Tanto Gurdon como Yamanaka fueron galardonados recientemente con el Premio Nobel de Fisiología y Medicina 2012 por su descubrimiento de que las células adultas pueden reprogramarse para convertirse en células pluripotentes listas para desarrollar cualquier tipo de tejido del organismo.

"Ha pasado mucho tiempo de que hice mis experimentos, cuando estaba recién graduado, y recibir ahora este premio es un gran honor. El trabajo fue realizado en 1958, pero lo publicamos hasta 1962", comentó Gurdon a la Fundación Nobel.

Sin embargo, debido al enorme potencial y los alcances a diferentes campos y actividades, todavía falta mucho por investigar en esta línea de estudio, como el hecho de que no se sabe aún los efectos a largo plazo de las iPS en el organismo. Pero es claro que este hallazgo conjunto y generacional revolucionará la medicina regenerativa y demás campos de la salud y ciencia.

http://www.muyinteresante.com.mx/ciencia/510401/premio-nobel-medicina-y-fisiologia-2012-reprogramacion-celulas-madre-dar-origen-otro-organismo/
http://www.catedraderamiro.blogspot.com

sábado, 6 de octubre de 2012

EL ALMA PODRÍA EXISTIR. TEORÍA CIENTÍFICA


Stuart Hameroff es un médico anestesiólogo que observó desde su experiencia clinica que los agentes anestésicos por él  pertenecían a familias químicas muy diferentes y diversas y comenzó a preguntarse si estos agentes tendrian algo en común que no fuera químico: su hipótesis es que estos agentes que disipaban la conciencia (incluso en organismos unicelulares) podian tener otro mecanismo de acción  distinto al químico que explicara sus efectos anestésicos, postuló que estos efectos estarian relacionados con modificaciones en la coherencia cuántica Junto con Roger Penrose elaboró una teoria para explicar “el problema  difícil de la conciencia”, conocida como hipótesis Penrose-Hameroff que ha sido violentamente contestada por todos los flancos de las neurociencias.

Una teoria cuántica: según ellos el cerebro humano posee un tramo de computación en términos de mecánica clásica y otro tramo de computación cuántica. La idea de que en el cerebro deberia existir cierta computación cuántica procede de Penrose. Hameroff es un anestesiólogo que proporcionó a Penrose un posible sustrato de esta computación cuántica y que situó en los microtubulos celulares (estructuras esqueléticas celulares) que según él operarian como pequeños computadores cuánticos.

La idea por la que Hameroff pretende explicar el problema dificil de la conciencia es más o menos ésta. La conciencia o quizá algo protoconsciente es fundamental en el universo, es parte de nuestra realidad como el movimiento de rotación, la masa o la carga eléctrica, es decir cierta propiedad fisica de la que sólo podemos decir “está ahi”. La conciencia es una de estas propiedades, un punto de vista que comparte con Chalmers que piensa que la conciencia conlleva algo intrínseco al universo.

Penrose y Hameroff piensan que los qualia deben existir en el nivel fundamental del universo, en el nivel de realidad mas bajo que existe en términos de la escala de Planck: aquel nivel donde el espacio-tiempo ya no es continuo sino cuántico. Al descender a ese nivel el espacio-tiempo se convierte en una granularidad -un totum revolutum- y este es el nivel fundamental. Es aqui donde Penrose y Hameroff suponen que existen los qualia como patrones de esta granularidad fundamental de la geometría del espacio-tiempo.

Nuestras mentes son intrinsecamente distintas a los ordenadores claáicos y parecen procesar la información más bien en un estilo Sherlock Homes no a través de decisiones binarias sino siguiendo pistas oscuras y sutiles. Penrose descubrió que la unica fuente en el universo que podia trajinar con esta forma de energía no computable es el tipo particular de colapso de función de onda debido a la gravedad cuántica en la escala fundamental de Planck. No sólo se relaciona con los qualia sino que tambien conlleva un factor no algorítmico que distingue nuestras decisiones de las de los computadores, de modo que concluyó – aun sin conocer los trabajos sobre microtúbulos de Hameroff- que en el cerebro deberia darse algun tipo de computación cuántica que no podia estar en los nervios ni en las neuronas.

De lo cual se desprende que existe un factor “platónico”, un factor de qualia no computable presente en cada tipo de elección y en cada experiencia mental.

El libre albedrío es precisamente la experiencia psíquica subjetiva que combina ambos tipos de procesamiento -el cuántico con el clásico- y que sólo puede explicarse a partir de este doble procesamiento. Los sueños son otro de los escenarios donde podemos contemplar el procesamiento cuántico directamente y donde aquella granularidad donde todos los eventos parecen encontrarse agrupados vuelven a manifestarse. En el sueño es el entorno donde el colapso de función de onda puede obervarse directamente: soñamos para que lo cuántico se manifieste directamente, los sueños son información cuántica, el modo en que la granularidad se manifiesta.

Cuando se pierde la coherencia cuántica en los microtúbulos como en un paro cardiaco o cuando nos morimos, la información cuántica de la escala de Planck se disipa y se filtra en el universo como un todo, pero la información cuántica que estaba en nuestras mentes no se pierde del todo sino que queda suspendida en el entrelazamiento cuántico. Al estar en superposición cuántica y no experimentar una reducción o colapso, queda en un estado parecido al sueño y como el universo en la escala de Planck es no local existe holográfica e indefinidamente.

Tal vez esto sea el alma y quizas no todo termina con la muerte.
segun la propuesta de Hameroff.

http://pacotraver.wordpress.com/2010/03/24/el-problema-dificil-de-la-conciencia

jueves, 4 de octubre de 2012

POBLACION MUNDIAL SE TRIPLICARA


Se espera que para 2030, cerca de nueve mil millones de personas vivirán en las zonas urbanas, y se creé que las ciudades se triplicarán de tamaño, llegando a ocupar 1.2 millones de kilómetros cuadrados de la superficie terrestre.
Karen Seto, investigadora ambiental urbana de la Escuela de Estudios Forestales y Ambientales de la Universidad de Yale, y sus colegas, dividieron el área global en pequeñas parcelas, con el pronóstico del crecimiento interno bruto, crecimiento demográfico y la cobertura del área urbana de 2000 a la fecha.
Se proyectó que parcelas tendrían una mayor o menor probabilidad de sucumbir a la urbanización en las próximas décadas. Utilizando ese modelo, se expuso que 1.2 millones de kilómetros cuadrados tienen una probabilidad de 75 por ciento de urbanizarse, y cerca de 6 millones de kilómetros cuadrados serán parte de la metrópoli.
"La expansión de las áreas urbanas tendrá un impacto directo en las zonas donde existe la biodiversidad" explica Seto.
Cinco por ciento de la expansión provendrá de la urbanización en India y China, países que no han dejado de crecer en las recientes décadas.
Donde se predice habrá más urbanización será en las áreas que actualmente están desarrollándose en África, como la costa oeste, recorriendo el Golfo de Guinea, las costas del Lago Victoria, abarcando Burundi, Kenya, Rwanda y Uganda, entre otras regiones.
Esto son malas noticias para la flora y la fauna de la tierra. Los bosques de Guinea, junto con todo el oeste de África, los distritos occidentales en la India y Sri Lanka, son hogares de la biodiversidad del mundo,poseedores de enormes proyectos de urbanización.
Además, las grandes nuevas ciudades crecerían en territorio donde ya existen animales en peligro de extinción.
La masiva urbanización resultará en grandes emisiones de gases de efecto invernadero, que conducen el cambio climático. Un estimado de mil 380 millones de toneladas de carbono se liberarán a la atmósfera cuando los bosques se transformen en caminos, se construyan casas y edificios.
Actualmente las ciudades son las responsables del 70 por ciento de las emisiones de dióxido de carbono.
"Tenemos que pensar como sociedad, en cómo queremos que los lugares urbanos se desarrollen y sirvan a la humanidad? sostiene Seto. ?Con demasiada frecuencia, la expansión urbana es caótica".
El caos de la urbanización también puede enfermar a los humanos, recortar suministros de agua y alimentos. Por ejemplo, personas de Australia requieren agua y uso de la tierra en lugares distantes al continente.
"Las ciudades siempre han confiado en tierras aledañas a ellas para tener comida y combustible para vivir" escriben los investigadores.
http://www.catedraderamiro.blogspot.com

lunes, 24 de septiembre de 2012

CUÁL ES LA VELOCIDAD DEL PENSAMIENTO?


Depende de lo que entendamos por “pensamiento”. Puede que queramos decir “imaginación”. Uno puede imaginarse que está, aquí en la Tierra, y un segundo más tarde que está en Marte o en Alpha Centauro o cerca de un lejano quasar. Si es eso lo que entendemos por “pensamiento”, entonces puede tener cualquier velocidad hasta el infinito.

Sí, pero uno no recorre realmente esa distancia ¿verdad? Aunque yo me imagine que estoy presenciando la formación de la Tierra no quiere decir, que haya hecho un viaje a través del tiempo. Y aunque me imagine en el centro del Sol no quiere decir que pueda realmente existir en esas condiciones.

Para que la pregunta tenga algún significado científico es preciso definir “pensamiento” de manera que su velocidad pueda realmente medirse por métodos físicos. A este respecto recordemos que si podemos pensar es porque hay unos impulsos que pasan de célula nerviosa a célula nerviosa. Cualquier acción que dependa del sistema nervioso depende de esos impulsos. Al tocar un objeto caliente retiramos la mano, pero no lo podremos hacer hasta que la sensación de calor pase de la mano al sistema nervioso central y luego otro impulso nervioso pase del sistema nervioso central a los músculos.

El “pensamiento” inconsciente que implica todo esto,”noto algo caliente, y más me vale quitar la mano porque si no me la quemaré”, no puede ser más rápido que el tiempo que tarda el impulso nervioso en recorrer el trayecto de ida y vuelta. Por consiguiente, hemos de entender que la “velocidad del pensamiento” es la: “velocidad del impulso nervioso”, porque si no, no hay respuesta.

Allá por el año 1846, el gran fisiólogo alemán Johannes Müller decidió, en un rapto de pesimismo, que la velocidad del impulso nervioso jamás podría medirse. Seis años más tarde, en 1852, consiguió medirlo uno de sus mejores discípulos, Hermann von Helmholtz, trabajando con un músculo todavía inervado. Helmholtz estimuló el nervio en diversos puntos y midió el tiempo que tardaba el músculo en contraerse. Al estimular el nervio en un punto más alejado del músculo, la contracción se retrasaba. A partir del tiempo de retardo logró calcular el tiempo que había tardado el impulso nervioso en recorrer esa distancia adicional.

La velocidad del impulso nervioso depende del grosor del nervio. Cuanto más grueso es el nervio, mayor es la velocidad. La velocidad depende también de si el nervio está o no aislado por una vaina de material graso. Los nervios aislados conducen más rápidamente los impulsos nerviosos que los no aislados. Los nervios de los mamíferos son los más eficaces de todo el reino animal: los de mejor calidad conducen los impulsos nerviosos a una velocidad de 362 kilómetros por hora.

Esto quizá parezca decepcionante, porque al fin y al cabo la velocidad del pensamiento no es mayor que la de los viejos aeroplanos de hélice. Pero pensemos que un impulso nervioso puede ir desde cualquier punto del cuerpo humano hasta cualquier otro y volver en menos de 1/25 de segundo (omitiendo los retrasos debidos al procesamiento en el sistema nervioso central). El nervio más largo en los mamíferos pertenece a la ballena azul, que mide unos 100 pies de longitud, e incluso en ese caso cualquier posible viaje de ida y vuelta dentro del cuerpo lo puede realizar el impulso nervioso en poco más de medio segundo. Lo cual es bastante rápido.

http://mezvan.blogsome.com/2007/07/08/p789/
http://www.catedraderamiro.blogspot.com

martes, 18 de septiembre de 2012

CIENCIA: LA CAÍDA DE UN MITO


La ciencia es el estudio del Universo que nos rodea. Así de simple. No permitamos, no obstante, que tal simplicidad nos impida advertir, por un lado, la hipótesis de partida ni, por otro, el significado de estudiar el Universo. 

En primer lugar, el postulado fundamental de la ciencia es la existencia de una realidad objetiva, independiente de nosotros. Supuesto aparentemente inocuo para muchos. Y en segundo lugar, la ciencia supone, mejor aún, reconoce la existencia de entidades cuya mera concepción escapan a la comprensión humana. No hay que avergonzarse. Ciencia es afán de descubrir, ansia de aprender y deseo de aprehender. En este artículo se asumirá la validez del postulado de objetividad y examinaremos las implicaciones del método científico en el progreso humano1.


El método científico puede, grosso modo, clasificarse en dos vertientes. La primera es la experimental, que consiste en la observación de los fenómenos naturales y su posterior intento de reproducibilidad en el laboratorio2. El segundo enfoque, el teórico, se ocupa de la extracción de relaciones formales entre un conjunto dado de fenómenos, así como de la predicción de nuevos resultados que serán sometidos al escrutinio experimental. Ambas descripciones, experimental y teórica, son necesarias para la ciencia, cuyo avance exige un delicado equilibrio entre ambas.

Suele decirse que la ciencia moderna nace con la Revolución Industrial. Confusa afirmación. Personalmente, no tengo nada en contra de tal revolución. No en vano, gracias a ella disponemos de elementos más eficaces para afrontar nuestras vidas, como las vacunas o las comunicaciones. Ahora bien, este enfoque desvirtúa la esencia de la ciencia. El verdadero motor del científico es la pasión por comprender su entorno. No debería ninguna otra motivación gozar de implicación alguna. 

Desgraciadamente, la ciencia moderna se halla profundamente profesionalizada y al abrigo de la coyuntura económica. La gran mayoría de científicos desempeña trabajos regidos por la producción. Para la persona pragmática, esta situación no entraña ningún problema, pues, argumenta, la complejidad de la sociedad actual requiere de la coordinación de todos los sectores. Y si los proyectos científicos se financian, no importa la procedencia, es de esperar que las instituciones, públicas o privadas, exijan resultados. Bueno, concederemos este argumento como parcialmenteadecuado. Insistiremos una vez más: la ciencia sólo se preocupa del estudio de la Naturaleza. No es, ni debe ser, su pretensión la aplicación de sus logros al servicio de la sociedad. No se niega la importancia de tal aplicación; simplemente, se niega la identificación de tales aplicaciones con la actividad científica. Esta negativa está lejos de ser caprichosa: la ciencia, para su progreso, necesita la abstracción sobre las condiciones sociales en aras de un óptimo análisis de la realidad, indiferente a las penurias humanas.


La descrita desvinculación de la esencia científica de las aplicaciones sociales conduce a dos ideas, relacionadas entre sí, no exentas de controversia. Ideas que expondremos y defenderemos a continuación. La primera tiene que ver con la profesionalización en determinados campos de la ciencia. La segunda, con las esperanzas que la sociedad deposita en ella.

Pedro Naranjo Pérez
Ciencia, Método Científico, Filosofía
http://www.redcientifica.org/ciencia_la_caida_de_un_mito.php
http://www.catedraderamiro.blogspot.com

sábado, 8 de septiembre de 2012

EN 20 AÑOS NADIE MORIRÁ DE VIEJO


Lo vimos en el cine, lo soñamos en la literatura y nos preguntamos todos los días por él. Es el futuro. 

En esta palabra, esotérica para algunos, perturbadora para otros y siempre adictiva para la mente humana, se concentran más de la mitad de los laboratorios científicos del mundo, los mismos de los cuales el físico Michio Kaku obtiene sus predicciones de futuro. 

“He tenido la oportunidad de hablar con miles de personas sobre esto y eso hace que pueda decir las cosas que digo”. 

Hijo de padres japoneses, pero nacido en California, Kaku es reconocido como uno de los más destacados futurólogos del mundo. Es el autor del libro Hiperespacio, el mismo en el que se habló por primera vez de las realidades paralelas y dicen los expertos, que, entre su serie de adivinanzas, predijo megaterremotos como los ocurridos en Chile (2010 y 2012) y en Japón (2011). 

Kaku, quien cuenta que su pasión por la ciencia nació de la mano de Flash Gordon y Albert Einstein, estuvo por primera vez en Colombia e hizo parte del congreso internacional de telecomunicaciones Andicom 2012. 

Con él estuvimos hablando del futuro. Entre las cosas más importantes que dijo fue que tanto la ciencia, como la tecnología y la educación, eran aspectos fundamentales para los años que vendrán. No obstante, dijo que todos estos desarrollos dependen de la disponibilidad de los gobiernos porque son los únicos a los que no les interesa la tecnología.

“La tecnología siempre tiene riesgos. El mayor riesgo es para los Gobiernos, porque quieren manejar las cosas como en el pasado. Otro riesgo importante es la privacidad, ahora más que temerle al Gran Hermano, tenemos que temerle al Pequeño Hermano”. 
 
En los próximos 20 años, el mundo que vemos actualmente será otro, por eso Michio Kaku nos dejó una lista de puntos frente a los cuales, no se puede ser indiferente. Para nuestros lectores, una pequeña bola de cristal. 


10 RECETAS PARA NO PERDERSE EN EL FUTURO

“Tenerle temor a la tecnología, es tenerle temor al futuro”. 

1. Nuestros nietos tendrán la oportunidad de parar el envejecimiento de los cuerpos. Esto no significa que vayamos a tener la pócima para la juventud eterna, pero si quiere decir que ya no vamos a morir de viejos. 

2. Conseguiremos reproducir artificialmente todos los órganos del cuerpo. El cerebro es la excepción, pero vamos a poder expandir la memoria. 

3. El acto de la telequinesis, capacidad del cerebro humano para mover objetos, será una realidad. La teletransportación de cuerpos humanos tendrá que esperar mucho más. 

4. La figura de nación será obsoleta. No van a existir Estados Soberanos y los líderes tendrán que aprender a trabajar con el pueblo y de la mano de la tecnología. “La tecnología no parece convenirle a los gobiernos. 

5. Los climas serán extremos y tendremos que acostumbrarnos a fenómenos como los megaterremotos. Ciudades como Los Ángeles, San Francisco y Tokyo podrían desaparecer.   

6. El internet va a estar en nuestros lentes de contacto. Vamos a ver todo en realidad aumentada. Todo tendrá que ver con la computación pero ya no existirá la palabra computador.

7. Nuestras casas serán inteligentes y podremos hablar con ellas. La tecnología será muy económica y tendrá que valer menos de un centavo. 

8. Los carros se van a conducir solos, gracias a la tecnología GPS. 

9. El dinero va a desaparecer. En 10 años todos los pagos serán por teléfono celular.

10. Varios trabajos van a desaparecer. Por eso, tendremos que educarnos para la ciencia. La ciencia es riqueza.
Michio Kaku
http://www.elcolombiano.com/BancoConocimiento/E/en_20_anos_nadie_morira_de_viejo_michio_kaku/en_20_anos_nadie_morira_de_viejo_michio_kaku.asp

lunes, 3 de septiembre de 2012

ILUSIONES CAUSALES. CÓMO REDUCIR EL IMPACTO DE LA PSEUDOCIENCIA


Pulseras milagrosas, medicamentos alternativos que la gente cree que funcionan pero que son un auténtico timo, cada vez se venden más remedios que sin ninguna base científica y con total impunidad se están introduciendo en nuestra sociedad. ¿Por qué parece que funcionan?

Desde hace ya muchos años se han realizado en laboratorios psicológicos de todo el mundo numerosos experimentos sobre cómo las personas percibimos las relaciones causa-efecto, y también sobre supersticiones e ilusiones causales (p. ej., Allan y Jenkins, 1983; Langer, 1975; Shanks y Dickinson, 1987; Wasserman, 1990; Wright, 1962).

Esto nos permite tener actualmente teorías bastante precisas sobre cómo funciona la mente humana a la hora de asociar causas y efectos en situaciones en que la causalidad es real y también cuando es ilusoria (es decir, cuando no existe pero las personas creen percibirla); tanto que, si simulamos estas teorías en un programa de ordenador y dejamos que el programa aprenda a asociar causas y efectos como lo hacemos los humanos y los animales, el programa (o robot) acabará desarrollando también supersticiones e ilusiones causales (Matute y cols., 2007).

Recientemente hemos publicado algunos posts relacionados que quizá convenga leer antes que este (“Superstición y método científico” y “¿Por qué somos supersticiosos?”), pues clarifican algunos conceptos. Lo que aquí quisiera presentar es un resumen de algunos de los experimentos que hemos realizado sobre este tema en nuestro propio equipo de investigación, Labpsico.

En los experimentos psicológicos sobre supersticiones e ilusiones causales lo que interesa averiguar es, independientemente de cómo se transmita después culturalmente la superstición, cómo se generan inicialmente las creencias supersticiosas y las ilusiones de causa-efecto; en qué circunstancias es más fácil llegar a desarrollar creencias falsas del tipo de “A causa B”, o “para conseguir B, lo que hay que hacer es A”, y en qué situaciones se mantienen y fortalecen ese tipo de creencias que luego, a veces, serán transmitidas culturalmente a otras personas que también las adoptarán como ciertas.

En los experimentos sobre ilusiones casales se utilizan normalmente varias versiones diferentes de un mismo programa de ordenador. Las versiones pueden diferir en el número, la frecuencia, la intensidad, la duración o la probabilidad de ocurrencia de determinados eventos que los voluntarios que participan en el experimento intentan conseguir (p. ej., pueden ser premios en un marcador, o la curación de un enfermo ficticio en un videojuego, o la finalización de un pitido, es decir, algo que el voluntario desea conseguir).

Los eventos deseados están programados para ocurrir en el ordenador siguiendo una secuencia que a veces depende de lo que haga el participante pero a veces es independiente de lo que éste haga. Sin embargo, y dado que el participante está tratando de conseguir los premios, cada vez que estos ocurren suelen coincidir con algo que el participante acaba de teclear, de modo que aunque no dependa de su conducta a menudo tenderá a asociar ambos eventos y a creer que la ocurrencia del premio se debe a lo que él acaba de teclear (ya sea el número 377 o el 18 o la barra espaciadora seguida por ctrl y enter… o vaya usted a saber). Es lo que se denomina normalmente ilusión de control (cuando es la propia conducta del sujeto la que éste percibe erróneamente como posible causa), o, de manera más genérica, ilusión de causalidad (cuando es un agente externo, por ejemplo, un curandero, el que parece que está causando la mejoría del enfermo ficticio en el videojuego).

Estas ilusiones de causalidad son como las ilusiones ópticas, se dan en todas las personas ante determinadas circunstancias. No es cuestión, al menos en principio, de ser más o menos inteligente o de tener tal o cuál tipo de personalidad (Wiseman y Watt, 2006). En determinadas situaciones todas las personas desarrollamos ilusiones causales basadas en coincidencias, y sólo el estar alerta y conocer a fondo este tipo de sesgos y errores que produce nuestro cerebro puede ayudarnos a mantenernos relativamente a salvo. La ilusión causal es en realidad un efecto colateral de la capacidad de aprender, y por tanto, cualquier ser con capacidad de aprender y de establecer conexiones entre eventos, incluso una paloma, o un robot, es en principio vulnerable (Matute y Vadillo, 2012).

Helena Matute.
http://www.redcientifica.org/ilusiones_causales_como_reducir_el_impacto_de_la_pseudociencia.php

miércoles, 29 de agosto de 2012

DESHIELO DEL ÁRTICO ACELERA CALENTAMIENTO GLOBAL


El aumento de las temperaturas está provocando el deshielo de zonas del suelo costero del Ártico congeladas casi permanentemente, fenómeno que conllevará multiplicar por 10 las emisiones de CO2 procedentes de los depósitos de carbono protegidos hasta ahora por el hielo y acelerar el cambio climático.

Un estudio realizado por la Universidad de Estocolmo, junto a científicos de otros países, entre ellos del Instituto Catalán de Ciencias del Clima (IC3), señala que la subida de las temperaturas está produciendo la descongelación del permafrost (suelo semipermanentemente congelado) durante mayor tiempo en verano y a mayor profundidad, activando así los depósitos de carbono orgánico.

Esta investigación, que desarrolló su trabajo de campo en el Ártico Siberiano y cuyos resultados se publican hoy on line en Nature, apunta que la liberación del carbono ártico, causada por la degradación y la erosión debidas al deshielo, podría alcanzar los 44 millones de toneladas al año, cantidad diez veces superior a lo que se estimaba con anterioridad.

El análisis indica que unos dos tercios de este carbono contenido en el permafrost, unos depósitos que en algunos casos se remontan a hace 40 mil años y que se mantienen inactivos al estar congelados, se irá escapando a la atmósfera en forma de CO2, uno de los principales causantes del efecto invernadero, señala la investigadora del IC3 Laura Sánchez-García, coprimera autora del estudio.

El progresivo colapso térmico del permafrost costero, "en una región especialmente sensible al aumento de las temperaturas", dice la científica, puede acelerar aún más el calentamiento.

Sánchez-García subraya que el hielo actuaba como "tapón" o "nevera cerrada" para evitar la activación de ese carbono, y que estas alteraciones cada vez más rápidas provocan un círculo vicioso.

"Formas de carbono orgánico hasta ahora inactivas se están emitiendo a la atmósfera en forma de gases de efecto invernadero que a su vez provocan más calentamiento que liberará más carbono inactivo, una tendencia que se está viendo es cada vez mayor", señala esta experta en el ciclo del carbono orgánico a gran escala.

La región costera del Ártico, donde se encuentra la mitad de los depósitos planetarios de carbono orgánico terrestre, en una superficie equivalente a dos veces España y muy poco estudiada hasta ahora por su difícil acceso, está sufriendo un calentamiento dos veces mayor que la media.

Aunque el ritmo actual de emisiones de carbono a lo largo de la costa noroeste siberiana todavía no está afectando de forma sustancial a los niveles de CO2 en la atmósfera global, los trabajos demuestran que el proceso está en marcha, remarcan los autores.

Para llevar a cabo el estudio, un equipo internacional de investigadores se embarcó en 2008 en una campaña oceanográfica de gran envergadura en la que recogieron muestras geoquímicas, sedimentos, permafrost, agua, aire y material particulado, a lo largo de 8 mil 400 kilómetros de la plataforma continental y cuyo análisis permitió revisar concepciones sobre el estado de conservación del carbono ártico y el papel de su flujo en el clima.

http://www.pulsoslp.com.mx/Noticias.aspx?Nota=132433

lunes, 27 de agosto de 2012

LA METÁFORA DEL SINTONIZADOR SOBRE BORGES, TEORÍA CUÁNTICA Y LOS UNIVERSOS PARALELOS


Cosmología, Filosofía, Física

La mayoría de las explicaciones al uso nos sugieren que nada había antes del Big Bang , ni tiempo ni espacio, que estas dimensiones se crean en ese momento inicial a partir de la nada absoluta. Así nos lo explica, entre otros, Peter W. Atkins, conocido profesor de química-física en la Universidad de Oxford, miembro de la junta de gobierno del Lincoln College y autor del best-seller La Creación, quien nos dice:

"… Retrocedamos ahora en el tiempo más allá del momento de la creación, a cuando y donde no había tiempo ni espacio alguno. De esa nada surgió el espacio-tiempo, y con el espacio-tiempo vinieron las cosas.

Andando el tiempo apareció también el conocimiento; y el universo, que en un principio no existía, se hizo consciente.

Ahora bien, en el tiempo anterior al tiempo no hay sino extrema simplicidad.

En realidad no hay nada; pero, para comprender la naturaleza de esa nada, la mente necesita alguna clase de apoyatura. Esto quiere decir que hemos de pensar al menos por el momento, sobre algo. Así pues, no más que por el momento, pensaremos en casi nada.

Intentaremos pensar no en el espacio-tiempo en sí mismo, sino en el espacio-tiempo antes de ser espacio-tiempo. Aunque no puedo precisar con exactitud lo que esto significa, trataré de indicar cómo se puede empezar a encararlo. El punto importante a tener en cuenta es que es posible concebir un espacio-tiempo carente de estructura, y que es posible, tras alguna reflexión, formarse una imagen mental de ese estado geométricamente amorfo.

Recalquemos que otros importantes pensadores, al igual que Atkins, arrancan el comienzo del universo conocido a partir de este fenómeno singular que popularmente se conoce como Big Bang, previo al cual no se reconoce la existencia del tiempo ni del espacio, como si todo empezara de cero en ese supuesto inicio de toda historia.

Desde mi punto de vista, el evento conocido como Big Bang es sólo, nada más y nada menos, aquel punto o singularidad espacio-temporal hasta el cual podemos extrapolar con cierta racionalidad hacia el pasado (en realidad, hasta el instante de 10 a la menos 43 segundos, conocido como tiempo de Planck). Con posterioridad a ese inicio, podemos hablar de la aplicación de nuestros conocimientos actuales sobre las leyes naturales, el comportamiento y los movimientos de materia y energía observados en el cosmos, en particular la expansión de los astros, confirmada por el astrónomo Hubble en 1929, y el coherente proceso evolutivo registrado en todas las diferentes manifestaciones del Universo, desde el magma o plasma primigenio, pasando por átomos y moléculas, hasta los monos, las pulgas, el hombre y las galaxias.

Al modo en que en su momento se pensaba que las supernovas o los agujeros negros eran acontecimientos o fenómenos extraños en el cosmos y hasta se dudaba de su existencia, hoy se sabe que se trata de sucesos que ocurren en infinidad de lugares en la inmensidad de todo el universo.

También, desde diferentes disciplinas, otros autores coinciden con estos flamantes criterios. Así, en su libro El Infinito en la palma de la mano, Matthieu Ricard, monje budista de origen francés con formación científica en biología, y Trinh Xuan Thuan, astrofísico de origen vietnamita, nos dicen:

"La noción de comienzo es, sin duda, una preocupación esencial de todas las religiones y de la ciencia. La teoría del Big Bang, según la cual el universo fue creado hace aproximadamente quince mil millones de años, simultáneamente con el tiempo y el espacio, es la que mejor explica el Universo observado. El budismo aborda este problema de una manera muy diferente. Se pregunta, en efecto, si es realmente necesario que exista un comienzo y se interroga sobre la realidad de lo que de esta manera habría cobrado existencia.

El Big Bang de la cosmología, ¿es una explosión primordial o el comienzo de un determinado ciclo en una sucesión sin principio ni final de un número incalculable de universos? ¿Nos permiten nuestros conceptos habituales entender la noción de origen, o de ausencia de origen? ¿Acaso esta noción no refleja nuestra tendencia a cosificar los fenómenos, es decir, a considerarlos cosas dotadas de realidad intrínseca?" (El Infinito en la palma de la mano, Editorial Urano, (2001), pág.37).

Siguiendo el orden de estos razonamientos o dudas, y coherentemente con lo expuesto anteriormente, creo que se puede definir la 'nada' como la carencia o ausencia absoluta de elementos, en una determinada región tanto del espacio como del tiempo, que puedan interactuar directa o indirectamente con elementos sensibles de nuestro intelecto (nuestro cerebro, el sintonizador).

Dada la importancia de definir lo más correctamente posible nuestra particular interpretación de esta 'nada' espacio-temporal, sobre la que se han escrito inimaginables y diferentes acepciones, permítaseme reiterar e insistir en que no se trata de algo que está vacío de contenido, que no contiene nada, sino más bien se trata de un punto o lugar del espacio-tiempo cuyos elementos constitutivos no interaccionaron en el pasado, ni interaccionan a la fecha con nuestros sentidos ni con nuestros instrumentos, por lo que no forman parte alguna de nuestra 'realidad', la realidad a la que Ud. y yo pertenecemos y, consecuentemente, no participan en nuestros razonamientos ni conocimientos actuales. (Por supuesto se trata siempre de algo transitorio y preñado de potencialidades, en la medida que evoluciona nuestro sintonizador. Seguramente en otros lugares o 'realidades', si se pudiera decir algo así, del 'Todo' esta interacción es un hecho).

Por ejemplo, veamos lo que ocurrió con las radiaciones electromagnéticas, recientemente (en escala astronómica) reconocidas como tales a partir de su descubrimiento y aplicación alrededor del siglo XIX. Sin embargo, estas radiaciones siempre estuvieron allí, como lo están hoy, rodeándonos y, en algunos casos, atravesándonos por todos lados, pero no teníamos la capacidad de elaborar conciencia, consciencia, conocimiento ni reconocimiento de ellas, a excepción, claro está, de la pequeña banda de radiaciones correspondiente al espectro visible.

Obsérvese que el paulatino descubrimiento, comprensión y aplicación de las radiaciones electromagnéticas (ondas de radio, rayos X, infrarrojas, ultravioletas, ionizantes, radar, …) en los siglos XIX y XX implica no sólo el procesamiento mental de conceptos, razonamientos o elucubraciones no existentes hasta ese momento, sino también la incorporación a la 'realidad' de elementos físicos como los electrones, los neutrones y otras cosas nuevas tan concretas como anteriormente lo habían sido la materia, la energía, los tigres de dientes de sable, etc. Y, si se observa cuidadosamente, hasta podemos detectar las sospechas que tenían previamente los pensadores de aquella época, a saber, que el 'vacío' o la 'nada' espacial de esos tiempos contenía uno o varios elusivos componentes que denominaban genéricamente 'éter'. Algo similar nos ocurre en la actualidad con lo que denominamos la 'nada' del 'vacío' cuántico, quizá repleta de elementos subnucleares que desconocemos.

Nuestras actuales sospechas apuntan a una nueva y enigmática clase de materia-energia que llamamos genéricamente 'oscura'. Está por allí, escondida en la inmensidad del 'Todo', pero no hemos conseguido hasta el momento interactuar con ella. Nuestro cerebro-sintonizador, al menos el de prominentes pensadores, lo está intentando.

Este proceso de adquisición y ampliación de la 'realidad' circundante ocurrió y ocurre permanente desde los comienzos de nuestra historia conocida, cuando se formó la relación objeto-sujeto en la naturaleza de nuestro particular universo, conformando la conciencia en los seres vivos hasta la consciencia en los homínidos y humanos, siempre como consecuencia de nuevas interacciones entre el cerebro-sintonizador de la 'realidad' y el medio ambiente, naturaleza circundante o 'Todo' exterior a nosotros.

Entonces, y más allá de una posible interpretación religiosa, cuando hablamos de la 'nada' como posible situación previa al Big Bang, evidentemente estamos en presencia de una simple declaración de ignorancia o de un error, una explicación equivocada y habrá que pensar en una nueva concepción de lo que es la 'nada', tal como propongo más arriba, ya que, por definición, la 'nada' tradicional nada contiene, ni tiempo ni espacio, ni siquiera polvo de ninguna clase. (Aun las fluctuaciones cuánticas requieren que algo fluctúe, sean partículas reales o virtuales, más allá de cualquier juego de palabras, es decir, debemos admitir la existencia de algún tipo de elemento o material, desconocido por el momento, previo a lo que consideramos el inicio o Big Bang de nuestro Universo).

http://www.redcientifica.org/la_metafora_del_sintonizador.php

martes, 7 de agosto de 2012

ENCUENTRAN NUEVO ORIGEN DEL PLACER


En los años cincuenta, el psiquiatra Robert Heath de la Universidad Tulane lanzó un programa controversial para implantar quirúrgicamente electrodos en el cerebro a pacientes diagnosticados con epilepsia, esquizofrenia, depresión y otras enfermedades neurológicas severas.

Su objetivo: localizar la fuente biológica de estos males y, al estimular artificialmente dichas regiones, tal vez poder curar a las personas afectadas con estas condiciones.

De acuerdo con Heath, los resultados fueron dramáticos: pacientes que eran catatónicos pudieron sonreír, conversar y hasta reír. Pero este alivio duró poco, ya que cuando la estimulación cesaba, los síntomas volvían.

Ahora, una nueva investigación ha descubierto los puntos de acceso en el cerebro que, cuando son estimulados, mejora la sensación de placer.

Estos puntos hedonistas difieren del circuito de recompensa, antes asociados a las bases de las sensaciones placenteras y que ahora se cree es el mediador del deseo, más que del placer.

La regiones de actividad alta en el cerebro reciben información de estos circuitos de placer y recompensa para representar concientemente el destello cálido (de la actividad neuronal) que se asocia con el disfrute de algo.

Un desacoplamiento de los sistemas cerebrales que generan el deseo y el gusto pueden subyugar un comportamiento adictivo, algo que puede llevar a nuevos tratamientos que no sólo atiendan a pacientes con desórdenes neurológicos, sino psicológicos como la adicción a las drogas o trastornos obsesivos compulsivos. 


Fuente: Scientific American
http://www.muyinteresante.com.mx/salud/480789/region-cerebral-del-placer/