Cibervórtice

Just another WordPress.com site

Archive for mayo 2012

Enlaces con el futuro – 5

leave a comment »

Nuevo avance para sustituir a los antibióticos por virus que maten a las bacterias

En la línea de investigar cómo sustituir a los antibióticos por virus que maten a las bacterias, científicos del Centro Nacional de Biotecnología del CSIC (CNB) estudian las proteínas que permiten a esos virus bacteriófagos anclarse sobre la superficie de las bacterias

Fuente: blog biotecnológica.

Para leer el resto de la entrada hacer clic en  biotecnológica

 

El fraude de la las vacunas nocivas.

Los registros de patología son el centro de un nuevo desacuerdo con el, ya caído en desgracia, doctor Andrew Wakefield.

Manipular las historias de los pacientes para conseguir dinero es una de las acusaciones más graves que a un médico se le pueden hacer, por eso no es de extrañar que los cargos esgrimidos por la prestigiosa revista British Medical Journal (BMJ) contra él aún estén siendo estudiados.

Wakefiel era el autor de un artículo publicado en The Lancet en el que refería el caso de 12 niños que tras haber sido vacunados contra las paperas, el sarampión y la rubeola desarrollaron síntomas de autismo y enfermedad intestinal.

El artículo publicado echó leña al fuego de la controversia sobre posibles efectos perjudiciales  de las vacunas pero fue retirado tras una denuncia del Concejo General de Médicos del Reino Unido por razones éticas pues no está permitido experimentar con niños sin el permiso del consejo, a consecuencia de la cual le retiraron el la licencia de médico. Además, más tarde se descubrió que las historias clínicas de los niños eran, en gran parte, inventadas.

 

Fuente: Nature

Fresh dispute about MMR ‘fraud’

 

1000 genomas en la nube de Amazon

La mayor base de datos del mundo sobre la variación genética, el proyecto 1000 Genomas, ya está disponible de forma gratuita a través de Amazon Web Services. El acuerdo con Amazon, encabezado por los Institutos Nacionales de la Salud de los EE.UU.,  hace que los datos de la secuenciación de los genomas de más de 1.700 personas sean accesibles a través de la nube de Amazon. Cualquier científico con conexión a Internet podrá acceder a los 200 terabytes de datos almacenados en la nube, evitando la necesidad de adquirir más ancho de banda o capacidad de almacenamiento en sus servidores.

 

 

Fuente: Nature

1000 genomes on Amazon’s cloud

 

Desarrollan un poderoso enfoque contra el virus de la gripe

Un equipo internacional de investigadores ha manufacturado una nueva proteína, que puede combatir las epidemias mortales de gripe. El documento, publicado en ‘Nature Biotechnology’, muestra las maneras de utilizar genes manufacturados como antivirales que desactiven las funciones principales del virus de la gripe, según explica Tim Whitehead, profesor de Ingeniería Química y Ciencias de los Materiales, en la Universidad Estatal de Michigan, en Estados Unidos

 

Fuente: Genoma España

Para leer el resto de la entrada hacer clic en Gen-es

 

 

Anuncios

Written by Cibervórtice

mayo 30, 2012 at 9:51 pm

Publicado en Enlaces

Inteligencia y Libertad

with one comment

Introducción

Existen dos escuelas en el estudio de la conciencia que polarizan gran parte del debate sobre su naturaleza en círculos científicos y filosóficos. Una de las posturas defiende que la mente humana es teóricamente reproducible por medios artificiales, comparando al cerebro con el hardware de un ordenador y a la mente con el software. La otra postura defiende que cualquier intento de reproducir la mente humana produciría solo una copia totalmente inconsciente de sus pensamientos.

Lo que postularé en este artículo es que dotando de libre albedrío a un posible androide este sería capaz de tomar decisiones considerando la información que contuviera y almacenara y que, el hecho de decidir en base a esta, le conferiría un significado. El contenido semántico de la información supondría que el androide es consciente de lo que piensa y, por tanto sería, al menos y en cuanto a su mente, igual a nosotros.

Cuando en la primavera de 1997 la computadora de IBM Deep Blue ganó una segunda partida de ajedrez al campeón mundial Gary Kasparov, pareció quedar en evidencia la superioridad de la inteligencia humana frente a la de la máquina creada por el hombre.

Lo que sí quedó claro era que una computadora podía realizar complicados cálculos matemáticos, como los que hacemos al jugar al ajedrez, mucho mejor y más rápido que cualquier ser humano.

Intuitivamente, sin embargo, algo nos dice que ni Deep Blue ni cualquier otra supercomputadora, robot o androide que llegue a crearse será nunca realmente inteligente. Lo que nos lleva a creer en nuestra superioridad innata es, por una parte que nosotros somos los que inventamos las máquinas y, por otra que, incluso la mejor computadora carece de creatividad, por lo que no pueden crear otras máquinas ni mucho menos a nosotros.

Sin embargo uno puede aducir que si las computadoras no son capaces de ser creativas o tan inteligentes como nosotros es simplemente porque su evolución solo está en sus comienzos y con tiempo podrían llegar a superarnos.

Se presentan entonces dos posturas frente al problema de la inteligencia artificial en las cuales la distinción entre natural y artificial parece ser la clave que decide si la inteligencia es real (Inteligencia Artificial Fuerte) o simulada (Inteligencia Artificial Débil).

Como paradigmáticas de ambas consideraré la máquina universal de Alan Turing y la caja china de John Searle.

 

 

 

 

 

 

 

 

 

 

 

 

La máquina universal de Turing sería una computadora perfecta, capaz de realizar cualquier cálculo matemático lógicamente posible en un tiempo infinitamente pequeño. Según Turing, si aceptamos que la mente humana tiene su origen en el cerebro y es producida por procesos lógicos y cálculos matemáticos, como un software instalado en la materia gris, la computadora perfecta sería capaz de imitar a la perfección el comportamiento de una persona y, según Turing, si no somos capaces de distinguir la mente humana de la simulación de una computadora, es porque no hay diferencia. Como consecuencia la máquina universal podría ser tan inteligente, por lo menos, como un ser humano.

Turing imaginó una serie de tests para verificar la falta de diferencias entre un humano y su homólogo androide. Una de ellas, el test del colega de siempre, sería sustituir a un colega nuestro de toda la vida por un androide programado para comportarse de la misma manera que nuestro colega. Otro test, variante del primero, es construir un androide de características humanas que se convierta en nuestro colega y pase un tiempo indeterminado, días, meses años, con nosotros. En el primer test el resultado es positivo si no podemos diferenciar al androide de nuestro colega, en el segundo si no nos damos cuenta de que no es humano.

En el caso de que los tests fueran positivos deberíamos considerar que si estamos dispuestos a atribuir una mente a una persona por la información que obtenemos al observarla, si la información que obtenemos al observar a un androide nos indica que tiene una mente no tenemos ninguna razón para pensar lo contrario.

Por otro lado, Searle nos propone imaginar que una persona con conocimientos nulos de chino es entrenada para reconocer ciertas secuencias de caracteres en esa lengua y, según las que recibiera, entregar otras. La persona trabajaría dentro de una caja con dos ranuras y esperaría a recibir tiras de papel con mensajes en chino para, según las secuencias de caracteres que reconociera entregar otras por la otra ranura. Así, un interlocutor chino, que no supiera nada sobre el funcionamiento de la caja, podría creer que la caja entiende algo de chino. Si a la persona de dentro se le entrenara para reconocer una gran cantidad de secuencias de caracteres el interlocutor podría llegar a mantener una comunicación aparentemente inteligente.

La diferencia de la caja china con la máquina universal de Turing radica en que, como Searle explica, los mensajes introducidos y recibidos por el interlocutor tienen una estructura sintáctica y un contenido semántico, para el hombre de dentro no significa nada, es decir, solo tienen contenido sintáctico. Según Searle el androide imaginado por Turing sería solo una súper complicada caja china, capaz de procesar datos y producir respuestas coherentes pero sin saber lo que hace. Searle afirma que la inteligencia artificial sería solo una imitación de la verdadera inteligencia.

Los seguidores de la hipótesis de Turing afirman, a su vez, que el contenido semántico de los procesos o cálculos que producen el comportamiento humanoide no tienen importancia alguna, solo en resultado, para ellos la inteligencia artificial puede, no solo imitar sino a ser igual a la natural.

La solución que propongo a este dilema está basada en la importancia de la libertad como:

A. Capacidad de elegir entre varias opciones según un criterio propio

B. Iniciativa propia para realizar elecciones basada en la necesidad de supervivencia o de conseguir un objetivo (lo que para nosotros es el sexo o la comida para un ser artificial puede serlo realizar una tarea encomendada o recargar las baterías)

Los seres vivos más simples, como bacterias o protozoos tienen codificado en su ADN las posibles respuestas ante diferentes contingencias ambientales con las que se pueden encontrar. A sus reacciones no se las puede aducir iniciativa propia, son simples respuestas automáticas.

Con la aparición de sistemas nerviosos, los animales que los poseen, empiezan a aprender de su entorno y a elegir, según su experiencia, la mejor manera de reaccionar a una contingencia dada. En este punto, podemos decir que el animal, como individuo de su especie, tiene un cierto grado de libertad.

A medida que el nivel de inteligencia aumenta en la escala evolutiva, aumenta también la capacidad de aprendizaje y de elección entre diferentes posibilidades de reacción a una contingencia, llegando a la previsión de contingencias e hipótesis sobre sus posibles soluciones, es decir a planear el futuro y prever las posibles elecciones que surgirán con diferentes escenarios de mayor o menor probabilidad. De esta forma con el nivel de inteligencia aumenta el grado de libertad.

Al hablar de inteligencia artificial, lo que cabe preguntarse es, si un androide, hecho para reaccionar ante bits de información introducidos en él, por voluntad ajena, podría pensar e incluso si, en el caso de comportarse como si lo hiciera, sería consciente de sus pensamientos.

Aunque este androide, en lo que se refiere al significado de la información que recibe, procesa y emite sería un sistema abierto. El androide solo actuaría obedeciendo unas órdenes dadas o programadas por un experto humano, de una forma automática, produciendo un comportamiento o información que solo tendría contenido semántico para un observador humano.

Pero, y si se hiciera un androide que fuera, semánticamente, no un sistema abierto, sino parcialmente cerrado, es decir que no se limite a cumplir órdenes de fuera, sino que cree sus propias órdenes a partir de la experiencia real o de la de simulaciones hechas con datos de experiencias nuevas de manera que aprenda a reaccionar ante situaciones que no estaban previstas en su programa original sin esperar instrucciones de fuera.

De hecho es algo que se está haciendo hoy en día. Una forma en que se hace es programando la capacidad de aprender, como lo hacía Deep-Blue de los maestros de ajedrez, hasta resultar invencible por estos. Otra es darles la capacidad de reaccionar por si solos, como lo hacían robots como el Pathfinder o Red Rover enviados a Marte. Si hiciéramos un robot que combinara estas dos capacidades, algo ya posible, y además lo programáramos para modificar sus respuestas ante diferentes contingencias a medida que aprende, lo que tendríamos sería muy diferente a una caja china.

Para este modelo de robot la información recibida sería almacenada después de un análisis que establecería su área de actividad y grado de utilidad, le daría una prioridad en la memoria según la cual la información menos útil permanecería menos tiempo en el cerebro y la más útil se asociaría con un número mayor de distintas posibles contingencias en las que se podría usar. Esta información, tendría entonces un significado para el androide, en tanto en cuanto que, no su estructura sintáctica, sino el contenido semántico de esta, sería lo que analizaría para establecer su importancia y relaciones con la información previamente almacenada.

Si el mencionado androide contuviera como cerebro una máquina universal de Turing, podría ser perfectamente indistinguible de un humano y, a efectos de su mente, igual o superior a nosotros.

Uno de los factores que limitaría la inteligencia del robot, su capacidad de ser creativo y de ser consciente sería la libertad que le otorgáramos. Aquella información que no fuera libre de recibir, procesar y/o producir sería información sin contenido semántico, por lo tanto no sería consciente de ella.

Podemos comparar esto último con nosotros los humanos. Hay una gran cantidad de procesos neurológicos, sin mencionar los fisiológicos sobre los cuales no existe posibilidad alguna de control voluntario, todos ellos se producen de manera automática e inconsciente, como los reflejos, el procesado de la información recibida por los sentidos, la digestión, el sueño, etc. Algunos, como la respiración pueden ser controlados si uno se concentra en ellos. Hay incluso áreas de nuestra vida psicológica que permanecen ocultas a nosotros la mayor parte del tiempo, áreas que conforman el inconsciente y que, como la respiración, solo pueden ser controlados después de un costoso proceso de introspección, proceso que puede requerir la ayuda de un psicólogo. Sin embargo, de los aspectos más profundamente automáticos como son los primeros de los que he hablado, ni aún, siendo conscientes de ellos a través del estudio, es posible controlarlos.

Por último recordar que si hay algo a lo que los gobiernos autoritarios han tenido siempre pánico es a los estudiantes universitarios que, por su educación y juventud, siempre necesitan disfrutar de los niveles más altos de libertad, y a los intelectuales que tienen la costumbre “subversiva” de elevar el nivel de conciencia de los que les escuchan. También en la época esclavista en los Estados Unidos, se castigaba severamente a quien enseñara a leer y escribir a los negros, porque si hay algo que mantiene a una población en la pasividad y conformismo, es la ignorancia.

Fotografía: Indibang

Bibliografía

Harnad, S. ( 1989) Minds, Machines and Searle. Journal of Theoretical and Experimental Artificial Intelligence 1: 5-25.

Searle, John. 1980a. “Minds, Brains, and Programs.” Behavioral and Brain Sciences 3, 417-424.

Searle, John. 1990. “Is the Brain’s Mind a Computer Program?” Scientific American 262: 26-31

Turing, A.M.(1950) ‘Computing Machinery and Intelligence’, Mind, vol.LIX, No. 236. pp.433-460

 

En realidad publiqué esto hace años, pero fue escrito deprisa y corriendo, y siempre me quedé con ganas de corregirlo y volverlo a publicar.

Artículo original publicado en Sincronía y A Parte Rei

Written by Cibervórtice

mayo 24, 2012 at 9:34 pm

Los diez grandes retos de la vida sintética

leave a comment »

Un equipo Internacional de Investigadores ha elaborado un informe detallado con las enormes ventajas para la biotecnología y, por ende, para la humanidad que tendría crear organismos completamente artificiales, diseñados para satisfacer necesidades, algunas de las cuales consideramos tan imposibles de satisfacer que ni sabemos que las tenemos.
La construcción de la vida artificial es uno de los principales retos científicos de la era de la biología sintética. El objetivo de construir la primera célula artificial es ya una posibilidad real lo que sería un hito científico y el punto de partida de una amplia gama de aplicaciones, desde la producción de biocombustibles hasta el diseño de fármacos

Los biólogos están tratando de desarrollar “vida artificial”, tanto por sus enormes aplicaciones en la biotecnología y como una forma de arrojar luz sobre la cuestión de los orígenes de la vida.

Algunos trabajos, como el llevado a cabo por Aaron M. Leconte y sus colaboradores de la Universidad  de la Jolla (California) en los que crearon nuevos nucleótidos con los que ampliar el alfabeto de 4 Adenina, Tianina, Guanina y Citosina en los que se basa el código de ADN, demostraron que un código genético artificial podría servir para albergar más información que los existentes en la naturaleza y serviría para crear proteínas que ningún ser vivo ha sido capaz de fabricar.

Discovery, Characterization, and Optimization of an Unnatural Base Pair for Expansion of the Genetic Alphabet.

Sin embargo, para llegar a crear organismos, completamente diseñados en un laboratorio hará falta superar diez obstáculos fundamentales:

1-Llegar a unconsenso sobregenomas sintéticos

Un sistema vivo mínimo consta de un componente de información, un componente metabólico y un recipiente de mantenimiento de ambos componentes, vinculados entre sí
La “receta” para hacer de abajo a arriba un organismo basado en un mínimo de auto-que evolucione requiere:
(1) un sistema de información heredable que se replique y que controle
(2) un sistema metabólico que convierta recursos en piezas de construcción junto con
(3) un contenedor para la localización de los genes y el metabolismo, así como la captación de recursos y la replicación del sistema a través de la división.
Las mayores trabas serían:
(a) auto-ensamblaje de los componentes en un proto-organismo;
(b) la absorción o fusión de los recursos en el recipiente (alimentación);

(c)  Contenedores asociados de replicación del sistema de información (replicación de los genes);
(d) la transformación metabólica de los recursos en los piezas de construcción (crecimiento), así como
e) la división del proto-organismo en dos o más  copias fértiles.

2- Creando desde cero

Un sistema mínimo de vida tiene que ser capaz de procesar los recursos que tenga a su alcance y transformarlos en sus propias piezas de construcción para crecer y dividirse

3- Aprendiendo de la naturaleza

Hay un número mínimo de características o funciones necesarias para mantener una célula viva que están en relación con un entorno particular.

4- Afinar y hacer realidad el concepto de chásis biológico.

El concepto de un chasis genético, sobre el cual se construirían diversos sistemas artificiales, en los que el código genético actuaría como un circuito integrado es uno de los más difíciles de hacer realidad

5 – Fabricación de los sistemas biolgógicos

La palabra ortogonal, tomada prestada de las matemáticas, aquí resumiría la necesidad de que todos los sistemas de la célula actúen con una cierta independencia de manera que funcionen sea cual sea el programa genético que se le de a la célula.

6- La superación de las limitaciones físicas y químicas

Varios factores físicos plantean problemas importantes para que la envoltura de una célula sintética pueda ser funcional y, por lo tanto, es necesario abordar, en particular, estrategias destinadas a la construcción de las células de novo con la bioquímica y diseños similares a los de las células naturales. Por ejemplo, la forma de la célula es esencial ya que, en la mayoría de los casos, la relación de volumen respecto a la superficie influye en la expresión génica. La presión osmótica y el gradiente electroquímico también han de tenerse en cuenta.
Una limitación adicional está ligada a la propia naturaleza de los componentes químicos de la célula. Muchos intermediarios metabólicos son altamente reactivos y que pueden dar lugar a reacciones secundarias no deseadas. Esta es la raíz de muchos procesos de envejecimiento. Muchos organismos eucariotas han utilizado la compartimentación en los orgánulos para resolver este obstáculo
Hay también  limitaciones asociadas con la capacidad de la célula para perpetuarse.

7- De los modelos a las células y la de vuelta al modelo
La Materia viva coordina el metabolismo  (por ejemplo, la producción de energía a través del catabolismo y el uso de la energía para construir estructuras celulares a través de anabolismo), el almacenamiento y procesamiento de información (por ejemplo, la transcripción del ADN, la traducción del ARNm, etc), así como los procesos de compartimentación y entidades (por ejemplo, células formación de la pared, el transporte de membrana, etc), cada uno con sus propias escalas de longitud, tiempo, energía y masa. Estas escalas muy diferentes plantean retos enormes para el modelado y la simulación computacional, no muy diferente de las dificultades a escala múltiple que se encuentran en la modelización del clima ..

8- La replicación y la reproducción
Freeman  demostró  convincentemente que, mientras que con la reproducción (hacer una copia similar) se pueden acumular nueva información, la replicación (hacer una copia idéntica) está condenada a acumular errores.

9- Hacia una estrategia de diseño integrado de organismos sintéticos

La selección natural ha demostrado, sobradamente, ser capaz de crear organismos con la máxima complejidad  que de forma natural se puede alcanzar

Las estrategias de selección tales como la evolución dirigida, la evolución de adaptación y otros enfoques darwinianos podría dar lugar a una aceleración exponencial de la consecución de formas de vida artificiales.
10 – Acompasar el desarrollo científico con la información a la opinión pública
La experiencia sobre la percepción pública de los alimentos genéticamente modificados, especialmente en Europa, debe servir de lección para la implementación de una plataforma sólida de información que debe ir de la mano con el desarrollo de sistemas sintéticos. La asociación por la opinión pública entre la Biología Sintética (SB) y la biotecnología que se espera. Por otra parte, el nombre mismo de la disciplina, la biología sintética, parece haber sido calculada para producir una fuerte reacción negativa (http://www.synbiosafe.eu/). De hecho, la referencia a la muy reciente “creación” de una bacteria sintética en primer lugar, a pesar de su artificialidad limitada y su evidente falta de peligro, ha provocado una reacción negativa sin precedentes. Sería un error olvidar que los principales peligro están asociados a la los organismos naturales. Gritar “que viene el lobo” sin cerciorarse de que está ahí siempre ha traído malas consecuencias cuando el verdadero depredador ha aparecido.

Fuente: Editorial Springer

Systems and synthetic biology

Written by Cibervórtice

mayo 18, 2012 at 11:23 pm

Publicado en Biotecnología

Enlaces con el futuro

leave a comment »

 

 

 

 

 

 

 

 

Justice League of Peanuts

 

La edad a la que se aprende las reglas de la justicia.

Los niños se vuelven más igualitarios a medida que crecen. Aprenden los principios de igualdad hacia la edad de ocho años según un estudio realizado por científicos suizos. Puede sorprenda a quien tenga hijos, pero lo que pocos podrán esperarse son otras conclusiones del estudio. Los investigadores también encontraron que tener hermanos mayores tiende a hacer que los niños sean más egoístas, y que los niños sin hermanos son los más altruistas.

El equipo encontró que la probabilidad de que un hijo únicos compartiera era de un 28% mayor que en niños con hermanos. Por otro lado, los menores en la familia estaban en un 17% menos dispuestos a compartir que los niños con sólo hermanos más jóvenes. Sutter, que tiene cinco hermanos, considera que estos resultados tienen sentido: “Hay que luchar por conseguir tu trozo pastel”, dice. “Si usted es un hijo único, no tiene necesidad de hacerlo.”

Fuente: Nature

Children learn rules of equality by age eight

 

¿Adónde se ha ido la materia oscura?

Antes de 1998 existían varias teorías sobre cual iba a ser el destino del universo. Después del Big Bang, se esperaba que la velocidad de expansión del universo fuese descendiendo, hasta parar y comenzar a contraerse para terminar igual que empezó, en un punto de inimaginables densidad y temperatura, lo que llamaban el Big Crunch, o bien, si la cantidad de masa era la adecuada seguiría expandiéndose eternamente a la misma velocidad, enfriándose a medida que las estrellas iban muriendo.

Entonces los datos obtenidos durante ocho años por el telescopio Hubble  llevaron Saul Perlmutter, Brian Schmidt y Adam Riess a la conclusión de que la realidad era otra bien diferente. La velocidad de expansión del universo no sólo no estaba disminuyendo, ni era constante, estaba en aceleración.

 

La única explicación tenía que ser algo que ya se había formulado para explicar la anormalidad de que los bordes de las galaxias espirales roten a la misma velocidad angular que en el centro. Como es bien sabido en el centro de la mayoría de galaxias se encuentra un agujero negro supermasivo. En las galaxias espirales todas las estrellas giran alrededor de ese objeto de forma parecida a como los planetas de nuestro sistema giran alrededor del sol. Se suponía que las estrellas más alejadas del centro girarían más lentamente al verse disminuida la influencia de la gravedad del agujero negro. Pero no es así y la única explicación factible es que haya un 80% de materia y energía que escapa a nuestra detección contituyendo las galaxias.

La teoría de lo que se dio en llamar materia y energía oscuras, podía explicar la constante aceleración si esta energía tuviera un efecto contrario al de la fuerza de la gravedad. Algo así como si la materia oscura emitiera un campo antigravitatorio que repeliera unas galaxias de otras.

Lo que Moni Bidin y sus colegas de la Universidad de Chile han encontrado es que en nuestra vecindad, en la Vía Láctea no hay ni rastro de los efectos que la presencia de esa materia oscura deberían de producir lo cual quiere decir que, o bien en nuestra área no hay pero en el resto de la galaxia sí, o bien habrá que buscar otra explicación a todas esas incógnitas que la teoría podría resolver.

Fuente: Science

Has Dark Matter Gone Missing?

 

 

El consumo del agua. Quién consume y contamina más en el mundo.

Mastiawiki

 

En un mundo cada vez más preocupado por la ecología y los efectos que su deterioro tienen en nuestra salud y en el futuro de la biosfera hay un tema capital, y es el uso y abuso del agua.

Un estudio realizado por el Pacific Institute para Estudios sobre el desarrollo, de Canadá, cuantifica y traza mapas de la huella de agua (WF) de la humanidad con una alta resolución espacial. El estudio informa sobre consumo de agua de procedencia pluvial (verde WF) y del de aguas subterráneas y de superficie (azul WF) y los volúmenes de agua contaminada (gris WF). La huella del agua se estima por nación, tanto desde el punto de vista de producción como del de consumo. Los flujos virtuales internacionales de agua se estiman en base al comercio de productos agrícolas e industriales. El promedio global anual de WF en el período 1996-2005 fue 9.087 Gm3 / año (74% verde, 11% azules, 15% de gris). La producción agrícola contribuye con el 92%. Alrededor de una quinta parte de la WF mundial está relacionada con la producción para la exportación. El volumen total de agua virtual de los flujos internacionales relacionados con el comercio de productos agrícolas e industriales fue de 2.320 Gm3 / año (68% verde, azul 13%, 19% de gris). El WF del consumidor promedio mundial fue de 1.385 m3 / año. El consumidor medio en los Estados Unidos tiene un WF de 2.842 m3 / año, mientras que los ciudadanos comunes en China e India tienen WFs de 1071 y 1089 m3 / año, respectivamente. El consumo de productos de cereales produce la mayor contribución a la WF del consumidor medio (27%), seguida de la carne (22%) y los productos lácteos (7%)

 

Fuente:

Proceedings of the National Academy of Sciences USA (PNAS)

The water footprint of humanity

 

Written by Cibervórtice

mayo 13, 2012 at 10:03 pm

Publicado en Uncategorized

¿Qué nos hace humanos? Porqué la neurología no encuentra una explicación para el arte

leave a comment »

Acabo de terminar uno de los mejores libros de ciencia divulgativa que he leído en los últimos años ”¿Qué nos hace humanos?” de Michael S. Gazzaniga. 

Human: The Science Behind What Makes Us Unique

Quizás me lo parezca porque me apasiona la neurobiología o quizás porque está escrito en una prosa que hace la ltener la sensación de que te lo está contando a tí, sentado a tu lado, contagiándote  del entusiasmo que le llevó a crear y desarrollar la el campo de la neurología cognitiva.

En cualquier caso, lo que quiero comentar es algo que me produce un placer científicamente perverso. El capítulo 6 del libro. En él M. Gazzaniga resume lo que hasta el momento ha llegado a conocerse sobre como surge el arte del cerebro. Es decir, ¿por qué se nos ponen los pelos de punta cuando escuchamos la música que más nos gusta?, ¿por qué a unos les gusta el heavy metal y otros lo detestan? ¿qué hace que uno se quede horas contemplando un cuadro en éxtasis?.

Este capítulo, de todo el libro es el más caótico y el que menos revela. El placer me lo producía saber que el arte, una de las actividades en las que cada uno de nosotros pierde una cantidad valiosa de energía, dinero y tiempo, es un misterio que estamos muy lejos de comprender.  Si hay algo que me gustaría que no tuviera explicación racional es, precisamente, por qué la especie humana ha creado arte desde la época de las cavernas y para qué sirve eso evolutivamente cuando la belleza no tiene nada que ver con la biología.

Personalmente, como explicación de lo que és la belleza me quedo con el clásico juicio a Friné.

En la antigua Grecia, una Friné, modelo y del escultor Praxíteles  y, como no podía ser menos también su amante (una de las explicaciones evolutivas es que los artistas tienen más éxito con las mujeres, ergo más descendientes) era una mujer muy orgullosa y se pavoneaba por Atenas alardeando de poseer una belleza comparable a la de Afrodita. Obviamente a las atenienses aquella actitud no les hacía ni gracia y acabaron llevándola a juicio por impiedad, compararse con una diosa era un delito grave.

El juicio fue complejo. La defensa se basaba en demostrar la belleza es un don concedido por los dioses y, por tanto, poseerla era signo de poseer el favor de los dioses. Aquel argumento era truculento y el debate empezó a derivar hacia cuál era la naturaleza de la belleza.

El juicio se extendía en divagaciones filosóficas interminables hasta que Hipérides, discípulo del mismísimo Platón, y por tanto más que capacitado para ganar en aquel terreno, se dio cuenta de que aquello era un callejón sin salida y tomó una decisión histórica.

Hipérides arrancó de un tirón la túnica que cubría el cuerpo de Friné y ante los atónitos jueces (todos hombres) les explicó que la belleza era, precisamente lo que tenían delante.

Los jueces decidieron que habiendo recibido tal cantidad de belleza lo que sería impío sería castigarla por sentirse orgullosa de ello y Friné pudo seguir paseándose insultante ante las envidiosas atenienses.

Por si a alguien le interesa profundizar en el tema sin necesidad de comprar el libro (craso error, ese libro hay que comprarlo) hay un estupendo artículo sobre las diferencias en percepción de la belleza artística entre personas de todo tipo de procedencias. De nuevo un excelente ejercicio de ingenio científico que le deja a uno con la perversa satisfacción de que quizás nunca consigan explicar como surge, para que sirve y por que cada uno entiende de una forma el arte.

Fuente: Frontiers in human neuroscience

The brain on art: intense aesthetic experience activates the default mode network


Written by Cibervórtice

mayo 8, 2012 at 9:57 pm

Publicado en Cerebro y mente