¿ESTÁ MUERTO EL ENFOQUE SISTÉMICO?

familiaespiral

Habiendo acumulado más de 45 años de experiencia laboral, tanto como empleado y ejecutivo en muy distintas empresas de todos los tamaños, de origen nacional como internacional y en las más diversas actividades, ya sea de producción como de servicios o de educación, me he dado cuenta que el enfoque de sistemas está totalmente ausente en la mente de los directivos.

volumeAbsorptionGlassOnVolumen sistemica

Además, desde hace unos 20 años me he dedicado a la enseñanza a nivel universitario y de posgrado en programas de negocios y administración y mejoramiento de organizaciones, notando que los alumnos llegan a los cursos carentes de estos conceptos.

De aquí se puede concluir que el enfoque sistémico ya pasó a mejor vida y que deben existir otros modelos que explican mejor la vida de las organizaciones, pero esto no parece ser así.  No es que haya muerto, puesto que nunca ha terminado de nacer. No se ha sembrado, ni cultivado, y por lo tanto está totalmente ausente de la mente de los líderes organizacionales y los demás niveles de las organizaciones. El cultivo está pendiente de hacerse.

porque-utilizar-un-enfoque-sistemico-1-728 23-de-mayo-del-2012-enfoque-sistmico-1-728

“¿Y …?”, se puede preguntar el lector, así como responderse que el mundo ha seguido como si nada, principalmente el de las organizaciones, sin necesidad de estos conceptos. Ahora bien, esto no es así de intrascendente, ya que se ha dejado en un segundo plano la conciencia de que las organizaciones son organismos sociales vivos.  Como tales, reciben del medio ambiente una serie de elementos que los nutren y les permiten hacer lo que tienen que hacer, y a su vez, deben entregar una serie de productos y servicios, según lo requerido.

Cuando está ausente la idea de que las organizaciones son sistemas vivos y que están abiertos al intercambio con su entorno, los líderes  suelen errar el diseño de las estrategiasy retrasar su avance, o más aún, llevarlas al fracaso. En estas épocas es notoria la influencia de la globalización, de la apertura de las comunicaciones y de su inmediatez; sin embargo, los directivos en muchos casos actúan como si no hubiera más mundo que el que alcanzan con la vista.

Metodología de sistemas duros 46001057

Ahora el entorno externo a las organizaciones, sobre el cual no se puede tener control, pide y a veces exige para poder interactuar, condiciones y características que hace 20 años no interesaban. Se hace énfasis en la importancia de actuar con Responsabilidad Social,ser sustentable, comprar y vender a precios justos, en fin, proyectar hacia afuera de la organización una vida organizacional ética.

Al existir una poderosa fuerza de globalización en las comunicaciones, resulta que ahora la actuación de las organizaciones se conoce en todo el mundo. Lo malo y negativo vuela y corre mucho más rápido entre los consumidores y la opinión pública que las buenas actuaciones y el buen servicio. La imagen del buen servicio y la buena calidad se trasmite de boca en boca, con un efecto bastante duradero.

Pero ¿a qué se refiere la “Teoría General de Sistemas”? Pues quiere decir que la única manera significativa de ver a las organizaciones es como un sistema social. Estos conceptos no son nuevos, están cerca de cumplir un  siglo, pero no han terminado de sembrarse en el mundo de las organizaciones.

Si hay que ir a las definiciones, vale la pena tomar la que dice que un sistema viene a ser“untodo unitario organizado, compuesto por dos o más partes, componentes o subsistemas interdependientes y delineado por límites identificables por su suprasistema ambiente” (Kast & Rosenzweig, 1988).

diagnostico-sistemico-1 Dinámica espiral h

De ella  vale la pena enfatizar, por ahora, que las organizaciones, vistas desde el enfoque sistémico son interdependientes de su suprasistema ambiental. Este ambiente externo no solo se referirá a los competidores, proveedores, factores macroeconómicos, mundiales y nacionales, sino a los ecológicos y los del ambiente climático.

Lo que se hace o deja de hacer en una organización no solo repercute dentro de ella, sino en otras organizaciones que están en su entorno cercano y lejano. Es como cuando se tira una piedra en un estanque, va produciendo olas que se alejan de su centro. Lo que se hace afecta a otros, y lo que los demás hacen o deciden, invariablemente nos afecta.

En estos párrafos se ha querido hacer ver que la mayoría de los líderes están ayunos de los conceptos administrativos que les permitan conducir hacia el mejoramiento a sus organizaciones, sin importar si éstas son de negocios o no lucrativas. Se ha querido enfatizar que la “Teoría General de Sistemas” constituye un enfoque global desde el que se puede entender todo tipo de sistemas, entre ellos los organizacionales.

Referencias

Kast, F., & Rosenzweig, J. (1988). Administración en las oranizaciones. Enfoque de sistemas y contingencias (2a ed.). (M. A. Malfavón, Trad.) México: McGraw Hill.

Fernando Menéndez González

Universidad Iberoamericana (UIA)

EL FUTURO ES HOLOGRÁFICO

nivel 13

1413989125_124869_1414172645_noticia_normal (1)

– La investigación científica de esta tecnología explota con aplicaciones revolucionarias

“Ayúdame Obi Wan Kenobi, eres mi única esperanza”. No era la actriz Carrie Fisher repitiendo una de tantas citas legendarias de La guerra de las galaxias. Era una estudiante del MIT, vestida de princesa Leia, demostrando que transmitir en vídeo un holograma, uno de los sueños de siempre de la ciencia ficción, era ya una realidad. La cruz de la moneda que, tres años después de la experiencia, “aún recibe correos de fans. Y no le gusta. No quiere que la conozcan como la princesa Leia porque está haciendo cosas mucho más interesantes”, revela su profesor, Michael Bove (Missouri, 1960), líder de un equipo de investigación en el Media Lab del MIT.

Holograma_de_Obiwan

Más allá de la anécdota, la tecnología holográfica vive un momento dulce. Aplicaciones para la salud prometen simplificar el diagnóstico médico con dispositivos no mayores que la yema de un pulgar. En el mundo de la informática, estas esculturas de luz pueden llegar a multiplicar en un lustro la cantidad de memoria disponible en los ordenadores. En China, la compañía Takee Technologyle ganó la partida al futuro móvil de Amazon mostrando unsmartphone capaz de crear estas imágenes en 3D. Microsoft y Skype investigan cómo revolucionar la videoconferencia con holografías de los interlocutores. Y hace un par de semanas,Apple patentó un dispositivo para poder tocar e interactuar con estas imágenes.

Médicos de bolsillo

hqdefault

Se sostiene con dos dedos, porque mide apenas unos centímetros. Es un dispositivo holográfico desarrollado por un grupo de investigación de la Universidad de Cambridge que sirve para acelerar el diagnóstico médico. Su funcionamiento es similar al medidor de pH y cloro de una piscina. Se analiza un fluido, la orina del paciente por ejemplo, y el ingenio genera un patrón de color que devuelve en solo tres minutos un holograma que cambia de color cuando entra en contacto con la sustancia que se desee medir, glucosa en el caso de esta investigación.

“Usamos nuevos materiales como hidrogeles de metacrilato que reaccionan a la sustancia química que queramos. Podría ser cualquier tipo de aplicación clínica donde se requieran pruebas de orina o de sangre”, afirma Ali K. Yetisen (Izmir, 1986), encargado de fabricar estos dispositivos en el grupo de investigación de biotecnología que dirige el profesorChristopher R. Lowe. La otra clave son los láseres de alta energía que permiten ahorrar mucho tiempo en crear un holograma: “Si antes llevaba unos 10 pasos, nosotros podemos hacerlo en un par”. El tiempo para que estos aparatos pudieran salir al mercado, “de cinco a 10 años”, porque la verificación de los diagnósticos en humanos y ensayos clínicos son un proceso arduo y riguroso.

Dispositivo holográfico de diagnóstico médico de la Universidad de Cambridge que altera su color al contacto con una sustancia en concreto de un fluido, por ejemplo: la glucosa.

Memoria inabarcable

Mientras el ordenador cuántico no llega, la holografía puede ofrecer también una revolución para la memoria informática. Al contrario que el almacenamiento magnético y óptico, que guardan los datos en una superficie, esta técnica permite guardar los datos en un volumen. El problema es que un láser tiene que leer esta información desde un determinado ángulo.

Un equipo de investigación de la Universidad de California de Riverside ha encontrado una manera de combinar el almacenamiento magnético y holográfico para revolucionar la capacidad de ordenadores y discos duros. El sistema, bautizadoMagnonic Holographic Memory, se queda con el almacenamiento electrónico convencional, pero usando un tipo de ondas, las spin, que operan a una longitud mucho menor. De la holografía coge esa capacidad de guardar datos en 3D. “Si conseguimos refinar la técnica, según nuestras estimaciones de la onda más pequeña que podríamos usar [en torno a cien nanómetros, la diezmillonésima parte de un milímetro], seremos capaces de meter un terabyte en un centímetro cuadrado”, afirma Alexander Khitun, líder de esta investigación. Comparado con un disco duro portátil actual, esta capacidad multiplicaría por 31 la tecnología existente.

El prototipo de circuito holográfico y convencional integrado del profesor Alexander Khitun de la Universidad de California de Riverside.

Las ventajas de contar con este trabajo en paralelo de ambos sistemas tienen, según Khitun, múltiples aplicaciones: “Por ejemplo, el reconocimiento facial es algo que por el volumen de datos que maneja le cuesta mucho a los ordenadores convencionales. Una computadora que tuviera integrado un sistema holográfico podría dedicarlo a esas tareas que a la electrónica tradicional le son demasiado costosas”.

El prototipo de momento no llega al objetivo. En un circuito de dos bits, el grupo de Khitun ha conseguido encerrar ondas de una longitud de 10 micrómetros, es decir, cien veces más amplia que el ideal que permitirá alcanzar ese terabyte por centímetro cuadrado. “Hay muchos desafíos tecnológicos aún que resolver, pero creo que siendo optimistas podemos esperar tener un prototipo funcional en cinco años”. Michael Bove, investigador del MIT, es más conservador en la viabilidad económica e industrial de este tipo de investigación: “El problema de la memoria holográfica es que en esos cinco o 10 años en que se refine un modelo experimental, la tecnología convencional puede haber evolucionado hasta hacerla obsoleta o inviable por los costes de fabricación”.

La revolución del ‘holovídeo’

Las imágenes estáticas holográficas ya son posibles. Pero esas ilusiones tridimensionales e interactivas que ha recreado Hollywood en superproducciones como Prometheus o Iron Manaún tienen mucho trecho por delante. El Media Lab del MIT es puntero en conseguir video holográfico. En 2011, conseguir plasmar muy rudimentariamente a una falsa Princesa Leia. Ahora han llegado a proyectar en el espacio a una resolución aún baja: 640×480 píxeles.

Una mariposa holográfica en la tecnología de vídeo del MIT. La resolución es de 640×480 píxeles.

“Para que un holograma se mueva, para tener vídeo en alta definición, necesitamos hacer los píxeles mucho más pequeños. Tan pequeños como para meter unos 2.000 en un milímetro cuadrado”, explica Michael Bove, director de un grupo de investigación en el Media. Y hay otros desafíos: “Nuestras pantallas de momento son como las de las teles antiguas, cajas. Estamos refinando la tecnología para conseguir que sean planas”.

Pero el equipo de Bove ya ha conseguido vislumbrar ese futuro: “Mis estudiantes han logrado ya hologramas para una pantalla del tamaño equivalente a unsmartphone. De ahí a una televisión holográfica que usar en casa queda mucho. Tal vez unos 10 años para que podamos ver las primeras aplicaciones comerciales”. Pero por mucho que prometa la tecnología, el sueño de ver a Leia flotando en el aire desde cualquier ángulo aún no está resuelto. Porque todo holograma conocido se proyecta desde una pantalla. Es decir, que Leia, vista desde el lugar equivocado, sería solo una voz suplicando: “Ayúdame Obi-Wan Kenobi, eres mi última esperanza”.

Fuente:

http://elpais.com

NUEVA APROXIMACIÓN AL CERO ABSOLUTO CON MOLÉCULAS MAGNÉTICAS

Un-metodo-disenado-por-fisicos-espanoles-corrige-los-errores-del-ordenador-cuantico_image_380

Investigadores del Instituto de Ciencia de Materiales de Aragón (ICMA) y otros centros internacionales han desarrollado un método para enfriar por debajo de -272,15 grados Celsius usando una molécula-imán: Gd7. Esta podría sustituir al escaso y caro helio-3, empleado hasta ahora para alcanzar esas bajísimas temperaturas en diversas técnicas de enfriamiento.

trap_cooling temperaturas-zero-absoluto_thmwde

Más información sobre:
cero absoluto
helio-3
Gd7
magnetismo
1 / 1

Estructura de Gd7(OH)6 y su posición en una red. / E.Palacios-M.Evangelisti et al.

Un equipo internacional de investigadores, con científicos del Instituto de Ciencia de Materiales de Aragón (ICMA, CSIC-Universidad de Zaragoza), ha logrado por primera vez enfriar por debajo de -272,15 grados Celsius (justo por encima del cero absoluto que es -273,15 ºC) utilizando moléculas magnéticas. El estudio se ha publicado en la revista Nature Communications.

Según los autores, el hallazgo puede revolucionar las técnicas de enfriamiento empleadas en aparatos de resonancia magnética, satélites o licuadores de hidrógeno y gas natural (imprescindible para su transporte) entre otras muchas utilidades, reduciendo además notablemente su coste.

Es la primera vez que se logra enfriar a menos de un grado Celsius del cero absoluto utilizando moléculas magnéticas

Para este trabajo, el equipo ha desarrollado una innovadora y eficaz técnica de ‘enfriamiento sub-kelvin’, basada en el uso de la molécula-imán Gd7, compuesta por gadolinio (Gd) y otros elementos. Esta tiene un magnetismo que triplica al del hierro, con una estructura parecida a la de un copo de nieve y unas peculiaridades en su comportamiento que hacen doblar la eficiencia de los métodos utilizados hasta ahora basados en el isótopo helio-3.

Sin embargo, el gas refrigerante helio-3 no existe en la naturaleza, se produce artificialmente en reactores nucleares y en 2012 rondaba los 5.000 € por gramo. Se calcula que en todo el mundo solo hay unos 30 kilos y quien tiene helio-3 no lo vende, por lo que se podría decir que no hay mercado.  Además, al ser un gas termina por fugarse a la atmósfera siendo imposible recuperarlo.

Un gramo de Gd7 producido en laboratorio no cuesta más de 100 euros, se puede sintetizar en grandes cantidades e incluso el precio bajaría mucho si se generase de forma industrial.  Es un sólido que no se pierde ni se estropea y su eficiencia es el doble que la del gas: para conseguir la misma refrigeración se gasta la mitad de energía.  Incluso duplica la eficiencia de los sistemas y prototipos actuales de enfriamiento magnético a bajas temperaturas que utilizan otros materiales conocidos hace ya 20 años.

Colaboración europea

El profesor Elias Palacios y el doctor Marco Evangelisti han desarrollado en los laboratorios de bajas temperaturas del ICMA, un sistema original de medida que permite observar de modo directo, y verificar experimentalmente, las propiedades refrigerantes del Gd7.  Una técnica novedosa que consigue mayor precisión que las medidas magneto-térmicas convencionales, que se limitan a estimaciones indirectas.

Por su parte, el profesor Eric J. L. McInnes y su grupo de investigación de la Universidad de Manchester (Reino Unido) fueron quienes lograron sintetizar la compleja molécula Gd7. Y las simulaciones por ordenador del grupo del profesor Jürgen Schnack, de la Universidad alemana de Bielefeld, muestran que la disminución gradual del campo magnético aplicado hace que esta molécula primero se enfríe, a continuación se caliente y finalmente vuelva a enfriarse hasta alcanzar una temperatura mínima, muy cercana al cero absoluto en la escala Kelvin. Este comportamiento complejo difiere y mejora el rendimiento del helio-3 y ha sido verificado experimentalmente en el ICMA.

000000

Referencia bibliográfica:

Joseph W. Sharples, David Collison, Eric J.L. McInnes, Jürgen Schnack, Elias Palacios, Marco Evangelisti.“Quantum signatures of a molecular nanomagnet in direct magnetocaloric measurements”.Nature Communications, 2014.

Zona geográfica: España
Fuente: SINC
Fuente original:

¿UN CÓDIGO GENÉTICO OCULTO?

solapado2pln

20 octubre 2014

El código genético es el conjunto de reglas que permiten traducir una secuencia de nucleótidos, presente en el ARN, en la secuencia de aminoácidos de una proteína. Esta traducción es posible porque cada aminoácido se encuentra codificado por tres nucleótidos concretos a los que llamamos codón. Es un código casi universal, que funciona en todos los seres vivos conocidos. Un código no exento de complejidad pues al traducirlo no cambiamos sólo de idioma, sino incluso de sintaxis. Se pasa de un lenguaje de cuatro letras, las correspondientes a los diferentes nucleótidos que componen el ARN, a otro de veinte, los distintos aminoácidos proteicos.

johann_gregor_mendelpost

Una de las características más llamativas de este código genético es que esdegenerado yredundante. Esto quiere decir que la mayor parte de los aminoácidos son codificados por más de un codón. Hay 61 codones para sólo 20 aminoácidos… Es decir, hay codonessinónimos, que portan la misma información. Tradicionalmente, se consideraba que las mutaciones sinónimas no tenían ninguna trascendencia biológica dado que no alteraban la naturaleza del aminoácido codificado. Se hablaba demutaciones silenciosas. Este panorama, sin embargo, ha cambiado drásticamente a lo largo de los últimos diez años. Hoy sabemos que la degeneración del código genético influye en procesos como el control y coordinación de la expresión de genes o el correcto plegamiento de las proteínas. Hasta el momento, más de cincuenta enfermedades humanas han sido ya relacionadas con la existencia de mutaciones sinónimas, por ejemplo.

genotipo

Está completamente demostrado que las células no utilizan de forma indistinta los codones sinónimos. Existe una clara preferencia en función de las especies y de las circunstancias metabólicas en las que la traducción tenga lugar. Se dice que el código genético estásesgado; hay codones preferidos. Todo indica, por tanto, que existe una información adicional, más allá de la mera traducción. Una información que debe estar presente de alguna forma en el ADN y/o en el ARN mensajero (ARNm), la molécula encargada de trasladar la información codificada en los genes a losribosomas, las nanomáquinas que producen las proteínas. Una información que constituye un auténtico código genético oculto, que porta una información no explícita que sólo ahora se está empezando a vislumbrar. Un código que ejerce su influencia en la toma de decisiones acerca de cuándo y cómo se lee cada gen, cada secuencia de ADN o ARN, y no sólo en lo que sería la traducción directa de nucleótidos en aminoácidos. Un código que no afecta a la transmisión de la información propiamente dicha, sino a las reglas que la regulan. A cómo y cuándo se transcribe la información almacenada en el genoma.

codigo-genético-960x623

Según se va avanzando en el entendimiento de este nuevo código, surgen más y más evidencias de que la complejidad de un organismo no radica en su número de genes, como inicialmente se pensó, sino en suregulación. Es este avance el que permite explicar la sorpresa inicial que supuso descubrir que el genoma humano, el del organismo que creíamos como el más complejo, tuviese escasamente veinte mil genes. Un organismo aparentemente tan anodino como el arroz puede tener más del doble, por ejemplo. Un organismo que ni siquiera piensa… Y efectivamente parece ya también claro que este código genético no explícito puede influir poderosamente en esta regulación, especialmente controlando la expresión de los genes y la velocidad de la traducción del ARN en proteínas.

Simplificando un tanto, se puede decir que el control de la expresión de los genes se ejerce a través de la acción de una gran variedad de proteínas, que conocemos como factores de transcripción, que modulan precisamente la conversión del mensaje de ADN en ARN. Se habla detranscripción porque se utiliza un lenguaje casi idéntico, en el que sólo cambia una de las letras utilizadas, uno de los nucleótidos. La regulación la ejercen uniéndose, o no, a regiones concretas del ADN que actúan como auténticos interruptores que encienden, o apagan, la expresión de genes. Una mutación sinónima en una de estas regiones no cambiaría la naturaleza del aminoácido codificado, pero sí la de la secuencia de ADN que contiene dicho codón, haciéndola más o menos reconocible por el correspondiente factor. Es decir, podría cambiar drásticamente la cantidad y naturaleza de las proteínas producidas, conduciendo a la aparición de patologías originadas por fallos en la regulación de la transmisión de la información del código, aunque no en el contenido literal de la misma.

bioteknologia

El otro aspecto, la velocidad a la que los ribosomas producen las proteínas, influye tanto en la fidelidad del proceso como en su correcto plegamiento. Un ribosoma que vaya demasiado rápido, o demasiado despacio, cometerá más errores. Los ribosomas, por otra parte, lo que sintetizan son cadenas lineales de aminoácidos que para ser funcionalmente activas tienen que plegarse en forma de estructuras tridimensionales concretas, que se denominan conformaciones nativas. Variaciones en esta velocidad influyen, a su vez, en la cinética del plegamiento y pueden conducir a conformaciones erróneas, no funcionales. Es decir, existe una velocidad óptima de producción para cada proteína. Cuando la proteína es muy grande, el propio ribosoma produce pausas para favorecer este correcto plegamiento. Ya se sabe que la secuencia del ARNm influye decisivamente en la velocidad a la que actúa el ribosoma a través de la formación de pequeñas estructuras, resultantes de interacciones entre nucleótidos, y de la disponibilidad de otras moléculas de ARN, los ARN de transferencia (ARNt), que son los que transportan el aminoácido correcto para cada codón concreto. Por un lado, un cambio sinónimo en un codón puede, por tanto, alterar la estructura del ARNm, haciendo que varíe la velocidad a la que lo lee el ribosoma. Por otro, puede cambiar la disponibilidad de los ARNt. Normalmente, los codones sinónimos más frecuentes se corresponden también con los ARNt más abundantes. Si una mutación sinónima produce un codón poco frecuente, la disponibilidad del ARNt correcto será menor y, por ello, la velocidad de traducción disminuirá, pudiéndose alterar la conformación final de la proteína.

En definitiva, este nuevo código genético oculto, regulador, no explícito, que sólo ahora estamos empezando a comprender, nos permite volver a situarnos en el centro del Universodel que parecíamos haber sido desplazados por los resultados iniciales del Proyecto Genoma Humano.Tenemos pocos genes, pero su regulación es compleja.Presumiblemente, extremadamente compleja en organismos tan importantes como nosotros… Nuestra visión antropocéntrica de la Naturaleza queda así temporalmente a salvo. Veremos hasta cuándo.

Bibliografía recomendada

Hunt RC, Simhadri VL, Iandoli M, Sauna ZE, Kimchi-Sarfaty C (2014)Exposing synonymous mutations. Trends in Genetics 30, 308-321.

Ivanova NN, Schwientek P, Tripp HJ, Rinke C, Pati A, Huntemann M, Visel A, Woyke T, Kyrpides NC, Rubin EM (2014) Stop codon reassignments in the wild. Science 344, 909-913.

Martínez del Pozo, A. (2010) ¿Estaba Christian Anfinsen en lo cierto? Anales de la Real Sociedad Española de Química 106, 96-103.

Weatheritt RJ, Babu MM (2013) The hiden codes that shape protein evolution. Science 342, 1325-1326.

Álvaro Martínez del Pozo

Profesor e investigador, Universidad Complutense de Madrid

Fuente:

http://www.bbvaopenmind.com

MATEMÁTICAS PARA “LEER” EL ARTE

OpenMind-manuel-de-leon-Matematicas-para-un-mundo-sostenible NikeSavvas1

Si hubiera que elegir una sola palabra para caracterizar el trabajo de Ingrid Daubechies, bien podría ser “interdisciplinariedad”. Esta catedrática de laUniversidad de Duke (Estados Unidos), hoy presidenta de la Unión Matemática Internacional (IMU), comenzó su carrera como física teórica e inicio una transición hacia las matemáticas motivada por la gran necesidad de nuevas herramientas de este tipo de la que adolecía su disciplina de origen. En el año 2012 recibió el Premio FBBVA Fronteras del Conocimiento por sus trabajos en ondículas, que ha sido aplicado, por ejemplo, al estándar de compresión de imágenes JPEG 2000.

“El análisis de imagen puede usarse para distinguir el trazo de un artista”

Cuando-Dali-conocio-a-Freud_image800_

Daubechies se deja llevar por el interés que le suscitan problemas de otras áreas, como el arte: “Alguien llamó mi atención sobre el hecho de que el análisis de imagen puede usarse para distinguir el trazo de un artista” y comprobar, por ejemplo, la autenticidad de una obra.

El ultimo trabajo que ha llevado a cabo, y sobre el que hablará en su conferencia en AIMS 2014, trata precisamente sobre ello. Daubechies y, junto a otros sus colaboradores de laUniversidad de Bruselas (Bélgica) y elMuseo de Arte de Carolina del Norte (Estados Unidos),han desarrollado un algoritmo que permite visualizar los trazos originales de los artistas a través de rayos X, lo que permite conocer mejor la técnica utilizada, las condiciones de elaboración de la pintura y el estado de conservación.

Entre los siglos XII y XVII, los artistas europeos pintaban en tableros de madera. Posteriormente, en los siglos XIX y XX, los conservadores adelgazaron estos tableros y colocaron un bastidor, ya inseparable de la obra, para prevenir posibles daños. Estos bastidores, sin embargo, dificultan el estudio de la obra original a través de rayos X, una técnica muy utilizada actualmente para estudiar las condiciones de la pintura.

Hasta ahora era posible eliminar la imagen del bastidor de la obtenida con rayos X de manera manual, si bien se trataba de una tarea complicada que se podía llevar a cabo tan solo en un número limitado de obras pictóricas. Los investigadores pensaron que una forma mas automatizada seria de gran ayuda para los conservadores de los museos. Los resultados obtenidos han resultado ser satisfactorios, y semejantes a las técnicas empleadas hasta la fecha. Y es que las matemáticas y el arte caminan de la mano en más ocasiones de las que pensamos.

Este texto es un extracto de un reportaje original de Lorena Cabeza para el ICMAT. Puedes encontrar el texto completo aquí.

aproximarsetextofilosofico_openmind

Instituto de Ciencias Matemáticas (ICMAT)

Centro mixto de investigación matemática formado por el Consejo Superior de Investigaciones Científicas (CSIC) y tres universidades de Madrid: la Autónoma (UAM); Carlos III (UC3M); y Complutense (UCM).

Fuente:

http://www.bbvaopenmind.com

DOMADORES DE BACTERIAS

1 800px-Ricci_Sebastiano_-_The_Resurrection_-_Google_Art_Project 2201_10_461a7839d22ba

– Un trasplante de bacterias podría convertirse en alternativa a tratamientos convencionales como los antibióticos gracias al trabajo de los ecólogos microbianos

DANIEL MEDIAVILLA   2 OCT 2014

La bacteria E. coli colabora en los procesos digestivos / ERIC ERBE

En unos miles de años, los humanos han logrado colonizar la Tierra, pisar la Luna e incluso provocar un cambio climático a escala planetaria. No está mal para un primate, pero quien crea que estos logros nos hacen dueños del mundo necesita un microscopio. La humanidad ha llegado lejos, pero los microorganismos son capaces de colonizar desde abismos marinos con presiones insoportables hasta lagunas de ácido corrosivo. Y aunque su tamaño es minúsculo, su poder es inmenso.

Pese al nefasto impacto de muchas actividades humanas sobre la biodiversidad, incluso en capacidad de destrucción aún somos principiantes comparados con algunos microbios. Hace 252 millones de años, un microorganismo llamado Methanosarcina estuvo a punto de acabar con la vida en la Tierra. Desde su hogar en el océano, estas arqueobacterias comenzaron a reproducirse a una velocidad vertiginosa inyectando en la atmósfera una cantidad ingente de metano. El gas produjo un intenso calentamiento global y elevó los niveles de acidez del océano hasta un punto insoportable para la mayor parte de los seres vivos. El 90% de las especies marinas y el 70% de los vertebrados terrestres se extinguieron.

Los trasplantes de heces se empiezan a emplear para combatir peligrosas infecciones

bacteria_cell agujero

Los microorganismos, por suerte, casi nunca son dañinos. De hecho, muchos de ellos son necesarios para la vida humana. Nueve de cada diez células de nuestro organismo pertenecen a las bacterias que nos colonizan y son esenciales para la vida. En los últimos años, el conocimiento de este ecosistema microscópico ha revelado que estudiarlo y aprender a gestionarlo puede tener grandes aplicaciones en campos como la salud.

“Hasta hace poco, en medicina, solo se daba importancia a los microorganismos que provocaban enfermedades”, explica Jordi Urmeneta, investigador en ecología microbiana de la Universidad de Barcelona. “Pero ahora sabemos que muchas bacterias intervienen en la digestión de alimentos, en producción de proteínas o en la modulación de sistema inmune, y hemos visto que para muchas enfermedades, en lugar de buscar el origen en la persona en sí, se ha de buscar en los microorganismos que lo habitan”, añade.

Un ejemplo de lo que supone este nuevo enfoque para tratar la salud lo ofrece Bernat Ollé, director de operaciones de Vedanta Biosciences, una empresa en la que trabajan para desarrollar tecnologías con las que modular el ecosistema microbiano. “Ahora, cuando vas a un hospital, te suelen dar antibiótico por sistema. Este antibiótico se carga tu flora intestinal, y cuando los microorganismos que forman el ecosistema natural de tu intestino desaparecen o pierden diversidad facilitan la entrada de bacterias como Clostridium difficile“, apunta Ollé.

Algunos microbios han llevado al borde de la extinción a la vida en la Tierra

1221438185146_f 4281999142

Después, la C. difficile, que causa diarreas graves, secreta una toxina que provoca la inflamación del intestino y sigue dañando a las bacterias beneficiosas que viven en ese ecosistema. “Cuando creas este problema con el antibiótico, lo que sueles hacer es intentar resolverlo atacando a esa bacteria con otro antibiótico. A veces, consigues eliminarla, pero vuelves a dejar al organismo vulnerable en un entorno donde estas bacterias están cerca. Si hay una nueva infección, el antibiótico será menos eficaz y después de varias recaidas algunos infectados acaban muriendo”, cuenta Ollé.

El tratamiento que se propone desde la ecología microbiana consiste en ayudar a las bacterias benéficas del intestino en su guerra contra la C. difficile en lugar de bombardear con antibióticos y aniquilar a amigos y enemigos. Para hacerlo, es necesario introducir heces con las bacterias buenas a través del ano para restablecer el equilibrio. “Tras un incendio, los pinos pueden crecer más rápidos que las encinas o los robles autóctonos y acaban con la diversidad. Lo que hacemos con las bacterias es como una reforestación con especies autóctonas”, ejemplifica.

Daniel Ramón, director de la empresa Biópolis, ha coincidido junto a Ollé en el encuentro biotecnológico Biospain, en Santiago de Compostela, para hablar de estos nuevos enfoques terapéuticos. Este investigador del CSIC convertido en empresario suele mencionar otra aplicación de la ecología microbiana. “La gente cree que las fertilizaciones in vitro fallan porque el óvulo no prende o porque hay problemas con el esperma, pero la razón más frecuente es que la mujer contrae una infección por bacterias en la vagina”, explica.

Cuando se diseña un fármaco no se piensa en la persona como ecosistema

uesc_02_img0069 trecool-Martin-Oeggerli-03

Todas las mujeres tienen patógenos que son habitantes naturales de la vagina, pero en concentraciones muy bajas. Junto a ellas, como parte de ese ecosistema microbiano, viven muchos lactobacilos, unas bacterias con efecto positivo que mantienen el entorno saludable. Sin embargo, si por algún cambio hormonal durante el ciclo menstrual, por efectos de un tratamiento anticonceptivo o por el contacto con el preservativo, cambia el nivel de acidez en ese hábitat, los patógenos pasan a dominar. Como en el caso de la infección por Clostridium, la intervención tradicional para resolver esta crisis consiste en aplicar antibióticos y como en el caso anterior, los patógenos sufren, pero las bacterias buenas, también. La alternativa de fortalecer la posición de los lactobacilos sería una vez más una aplicación de la ecología microbiana que puede mejorar los resultados.

Microbios y linces

“Los humanos llevamos siglos practicando la ecología microbiana, aunque sin darnos cuenta”, afirma Carlos Pedrós-Alió, profesor de investigación en el Instituto de Ciencias del Mar de Barcelona (CSIC). “Cuando creamos unas condiciones determinadas para conservar los alimentos, o para fermentar un cereal o una fruta y producir cerveza o vino, estamos creando un entorno favorable para que se desarrollen o no las bacterias responsables de esos procesos”, añade.

Llevamos siglos practicando la ecología microbiana, aunque sin darnos cuenta”, dice Pedrós-Alió

y_chromosome_wide-1764x700

Sobre las posibilidades de la ecología microbiana para transformar la forma de hacer frente a los problemas de salud o incluso a los medioambientales, Pedrós-Alió es optimista sobre el potencial, pero advierte que “estamos empezando”. Hasta ahora, los científicos que se interesaban por entender lo que sucedía en los los ecosistemas de microbios no podían poner una cámara como las que se emplean para estudiar el comportamiento de animales como los linces o los osos. Cuando se miraba por un microscopio, solo se observaba un maremagnum del que resultaba complicado obtener conclusiones interesantes. Ahora, “gracias a las técnicas de secuenciación masiva y a la genómica podemos empezar a ver el paisaje”, cuenta el microbiólogo.

Una vez que los microbios se han hecho visibles, los domadores de bacterias se enfrentarán a los problemas de los ecólogos de bichos grandes. Reintroducir un animal en un ecosistema del que había desaparecido hace tiempo puede provocar problemas inesperados en un entorno que ya había realizado sus ajustes para superar la pérdida.

Además, el desconocimiento de los microorganismos que viven en nuestro interior sigue siendo inmenso. Se sabe que entre 1.500 y 3.000 especies de bacterias distintas nos habitan y solo somos capaces de cultivar unas 80. “La mayor parte de los estudios sobre microbiota intestintal [los microorganismos que viven en nuestro intestino] se hace a partir de las heces, y aún más importante es conocer las bacterias que están pegadas a las paredes del estómago, pero para conseguirlo es necesario hacer biopsias y eso complica la tarea”, apunta.

“Si trabajas con animales grandes y quieres saber qué pasa si quitas al león porque quieres que haya más cebras, puedes ir con un rifle y cargarte a todos los leones, porque saben dónde están”, explica el investigador. “Pero en tu intestino tienes miles de bacterias interactuando entre ellas, unas se inhiben a otras, otras están en la pared intestinal, no sabemos cuáles son las cebras y cuáles los ñus… Hay un entorno muy complejo y, por ejemplo en el caso de la enfermedad de Crohn, solo sabes que tienes más bacterias de un tipo que de otro, pero no sabes realmente lo que está pasando”, concluye.

Cuando la investigación básica permita reducir lo suficiente lo que se ignora sobre nuestro ecosistema microbiano, será posible plantearse un cambio en la forma de enfocar los tratamientos médicos. “Hasta ahora, cuando las farmacéuticas diseñaban un fármaco, no pensaban en las personas como ecosistemas sino solo en dianas terapéuticas sobre las que lanzar un medicamento”, afirma Ollé. “Eso es un planteamiento muy reduccionista y la mayor parte de enfermedades son multiparamétricas”, añade. La aplicación masiva de este enfoque a la salud, aún requerirá tiempo e inversión para que los ecólogos microbianos alcancen su ambicioso objetivo: poner a nuestro servicio a los seres más poderosos de la Tierra.

Fuente:

http://elpais.com

LA PROTEÍNA LKB1 PREDICE EL RIESGO EN CÁNCER DE PIEL

images neuro100

PORTADA = LA NOTICIA DEL DÍA

PUBLICADO EN PLOS GENETICS

Los niveles bajos de LKB1 se han asociado a una peor reparación del ADN dañado por radiación ultravioleta.

Karla Islas Pieck. Barcelona | karla.islas@diariomedico.com   |  17/10/2014 00:00

Imágenes de piel de ratones

Imágenes de piel de ratones con niveles bajos de la proteína LKB1 en la que se puede apreciar la división anómala de las células después de estar expuesta a radiación con rayos ultravioleta (UVB). (VHIR)

El nivel de la proteína LKB1 se postula como un marcador que indica el riesgo de desarrollar cáncer de piel, ya que esta proteína desempeña un papel esencial en el proceso de reparación del ADN dañado por la radiación ultravioleta, según se desprende de los resultados de un estudio dirigido por Juan Ángel Recio, del grupo de Melanoma del Valle de Hebrón Instituto de Investigación (VHIR).

El trabajo, que publica la revista PLoS Genetics, ha puesto en evidencia que los niveles bajos de LKB1 inciden de forma negativa en el proceso de regeneración y de muerte celular y favorecen la formación de tumores y, en concreto, el desarrollo de melanoma o cáncer de piel. Se trata de un “sensor” del daño, que si no está disponible y funciona con normalidad aumenta el riesgo de desarrollar esta enfermedad, ha explicado Recio a Diario Médico.

Los investigadores trabajaron con un modelo animal de melanoma que consiste en ratones transgénicos con el gen HGF alterado que desarrollan cáncer de piel al exponerse a radiación ultravioleta. A estos animales se les inactivó una de las dos copias de LKB1 y se les expuso a una sola dosis fisiológica de radiación ultravioleta poco después de nacer, lo que sería equivalente a la que recibiría un niño sin protección expuesto al sol en pleno verano durante unas tres horas.

Según los resultados, los animales con esta alteración genética desarrollaron, en tan solo un mes, un carcinoma de células escamosas de la piel asociado a un defecto de la reparación del ADN dañado. Este tipo de tumor se asocia al daño crónico por radiación solar y en este tipo de modelos animales suele aparecer al cabo de seis meses. Los datos han sido replicados en otros dos modelos animales de melanoma que se harán públicos en breve, ha adelantado Recio.

El próximo paso de este grupo de investigación consistirá en evaluar el uso de la proteína LKB1 como factor pronóstico del riesgo de cáncer de piel asociado a la radiación solar, especialmente en las familias con historial de la enfermedad. También están investigando los diferentes factores capaces de alterar la expresión de LKB1.

agujeros-de-gusano

Análisis de muestras tumorales

Después de estudiar la función de la proteína LKB1 en los modelos animales de ratones transgénicos, el grupo de Juan Ángel Recio analizó muestras de pacientes con cáncer de piel y detectó que en la mitad de los casos los tumores mostraban poca o ninguna expresión de LKB1 en todas las fases de la patología. Esto se pudo observar especialmente en las áreas de la piel que están más expuestas al sol, como la frente o la nariz. Según Recio, el hallazgo sugiere que la pérdida de expresión de esta proteína ocurre de forma precoz y que muy probablemente está implicada en el proceso de desarrollo del cáncer de piel que aparece como consecuencia de la exposición a la radiación ultravioleta.

Fuente:

http://www.diariomedico.com