-
Desentrañando las estrategias metabólicas que mantienen el cáncer “en forma”
Arkaitz Carracedo (1) (2) (3) (4) (1) CIC bioGUNE, Bizkaia Technology Park, 801a bld., 48160 Derio, Bizkaia, Spain. (2) CIBERONC.(3) Ikerbasque, Basque foundation for science, 48011 Bilbao, Spain.(4) Biochemistry and Molecular Biology Department, University of the Basque Country (UPV/EHU), P. O. Box 644, E-48080 Bilbao, Spain.La investigación ilumina un camino incierto cuando se trata de la salud y la enfermedad. Durante toda nuestra existencia los seres humanos hemos tratado de doblegar las leyes de la naturaleza que controlan la cantidad de vida de que disponemos. La investigación ha sido y es nuestra herramienta para retrasar el envejecimiento y la muerte. En este siglo, nos enfrentamos a grandes retos que determinarán cuanto y como vivimos: las enfermedades neurodegenerativas, las bacterias super-resistentes y el cáncer, entre otros. En este contexto, la investigación biomédica y el contacto fluido entre academia, industria y clínica son los medios fundamentales de que disponemos, y que tenemos que explotar de un modo inteligente.Uno de los aspectos biomédicos que ha renacido en este siglo es el de la investigación sobre el metabolismo del cáncer. Su relevancia clínica puede ser debatible en cuanto a su aplicación clínica, pero una breve mirada al pasado basta para ponernos en perspectiva. El metotrexato es un fármaco que se utiliza en la actualidad como antitumoral e inmunosupresor. Su origen se remonta a la década de los 50 del siglo pasado, a partir de investigaciones lideradas por el Dr. Sidney Farber. Este compuesto presenta dos características que justifican su importancia en la historia de investigación en cáncer: Ser una de las primeras quimioterapias implantadas en la clínica para el tratamiento del cáncer, y ser una de las primeras estrategias terapéuticas basadas en la manipulación del metabolismo de células tumorales. El metotrexato es un análogo del ácido fólico, un antimetabolito. Su desarrollo se basó en la observación de que el ácido fólico empeoraba el pronóstico de pacientes con leucemia. Aunque su mecanismo de acción se desconocía cuando se desarrolló, hoy sabemos que la inhibición del ciclo del folato bloquea la producción de intermediarios metabólicos (como el tetrahidrofolato) que son requeridos para la síntesis de ácidos nucleicos. Este fármaco representa la primera demostración del potencial terapéutico de manipular el metabolismo del cáncer. “Los avances tecnológicos y la investigación oncológica nos permiten hoy aplicar a la clínica conceptos que en el pasado se consideraban observaciones aisladas” El segundo ejemplo emana de las investigaciones del premio Nobel Dr. Otto Warburg. El Dr. Warburg reportó en 1927 que las células tumorales presentaban un metabolismo anómalo, dado que exhibían una preferencia para el metabolismo anaeróbico de la glucosa incluso en presencia de oxígeno. El dogma instaurado hasta entonces a partir del estudio de células no tumorales establecía que éste era un proceso de adaptación a la ausencia de oxígeno, mientras que en presencia del mismo las células debían maximizar el rendimiento energético del nutriente a través de su oxidación completa en la mitocondria. Por ello, el Dr. Warburg hipotetizó que dicho comportamiento metabólico radicaba en la incorrecta función mitocondrial de células tumorales. Hoy en día entendemos con mayor detalle, aunque no en su totalidad, el fundamento del denominado “efecto Warburg” o la glicólisis en presencia de oxígeno. Pero más importante aún, los estudios de Warburg impulsaron el desarrollo de una metodología que hoy está instaurada en la mayoría de nuestros hospitales: el FDG-PET. De los estudios de Warburg se dedujo que, para mantener el equilibrio energético, las células tumorales debían incrementar en órdenes de magnitud el aporte de glucosa. Esto se ha traducido en un modo de “iluminar” el cáncer. El FDG es un análogo de glucosa modificado para adquirir dos propiedades: que no se metabolice en la glicolisis y que incorpore un isotopo radiactivo (18F) para su visualización por tomografía de emisión de positrones (PET). Con estas propiedades, el FDG administrado en pacientes permite detectar masas tumorales tras un PET, debido a la propiedad que tienen estas células de “comer” más glucosa (algo que también hace el cerebro y el corazón, y por ello estos órganos no son aptos para el uso de este método). Con estos dos antecedentes, no cabe duda de que la comprensión y el estudio del metabolismo del cáncer puede dar lugar a nuevas estrategias para detectar y tratar la enfermedad. En los últimos años, la investigación que realizamos en CIC bioGUNE ha arrojado luz sobre diversos aspectos del metabolismo del cáncer, que desarrollamos a continuación (Figura 1). La gasolina del cáncer de próstata. El cáncer de próstata presenta la mayor incidencia entre los tumores de los hombres, y, a pesar de su alta tasa de curación, ocasiona un número de muertes al año que cuadruplica el ocasionado por accidentes en carretera en España. Cuando preguntamos acerca de la problemática del cáncer de próstata desde el punto de vista clínico, una cuestión prevalece: todavía no comprendemos ni sabemos identificar qué pacientes presentan un cáncer que, a pesar de no presentar características de alta agresividad, puede suponer un riesgo para su vida tras el tratamiento localizado. Con esta pregunta en mente, nos propusimos dilucidar si el metabolismo del cáncer de próstata podría proveernos dicha información. “La alimentación representa el contacto más íntimo con nuestro entorno, y por tanto, debemos considerar el impacto que tendrán en el futuro las alteraciones nutricionales y la obesidad en la biología del cáncer” En el laboratorio estudiamos el cáncer desde múltiples perspectivas que presentan diferentes equilibrios entre las posibilidades de manipulación (asignación de causa-efecto) y su cercanía a la realidad de la enfermedad. De lo “más manipulable-menos aplicable” a lo “menos manipulable-más aplicable”, disponemos de modelos celulares, modelos animales y biopsias de pacientes. Para este proyecto, quisimos ir más allá y nos propusimos minar datos provenientes de tecnologías de alto rendimiento (que miden miles de parámetros o moléculas en cada muestra) y que se encuentran disponibles en repositorios públicos. Para ello nos propusimos desarrollar herramientas bioinformáticas, para decidir a priori cual sería la ruta metabólica más prometedora para invertir nuestro tiempo y nuestros recursos. Mirando ahora en retrospectiva, soy consciente de que la decisión que tomamos en ese momento de implementar la bioinformática en el laboratorio ha cambiado el modo en el que hacemos investigación, desarrollamos proyectos y miramos el cáncer. La bioinformática nos permitió seleccionar el candidato más prometedor en base a dos criterios de selección: i) que su expresión se encontrase alterada en múltiples cohortes de pacientes y ii) que los cambios en expresión se asociasen a la progresión del cáncer de próstata. Nuestra búsqueda desembocó en un gen (PGC1A) que conocíamos por su importante papel en el metabolismo de nuestras células normales, y su contribución a enfermedades como la diabetes. Con este candidato como foco de nuestros estudios, nos propusimos acometer un paso que es fundamental en investigación: la demostración de causalidad, esto es, que los cambios de expresión de PGC1A determinaban la progresión de la enfermedad, y no eran una consecuencia de la misma. Los modelos experimentales son instrumentales para acometer este tipo de objetivos. “La investigación tiene el potencial de ser un motor de riqueza cultural y económica, pero requiere establecer un plan a largo plazo, donde potenciemos las sinergias entre los agentes implicados” En el laboratorio disponemos de ratones modificados genéticamente, en los que la manipulación de un gen en las células de la próstata, que se ve alterado en pacientes, da lugar a cáncer. Una de las limitaciones (o las oportunidades) de este modelo es que carece de capacidad metastática. Por lo tanto, nos propusimos “humanizar” el modelo experimental, manipulando la expresión de PGC1A para imitar lo que sucede en muestras de pacientes. Los resultados fueron espectaculares: la manipulación de nuestro regulador metabólico en el ratón que desarrolla cáncer de próstata promovió la progresión de la enfermedad a metástasis, lo que confirmaba nuestra sospecha de que el metabolismo es un factor importante en la progresión del tumor, y nos daba una nueva herramienta que trasladar a la clínica. Tras un arduo trabajo en diversos modelos experimentales, Verónica Torrano y Lorea Valcárcel pudieron desengranar el mecanismo mediante el cual PGC1A inhibe la metástasis del cáncer de próstata. Este regulador promueve un estado metabólico que aumenta el rendimiento energético a partir de glucosa y ácidos grasos a expensas de la generación de biomasa. Es por tanto un inhibidor del efecto “Warburg”. Complementariamente, cuando las células tumorales de próstata reducen la expresión de PGC1A entran en un “modo metabólico proliferativo” que creemos que soportará el crecimiento de la masa tumoral una vez las células anidan en un tejido secundario, originando una metástasis. “La investigación de primer nivel requiere hacer apuestas por proyectos e ideas arriesgadas, considerando que las revoluciones en ciencia biomédica radican en el éxito de tan sólo un pequeño porcentaje de éstas” El estudio que culminó con la complementación perfecta de observaciones clínicas con una explicación mecanística carecía aún del potencial de impactar en la decisión del urólogo para poder identificar de un modo más eficaz aquellos pacientes con mayor riesgo de padecer una enfermedad molecularmente agresiva. Nos planteamos que, dado que PGC1A regula programas de expresión génica, sería factible que pudiéramos construir una firma genética que informase sobre la actividad de este regulador, y en consecuencia sobre la agresividad del tumor. El refinamiento bioinformático nos permitió construir dicha firma y demonstrar que efectivamente ese era el caso, y nos inspiró a aplicar modelos matemáticos más sofisticados que en la actualidad estamos tratando de traducir en un biomarcador de agresividad de cáncer de próstata. El aceite que lubrica el motor de los tumores. Las investigaciones que parten del estudio de muestras biológicas de pacientes requieren de una precisa estimación de la variabilidad interindividual que puede influir en la robustez de los datos obtenidos y, por lo tanto, la relevancia de las conclusiones alcanzadas. Para circunvenir esta limitación, nos aliamos con una empresa farmacéutica (AGIOS Pharmaceuticals) y propusimos explotar el potencial de nuestro modelo experimental murino de cáncer de próstata para analizar las fases tempranas de la enfermedad de un modo más robusto y reduciendo la variabilidad. Un análisis metabolómico reveló una vía metabólica predominantemente activada en el tejido tumoral de ratones modificados genéticamente. Nos sorprendió que la ruta identificada, que cataliza la biosíntesis de poliaminas, era ampliamente conocida desde la década de los 80, pero las bases moleculares de su regulación aberrante en cáncer de próstata no habían sido clarificadas. Un aspecto determinante de nuestra estrategia de experimentación fue que pudimos validar los resultados en muestras biológicas humanas, en favor de la estrategia de emplear modelos simplificados para el estudio de las bases moleculares de la enfermedad. Las poliaminas son pequeñas biomoléculas que debido a su carga (son policationes) tienen gran afinidad de interacción con los ácidos nucleicos (ADN y ARN). Esto se traduce en que las poliaminas son componentes esenciales para la correcta actividad replicativa, transcripcional y traduccional de la célula. En conjunto, las células que entran en programas proliferativos necesitan coordinar la síntesis de poliaminas, para que éstas “engranen” la maquinaria celular. Con esta premisa, propusimos la hipótesis de que las mutaciones que originan la formación del cáncer de próstata debían activar programas moleculares que coordinasen la producción de poliaminas para sustentar un programa proliferativo. Siguiendo esta línea argumentativa, la biosíntesis de poliaminas representaría una interesante diana terapéutica en este tipo de cáncer. Nuestras investigaciones fueron capaces de contrastar esta hipótesis, demostrando que la activación de la ruta oncogénica fosfoinosítido 3 quinasa (PI3K) desencadenaba la producción de una enzima clave en la biosíntesis de poliaminas (AMD1). Pudimos corroborar que este mecanismo molecular era operativo en células de cáncer de próstata, en nuestro modelo de ratón, e incluso en muestras provenientes de un ensayo clínico, al que accedimos mediante una colaboración con Memorial Sloan Kettering Cancer Center (EEUU) y el Hospital Vall d´Hebrón de Barcelona. Las protagonistas de este proyecto de investigación, Amaia Zabala y Amaia Arruabarrena, pudieron además demostrar que la inhibición de esta vía metabólica limitaba el crecimiento tumoral, reforzando la noción de que la producción de poliaminas es un proceso explotable terapéuticamente. Nuestro trabajo contribuye a un esfuerzo internacional que ha emergido en los últimos años y que pretende ahondar en las características del cáncer que nos permitirá detectar y tratar la enfermedad de un modo más eficaz. “Al investigar los cambios metabólicos del cáncer podemos anticipar como podemos intervenir para continuar reduciendo la mortalidad en esta enfermedad” A lo largo de este proyecto han existido dos componentes imprescindibles para poder migrar el conocimiento a la aplicación clínica, que son parte de una estrategia mayor y más ambiciosa que se viene estableciendo a nivel internacional (Figura 2): 1) Nuestro equipo de colaboradores del Hospital de Basurto, que incluye urólogos, patólogos, enfermeras, entre otros y el grupo de investigación que formamos nos permite impulsar la investigación oncológica tomando lo mejor de los dos mundos de la investigación básica y clínica. Ésta es la única fórmula de éxito para dar pasos sólidos hacia a erradicación del cáncer. 2) El Biobanco vasco para la investigación, que ha canalizado la adquisición, gestión y preparación de muestras y datos clínicos provenientes de pacientes. El Biobanco es un organismo imprescindible en un universo investigador en el que la custodia de la muestra y la protección de la información personal del paciente son capitales, y donde los centros de investigación no están puerta con puerta con los hospitales. El Biobanco ha sido y sigue siendo el puente que asegura que básicos y clínicos impulsamos la investigación, protegiendo a la vez los intereses y derechos de los individuos que participan en los estudios de recolección de muestras biológicas y datos clínicos. Esta estructura de investigación translacional, con el potencial tecnológico de nuestro centro de investigación es un revulsivo para el avance de la investigación en cáncer. A estos factores críticos para potenciar la investigación, desarrollo e innovación hay que añadir otros agentes (sectores biotecnológico y farmacéutico) que actualmente tienen una presencia internacional fuerte con un desarrollo local en Euskadi que va in crescendo. En este sentido, debemos potenciar el concepto de “Think globally, act locally”, dado que las sinergias y los cambios de paradigma derivan de la identificación de oportunidades colaborativas tras un contacto continuado entre agentes que enfocan la enfermedad desde prismas diferentes.Referencias [1] Arruabarrena-Aristorena, A., A. Zabala-Letona and A. Carracedo (2018). “Oil for the cancer engine: The cross-talk between oncogenic signaling and polyamine metabolism”. Sci Adv 4(1): eaar2606. [2] Valcarcel-Jimenez, L., E. Gaude, V. Torrano, C. Frezza and A. Carracedo (2017). “Mitochondrial Metabolism: Yin and Yang for Tumor Progression.” Trends Endocrinol Metab 28(10): 748-757. [3] Zabala-Letona, A., A. Arruabarrena-Aristorena, N. Martin-Martin, S. Fernandez-Ruiz, J. D. Sutherland, M. Clasquin, J. Tomas-Cortazar, J. Jimenez, I. Torres, P. Quang, P. Ximenez- Embun, R. Bago, A. Ugalde-Olano, A. Loizaga-Iriarte, I. Lacasa-Viscasillas, M. Unda, V. Torrano, D. Cabrera, S. M. van Liempd, Y. Cendon, E. Castro, S. Murray, A. Revandkar, A. Alimonti, Y. Zhang, A. Barnett, G. Lein, D. Pirman, A. R. Cortazar, L. Arreal, L. Prudkin, I. Astobiza, L. Valcarcel-Jimenez, P. Zuniga-Garcia, I. Fernandez-Dominguez, M. Piva, A. Caro-Maldonado, P. Sanchez-Mosquera, M. Castillo-Martin, V. Serra, N. Beraza, A. Gentilella, G. Thomas, M. Azkargorta, F. Elortza, R. Farras, D. Olmos, A. Efeyan, J. Anguita, J. Munoz, J. M. Falcon-Perez, R. Barrio, T. Macarulla, J. M. Mato, M. L. Martinez-Chantar, C. Cordon-Cardo, A. M. Aransay, K. Marks, J. Baselga, J. Tabernero, P. Nuciforo, B. D. Manning, K. Marjon and A. Carracedo (2017). “mTORC1-dependent AMD1 regulation sustains polyamine metabolism in prostate cancer.” Nature 547(7661): 109-113. [4] Torrano, V., L. Valcarcel-Jimenez, A. R. Cortazar, X. Liu, J. Urosevic, M. Castillo-Martin, S. Fernandez-Ruiz, G. Morciano, A. Caro-Maldonado, M. Guiu, P. Zuniga-Garcia, M. Graupera, A. Bellmunt, P. Pandya, M. Lorente, N. Martin-Martin, J. D. Sutherland, P. Sanchez-Mosquera, L. Bozal-Basterra, A. Zabala-Letona, A. Arruabarrena-Aristorena, A. Berenguer, N. Embade, A. Ugalde-Olano, I. Lacasa-Viscasillas, A. Loizaga-Iriarte, M. Unda-Urzaiz, N. Schultz, A. M. Aransay, V. Sanz-Moreno, R. Barrio, G. Velasco, P. Pinton, C. Cordon-Cardo, J. W. Locasale, R. R. Gomis and A. Carracedo (2016). “The metabolic co-regulator PGC1alpha suppresses prostate cancer metastasis. ” Nat Cell Biol 18(6): 645-656. [5] Vander Heiden, M. G. (2011). “Targeting cancer metabolism: a therapeutic window opens.” Nat Rev Drug Discov 10(9): 671-684. [6] Vander Heiden, M. G., L. C. Cantley and C. B. Thompson (2009). “Understanding the Warburg effect: the metabolic requirements of cell proliferation.” Science 324(5930): 1029-1033. [7] Farber, S. (1949). “Some observations on the effect of folic acid antagonists on acute leukemia and other forms of incurable cancer.” Blood 4(2): 160-167. [8] Warburg, O., F. Wind and E. Negelein (1927). “The Metabolism of Tumors in the Body.” J Gen Physiol 8(6): 519-530. -
NANOBIOMECÁNICA: la evolución del movimiento a nivel molecular
Leyre Baradiaran (1) y Raúl Pérez Jiménez (2) (1) Investigadora predoctoral en el grupo de Nanobiomecánica del CIC nanoGUNE.(2) Ikerbasque Research Profesor y jefe del grupo de Nanobiomecánica del CIC nanoGUNE.Los animales han desarrollado complejos sistemas de locomoción basados en el movimiento de los músculos. La unidad básica contráctil en los músculos es el sarcómero que se encuentra en todos los vertebrados. Paradójicamente, la fisiología muscular de los vertebrados es extremadamente diversa, sin que se tenga una explicación para ello. En un reciente trabajo, hemos investigado la evolución de las proteínas que componen el sarcómero para estudiar cómo estas han influenciado la evolución de nuestros músculos y su movimiento. Utilizando técnicas computacionales, hemos sido capaces de resucitar fragmentos de la proteína muscular titina de entre 105 y 356 millones de años de edad, los cuales hemos estudiado con técnicas de espectroscopia de fuerzas. Estos estudios nos han permitido identificar los elementos mecanoquímicos de la titina, que han sido directamente responsables de su evolución y la de los músculos, y que nos permiten incluso estimar el tamaño de especies extintas.Los animales nos distinguimos de las plantas gracias a una característica: el movimiento. El hecho de moverse es la base de nuestro desarrollo fisiológico e incluso social. La habilidad motora ha servido como elemento de culto en todas las civilizaciones; los griegos con las danzas dionisiacas, las olimpiadas que todavía perduran o las danzas que los mayas dedicaban a los dioses entre otros. El movimiento es la base de nuestra existencia y la del resto de animales. La habilidad para movernos y la basta variedad de movimientos se la debemos a los músculos. El músculo es un tejido que se encuentra en la mayoría de animales. Los músculos generan movimiento al contraerse o extendiéndose al relajarse. Hay dos tipos de tejido muscular: El tejido muscular liso, que forma parte de las paredes de las vísceras y no está bajo el control de la voluntad; y el tejido muscular estriado, que se fija en los huesos (a través de los tendones) o la piel siendo el encargado del movimiento de los esqueletos y del mantenimiento de la postura corporal. Además, el tejido esquelético ocular ejecuta los precisos movimientos de los ojos. El tejido estriado contiene como unidad anatómica y funcional el sarcómero, que se considera la unidad delimitada entre los llamados discos Z pasando por la llamada línea M (Figura 1). En su composición destacan las proteínas actina, miosina y titina. Esta última conecta el disco Z a la línea M, ambos componentes que forman la estructura del sarcómero. Las unidades estructurales de las proteínas son los aminoácidos. En la naturaleza existen 20 aminoácidos diferentes con los que se ensamblan todas las proteínas que existen. La titina es la proteína más grande que se conoce, contiene aproximadamente 30000 aminoácidos mientras que la actina y miosina contienen unos 500. En la titina los aminoácidos se ordenan en diferentes estructuras: dominios inmunoglobulina, fibronectinas y partes no estructuradas denominadas PEVK. La principal función de la titina es aportar elasticidad pasiva al músculo actuando como un muelle. En la evolución de los vertebrados la estructura muscular basada en sarcómeros se ha conservado, a pesar de que la fisiología de los músculos entre los vertebrados sea extremadamente variada. Así, los animales presentan diferentes fisiologías musculares que guardan estrecha relación con su fisionomía y su hábitat. En este contexto, el estudio evolutivo de las especies cobra un papel principal. Según la teoría de la evolución de Darwin, las especies evolucionan a partir de sus ancestros adaptándose a nuevas condiciones, lo que implica cambios fisiológicos que pueden afectar a su capacidad de movimiento. Así, los músculos de los humanos han sufrido una adaptación que los diferencia en fisionomía y movimiento de los músculos de un ratón, de movimiento mucho más rápido. No obstante, en ambas especies el sarcómero sigue siendo la unidad de contracción y la titina, actina y miosina, las proteínas responsables del movimiento. Por tanto, ¿cuál es el origen de la gran diversidad fisiológica de los músculos y sus movimientos? Hasta la fecha no existe una explicación consensuada que proponga un razonamiento científico para la basta diversidad y evolución de los músculos. De las tres proteínas que componen el sarcómero, la titina es la que más ha cambiado su composición de aminoácidos, por lo tanto, esta puede albergar la clave de la evolución de los músculos y su diversidad locomotora. Pero, esto es solo una hipótesis que puede estar tras la gran diversidad de los animales ocurrida tras la llamada explosión Cámbrica ocurrida hace unos 542 millones de años. A pesar de que la titina haya sido objeto de estudio durante décadas, queda mucho por explorar en la correlación entre la heterogeneidad de los músculos y la bioquímica y nanomecánica de la titina. Hoy en día es posible estudiar la estabilidad mecánica de las proteínas, gracias a complejas técnicas de espectroscopia de fuerza, dando así lugar a la aparición del concepto de nanobiomecánica. De la misma manera que los ingenieros miden la resistencia mecánica de materiales, es posible medir la resistencia mecánica de biomoléculas utilizando técnicas espectroscópicas. Así mismo, la creciente información genética de la que disponemos en la actualidad posibilita nuevas líneas de investigación para el mejor entendimiento de los seres vivos a nivel molecular. Esto incluye el establecimiento de relaciones evolutivas a nivel genético que incluso posibilita inferir la información genética de especies extintas. Esto es lo que se conoce como Reconstrucción Ancestral de Secuencias (RAS) que ha permitido reconstruir la historia evolutiva de genes permitiendo saber cómo eran las propiedades de organismos ancestrales y las condiciones en las que vivieron [1]. En un reciente trabajo en nuestro grupo [2], el grupo de Nanobiomecánica del CIC nanoGUNE, hemos investigado la evolución de las proteínas que componen el sarcómero para determinar cómo estas han influenciado en el desarrollo evolutivo de nuestros músculos y sus movimientos. En particular, hemos profundizado en el estudio de la mecanoquímica de la titina ya que creemos que la titina podría tener un papel fundamental en la evolución molecular de los músculos de los animales. Para poder estudiar la evolución de la mecanoquímica en la titina primero hemos reconstruido titinas ancestrales y luego se han investigado sus propiedades mecánicas en el laboratorio. Valiéndonos de la técnica de reconstrucción de secuencias ancestrales podemos viajar atrás en el tiempo a nivel molecular y deducir como serían las secuencias putativas de fragmentos de titina de ancestros de especies de vertebrados actuales, incluyendo los últimos antepasados comunes de tetrápodos, saurópsidos y mamíferos. Las proteínas pueden ser obtenidas en el laboratorio y pueden ser sometidas a estudios mecánicos utilizando la técnica de espectroscopia de fuerza atómica lo cual nos permite averiguar con detalle su diseño mecánico que sin duda tendrá una influencia en el movimiento del músculo. La técnica RAS nos permite discernir los cambios de composición que genes y proteínas han sufrido durante la evolución. Esto nos permite potencialmente obtener información genética sobre especies extintas, como por ejemplo, características fisiológicas y metabólicas o las condiciones ambientales en las que vivían estos organismos ancestrales. Con la información genética o secuencias de proteínas de especies modernas se construye un árbol filogenético (Figura 2). Para ello, se seleccionaron 33 secuencias de proteínas titina pertenecientes a especies vertebradas modernas. Las especies modernas elegidas incluyen mamíferos, saurópsidos (vertebrados amniotas al que pertenecen reptiles y las aves), anfibios y actinopterigios (una clase de peces con estructura ósea). Las diferentes secuencias de aminoácidos que se han utilizado han sido obtenidas de las bases de datos Uniprot y GenomeNet. Las secuencias son organizadas en una matriz denominada alineamiento que permite comparar cada una de las posiciones. A partir del alineamiento construimos el árbol filogenético que se infiere mediante análisis bayesiano empleando un clúster de computación de alto rendimiento. El árbol y alineamiento contienen dos elementos fundamentales que describen la evolución de la titina. El primero es el conjunto de mutaciones que la titina ha acumulado hasta derivar en las diferentes especies. El segundo elemento es la organización de esas especies por parecido genético. Con estos dos elementos, se pueden utilizar técnicas estadísticas para inferir la secuencia más probable de los ancestros de estas especies, representados por cada uno de los nodos de árbol. Debido al gran tamaño de la titina, se selecciona una porción de la misma representada por 8 dominios situados en la banda elástica de la titina. En concreto, se trabajó sobre los dominios I65-I72. Así, se obtuvieron las secuencias de cinco especies modernas que se utilizaron para estudios comparativos, ya que las especies modernas representan el punto final, momentáneo, de la evolución genética. Los animales actuales que se estudiaron fueron el pinzón, la gallina, la orca, el ratón y humanos. Las especies ancestrales que se han estudiado en el laboratorio son el último ancestro común de los tetrápodos (LTCA, de sus siglas en inglés Last Tetrapod Common Ancestor) que vivió en el periodo Carbonífero hace 356 millones de años; de los saurópsidos (LSCA) que vivió en el periodo Pérmico hace aproximadamente 278 millones de años; de los mamíferos (LMCA) que vivió durante el periodo Jurásico hace 179 millones de años; y por último, el antepasado común de los de mamíferos placentados (LPMCA) que vivió durante el periodo Cretácico hace 105 millones de años. En el laboratorio, las proteínas se sintetizan a partir del gen siguiendo protocolos bien conocidos y establecidos en el ámbito de la biología molecular. Uno de los aspectos interesantes de reconstruir secuencias de organismos extintos es que la simple comparación con sus descendientes modernos dice mucho sobre los organismos ancestrales. Por ejemplo, del estudio de titinas ancestrales nos dice que en los últimos 350 millones de años, la secuencia de la titina ha variado en un 25% aproximadamente. Para hacernos una idea del significado de este cambio, lo hemos comparado con el cambio sufrido por las otras proteínas musculares, actina y miosina. En el caso de la miosina el cambio ha sido de apenas 10% y para la actina solo un 1%. Esto sugiere que tanto la miosina como la actina se han conservado mucho más durante la evolución y fortalece la teoría de que la titina ha contribuido más activamente a la diversificación molecular del sarcómero. Así mismo, un dato significativo que observamos en esta comparación es que las titinas ancestrales tienen más aminoácidos cisteína que las modernas. Los aminoácidos cisteína son los encargados de establecer los conocidos puentes disulfuro en las proteínas, que son enlaces entre átomos de azufre muy resistentes desde el punto de vista de estabilidad. Esto es significativo ya que la cisteína es uno de los aminoácidos que menos probabilidad tiene de mutar una vez adquirido. Todas estas razones nos sugieren que los residuos de cisteína juegan un rol crucial en la titina. Teniendo en cuenta la importancia de los puentes disulfuro en la mecánica de las proteínas creemos que el número de puentes disulfuro está relacionado directamente con la evolución mecanoquímica de la titina. Desde un punto de vista experimental, para poder estudiar las propiedades mecánicas de la titina utilizamos la técnica de espectroscopia de fuerza atómica (AFM). Esta técnica, permite trabajar con moléculas individuales las cuales pueden ser sometidas a fuerzas en el rango de los piconewtons, en un proceso que se asimila a como la titina estaría sometida a fuerza de estiramiento en el mismo músculo. Para ello, las proteínas se sitúan en una superficie de oro y son adheridas a una micropalanca denominada cantiléver que actúa como un muelle. Un complejo mecanismo electrónico produce movimientos precisos de la superficie haciendo que la proteína flexione la micropalanca, la cual, debido a su naturaleza elástica, tiende a volver a su posición inicial aplicando así una fuerza mecánica. Cuando esta fuerza pasa un determinado umbral, la proteína se despliega estirándose por completo. La fuerza a la que se produce este deplegamiento es la llamada estabilidad mecánica y puede ser cuantificada con gran precisión. La extensión de las proteínas al estirarse queda monitorizada, lo cual permite estimar sus resistencia mecánica así como la extensión de una proteína. Esta monitorización es en forma de picos en diente de sierra, donde cada pico representa el estiramiento de una proteína individual. En la (Figura 3) se puede ver el diseño experimental así como resultados experimentales de la medida de estabilidad de diferentes fragmentos de titina. A partir de estos resultados podemos saber qué proteínas son más resistentes mecánicamente lo cual se podrá relacionar con características fisiológicas del movimiento muscular. El resultado más notable de nuestros experimentos es que la resistencia mecánica de las diferentes titinas ha seguido una tendencia evolutiva por la que las especies ancestrales demostraban una mayor estabilidad mecánica. Dicha tendencia refleja una pérdida paulatina de estabilidad mecánica en los linajes de mamíferos, especialmente (Figura 4). Pero además, se deduce que los animales de menor tamaño poseen titinas de mayor estabilidad mecánica, lo cual nos llevó a preguntarnos si la estabilidad mecánica de la titina está relacionada con el tamaño. Con objeto de probar esta sugerencia se nos ocurrió probar una simple correlación: la estabilidad mecánica frente a la masa corporal de cada uno de los vertebrados. De esta correlación surgió una dependencia no lineal que puede ser interpretada como una correlación alométrica (Figura 5). Con frecuencia en la naturaleza se plantean relaciones no lineales que pueden ser descritas acudiendo al concepto de alometría. En biología la alometría se refiere a la variación diferencial de dos características relacionadas, por ejemplo, podemos observar alometría en el crecimiento de las partes de nuestro cuerpo. En evolución, la alometría también se puede apreciar en la variación de características entre especies. La alometría que observamos aquí es justamente evolutiva, es decir, la estabilidad mecánica de la titina ha variado de forma diferente en función del tamaño de las especies. No se trata de la única tendencia alomérica que relacionaría la masa corporal de los organismos con una característica fisiológica como por ejemplo el ritmo metabólico, velocidad, presión arterial o producción de calor. De hecho, con frecuencia se observan relaciones alométricas en sistemas biológicos, incluso para la actividad enzimática se ha sugerido una relacion alomérica. Sin embargo, esta es la primera vez que se demuestra una relación alométrica entre una característica fisiológica y un parámetro físico a nivel molecular. Por simple extrapolación, de esa correlación se puede predecir la masa corporal de las especies extintas. En nuestro caso determinamos un rango de peso para los ancestros comunes: 8-70 g para LTCA, 14-16 g para LSCA, 14-70 g para LMCA y 95-116 g para LPMCA. Pesos típicos para animales con tamaños comprendidos entre los 10 y 40 cm de largo. Estimación que se adapta sorprendentemente bien al tamaño de los fósiles que podrían estar relacionados con estos ancestros. Nuestros resultados indican que la evolución de la fisiología muscular está aparentemente ligada a la evolución molecular de la titina en los tetrápodos. La reconstrucción de titinas ancestrales nos ha mostrado que las propiedades mecánicas para los dominios de titina del pinzón son similares a los de sus ancestros. Sin embargo, los dominios de titina de los mamíferos de hoy en día han sufrido cambios más drásticos, resultando que las titinas modernas tengan menos estabilidad mecánicas que sus homologas ancestrales. Esta diferencia es significativa teniendo en cuenta que el número de mutaciones en la titina del pinzón y de los mamíferos modernos es similar. Esto podría estar relacionado con el hecho de que los cambios morfológicos y fisiológicos que los mamíferos han sufrido han sido más acusados derivando en una vasta diversidad física y locomotora en estos. Por ejemplo, la gran diferencia de tamaño entre el mamífero más pequeño, la musaraña etrusca, y el más grande, la ballena azul, no se observa en los grupos de aves, reptiles o peces. Este fenómeno nos lleva a preguntarnos si la relación entre la mecánica de la titina y la contracción muscular difiere entre las especies con diferentes características fisiológicas. Una posible explicación sería que las rápidas contracciones musculares de los amniotas (una clase de vertebrados pequeños) dependen de la respuesta mecánica de la titina. Bajo fuerzas fisiológicas se ha demostrado que los dominios de la titina se despliegan y repliegan durante las contracciones musculares. Los puentes disulfuro ayudan a que la titina no se estire demasiado y aceleran la velocidad de replegamiento de uno de los dominios, lo que también puede aumentar la velocidad de contracción del músculo. Por esto, creemos que el equilibrio entre la estabilidad mecánica y los puentes disulfuro son clave en la evolución mecánica de la titina. Los tamaños que hemos obtenido para las especies ancestrales utilizando la correlación alomérica se puede explicar a la luz de los datos en registros fósiles. Hay estudios que han demostrado que tras la extinción masiva en el periodo Devónico tardío, el llamado evento Hangenberg (hace 359 millones de años), la mayoría de especies encontradas en fósiles medían menos de 41 cm. Hecho que concuerda con el tamaño que dedujimos para LTCA, que vivió justo después del evento Hangenberg. Los fósiles de los primeros amniotas, que incluyen a los saurópsidos y a pequeños reptiles semejantes a los mamíferos de los periodos del Carbonífero y Pérmico, también se encuentran en ese rango. En el caso de los mamíferos, muchos estudios demuestran que incluso los primeros mamíferos se parecían a pequeños roedores. Lo cual es coherente con lo que predijimos a partir de la información nanomecánica de la titina. Sin embargo, no se puede establecer una comparación directa entre nuestras estimaciones y los fósiles ya que un solo fósil puede ser datado como LTCA, LSCA, LMCA o LPMCA, representando al ancestro común en varios organismos. Estudiar otras regiones de la titina o comparar otras características como la velocidad de contracción de dominios ancestrales y modernos sería interesante para llegar a entender por completo los elementos moleculares que han participado en la evolución de la titina y la conexión que pueden tener con la fisiología muscular.Referencias [1] Perez-Jimenez, R. et al. Single-molecule paleoenzymology probes the chemistry of resurrected enzymes. Nat. Struct. Mol. Biol. 18, 592–596 (2011). [2] Manteca, A. et al. Mechanochemical evolution of the giant muscle protein titin as inferred from resurrected proteins. Nat. Struct. Mol. Biol. (2017). -
Ondas Gravitacionales. ¡Por fin podemos escuchar el universo con LIGO!
Alicia Sintes Profesora de la Universidad de les Illes Balears e investigadora del Instituto de Estudios Espaciales de Cataluña. Miembro del consejo de LIGO, del comité ejecutivo de GEO e investigadora principal del único grupo de LIGO en España.100 años después de los enunciados del científico alemán, Albert Einstein, nadie había logrado observar las ondas gravitacionales: ondulaciones de espacio-tiempo producidas por materia acelerada. La existencia de la radiación gravitacional fue predicha por Einstein en 1916, como una de las consecuencias importantes de su teoría de la relatividad general, aunque él mismo estaba convencido de que estos minúsculos cambios en el tejido del espacio-tiempo nunca serían observados.El pasado 14 de septiembre de 2015 a las 09:50:45 UTC, aproximadamente un siglo después de su predicción, los Observatorios de Ondas Gravitacionales por Interferometría Láser (LIGO, por sus siglas en inglés) marcaban el comienzo de una nueva era en astronomía con la detección de la primera señal gravitacional llamada GW150914. Esto sucedía a solo pocos días después que los detectores americanos LIGO empezasen a operar como “LIGO-avanzado”, tras la realización de importantes mejoras en sus instalaciones, sorprendiendo así a la comunidad científica. Una segunda señal, GW151226, detectada el pasado 26 de diciembre de 2015 a las 03:38:53 UTC fue un hermoso regalo de Navidad durante ese primer periodo de observación. Hace algo más de un año, el 11 de febrero de 2016, y tras semanas de intensos rumores entre la comunidad científica sobre su posible hallazgo, llegó el esperado anuncio de las colaboraciones científicas LIGO y Virgo. Ese día el director del experimento LIGO, David Reitze, hizo una declaración de trascendencia histórica ante la prensa internacional: «Hemos detectado ondas gravitacionales. ¡Por fin lo hemos conseguido!». Desde ese día las desconocidas ondas han acaparado la atención de los medios, los eventos científicos y los más prestigiosos premios internacionales. Los padres del descubrimiento, sentenciaron que, «hasta ahora hemos estado sordos ante el Universo. Hoy, somos capaces de oír las ondas gravitacionales por primera vez. Esto marca el inicio de la Era de la Astronomía Gravitacional. Es una magnífica celebración del centenario del vaticinio de Einstein». Incluso el gran experto en agujeros negros, Stephen Hawking quiso sumarse a estas entusiastas reacciones: «ahora se podrán ver algunas reliquias del Universo muy temprano, justo después del Big Bang y reconstruir toda la historia astronómica». Se trata, por tanto, de uno de los mayores hallazgos de las últimas décadas; semejante descubrimiento quedará grabado en los libros de historia de la ciencia del siglo XXI. Ningún otro hito tecnológico en décadas -salvo quizá el del Bosón de Higgs en 2012- había suscitado tanta expectación como éste, pues tal descubrimiento supone un cambio de paradigma, una nueva forma de concebir el universo de manera diferente a la que habíamos heredado de Galileo. Los detectores terrestres La historia de los detectores de ondas gravitacionales se remonta a los años sesenta con el trabajo pionero de Joseph Weber y sus detectores cilíndricos resonantes. En cambio, los detectores tipo LIGO usan interferometría láser para medir cambios en la distancia que separan dos cuerpos libres al paso de las ondas gravitacionales. Hasta el momento, LIGO es el instrumento óptico de precisión más grande del mundo y uno de los experimentos físicos más sofisticados que existe. Está compuesto por dos observatorios separados por 3000 kilómetros, uno en Livingston, Luisiana y otro en Hanford, Washington, en EEUU. LIGO usa las propiedades físicas de la luz y del propio espacio-tiempo para detectar ondas gravitacionales. El principio de funcionamiento es el de un interferómetro tipo Michelson-Morley con cavidades Fabry-Perot. Los brazos de los interferómetros son unos tubos de más de un metro de diámetro que guardan un vacío casi perfecto. Estos están dispuestos en forma de L y tienen una longitud de 4 kilómetros. Cuando una onda gravitacional llega a la Tierra, las alteraciones del espacio-tiempo provocan cambios en la longitud de los brazos proporcionales a la deformación producida por la onda gravitacional. Estos cambios dan lugar a interferencias, que se miden con fotodetectores, a partir de las cuales se puede inferir el patrón de las ondas gravitacionales que han atravesado el detector. La idea de usar interferometría láser para medir el movimiento relativo de espejos libres, fue sugerida por Mijaíl Gertsenshtein y Vladislav Pustovoit (Rusia) en 1962, y años más tarde de forma independiente por Weber y Rainer Weiss (EEUU). A finales de los años 70 y durante la década de los 80, ideas decisivas para mejorar su sensibilidad fueron sugeridas, entre otros, por Ronald Drever y Brian Meers en Glasgow (UK), y por Roland Schilling, Lise Schnupp y Albrecht Ruediger en Garching (Alemania). “Con las ondas gravitacionales se podrán ver algunas reliquias del Universo muy temprano, justo después del Big Bang y reconstruir toda la historia astronómica” Durante la década de los 90 se inició la construcción de enormes infraestructuras que alojarían la primera generación de estos detectores con brazos de cientos de metros de longitud (es el caso de TAMA en Japón y GEO en Alemania) a varios kilómetros (VIRGO en Italia y LIGO en EEUU). Estos detectores estuvieron tomando datos durante la primera década del 2000 sin éxito desde el punto de vista de la detección pero extremadamente indispensables para cimentar la experiencia y el desarrollo de nuevas técnicas que se implementarían la década siguiente en los detectores de segunda generación que, esta vez sí, cumplieron con las expectativas. El efecto que producen las ondas gravitacionales es una compresión fraccional del espacio-tiempo perpendicular a la dirección de propagación, con una amplitud h=ΔL/L máxima del orden de 10–21. Expresado en términos físicos, una onda gravitacional emitida durante la fusión de dos estrellas de neutrones en el cúmulo de Virgo, produciría en la Tierra, en detectores tipo LIGO, desplazamientos del orden de 10–18 metros —una cantidad 1000 veces más pequeña que el diámetro del protón—. Como esta clase de sucesos son poco frecuentes, se han de buscar este tipo de fuentes a distancias de millones de años luz, en galaxias lejos de la Vía Láctea. Por tanto, la búsqueda de ondas gravitacionales implica intentar hallar los minúsculos efectos de algunos de los sistemas astrofísicos más energéticos en las profundidades del universo. “La búsqueda de ondas gravitacionales implica intentar hallar los minúsculos efectos de alguno de los sistemas astrofísicos más energéticos en las profundidades del universo” La mejora en sensibilidad que posibilitó estos recientes descubrimientos fue el resultado de muchas décadas de planificación de diseño y experiencia adquirida con las versiones anteriores de estos instrumentos, a lo que hay que añadir el desarrollo de sofisticados métodos para analizar los datos. Los LIGO-avanzados son sólo los primeros de una futura red global de detectores que entrarán en funcionamiento. Cuando estos lleguen a su sensibilidad de diseño, alrededor del 2020, tendrán un alcance diez veces superior al de sus predecesores, y con ellos se espera revolucionar nuestra compresión del universo. ¿Cómo es LIGO? LIGO utiliza luz láser para controlar la distancia entre los espejos posicionados de forma muy precisa en los extremos de los brazos. Los espejos, construidos con sustratos de sílice fundido y recubiertos con un recubrimiento óptico dieléctrico, se encuentran en suspensión para permitir el libre movimiento y son las masas de prueba del interferómetro. La fuente de luz del interferómetro es un láser Nd-YAG con una longitud de onda de 1064 nm, capaz de alcanzar una potencia de 180 W. Durante el primer período de observación de LIGO- avanzado, el láser fue operado con una potencia de unos 22 W. Con ello LIGO ya fue capaz de detectar cambios en las longitudes de los brazos inferiores a la diezmilésima parte del diámetro de un protón (10-19 metros). En estos momentos, LIGO-avanzado está de nuevo en funcionamiento en su segundo período de observación, al que se unirá el detector europeo Virgo-avanzado en el verano del 2017. En los siguientes años, esta red se irá ampliando con el nuevo detector japonés KAGRA (2018-2020) y el futuro observatorio LIGO-India (2024). Muchas son las fuentes de ruido en estos detectores. La principal fuente de ruido a altas frecuencias es debida a fluctuaciones en la potencia del láser. A frecuencias medias, la principal fuente de ruido es debida a los movimientos aleatorios de los átomos en las masas de prueba y los otros componentes ópticos. “Gracias a los desarrollos tecnológicos, los interferómetros LIGO serán capaces de operar al borde de los límites fundamentales de la Física, siendo los instrumentos ópticos más sensibles jamás construidos” A bajas frecuencias el ruido es dominado por vibraciones sísmicas, que cubrirán completamente cualquier señal de onda gravitacional con una frecuencia menor de 10 Hz. Las mejoras llevadas a cabo en LIGO-avanzado tienen el objetivo de reducir el ruido para incrementar la sensibilidad con respecto a sus antecesores de primera generación. La potencia del láser, que era de unos 10 W en LIGO-inicial, se irá incrementando gradualmente en los diferentes períodos de observación con el objetivo de reducir el límite cuántico. Se han construido espejos más grandes (34 cm de diámetro frente a los 25 cm anteriores), para reducir las contribuciones del ruido térmico procedente de las fluctuaciones microscópicas en el interior del espejo; y más masivos (40 kg frente a los 11 kg), para reducir movimientos debidos a la presión de radiación. Se han sustituido las suspensiones de alambre de acero por fibras de sílice fundido, el mismo material del que están hechos los espejos, para reducir el ruido térmico también en las suspensiones. “El 14 de septiembre de 2015 los dos LIGO “sonaron” al paso de un frente de ondas gravitacionales producido por la fusión de dos agujeros negros hace unos 1.300 millones de años y este llegaba a la Tierra. En ese momento, se abrió una nueva ventana a la exploración cósmica y marcó el inicio de la Era de la Astronomía Gravitacional” Además, el nuevo sistema de suspensión es un complicado péndulo múltiple que mejora la filtración de movimientos sísmicos, provocados por terremotos, vientos, olas, tráfico humano, etc. Gracias a este mejorado aislamiento sísmico, la frecuencia de corte se podrá reducir de 40 Hz en LIGO-inicial a 10 Hz en el diseño final de LIGO-avanzado. LIGO-avanzado, Virgo-avanzado y KAGRA serán sensibles a señales de ondas gravitacionales con frecuencias entre 10 Hz y 10 kHz, como por ejemplo las provenientes de sistemas binarios de estrellas de neutrones hasta distancias de 200 Mpc (1 Mpc ~ 3 millones de años luz) y a la fusión de agujeros negros estelares a distancias 1000 veces superior que la distancia que nos separa de la galaxia Andrómeda, junto con estallidos de rayos gamma, supernovas, estrellas de neutrones en rotación en nuestra galaxia o incluso fondos astrofísicos de diverso origen. Gracias a los desarrollos tecnológicos, los interferómetros LIGO serán capaces de operar al borde de los limites fundamentales de la Física, siendo los instrumentos ópticos más sensibles jamás construidos. Aún así, la búsqueda de ondas gravitacionales no ha hecho más que empezar. En un futuro, nuevas generaciones de detectores permitirán hacer astronomía de alta precisión, como, por ejemplo, el detector europeo “Einstein Telescope” o el observatorio de la Agencia Espacial Europea “LISA”, que podrían empezar a operar en la década de los 30. Las primeras señales Cuando los detectores LIGO-avanzado empezaron a tomar datos en su primer ciclo de funcionamiento en setiembre de 2015, después de un parón de cinco años, su sensibilidad había mejorado considerablemente respecto a su generación anterior y todas las fuentes de ruido se habían reducido entre un factor 3 y 10 en amplitud de onda gravitacional. Dado que la amplitud de la señal es inversamente proporcional a la distancia de la fuente, estas mejoras en la sensibilidad de LIGO-avanzado representaron un aumento de un factor 30 del volumen a nuestro alcance y eso implicaba que las posibilidades de detección se habían multiplicado por 30 con respecto a LIGO-Inicial. El primer periodo de observación duró unos cuatro meses y se pudieron obtener 51.5 días de datos de calidad en coincidencia entre los dos detectores. Esto posibilitó la detección de 3 señales gravitacionales, dos de alta significación estadística (más de 5 sigmas) GW150914 y GW151226, y otra a un nivel de 2-sigmas LVT151012. Lo más curioso es que la primera detección llegó justo a los pocos días de la puesta en marcha por primera vez de LIGO-avanzado de forma estable. Además, esta era una señal tan fuerte que prácticamente se podía ver con los propios ojos en los datos. Esto es lo que ocurrió el 14 de setiembre de 2015, cuando los dos LIGO “sonaron”, con siete milisegundos de diferencia, al paso de un frente de ondas gravitacionales producido por la fusión de dos agujeros negros hace unos mil trescientos millones de años y este llegaba a la Tierra. En ese momento, se abrió una nueva ventana a la exploración cósmica y marcó el inicio de la Era de la Astronomía Gravitacional. Aunque la señal fue muy clara, costó entre varios días y semanas convencer a los varios centenares de científicos e ingenieros de la colaboración de que aquella señal era real. Más aún, se tuvo que esperar varios meses para completar los análisis que culminaron en la publicación de más de una docena de artículos y al histórico anuncio en febrero de 2016. “En los próximos años, a medida que los detectores avanzados LIGO y Virgo se acerquen a su sensibilidad de diseño, observaremos de forma regular alguno de los fenómenos más energéticos y violentos del universo, con el potencial de descubrir sistemas astronómicos hasta ahora inimaginables” Lo que los observatorios LIGO detectaron ese día de setiembre (y también en octubre y diciembre de 2015) fue una señal transitoria tipo ‘chirrido’ que duró solo una fracción de segundo, pero que mostraba el comportamiento esperado en el caso de la coalescencia de un sistema binario, incluyendo sus últimas órbitas, la fusión propia y el relajamiento posterior del agujero negro resultante. Es decir, una señal de corta duración en la que tanto la amplitud como la frecuencia van aumentando progresivamente hasta alcanzar un valor máximo antes de desaparecer de nuevo en los datos del detector. Esta primera señal fue muy potente, y alcanzó una relación señal ruido superior a 20 incluso en los primeros análisis con los algoritmos de baja latencia, que informaron de este evento de forma automática en menos de tres minutos de su llegada. Sin embargo, fue necesario adquirir muchos más datos y realizar minuciosos estudios del ruido no Gaussiano y no estacionario para poder establecer que la tasa de falsa alarma era inferior a 1 evento por cada 200.000 años, correspondiente a una significación estadística superior a 5 sigmas, es decir una bajísima probabilidad de que no fuese real. La evolución frecuencia-temporal de la señal indicó claramente desde el primer momento que se trataban de dos agujeros negros y excepcionalmente masivos, mucho más masivos de lo que era de esperar a partir de la evidencias indirectas apoyadas por las observaciones electromagnéticas de binarias de rayos X. Esta primera pareja de agujeros negros detectada por LIGO tenía cada uno de ellos una masa de unas 30 veces la masa de nuestro Sol, y, por consiguiente, ambos eran un 50% más masivos que la veintena de agujeros negros conocidos en sistemas binarios en nuestra galaxia. Fue gracias a las simulaciones numéricas relativistas que fuimos capaces de mostrar que en realidad la señal detectada presentaba una excelente similitud con las predicciones teóricas a partir de la relatividad general, y además, fuimos capaces de medir la masa y el espín del agujero negro resultante. Hasta estos momentos, son los agujeros negros de masa estelar más masivos que se han encontrado en la naturaleza. También se fue capaz de determinar, aunque con poca precisión, la localización en el cielo y la distancia a la que había ocurrido el evento. Para poder extraer toda esta información de forma fiable es imprescindible el desarrollo de sofisticados métodos para analizar datos y el modelado computacional necesario para identificar las fuentes. A esto se ha dedicado la colaboración científica LIGO, y nuestro grupo de Relatividad y Gravitación de la Universidad de les Illes Balears, en particular, durante casi dos décadas antes de la llegada de esta primera señal. Del análisis de las tres señales detectadas durante el primer periodo de observación de LIGO-avanzado, se deduce que las masas de los seis cuerpos involucrados son todas ellas muy superiores a tres masas solares y, consiguientemente, son incompatibles con las masas de las estrellas de neutrones. Por consiguiente, de estas primeras observaciones se deduce que la naturaleza produce binarias de agujeros negros lo suficientemente compactas y en abundancia capaces de colapsar en la vida del universo. Curiosamente, la existencia de estos sistemas de agujeros negros fue predicha teoréticamente hace años por varios grupos, aunque esto solo era conocido por un reducido grupo de expertos astrofísicos. Lipunov y colaboradores predijeron que las fusiones de agujeros negros serían la fuente dominante para LIGO y Belczynski y colaboradores predijeron la masa máxima pare este tipo de agujeros negros en sistemas binarios. Aún así, la mayoría de la comunidad científica, y en particular las colaboraciones LIGO y Virgo, creían que las primeras fuentes que se detectarían serían binarias de estrellas de neutrones. La naturaleza esta vez nos ha sorprendido y este hito histórico ha marcado el inicio de una nueva era. En los próximos años, a medida que los detectores avanzados LIGO y Virgo se acerquen a su sensibilidad de diseño, observaremos de forma regular algunos de los fenómenos más energéticos y violentos del universo, con el potencial de descubrir sistemas astronómicos hasta ahora inimaginables. Esto será decisivo en el avance de la física fundamental, astrofísica y cosmología, permitiéndonos explorar importantes cuestiones, como, por ejemplo, cómo se forman los agujeros negros, si la relatividad general es la descripción correcta de la gravedad, o cómo se comporta la materia bajo condiciones extremas. El contar con una red de detectores será fundamental para aumentar el grado de confidencia en una detección, ya que las pruebas de coincidencia y coherencia reducen enormemente la probabilidad de falsos positivos. Además, cuantos más detectores tenga una red, más precisa será la localización de la fuente emisora de dicha onda gravitacional, permitiendo a su vez astronomía de multi-mensajeros. Está claro que uno de los siguientes objetivos será la detección de una fusión de binarias de estrellas de neutrones, junto con sus contrapartes electromagnéticas. Tener una red de tres o más detectores no alineados también permitirá reconstruir mejor la señal de la fuente, y poderla comparar con diferentes modelos teóricos y aquí es donde está realmente la ciencia. La sinfonía del universo está esperando ser escuchada y por fin disponemos de oídos para empezar a captarla.Para saber más: [1] P. Abbott et al. (LIGO Scientific Collaboration and Virgo Collaboration), “Observation of gravitational waves from a binary black hole merger”, Phys. Rev. Lett. 116, 061102 (2016). [2]P. Abbott et al. (LIGO Scientific Collaboration and Virgo Collaboration), “GW151226: Observation of gravitational waves from a 22-solar mass binary black hole coalescence”, Phys. Rev. Lett. 116, 241103 (2016). [3]Resúmenes científicos de las publicaciones de LIGO en español: ligo.org/sp/science/outreach.php -
Fabricación avanzada: algunas tendencias globales
Luis Uriarte1 y Aitor Alzaga2 1 Subdirector General de IK4-TEKNIKER. Doctor en ingeniería. UPV/EHU.2 Subdirector de Tecnología de IK4-TEKNIKER. Ingeniero superior. UPV/EHU.La irrupción en el mercado de la denominada 4ª revolución industrial, la industria 4.0 o fabricación avanzada, ha supuesto un auténtico cambio disruptivo para los países en los que el peso de la industria en su PIB es muy importante. Luis Uriarte y Aitor Alzaga nos ofrecen en este artículo un repaso por algunas tendencias globales en este nuevo campo, al que Euskadi se ha sumado a través de su estrategia Basque Industry 4.0. Los autores coinciden en señalar que la industria actual está en el umbral de una fuerte evolución que nos dirige hacia la convergencia de la fabricación real y virtual. Incluso señalan que en 2025 más del 80% de las plantas productivas podrían estar utilizando dispositivos conectados.1. ESTRATEGIAS DE REFERENCIA A NIVEL INTERNACIONAL Todos los países con un importante peso de la industria en su PIB han definido durante los últimos años estrategias para mantener o incrementar su posición competitiva. Euskadi con un peso del 23,5 % 1 de la industria manufacturera en su PIB, y con una inversión en I+D+i del 2,03% de su PIB, no es ajena a esta tendencia global de los países industrialmente punteros. Europa fue pionera en este sentido y lleva años promoviendo las denominadas “Fábricas del Futuro” a través de la EFFRA (European Factories of the Future Research Association) como colaboración público-privada para el desarrollo de proyectos innovadores en este ámbito, iniciativa que se puso en marcha en 2008. En Octubre de 2012, la Academia Nacional de Ciencia e Ingeniería alemana “acatech 2” presentó sus conclusiones y visión en la que se denominó estrategia “Industrie 4.0 3”, iniciativa que se había generado para identificar los requisitos y acciones a medio y largo plazo en términos de investigación y desarrollo tecnológico para promover el liderazgo alemán en la industria productiva. De hecho la iniciativa alemana responde a una estrategia dual, en el sentido de seguir liderando la oferta de equipos y soluciones para la producción industrial, y de aplicarlos en las plantas productivas alemanas integrando las cadenas de valor y digitalizando todo el proceso productivo. La implantación de dicha estrategia “Industrie 4.0” en la industria alemana fue incluida en el acuerdo de gobierno de 2013 entre los distintos partidos que forman el gobierno de coalición. Esta iniciativa ha sido la más influyente de todas las generadas a nivel mundial, dado el liderazgo alemán en las tecnologías de fabricación. Todavía es pronto para hablar categóricamente de resultados, pero de momento el peso del PIB industrial alemán ha crecido del 23,1% de 2014 al 25,7% de 2016. Estados Unidos (15,9% PIB industria manufacturera) ha sido también prolijo en el lanzamiento de iniciativas para promocionar la fabricación del futuro. En 2011 se lanzó la iniciativa “Sociedad de Fabricación Avanzada4 ” como equipo de asesoramiento para el gabinete de presidencia. Este asesoramiento se enfocó en todas las áreas relacionadas con la fabricación avanzada (procesos, materiales, inteligencia, etc.) desde una múltiple perspectiva: ciencia, tecnología e innovación. Posteriormente en 2014 se lanzó el “Consorcio para el Internet Industrial 5”, como entidad privada multisectorial (energía, salud, fabricación, sector público y transporte). El consorcio pretendía buscar el consenso en plataformas y su interoperabilidad. El concepto alemán “Industrie 4.0” y el “Internet Industrial” americano no compiten entre sí, sino que son de alguna manera complementarios. Los dos enfoques se ocupan de la conexión entre medios productivos y productos, y ambos comparten el entusiasmo por el futuro del Internet de las Cosas. En el caso alemán está más centrado en la fabricación y va más allá de la conectividad, y el americano está más abierto a otros ámbitos de aplicación donde la conectividad es relevante, como puede ser el de la energía y el transporte. En 2014, también por el presidente Obama, se lanzó el “Manufacturing USA 6” como la red nacional de innovación en fabricación. Consiste en una red de centros regionales que acelerarán el desarrollo y la adopción de tecnologías de fabricación de vanguardia para fabricar nuevos productos competitivos a nivel mundial. “El concepto alemán “Industrie 4.0” y el “Internet Industrial” americano no compiten entre sí, sino que son de alguna manera complementarios. Los dos enfoques se ocupan de la conexión entre medios productivos y productos y ambos comparten el entusiasmo por el futuro del Internet de las Cosas” El Reino Unido lanzó en Octubre de 2011 el programa “Catapult: Fabricación de Alto Valor 7”. La estrategia de catapultas, son 10 en total, está pensada para superar la brecha entre la industria y la investigación académica, ayudando a convertir grandes ideas en realidad, proporcionando acceso a instalaciones de investigación y desarrollo de clase mundial y experiencia que de otro modo estarían fuera del alcance de muchas empresas en el Reino Unido. La aspiración del Gobierno del Reino Unido es crear hasta 30 catapultas en 2030. En el caso de la catapulta de fabricación, ha incluido el desarrollo de 7 centros 8 con capacidades y competencias que abarcan desde las materias primas básicas hasta el proceso de ensamblaje de productos. “Made in China 2025 9”, ha sido el primer plan decenal para desarrollar una de las economías más avanzadas y competitivas del mundo con la ayuda de tecnologías de fabricación innovadoras. Esta política industrial pretende poner en jaque la primacía económica de las principales economías industriales del mundo. La estrategia apunta a industrias de alta tecnología como automoción, aviación, maquinaria, robótica, equipos marítimos y ferroviarios, dispositivos médicos y tecnología de la información. Tomando prestado del concepto alemán de Industry 4.0 y del Internet Industrial formulado en USA, pretenden mejorar enérgicamente los procesos industriales y aumentar la competitividad de sus empresas, primero en los mercados internos y posteriormente, propulsar su expansión global. La estrategia incluye entre otros, planes para un escalado industrial masivo, para optimizar la estructura industrial, para el incremento masivo de la calidad y fiabilidad de sus máquinas y, con una clara orientación a las personas. Con menos impacto a nivel divulgativo, Japón también está tomando medidas para mantener su posición global en la fabricación avanzada y acelerar el crecimiento en nuevos sectores de manufactura avanzada. En 2010, el gobierno aprobó una estrategia de crecimiento económico reeditada en julio de 2012, denominada “Estrategia de Renacimiento para Japón 10“, que establece objetivos sociales y económicos para 2020. Esta estrategia busca aprovechar las fortalezas de Japón en fabricación y tecnología, para invertir 1,3 billones de dólares en nuevas industrias y crear 4,7 millones de empleos en 2020. La fabricación avanzada (automoción, maquinaria y electrónica) representa la vanguardia de las capacidades industriales de Japón y su fuente principal de exportaciones; pero en los últimos 15 años, su cuota de mercado global se ha ido erosionando progresivamente. En su día Japón fue referente mundial en eficiencia y calidad en la industria, pero hoy día su productividad es un 29% inferior a la de USA y un 32% inferior a la de Alemania. Esta brecha no sólo es significativa, sino que se ha ido ampliando. A nivel particular de las empresas, los fabricantes de automóviles japoneses han mantenido excelentes resultados, pero a costa de desplazar gran parte de su producción fuera de Japón. En la industria electrónica, la fuerte entrada de actores como Samsung, LG, Xiaomi, Huawei o Lenovo ha mermado sustancialmente la cuota de mercado de las empresas japonesas. En nuestro entorno más cercano, la estrategia Basque Industry 4.0 supone una clara apuesta por seguir la tendencia de los líderes mundiales, con los pros y los contras que suponen nuestro reducido tamaño. A esta estrategia, muy similar a la alemana, se ha añadido la apuesta por los Centros de Fabricación Avanzada de forma semejante a los centros desarrollados dentro de la estrategia “Catapult” británica. Finalmente, la puesta en escena de la “Red de Activos Conectados de Fabricación Avanzada” supone una apuesta por integrarse en la Red Europea de Centros de Competencia, como proveedores de infraestructura y plataformas tecnológicas, y los Innovation Hubs 11 que se crean a su alrededor como espacios para acelerar la transformación de las empresas. 2. INDUSTRY 4.0: NUESTRA VISIÓN El término Industry 4.0 engloba a “la denominada cuarta revolución industrial derivada de una evolución tecnológica propiciada por el desarrollo de los sistemas embebidos, su conectividad y la correspondiente convergencia del mundo físico y virtual. Todo esto proporciona unas capacidades de integración de objetos, información y personas que puede propiciar un salto cualitativo en la producción y uso de bienes y servicios”. Para poner en contexto esta revolución merece la pena recordar las diferentes “olas” en la introducción de la electrónica y las tecnologías de la información (TEICs) en la producción industrial. La primera ola, en la década de los 80 e inicio de los 90, perseguía la eficiencia en los procesos. Fue la época de la introducción del CAD, CAM, los sistemas CIM (Computer Integrated Manufacturing), los FMS (Flexible Manufacturing System) y similares. Como en la actualidad, la integración y flexibilidad de los sistemas de fabricación eran los objetivos principales, limitados en aquella época por la tecnología disponible. “La estrategia Basque Industry 4.0 supone una clara apuesta por seguir la tendencia de los líderes mundiales, con los pros y los contras que suponen nuestro reducido tamaño” La segunda ola, en los años 90, se genera con la aparición de Internet y las tecnologías asociadas, como los portales de Internet y soluciones facilitadoras de la colaboración y la integración de la cadena de valor en su concepto más extendido (SCM, CRM, etc.). Poco después, con el inicio del nuevo siglo, la conectividad se extiende a las máquinas y se popularizan los conceptos de M2M (Machine to machine), y un poco más tarde surge con fuerza el concepto de Internet de las Cosas, ligado al desarrollo de IPv6. La proliferación de los dispositivos móviles y su capacidad de conexión experimentan un fuerte desarrollo hacia finales de la primera década del nuevo siglo. Todo este movimiento supone una tercera ola en la utilización de las TEICs y se puede considerar la precursora de lo que se está denominando 4ª revolución. Las empresas, por su parte, se cuestionan cómo les puede afectar todo este movimiento a su negocio para reaccionar en consecuencia (estrategia defensiva) o analizar qué oportunidades ofrece este nuevo escenario (estrategia pro-activa). En cualquiera de los casos, la reflexión se realiza a tres niveles: Primero y fundamental, al nivel estratégico. Es necesario analizar cómo queremos mejorar la propuesta de valor. No es lo mismo la incorporación de las nuevas tecnologías para aportar valor a mi producto, que incorporarlas a máquinas de producción para utilizarlas como herramientas en la eficiencia operativa. E incluso cambiar la propuesta de valor y/o el modelo de negocio. Definida la estrategia y los retos asociados, hay que pensar en cómo trasladarlos al proceso productivo o producto, actuando en el producto, el medio o sistema productivo que la empresa ofrece. Es decir, definir el modelo productivo que va a responder a esa estrategia, y definir y concretar una hoja de ruta en este sentido. En esta hoja de ruta es importante identificar las tecnologías clave sobre las que apoyarse y decidir cómo integrarlas: mediante su adquisición o desarrollo y en su caso con quién. Si la tecnología base va a ser clave en el negocio, se desarrollarán capacidades internamente y, quizás, en colaboración con agentes externos que permitan ir más rápido. A la hora de definir y desplegar una estrategia Industry 4.0 es conveniente utilizar un modelo de referencia como puede ser el representado, de forma simplificada, en el anterior esquema (modelo adoptado y presentado por IK4 Research Alliance en el último congreso de Basque Industry 201512: En este modelo de referencia hay tres niveles: Uno relacionado con las tendencias o drivers, el segundo relacionado con el modelo productivo y, por último, con las tecnologías posibilitadoras. Estos tres niveles están de alguna manera relacionados con los tres niveles mencionados anteriormente como guía de nuestra reflexión: El posicionamiento estratégico de la empresa estará relacionado/alineado con aquellos drivers o tendencias que pueden impactar más significativamente en su negocio. Puede ser la personalización, los ciclos de vida más cortos, las sostenibilidad o similares. “La empresa debe cuestionarse como le afecta la Industry 4.0 a 3 niveles: estratégico, modelo productivo, tecnologías de apoyo” El modelo productivo de fabricación avanzada Industry 4.0 tendrá como características: • La flexibilidad entendida como capacidad de producir, en último extremo, de forma personalizada. • La re-configurabilidad entendida como capacidad de adaptación de forma rápida y económica a los cambios en el producto. • Digitalización de los procesos, conectando e integrando las diferentes fases y medios del proceso productivo. • “Smartización” de los procesos y medios para responder de forma inteligente; entre otras cosas, esto significa aprender de experiencias previas y responder de forma autónoma a situaciones imprevistas. El peso que cada una de estas características tendrá en el modelo productivo dependerá de las tendencias a las que queremos dar respuesta. Por otra parte, hay otras dos características transversales muy relevantes en todo modelo productivo, muy alineados con el driver de sostenibilidad en sus diferentes vertientes; económica, social y medio-ambiental: • Centrados en las personas, independientemente del nivel de automatización. Las personas serán fundamentales en el buen desempeño del sistema productivo. • Eficientes, eliminando desperdicios para asegurar el máximo valor con la utilización de los mínimos recursos necesarios. Por último, tenemos el conjunto de tecnologías posibilitadoras que normalmente se asocian a Fabricación Avanzada Industry 4.0 y que las agrupamos en dos bloques: • Sistemas ciber-físicos, Big Data – analítica predictiva, y Cloud Computing: tecnologías que pueden ser troncales en una iniciativa Industry 4.0 por su esencia integradora. • Robótica colaborativa, simulación – realidad aumentada, visión artificial, fabricación aditiva: tecnologías que en función de los casos y atributos concretos tendrán más o menos peso. El modelo productivo siempre se visualiza bajo la perspectiva del usuario y del proveedor de equipos, sistemas o soluciones. Con esta visión, hay que destacar la oportunidad que presenta el caso de las máquinas o sistemas inteligentes y conectados, en el sentido de que el proveedor del equipo puede colaborar de forma sencilla con el usuario del mismo, para optimizar su operación y mantenimiento. A pesar de que existen barreras culturales que pueden frenar su implantación masiva, esta colaboración comenzará en aquellos casos en los que la ventaja es evidente. Vendrá acompañada por nuevas formas de negocio, por ejemplo el pago por uso para aquellos medios que realizan actividades de soporte, que no están relacionados con las actividades o procesos clave, y que pueden ser entre otros, los temas de logística de materiales. 3. CASOS DE APLICACIÓN Sistemas ciber-físicos Sin duda, la parte de Industry 4.0 que más ha trascendido al público general es el detalle de las tecnologías posibilitadoras, que no son más que lo que su propio nombre denota. Entre ellas, por su singularidad destacamos la irrupción de los sistemas ciber-físicos para producción (cyber-physical production system CPPS), que están sobre todo relacionados con la smartización y la connectividad/digitalización. Sus orígenes provienen de la evolución de los sistemas embebidos, y su primera reseña explícita data de 2006, cuando se celebró el primer taller de la NSF14 sobre sistemas ciberfísicos. Las tres características principales que los definen son: • Inteligencia: los elementos son capaces de obtener información de su entorno y actuar de manera autónoma. • Conectividad: tienen capacidad de establecer conexiones con los otros elementos del sistema, incluyendo a las personas, para la cooperación y colaboración, y tienen acceso al conocimiento y servicios disponibles en Internet. • Tienen capacidad de respuesta a los cambios internos y externos. “La robótica colaborativa ofrece soluciones más flexibles y reconfigurables. Se trata de una nueva generación de robots que trabajan de forma conjunta con las personas en entornos industriales permitiendo una mayor flexibilidad en la automatización de distintas tareas” Mencionamos un par de ejemplos de aplicación de CPPS para máquinas herramienta. El primero de ellos viene motivado por la necesidad de mejora de la productividad combinada con la producción flexible, en series de lotes pequeños. Una opción ante la diversidad de piezas a mecanizar es la integración de sistemas mecatrónicos en la máquina, como un sistema de amarre inteligente o componentes que dan información sobre el proceso y la máquina en tiempo real. El desarrollo de amarres inteligentes15 que se auto-adaptan a las particularidades de cada referencia de pieza y a las condiciones del proceso en tiempo real, son ya una realidad. También es ya una realidad que elementos de la máquina incorporen la sensórica para un conocimiento en tiempo real de las condiciones de uso, especialmente en elementos críticos como electromandrinos de alta velocidad 16. Este tipo de desarrollos puede catalogarse como sistemas CPPS de primera ge- neración, puesto que no tienen capacidad de conexión remota para, por ejem- plo, acceder a nuevo conocimiento que mejore su respuesta. Los sistemas CPPS, en su versión más compleja, integra por un lado, la parte física que puede ser una máquina o un robot y, por otro, una conexión con el mundo virtual, normal- mente en “la nube” en la que se recogen datos, se analizan y, como resultado de este análisis y según cada caso, se puede influir o actuar sobre el mundo físico, la máquina. En este sentido, en el caso de Twin-Control17, se investiga en un nuevo concepto para la optimización del rendimiento del proceso de mecanizado, incluyendo la evaluación del estado de las máquinas. Los datos de la monitorización se combinan con modelos avanzados de simulación de máquina y proceso para mejorar así el conocimiento del proceso. Se incluyen también elementos del ciclo de vida, como el consumo de energía y la vida útil de los componentes. Esta información de la monitorización, combinada con los modelos desarrollados, se utiliza a nivel de máquina para realizar acciones de control basadas en modelos y/o preavisar sobre componentes dañados de la máquina. Además, se utiliza un sistema de gestión de datos a nivel de flota para una adecuada gestión de su estado, y optimizar así las acciones de mantenimiento. “Los sistemas ciberfísicos se caracterizan por su inteligencia, conectividad y por su capacidad de respuesta ante cambios internos o externos”. Robótica Colaborativa Para dar respuesta a las necesidades de acortar el “time to market” asegurando la flexibilidad, re-configurabilidad y seguridad, la tecnología posibilitadora más prometedora es la robótica colaborativa. En el caso del sector aeronáutico, según las proyecciones de mercado, la demanda de aviones va a ser creciente con una necesidad de 30.000 aviones nuevos hasta el 2030. Este fuerte crecimiento obligará a que el “time to market” se reduzca notablemente, lo que implica adoptar un concepto de automatización, siempre complicado en el ámbito aeronáutico. La robótica colaborativa ofrece soluciones más flexibles y reconfigurables (ref. ROBOPARTNER18, CROINSPECT19). Se trata de una nueva generación de robots que trabajan de forma conjunta con las personas en entornos industria- les permitiendo una mayor flexibilidad en la automatización de distintas tareas. Estos nuevos robots permiten que la tecnología de automatización robótica sea más accesible, sobre todo para las pequeñas y medianas empresas, que son las que más demandan soluciones de automatización para abaratar costes y mejorar la calidad de sus procesos. Sin embargo, hay grandes retos pendientes para llegar a una colaboración segura: la introducción de elementos de seguridad que eliminen los riesgos en cada aplicación, la introducción de sensores y su procesamiento para integrar capacidades de adaptación inteligentes en los robots y, finalmente, estrategias de planificación para ofrecer soluciones colaborativas, en las que las tareas del robot y la persona se reparten. La tecnología para trabajar de forma colaborativa que se aplicará en CRO-INS- PECT aumenta la flexibilidad de la solución. Por un lado, el robot podrá operar de manera totalmente autónoma, una funcionalidad que permitirá aumentar la fiabilidad y los ciclos de inspección. Por otro lado, la solución permitirá que el técnico realice de forma más efectiva las operaciones más complejas utilizando el robot como herramienta de apoyo. 4. COMENTARIOS FINALES La industria está en el umbral, sino de la cuarta revolución industrial, sí al menos de una fuerte evolución que nos dirige hacia la convergencia de la fabricación real y virtual. Esta convergencia no es un fin en sí misma, sino el medio para una producción fuertemente individualizada20 o altamente flexible en condiciones de productividad elevada, o con tiempos de llegada al mercado más cortos, o bien para cambiar el modelo de negocio de venta de productos a servicios, o mejorar la sostenibilidad de la producción. El potencial de estos conceptos para cambiar múltiples aspectos de la vida parece ser enorme. Más allá del mundo de la fabricación, hay otros ámbitos de aplicación en donde se están generando desarrollos tecnológicos que a su vez son trasladables al mundo de la producción industrial; conceptos como los automóviles autónomos, la cirugía robotizada o las redes eléctricas inteligentes son sólo algunos de los ejemplos prácticos de lo que ya está apareciendo. Los cambios más grandes ocurrirán donde se pueda provocar una innovación disruptiva. Existe la posibilidad de que aparezcan nuevos actores en el mercado de la fabricación ofreciendo al cliente un beneficio directo en lugar de productos. Conceptos como pagar por disponibilidad, productividad o por valor generado mediante el uso de los CPPS pueden convertirse en estándar en este contexto. Parece generalmente aceptado que el impacto de la digitalización de la industria productiva a través del concepto Industry 4.0 tendrá enormes efectos económicos y organizacionales. En cualquier caso, las expectativas del impacto económico publicadas parecen al menos de momento exageradas Hay quien espera que el valor económico del Internet de las Cosas alcance 1,9 billones de dólares en todo el mundo en 202021, y en paralelo el coste de los procesadores va a disminuir hasta cerca de un dólar. Se espera que el ecosistema de proveedores de soluciones de Industry 4.0 alcance 420.000 millones de euros para 202022. Se supone que el uso de dispositivos conectados en sistemas de fabricación provocará mejoras de productividad en torno al 2,5-5%23; y el 60% de las empresas productivas creen que Industry 4.0 va a permitirles aumentar sus ingresos mediante la implementación de nuevos modelos de negocio24. Casi todas las plantas productivas (80-100%) podrían estar utilizando dispositivos conectados en 2025 y hay un impacto económico potencial de 0,9 a 2,3 billones de dólares en reducción de coste anual para el año 202519. “El impacto de la digitalización de la industria productiva a través delconcepto Industria 4.0 tendrá enormes efectos económicos y organizacionales. Se espera que el ecosistema de proveedores de soluciones de Industry4.0 alcance 420.000 millones de euros para 2020 y se supone que el uso de dispositivos conectados en sistemas de fabricación provocará mejoras de productividad en torno al 2,5-5%” A nivel internacional no cabe duda que Alemania es el referente en Industry 4.0 En Alemania, incluso las empresas pequeñas han adoptado Industry 4.0 en una fase temprana, lo cual les ha permitido crecer y tener un importante nivel de comprensión sobre cómo funciona y las capacidades que ofrece. Sin embargo, para alcanzar realmente al menos una parte de estas expectativas se necesita una concienciación de la necesidad de seguir invirtiendo en I+D+i por parte de todos los actores; y paralelamente, se debiera trabajar exhausti- vamente sobre los aspectos e implicaciones socio-éticos de la Industry 4.0. No podemos obviar que nuestras actividades de investigación tienen como objeti- vo fomentar el desarrollo económico de nuestra sociedad industrial, pero sin perder de vista cuestiones como el bienestar social25 y la compatibilidad con el medioambiente.Referencias [1] Datos 2015 (http://www.spri.eus/es/invertir-en-euskadi/datos-del-pais-vasco) [2] http://www.acatech.de [3] http://www.acatech.de/fileadmin/user_upload/Baumstruktur_ nach_Website/Acatech/root/de/Material_fuer_Sonderseiten/ Industrie_4.0/Final_report Industrie_4.0_accessible.pdf [4] https://obamawhitehouse.archives.gov/the-press-office/2011/06/24/ president-obama-launches-advanced-manufacturing-partnership [5] http://www.iiconsortium.org/about-us.htm [6] https://www.manufacturing.gov/nnmi/ [7] https://hvm.catapult.org.uk/ [8] https://hvm.catapult.org.uk/hvm-centres/ [9] http://www.iberchina.org/files/2016/MadeinChina_2025_merics.pdf [10] http://www.cas.go.jp/jp/seisaku/npu/pdf/20120821/20120821_en.pdf [11] https://ec.europa.eu/futurium/en/system/files/ged/ dei_working_group1_report_dec2016_v1.2.pdf [12] http://www.spri.eus/es/actualidad-spri/contenidos-de-jornadas/ ris3euskadi-los-videos-del-basque-industry-4-0-2015 [13] Cyber-physical systems in manufacturing. CIRP Annals. Manufacturing Technology 65 (2016) 621-641. [14] http://cps-vo.org/node/179 [15] http://intefix.eu/ [16] http://www.chameleonproject.eu/ [17] http://twincontrol.eu/ Twin-model based virtual manufacturing for machine tool-process simulation and control. [18] http://www.robo-partner.eu/ Seamless Human-Robot Cooperation for Intelligent, Flexible and Safe Operations in the Assembly Factories of the Future [19] http://cordis.europa.eu/project/rcn/204219_en.html Collaborative RObotic Solution for Advanced Inspection of Complex Composite parts [20] Product variety management. CIRP Annals. Manufacturing Technology 62 (2013) 629-652 [21] Slama D., e.a. Enterprise IoT. Strategies and Best Practices for Connected Products and Services. Safari Tech Books Online. 2015. [22] Frost & Sullivan (2015). Industry 4.0 Business Ecosystem – Decoding the New Normal. Demystifying the Emerging Industrial Paradigm and Evolving Business cases for the Future of Manufacturing [23] Manyika J. e.a. (2013) Disruptive Technologies: Advances that will Transform Life, Business, and the Global Economy. McKinsey Global Institute, San Francisco [24] Lichtblau K. e.a. (2015) Studie Industri 4.0 – Readiness, VDMA, RWTH. Köln. [25] The role of manufacturing in affecting the social dimension of sustainability. CIRP Annals. Manufacturing Technology 65 (2016) 689-712. -
Biología Estructural: contribución al descubrimiento y desarrollo de nuevos antibióticos
David Albesa-Jove1, Javier O. Cifuente2 y Marcelo E. Guerin3 1Investigador Ikerbasque Fellow, en el Grupo de Glicobiología Estructural, UPV 2Investigador Post-doctoral, en el Grupo de Glicobiología Estructural, UPV 3 Profesor de Investigación Ikerbasque, y lider del Grupo de Glicobiología Estructural, UPV Alexandre Yersin no lo dudó. El padre Bernardo Vigano pagó por los cuerpos y él corrió con su bisturí en mano. Abrió uno de ellos y, decidido, extrajo un bu- bón. Allí debía estar la respuesta. Y subió. Subió rápido hasta su laboratorio del Kennedy Town Hospital de Hong Kong, muy lejos de casa. Hizo un preparado y lo montó en su microscopio. Ese que siempre viajaba a su lado, a todas partes en su caja de madera. Miró ansioso. Un puré de microbios, todos parecidos con forma de bastones y extremos redondeados. Yersin descubría así al bacilo de la peste que haría honor a su nombre, Yersinia pestis. Esa plaga que hasta en- tonces había diezmado la población mundial en varias ocasiones (Camus, 1947). Quizás al encontrarse luego con el padre Vigano lo abrazó. Quizás solo se dieron la mano. O quizás se sumió en un profundo silencio. No lo sabemos. Pero lo que sí sabemos es que el padre Vigano hizo construir para Yersin, un hombre de una energía inagotable, una precaria choza de bambú recubierta de paja cerca del Alice Memorial Hospital, también en Hong Kong, para que éste pudiera avanzar en sus investigaciones con total libertad. En una habitación Yersin instaló sus tubos de cultivo y sus animales de experimentación. En la otra, contigua, dormía él en una cama de campaña. Junto a su inseparable microscopio óptico. Así era Yersin (Mollaret y Brossollet, 1985; Deville, 2014; Figura 1). Un año mas tarde Yersin se alojó en el mismo Instituto Pasteur de Paris, para intentar desarrollar la vacuna y el primer suero anti pestífero. Ya en Hong Kong intuyó que la inoculación de cepas poco o no virulentas, serían capaces de ge- nerar inmunidad contra la peste. Y en esa dirección trabajó muy duro junto con Émile Roux y Albert Calmette, consiguiendo establecer sus bases en poco más de tres meses. Tres años más tarde, muy lejos de allí, Paul-Louis Simond, que no las tenía todas consigo, se las ingenió en el Hotel Reynolds de Karachi (Simond et al., 1998), para descubrir que la pulga era la transmisora de la epidemia, ce- rrando así el circulo de su etiología. Yersin, que era un científico noble, felicitó a Simond. El descubrimiento de Yersin se sumaba al de muchos otros investigadores de la época, incluyendo el de Filippo Pacini y la bacteria que causaba el cólera en 1854, el de Robert Koch y el bacilo de la tuberculosis, en 1882 (Zumla et al., 2013a). El microscopio óptico le permitió a Yersin responder a la pregunta acerca del origen de la peste. Sin embargo, ¿qué había mas allá? ¿Cómo estaba estructurada esa bacteria que acababa de descubrir? ¿Por qué podía causarle la muerte a una persona? ¿Qué es lo que la diferenciaba de aquella que causaba la tuberculosis descripta por Koch? ¿Por qué no se movía, a diferencia de lo que ocurría con la que causaba el cólera? ¿Qué es lo que la diferenciaba de una célula humana? No había dudas. Había que mirar más en profundidad. Adentrarse en la estructura de aquellas bacterias. Pero ¿cómo? Afortunadamente, la curiosidad, las ilusiones y la energía de muchos otros científicos que trabajaron a lo largo de los años permitieron desarrollar técnicas que nos han permitido ver mas allá de lo que Yersin pudo ver aquel 20 de Junio de 1894, bien entrada la tarde, cuando descubrió el bacilo de la peste. Dichas técnicas nos permitieron conocer que las bacterias están esencialmente compuestas de tres tipos de moléculas: los lípidos, los glicanos y las proteínas. Y que la variabilidad de sus estructuras químicas, su disposición en el espacio y su relación con el tiempo y su entorno, las diferencian unas de otras. Dentro de las técnicas que nos han permitido ver estas estructuras a nivel molecular, encontramos a la microscopia electrónica, la resonancia magnética nuclear, y otra particularmente fascinante que permitió un avance fundamental en el entendimiento de la estructura molecular de la materia viva: la cristalografía de rayos X (Blundell y Johnson, 1976; Figura 2). “La biología estructural permite avanzar en el descubrimiento, desarrollo y comprensión de los mecanismos de acción de los antibióticos” ¿Que es la cristalografía de rayos X? ‘The technique explains why blood is red and grass is green; why diamond is hard and wax is soft; why glaciers flow and iron gets hard when you hammer it; how muscles contract; how sunlight makes plants grow and how li- ving organisms have been able to evolve into ever more complex forms? … The answers to all these problems have come from structural analysis.’ Max Perutz, Julio de 1996, Churchill College, Cambridge Estas fueron las palabras que Max Perutz escribió para poner de relevancia la importancia de la cristalografía de rayos X y su impacto en el conocimiento humano. La cristalografía de rayos X es el estudio de la estructura de los sólidos cristalinos y ha dado lugar al desarrollo de nuevas disciplinas como la Biología Molecular y la Biología Estructural. William Bragg y su hijo Lawrence Bragg fueron pioneros en el análisis de estructuras cristalinas mediante el uso de rayos X. En 1913 formularon la relación geométrica existente entre la posición de los átomos en un cristal y el patrón de difracción que se desprende del mismo al ser irradiado con rayos X. En un artículo seminal titulado ‘The Reflection of X-rays by Crystals’ (Bragg y Bragg, 1913), describen el primer difractómetro de rayos X, por el cual fueron merecedores en 1915 del Premio Nobel en Física. Sin embargo, este concepto no hubiese sido posible sin el descubrimiento de los rayos X y su capacidad de ser difractados mediante cristales. “El conocimiento de la estructura tridimensional de dianas terapéuticas permite el diseño racional de fármacos” Durante 1895, es decir un año después del descubrimiento de Yersin, Wilhelm Röntgen estudiaba los efectos de los rayos catódicos en tubos de vacío. Para ello había oscurecido su laboratorio. En concreto, Röntgen descubrió, de una forma fortuita, que al aplicar la corriente eléctrica al tubo de vacío, una tenue luz era emitida sobre una poyata apartada del tubo sellado. Esta luz provenía de un trozo de papel cubierto con sal de platino-cianuro de bario, material fluorescente con el que Röntgen realizaba dichas experiencias. Se dió cuenta de que la intensidad de luz emitida por la sal aumentaba al aproximarla al tubo sellado, por lo que era claro que el estímulo del brillo procedía de algún tipo de radicación emitida en el tubo de vacío. Durante las semanas que siguieron, Röntgen estudió en detalle las propiedades de esta radiación invisible y desconocida que bautizó como rayos X — siguiendo la notación matemática de la X para lo desconocido. Descubrió que los materiales densos absorbían más radiación que aquellos menos densos, y que dicha radiación volvía negro el papel fotográfico. Justo antes de Navidades decidió tomar una radiografía de la mano de su esposa, donde se observaban con claridad los huesos y el anillo de oro en su dedo anular, estableciendo el nacimiento de la radiología médica. El 28 de diciembre de 1895 publicó ‘On A New Kind Of Rays’ describiendo su descubrimiento, un logro que le valió en 1901 el primer Premio Nobel en Física. Röntgen intentó luego sin éxito reflejar los rayos X o focalizarlos con lentes ópticas. El desarrollo de la cristalografía tuvo que esperar hasta que otro físico alemán, Max von Laue, se preguntara esencialmente si los rayos X eran partículas u ondas. Si fuesen ondas deberían poder ser difractadas, al igual que la luz visible. Fue entonces cuando un alumno de Laue le habló acerca de los cristales, que se pensaba estaban compuestos por átomos dispuestos en forma ordenada. Laue intuyó que quizás ese orden cristalino pudiese ser capaz de permitir la difracción de los rayos X. Diseñó así el primer experimento de difracción de rayos X a partir de cristales de sulfato de cobre. Estas primeras imágenes fotográficas demostraron no solo que los rayos X son ondas, sino también que los átomos que forman los cristales se encuentran ordenados. Por el descubrimiento de la difracción de rayos X mediante el uso de cristales, Laue consiguió en 1914 el Premio Nobel en Física. Los tiempos que siguieron fueron fascinantes. Max Perutz, un joven refugiado austríaco recién licenciado que llegó a Cambridge en 1936, fue persuadido con el enorme reto de resolver la estructura cristalina de una proteína, uno de los principales componentes de la célula, bajo la supervisión de John Desmond Bernal, quien a su vez fuera discípulo de William Bragg. Poco después, Bernal dejó Cambridge para trasladarse al Birkbeck College en Londres, dejando atrás a Perutz, quien fue a discutir su proyecto con Lawrence Bragg. Su proyecto re- presentaba para la época una verdadera tarea de soñadores, ya que la estructura cristalina más compleja resuelta hasta la fecha, 1937, estaba compuesta por solo 40 átomos. ¡Perutz pretendía resolver una estructura cristalina de aproximadamente 5.000 átomos! Lawrence Bragg decidió apoyar a Perutz en este gigantesco y maravilloso esfuerzo, que culminó 25 años más tarde con la resolución de la estructura de la hemoglobina, por lo cual recibió el Premio Nobel en Química en 1962. Este logro representó a su vez el esfuerzo colectivo de muchos otros científicos, incluyendo el de Dorothy Hodgkin, quien colectó los primeros datos de difracción de rayos X a partir de cristales de proteínas en 1934. Es interesante mencionar que en 1951, Linus Pauling y Robert Corey (Pauling y Corey, 1951) propusieron que los péptidos que conforman las proteínas se encuentran mayormente formando estructuras helicoidales (hélices-⍺) o planas (hebras-β). Dichos modelos, pudieron ser visualizados por primera vez gracias a la resolución de las estructuras de la mioglobina y de la hemoglobina en 1959, sentando las bases de la Biología Estructural. El campo de la cristalografía ha evolucionando desde sus orígenes, en forma extraordinaria. Las fuentes de radiación de rayos X han sido perfeccionadas y robotizadas. Se han construido los sincrotrones (Figura 3). Los detectores han evolucionado drásticamente, siendo capaces en la actualidad de contar fotones con una exactitud absoluta. Se han desarrollado nuevos métodos de resolución y análisis estructural automatizados, en gran medida gracias al progreso en paralelo de la informática. Todos estos avances hacen hoy de la cristalografía de rayos X una técnica que impacta marcadamente en nuestro conocimiento de la vida a nivel molecular. Un ejemplo claro es el impacto que ha tenido en el descubrimiento y desarrollo de los antibióticos. El aporte de la biología estructural al descubrimiento, desarrollo y comprensión de los mecanismos de acción de los antibióticos. La era de la quimioterapia antibacteriana comenzó en la primera década del 1900 con el descubrimiento de la arsfenamina por el bacteriólogo alemán Paul Ehrlich (Dougherty y Pucci, 2012). Convencido de que el arsénico era clave para curar la sífilis, sintetizó a aparición del segundo antibiótico, esta vez de la mano del patólogo y bacteriólogo Gerhard Domagk, el cual testó en ratones la molécula sulfanilamida, derivada de la sulfonamida, dándose cuenta de que protegía a los ratones del ataque de los estreptococos de la especie Streptoccocus pyo- genes. Alexander Fleming descubrió el primer antibiótico natural, la penicilina, que fue crucial para salvar muchas vidas durante el período más sangriento de la historia de Europa. El descubrimiento de la penicilina fue completamente accidental, ya que lo que realmente estaba investigando Fleming eran las propiedades del Staphylococcus. En 1928, al volver de sus vacaciones observó como una de sus placas de petri había sido contaminada con un hongo, habiendo destruido casi completamente las colonias de Staphylococcus a su alrededor. Con el tiempo identificó que el hongo pertenecía a la familia Penicillium y, más tarde, identificó la sustancia llamándola penicilina (Figura 4). En 1945, Dorothy Hodgkin determinó su estructura, la primera de un antibiótico, por cristalografía de rayos X. Los científicos que descubrieron los tres primeros antibióticos obtuvieron el premio Nobel de Medicina, viéndose recompensado el gran aporte que hicieron al aumento de la esperanza de vida. Hoy en día existen antibióticos con estructuras químicas de naturaleza muy diversa lo que da a lugar a mecanismos de acción diferentes. Pero ¿por qué son efectivos? Estos modos de acción esencialmente impactan negativamente en el metabolismo bacteriano de manera que el individuo puede controlar la infección. A grandes rasgos se pueden clasificar a los antibióticos en dos grupos: los bacteriostáticos, en el caso que impidan la multiplicación de las bacterias, y los bactericidas, que directamente matan al microorganismo. Las sulfonamidas son un ejemplo de acción bacteriostática, ya que al interrumpir el metabolismo normal del ADN bacteriano inhibiendo la enzima dihidropteroato sintetasa, impiden su replicación y por tanto la división bacteriana. Un clásico ejemplo de un antibiótico bactericida es la penicilina y sus derivados que interrumpen la síntesis normal de la pared bacteriana, inhibiendo la enzima DD-transpeptidasa, generando una gran vulnerabilidad en la bacteria lo que provoca su muerte (Figura 4). Estos son algunos de los modos en que un antibiótico interrumpe funciones en los circuitos fisiológicos y metabólicos de las bacterias, funciones que en su gran mayoría están ligadas a proteínas que llevan a cabo una función específica. En resumen, a nivel molecular, los antibióticos interactúan mayormente con proteínas diana específicas alterando su actividad, lo que finalmente afecta la capacidad de supervivencia de las bacterias. “Las plataformas de biología estructural producen beneficios directos para el avance de la ciencia y tienen implicaciones directas en la sociedad, como motor económico y como herramientas para la mejora de la calidad de vida” ¿Por qué emergen las bacterias resistentes a los antibióticos? El uso de nuevos conocimientos científicos ha requerido, en ciertas ocasiones, de un período de aprendizaje para su buen uso. Con poco más de un siglo de experiencia en el manejo de antibióticos resultados indeseables e inesperados han surgido. Quizás el más grave de ellos haya sido la aparición de bacterias que, originalmente vulnerables a tratamientos quimioterápicos, han devenido resistentes (Figura 4). Este proceso tiene su origen en la selección natural de aquellos microorganismos resistentes a los antibióticos, siendo estos últimos una nueva presión de selección. Este fenómeno se ve exacerbado por el uso irracional de antibióticos, como se ha observado desde casi el despertar de la era antibiótica cuando, por ejemplo, el uso generalizado e indiscriminado de sulfonamidas en los frentes de batalla dió lugar a los primeros casos de cepas de Streptococcus pyogenes resistentes en hospitales militares. Este es un fenómeno muy preocupante en la actualidad, ya que representa un retroceso en nuestra capacidad de com- batir las enfermedades infecciosas, corriendo el riesgo de volver a una virtual era pre-antibiótica. La cristalografía de rayos X ha contribuido de una manera excepcional en la determinación no solo de las estructuras de antibióticos, sino también de las proteínas diana y de aquellas involucradas en los mecanismos de resistencia. Dichas estructuras han originado un volumen de conocimiento que resulta fundamental para la comprensión del funcionamiento de los antibióticos, permitiéndonos introducir mejoras en su actividad (Figura 4). Descubrimiento y desarrollo de antibióticos contra Mycobacterium tuberculosis: un desafío mayor. Mycobacterium tuberculosis, el agente causal de la tuberculosis, es el segundo agente infeccioso que más muertes causa en el mundo por detrás del HIV. La tuberculosis continúa siendo un grave problema sanitario a nivel mundial, cau- sando la muerte de aproximadamente 1.5 millones de personas al año. A su vez, se estima que la tercera parte de la población mundial esta infectada y es portadora de la forma latente de la bacteria. El tratamiento de la enfermedad es un proceso lento y laborioso, que requiere la administración de dos a cuatro fármacos de primera línea, incluyendo rifampicina, isoniazida, etambutol y pirazinamida, a lo largo de seis meses, y cuya adherencia por parte del paciente suele ser baja. Muy recientemente se ha detectado un marcado aumento en el número de cepas resistentes (MDR) y de cepas extremadamente-resistentes (XDR) de la bacteria en todo el mundo. La aparición de estas últimas es un hecho alarmante ya que presentan resistencia no sólo a la rifampicina e isoniazida, sino también a tres o más de las seis clases de antibióticos de segunda línea con los cuales la tuberculosis es tratable, lo que ha convertido en una necesidad urgente el descubrimiento de nuevos fármacos (WHO Report 2014). “Los nuevos avances en crio-microscopía electrónica tienen implicaciones directas en biomedicina y salud” La envoltura celular de M. tuberculosis es particularmente robusta, basada en glicanos y lípidos de estructura excepcional que juegan un papel esencial en el mantenimiento y la compartimentación celular al igual que en la patogénesis de la tuberculosis. Esta estructura química compleja le confiere a la bacteria una escasa permeabilidad celular, siendo responsable de la ineficacia de múltiples agentes antimicrobianos utilizados comúnmente para el tratamiento infecciones causadas por bacterias Gram positivas y Gram negativas (Zumla et al. 2013b). Por consecuencia, la pared celular es un foco de estudio muy intenso con el objetivo de identificar nuevas proteínas dianas para el descubrimiento y desarrollo de agentes anti-micobacterianos (Jackson et al. 2013). La pared celular micobacteriana se compone de tres segmentos principales. En la parte más interna se encuentra la membrana plasmática. La parte central de la pared, es conocida como el complejo micolil arabinogalactan-peptidoglicano. El ácido mi- cólico forma la parte interna de la membrana asimétrica externa, mientras que la parte externa está compuesta por (glico)lípidos, lipoglicanos y (lipo)proteínas. La capa más externa de la pared celular consiste en una estructura de bajo empaquetamiento denominada cápsula, que principalmente se compone de polisacáridos y proteínas con un porcentaje minoritario de lípidos. El objetivo a largo plazo de nuestro grupo de investigación, el grupo de Glicobiología Estruc- tural (Figura 5), es el de contribuir en el estudio de los determinantes estructurales y la modulación de la especificidad de sustrato de proteínas involucradas en la biosíntesis y modificación de glicanos. La búsqueda de alternativas terapéuticas que permitan combatir la tuberculosis nos ha llevado a interesarnos en proteínas involucradas en la síntesis de la envoltura celular de M. tuberculosis. En particular, aquellas que participan de la biosíntesis de fosfatidilinositol ma- nosidos (PIMs) y sus derivados, lipomanano (LM) y lipoarabinomanano (LAM). Los PIMs se encuentran unidos de forma no covalente mediante su residuo fosfatidilinositol a la membrana plasmática y a la membrana externa de la pared celular (Guerin et al., 2010). Pueden contener de uno a seis residuos de manosa y hasta cuatro cadenas alquílicas, siendo el fosfatidilinositol dimanosido (PIM2) y el hexamanosido (PIM6) tri- o tetra-acilados las especies mayoritarias in vivo. Hemos avanzado marcadamente en el conocimiento molecular de PimA, una enzima esencial para el crecimiento de M. tuberculosis y responsable de catalizar el primer paso en la ruta de síntesis de los PIMs (Boldrin et al., 2014). PimA es una glicosiltransferasa que cataliza la transferencia del primer residuo de manosa a un lipido aceptor, que se encuentra anclado en la membrana, el fosfatidilinositol (Albesa-Jove et al. 2014). Evidencias experimentales sugieren que la reacción se lleva a cabo en la interfaz entre la membrana y el citosol, gracias a la capacidad estructural de la enzima de acceder tanto a un sustrato hidrofílico, en este caso el GDP-Manosa que se encuentra en solución, como también al sustrato hidrofóbico embebido en la membrana. La estructura cristalina de PimA reveló que está compuesta de dos dominios con un plegamiento de tipo Rossmann, separados por un surco central importante donde se unen los sus- tratos y se lleva a cabo la catálisis (Guerin et al., 2007; Guerin et al., 2009; Giganti et al., 2013). Recientemente, hemos observado que esta enzima adopta diferen- tes estados conformacionales sin precedentes, un hallazgo que representa un avance en el conocimiento no sólo del mecanismo molecular de PimA, sino de proteínas que se asocian a membrana en general. Por primera vez hemos podido observar como una glicosiltransferasa es capaz de cambiar su conformacion mediante transiciones en su estructura secundaria de tipo β-strand–to–α-helix y α-helix–to–β-strand (Giganti et al., 2015; Figura 6). Estos cambios estructurales parecen modular la catálisis y estar promovidos por su interacción con los sus- tratos y/o con la membrana. El Grupo de Glicobiología Estructural participa activamente en el proyecto MM4TB - More Medicines for Tuberculosis, financiado por el VII Programa Mar- co de la Unión Europea, con un presupuesto de 16 millones de euros. MM4TB se ha constituido con el objetivo de contribuir al descubrimiento de nuevos fármacos que permitan combatir la tuberculosis. En concreto, el consorcio se plantea validar farmacológicamente al menos cinco nuevas dianas y descubrir al menos una familia de candidatos a fármacos susceptibles de ser transferidos a compañías biotecnológicas y farmacéuticas asociadas, para su futuro desarro- llo. La obtención de inhibidores contra la enzima PimA representa un desafío sin precedentes. El equipo que se ha reunido en torno a MM4TB utiliza un enfoque multidisciplinar e integral, incluyendo estrategias de screening tripartito y quí- mica medicinal, genómica funcional y biología estructural. En dicho consorcio participan, además de nuestro grupo, más de 20 grupos punteros de investiga- ción europeos, entre los cuales se encuentran las Universidades de Cambridge (UK), Uppsala (Suecia) y Pavia (Italia), el Instituto Pasteur de Paris (Francia), el ETH (Suiza) la École Polytechnique Fédérale de Lausanne (Suiza), y tres compa- ñías farmacéuticas lideres en el mercado, AstraZeneca, Sanofi-Aventis y Allere Tech GmbH, Dicho consorcio, se consolidó a partir del descubrimiento de una nueva serie de compuestos, las benzotiazinonas (BTZ), actualmente en fase de desarrollo preclínico.La importancia de la Biología Estructural
Las ciencias experimentales nacen de la curiosidad del ser huma- no por entender el universo que lo rodea. Mediante la observación sistemática y el análisis racional, la ciencia permite la conceptualización, clasificación y el ordenamiento del conocimiento científico. Esto lleva al planteamiento de modelos, que sometidos a perma- nente revaluación, tratan de explicar los fenómenos observados. En este marco se genera el concepto de estructura que surge de observar el orden interno de las entidades-objeto, los patrones que forman y en sumatoria resultan en un modelo de arquitec- tura del cosmos. Estas estructuras se clasifican, desde el punto de vista del tamaño, dentro de un rango que va desde los límites del universo conocible hasta la medición de las partículas subatómicas. Para el ser humano, dentro de la estructura del universo, el evento llamado vida es uno de los objetos de estudio de mayor atracción a su curiosidad, no solo por su singularidad y total centralidad en el espacio existencial del hombre, sino porque el avance en el conocimiento de la ciencia de la vida, la biología, impacta en el desarrollo de la humanidad. Un ejemplo de buen uso de este conocimiento puede corroborarse en cómo se ha afectado positivamente la calidad y el aumento de la esperanza de vida del ser humano al surgir la era antibiótica. El campo biológico actual esta enmarcado en un rango de tamaño que va desde la biosfera a la biofísico-química, y es a este nivel, el de la interacción de los átomos y moléculas donde se genera mucho del conocimiento fundamental. Ésta última región del estudio biológico, corresponde a las estructuras que no se pueden observar por medio de instrumentos ópticos del rango visible y es donde se define la biología estructural. La elucidación de estructuras biológicas se puede obtener por medio de diferentes técnicas. Las tres principales son la cristalografía de rayos X, la microscopía electrónica y la resonancia magnética nuclear. Estas técnicas son complementarias, ya que cada una aporta diferentes visiones de los objetos tanto por limitación de escala, resolución, flexibilidad o condición de preparación de la muestra de estudio. La biología estructural nace con la cristalografía de moléculas biológicas. Su fundamento es la iluminación de éstas moléculas ordenadas periódicamente, por ejemplo con rayos X, para obtener el patrón de difracción de cuyo análisis se extraen las posiciones atómicas de la molécula. Por medio de esta poderosa técnica se estudian maquinarias biológicas completas como el riboso- ma (complejos supramacromoleculares), proteínas en diversos estados conformacionales como PimA, complejos enzima-sustrato como los complejos de Michaelis de la enzima GpgS. La técnica sigue avanzando y últimamente el desarrollo de méto- dos de colecta de difracción de un flujo de cristales en solución (Time resolved crystallography) ha permitido observar cambios conformacionales en tiempo real, como el del centro reactivo de los fotosistemas tras la excitación por luz. Otra técnica importante en el campo es la microscopía electrónica, que usa haces de electrones que viajan enfocados por lentes magnéticas a través de la muestra interpuesta, soportada a una rejilla, análogamente a rayos de luz en un microscopio óptico. En su origen la muestra biológica necesitaba ser teñida con metales pesados para poder ser observada, actualmente, con el desarrollo de la microscopía en fase criogénica, la muestra se man- tiene en una fase acuosa vítrea a temperaturas de nitrógeno liquido, con lo cual las moléculas biológicas se hallan en estado nativo. Esta técnica también permite estudiar complejos supramacromoleculares, como complejos virus receptor, así como proteínas de mediano peso molecular. Hoy con esta téc- nica ya se pueden obtener estructuras atómicas. Por último, la resonancia magnética nuclear (NMR) usa la propiedad de ciertos núcleos atómicos de desdoblar sus estados energéticos en presencia de un potente campo magnético externo y al ser excitados, usando un pulso de radiofrecuencia, provocan una respuesta de resonancia cuya resultante es el espectro NMR, que a partir de su análisis permite obtener información de la estructura, su entorno químico y su dinámica molecular, esto último característica sobresaliente de la técnica.
Referencias [1] Camus A. La Peste (1947). [2] Mollaret HH y Brossollet J. Yersin. Un pasteurien en Indochine (1985). [3] Deville P. Peste y Cólera. (2014). [4] Simond M et al. Paul-Louis Simond and his discovery of plague transmission by rat fleas: a centenary. J. R. Soc. Med. 91, 101-104 (1998). [5] Zumla A et al. Tuberculosis. Engl. J. Med. 368, 745-55 (2013). Review. [6] Blundell TL y Johnson LN. Protein Crystallography (1976). [7] Bragg WH y Bragg WL. The Reflection of X-rays by Crystals. Proceedings of the Royal Society of London A: Mathematical, Physical and Engineering Sciences, 88, 428–438 (1913). [8] Pauling L. y Corey RB. Configurations of Polypeptide Chains With Favored Orientations Around Single Bonds: Two New Pleated Sheets. Proc Natl Acad Sci U S A., 37, 729–40 (1951). [9] Dougherty TJ y Pucci MJ. Antibiotic discovery and development (2012). [10] WHO | Global tuberculosis report 2014. [11] Zumla A et al. Advances in the development of new tuberculosis drugs and treatment regimens. Nat. Rev. Drug Discov. 12, 388–404 (2013). [12] Jackson M, McNeil MR y Brennan PJ. Progress in targeting cell envelope biogenesis in Mycobacterium tuberculosis. Future Microbiol. 8, 855–75 (2013). [13] Guerin ME et al. Molecular basis of phosphatidyl-myo-inositol mannoside biosynthesis and regulation in mycobacteria. J. Biol. Chem. 285, 33577-83 (2010). [14] Boldrin F et al. The phosphatidyl-myo-inositol mannosyltransferase PimA is essential for Mycobacterium tuberculosis growth in vitro and in vivo. J. Bacteriol. 196, 3441–51 (2014). [15] Albesa-Jové D, Giganti D, Jackson M, Alzari PM, Guerin ME. Structure-function relationships of membrane-associated GT-B glycosyltransferases. Glycobiology 24, 108–124 (2014). [16] Guerin ME et al. 2007. Molecular recognition and interfacial catalysis by the essential phosphatidylinositol mannosyltransferase PimA from mycobacteria. J. Biol. Chem. 282, 20705–20714 (2007). [17] Guerin ME et al. Substrate-induced conformational changes in the essential peripheral membrane-associated mannosyltransferase PimA from mycobacteria: implications for catalysis. J. Biol. Chem. 284, 21613–21625 (2009). [18] Giganti D et al. Conformational plasticity of the essential membrane-associated mannosyltransferase PimA from mycobacteria. J. Biol. Chem. 288, 29797–808 (2013). [20] Giganti D et al. Secondary structure reshuffling modulates glycosyltransferase function at the membrane. Nat. Chem. Biol. 11, 16–18 (2014). -
La ingeniería biomédica: de la pata de palo hasta las interfaces neuronales
Ander Ramos-Murguialday1-2, Andrea Sarasola2-3, Nerea Irastorza2-4, Manuel Montejo1, Goran Bijelic6, Niels Birbaumer2, Joe McIntyre7 y Thierry Keller8. 1TECNALIA Health Technologies Division. 2 Neurotechnology Laboratory & Institute of Medical Psychology and Behavioral Neurobiology, Neuroprosthetics Group, University of Tubingen. 3 DAAD-La Caixa PhDFellowship. 4 Basque Government PhD Fellowship. 5 TECNALIA Health Technologies Division. 6 TECNALIA Health Technologies Division, Biomaterials Area. 7 TECNALIA Health Technologies Division, Medical Robotics Laboratory & Ikerbasque Professorship. 8 TECNALIA Health Technologies Division, Neurorehabilitation AreaLa ingeniería biomédica es la fusión de prácticamente todas las ciencias en una sola disciplina. Se agrupan desde química, física y matemática hasta biología y medicina. La convergencia de todos estos campos, hasta hace poco acostumbrados a su aislamiento, ha supuesto un avance en calidad de vida importante y el auge de grupos multidisciplinares que juntos intentan resolver muchos de los problemas clínicos. Hasta hace bien poco nadie pensaba que se iban a resolver estos problemas, o por lo menos no tan pronto. El mejor investigador joven de Alemania en 2014, el vasco Ander Ramos, nos introduce en este apasionante mundo y nos explica uno de sus mayores logros dentro de las interfaces neuronales.Hoy en día la gran importancia de la ingeniería biomédica es reconocida y es relativamente normal que las grandes universidades tenga una titulación de ingeniería biomédica. Los campus se unen gracias a titulaciones como estas que tejen puentes de unión entre facultades aparentemente divergentes. Cada una, aportando su punto de vista y su “idioma”. Por este motivo, el problema principal de la ingeniería biomédica en sus inicios era el “idioma” común entre las especialidades. No es fácil que un ingeniero de telecomunicaciones se siente en la sesión clínica de neuroradiología y sea capaz de entender todo lo que se dice, e incluso aportar soluciones. Hoy en día, cada vez es más frecuente ver técnicos especialistas trabajando en hospitales y más médicos o biólogos trabajando en industrias tradicionalmente más orientadas a la ingeniería. Gracias a estas interacciones, existen los marcapasos, las prótesis de rodilla y cadera, las maquinas analizadoras de sangre y de tejidos, resonancias magnéticas, aparatos de rayos X, aplicaciones del móvil que nos indican el nivel de glucosa en sangre y nos alarman si tenemos que llamar a nuestro médico, prótesis que devuelven el oído, la vista o la capacidad de moverse a los que no la tienen o la han perdido. Todo esto es la ingeniería biomédica, y nos esperan unos años muy apasionantes viendo como las demás ingenierías (electrónica, materiales, telecomunicaciones etc.) y la famosa ley de Moore (la tecnología avanza a un ritmo exponencial al que suponemos, porque cada avance acelera el crecimiento del siguiente paso) consiguen que veamos como enfermedades o condiciones clínicas hoy en día sin solución, sean básicamente erradicadas. Los avances en este campo son tan abrumadores y rápidos, que la propia ética que los rige se queda muchas veces obsoleta nada más ser aprobada. La Comisión Europea en su Estrategia 2020 apuesta por mejorar la Salud y la Calidad de Vida de las personas, mencionando principalmente las Tecnologías Médicas. Estamos hablando de responder a las necesidades clínicas que se generan en una sociedad envejecida con baja natalidad, más sedentaria, más estresada y que cada vez tiene una esperanza de vida mayor. Este “cocktail socioeconóomico” y una mejora en las herramientas de diagnóstico y en conocimiento, hacen florecer cada vez más pacientes con enfermedades neurodegenerativas o con disfunciones de todo tipo. Las tecnologías médicas están ahí para poder prevenirlas, combatirlas, aminorar los síntomas, retrasar su desarrollo, ayudar en el diagnóstico, mejorar las herramientas clínicas, asistir en la atención y cuidado a los terapeutas y cuidadores, rehabilitar y por ende mejorar la calidad de vida. La ingeniería biomédica se podría dividir en prácticamente infinitas ramas, pero en este artículo vamos a describir brevemente las que consideramos principales en nuestro entorno, principalmente desde TECNALIA, finalizando con la rama en la que tenemos más experiencia en nuestro entorno definiendo el potencial dentro del ecosistema de ciencia-tecnología-empresa vasco. Imagenología médica Esta rama utiliza técnicas de registro diferentes para poder observar estructuras y funciones dentro de nuestro cuerpo para realizar un diagnóstico o una terapia o una intervención quirúrgica con mayor seguridad o de una manera mínimamente invasiva entre otras muchas aplicaciones. En esta rama tenemos tecnologías como los ultrasonidos ya utilizados para el diagnóstico en 1942 por el psiquiatra austriaco Karl Dussik. Esta tecnología utiliza el efecto “Doppler” con un emisor y un receptor que capta el rebote de las ondas de ultrasonidos y las transforma en imágenes en 2- o 3-D de nuestro interior para poder ver los diferentes tejidos e incluso el movimiento y flujo dentro de ellos. También muy conocida y una pionera dentro de esta rama, son los rayos-X descubiertos por el físico alemán Roentgen y que hoy en día, a pesar de los efectos de sus radiaciones, son utilizados rutinariamente en hospitales y clínicas. Otras técnica más actual es la resonancia magnética nuclear. A pesar de que el descubrimiento del principio físico fue en 1938 por Isidor Rabi, no fue hasta Marzo de 1972 cuando Raymond Damadian creó la primera máquina de imágenes por resonancia magnética. Las imágenes se obtienen dependiendo de la reacción de los núcleos atómicos al alinearlos a un campo magnético constante para posteriormente perturbar este alineamiento con el uso de un campo magnético alterno, de orientación ortogonal. Dependiendo de cómo se manipulan los parámetros de estas perturbaciones se han conseguido observar multitud de funciones y estructuras como por ejemplo composiciones moleculares de tejidos, estructuras de las redes neuronales y la actividad cerebral en zonas profundas con mucha precisión espacial en tiempo real. Este último caso es la denominada resonancia magnética funcional o fMRI en sus siglas en inglés, que es una técnica de registro de imágenes funcionales que puede, por ejemplo, medir la actividad de las neuronas en el cerebro mediante la detección de los cambios en el nivel de oxigenación o deoxigenación del flujo sanguíneo. Cuando un área específica del cerebro está en uso, el riego sanguíneo y el uso del oxigeno en esa región aumenta, es decir, los cambios en el riego sanguíneo pueden utilizarse como marcadores indirectos de la actividad cerebral. Por lo tanto, esta técnica es capaz de obtener imágenes funcionales con alta resolución espacial mediante la utilización de los cambios en magnetización de la sangre rica y pobre en oxígeno. Sin embargo, su resolución temporal en el rango de varios segundos o minutos hace que en ocasiones esta técnica se registre en combinación con otras como la electroencefalografía (EEG) o magnetoencefalografía (MEG), que poseen una mayor resolución temporal (del orden de milisegundos) registrando campos electromagnéticos producidos por los cambios de potencial eléctrico (intercambios de iones entre células; neuronas en este caso) cuando se comunican entre ellas. La tomografía de emisión de positrones denominada PET, es una técnica de imagen funcional basada en medicina nuclear utilizada por primera vez en pacientes en 1976 por Abass Alavi en Pennsylvania. Para obtener una imagen tridimensional de los procesos funcionales de nuestro cuerpo es necesaria la introducción de un radionucleido emisor de positrones, el cual a su vez emite rayos gamma que son detectados por el escáner. En numerosas ocasiones la reconstrucción de la imagen funcional se hace en combinación con un escáner de rayos X una resonancia magnética para así obtener simultáneamente información anatómica y metabólica, algo que puede ser útil especialmente para el registro de la actividad de órganos que están en movimiento o cuya estructura anatómica varía. Sin embargo, su alto coste y la exposición del paciente a radiación ionizante, ha hecho que su utilización sea limitada y principalmente utilizada para el diagnóstico de enfermedades cerebrales como las demencias y para la detección de tumores cancerígenos o metástasis. Una de las técnicas más novedosas es la espectrografía de luz infrarroja cercana (NIRS), que es una técnica no invasiva que utiliza luz infrarroja para determinar el grado de activación de áreas específicas del cerebro a base de medir la oxigenación, el riego sanguíneo y el estado metabólico de dichas áreas. Algunas de las ventajas de esta técnica son su simplicidad, flexibilidad y la alta relación señal/ruido. fNIRS graba señales con un alta resolución temporal, es transportable y menos costosa que comparada con técnicas como el fMRI. Sin embargo, sólo puede grabarse la actividad de tejidos cerebrales a profundidades de unos 1-3cm, lo que restringe su utilidad a la corteza cerebral. Electrodos o microelectrodos implantados dentro o sobre la corteza cerebral, sobre músculos, sobre la médula o en el sistema nervioso periférico son también métodos cada vez más comunes en patologías como la enfermedad de Parkinson y la epilepsia o durante neurocirugía para la resección de un tumor para determinar la funcionalidad de zonas cerebrales responsables de la disfunción. Todas estas técnicas se utilizan actualmente para el estudio de enfermedades como Alzheimer o depresión, el estudio de los efectos provocados por tumo- res cerebrales y el testeo del efecto de diferentes terapias comportamentales o medicamentos. Así mismo, es una técnica útil para identificar regiones relacionadas con funciones de gran importancia como las sensoriales, el habla o el movimiento, por ejemplo, antes de someter al paciente a una operación quirúrgica cerebral. Salud electrónica Los principales elementos de la revolución en la salud electrónica incluyen sen- sores y dispositivos conectados, sin cables, electrónica vestible, tecnologías móviles, redes de sensores corporales, que junto al software inteligente basado en algoritmos de inteligencia artificial (machine learning) y la analítica de datos (big data), están revolucionando sobre todo los campos de la prevención, el seguimiento y el diagnostico. La revolución digital en la salud supone, por un lado, empoderar a los ciudadanos para que monitoricen y gestionen mejor su salud, y por otro, mejorar los servicios de salud reduciendo costes, mejorando el acceso y la calidad, y proporcionando una medicina más personalizada. Gracias a la era digital y a internet se espera un crecimiento exponencial en los datos y en la necesidad de establecer nuevas formas gestionar estos datos éticamente y de guardar, reducir dimensionalidades en los datos que puedan proveer a los especialistas o a los mismos usuarios de información o datos relevantes de una manera sencilla y rápida sin perderse en detalles. En este campo, se están desarrollando muchos dispositivos “wearables” y apli- caciones para móviles basados en algoritmos avanzados para soluciones de salud digital, como por ejemplo una aplicación móvil para el análisis de patologías cardiacas a través de los sonidos cardíacos o un dispositivo “vestible” para la predicción de crisis epilépticas. Tecnología quirúrgica Dentro de esta rama se incluyen desde bisturís, separadores, cauterizadores, pasando por camillas, navegadores, aparatajes de monitorización fisiológica, hasta robótica quirúrgica para cirugías mínimamente invasivas. La medicina quirúrgica, puede que sea la primera expresión de la ingeniería biomédica. La aplicación de soluciones existentes como cuchillos, aguja e hilo, conjuntamente con nociones de anatomía y funcionalidad, es el mejor ejemplo del desarrollo del ingenio en el campo de la biomedicina o ingeniería biomédica. El diseño, la ergonomía, los materiales quirúrgicos esterilizables, su unión con la electrónica, monitorización y la disminución de la invasividad nos han permitido solucionar problemas médicos hasta hace pocas décadas impensables reduciendo drásticamente el riesgo de cualquier cirugía. Tecnologías de realidad aumentada aportando más información sobre anatomía y funcionalidad, y los robots quirúrgicos con asistencia háptica son unos de los avances más destacables en este campo. Probablemente los micro-robots externamente controlados sean el siguiente paso evolutivo en este campo tan apasionante. Biomateriales Esta rama relativamente reciente (apareció hace aproximadamente 50 años) trata del uso de cualquier material en la biología y la medicina. Esta definición tan amplia ha evolucionado y se ha diversificado en cientos de áreas y subáreas de investigación. El primer “biomaterial” podría haber sido un material híbrido compuesto por el diente de un animal unido a los dientes del paciente gracias a un hilo de oro, como describe Véronique Migonney en su libro “Historia de los Biomateriales”. Hoy en día los podemos encontrar de manera estandarizada en implantes mamarios, válvulas cardiacas, lentillas, implantes dentales o en recubrimientos de prótesis de rodilla o cadera y mas recientemente en la generación de tejido celular o incluso órganos a partir de células del propio paciente receptor o de incluso animales. La ingeniería de los biomateriales está determinada y depende de la respuesta fisiológica de acogida en diferentes modelos in-vitro e in-vivo, en soluciones celulares o directamente en celular sustraídas de animales o humanos o directamente implantándolas en animales y humanos para ver las reacciones celulares. El primer registro escrito de reacciones celulares in-vivo data de 1829, cuando H.S. Levert escribió sus estudios sobre la respuesta celular cuando una pieza de metal era implantada en un perro. Estudios recientes han identificado la maduración o progreso de aceptación celular de los biomateriales como uno de los principales retos en el diseño, fabricación, seguridad y en los procedimientos regulatorios. Estos retos son también compartidos en el ámbito de los nanobiomateriales y aplicaciones nanobiotecnologías. En la última década, ha habido un progreso importante surgiendo nuevas áreas de investigación, como los materiales inteligentes derivados de macromololéculas naturales, donde compuestos híbridos naturales y artificiales están ayudando a cerrar el bucle de control en nuevas fórmulas de diagnóstico implantables y en el suministro ultrapreciso de fármacos. Los desarrollos en el área de biomateriales abarcan desde la química de superficies y procesamiento de los biomateriales para estudios en modelos animales, hasta pruebas de biocompatibilidad necesarias para los procesos regulatorios internacionales. Ensayos de biofuncionalidad de materiales porosos para la mejora de la aceptación y anclaje de implantes (por ejemplo de cadera) o para la liberación controlada de fármacos en cualquier tipo de implante (por ejemplo stents) está actualmente a la orden del día. Otras aplicaciones combinando los biomateriales y el uso de campos magnéticos o eléctricos para la transferencia de fármacos a través de diferentes tejidos (como la transmisión percutánea de fármacos) se están acercando a unos niveles de precisión importantes mejoran- do el suministro farmacológico en precisión espacial y temporal y reduciendo efectos adversos presentes en otro tipo de administración de fármacos (por ejemplo oral). Prótesis La protésica, del griego prosthesis “aplicación añadida o adjunta”, es una de las ramas iniciales de la ingeniería biomédica, aplicando directamente la mecánica a la restauración de funciones motoras. El primer documento describiendo el uso de una de ellas (1700-1100 a.C.), apunta a la reina guerrera india Vishpa- la, como la primera portadora conocida de una de estas prótesis. Las prótesis mecánicas son mencionadas incluso en la mitología griega pero no fue hasta el siglo pasado cuando se produjo una revolución y un avance considerable en ellas. Las prótesis funcionales pueden ser implantables o externas. Las prótesis mecánicas mas conocidas son las famosas extremidades piratas como la “pata de palo” o el “garfio”. Con un diseño lo mas ergonómico posible, amputaciones eran compensadas por soluciones básicas pero funcionales. Hoy en día estas prótesis externas han evolucionado bastante incluyendo robótica en su diseño, aunque todavía son las basadas en mecánica pasiva (órtesis mecánicas para el soporte mecánico de articulaciones etc.) las más utilizadas debido al peso y a su estética. Recientemente, se han desarrollado aplicaciones novedosas, como por ejemplo, órtesis cuyas propiedades mecánicas pueden cambiarse instantáneamente, pasando de ser flexibles y fácilmente ajustables a un estado rígido capaz de soportar fuerzas muy superiores a las necesarias para su función ortésica. Dentro del área de la protésica se podrían incluir la robótica asistencial o para la rehabilitación. Esta tecnología robótica debe jugar un papel importante en un futuro cercano sobre todo en el aspecto rehabilitador o asistencial debido a la inversión de la pirámide social que representa el descenso de la natalidad y el descenso del numero de potenciales cuidadores para personas cada vez mayores. Las prótesis implantables que restauran funciones son cada vez mas comunes y engloban desde prótesis de rodilla y cadera, pasando por prótesis dentales, hasta neuroprótesis como el marcapasos, las neuroprótesis visuales, auditivas o motoras como la estimulación cerebral profunda utilizada en pacientes con Parkinson. Estas últimas prótesis interactuado con el sistema nervioso central, son las que abren la siguiente sección de este artículo. Una aplicación nueva, que agrupa muchas de las áreas que hemos comentado sobre estas líneas y que puede re- sultar en uno de los mayores avances médicos de las últimas décadas. La Neuroingeniería Dentro de este campo, merecen especial atención las interfaces neuronales y su aplicación dentro de la rehabilitación de una función perdida o comprometida por algún tipo de enfermedad o accidente. Es decir, utilizar las señales que podemos registrar del sistema nervioso relativos a una función y utilizarlos para volver a excitar el sistema nervioso de tal manera que podamos generar un cambio en las conexiones o redes neuronales (neuroplasticidad) y así conseguir que la función se pueda restaurar. Es decir, hacemos bypasses en el sistema nervioso utilizando la tecnología para corregir o cambiar una función. Como es el sistema nervioso el que regula mucha de las funciones de nuestro cuerpo, este campo está recibiendo actualmente mucha atención y las grandes compañías denominan a estas soluciones neurotecnológicas para interactuar y modelar partes del sistema nervioso electroceuticals (alternativa a medicamentos). Estimulando de una manera inteligente el sistema nervioso se podría llegar a regular funciones de cualquier órgano. La tecnología de interfaces neuronales para cambiar comportamiento o funciones de algunos órganos, comenzó durante la década de 1950-60 con el científico español José Manuel Rodríguez Delgado, parando a través de un mando a distancia a un toro que se dirigía hacia él a toda velocidad estimulándole con un electrodo en el cerebro. Este tipo de interfaces neurales se denominan de bucle abierto, ya que no hay una estimulación que dependa de ninguna otra señal. Las interfaces en bucle cerrado, son las que utilizan información del sistema nervioso para controlar la estimulación del mismo. Esta estimulación del sistema nervioso se puede producir indirectamente a través del sistema sensorial (vista, oído, tacto, gusto y olfato). La primera demostración del uso de una interfaz-cerebro-máquina en bucle cerrado la realizo por primera vez en 1999 el Prof Niels Birbaumer. Un paciente casi completamente paralizado por la esclerosis lateral amiotrófica (ELA) escribió una carta utilizando únicamente el control de su actividad cerebral. Hace dos años se produjo la primera comunicación entre un paciente que llevaba años incomunicado por una ELA y su familia gracias a un nuevo sistema del Profesor Birbaumer. Esta neurotecnología asistiva se ha llegado a optimizar hasta el punto de poder controlar con única y exclusivamente actividad de unas cuantas neuronas, un cursor en una pantalla o un brazo robot. La primera demostración de control mental con un par de neuronas de un cursor en una pantalla, fue en 2003, cuan- do Jose Carmena y Miguel Nicolelis consiguieron hacer que uno de sus primates controlara el movimiento de un cursor y no ha sido hasta 2011 hasta que dos grupos estadounidenses de la Universidad de Brown y de Pittsburg consiguieran hacerlo en humanos. Una nueva aplicación de la neuroingeniería trata el uso de la neuroingeniería en la rehabilitación, también denominada neurorehabilitación, que se basa en la promoción de la neuroplasticidad como motor para regenerar y construir nuevas conexiones neuronales. La neurorehabilitación es un término muy general, que puede englobar desde el uso de estimulación eléctrica de los músculos para producir movimientos, pasando por un videojuego para trabajar la memoria, hasta interfaces cerebro-maquina que permiten controlar ordenadores con actividad cerebral. Uno de los mayores logros dentro de las interfaces neuronales para la neurorehabilitación, se ha conseguido recientemente en 2013, cuando Ander Ramos-Murguialday y Niels Birbaumer consiguieron recuperar la movilidad de un miembro paralizado durante varios años tras un infarto cerebral, utilizando una interfaz-cerebro-máquina y un exoesqueleto robótico. La manera en la que se emplea esta técnica es la siguiente: se presentan una serie de preguntas a estos pacientes mientras se registra su actividad cerebral. Los pacientes se concentran y piensan en la respuesta que quieren dar, generalmente Sí o No, y la interfaz es capaz, con un cierto margen de error, de decodificar la respuesta del paciente estableciendo una comunicación entre el paciente completamente paralizado y bloqueado y el mundo exterior. Para conseguir este logro, se registra la actividad cerebral en pacientes paralizados por un infarto cerebral cuando intentan mover su mano paralizada. Esta información eléctrica la procesamos y la decodificamos con unos algoritmos, con los que somos capaces de saber (con un cierto margen de error) cuando el paciente quiere mover su mano. Esta información la utilizamos para mover un exoesqueleto robótico muy simple, cerrando así el bucle entre la intención de producir un movimiento y ese mismo movimiento. Como los pacientes ven y sienten el movimiento, la red neuronal encargada de una tarea visuomotora (ej. Agarrar una manzana) se excita de una manera bidireccional: motor y sensorial. A través de hacer esto durante 4 semanas consecutivas todos los días, se produce un aprendizaje y una plasticidad cerebral funcional. Es decir, tras la rehabilitación con nuestra interfaz neuronal, conseguimos que la mayoría de los pacientes, que llevan meses y la mayoría de los casos años, vuelvan a mover su miembro paralizado. Unos milímetros, no mucho, pero el resultado es esperanzador. Por lo tanto, esta tecnología rehabilitativa consta de tres partes que constituyen un bucle cerrado que promueve y facilita el reaprendizaje y la recuperación de las funciones perdidas: el primer paso consiste en grabar una bioseñal, como puede ser la actividad cerebral, que se utiliza para interpretar la intención de movimiento del paciente. Seguidamente, en el segundo paso la interfaz decodifica la intención del paciente por medio de unos algoritmos que han sido entrenados para esa función. Finalmente, en el último paso se ejecuta el movimiento decodificado por medio de un actuador, como puede ser un exoesqueleto su- jeto al brazo parésico del paciente, la estimulación eléctrica funcional aplicada en los músculos paralizados, etc. De esta forma, el paciente recibe información sensorial y propioceptiva que le ayuda a modular la bioseñal utilizada produciendo así ciertos cambios funcionales y estructurales que pueden dar lugar a un re-aprendizaje motor. Se ha demostrado en varios estudios que la existencia de un bucle cerrado que establezca un enlace entre la intención de movimiento y el movimiento real realizado por un actuador que mueva la extremidad paralizada del paciente es clave para lograr una terapia de rehabilitación lo más efectiva posible. En las interfaces neuronales también llamadas interfaces cerebro-maquina o BMI por su nombre en inglés brain-machine interface, la actividad cerebral se utiliza como señal de control y puede ser grabada con distintas técnicas que se han ido desarrollando y mejorando en las últimas décadas y que ya hemos mencionado en este artículo. Una de las más comunes es la encefalografía (EEG), que registra de forma no invasiva la actividad eléctrica espontanea del cerebro. Más en detalle, la técnica registra las fluctuaciones en el voltaje debidas a las corrientes de iones que fluyen entre las neuronas en nuestro cerebro. Las señales EEG han sido ampliamente empleadas para el diagnóstico de enfermedades como la epilepsia o en varias áreas de investigación como son el sueño, la neu- rorehabilitación, etc. debido a su bajo coste, su alta resolución temporal y a su relativa facilidad de uso. Sin embargo, la EEG presenta varias desventajas con respecto a otras técnicas: posee una baja resolución temporal, la calidad de la señal (relación señal/ruido) es pobre y la cantidad de información que se puede extraer sobre la actividad de áreas cerebrales no superficiales es limitada. Técnicas invasivas como la electrocorticografía (registro de actividad mediante electrodos intracraneales sobre la corteza cerebral) y la utilización de microelectrodos depositados en la corteza cerebral ofrecen una mayor resolución y calidad de la señal al no tener la barrera impuesta por el cráneo, que reduce la calidad de la señal en técnicas no invasivas como la EEG debido a la baja conductividad del tejido óseo. Otro tipo de interfaces son las electromiográficas, que utilizan la actividad electromiográfica (EMG) de los músculos del paciente por ejemplo para controlar el movimiento de un robot o para activar una serie de estímulos eléctricos que produzcan contracciones musculares en la extremidad paralizada. El entrenamiento con este tipo de terapias rehabilitativas puede ayudar al paciente a aprender a generar de nuevo los patrones sanos y naturales de actividad muscular, los cuales han quedado afectados por la enfermedad o accidente. Estas interfaces son empleadas también con fines asistivos, es decir, como sustitución de funciones o extremidades perdidas para pacientes amputados o para pacientes con paresis en los cuales las terapias de rehabilitación existentes no son aplicables o no han sido completamente exitosas. Un ejemplo de estas son las prótesis de extremidad superior o inferior. Las prótesis han permitido a amputados realizar tareas y movimientos que les eran imposibles de llevar a cabo anteriormente. Sin embargo, existen aún una serie de limitaciones como son la relativa estabilidad de las señales de control EMG a lo largo del tiempo y la limitación de no poder controlar más de un grado de libertad al mismo tiempo. En los últimos años se ha concentrado un gran esfuerzo en este campo para desarrollar prótesis que permitieran realizar movimientos de la forma más natural e intuitiva posible incluyendo múltiples grados de libertad del miembro superior al mismo tiempo. Sin embargo, la falta de robustez y fiabilidad en el control de prótesis tan avanzadas es entre otras comentadas anteriormente, una de las razones por las que los usuarios prefieren las prótesis más robustas aunque también más sencillas y limitadas y por lo que aún no se han establecido en el mercado dichos dispositivos. Como hemos mencionado antes, el tercer paso de las interfaces cerebro-maquina con fines rehabilitativos consiste en que un actuador transforme la intención de movimiento del paciente en el movimiento real de su extremidad paralizada. Es aquí donde entra en juego el campo de la robótica rehabilitativa. Hasta hoy en día tanto exosesqueletos como órtesis han sido utilizados para producir el movimiento que el paciente desea pero es incapaz de realizar. Es decir, estos actuadores proporcionan una retroalimentación, o a menudo llamado con su nombre en inglés, feedback sensorial y propioceptivo al paciente de forma que este último sepa en todo momento si la actividad cerebral que está generando es la correcta para producir el movimiento deseado. Basándose en esta información, el paciente adapta su actividad cerebral para lograr que el actuador realice el movimiento que desea y es así como poco a poco el paciente aprende a modular su actividad cerebral pudiendo llegar a recuperar las funciones motoras perdidas. Por lo tanto, los robots pueden ser utilizados para ofrecer terapias de rehabilitación seguras, intensivas y orientadas hacia una tarea específica a pacientes incluso con incapacidades motoras severas. Los robots permiten incrementar la intensidad de la terapia sin que esto conlleve un gran coste adicional. Así mismo incluye las siguientes ventajas: i) el movimiento se puede asistir y controlar de una forma sencilla y precisa; ii) se puede repetir el mismo movimiento un gran número de veces sin introducir gran variabilidad; iii) el feedback proporcionado al paciente por medio del movimiento de su brazo parésico incrementa su motivación; iv) proporciona medidas objetivas y cuantificables, como datos cinéticos y cinemáticos para calcular la evolución del rendimiento y del aprendizaje motor del paciente; v) reduce el nivel de asistencia fisioterapéutica necesaria para realizar la terapia de rehabilitación, lo que a su vez reduce los costes de atención médica. En conclusión, los robots permiten al paciente llevar a cabo una terapia de rehabilitación intensiva, con un gran número de repeticiones y de forma cuasi-independiente. Se ha demostrado que un entrenamiento repetitivo, progresivo y capaz de motivar e involucrar al paciente en la tarea puede inducir cambios plásticos en las redes neuronales encargadas del control y aprendizaje motor. Estos cambios pueden ser de carácter funcional y anatómico-estructural y se dan como resultado de unos procesos denominados neuroplásticos. La neuroplasticidad, en el nivel más básico, consiste principalmente en cambios moleculares en la excitabilidad y transmisión de las sinapsis neuronales. Esto produce una reorganización de las redes neu- ronales que puede ocurrir en los hemisferios cerebrales, a lo largo de la medula espinal y finalmente incluir todo el sistema central nervioso. Por lo tanto, las terapias de neurorehabilitación repetitivas, intensivas y motivacionales realizadas con la ayuda de robots de rehabilitación constituyen ser un buen método para promover la recuperación de las funciones motoras perdidas, como ya ha sido demostrado en estudios recientes. El feedback en las interfaces cerebro-maquina se puede dar también mediante técnicas como la estimulación eléctrica funcional (EEF), que consiste en la aplicación de estímulos eléctricos a los músculos los cuales producen potenciales de acción en los nervios periféricos generando así contracciones musculares. EEF se ha utilizado para la corrección de drop-foot (pie caído/pendular/equino), dorsiflexión de piernas afectadas por una hemipáresis, etc. Se ha demostrado que la EEF mejora la fuerza del musculo parésico y la circulación sanguínea y cada vez son mas convincentes los indicios de que también ejerce una cierta influencia en la organización cortical. Así mismo algunos estudios han mostrado que combinada con otras estrategias de rehabilitación puede producir mejoras de la marcha y acelerar el proceso de rehabilitación.Euskadi y la ingeniería biomédica Sabiendo que el mercado de la ingeniería biomédica está llamado a alcanzar los 228.700 millones de dólares en 2020, creciendo a 13.4% durante el periodo de 2015 to 2020, nos hace ver la relevancia de este sector no solo en la sociedad, la ciencia, y la calidad de vida, si no en nuestra economía. Como ya hemos comentado, en las tecnologías médicas se necesitan los mismos conocimientos básicos y muchas de las tecnologías que se usan en otro tipo de industrias como las de nuestro país. Electrónica, informática, materiales, energía, robótica, telecomunicación, química, física…toda esa tecnología y principalmente los recursos humanos que la desarrollan, mantienen y diseñan, se puede reorientar prácticamente sin esfuerzo a desarrollar tecnologías médicas. Evidentemente hace falta una interacción directa desde el inicio con la clínica, que afortunadamente también es excelente en nuestro país, y una serie de personas que sirvan de puente y sepan combinar esos recursos para obtener un resultado importante y de impacto. Hacen falta, como ya tenemos, titulaciones universitarias que generen la próxima ola de investigadores y desarrolladores de tecnología médica. Es decir, estamos capacitados de sobra para jugar un papel relevante a nivel internacional en este campo si jugamos bien nuestras cartas. Es una cuestión de estrategia a largo plazo ya que nosotros seremos los primeros beneficiados de esa tecnología y cuanto mejor queramos vivir en el futuro, más se debería de invertir en tecnología/ciencia/investigación.
Entradas recientes
- La UPV/EHU aprueba nuevas ayudas a la investigación por importe de 1,2 millones de euros
- Cuatro centros de investigación se unen por el Día de la Mujer Científica
- ATLAS Molecular Pharma, galardonada en los “Go Health Awards 2019” por su tratamiento para la porfiria eritropoyética congénita
- Novaltia y UPV/EHU ponen en marcha una cátedra para fomentar la investigación en el sector farmacéutico
- CIC nanoGUNE cumple una década de ciencia, colaboración, formación y transferencia