Oficina Virtual GRATIS 2 MESES

Oficina Virtual GRATIS 2 MESES
CONSIGUE TU OFICINA VIRTUAL GRATIS

sábado, 20 de marzo de 2021

La investigación farmacéutica necesita una mejor gestión del dato

Opinión
Rosalía Sierra
Sáb, 20/03/2021 - 08:00
Permite acortar los tiempos de desarrollo y comercialización
El acuerdo firmado por Arkopharma y la UCM busca la integración entre la investigación universitaria y el tejido empresarial.
El acuerdo firmado por Arkopharma y la UCM busca la integración entre la investigación universitaria y el tejido empresarial.

Lightspeed fue el nombre de uno de los proyectos con el que se puso en el mercado una vacuna covid-19 a una velocidad nunca vista. Sin embargo, los proyectos excepcionales de este tipo no deben ocultar el hecho de que, normalmente, el desarrollo de nuevos fármacos progresa a ritmo de caracol. Por lo general, se tarda un promedio de 13 años desde la idea inicial hasta la primera aprobación. Para poder acortar estos tiempos, uno de los desafíos a acometer es poder gestionar de forma mucho más eficiente la enorme cantidad de datos descentralizados que tienen que ser analizados en estudios clínicos de medicamentos, todos estrictamente regulados por las leyes y estándares de la industria.

El reto del análisis de datos

El volumen de datos de las empresas farmacéuticas que realizan investigación avanzada ha alcanzado desde hace tiempo dimensiones de petabytes, ya que, aparte del gran volumen a manejar, se trata de un conjunto de datos extremadamente heterogéneo. Hay datos estructurados en forma de valores farmacodinámicos (dosis, valores sanguíneos, valores hepáticos, etc.), así como datos no estructurados (fotos, radiografías, tomografías computerizadas, etc.).

Además de los resultados de las pruebas de los ciclos iterativos de los ensayos, hay información personal sobre los pacientes, datos organizativos y la comparación con los resultados de las investigaciones existentes, y esto, según el programa del estudio del que se trate, puede referirse a cientos o incluso miles de sujetos. Si nos vamos a los ensayos de fase IV, cuyo objetivo es detectar efectos secundarios muy extraños tras el lanzamiento de un medicamento al mercado, puede haber decenas o cientos de miles de participantes.

Galo Montes, director de tecnología de Hewlett Packard Enterprise
Galo Montes, director de tecnología de Hewlett Packard Enterprise

Teniendo en cuenta que todos estos datos se generan y comparten entre varias organizaciones, ya que en los ensayos las empresas farmacéuticas cooperan con socios como universidades y organizaciones de investigación, existen requisitos extraordinarios en cuanto al almacenamiento, el acceso, la distribución y el análisis de los mismos. Las empresas e instituciones de investigación deben ser capaces de trabajar con los datos de forma colectiva -a veces a través de fronteras nacionales- y cumpliendo siempre la normativa de protección de la información.

Por ello, es crucial evaluar la ingente cantidad de datos lo más rápido posible para acelerar el tiempo de comercialización. Sin embargo, ninguna plataforma informática es igualmente adecuada para todas las cargas de trabajo. Un sistema de computación de alto rendimiento (HPC) con procesadores convencionales (CPU) podría, por ejemplo, ser óptimo para el modelado farmacocinético con el software NONMEM7. Pero, por otro lado, utilizando técnicas de aprendizaje automático (Deep Learning) con Hadoop y Spark se ejecuta significativamente más rápido con procesadores gráficos (GPU).

Nueva arquitectura de datos

Por tanto, las organizaciones de investigación necesitan una arquitectura de datos que esté diseñada para poder adecuar de forma flexible la gestión de las cargas de trabajo con las capacidades de computación más adecuadas, ya sea basadas en CPU o en GPU, en el centro de datos de una farmacéutica, en empresas asociadas o incluso en el cloud.

La nueva arquitectura debe ser altamente escalable y capaz de fusionar lógicamente bases de datos heterogéneas y distribuidas globalmente en un data lake, con un espacio de nombres uniforme en todas las ubicaciones. Esto permite a los equipos de investigación de diferentes organizaciones acceder fácilmente a los datos, pero con el estricto control de cuándo y quién tiene acceso a los mismos. 

Todo esto es necesario para garantizar el cumplimiento de normas como por ejemplo GxP, que son directrices de buenas prácticas establecidas por la Administración de Alimentos y Medicamentos de Estados Unidos. La flexibilidad multiplataforma sólo es posible si los datos son seguros, trazables y con integridad.

En términos de costes, otro factor que representa un gran avance para las empresas farmacéuticas es que los proveedores de TI tradicionales están ofreciendo los recursos de hardware (ordenadores, almacenamiento, redes) como servicio en las instalaciones del cliente. Los modelos bajo demanda permiten al cliente obtener recursos a corto plazo y pagar por ellos en función del uso real y a un coste muy inferior. Esto extiende la agilidad del cloud público al centro de datos corporativo, lo que se suele llamar como la cuarta cloud, la cloud que va al cliente.

Ejemplo Práctico

Para la tercera fase de un estudio clínico utilizando la metodología de doble ciego con 2.000 sujetos de prueba, una clínica universitaria utiliza el clúster HPC interno, que está optimizado para sus aplicaciones internas de análisis. Varios laboratorios especializados reciben la autorización para enriquecer determinados grupos de datos con los resultados de sus propios laboratorios en remoto. Para la evaluación basada en IA de las tomografías computarizadas, la clínica utiliza las capacidades temporalmente activadas de los sistemas basados en GPU; sin embargo, para la comparación estadística con los resultados de la segunda fase de prueba y la búsqueda de anomalías, ejecuta técnicas de machine-learning en un cloud privado alojado en un proveedor de servicios local.

En este escenario, hay dos factores que ahorran tiempo valioso en el trayecto hacia el lanzamiento al mercado del nuevo fármaco: en primer lugar, el uso del entorno informático más adecuado en cada caso y, en segundo lugar, la posibilidad de llevar a cabo el traspaso de los datos de forma segura entre entornos externos e internos, sin pérdidas por fricción y de acuerdo con las normas y reglamentos.

Un efecto secundario positivo es que, gracias al pago por uso de los distintos recursos, la empresa siempre mantiene el control de los costes, sin tener que realizar grandes inversiones en sistemas HPC por adelantado, como ocurría anteriormente.

Mayor rapidez en la preparación para el mercado

Una arquitectura de datos adecuada puede acortar significativamente el tiempo de lanzamiento al mercado, idealmente en combinación con otros tres factores.

En primer lugar, con la contenedorización de las aplicaciones que permite que estén disponibles en la ubicación requerida y evitar la sobrecarga de los sistemas HPC locales; en segundo lugar, con una arquitectura multi-tenant segura que permita la colaboración entre la comunidad de investigación; y, en tercer lugar, con los modelos pago por uso de recursos de computación, almacenamiento y red.

Con este enfoque, una empresa farmacéutica puede monetizar antes los resultados de su trabajo de investigación, y durante más tiempo, ya que aumenta la vida operativa hasta que expira la patente. El lanzamiento más rápido de nuevos medicamentos al mercado no es ciencia ficción, sino simplemente el resultado de conceptos innovadores de abastecimiento y una arquitectura de datos inteligente.

Off Galo Montes, director de tecnología de Hewlett Packard Enterprise Opinión Opinión Off

via Noticias de diariomedico.... https://ift.tt/3lA8oWd

No hay comentarios:

Publicar un comentario