¿En 10 años? Mi predicción es que no será tan generalizado. Sí, la tecnología ya está disponible, pero la gran cantidad de datos médicos y genómicos requeridos no están disponibles o no están en una forma que los AI puedan utilizar.
Si bien muchos de los datos ya están disponibles en forma de registros médicos, residen principalmente en bases de datos dispares, sin un esquema uniforme. Crear el tipo de repositorios integrados que necesitan las IA presenta muchos desafíos. Tanto técnicos como logísticos, sin mencionar el atolladero de privacidad y legal / regulatorio.
Sin embargo, esto todavía es solo la mitad del rompecabezas: tomemos, por ejemplo, algunos de los países escandinavos, particularmente Suecia, que tuvieron la previsión y la financiación para desarrollar excelentes repositorios de datos compartidos. Estos han acumulado grandes cantidades de información médica individual a lo largo de los años y se han utilizado en muchas ocasiones con gran afecto: analizar y encontrar asociaciones raras entre exposiciones / factores de riesgo y enfermedades / resultados adversos. El problema es que todavía le falta la parte ‘personalizada’, es decir, el componente genómico para atribuir riesgos y hacer recomendaciones a las personas. Estamos haciendo muchas pruebas genéticas en el campo de la medicina, pero generalmente solo para genes específicos. Necesitamos secuenciar completamente genomas completos a nivel de población, para realmente dar a los AI algo en lo que hundir sus dientes de aprendizaje profundo.
- Hemos visto muchos artilugios futuros en películas. ¿Existe alguna posibilidad de que alguna de esas ideas se convierta en realidad?
- ¿Cuáles son los defectos tecnológicos que nadie está abordando?
- ¿Cómo se fabrica la fibra de carbono y cuál es su potencial en términos de tecnología futura?
- Si Apple es golpeado por otro sistema operativo, ¿Apple seguirá ofreciendo aplicaciones para sus productos?
- ¿Las gramáticas de reconocimiento de voz se volverán obsoletas en los próximos 5 años?
El otro factor relacionado detrás de mi predicción y que vale la pena mencionar es la naturaleza iterativa del proceso. Las mejoras se acumularán con el tiempo, paso a paso. Al principio, los predictores iniciales más fuertes probablemente provienen de las enfermedades para las que ya tenemos más datos (enfermedades del corazón y oncología). El primer grupo de pacientes de prueba (aleatorizados versus un grupo de control de “atención estándar”) recibirán sus resultados clínicos (tanto buenos como malos), informando así la próxima iteración. Creo que tomará algún tiempo para que se manifiesten las mejoras agregadas significativas, no por cualquier duda que tenga sobre las IA o los límites de la potencia informática, sino porque los resultados clínicos de interés a menudo tardan años en ocurrir.
Esto a su vez plantea un problema interesante. La gran inversión requerida para poner esto en marcha es prohibitivamente costosa, demasiado grande para que los gobiernos y las universidades la aborden. Solo los gigantes de Big Pharma / IT tienen los recursos para que esto suceda, y toda esa inversión debe recuperarse. Tradicionalmente, esto daría como resultado un producto final que es muy costoso, abierto a los niveles de ingresos más altos, pero debido a que las mejoras en el poder predictivo del algoritmo dependen de datos a gran escala, la tasa de mejora probablemente sea proporcional a la cantidad (+ calidad) disponible Para el análisis, los desarrolladores deberán continuar la recolección a gran escala. Me imagino que habría un número considerable de personas que no estarían interesadas en entregar su información médica privada a grandes farmacéuticas, especialmente para ayudar a mejorar una tecnología que no pueden pagar.
En el mundo de hoy, el patrocinador de un nuevo medicamento lo ofrece de forma gratuita, como parte de un ensayo clínico, hasta que obtengan los datos que necesitan. La cosa es que la mayoría de los ensayos Actualmente, los pacientes ya tienen enfermedades y se unen al ensayo porque no pueden permitirse otros tratamientos, o no hay otras opciones y se están aferrando a las pajillas. La medicina personalizada es una bestia diferente cuando se trata de ensayos. Esto se debe a que una de las nociones principales es identificar qué enfermedades tiene riesgo de desarrollar temprano. Por lo tanto, lo ideal sería que los participantes del estudio fueran reclutados antes de que desarrollaran una enfermedad grave (pero no siempre). Esto presenta un pequeño enigma para que las compañías farmacéuticas equilibren: por un lado, para mejorar las predicciones del sistema más rápidamente, se necesita un gran número de participantes en el estudio, junto con largos períodos de seguimiento, lo cual es muy costoso. Por otro lado, cuanto más grandes y largos sean estos ensayos, más tiempo tomará recuperar su inversión una vez que el producto salga al mercado. Aumentar el precio podría ayudar a recuperar la inversión más rápido, pero restringiría la utilización y ralentizaría las mejoras al algoritmo.
Ahora aquí es donde me pongo cínico. Puedo ver fácilmente un futuro en el que, para sortear los problemas anteriores, Big Pharma ofrece la medicina personalizada como una especie de panacea, el santo grial de la atención médica, en un intento por justificar y presionar por una licencia, permitiendo la adquisición y el uso al por mayor de datos genómicos de toda la población, junto con enormes cantidades de registros complementarios sobre el historial médico personal y familiar, etc. Todos anonimizados con identificadores eliminados, por supuesto. Incluso pagarán por toda la secuenciación de genes y por la recolección de muestras de ADN, que probablemente sean más fáciles de tomar al nacer.
Seamos realistas aquí: las ganancias son la única razón por la que Big Pharma o cualquiera haría este trabajo. Considere, entonces, que uno de los ideales principales de la medicina personalizada es que ayuda a identificar a aquellos que tienen más probabilidades de beneficiarse del tratamiento, con bajo riesgo asociado. Luego piense en las implicaciones de esto desde una perspectiva comercial. Tomemos un ejemplo de nuestra base de evidencia actual: Sabemos que para la prevención secundaria del accidente cerebrovascular, unas 125 personas deben tomar una estatina durante 5 años para prevenir un accidente cerebrovascular, y aproximadamente 1 de cada 50 también se ve perjudicada. Esta incertidumbre es buena desde la perspectiva de una compañía farmacéutica, de las 125, que ha ayudado a una, perjudicado a aproximadamente 3 y para las 121 restantes , recolectó sus ganancias en los últimos 5 años sin hacer ninguna diferencia real para ellos (I sabe que hay otros beneficios, por lo que el número es inferior a 121, pero el punto es que la mayoría de las personas no se benefician). Ahora, en aras de la argumentación, digamos que el algoritmo identifica a aquellos que probablemente se beneficien con mucha más precisión y le permite prevenir un accidente cerebrovascular al tratar solo a 50 pacientes (seleccionados de manera más apropiada). Felicitaciones, acaba de gastar miles de millones invirtiendo en Una herramienta que borra millones de sus márgenes de beneficio. Tendrá que duplicar o triplicar el precio de su estatina solo para hacer incluso ahora.
Dime, ¿dejarías que este algoritmo vea la luz del día?
Otra consideración comercial: un principio general del uso de IA en medicina personalizada es examinar y analizar todo, pero ¿qué sucede si su algoritmo identifica una fuerte asociación entre un determinado grupo de personas y una enfermedad, pero sus competidores ya tienen medicamentos superiores y patentados en el mercado? ¿Te gustaría ocultar este hallazgo? ¿Realmente desea que su algoritmo de mil millones de dólares arroje recomendaciones que sirven para llenar los cofres de sus competidores?
Con estos puntos en mente, la única razón por la que el desarrollo de esta tecnología tendría sentido financiero es si genera suficientes nuevos clientes, muchos nuevos clientes. Esto se lograría mejor si se enfoca en la medicina preventiva, al identificar a las personas en riesgo a una edad mucho más temprana, puede crear indicaciones donde todavía no hay enfermedad, y al mismo tiempo potencialmente tratar por muchos años más … Imagine este escenario: vaya a Consulte a su médico a los 16 años para obtener algunos consejos y tratamiento para el acné. El médico ejecuta su genoma, antecedentes familiares y datos médicos y sociales a través del algoritmo. Luego identifica que usted tiene un riesgo estadísticamente significativo de desarrollar enfermedad cardíaca. También identifica que es muy probable que se beneficie del tratamiento preventivo si comienza ahora. Por lo tanto, le recetan estos ‘medicamentos específicos’ tan sofisticados, ¡para una afección que aún no ha recibido! También está lejos de ser seguro que definitivamente desarrollará una enfermedad cardíaca, pero en el balance de probabilidades se recomienda que tome los medicamentos. Ah, y también, los medicamentos son excelentes, pero no previenen las enfermedades del corazón el 100% del tiempo. Los algoritmos son muy precisos en estos días para predecir los que se beneficiarán: la cantidad necesaria para tratar es muy baja, especialmente en comparación con la base de evidencia prehistórica de principios de la década de 2000 con la que tuvimos que trabajar: solo 5 personas, tratadas durante 30 años evitará que alguien termine con un ataque al corazón. A pesar de todo esto, nunca se puede saber con certeza si son los cuatro que no se benefician o el que sí lo hace.
Ese es el problema con el modelado predictivo: hay demasiada idiosincrasia en nuestros cuerpos ondulantes, muchos factores y demasiadas exposiciones ambientales diferentes, para posiblemente capturar todo, y mucho menos sopesar y desentrañar sus efectos. Demonios, probablemente hay incluso algunas cosas que suceden a nivel cuántico, creando incertidumbre inherente, incluso con datos perfectos. También tenga en cuenta que algunos de nuestros sistemas de estratificación de riesgo existentes, especialmente para las enfermedades cardíacas, en realidad ya son bastante buenos para darnos una calificación de riesgo que podemos soportar con confianza, dentro de los límites de la incertidumbre. Sí, un algoritmo de aprendizaje profundo basado en datos masivos los mejorará significativamente, pero dudo que las mejoras sean en la escala de órdenes de magnitud.
Al igual que con la estratificación y el modelado del riesgo, la medicina preventiva nunca será 100% efectiva o segura y siempre beneficiará solo a un subconjunto de aquellos que la toman.
Finalmente, se requieren cambios masivos en los marcos regulatorios para permitir que esto se implemente y se regule adecuadamente. La presentación de evidencia de efectividad será muy diferente también de los ensayos clínicos habituales bien estructurados en etapa I-III. Esperaría (y espero) que tomaría al menos 10 años recolectar suficiente ADN y datos médicos, junto con evidencia de resultados para obtener algo como esto aprobado para la detección masiva. Veremos.