ChatGPT
Crédito: FlashMovie/Getty Images
Dirigir un programa de detección de drogas es como organizar un gran cóctel y escuchar los procedimientos. En los cócteles, hay mucha charla trivial, pero solo unas pocas conversaciones significativas. De manera similar, en los programas de detección de drogas, las interacciones débiles entre el fármaco y el objetivo superan en gran medida a los casos de unión de alta afinidad.
Imagínese si tuviera que escuchar cada parte de las bromas de un cóctel. Seguramente, eso sería tedioso. Ahora, considere cuánto peor sería evaluar cada interacción entre el fármaco y el objetivo en una prueba típica de drogas. Vaya, eso agotaría incluso al oyente más paciente: el típico sistema de inteligencia artificial (IA).
Desafortunadamente, los sistemas de IA convencionales tardan mucho en analizar los datos sobre las interacciones entre los candidatos a fármacos y las proteínas objetivo. La mayoría de los sistemas de IA calculan la estructura tridimensional de cada proteína diana a partir de su secuencia de aminoácidos y luego utilizan esas estructuras para predecir con qué moléculas del fármaco interactuará. El enfoque es exhaustivo, pero lento.
Para hacer avanzar las cosas, los investigadores del MIT y la Universidad de Tufts han ideado un enfoque computacional alternativo basado en un tipo de algoritmo de IA conocido como modelo de lenguaje grande. Estos modelos, un ejemplo bien conocido es ChatGPT, pueden analizar grandes cantidades de texto y determinar qué palabras (o, en este caso, aminoácidos) es más probable que aparezcan juntas. El modelo de lenguaje grande desarrollado por el equipo de MIT/Tufts se conoce como ConPLex. Puede emparejar proteínas diana con moléculas de fármacos potenciales sin tener que realizar el paso computacionalmente intensivo de calcular las estructuras de las moléculas.
Los detalles sobre ConPLex aparecieron el 8 de junio en PNAS, en un artículo titulado "El aprendizaje contrastivo en el espacio del lenguaje de las proteínas predice las interacciones entre los fármacos y los objetivos de las proteínas". ConPLex puede aprovechar los avances en modelos de lenguaje de proteínas previamente entrenados ("PLex") y emplear una coincrustación contrastiva anclada en proteínas ("Con") para superar los enfoques de vanguardia.
"ConPLex logra alta precisión, amplia adaptabilidad a datos ocultos y especificidad contra compuestos señuelo", escribieron los autores del artículo. "Hace predicciones de unión basadas en la distancia entre las representaciones aprendidas, lo que permite predicciones a escala de bibliotecas compuestas masivas y el proteoma humano".
Luego, los investigadores probaron su modelo examinando una biblioteca de aproximadamente 4.700 moléculas candidatas de fármacos por su capacidad para unirse a un conjunto de 51 enzimas conocidas como proteínas quinasas.
De los principales éxitos, los investigadores eligieron 19 pares de fármacos y proteínas para probarlos experimentalmente. Los experimentos revelaron que de los 19 éxitos, 12 tenían una fuerte afinidad de unión (en el rango nanomolar), mientras que casi todos los otros posibles pares de fármaco-proteína no tendrían afinidad. Cuatro de estos pares se unieron con una afinidad subnanomolar extremadamente alta (tan fuerte que una pequeña concentración de fármaco, del orden de partes por mil millones, inhibirá la proteína).
Si bien los investigadores se centraron principalmente en la detección de fármacos de molécula pequeña en este estudio, ahora están trabajando en la aplicación de este enfoque a otros tipos de fármacos, como los anticuerpos terapéuticos. Este tipo de modelado también podría resultar útil para realizar pruebas de toxicidad de posibles compuestos farmacológicos, para asegurarse de que no tengan efectos secundarios no deseados antes de probarlos en modelos animales.
"Este trabajo aborda la necesidad de una detección in silico eficiente y precisa de posibles candidatos a fármacos", dijo Bonnie Berger, investigadora del MIT y una de las autoras principales del nuevo estudio. "[Nuestro modelo] permite pantallas a gran escala para evaluar los efectos fuera del objetivo, la reutilización de fármacos y determinar el impacto de las mutaciones en la unión del fármaco".
"Parte de la razón por la que el descubrimiento de fármacos es tan caro es porque tiene altas tasas de fracaso", señaló Rohit Singh, investigador del MIT y uno de los autores principales del estudio. "Si podemos reducir esas tasas de fracaso diciendo por adelantado que es probable que este fármaco no funcione, eso podría contribuir en gran medida a reducir el costo del descubrimiento de fármacos".
Ingrese para dejar un comentario