Enlaces comentados:

https://arxiv.org/abs/2204.05095

https://www.nature.com/articles/s43588-022-00281-6

Los métodos de aprendizaje automático (AA) han experimentado un crecimiento acelerado, redefiniendo muchas aplicaciones en áreas como la visión por computadora, la biología, la medicina, la contabilidad y el análisis de textos. La disponibilidad de grandes volúmenes de datos, a menudo con etiquetas, ha sido clave para impulsar este avance. Sin embargo, la incorporación de estos métodos en las disciplinas de las ciencias físicas ha sido más lenta debido a las diferencias fundamentales entre los enfoques de AA basados en correlaciones y el enfoque hipotético y causal de las ciencias físicas.

Desafíos en los modelos de AA

Además, es esencial abordar ciertas anomalías y limitaciones en los modelos tradicionales de AA, incluyendo problemas de explicabilidad y equidad. Es interesante notar que la adopción del aprendizaje profundo en varias disciplinas científicas ha seguido un patrón, comenzando con la medicina y la biología, seguido de la química teórica, y finalmente la física. Este patrón refleja el creciente nivel de complejidad en descriptores, limitaciones y estructuras causales que se pueden incorporar en las arquitecturas de AA.

La física como nueva fuente de datos

Sugerimos que en la próxima década, la física se convertirá en un nuevo campo para la obtención de datos, continuando la evolución desde la computación científica de los años 90, pasando por los macrodatos de la primera década de los 2000, el aprendizaje profundo de la segunda década, hasta llegar a la física potenciada por el AA.

Redes neuronales y aprendizaje automático

Las redes neuronales y el aprendizaje automático se conocen desde los primeros estudios sobre perceptrones en los años 50. La aparición del algoritmo de retropropagación en los 80 cimentó las bases del AA contemporáneo. Sin embargo, la falta de capacidades computacionales y la escasez de grandes conjuntos de datos etiquetados restringieron su aplicación a redes relativamente simples, usadas en simulaciones de dinámica molecular, coincidencia de teoría y experimento, y análisis de datos experimentales.

Auge del aprendizaje profundo

El panorama comenzó a cambiar radicalmente después del 2000, con la disponibilidad de capacidades de computación de alto rendimiento que permitieron la creación de grandes modelos computacionales y la demostración de las primeras aplicaciones experimentales de redes neuronales. El crecimiento de las tecnologías de Internet, incluyendo motores de búsqueda y redes sociales, propició un entorno propicio para la recolección y exploración de grandes conjuntos de datos, marcando el inicio de la revolución del aprendizaje profundo.

Problemas con el aprendizaje profundo

Paralelamente, estos avances pusieron de relieve los problemas inherentes a los métodos de aprendizaje supervisado basados en datos. Hay muchas facetas de estos problemas, desde ataques adversarios hasta cuestiones de equidad y explicabilidad, todas ellas derivadas del hecho de que los enfoques puramente basados en datos son intrínsecamente limitados para capturar la complejidad del mundo real.

Hacia un aprendizaje hipotético

Una alternativa viable es sustituir un modelo preentrenado en un conjunto de datos estático por uno que interactúe de forma activa con un proceso de generación de datos. Por ejemplo, en el aprendizaje activo, un modelo sustituto, como un proceso gaussiano o una red neuronal bayesiana, utiliza los datos medidos (aunque sean escasos).

Y aquí te suscribes a la newsletter para recibir consejos sobre cómo mejorar tus procesos de investigación —> https://horacio-ps.com/newsletter

Send in a voice message: https://podcasters.spotify.com/pod/show/horacio-ps/message

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *