Higher quality diffusion metrics and/or diffusion-weighted images are generated from lower quality input diffusion-weighted images using a suitably trained neural network (or other machine learning algorithm). High-fidelity scalar and orientational diffusion metrics can be extracted using a theoretical minimum of a single non-diffusion-weighted image and six diffusion-weighted images, achieved with data-driven supervised deep learning. As an example, a deep convolutional neural network ("CNN") is used to map the input non-diffusion-weighted image and diffusion-weighted images sampled along six optimized diffusion-encoding directions to the residuals between the input and output high-quality non-diffusion-weighted image and diffusion-weighted images, which enables residual learning to boost the performance of CNN and full tensor fitting to generate any scalar and orientational diffusion metrics.Selon la présente invention, des métriques de diffusion de qualité supérieure et/ou des images pondérées en diffusion sont générées à partir d'images pondérées en diffusion d'entrée de qualité inférieure à l'aide d'un réseau neuronal entraîné de manière appropriée (ou d'un autre algorithme d'apprentissage machine). Des métriques de diffusion scalaire et d'orientation à haute fidélité peuvent être extraites à l'aide d'un minimum théorique d'une seule image non pondérée en diffusion et de six images pondérées en diffusion, obtenues avec un apprentissage profond supervisé entraîné par des données. À titre d'exemple, un réseau neuronal à convolution ("CNN") profond est utilisé pour mapper l'image non pondérée en diffusion d'entrée et les images pondérées en diffusion échantillonnées sur six directions de codage en diffusion optimisées aux résidus entre l'image non pondérée en diffusion de haute qualité et des images pondérées en diffusion d'entrée et de sortie, qui permet un apprentissage résiduel pour amplifier les performances du CNN et un ajustement complet du tenseur pour géné