There is provided a method comprising: providing two anatomical images of a target individual, each captured at a unique orientation of the target individual, inputting first and second anatomical images respectively into a first and second convolutional neural network (CNN) of a classifier to respectively output first and second feature vectors, inputting a concatenation of the first and second feature vectors into a fully connected layer of the classifier, and computing an indication of distinct visual finding(s) present in the anatomical images by the fully connected layer, wherein the statistical classifier is trained on a training dataset including two anatomical images of each respective sample individual, each image captured at a respective unique orientation of the target individual, and a tag created based on an analysis that maps respective individual sentences of a text based radiology report to one of multiple indications of visual findings.La présente invention concerne un procédé qui comprend : la fourniture de deux images anatomiques d'un individu cible, chacune étant capturée à une orientation unique de l'individu cible, l'entrée de première et seconde images anatomiques, respectivement, dans des premier et second réseaux neuronaux convolutionnels (CNN) d'un classificateur pour produire en sortie, respectivement, des premier et second vecteurs de caractéristique, l'entrée d'une concaténation des premier et second vecteurs de caractéristique dans une couche complètement connectée du classificateur, et le calcul d'une indication de résultat visuel distinct présent, ou de résultats visuels distincts présents, dans les images anatomiques par la couche complètement connectée, le classificateur statistique faisant l'objet d'un apprentissage sur un ensemble de données d'apprentissage qui comprend deux images anatomiques de chaque individu d'échantillon respectif, chaque image étant capturée à une orientation unique respective de l'individu cible, et une éti