La courbe H&D, principal outil d'évaluation des caractéristiques des films radiographiques, est définie comme la densité optique en fonction de l'exposition. Cette densité optique est traditionnellement mesurée par la transmittance d'un faisceau de lumière à travers le film, et il est important de comprendre le comportement du film en sensitométrie. Il existe de nombreux modèles mathématiques et informatiques pour caractériser le comportement de la courbe et ses propriétés, mais aucun d'entre eux ne prend en compte les interférences causées par l'équipement utilisé. Dans une première approche, en essayant d'adapter les modèles théoriques, il a été constaté que pour des valeurs d'exposition élevées, il y avait une incohérence par rapport aux données expérimentales et que les valeurs prédites par les modèles théoriques étaient plus élevées que les valeurs mesurées. Cette incohérence suggère une limitation de la densité optique. Lorsque l'on a essayé de mesurer la concentration d'argent en fonction de l'exposition par une autre méthode telle que la fluorescence X, on a remarqué que la concentration d'argent était raisonnablement conforme aux modèles. Cela a conduit à la conclusion que la limitation perçue dans la densité optique est principalement due à la mesure.