Identificação do paciente com base em aprendizado profundo de métrica para evitar erros humanos em exames de raios-X de acompanhamento
As impressões digitais biológicas extraídas de imagens clínicas podem ser usadas para a verificação da identidade do paciente para determinar imagens clínicas mal inseridas em sistemas de arquivamento e comunicação de imagens. No entanto, tais métodos não foram incorporados ao uso clínico, e seu desempenho pode se degradar com a variabilidade nas imagens clínicas. O aprendizado profundo pode ser usado para melhorar o desempenho desses métodos. Um novo método é proposto para identificar automaticamente indivíduos entre os pacientes examinados usando imagens de raio-X de tórax póstero-anterior (PA) e anteroposterior (AP). O método proposto usa o aprendizado profundo de métrica baseado em uma rede neural convolucional profunda (DCNN) para superar os requisitos extremos de classificação para validação e identificação do paciente. Ele foi treinado no conjunto de dados de raios-X de tórax do NIH (ChestX-ray8) em três etapas: pré-processamento, extração de características DCNN com um backbone EfficientNetV2-S e classificação com aprendizado profundo de métrica. O método proposto foi avaliado usando dois conjuntos de dados públicos e dois conjuntos de dados de imagens clínicas de raio-X de tórax contendo dados de pacientes submetidos a triagem e cuidados hospitalares. Um extrator de características de 1.280 dimensões pré-treinado para 300 epochs teve o melhor desempenho com uma área sob a curva de característica de operação do receptor de 0,9894, uma taxa de erro igual de 0,0269 e uma precisão top-1 de 0,839 no banco de dados PadChest contendo ambas as posições de visualização PA e AP. Os resultados deste estudo fornecem informações importantess sobre o desenvolvimento da identificação automatizada do paciente para reduzir a possibilidade de má prática devido a erros humanos.
Biological fingerprints extracted from clinical images can be used for patient identity verification to determine misfiled clinical images in picture archiving and communication systems. However, such methods have not been incorporated into clinical use, and their performance can degrade with variability in the clinical images. Deep learning can be used to improve the performance of these methods. A novel method is proposed to automatically identify individuals among examined patients using posteroanterior (PA) and anteroposterior (AP) chest X-ray images. The proposed method uses deep metric learning based on a deep convolutional neural network (DCNN) to overcome the extreme classification requirements for patient validation and identification. It was trained on the NIH chest X-ray dataset (ChestX-ray8) in three steps: preprocessing, DCNN feature extraction with an EfficientNetV2-S backbone, and classification with deep metric learning. The proposed method was evaluated using two public datasets and two clinical chest X-ray image datasets containing data from patients undergoing screening and hospital care. A 1280-dimensional feature extractor pretrained for 300 epochs performed the best with an area under the receiver operating characteristic curve of 0.9894, an equal error rate of 0.0269, and a top-1 accuracy of 0.839 on the PadChest dataset containing both PA and AP view positions. The findings of this study provide considerable insights into the development of automated patient identification to reduce the possibility of medical malpractice due to human errors.