Navigation überspringen
Universitätsbibliothek Heidelberg
Status: Bibliographieeintrag

Verfügbarkeit
Standort: ---
Exemplare: ---
heiBIB
 Online-Ressource
Verfasst von:Kim, Hee Eun [VerfasserIn]   i
 Maros, Máté E. [VerfasserIn]   i
 Miethke, Thomas [VerfasserIn]   i
 Kittel, Maximilian [VerfasserIn]   i
 Siegel, Fabian [VerfasserIn]   i
 Ganslandt, Thomas [VerfasserIn]   i
Titel:Lightweight visual transformers outperform convolutional neural networks for gram-stained image classification
Titelzusatz:an empirical study
Verf.angabe:Hee E. Kim, Mate E. Maros, Thomas Miethke, Maximilian Kittel, Fabian Siegel and Thomas Ganslandt
E-Jahr:2023
Jahr:30 April 2023
Umfang:14 S.
Illustrationen:Illustrationen
Fussnoten:Gesehen am 15.08.2023
Titel Quelle:Enthalten in: Biomedicines
Ort Quelle:Basel : MDPI, 2013
Jahr Quelle:2023
Band/Heft Quelle:11(2023), 5 vom: Apr., Seite 1-14
ISSN Quelle:2227-9059
Abstract:We aimed to automate Gram-stain analysis to speed up the detection of bacterial strains in patients suffering from infections. We performed comparative analyses of visual transformers (VT) using various configurations including model size (small vs. large), training epochs (1 vs. 100), and quantization schemes (tensor- or channel-wise) using float32 or int8 on publicly available (DIBaS, n = 660) and locally compiled (n = 8500) datasets. Six VT models (BEiT, DeiT, MobileViT, PoolFormer, Swin and ViT) were evaluated and compared to two convolutional neural networks (CNN), ResNet and ConvNeXT. The overall overview of performances including accuracy, inference time and model size was also visualized. Frames per second (FPS) of small models consistently surpassed their large counterparts by a factor of 1-2×. DeiT small was the fastest VT in int8 configuration (6.0 FPS). In conclusion, VTs consistently outperformed CNNs for Gram-stain classification in most settings even on smaller datasets.
DOI:doi:10.3390/biomedicines11051333
URL:Bitte beachten Sie: Dies ist ein Bibliographieeintrag. Ein Volltextzugriff für Mitglieder der Universität besteht hier nur, falls für die entsprechende Zeitschrift/den entsprechenden Sammelband ein Abonnement besteht oder es sich um einen OpenAccess-Titel handelt.

kostenfrei: Volltext: https://doi.org/10.3390/biomedicines11051333
 kostenfrei: Volltext: https://www.mdpi.com/2227-9059/11/5/1333
 DOI: https://doi.org/10.3390/biomedicines11051333
Datenträger:Online-Ressource
Sprache:eng
Sach-SW:classification
 convolutional neural network
 deep learning
 Gram-stain analysis
 quantization
 vision transformer
K10plus-PPN:1856239837
Verknüpfungen:→ Zeitschrift

Permanenter Link auf diesen Titel (bookmarkfähig):  https://katalog.ub.uni-heidelberg.de/titel/69194080   QR-Code

zum Seitenanfang