Navigation überspringen
Universitätsbibliothek Heidelberg
Status: bestellen
> Bestellen/Vormerken
Verfasst von:Tunstall, Lewis [VerfasserIn]   i
 Werra, Leandro von [VerfasserIn]   i
 Wolf, Thomas [VerfasserIn]   i
Titel:Natural Language Processing mit Transformern
Titelzusatz:Sprachanwendungen mit Hugging Face erstellen
Mitwirkende:Fraaß, Marcus [ÜbersetzerIn]   i
 Géron, Aurélien [VerfasserIn eines Vorworts]   i
Werktitel:Natural language processing with transformers
Verf.angabe:Lewis Tunstall, Leandro von Werra, Thomas Wolf ; Vorwort von Aurélien Géron ; Deutsche Übersetzung von Marcus Fraaß
Ausgabe:1. Auflage, Deutsche Ausgabe
Verlagsort:Heidelberg
Verlag:O'Reilly
Jahr:2023
Umfang:430 Seiten
Illustrationen:Illustrationen, Diagramme
Format:24 cm x 16.5 cm
Gesamttitel/Reihe:Animals
ISBN:978-3-96009-202-5
 3-96009-202-4
Abstract:Transformer haben die NLP-Welt im Sturm erobert: Erhalten Sie einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP Das Buch wurde von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch, verfasst Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werdenTransformer liefern hervorragende Ergebnisse bei der maschinellen Sprachverarbeitung und haben sich in den letzten Jahren zur vorherrschenden Architektur im Natural Language Processing (NLP) entwickelt. Dieses Praxisbuch zeigt Data Scientists und Programmierer_innen, wie sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren. Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots zum Einsatz.Lewis Tunstall, Leandro von Werra und Thomas Wolf, die die Transformers-Bibliothek von Hugging Face mitentwickelt haben, erklären in diesem Buch, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren. Sie erfahren, wie Transformer für eine Vielzahl von Aufgaben erfolgreich eingesetzt werden können.Erstellen, debuggen und optimieren Sie Transformer-Modelle für zentrale NLP-Aufgaben wie Textklassifizierung, Named Entity Recognition oder Question Answering Lernen Sie, wie Transformer für sprachenübergreifendes Transfer Learning verwendet werden Wenden Sie Transformer auf reale Anwendungsfälle an, bei denen nur auf wenige gelabelte Daten zurückgegriffen werden kann Optimieren Sie Transformer-Modelle für das Deployment mit Techniken wie Distillation, Pruning und Quantisierung Trainieren Sie Transformer von Grund auf und lernen Sie, wie sie auf mehreren GPUs und verteilten Umgebungen skalieren
URL:Inhaltstext: http://deposit.dnb.de/cgi-bin/dokserv?id=43be7fb08d544f0abe0c6303bd13746a&prov=M&dok_var=1&dok_ext=htm
 Cover: http://www.dietmardreier.de/annot/4B56696D677C7C39353938313231337C7C434F50.jpg?sq=2
 Inhaltsverzeichnis: https://www.gbv.de/dms/tib-ub-hannover/1807110133.pdf
Schlagwörter:(s)Deep learning   i / (s)Text Mining   i / (s)Künstliche Intelligenz   i / (s)Automatische Sprachanalyse   i / (s)Chatbot   i / (s)Data Mining   i
Sprache:ger
Bibliogr. Hinweis:Übersetzung von Tunstall, Lewis: Natural language processing with transformers
 Erscheint auch als : Online-Ausgabe: Tunstall, Lewis: Natural Language Processing mit Transformers. - 1. Auflage. - Heidelberg : O'Reilly, 2023. - 1 Online-Ressource (430 Seiten)
RVK-Notation:ST 306   i
 ST 300   i
Sach-SW:COMPUTERS / Natural Language Processing
 COMPUTERS / Neural Networks
 Data Mining
K10plus-PPN:1807110133
Exemplare:

SignaturQRStandortStatus
LN-U 10-19802QR-CodeZweigstelle Neuenheim / Lehrbuchsammlung3D-Planbestellbar
Mediennummer: 20218091

Permanenter Link auf diesen Titel (bookmarkfähig):  https://katalog.ub.uni-heidelberg.de/titel/69049613   QR-Code

zum Seitenanfang