Navigation überspringen
Universitätsbibliothek Heidelberg
Status: Präsenznutzung
Signatur: Tunst   QR-Code
Standort: Bereichsbibl. Mathematik+ /
Exemplare: siehe unten
- Andere Auflagen/Ausgaben:
Bitte beachten Sie: Diese Liste ist ggf. unvollständig.
Wenn die Funktion 'Andere Auflagen/Ausgaben' nicht angeboten wird,
können dennoch in HEIDI andere Auflagen oder Ausgaben vorhanden sein.
Verfasst von:Tunstall, Lewis [VerfasserIn]   i
 Werra, Leandro von [VerfasserIn]   i
 Wolf, Thomas [VerfasserIn]   i
Titel:Natural language processing with transformers
Titelzusatz:building language applications with hugging face
Mitwirkende:Géron, Aurélien [VerfasserIn eines Vorworts]   i
Verf.angabe:Lewis Tunstall, Leandro von Werra, and Thomas Wolf ; foreword by Aurélien Géron
Ausgabe:Revised edition
Verlagsort:Beijing ; Boston ; Farnham ; Sebastopol ; Tokyo
Verlag:O'Reilly
Jahr:2022
Umfang:xxii, 383 Seiten
Illustrationen:Illustrationen, Diagramme
ISBN:978-1-0981-3679-6
 1-0981-3679-9
Abstract:Since their introduction in 2017, transformers have quickly become the dominant architecture for achieving state-of-the-art results on a variety of natural language processing tasks. If you're a data scientist or coder, this practical book - now revised in full color - shows you how to train and scale these large models using "Hugging Face Transformers", a Python-based deep learning library. Transformers have been used to write realistic news stories, improve Google Search queries, and even create chatbots that tell corny jokes. In this guide, authors Lewis Tunstall, Leandro von Werra, and Thomas Wolf, among the creators of "Hugging Face Transformers", use a hands-on approach to teach you how transformers work and how to integrate them in your applications. You'll quickly learn a variety of tasks they can help you solve. Build, debug, and optimize transformer models for core NLP tasks, such as text classification, named entity recognition, and question answering. Learn how transformers can be used for cross-lingual transfer learning. Apply transformers in real-world scenarios where labeled data is scarce. Make transformer models efficient for deployment using techniques such as distillation, pruning, and quantization. Train transformers from scratch and learn how to scale to multiple GPUs and distributed environments.
Schlagwörter:(s)Natürliche Sprache   i / (s)Sprachverarbeitung   i / (s)Automatische Sprachanalyse   i / (s)Deep learning   i / (s)Python <Programmiersprache>   i / (s)Text Mining   i / (s)Künstliche Intelligenz   i / (s)Chatbot   i / (s)Data Mining   i
Sprache:eng
Bibliogr. Hinweis:Erscheint auch als : Online-Ausgabe: Tunstall, Lewis: Natural language processing with transformers. - Revised Edition. - Beijing : O'Reilly, 2022. - 1 Online-Ressource (xxii, 383 Seiten)
 Erscheint auch als : Online-Ausgabe: Tunstall, Lewis: Natural language processing with transformers. - Revised edition. - Beijing : O'Reilly, 2022. - 1 Online-Ressource (xxii, 383 pages)
RVK-Notation:ST 306   i
 ZN 6070   i
Sach-SW:Maschinelles Lernen
 Textverarbeitung
 Deep learning
 Natürliche Sprache
 Sprachverarbeitung
K10plus-PPN:1817881493
Exemplare:

SignaturQRStandortStatus
TunstQR-CodeBereichsbibl. Mathematik+InformatikPräsenznutzung
Standort: Inst. f. Informatik Prof. Gertz. - Mediennummer: 34153888, Inventarnummer: mam-2300054

Permanenter Link auf diesen Titel (bookmarkfähig):  https://katalog.ub.uni-heidelberg.de/titel/69114789   QR-Code

zum Seitenanfang