Natural language processing mit PyTorch: intelligente Sprachanwendungen mit Deep Learning erstellen
Gespeichert in:
Hauptverfasser: | , |
---|---|
Weitere Verfasser: | |
Format: | Buch |
Sprache: | German |
Veröffentlicht: |
Heidelberg
O'Reilly
2020
|
Ausgabe: | 1. Auflage, deutsche Ausgabe |
Schlagworte: | |
Online-Zugang: | Inhaltstext Inhaltsverzeichnis |
Beschreibung: | XIV, 234 Seiten Illustrationen, Diagramme 24 cm x 16.5 cm |
ISBN: | 9783960091189 3960091184 |
Internformat
MARC
LEADER | 00000nam a22000008c 4500 | ||
---|---|---|---|
001 | BV046215040 | ||
003 | DE-604 | ||
005 | 20201202 | ||
007 | t | ||
008 | 191024s2020 gw a||| |||| 00||| ger d | ||
015 | |a 19,N27 |2 dnb | ||
016 | 7 | |a 1189478293 |2 DE-101 | |
020 | |a 9783960091189 |c : circa EUR 34.90 (DE), circa EUR 35.90 (AT) |9 978-3-96009-118-9 | ||
020 | |a 3960091184 |9 3-96009-118-4 | ||
024 | 3 | |a 9783960091189 | |
035 | |a (OCoLC)1135403366 | ||
035 | |a (DE-599)DNB1189478293 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a ger | |
044 | |a gw |c XA-DE-BW | ||
049 | |a DE-M347 |a DE-92 |a DE-706 |a DE-739 |a DE-384 |a DE-1043 |a DE-573 |a DE-83 |a DE-898 |a DE-634 |a DE-19 |a DE-91 |a DE-20 |a DE-859 | ||
084 | |a ST 306 |0 (DE-625)143654: |2 rvk | ||
084 | |a DAT 710 |2 stub | ||
084 | |a 004 |2 sdnb | ||
100 | 1 | |a Rao, Delip |e Verfasser |0 (DE-588)1179197275 |4 aut | |
240 | 1 | 0 | |a Natural language processing with PyTorch: build intelligent language applications using Deep Learning |
245 | 1 | 0 | |a Natural language processing mit PyTorch |b intelligente Sprachanwendungen mit Deep Learning erstellen |c Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau |
250 | |a 1. Auflage, deutsche Ausgabe | ||
264 | 1 | |a Heidelberg |b O'Reilly |c 2020 | |
300 | |a XIV, 234 Seiten |b Illustrationen, Diagramme |c 24 cm x 16.5 cm | ||
336 | |b txt |2 rdacontent | ||
337 | |b n |2 rdamedia | ||
338 | |b nc |2 rdacarrier | ||
650 | 0 | 7 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Deep learning |0 (DE-588)1135597375 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a PyTorch |0 (DE-588)1202487386 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Python |g Programmiersprache |0 (DE-588)4434275-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Natürliche Sprache |0 (DE-588)4041354-8 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Sprachverarbeitung |0 (DE-588)4116579-2 |2 gnd |9 rswk-swf |
653 | |a Paperback / softback | ||
653 | |a Allgemein | ||
653 | |a Python-Programmierer mit Grundkenntnissen im Machine Learning | ||
653 | |a COM051360 | ||
653 | |a )Unsewn / adhesive bound | ||
653 | |a COM021030 | ||
653 | |a COM051360 | ||
653 | |a COM051360 | ||
653 | |a 1633: Hardcover, Softcover / Informatik, EDV/Programmiersprachen | ||
689 | 0 | 0 | |a Natürliche Sprache |0 (DE-588)4041354-8 |D s |
689 | 0 | 1 | |a Deep learning |0 (DE-588)1135597375 |D s |
689 | 0 | 2 | |a PyTorch |0 (DE-588)1202487386 |D s |
689 | 0 | |5 DE-604 | |
689 | 1 | 0 | |a Natürliche Sprache |0 (DE-588)4041354-8 |D s |
689 | 1 | 1 | |a Sprachverarbeitung |0 (DE-588)4116579-2 |D s |
689 | 1 | 2 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |D s |
689 | 1 | 3 | |a Python |g Programmiersprache |0 (DE-588)4434275-5 |D s |
689 | 1 | |8 1\p |5 DE-604 | |
700 | 1 | |a McMahan, Brian |e Verfasser |0 (DE-588)1201451426 |4 aut | |
700 | 1 | |a Langenau, Frank |0 (DE-588)123178002 |4 trl | |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe, PDF |z 978-3-96010-324-0 |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe, EPUB |z 978-3-96010-325-7 |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe, MOBI |z 978-3-96010-326-4 |
856 | 4 | 2 | |m X:MVB |q text/html |u http://deposit.dnb.de/cgi-bin/dokserv?id=b5b4c4667ed1421bac3b30b972a8aef5&prov=M&dok_var=1&dok_ext=htm |3 Inhaltstext |
856 | 4 | 2 | |m Digitalisierung UB Passau - ADAM Catalogue Enrichment |q application/pdf |u http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=031593843&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |3 Inhaltsverzeichnis |
999 | |a oai:aleph.bib-bvb.de:BVB01-031593843 | ||
883 | 1 | |8 1\p |a cgwrk |d 20201028 |q DE-101 |u https://d-nb.info/provenance/plan#cgwrk |
Datensatz im Suchindex
_version_ | 1804180611304259584 |
---|---|
adam_text | Inhalt Vorwort....................................................................................... XI 1 Einführung................................................................................. Das Paradigma des überwachten Lernens............................................... Beobachtung und Zielcodierung....................................................... l-aus֊n-Darstellung......................................................................... TF-Darstellung................................................................................. TF-IDF-Darstellung......................................................................... Zielcodierung................................................................................... Berechnungsgraphen............................................................................... Grundlagen von PyTorch....................................................................... PyTorch installieren......................................................................... Tensoren erstellen............................................................................. Typ und Größe von Tensoren......................................................... Tensor-Operationen......................................................................... Indizieren, Slicing und Verknüpfen................................................. Tensoren und Berechnungsgraphen................................................. CUDA-Tensoren...............................................................................
Übungen.................................................................................................. Lösungen................................................................................................. Zusammenfassung................................................................................... Literaturhinweise..................................................................................... 1 2 5 6 7 8 9 10 11 13 13 16 17 20 23 25 27 27 28 28 2 Kurzer Abriss des traditionellen NLP.................................................. Korpora, Token und Typen..................................................................... Monogramme, Bigramme, Trigramme,..., N-Gramme........................ Lemmas und Stämme............................................................................. Sätze und Dokumente kategorisieren..................................................... Wörter kategorisieren: POS-Tagging....................................................... Spannen kategorisieren: Phrasenerkennung und Eigennamenerkennung Struktur von Sätzen................................................................................. 29 29 32 33 34 34 35 36
Wortbedeutungen und Semantik........................................................... Zusammenfassung................................................................................. Literaturhinweise................................................................................... 37 38 38 3 Grundlegende Komponenten von neuronalen Netzen............................ Das Perzeptron: Das einfachste neuronale Netz..................................... Aktivierungsfunktionen......................................................................... Sigmoid........................................................................................... Tanh.................................................................................................. ReLU............................................................................................... Softmax........................................................................................... Verlustfunktionen................................................................................... Mittlere quadratische Abweichung................................................. Kategorischer Kreuzentropie-Verlust............................................... Binärer Kreuzentropie-Verlust......................................................... Überwachtes Training unter der Lupe................................................... Die Spielzeugdaten konstruieren..................................................... Gradientenbasiertes überwachtes Lernen....................................... Unterstützende
Trainingskonzepte......................................................... Modellperformance richtig messen: Bewertungskennzahlen.......... Modellperformance richtig messen: das Dataset aufteilen............ Feststellen, wann das Training beendet werden sollte.................... Die richtigen Hyperparameter finden............................................. Regularisierung............................................................................... Beispiel: Stimmungen von Restaurantbewertungen klassifizieren........ Das Yelp-Dataset für Bewertungen................................................. Die Dataset-Darstellung von PyTorch verstehen............................. Vocabulary, Vectorizer und DataLoader......................................... Ein Perzeptron-Klassifizierer........................................................... Die Trainingsroutine....................................................................... Bewertung, Inferenz und Inspektion............................................... Zusammenfassung................................................................................. Literaturhinweise................................................................................... 39 39 41 41 42 43 44 45 46 46 48 49 49 52 53 53 54 55 55 56 57 58 60 62 68 69 75 78 79 4 Feedforward-NetzefürNLP............................................................. Das Multilayer-Perzeptron..................................................................... Ein einfaches Beispiel: XOR............................................................. MLPs in PyTorch
implementieren................................................... Beispiel: Nachnamen mit einem MLP klassifizieren.............................. Das Nachnamen-Dataset................................................................. Vocabulary, Vectorizer und DataLoader......................................... Das SurnameClassifier-Modell......................................................... 81 82 84 85 89 91 92 94
Die Trainingsroutine......................................................................... Modellauswertung und Vorhersage................................................. MLPs regularisieren: Gewichtsregularisierung und strukturelle Regularisierung (oder Dropout)....................................................... CNNs........................................................................................................ CNN-Hyperparameter..................................................................... CNNs in PyTorch implementieren................................................... Beispiel: Nachnamen mit einem CNN klassifizieren............................... Die Klasse SurnameDataset............................................................. Vocabulary, Vectorizer und DataLoader......................................... Den SurnameClassifier mit CNNs neu implementieren.................. Die T rainingsroutine......................................................................... Modellbewertung und Vorhersage................................................... Verschiedene Themen in CNNs............................................................. Pooling............................................................................................. Batch-Normalisierung (BatchNorm)............................................... Netzwerk-in-Netzwerk-Verbindungen (lxl-Faltungen).................. Residual-Verbindungen/Residual-Block...........................................
Zusammenfassung................................................................................... Literaturhinweise..................................................................................... 5 Wörter und Typen einbetten............................................................. Warum Einbettungen lernen?................................................................. Effizienz von Einbettungen............................................................... Ansätze für das Lernen von Worteinbettungen............................... Die praktische Verwendung von vortrainierten Worteinbettungen............................................................................. Beispiel: Erlernen der CBOW-Einbettungen........................................... Das Frankenstein-Dataset................................................................. Vocabulary, Vectorizer und DataLoader......................................... Das CBOWClassifier-Modell........................................................... Die Trainingsroutine......................................................................... Modellbewertung und Vorhersage................................................... Beispiel: Transfer-Lernen mit vortrainierten Einbettungen für Dokumentklassifizierung......................................................................... Das Dataset AG News..................................................................... Vocabulary, Vectorizer und DataLoader......................................... Das NewsClassifier-
Modell............................................................... Die Trainingsroutine......................................................................... Modellbewertung und Vorhersage................................................... Zusammenfassung.............................................. Literaturhinweise..................................................................................... 95 97 99 101 102 107 110 111 112 113 114 115 116 116 117 118 118 119 120 121 122 123 124 125 131 132 134 134 136 136 137 138 139 141 144 145 146 147
6 7 8 Sequenzmodellierung für NLP......................................................... Einführung in rekurrente neuronale Netze............................................ Ein Elman-Netz implementieren..................................................... Beispiel: Die Nationalität von Nachnamen mit einem Zeichen-RNN klassifizieren........................................................................................... Die Klasse SurnameDataset............................................................. Die Datenstrukturen der Vektorisierung......................................... Das SurnameClassifier-Modell......................................................... Die Trainingsroutine und die Ergebnisse......................................... Zusammenfassung................................................................................. Literaturhinweise................................................................................... Intermediäre Sequenzmodellierung für NLP........................................ Das Problem mit einfachen RNNs (oder Elman-Netzen)...................... Gating als eine Lösung für Herausforderungen von einfachen RNNs..................................................................................................... Beispiel: Nachnamen mit Zeichen-RNN generieren.............................. Die Klasse SurnameDataset............................................................. Die Vektorisierungs-Datenstrukturen............................................. Vom ElmanRNN zur
GRU............................................................. Modell 1: Das unkonditionierte SurnameGenerationModel.......... Modell 2: Das konditionierte SurnameGenerationModel.............. Die Trainingsroutine und die Ergebnisse......................................... Tipps und Tricks für das Training von Sequenzmodellen.................... Literamrhinweise................................................................................... Erweiterte Sequenzmodellierung für NLP........................................... Sequenz-zu-Sequenz-Modelle, Encoder-Decoder-Modelle und konditionierte Generierung................................................................... Mehr von einer Sequenz erfassen: Bidirektionale rekurrente Modelle.................................................................................................... Mehr von einer Sequenz erfassen: Attention......................................... Attention in tiefen neuronalen Netzen............................................. Sequenzgenerierungsmodelle bewerten................................................. Beispiel: Neuronale maschinelle Übersetzung....................................... Das Dataset für maschinelle Übersetzung....................................... Eine Vektorisierungs-Pipeline für NMT........................................... Im NMT-Modell codieren und decodieren..................................... Die Trainingsroutine und die Ergebnisse......................................... Zusammenfassung.................................................................................
Literaturhinweise................................................................................... 149 150 153 155 155 156 157 160 161 161 163 164 165 167 167 168 170 171 172 173 179 180 181 181 184 186 188 190 193 193 194 198 208 211 211
9 Klassiker, Grenzen und nächste Schritte.............................................. Was haben Sie bisher gelernt?................................................................. Zeitlose Themen in NLP......................................................................... Dialog- und interaktive Systeme....................................................... Diskurs............................................................................................. Informationsextraktion und Text Mining......................................... Analyse und Abrufen von Dokumenten........................................... Grenzen in NLP....................................................................................... Entwurfsmuster für NLP-Produktionssysteme....................................... Wie geht es weiter?................................................................................. Literaturhinweise..................................................................................... 213 213 214 214 215 216 217 217 219 223 224 Index............................................................................................... 227
|
any_adam_object | 1 |
author | Rao, Delip McMahan, Brian |
author2 | Langenau, Frank |
author2_role | trl |
author2_variant | f l fl |
author_GND | (DE-588)1179197275 (DE-588)1201451426 (DE-588)123178002 |
author_facet | Rao, Delip McMahan, Brian Langenau, Frank |
author_role | aut aut |
author_sort | Rao, Delip |
author_variant | d r dr b m bm |
building | Verbundindex |
bvnumber | BV046215040 |
classification_rvk | ST 306 |
classification_tum | DAT 710 |
ctrlnum | (OCoLC)1135403366 (DE-599)DNB1189478293 |
discipline | Informatik |
edition | 1. Auflage, deutsche Ausgabe |
format | Book |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>03541nam a22007578c 4500</leader><controlfield tag="001">BV046215040</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20201202 </controlfield><controlfield tag="007">t</controlfield><controlfield tag="008">191024s2020 gw a||| |||| 00||| ger d</controlfield><datafield tag="015" ind1=" " ind2=" "><subfield code="a">19,N27</subfield><subfield code="2">dnb</subfield></datafield><datafield tag="016" ind1="7" ind2=" "><subfield code="a">1189478293</subfield><subfield code="2">DE-101</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783960091189</subfield><subfield code="c">: circa EUR 34.90 (DE), circa EUR 35.90 (AT)</subfield><subfield code="9">978-3-96009-118-9</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">3960091184</subfield><subfield code="9">3-96009-118-4</subfield></datafield><datafield tag="024" ind1="3" ind2=" "><subfield code="a">9783960091189</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1135403366</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)DNB1189478293</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">gw</subfield><subfield code="c">XA-DE-BW</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-M347</subfield><subfield code="a">DE-92</subfield><subfield code="a">DE-706</subfield><subfield code="a">DE-739</subfield><subfield code="a">DE-384</subfield><subfield code="a">DE-1043</subfield><subfield code="a">DE-573</subfield><subfield code="a">DE-83</subfield><subfield code="a">DE-898</subfield><subfield code="a">DE-634</subfield><subfield code="a">DE-19</subfield><subfield code="a">DE-91</subfield><subfield code="a">DE-20</subfield><subfield code="a">DE-859</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 306</subfield><subfield code="0">(DE-625)143654:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">DAT 710</subfield><subfield code="2">stub</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">004</subfield><subfield code="2">sdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Rao, Delip</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1179197275</subfield><subfield code="4">aut</subfield></datafield><datafield tag="240" ind1="1" ind2="0"><subfield code="a">Natural language processing with PyTorch: build intelligent language applications using Deep Learning</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Natural language processing mit PyTorch</subfield><subfield code="b">intelligente Sprachanwendungen mit Deep Learning erstellen</subfield><subfield code="c">Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">1. Auflage, deutsche Ausgabe</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Heidelberg</subfield><subfield code="b">O'Reilly</subfield><subfield code="c">2020</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">XIV, 234 Seiten</subfield><subfield code="b">Illustrationen, Diagramme</subfield><subfield code="c">24 cm x 16.5 cm</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Deep learning</subfield><subfield code="0">(DE-588)1135597375</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">PyTorch</subfield><subfield code="0">(DE-588)1202487386</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Natürliche Sprache</subfield><subfield code="0">(DE-588)4041354-8</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Sprachverarbeitung</subfield><subfield code="0">(DE-588)4116579-2</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Paperback / softback</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Allgemein</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Python-Programmierer mit Grundkenntnissen im Machine Learning</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">COM051360</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">)Unsewn / adhesive bound</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">COM021030</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">COM051360</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">COM051360</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">1633: Hardcover, Softcover / Informatik, EDV/Programmiersprachen</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Natürliche Sprache</subfield><subfield code="0">(DE-588)4041354-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="1"><subfield code="a">Deep learning</subfield><subfield code="0">(DE-588)1135597375</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="2"><subfield code="a">PyTorch</subfield><subfield code="0">(DE-588)1202487386</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="1" ind2="0"><subfield code="a">Natürliche Sprache</subfield><subfield code="0">(DE-588)4041354-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="1"><subfield code="a">Sprachverarbeitung</subfield><subfield code="0">(DE-588)4116579-2</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="2"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="3"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2=" "><subfield code="8">1\p</subfield><subfield code="5">DE-604</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">McMahan, Brian</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1201451426</subfield><subfield code="4">aut</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Langenau, Frank</subfield><subfield code="0">(DE-588)123178002</subfield><subfield code="4">trl</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, PDF</subfield><subfield code="z">978-3-96010-324-0</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, EPUB</subfield><subfield code="z">978-3-96010-325-7</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, MOBI</subfield><subfield code="z">978-3-96010-326-4</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">X:MVB</subfield><subfield code="q">text/html</subfield><subfield code="u">http://deposit.dnb.de/cgi-bin/dokserv?id=b5b4c4667ed1421bac3b30b972a8aef5&prov=M&dok_var=1&dok_ext=htm</subfield><subfield code="3">Inhaltstext</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">Digitalisierung UB Passau - ADAM Catalogue Enrichment</subfield><subfield code="q">application/pdf</subfield><subfield code="u">http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=031593843&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-031593843</subfield></datafield><datafield tag="883" ind1="1" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">cgwrk</subfield><subfield code="d">20201028</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#cgwrk</subfield></datafield></record></collection> |
id | DE-604.BV046215040 |
illustrated | Illustrated |
indexdate | 2024-07-10T08:38:31Z |
institution | BVB |
isbn | 9783960091189 3960091184 |
language | German |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-031593843 |
oclc_num | 1135403366 |
open_access_boolean | |
owner | DE-M347 DE-92 DE-706 DE-739 DE-384 DE-1043 DE-573 DE-83 DE-898 DE-BY-UBR DE-634 DE-19 DE-BY-UBM DE-91 DE-BY-TUM DE-20 DE-859 |
owner_facet | DE-M347 DE-92 DE-706 DE-739 DE-384 DE-1043 DE-573 DE-83 DE-898 DE-BY-UBR DE-634 DE-19 DE-BY-UBM DE-91 DE-BY-TUM DE-20 DE-859 |
physical | XIV, 234 Seiten Illustrationen, Diagramme 24 cm x 16.5 cm |
publishDate | 2020 |
publishDateSearch | 2020 |
publishDateSort | 2020 |
publisher | O'Reilly |
record_format | marc |
spelling | Rao, Delip Verfasser (DE-588)1179197275 aut Natural language processing with PyTorch: build intelligent language applications using Deep Learning Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau 1. Auflage, deutsche Ausgabe Heidelberg O'Reilly 2020 XIV, 234 Seiten Illustrationen, Diagramme 24 cm x 16.5 cm txt rdacontent n rdamedia nc rdacarrier Maschinelles Lernen (DE-588)4193754-5 gnd rswk-swf Deep learning (DE-588)1135597375 gnd rswk-swf PyTorch (DE-588)1202487386 gnd rswk-swf Python Programmiersprache (DE-588)4434275-5 gnd rswk-swf Natürliche Sprache (DE-588)4041354-8 gnd rswk-swf Sprachverarbeitung (DE-588)4116579-2 gnd rswk-swf Paperback / softback Allgemein Python-Programmierer mit Grundkenntnissen im Machine Learning COM051360 )Unsewn / adhesive bound COM021030 1633: Hardcover, Softcover / Informatik, EDV/Programmiersprachen Natürliche Sprache (DE-588)4041354-8 s Deep learning (DE-588)1135597375 s PyTorch (DE-588)1202487386 s DE-604 Sprachverarbeitung (DE-588)4116579-2 s Maschinelles Lernen (DE-588)4193754-5 s Python Programmiersprache (DE-588)4434275-5 s 1\p DE-604 McMahan, Brian Verfasser (DE-588)1201451426 aut Langenau, Frank (DE-588)123178002 trl Erscheint auch als Online-Ausgabe, PDF 978-3-96010-324-0 Erscheint auch als Online-Ausgabe, EPUB 978-3-96010-325-7 Erscheint auch als Online-Ausgabe, MOBI 978-3-96010-326-4 X:MVB text/html http://deposit.dnb.de/cgi-bin/dokserv?id=b5b4c4667ed1421bac3b30b972a8aef5&prov=M&dok_var=1&dok_ext=htm Inhaltstext Digitalisierung UB Passau - ADAM Catalogue Enrichment application/pdf http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=031593843&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA Inhaltsverzeichnis 1\p cgwrk 20201028 DE-101 https://d-nb.info/provenance/plan#cgwrk |
spellingShingle | Rao, Delip McMahan, Brian Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen Maschinelles Lernen (DE-588)4193754-5 gnd Deep learning (DE-588)1135597375 gnd PyTorch (DE-588)1202487386 gnd Python Programmiersprache (DE-588)4434275-5 gnd Natürliche Sprache (DE-588)4041354-8 gnd Sprachverarbeitung (DE-588)4116579-2 gnd |
subject_GND | (DE-588)4193754-5 (DE-588)1135597375 (DE-588)1202487386 (DE-588)4434275-5 (DE-588)4041354-8 (DE-588)4116579-2 |
title | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen |
title_alt | Natural language processing with PyTorch: build intelligent language applications using Deep Learning |
title_auth | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen |
title_exact_search | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen |
title_full | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau |
title_fullStr | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau |
title_full_unstemmed | Natural language processing mit PyTorch intelligente Sprachanwendungen mit Deep Learning erstellen Delip Rao und Brian McMahan ; deutsche Übersetzung von Frank Langenau |
title_short | Natural language processing mit PyTorch |
title_sort | natural language processing mit pytorch intelligente sprachanwendungen mit deep learning erstellen |
title_sub | intelligente Sprachanwendungen mit Deep Learning erstellen |
topic | Maschinelles Lernen (DE-588)4193754-5 gnd Deep learning (DE-588)1135597375 gnd PyTorch (DE-588)1202487386 gnd Python Programmiersprache (DE-588)4434275-5 gnd Natürliche Sprache (DE-588)4041354-8 gnd Sprachverarbeitung (DE-588)4116579-2 gnd |
topic_facet | Maschinelles Lernen Deep learning PyTorch Python Programmiersprache Natürliche Sprache Sprachverarbeitung |
url | http://deposit.dnb.de/cgi-bin/dokserv?id=b5b4c4667ed1421bac3b30b972a8aef5&prov=M&dok_var=1&dok_ext=htm http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=031593843&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |
work_keys_str_mv | AT raodelip naturallanguageprocessingwithpytorchbuildintelligentlanguageapplicationsusingdeeplearning AT mcmahanbrian naturallanguageprocessingwithpytorchbuildintelligentlanguageapplicationsusingdeeplearning AT langenaufrank naturallanguageprocessingwithpytorchbuildintelligentlanguageapplicationsusingdeeplearning AT raodelip naturallanguageprocessingmitpytorchintelligentesprachanwendungenmitdeeplearningerstellen AT mcmahanbrian naturallanguageprocessingmitpytorchintelligentesprachanwendungenmitdeeplearningerstellen AT langenaufrank naturallanguageprocessingmitpytorchintelligentesprachanwendungenmitdeeplearningerstellen |