Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn: das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics
Gespeichert in:
Hauptverfasser: | , |
---|---|
Weitere Verfasser: | |
Format: | Buch |
Sprache: | German |
Veröffentlicht: |
Frechen
MITP
2021
|
Ausgabe: | 3., aktualisierte und erweiterte Auflage |
Schriftenreihe: | mitp Professional
|
Schlagworte: | |
Online-Zugang: | Inhaltsverzeichnis |
Beschreibung: | 759 Seiten Illustrationen, Diagramme 24 cm x 17 cm, 1259 g |
ISBN: | 9783747502136 374750213X |
Internformat
MARC
LEADER | 00000nam a22000008c 4500 | ||
---|---|---|---|
001 | BV047199372 | ||
003 | DE-604 | ||
005 | 20231025 | ||
007 | t | ||
008 | 210316s2021 gw a||| |||| 00||| ger d | ||
015 | |a 21,N07 |2 dnb | ||
016 | 7 | |a 1226790577 |2 DE-101 | |
020 | |a 9783747502136 |c Pb. : EUR 49.99 (DE), EUR 51.40 (AT) |9 978-3-7475-0213-6 | ||
020 | |a 374750213X |9 3-7475-0213-X | ||
024 | 3 | |a 9783747502136 | |
028 | 5 | 2 | |a Bestellnummer: 74750213 |
035 | |a (OCoLC)1237702787 | ||
035 | |a (DE-599)DNB1226790577 | ||
040 | |a DE-604 |b ger | ||
041 | 0 | |a ger | |
044 | |a gw |c XA-DE-NW | ||
049 | |a DE-706 |a DE-860 |a DE-355 |a DE-1043 |a DE-634 |a DE-824 |a DE-29T |a DE-523 |a DE-859 |a DE-1102 |a DE-861 |a DE-11 |a DE-573 |a DE-862 |a DE-898 |a DE-19 |a DE-83 |a DE-1049 | ||
084 | |a ST 302 |0 (DE-625)143652: |2 rvk | ||
084 | |a ST 250 |0 (DE-625)143626: |2 rvk | ||
084 | |8 1\p |a 004 |2 23sdnb | ||
100 | 1 | |a Raschka, Sebastian |e Verfasser |0 (DE-588)1080537872 |4 aut | |
240 | 1 | 0 | |0 (DE-588)115482389X |a Python machine learning |
245 | 1 | 0 | |a Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn |b das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |c Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen |
250 | |a 3., aktualisierte und erweiterte Auflage | ||
264 | 1 | |a Frechen |b MITP |c 2021 | |
300 | |a 759 Seiten |b Illustrationen, Diagramme |c 24 cm x 17 cm, 1259 g | ||
336 | |b txt |2 rdacontent | ||
337 | |b n |2 rdamedia | ||
338 | |b nc |2 rdacarrier | ||
490 | 0 | |a mitp Professional | |
650 | 0 | 7 | |a Datenanalyse |0 (DE-588)4123037-1 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Cluster-Analyse |0 (DE-588)4070044-6 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Python |g Programmiersprache |0 (DE-588)4434275-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a TensorFlow |0 (DE-588)1153577011 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Python 3.6 |0 (DE-588)113674746X |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Keras |g Framework, Informatik |0 (DE-588)1160521077 |2 gnd |9 rswk-swf |
650 | 0 | 7 | |a Big Data |0 (DE-588)4802620-7 |2 gnd |9 rswk-swf |
689 | 0 | 0 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |D s |
689 | 0 | 1 | |a Datenanalyse |0 (DE-588)4123037-1 |D s |
689 | 0 | 2 | |a Big Data |0 (DE-588)4802620-7 |D s |
689 | 0 | 3 | |a Python 3.6 |0 (DE-588)113674746X |D s |
689 | 0 | 4 | |a Python |g Programmiersprache |0 (DE-588)4434275-5 |D s |
689 | 0 | 5 | |a TensorFlow |0 (DE-588)1153577011 |D s |
689 | 0 | 6 | |a Keras |g Framework, Informatik |0 (DE-588)1160521077 |D s |
689 | 0 | 7 | |a Cluster-Analyse |0 (DE-588)4070044-6 |D s |
689 | 0 | |5 DE-604 | |
689 | 1 | 0 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |D s |
689 | 1 | 1 | |a Datenanalyse |0 (DE-588)4123037-1 |D s |
689 | 1 | 2 | |a Big Data |0 (DE-588)4802620-7 |D s |
689 | 1 | 3 | |a Python 3.6 |0 (DE-588)113674746X |D s |
689 | 1 | |5 DE-604 | |
700 | 1 | |a Mirjalili, Vahid |e Verfasser |0 (DE-588)1147615993 |4 aut | |
700 | 1 | |a Lorenzen, Knut |0 (DE-588)1020241446 |4 trl | |
710 | 2 | |a mitp Verlags GmbH & Co. KG |0 (DE-588)1065362072 |4 pbl | |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe |z 9783747502143 |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe |z 9783747502150 |
780 | 0 | 0 | |i Vorangegangen ist |z 9783958457331 |
856 | 4 | 2 | |m DNB Datenaustausch |q application/pdf |u http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032604447&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |3 Inhaltsverzeichnis |
999 | |a oai:aleph.bib-bvb.de:BVB01-032604447 | ||
883 | 0 | |8 1\p |a aepgnd |c 0,03688 |d 20210308 |q DE-101 |u https://d-nb.info/provenance/plan#aepgnd |
Datensatz im Suchindex
DE-BY-862_location | 2000 |
---|---|
DE-BY-FWS_call_number | 2000/ST 250 P99 R223 M1(3) |
DE-BY-FWS_katkey | 879992 |
DE-BY-FWS_media_number | 083000522193 |
_version_ | 1816752347089469440 |
adam_text | INHALTSVERZEICHNIS
UEBER
DIE
AUTOREN
....................................................................................
17
UEBER
DIE
KORREKTOREN
...........................................................................
19
UEBER
DEN
FACHKORREKTOR
DER
DEUTSCHEN
AUSGABE
...............................
20
EINLEITUNG
................................................................................................
21
EINSTIEG
IN
MACHINE
LEAMING
...............................................................
21
ZUM
INHALT
DES
BUCHES
........
.
...............................................................
23
WAS
SIE
BENOETIGEN
....................
26
CODEBEISPIELE
HERUNTERLADEN
..........
.
...................................................
26
KONVENTIONEN
IM
BUCH
..........................................................................
26
1
WIE
COMPUTER
AUS
DATEN
LERNEN
KOENNEN
............................................
29
1.1
INTELLIGENTE
MASCHINEN,
DIE
DATEN
IN
WISSEN
VERWANDELN.
..............
29
1.2
DIE
DREI
ARTEN
DES
MACHINE
LEAMINGS
...............................................
30
1.2.1
MIT
UEBERWACHTEM
LERNEN
VORHERSAGEN
TREFFEN
....................
31
1.2.2
INTERAKTIVE
AUFGABEN
DURCH
REINFORCEMENT
LEAMING
LOESEN
..........................................................................................
34
1.2.3
DURCH
UNUEBERWACHTES
LERNEN
VERBORGENE
STRUKTUREN
ERKENNEN
....................................................................................
35
1.3
GRUNDLEGENDE
TERMINOLOGIE
UND
NOTATION
.........................................
36
1.3.1
IM
BUCH
VERWENDETE
NOTATION
UND
KONVENTIONEN
..............
37
1.3.2
TERMINOLOGIE
............................................................................
38
1.4
ENTWICKLUNG
EINES
SYSTEMS
FUER
DAS
MACHINE
LEAMING
....................
39
1.4.1
VORVERARBEITUNG:
DATEN
IN
FORM
BRINGEN
...............................
40
1.4.2
TRAINIEREN
UND
AUSWAEHLEN
EINES
VORHERSAGEMODELLS
..........
40
1.4.3
BEWERTUNG
VON
MODELLEN
UND
VORHERSAGE
ANHAND
UNBEKANNTER
DATENINSTANZEN
.................................................
41
1.5
MACHINE
LEAMING
MIT
PYTHON
.............................................................
42
1.5.1
PYTHON
UND
PYTHON-PAKETE
INSTALLIEREN
.................................
42
1.5.2
VERWENDUNG
DER
PYTHON-DISTRIBUTION
ANACONDA
..................
43
1.5.3
PAKETE
FUER
WISSENSCHAFTLICHES
RECHNEN,
DATA
SCIENCE
UND
MACHINE
LEAMING
.............................................................
43
1.6
ZUSAMMENFASSUNG
................................................................................
44
INHALTSVERZEICHNIS
2
LEMALGORITHMEN
FUER
DIE
KLASSIFIKATION
TRAINIEREN
...............................
45
2.1
KUENSTLICHE
NEURONEN:
EIN
KURZER
BLICK
AUF
DIE
ANFAENGE
DES
MACHINE
LEAMINGS
.................................................................................
45
2.1.1
FORMALE
DEFINITION
EINES
KUENSTLICHEN
NEURONS
.....................
46
2.1.2
DIE
PERZEPTRON-LEMREGEL
..........................................................
48
2.2
IMPLEMENTIERUNG
EINES
PERZEPTRON-LEMALGORITHMUS
IN
PYTHON
...
51
2.2.1
EINE
OBJEKTORIENTIERTE
PERZEPTRON-API
...................................
51
2.2.2
TRAINIEREN
EINES
PERZEPTRON-MODELLS
MIT
DER
IRIS-DATENSAMMLUNG
................................................................
55
2.3
ADAPTIVE
LINEARE
NEURONEN
UND
DIE
KONVERGENZ
DES
LERNENS
..........
61
2.3.1
STRAFFUNKTIONEN
MIT
DEM
GRADIENTENABSTIEGSVERFAHREN
MINIMIEREN
.................................................................................
62
2.3.2
IMPLEMENTIERUNG
EINES
ADAPTIVEN
LINEAREN
NEURONS
IN
PYTHON
.....................................................................................
64
2.3.3
VERBESSERUNG
DES
GRADIENTENABSTIEGSVERFAHRENS
DURCH
MERKMALSTANDARDISIERUNG
........................................................
69
2.3.4
LARGE
SCALE
MACHINE
LEAMING
UND
STOCHASTISCHES
GRADIENTENABSTIEGSVERFAHREN
....................................................
71
2.4
ZUSAMMENFASSUNG
.................................................................................
77
3
MACHINE-LEAMING-KLASSIFIKATOREN
MIT
SCIKIT-LEAM
VERWENDEN
........
79
3.1
AUSWAHL
EINES
KLASSIFIKATIONSALGORITHMUS
.........................................
79
3.2
ERSTE
SCHRITTE
MIT
SCIKIT-LEAM:
TRAINIEREN
EINES
PERZEPTRONS
............
80
3.3
KLASSENWAHRSCHEINLICHKEITEN
DURCH
LOGISTISCHE
REGRESSION
MODELLIEREN
.............................................................................................
86
3.3.1
LOGISTISCHE
REGRESSION
UND
BEDINGTE
WAHRSCHEINLICHKEITEN
................................................................
87
3.3.2
GEWICHTE
DER
LOGISTISCHEN
STRAFFUNKTION
ERMITTELN
..............
91
3.3.3
KONVERTIEREN
EINER
ADALINE-IMPLEMENTIERUNG
IN
EINEN
ALGORITHMUS
FUER
EINE
LOGISTISCHE
REGRESSION
.........................
93
3.3.4
TRAINIEREN
EINES
LOGISTISCHEN
REGRESSIONSMODELLS
MIT
SCIKIT-LEAM
...................................................................................
98
3.3.5
UEBERANPASSUNG
DURCH
REGULARISIERUNG
VERHINDERN
............
101
3.4
MAXIMUM-MARGIN-KLASSIFIKATION
MIT
SUPPORT
VECTOR
MACHINES
....
104
3.4.1
MAXIMIERUNG
DES
RANDBEREICHS
..............................................
105
3.4.2
HANDHABUNG
DES
NICHT
LINEAR
TRENNBAREN
FALLS
MIT
SCHLUPFVARIABLEN
........................................................................
106
3.4.3
ALTERNATIVE
IMPLEMENTIERUNGEN
IN
SCIKIT-LEAM
.....................
108
6
INHALTSVERZEICHNIS
3.5
NICHTLINEARE
AUFGABEN
MIT
EINER
KEMEL-SVM
LOESEN
.........................
109
3.5.1
KEMEL-METHODEN
FUER
LINEAR
NICHT
TRENNBARE
DATEN
..............
109
3.5.2
MIT
DEM
KEMEL-TRICK
HYPEREBENEN
IN
HOEHERDIMENSIONALEN
RAEUMEN
FINDEN
.....................................
111
3.6
LERNEN
MIT
ENTSCHEIDUNGSBAEUMEN
.....................................................
115
3.6.1
MAXIMIERUNG
DES
INFORMATIONSGEWINNS:
DATEN
AUSREIZEN
........................................................................
116
3.6.2
KONSTRUKTION
EINES
ENTSCHEIDUNGSBAUMS
.............................
120
3.6.3
MEHRERE
ENTSCHEIDUNGSBAEUME
ZU
EINEM
RANDOM
FOREST
KOMBINIEREN
.................................................
124
3.7
K-NEAREST-NEIGHBORS:
EIN
LAZY-LEAMING-ALGORITHMUS
.......................
127
3.8
ZUSAMMENFASSUNG
................................................................................
130
4
GUT
GEEIGNETE
TRAININGSDATENMENGEN:
DATENVORVERARBEITUNG
........
133
4.1
UMGANG
MIT
FEHLENDEN
DATEN
.............................................................
133
4.1.1
FEHLENDE
WERTE
IN
TABELLENDATEN
...........................................
134
4.1.2
INSTANZEN
ODER
MERKMALE
MIT
FEHLENDEN
DATEN
ENTFERNEN
....................................................................................
135
4.1.3
FEHLENDE
WERTE
ERGAENZEN
...............................................
136
4.1.4
DIE
SCHAETZER-API
VON
SCIKIT-LEAM
...........................................
137
4.2
HANDHABUNG
KATEGORIALER
DATEN
.........................................................
138
4.2.1
CODIERUNG
KATEGORIALER
DATEN
MIT
PANDAS
.............................
139
4.2.2
ZUWEISUNG
VON
ORDINALEN
MERKMALEN
...................................
139
4.2.3
CODIERUNG
DER
KLASSENBEZEICHNUNGEN
...................................
140
4.2.4
ONE-HOT-CODIERUNG
DER
NOMINALEN
MERKMALE
.......................
141
4.3
AUFTEILUNG
EINER
DATENSAMMLUNG
IN
TRAININGS-
UND
TESTDATEN
....
145
4.4
ANPASSUNG
DER
MERKMALE
......................................................................
148
4.5
AUSWAHL
AUSSAGEKRAEFTIGER
MERKMALE
...................................................
150
4.5.1
LI-
UND
L2-REGULARISIERUNG
ALS
STRAFFUNKTIONEN
..................
151
4.5.2
GEOMETRISCHE
INTERPRETATION DER
L2-REGULARISIERUNG
..........
151
4.5.3
DUENN
BESETZTE
LOESUNGEN
MIT
LL-REGULARISIERUNG
................
153
4.5.4
ALGORITHMEN
ZUR
SEQUENZIELLEN
AUSWAHL
VON
MERKMALEN
................................................................................
157
4.6
BEURTEILUNG
DER
BEDEUTUNG
VON
MERKMALEN
MIT
RANDOM
FORESTS
......................................................................................
164
4.7
ZUSAMMENFASSUNG
................................................................................
167
5
DATENKOMPRIMIERUNG
DURCH
DIMENSIONSREDUKTION
.........................
169
5.1
UNUEBERWACHTE
DIMENSIONSREDUKTION
DURCH
7
INHALTSVERZEICHNIS
HAUPTKOMPONENTENANALYSE
..................................................................
169
5.1.1
SCHRITTE
BEI
DER
HAUPTKOMPONENTENANALYSE
.........................
170
5.1.2
SCHRITTWEISE
EXTRAKTION
DER
HAUPTKOMPONENTEN
...................
171
5.1.3
TOTALE
VARIANZ
UND
ERKLAERTE
VARIANZ
.......................................
174
5.1.4
MERKMALSTRANSFORMATION
..........................................................
176
5.1.5
HAUPTKOMPONENTENANALYSE
MIT
SCIKIT-LEAM
...........................
179
5.2
UEBERWACHTE
DATENKOMPRIMIERUNG
DURCH
LINEARE
DISKRIMINANZANALYSE
...............................................................................
183
5.2.1
HAUPTKOMPONENTENANALYSE
KONTRA
LINEARE
DISKRIMINANZANALYSE
................................................................
183
5.2.2
DIE
INTERNE
FUNKTIONSWEISE
DER
LINEAREN
DISKRIMINANZANALYSE
................................................................
184
5.2.3
BERECHNUNG
DER
STREUMATRIZEN
................................................
185
5.2.4
AUSWAHL
LINEARER
DISKRIMINANTEN
FUER
DEN
NEUEN
MERKMALSUNTERRAUM
................................................................
187
5.2.5
PROJEKTION
IN
DEN
NEUEN
MERKMALSRAUM
...............................
190
5.2.6
LDA
MIT
SCIKIT-LEAM
..................................................................
191
5.3
KEMEL-HAUPTKOMPONENTENANALYSE
FUER
NICHTLINEARE
ZUORDNUNGEN
VERWENDEN
......................................................................
193
5.3.1
KEMEL-FUNKTIONEN
UND
DER
KEMEL-TRICK
................................
194
5.3.2
IMPLEMENTIERUNG
EINER
KEMEL-HAUPTKOMPONENTENANALYSE
IN
PYTHON
.....................................................................................
198
5.3.3
PROJIZIEREN
NEUER
DATENPUNKTE
................................................
206
5.3.4
KERNEL-HAUPTKOMPONENTENANALYSE
MIT
SCIKIT-LEAM
............
210
5.4
ZUSAMMENFASSUNG
.................................................................................
211
6
BEWAEHRTE
VERFAHREN
ZUR
MODELLBEWERTUNG
UND
HYPERPARAMETER-OPTIMIERUNG
.................................................
213
6.1
ARBEITSABLAEUFE
MIT
PIPELINES
OPTIMIEREN
..............................................
213
6.1.1
DIE
WISCONSIN-BRUSTKREBS-DATENSAMMLUNG
.........................
213
6.1.2
TRANSFORMER
UND
SCHAETZER
IN
EINER
PIPELINE
KOMBINIEREN
...............................................................................
215
6.2
BEURTEILUNG
DES
MODELLS
DURCH
K-FACHE
KREUZVALIDIERUNG
.................
217
6.2.1
HOLDOUT-METHODE
......................................................................
218
6.2.2
K-FACHE
KREUZVALIDIERUNG
..........................................................
219
6.3
ALGORITHMEN
MIT
LERN-
UND
VALIDIERUNGSKURVEN
DEBUGGEN
...............
223
6.3.1
PROBLEME
MIT
BIAS
UND
VARIANZ
ANHAND
VON
LERNKURVEN
ERKENNEN
.....................................................................................
224
8
INHALTSVERZEICHNIS
6.3.2
UEBERANPASSUNG
UND
UNTERANPASSUNG
ANHAND
VON
VALIDIERUNGSKURVEN
ERKENNEN
....................................
227
6.4
FEINABSTIMMUNG
EINES
LEMMODELLS
DURCH
GRID
SEARCH
..................
229
6.4.1
OPTIMIERUNG
DER
HYPERPARAMETER
DURCH
GRID
SEARCH
........
230
6.4.2
ALGORITHMENAUSWAHL
DURCH
VERSCHACHTELTE
KREUZVALIDIERUNG
.....................................................................
232
6.5
VERSCHIEDENE
KRITERIEN
ZUR
LEISTUNGSBEWERTUNG
...............................
234
6.5.1
INTERPRETATION
EINER
VERWECHSLUNGSMATRIX
......................
234
6.5.2
OPTIMIERUNG DER
GENAUIGKEIT
UND
DER
TREFFERQUOTE
EINES
KLASSIFIKATIONSMODELLS
....................................
236
6.5.3
RECEIVER-OPERATING-CHARACTERISTIC-DIAGRAMME
..............
238
6.5.4
BEWERTUNGSKRITERIEN
FUER
MEHRKLASSEN-KLASSIFIKATIONEN
....
241
6.6
HANDHABUNG
UNAUSGEWOGENER
KLASSENVERTEILUNG
.............................
242
6.7
ZUSAMMENFASSUNG
................................................................................
245
7
KOMBINATION
VERSCHIEDENER
MODELLE
FUER
DAS
ENSEMBLE
LEAMING.
..
247
7.1
ENSEMBLE
LEAMING
................................................................................
247
7.2
KLASSIFIKATOREN
DURCH
MEHRHEITSENTSCHEIDUNG
KOMBINIEREN
............
251
7.2.1
IMPLEMENTIERUNG
EINES
EINFACHEN
MEHRHEITSENTSCHEIDUNGS-KLASSIFIKATORS
.................................
251
7.2.2
VORHERSAGEN
NACH
DEM
MEHRHEITSENTSCHEIDUNGSPRINZIP
TREFFEN
........................................................................................
258
7.3
BEWERTUNG
UND
ABSTIMMUNG
DES
KLASSIFIKATOR-ENSEMBLES
..............
261
7.4
BAGGING:
KLASSIFIKATOR-ENSEMBLES
ANHAND
VON
BOOTSTRAP-
STICHPROBEN
ENTWICKELN
..........................................................................
268
7.4.1
BAGGING
KURZ
ZUSAMMENGEFASST
.............................................
269
7.4.2
KLASSIFIKATION
DER
WEIN-DATENSAMMLUNG
DURCH
BAGGING.
..
270
7.5
SCHWACHE
KLASSIFIKATOREN
DURCH
ADAPTIVES
BOOSTING
VERBESSERN
....
274
7.5.1
FUNKTIONSWEISE
DES
BOOSTINGS
...............................................
274
7.5.2
ADABOOST
MIT
SCIKIT-LEAM
ANWENDEN
...............................
278
7.6
ZUSAMMENFASSUNG
................................................................................
282
8
MACHINE
LEAMING
ZUR
ANALYSE
VON
STIMMUNGSLAGEN
NUTZEN
..........
283
8.1
DIE
IMDB-FILMDATENBANK
.....................................................................
283
8.1.1
HERUNTERLADEN
DER
DATENSAMMLUNG
.....................................
284
8.1.2
VORVERARBEITEN
DER
FILMBEWERTUNGSDATEN
.............................
284
8.2
DAS
BAG-OF-WORDS-MODELL
.....................................................................
286
8.2.1
WOERTER
IN
MERKMALSVEKTOREN
UMWANDELN
......................
287
8.2.2
BEURTEILUNG
DER
WORTRELEVANZ
DURCH
DAS
TF-IDF-MASS
..........
289
9
INHALTSVERZEICHNIS
8.2.3
TEXTDATEN
BEREINIGEN
................................................................
291
8.2.4
DOKUMENTE
IN
TOKENS
ZERLEGEN
................................................
293
8.3
EIN
LOGISTISCHES
REGRESSIONSMODELL
FUER
DIE
DOKUMENTKLASSIFIKATION
TRAINIEREN
.................................................................................................
295
8.4
VERARBEITUNG
GROSSER
DATENMENGEN:
ONLINE-ALGORITHMEN
UND
OUT-OF-CORE
LEAMING
...............................................................................
298
8.5
TOPIC
MODELING
MIT
LATENTER
DIRICHLET-ALLOKATION
...............................
302
8.5.1
AUFTEILUNG
VON
TEXTEN
MIT
DER
LDA
.......................................
303
8.5.2
LDA
MIT
SCIKIT-LEAM
..................................................................
303
8.6
ZUSAMMENFASSUNG
.................................................................................
307
9
EINBETTUNG
EINES
MACHINE-LEAMING-MODELLS
IN EINE
WEBANWENDUNG
.......................................................................................
309
9.1
SERIALISIERUNG
ANGEPASSTER
SCHAETZER
MIT
SCIKIT-LEAM
...........................
309
9.2
EINRICHTUNG
EINER
SQLITE-DATENBANK
ZUM
SPEICHERN
VON
DATEN
...
313
9.3
ENTWICKLUNG
EINER
WEBANWENDUNG
MIT
FLASK
.....................................
315
9.3.1
DIE
ERSTE
WEBANWENDUNG
MIT
FLASK
.......................................
316
9.3.2
FORMULARVALIDIERUNG
UND
-AUSGABE
.........................................
318
9.4
DER
FILMBEWERTUNGSKLASSIFIKATOR
ALS
WEBANWENDUNG
.......................
324
9.4.1
DATEIEN
UND
ORDNER
-
DIE
VERZEICHNISSTRUKTUR
.....................
326
9.4.2
IMPLEMENTIERUNG
DER
HAUPTANWENDUNG
APP.PY
...................
326
9.4.3
EINRICHTUNG
DES
BEWERTUNGSFORMULARS
...................................
329
9.4.4
EINE
VORLAGE
FUER
DIE
ERGEBNISSEITE
ERSTELLEN
...........................
330
9.5
EINRICHTUNG
DER
WEBANWENDUNG
AUF
EINEM
OEFFENTLICH
ZUGAENGLICHEN
WEBSERVER
........................................................................
333
9.5.1
ERSTELLEN
EINES
BENUTZERKONTOS
BEI
PYTHONANYWHERE
..........
333
9.5.2
HOCHLADEN
DER
FILMBEWERTUNGSANWENDUNG
..........................
334
9.5.3
UPDATEN
DES
FILMBEWERTUNGSKLASSIFIKATORS
...........................
335
9.6
ZUSAMMENFASSUNG
.................................................................................
338
10
VORHERSAGE
STETIGER
ZIELVARIABLEN
DURCH
REGRESSIONSANALYSE
..............
339
10.1
LINEARE
REGRESSION
...................................................................................
339
10.1.1
EIN
EINFACHES
LINEARES
REGRESSIONSMODELL
.............................
340
10.1.2
MULTIPLE
LINEARE
REGRESSION
......................................................
341
10.2
DIE
BOSTON-HOUSING-DATENSAMMLUNG
..................................................
342
10.2.1
EINLESEN
DER
DATENMENGE
IN
EINEN
DATAFRAME
.....................
342
10.2.2
VISUALISIERUNG DER
WICHTIGEN
EIGENSCHAFTEN
EINER
DATENMENGE
...............................................................................
344
10
INHALTSVERZEICHNIS
10.2.3
ZUSAMMENHAENGE
ANHAND
DER
KORRELATIONSMATRIX
ERKENNEN
......................................................................
346
10.3
IMPLEMENTIERUNG
EINES
LINEAREN
REGRESSIONSMODELLS
MIT
DER
METHODE
DER
KLEINSTEN
QUADRATE
.........................................................
348
10.3.1
BERECHNUNG
DER
REGRESSIONSPARAMETER
MIT
DEM
GRADIENTENABSTIEGSVERFAHREN
...................................................
349
10.3.2
SCHAETZUNG
DER
KOEFFIZIENTEN
EINES
REGRESSIONSMODELLS
MIT
SCIKIT-LEAM
..................
353
10.4
ANPASSUNG
EINES
ROBUSTEN
REGRESSIONSMODELLS
MIT
DEM
RAN
SAC-ALGORITHMUS
..........................................................................
355
10.5
BEWERTUNG
DER
LEISTUNG
LINEARER
REGRESSIONSMODELLE
......................
358
10.6
REGULARISIERUNGSVERFAHREN
FUER
DIE
REGRESSION
EINSETZEN
..................
361
10.7
POLYNOMIALE
REGRESSION:
UMWANDELN
EINER
LINEAREN
REGRESSION
IN
EINE
KURVE
..........................................................................................
363
10.7.1
HINZUFUEGEN
POLYNOMIALER
TERME
MIT
SCIKIT-LEARN
................
364
10.7.2
MODELLIERUNG
NICHTLINEARER
ZUSAMMENHAENGE
IN
DER
BOSTON-HOUSING-DATENSAMMLUNG
.........................................
366
10.8
HANDHABUNG
NICHTLINEARER
BEZIEHUNGEN
MIT
RANDOM
FORESTS
........
369
10.8.1
ENTSCHEIDUNGSBAUM-REGRESSION
....................................
370
10.8.2
RANDOM-FOREST-REGRESSION
.....................................................
371
10.9
ZUSAMMENFASSUNG
................................................................................
375
11
VERWENDUNG
VON
DATEN
OHNE
LABEL:
CLUSTERANALYSE...........................
377
11.1
GRUPPIERUNG
VON
OBJEKTEN
NACH
AEHNLICHKEIT
MIT
DEM
K-MEANS-ALGORITHMUS
............................................................................
377
11.1.1
K-MEANS-CLUSTERING
MIT
SCIKIT-LEAM
.......................................
378
11.1.2
DER
K-MEANS++-ALGORITHMUS
...................................................
383
11.1.3
CRISP
UND
SOFT
CLUSTERING
.................................................
384
11.1.4
DIE
OPTIMALE
ANZAHL
DER
CLUSTER
MIT
DEM
ELLENBOGENKRITERIUM
ERMITTELN
...............................................
386
11.1.5
QUANTIFIZIERUNG
DER
CLUSTERING-GUETE
MIT
SILHOUETTENDIAGRAMMEN
.........................................................
388
11.2
CLUSTER
ALS
HIERARCHISCHEN
BAUM
ORGANISIEREN
...................................
393
11.2.1
GRUPPIERUNG
VON
CLUSTERN
.....................................................
393
11.2.2
HIERARCHISCHES
CLUSTERING MITTELS
EINER
DISTANZMATRIX
....
395
11.2.3
DENDROGRAMME
UND
HEATMAPS
VERKNUEPFEN
........................
399
11.2.4
AGGLOMERATIVES
CLUSTERING
MIT
SCIKIT-LEAM
...........................
401
11.3
BEREICHE
HOHER
DICHTE
MIT
DBSCAN
ERMITTELN
.................................
402
11.4
ZUSAMMENFASSUNG
................................................................................
407
11
INHALTSVERZEICHNIS
12
IMPLEMENTIERUNG
EINES
KUENSTLICHEN
NEURONALEN
NETZES
...................
409
12.1
MODELLIERUNG
KOMPLEXER
FUNKTIONEN
MIT
KUENSTLICHEN
NEURONALEN
NETZEN
.................................................................................
409
12.1.1
EINSCHICHTIGE
NEURONALE
NETZE
................................................
411
12.1.2
MEHRSCHICHTIGE
NEURONALE
NETZARCHITEKTUR
...........................
413
12.1.3
AKTIVIERUNG
EINES
NEURONALEN
NETZES
DURCH
VORWAERTSPROPAGATION
................................................................
416
12.2
KLASSIFIKATION
HANDGESCHRIEBENER
ZIFFERN
...........................................
418
12.2.1
DIE
MNIST-DATENSAMMLUNG
....................................................
419
12.2.2
IMPLEMENTIERUNG
EINES
MEHRSCHICHTIGEN
PERZEPTRONS
........
426
12.3
TRAINIEREN
EINES
KUENSTLICHEN
NEURONALEN
NETZES
...............................
438
12.3.1
BERECHNUNG DER
LOGISTISCHEN
STRAFFUNKTION
...........................
439
12.3.2
EIN
GESPUER
FUER
DIE
BACKPROPAGATION
ENTWICKELN
...................
441
12.3.3
TRAINIEREN
NEURONALER
NETZE
DURCH
BACKPROPAGATION
..........
443
12.4
KONVERGENZ
IN
NEURONALEN
NETZEN
........................................................
447
12.5
ABSCHLIESSENDE
BEMERKUNGEN
ZUR
IMPLEMENTIERUNG
NEURONALER
NETZE
.....................................................................................
448
12.6
ZUSAMMENFASSUNG
.................................................................................
448
13
PARALLELISIERUNG
DES
TRAININGS
NEURONALER
NETZE
MIT
TENSORFLOW
..
451
13.1
TENSORFLOW
UND
TRAININGSLEISTUNG
......................................................
451
13.1.1
HERAUSFORDERUNGEN
..................................................................
451
13.1.2
WAS
GENAU
IST
TENSORFLOW?
......................................................
453
13.1.3
TENSORFLOW
ERLERNEN
................................................................
454
13.2
ERSTE
SCHRITTE
MIT
TENSORFLOW
..............................................................
455
13.2.1
TENSORFLOW
INSTALLIEREN
............................................................
455
13.2.2
TENSOREN
IN
TENSORFLOW
ERSTELLEN
...........................................
456
13.2.3
DATENTYP
UND
FORMAT
EINES
TENSORS
AENDERN
.........................
457
13.2.4
ANWENDUNG
MATHEMATISCHER
OPERATIONEN
AUF
TENSOREN
...
458
13.2.5
TENSOREN
AUFTEILEN,
STAPELN
UND
VERKNUEPFEN
.........................
460
13.3
EINGABE-PIPELINES
MIT
TF.DATA
ERSTELLEN
-
DIE
DATASET-API
VON
TENSORFLOW
...............................................................................................
462
13.3.1
EIN
TENSORFLOW-DATASET
ANHAND
VORHANDENER
TENSOREN
ERSTELLEN
.......................................................................................
462
13.3.2
ZWEI
TENSOREN
ZU
EINER
DATENMENGE
VEREINEN
.....................
463
13.3.3
DURCHMISCHEN,
BATCH
ERSTELLEN
UND
WIEDERHOLEN
..................
465
13.3.4
ERSTELLEN
EINER
DATENMENGE
ANHAND
LOKAL
GESPEICHERTER
DATEIEN
.......................................................................................
468
13.3.5
ZUGRIFF
AUF
DIE
DATENMENGEN
DER
TENSORFLOW_DATASETS-
BIBLIOTHEK
...................................................................................
472
12
INHALTSVERZEICHNIS
13.4
ENTWICKLUNG
EINES
NN-MODELLS
MIT
TENSORFLOW
...............................
478
13.4.1
DIE
KERAS-API
(TF.KERAS)
VON
TENSORFLOW
...............................
478
13.4.2
ENTWICKLUNG
EINES
LINEAREN
REGRESSIONSMODELLS
..................
479
13.4.3
TRAINIEREN
DES
MODELLS
MIT
DEN
METHODEN
.COMPILE()
UND.FIT()
....................................................................................
484
13.4.4
ENTWICKLUNG
EINES
MEHRSCHICHTIGEN
PERZEPTRONS
ZUR
KLASSIFIKATION
DER
IRIS-DATENSAMMLUNG
.................................
485
13.4.5
BEWERTUNG
DES
TRAINIERTEN
MODELLS
MIT
DER
TESTDATENMENGE
.......................................................................
490
13.4.6
DAS
TRAINIERTE
MODELL
SPEICHERN
UND
EINLESEN
......................
490
13.5
AUSWAHL
DER
AKTIVIERUNGSFUNKTIONEN
MEHRSCHICHTIGER
NEURONALER
N
ETZE
....................................................................................
491
13.5.1
DIE
LOGISTISCHE
FUNKTION
KURZ
ZUSAMMENGEFASST
................
492
13.5.2
WAHRSCHEINLICHKEITEN
BEI
DER
MEHRKLASSEN-KLASSIFIKATION
MIT
DER
SOFTMAX-FUNKTION
SCHAETZEN
.......................................
494
13.5.3
VERBREITERUNG
DES
AUSGABESPEKTRUMS
MITTELS
TANGENS
HYPERBOLICUS
..............................................................................
495
13.5.4
AKTIVIERUNG
MITTELS
RELU
.......................................................
498
13.6
ZUSAMMENFASSUNG
................................................................................
499
14
DIE
FUNKTIONSWEISE
VON TENSORFLOW
IM
DETAIL
..................................
501
14.1
GRUNDLEGENDE
MERKMALE
VON
TENSORFLOW
.........................................
502
14.2
TENSORFLOWS
BERECHNUNGSGRAPHEN:
MIGRATION
NACH
TENSORFLOW
V2
........................................................................................
503
14.2.1
FUNKTIONSWEISE
VON
BERECHNUNGSGRAPHEN
...........................
503
14.2.2
ERSTELLEN
EINES
GRAPHEN
IN
TENSORFLOW
VL.X
........................
504
14.2.3
MIGRATION
EINES
GRAPHEN
NACH
TENSORFLOW
V2
....................
505
14.2.4
EINGABEDATEN
EINLESEN
MIT
TENSORFLOW
VL.X
.........................
506
14.2.5
EINGABEDATEN
EINLESEN
MIT
TENSORFLOW
V2
.............................
506
14.2.6
BESCHLEUNIGUNG
VON
BERECHNUNGEN
MIT
FUNKTIONSDEKORATOREN
.............................................................
507
14.3
TENSORFLOWS
VARIABIENOBJEKTE
ZUM
SPEICHERN
UND
AKTUALISIEREN
VON
MODELLPARAMETEM
.........................................................................
509
14.4
GRADIENTENBERECHNUNG
DURCH
AUTOMATISCHES
DIFFERENZIEREN
UND GRADIENTTAPE
..................................................................................
514
14.4.1
BERECHNUNG
DER GRADIENTEN
DER
VERLUSTFUNKTION
BEZUEGLICH
TRAINIERBARER
VARIABLEN
...........................................
514
14.4.2
BERECHNUNG
DER
GRADIENTEN
BEZUEGLICH
NICHT
TRAINIERBARER
TENSOREN
.............................................................
516
13
INHALTSVERZEICHNIS
14.4.3
RESSOURCEN
FUER
MEHRFACHE
GRADIENTENBERECHNUNG
ERHALTEN
.........................................................................
516
14.5
VEREINFACHUNG
DER
IMPLEMENTIERUNG
GEBRAEUCHLICHER
ARCHITEKTUREN
MIT
DER
KERAS-API
..........................................................
517
14.5.1
LOESEN
EINER
XOR-KLASSIFIKATIONSAUFGABE
...............................
521
14.5.2
FLEXIBLERE
MODELLERSTELLUNG
MIT
KERAS
*
FUNKTIONALER
API
...
526
14.5.3
MODELLE
MIT
KERAS
*
MODEL-KLASSE
IMPLEMENTIEREN
..........
528
14.5.4
BENUTZERDEFINIERTE
KERAS-SCHICHTEN
.......................................
529
14.6
TENSORFLOWS
SCHAETZER
.............................................................................
533
14.6.1
MERKMALSSPALTEN
......................................................................
534
14.6.2
MACHINE
LEAMING
MIT
VORGEFERTIGTEN
SCHAETZERN
...................
538
14.6.3
KLASSIFIKATION
HANDGESCHRIEBENER
ZIFFERN
MIT
SCHAETZERN
...
543
14.6.4
BENUTZERDEFINIERTE
SCHAETZER
ANHAND
EINES
KERAS-MODELLS
ERSTELLEN
.....................................................................................
545
14.7
ZUSAMMENFASSUNG
.................................................................................
548
15
BILDKLASSIFIKATION
MIT
DEEP
CONVOLUTIONAL
NEURAL
NETWORKS
............
549
15.1
BAUSTEINE
VON
CONVOLUTIONAL
NEURAL
NETWORKS
...................................
549
15.1.1
CNNS
UND
MERKMALSHIERARCHIE
................................................
550
15.1.2
DISKRETE
FALTUNGEN
....................................................................
552
15.1.3
SUBSAMPLING
...............................................................................
561
15.2
IMPLEMENTIERUNG
EINES
CNNS
..............................................................
563
15.2.1
VERWENDUNG
MEHRERER
EINGABE-
ODER
FARBKANAELE
.................
563
15.2.2
REGULARISIERUNG EINES
NEURONALEN
NETZES
MIT
DROPOUT
....
566
15.2.3
VERLUSTFUNKTIONEN
FUER
KLASSIFIKATIONEN
.................................
570
15.3
IMPLEMENTIERUNG
EINES
TIEFEN
CNNS
MIT
TENSORFLOW
.......................
572
15.3.1
DIE
MEHRSCHICHTIGE
CNN-ARCHITEKTUR
.....................................
573
15.3.2
EINLESEN
UND
VORVERARBEITEN
DER
DATEN
.................................
574
15.3.3
IMPLEMENTIERUNG
EINES
CNNS
MIT
TENSORFLOWS
KERAS-API
...................................................................................
575
15.4
KLASSIFIKATION
DES
GESCHLECHTS
ANHAND
VON
PORTRAETFOTOS
MIT
EINEM
CNN
...............................................................................................
582
15.4.1
EINLESEN
DER
CELEBA-DATENMENGE
...........................................
582
15.4.2
BILDTRANSFORMATION
UND
DATENAUGMENTATION
.........................
583
15.4.3
TRAINING
EINES
CNN-KLASSIFIKATORS
.........................................
590
15.5
ZUSAMMENFASSUNG
.................................................................................
596
16
MODELLIERUNG
SEQUENZIELLER
DATEN
DURCH
REKURRENTE
NEURONALE
NETZE
.........................................................................................................
597
16.1
SEQUENZIELLE
DATEN
..................................................................................
597
14
INHALTSVERZEICHNIS
16.1.1
MODELLIERUNG
SEQUENZIELLER
DATEN:
DIE
REIHENFOLGE
IST
VON
BEDEUTUNG
.........................................................................
598
16.1.2
REPRAESENTIERUNG
VON
SEQUENZEN
...........................................
598
16.1.3
VERSCHIEDENE
KATEGORIEN
DER
SEQUENZMODELLIERUNG
............
599
16.2
SEQUENZMODELLIERUNG
MIT
RNNS
.........................................................
601
16.2.1
STRUKTUR
UND
ABLAUF
EINES
RNNS
...........................................
601
16.2.2
AKTIVIERUNGEN
EINES
RNNS
BERECHNEN
...................................
603
16.2.3
RUECKKOPPLUNG
MIT
DER
VERDECKTEN
SCHICHT
ODER
DER
AUSGABESCHICHT
..........................................................................
606
16.2.4
PROBLEME
BEI
DER
ERKENNUNG
WEITREICHENDER
INTERAKTIONEN
............................................................................
609
16.2.5
LSTM-SPEICHERZELLEN
...............................................................
610
16.3
IMPLEMENTIERUNG
VON
RNNS
ZUR
SEQUENZMODELLIERUNG
MIT
TENSORFLOW
..............................................................................................
612
16.3.1
PROJEKT
1:
VORHERSAGE
DER
STIMMUNGSLAGE
VON
IMDB-FILMBEWERTUNGEN
.........................................................
612
16.3.2
PROJEKT
2:
SPRACHMODELLIERUNG
DURCH
ZEICHEN
MIT
TENSORFLOW
................................................................................
629
16.4
SPRACHE
MIT
DEM
TRANSFORMER-MODELL
VERSTEHEN
......................
642
16.4.1
DER
MECHANISMUS
DER
SELBST-AUFMERKSAMKEIT
....................
643
16.4.2
MULTI-HEAD-ATTENTION
UND
TRANSFORMER-BLOCK
....................
646
16.5
ZUSAMMENFASSUNG
................................................................................
647
17
SYNTHETISIEREN
NEUER
DATEN
MIT
GENERATIVE
ADVERSARIAL
NETWORKS
................................................................................................
649
17.1
EINFUEHRUNG IN
GANS
..............................................................................
649
17.1.1
AUTOENCODER
..............................................................................
650
17.1.2
GENERATIVE
MODELLE
ZUM
SYNTHETISIEREN
NEUER
DATEN
..........
652
17.1.3
MIT
GANS
NEUE
BEISPIELE
ERZEUGEN
.......................................
654
17.1.4
DIE
VERLUSTFUNKTION
DES
GENERATOR-
UND
DISKRIMINATOR-
NETZES
IN
EINEM
GAN-MODELL
.................................................
655
17.2
EIN
GAN
VON
GRUND
AUF
IMPLEMENTIEREN
...........................................
658
17.2.1
GAN-MODELLE
MIT
GOOGLE
COLAB
TRAINIEREN
...........................
658
17.2.2
IMPLEMENTIERUNG
DER
GENERATOR-
UND
DISKRIMINATOR-NETZE
.................................................................
661
17.2.3
DEFINITION
DER
TRAININGSDATENMENGE
.....................................
665
17.2.4
TRAINIEREN
DES
GAN-MODELLS
...................................................
667
17.3
VERBESSERUNG
DER
QUALITAET
SYNTHETISIERTER
BILDER
DURCH
CONVOLUTIONAL
GAN
UND
WASSERSTEIN-GAN
.......................................
676
15
INHALTSVERZEICHNIS
17.3.1
TRANSPONIERTE
FALTUNG
..............................................................
677
17.3.2
BATCHNORMIERUNG
......................................................................
678
17.3.3
IMPLEMENTIERUNG
DES
GENERATORS
UND
DES
DISKRIMINATORS
..........................................................................
681
17.3.4
MASSE
FUER
DEN
UNTERSCHIED
ZWISCHEN
ZWEI
VERTEILUNGEN.
...
688
17.3.5
VERWENDUNG
DER
EM-DISTANZ
IN
DER
PRAXIS
...........................
691
17.3.6
STRAFTERM
.....................................................................................
692
17.3.7
IMPLEMENTIERUNG
VON
WGAN-GP
ZUM
TRAINIEREN
DES
DCGAN-MODELLS
........................................................................
693
17.3.8
ZUSAMMENBRECHEN
DES
VERFAHRENS
.......................................
697
17.4
WEITERE
GAN-ANWENDUNGEN
................................................................
699
17.5
ZUSAMMENFASSUNG
.................................................................................
700
18
ENTSCHEIDUNGSFINDUNG
IN
KOMPLEXEN
UMGEBUNGEN
PER
REINFORCEMENT
LEAMING
........................................................................
701
18.1
EINFUEHRUNG:
AUS
ERFAHRUNG
LERNEN
......................................................
702
18.1.1
REINFORCEMENT
LEAMING
..........................................................
702
18.1.2
DEFINITION
DER
AGENT-UMGEBUNG-SCHNITTSTELLE
FUER
EIN
REINFORCEMENT-
LEAMING-SYSTEM
..............................................
704
18.2
THEORETISCHE
GRUNDLAGEN
DES
RLS
........................................................
705
18.2.1
MARKOV-ENTSCHEIDUNGSPROZESSE
..............................................
705
18.2.2
MATHEMATISCHE
FORMULIERUNG
VON
MARKOV-
ENTSCHEIDUNGSPROZESSEN
..........................................................
706
18.2.3
RL-TERMINOLOGIE:
RETURN,
POLICY
UND
WERTFUNKTION
............
710
18.2.4
DYNAMISCHE
PROGRAMMIERUNG
UND
BELLMAN-GLEICHUNG.
...
714
18.3
REINFORCEMENT-
LEAMING-ALGORITHMEN
..................................................
715
18.3.1
DYNAMISCHE
PROGRAMMIERUNG
................................................
715
18.3.2
REINFORCEMENT
LEAMING
MIT
MONTE-CARLO-ALGORITHMEN.
...
718
18.3.3
TEMPORAL
DIFFERENCE
LEAMING
................................................
720
18.4
IMPLEMENTIERUNG
EINES
RL-ALGORITHMUS
.............................................
723
18.4.1
OPENAI
GYM
...............................................................................
723
18.4.2
LOESUNG
DER
GRID-WORLD-AUFGABE
MIT
Q-LEAMING
.................
734
18.4.3
EIN
BLICK
AUF
DEEP
Q-LEAMING
................................................
739
18.5
ZUSAMMENFASSUNG
UND
SCHLUSSWORT
....................................................
747
STICHWORTVERZEICHNIS
...............................................................................
751
16
|
adam_txt |
INHALTSVERZEICHNIS
UEBER
DIE
AUTOREN
.
17
UEBER
DIE
KORREKTOREN
.
19
UEBER
DEN
FACHKORREKTOR
DER
DEUTSCHEN
AUSGABE
.
20
EINLEITUNG
.
21
EINSTIEG
IN
MACHINE
LEAMING
.
21
ZUM
INHALT
DES
BUCHES
.
.
.
23
WAS
SIE
BENOETIGEN
.
26
CODEBEISPIELE
HERUNTERLADEN
.
.
.
26
KONVENTIONEN
IM
BUCH
.
26
1
WIE
COMPUTER
AUS
DATEN
LERNEN
KOENNEN
.
29
1.1
INTELLIGENTE
MASCHINEN,
DIE
DATEN
IN
WISSEN
VERWANDELN.
.
29
1.2
DIE
DREI
ARTEN
DES
MACHINE
LEAMINGS
.
30
1.2.1
MIT
UEBERWACHTEM
LERNEN
VORHERSAGEN
TREFFEN
.
31
1.2.2
INTERAKTIVE
AUFGABEN
DURCH
REINFORCEMENT
LEAMING
LOESEN
.
34
1.2.3
DURCH
UNUEBERWACHTES
LERNEN
VERBORGENE
STRUKTUREN
ERKENNEN
.
35
1.3
GRUNDLEGENDE
TERMINOLOGIE
UND
NOTATION
.
36
1.3.1
IM
BUCH
VERWENDETE
NOTATION
UND
KONVENTIONEN
.
37
1.3.2
TERMINOLOGIE
.
38
1.4
ENTWICKLUNG
EINES
SYSTEMS
FUER
DAS
MACHINE
LEAMING
.
39
1.4.1
VORVERARBEITUNG:
DATEN
IN
FORM
BRINGEN
.
40
1.4.2
TRAINIEREN
UND
AUSWAEHLEN
EINES
VORHERSAGEMODELLS
.
40
1.4.3
BEWERTUNG
VON
MODELLEN
UND
VORHERSAGE
ANHAND
UNBEKANNTER
DATENINSTANZEN
.
41
1.5
MACHINE
LEAMING
MIT
PYTHON
.
42
1.5.1
PYTHON
UND
PYTHON-PAKETE
INSTALLIEREN
.
42
1.5.2
VERWENDUNG
DER
PYTHON-DISTRIBUTION
ANACONDA
.
43
1.5.3
PAKETE
FUER
WISSENSCHAFTLICHES
RECHNEN,
DATA
SCIENCE
UND
MACHINE
LEAMING
.
43
1.6
ZUSAMMENFASSUNG
.
44
INHALTSVERZEICHNIS
2
LEMALGORITHMEN
FUER
DIE
KLASSIFIKATION
TRAINIEREN
.
45
2.1
KUENSTLICHE
NEURONEN:
EIN
KURZER
BLICK
AUF
DIE
ANFAENGE
DES
MACHINE
LEAMINGS
.
45
2.1.1
FORMALE
DEFINITION
EINES
KUENSTLICHEN
NEURONS
.
46
2.1.2
DIE
PERZEPTRON-LEMREGEL
.
48
2.2
IMPLEMENTIERUNG
EINES
PERZEPTRON-LEMALGORITHMUS
IN
PYTHON
.
51
2.2.1
EINE
OBJEKTORIENTIERTE
PERZEPTRON-API
.
51
2.2.2
TRAINIEREN
EINES
PERZEPTRON-MODELLS
MIT
DER
IRIS-DATENSAMMLUNG
.
55
2.3
ADAPTIVE
LINEARE
NEURONEN
UND
DIE
KONVERGENZ
DES
LERNENS
.
61
2.3.1
STRAFFUNKTIONEN
MIT
DEM
GRADIENTENABSTIEGSVERFAHREN
MINIMIEREN
.
62
2.3.2
IMPLEMENTIERUNG
EINES
ADAPTIVEN
LINEAREN
NEURONS
IN
PYTHON
.
64
2.3.3
VERBESSERUNG
DES
GRADIENTENABSTIEGSVERFAHRENS
DURCH
MERKMALSTANDARDISIERUNG
.
69
2.3.4
LARGE
SCALE
MACHINE
LEAMING
UND
STOCHASTISCHES
GRADIENTENABSTIEGSVERFAHREN
.
71
2.4
ZUSAMMENFASSUNG
.
77
3
MACHINE-LEAMING-KLASSIFIKATOREN
MIT
SCIKIT-LEAM
VERWENDEN
.
79
3.1
AUSWAHL
EINES
KLASSIFIKATIONSALGORITHMUS
.
79
3.2
ERSTE
SCHRITTE
MIT
SCIKIT-LEAM:
TRAINIEREN
EINES
PERZEPTRONS
.
80
3.3
KLASSENWAHRSCHEINLICHKEITEN
DURCH
LOGISTISCHE
REGRESSION
MODELLIEREN
.
86
3.3.1
LOGISTISCHE
REGRESSION
UND
BEDINGTE
WAHRSCHEINLICHKEITEN
.
87
3.3.2
GEWICHTE
DER
LOGISTISCHEN
STRAFFUNKTION
ERMITTELN
.
91
3.3.3
KONVERTIEREN
EINER
ADALINE-IMPLEMENTIERUNG
IN
EINEN
ALGORITHMUS
FUER
EINE
LOGISTISCHE
REGRESSION
.
93
3.3.4
TRAINIEREN
EINES
LOGISTISCHEN
REGRESSIONSMODELLS
MIT
SCIKIT-LEAM
.
98
3.3.5
UEBERANPASSUNG
DURCH
REGULARISIERUNG
VERHINDERN
.
101
3.4
MAXIMUM-MARGIN-KLASSIFIKATION
MIT
SUPPORT
VECTOR
MACHINES
.
104
3.4.1
MAXIMIERUNG
DES
RANDBEREICHS
.
105
3.4.2
HANDHABUNG
DES
NICHT
LINEAR
TRENNBAREN
FALLS
MIT
SCHLUPFVARIABLEN
.
106
3.4.3
ALTERNATIVE
IMPLEMENTIERUNGEN
IN
SCIKIT-LEAM
.
108
6
INHALTSVERZEICHNIS
3.5
NICHTLINEARE
AUFGABEN
MIT
EINER
KEMEL-SVM
LOESEN
.
109
3.5.1
KEMEL-METHODEN
FUER
LINEAR
NICHT
TRENNBARE
DATEN
.
109
3.5.2
MIT
DEM
KEMEL-TRICK
HYPEREBENEN
IN
HOEHERDIMENSIONALEN
RAEUMEN
FINDEN
.
111
3.6
LERNEN
MIT
ENTSCHEIDUNGSBAEUMEN
.
115
3.6.1
MAXIMIERUNG
DES
INFORMATIONSGEWINNS:
DATEN
AUSREIZEN
.
116
3.6.2
KONSTRUKTION
EINES
ENTSCHEIDUNGSBAUMS
.
120
3.6.3
MEHRERE
ENTSCHEIDUNGSBAEUME
ZU
EINEM
RANDOM
FOREST
KOMBINIEREN
.
124
3.7
K-NEAREST-NEIGHBORS:
EIN
LAZY-LEAMING-ALGORITHMUS
.
127
3.8
ZUSAMMENFASSUNG
.
130
4
GUT
GEEIGNETE
TRAININGSDATENMENGEN:
DATENVORVERARBEITUNG
.
133
4.1
UMGANG
MIT
FEHLENDEN
DATEN
.
133
4.1.1
FEHLENDE
WERTE
IN
TABELLENDATEN
.
134
4.1.2
INSTANZEN
ODER
MERKMALE
MIT
FEHLENDEN
DATEN
ENTFERNEN
.
135
4.1.3
FEHLENDE
WERTE
ERGAENZEN
.
136
4.1.4
DIE
SCHAETZER-API
VON
SCIKIT-LEAM
.
137
4.2
HANDHABUNG
KATEGORIALER
DATEN
.
138
4.2.1
CODIERUNG
KATEGORIALER
DATEN
MIT
PANDAS
.
139
4.2.2
ZUWEISUNG
VON
ORDINALEN
MERKMALEN
.
139
4.2.3
CODIERUNG
DER
KLASSENBEZEICHNUNGEN
.
140
4.2.4
ONE-HOT-CODIERUNG
DER
NOMINALEN
MERKMALE
.
141
4.3
AUFTEILUNG
EINER
DATENSAMMLUNG
IN
TRAININGS-
UND
TESTDATEN
.
145
4.4
ANPASSUNG
DER
MERKMALE
.
148
4.5
AUSWAHL
AUSSAGEKRAEFTIGER
MERKMALE
.
150
4.5.1
LI-
UND
L2-REGULARISIERUNG
ALS
STRAFFUNKTIONEN
.
151
4.5.2
GEOMETRISCHE
INTERPRETATION DER
L2-REGULARISIERUNG
.
151
4.5.3
DUENN
BESETZTE
LOESUNGEN
MIT
LL-REGULARISIERUNG
.
153
4.5.4
ALGORITHMEN
ZUR
SEQUENZIELLEN
AUSWAHL
VON
MERKMALEN
.
157
4.6
BEURTEILUNG
DER
BEDEUTUNG
VON
MERKMALEN
MIT
RANDOM
FORESTS
.
164
4.7
ZUSAMMENFASSUNG
.
167
5
DATENKOMPRIMIERUNG
DURCH
DIMENSIONSREDUKTION
.
169
5.1
UNUEBERWACHTE
DIMENSIONSREDUKTION
DURCH
7
INHALTSVERZEICHNIS
HAUPTKOMPONENTENANALYSE
.
169
5.1.1
SCHRITTE
BEI
DER
HAUPTKOMPONENTENANALYSE
.
170
5.1.2
SCHRITTWEISE
EXTRAKTION
DER
HAUPTKOMPONENTEN
.
171
5.1.3
TOTALE
VARIANZ
UND
ERKLAERTE
VARIANZ
.
174
5.1.4
MERKMALSTRANSFORMATION
.
176
5.1.5
HAUPTKOMPONENTENANALYSE
MIT
SCIKIT-LEAM
.
179
5.2
UEBERWACHTE
DATENKOMPRIMIERUNG
DURCH
LINEARE
DISKRIMINANZANALYSE
.
183
5.2.1
HAUPTKOMPONENTENANALYSE
KONTRA
LINEARE
DISKRIMINANZANALYSE
.
183
5.2.2
DIE
INTERNE
FUNKTIONSWEISE
DER
LINEAREN
DISKRIMINANZANALYSE
.
184
5.2.3
BERECHNUNG
DER
STREUMATRIZEN
.
185
5.2.4
AUSWAHL
LINEARER
DISKRIMINANTEN
FUER
DEN
NEUEN
MERKMALSUNTERRAUM
.
187
5.2.5
PROJEKTION
IN
DEN
NEUEN
MERKMALSRAUM
.
190
5.2.6
LDA
MIT
SCIKIT-LEAM
.
191
5.3
KEMEL-HAUPTKOMPONENTENANALYSE
FUER
NICHTLINEARE
ZUORDNUNGEN
VERWENDEN
.
193
5.3.1
KEMEL-FUNKTIONEN
UND
DER
KEMEL-TRICK
.
194
5.3.2
IMPLEMENTIERUNG
EINER
KEMEL-HAUPTKOMPONENTENANALYSE
IN
PYTHON
.
198
5.3.3
PROJIZIEREN
NEUER
DATENPUNKTE
.
206
5.3.4
KERNEL-HAUPTKOMPONENTENANALYSE
MIT
SCIKIT-LEAM
.
210
5.4
ZUSAMMENFASSUNG
.
211
6
BEWAEHRTE
VERFAHREN
ZUR
MODELLBEWERTUNG
UND
HYPERPARAMETER-OPTIMIERUNG
.
213
6.1
ARBEITSABLAEUFE
MIT
PIPELINES
OPTIMIEREN
.
213
6.1.1
DIE
WISCONSIN-BRUSTKREBS-DATENSAMMLUNG
.
213
6.1.2
TRANSFORMER
UND
SCHAETZER
IN
EINER
PIPELINE
KOMBINIEREN
.
215
6.2
BEURTEILUNG
DES
MODELLS
DURCH
K-FACHE
KREUZVALIDIERUNG
.
217
6.2.1
HOLDOUT-METHODE
.
218
6.2.2
K-FACHE
KREUZVALIDIERUNG
.
219
6.3
ALGORITHMEN
MIT
LERN-
UND
VALIDIERUNGSKURVEN
DEBUGGEN
.
223
6.3.1
PROBLEME
MIT
BIAS
UND
VARIANZ
ANHAND
VON
LERNKURVEN
ERKENNEN
.
224
8
INHALTSVERZEICHNIS
6.3.2
UEBERANPASSUNG
UND
UNTERANPASSUNG
ANHAND
VON
VALIDIERUNGSKURVEN
ERKENNEN
.
227
6.4
FEINABSTIMMUNG
EINES
LEMMODELLS
DURCH
GRID
SEARCH
.
229
6.4.1
OPTIMIERUNG
DER
HYPERPARAMETER
DURCH
GRID
SEARCH
.
230
6.4.2
ALGORITHMENAUSWAHL
DURCH
VERSCHACHTELTE
KREUZVALIDIERUNG
.
232
6.5
VERSCHIEDENE
KRITERIEN
ZUR
LEISTUNGSBEWERTUNG
.
234
6.5.1
INTERPRETATION
EINER
VERWECHSLUNGSMATRIX
.
234
6.5.2
OPTIMIERUNG DER
GENAUIGKEIT
UND
DER
TREFFERQUOTE
EINES
KLASSIFIKATIONSMODELLS
.
236
6.5.3
RECEIVER-OPERATING-CHARACTERISTIC-DIAGRAMME
.
238
6.5.4
BEWERTUNGSKRITERIEN
FUER
MEHRKLASSEN-KLASSIFIKATIONEN
.
241
6.6
HANDHABUNG
UNAUSGEWOGENER
KLASSENVERTEILUNG
.
242
6.7
ZUSAMMENFASSUNG
.
245
7
KOMBINATION
VERSCHIEDENER
MODELLE
FUER
DAS
ENSEMBLE
LEAMING.
.
247
7.1
ENSEMBLE
LEAMING
.
247
7.2
KLASSIFIKATOREN
DURCH
MEHRHEITSENTSCHEIDUNG
KOMBINIEREN
.
251
7.2.1
IMPLEMENTIERUNG
EINES
EINFACHEN
MEHRHEITSENTSCHEIDUNGS-KLASSIFIKATORS
.
251
7.2.2
VORHERSAGEN
NACH
DEM
MEHRHEITSENTSCHEIDUNGSPRINZIP
TREFFEN
.
258
7.3
BEWERTUNG
UND
ABSTIMMUNG
DES
KLASSIFIKATOR-ENSEMBLES
.
261
7.4
BAGGING:
KLASSIFIKATOR-ENSEMBLES
ANHAND
VON
BOOTSTRAP-
STICHPROBEN
ENTWICKELN
.
268
7.4.1
BAGGING
KURZ
ZUSAMMENGEFASST
.
269
7.4.2
KLASSIFIKATION
DER
WEIN-DATENSAMMLUNG
DURCH
BAGGING.
.
270
7.5
SCHWACHE
KLASSIFIKATOREN
DURCH
ADAPTIVES
BOOSTING
VERBESSERN
.
274
7.5.1
FUNKTIONSWEISE
DES
BOOSTINGS
.
274
7.5.2
ADABOOST
MIT
SCIKIT-LEAM
ANWENDEN
.
278
7.6
ZUSAMMENFASSUNG
.
282
8
MACHINE
LEAMING
ZUR
ANALYSE
VON
STIMMUNGSLAGEN
NUTZEN
.
283
8.1
DIE
IMDB-FILMDATENBANK
.
283
8.1.1
HERUNTERLADEN
DER
DATENSAMMLUNG
.
284
8.1.2
VORVERARBEITEN
DER
FILMBEWERTUNGSDATEN
.
284
8.2
DAS
BAG-OF-WORDS-MODELL
.
286
8.2.1
WOERTER
IN
MERKMALSVEKTOREN
UMWANDELN
.
287
8.2.2
BEURTEILUNG
DER
WORTRELEVANZ
DURCH
DAS
TF-IDF-MASS
.
289
9
INHALTSVERZEICHNIS
8.2.3
TEXTDATEN
BEREINIGEN
.
291
8.2.4
DOKUMENTE
IN
TOKENS
ZERLEGEN
.
293
8.3
EIN
LOGISTISCHES
REGRESSIONSMODELL
FUER
DIE
DOKUMENTKLASSIFIKATION
TRAINIEREN
.
295
8.4
VERARBEITUNG
GROSSER
DATENMENGEN:
ONLINE-ALGORITHMEN
UND
OUT-OF-CORE
LEAMING
.
298
8.5
TOPIC
MODELING
MIT
LATENTER
DIRICHLET-ALLOKATION
.
302
8.5.1
AUFTEILUNG
VON
TEXTEN
MIT
DER
LDA
.
303
8.5.2
LDA
MIT
SCIKIT-LEAM
.
303
8.6
ZUSAMMENFASSUNG
.
307
9
EINBETTUNG
EINES
MACHINE-LEAMING-MODELLS
IN EINE
WEBANWENDUNG
.
309
9.1
SERIALISIERUNG
ANGEPASSTER
SCHAETZER
MIT
SCIKIT-LEAM
.
309
9.2
EINRICHTUNG
EINER
SQLITE-DATENBANK
ZUM
SPEICHERN
VON
DATEN
.
313
9.3
ENTWICKLUNG
EINER
WEBANWENDUNG
MIT
FLASK
.
315
9.3.1
DIE
ERSTE
WEBANWENDUNG
MIT
FLASK
.
316
9.3.2
FORMULARVALIDIERUNG
UND
-AUSGABE
.
318
9.4
DER
FILMBEWERTUNGSKLASSIFIKATOR
ALS
WEBANWENDUNG
.
324
9.4.1
DATEIEN
UND
ORDNER
-
DIE
VERZEICHNISSTRUKTUR
.
326
9.4.2
IMPLEMENTIERUNG
DER
HAUPTANWENDUNG
APP.PY
.
326
9.4.3
EINRICHTUNG
DES
BEWERTUNGSFORMULARS
.
329
9.4.4
EINE
VORLAGE
FUER
DIE
ERGEBNISSEITE
ERSTELLEN
.
330
9.5
EINRICHTUNG
DER
WEBANWENDUNG
AUF
EINEM
OEFFENTLICH
ZUGAENGLICHEN
WEBSERVER
.
333
9.5.1
ERSTELLEN
EINES
BENUTZERKONTOS
BEI
PYTHONANYWHERE
.
333
9.5.2
HOCHLADEN
DER
FILMBEWERTUNGSANWENDUNG
.
334
9.5.3
UPDATEN
DES
FILMBEWERTUNGSKLASSIFIKATORS
.
335
9.6
ZUSAMMENFASSUNG
.
338
10
VORHERSAGE
STETIGER
ZIELVARIABLEN
DURCH
REGRESSIONSANALYSE
.
339
10.1
LINEARE
REGRESSION
.
339
10.1.1
EIN
EINFACHES
LINEARES
REGRESSIONSMODELL
.
340
10.1.2
MULTIPLE
LINEARE
REGRESSION
.
341
10.2
DIE
BOSTON-HOUSING-DATENSAMMLUNG
.
342
10.2.1
EINLESEN
DER
DATENMENGE
IN
EINEN
DATAFRAME
.
342
10.2.2
VISUALISIERUNG DER
WICHTIGEN
EIGENSCHAFTEN
EINER
DATENMENGE
.
344
10
INHALTSVERZEICHNIS
10.2.3
ZUSAMMENHAENGE
ANHAND
DER
KORRELATIONSMATRIX
ERKENNEN
.
346
10.3
IMPLEMENTIERUNG
EINES
LINEAREN
REGRESSIONSMODELLS
MIT
DER
METHODE
DER
KLEINSTEN
QUADRATE
.
348
10.3.1
BERECHNUNG
DER
REGRESSIONSPARAMETER
MIT
DEM
GRADIENTENABSTIEGSVERFAHREN
.
349
10.3.2
SCHAETZUNG
DER
KOEFFIZIENTEN
EINES
REGRESSIONSMODELLS
MIT
SCIKIT-LEAM
.
353
10.4
ANPASSUNG
EINES
ROBUSTEN
REGRESSIONSMODELLS
MIT
DEM
RAN
SAC-ALGORITHMUS
.
355
10.5
BEWERTUNG
DER
LEISTUNG
LINEARER
REGRESSIONSMODELLE
.
358
10.6
REGULARISIERUNGSVERFAHREN
FUER
DIE
REGRESSION
EINSETZEN
.
361
10.7
POLYNOMIALE
REGRESSION:
UMWANDELN
EINER
LINEAREN
REGRESSION
IN
EINE
KURVE
.
363
10.7.1
HINZUFUEGEN
POLYNOMIALER
TERME
MIT
SCIKIT-LEARN
.
364
10.7.2
MODELLIERUNG
NICHTLINEARER
ZUSAMMENHAENGE
IN
DER
BOSTON-HOUSING-DATENSAMMLUNG
.
366
10.8
HANDHABUNG
NICHTLINEARER
BEZIEHUNGEN
MIT
RANDOM
FORESTS
.
369
10.8.1
ENTSCHEIDUNGSBAUM-REGRESSION
.
370
10.8.2
RANDOM-FOREST-REGRESSION
.
371
10.9
ZUSAMMENFASSUNG
.
375
11
VERWENDUNG
VON
DATEN
OHNE
LABEL:
CLUSTERANALYSE.
377
11.1
GRUPPIERUNG
VON
OBJEKTEN
NACH
AEHNLICHKEIT
MIT
DEM
K-MEANS-ALGORITHMUS
.
377
11.1.1
K-MEANS-CLUSTERING
MIT
SCIKIT-LEAM
.
378
11.1.2
DER
K-MEANS++-ALGORITHMUS
.
383
11.1.3
CRISP
UND
SOFT
CLUSTERING
.
384
11.1.4
DIE
OPTIMALE
ANZAHL
DER
CLUSTER
MIT
DEM
ELLENBOGENKRITERIUM
ERMITTELN
.
386
11.1.5
QUANTIFIZIERUNG
DER
CLUSTERING-GUETE
MIT
SILHOUETTENDIAGRAMMEN
.
388
11.2
CLUSTER
ALS
HIERARCHISCHEN
BAUM
ORGANISIEREN
.
393
11.2.1
GRUPPIERUNG
VON
CLUSTERN
.
393
11.2.2
HIERARCHISCHES
CLUSTERING MITTELS
EINER
DISTANZMATRIX
.
395
11.2.3
DENDROGRAMME
UND
HEATMAPS
VERKNUEPFEN
.
399
11.2.4
AGGLOMERATIVES
CLUSTERING
MIT
SCIKIT-LEAM
.
401
11.3
BEREICHE
HOHER
DICHTE
MIT
DBSCAN
ERMITTELN
.
402
11.4
ZUSAMMENFASSUNG
.
407
11
INHALTSVERZEICHNIS
12
IMPLEMENTIERUNG
EINES
KUENSTLICHEN
NEURONALEN
NETZES
.
409
12.1
MODELLIERUNG
KOMPLEXER
FUNKTIONEN
MIT
KUENSTLICHEN
NEURONALEN
NETZEN
.
409
12.1.1
EINSCHICHTIGE
NEURONALE
NETZE
.
411
12.1.2
MEHRSCHICHTIGE
NEURONALE
NETZARCHITEKTUR
.
413
12.1.3
AKTIVIERUNG
EINES
NEURONALEN
NETZES
DURCH
VORWAERTSPROPAGATION
.
416
12.2
KLASSIFIKATION
HANDGESCHRIEBENER
ZIFFERN
.
418
12.2.1
DIE
MNIST-DATENSAMMLUNG
.
419
12.2.2
IMPLEMENTIERUNG
EINES
MEHRSCHICHTIGEN
PERZEPTRONS
.
426
12.3
TRAINIEREN
EINES
KUENSTLICHEN
NEURONALEN
NETZES
.
438
12.3.1
BERECHNUNG DER
LOGISTISCHEN
STRAFFUNKTION
.
439
12.3.2
EIN
GESPUER
FUER
DIE
BACKPROPAGATION
ENTWICKELN
.
441
12.3.3
TRAINIEREN
NEURONALER
NETZE
DURCH
BACKPROPAGATION
.
443
12.4
KONVERGENZ
IN
NEURONALEN
NETZEN
.
447
12.5
ABSCHLIESSENDE
BEMERKUNGEN
ZUR
IMPLEMENTIERUNG
NEURONALER
NETZE
.
448
12.6
ZUSAMMENFASSUNG
.
448
13
PARALLELISIERUNG
DES
TRAININGS
NEURONALER
NETZE
MIT
TENSORFLOW
.
451
13.1
TENSORFLOW
UND
TRAININGSLEISTUNG
.
451
13.1.1
HERAUSFORDERUNGEN
.
451
13.1.2
WAS
GENAU
IST
TENSORFLOW?
.
453
13.1.3
TENSORFLOW
ERLERNEN
.
454
13.2
ERSTE
SCHRITTE
MIT
TENSORFLOW
.
455
13.2.1
TENSORFLOW
INSTALLIEREN
.
455
13.2.2
TENSOREN
IN
TENSORFLOW
ERSTELLEN
.
456
13.2.3
DATENTYP
UND
FORMAT
EINES
TENSORS
AENDERN
.
457
13.2.4
ANWENDUNG
MATHEMATISCHER
OPERATIONEN
AUF
TENSOREN
.
458
13.2.5
TENSOREN
AUFTEILEN,
STAPELN
UND
VERKNUEPFEN
.
460
13.3
EINGABE-PIPELINES
MIT
TF.DATA
ERSTELLEN
-
DIE
DATASET-API
VON
TENSORFLOW
.
462
13.3.1
EIN
TENSORFLOW-DATASET
ANHAND
VORHANDENER
TENSOREN
ERSTELLEN
.
462
13.3.2
ZWEI
TENSOREN
ZU
EINER
DATENMENGE
VEREINEN
.
463
13.3.3
DURCHMISCHEN,
BATCH
ERSTELLEN
UND
WIEDERHOLEN
.
465
13.3.4
ERSTELLEN
EINER
DATENMENGE
ANHAND
LOKAL
GESPEICHERTER
DATEIEN
.
468
13.3.5
ZUGRIFF
AUF
DIE
DATENMENGEN
DER
TENSORFLOW_DATASETS-
BIBLIOTHEK
.
472
12
INHALTSVERZEICHNIS
13.4
ENTWICKLUNG
EINES
NN-MODELLS
MIT
TENSORFLOW
.
478
13.4.1
DIE
KERAS-API
(TF.KERAS)
VON
TENSORFLOW
.
478
13.4.2
ENTWICKLUNG
EINES
LINEAREN
REGRESSIONSMODELLS
.
479
13.4.3
TRAINIEREN
DES
MODELLS
MIT
DEN
METHODEN
.COMPILE()
UND.FIT()
.
484
13.4.4
ENTWICKLUNG
EINES
MEHRSCHICHTIGEN
PERZEPTRONS
ZUR
KLASSIFIKATION
DER
IRIS-DATENSAMMLUNG
.
485
13.4.5
BEWERTUNG
DES
TRAINIERTEN
MODELLS
MIT
DER
TESTDATENMENGE
.
490
13.4.6
DAS
TRAINIERTE
MODELL
SPEICHERN
UND
EINLESEN
.
490
13.5
AUSWAHL
DER
AKTIVIERUNGSFUNKTIONEN
MEHRSCHICHTIGER
NEURONALER
N
ETZE
.
491
13.5.1
DIE
LOGISTISCHE
FUNKTION
KURZ
ZUSAMMENGEFASST
.
492
13.5.2
WAHRSCHEINLICHKEITEN
BEI
DER
MEHRKLASSEN-KLASSIFIKATION
MIT
DER
SOFTMAX-FUNKTION
SCHAETZEN
.
494
13.5.3
VERBREITERUNG
DES
AUSGABESPEKTRUMS
MITTELS
TANGENS
HYPERBOLICUS
.
495
13.5.4
AKTIVIERUNG
MITTELS
RELU
.
498
13.6
ZUSAMMENFASSUNG
.
499
14
DIE
FUNKTIONSWEISE
VON TENSORFLOW
IM
DETAIL
.
501
14.1
GRUNDLEGENDE
MERKMALE
VON
TENSORFLOW
.
502
14.2
TENSORFLOWS
BERECHNUNGSGRAPHEN:
MIGRATION
NACH
TENSORFLOW
V2
.
503
14.2.1
FUNKTIONSWEISE
VON
BERECHNUNGSGRAPHEN
.
503
14.2.2
ERSTELLEN
EINES
GRAPHEN
IN
TENSORFLOW
VL.X
.
504
14.2.3
MIGRATION
EINES
GRAPHEN
NACH
TENSORFLOW
V2
.
505
14.2.4
EINGABEDATEN
EINLESEN
MIT
TENSORFLOW
VL.X
.
506
14.2.5
EINGABEDATEN
EINLESEN
MIT
TENSORFLOW
V2
.
506
14.2.6
BESCHLEUNIGUNG
VON
BERECHNUNGEN
MIT
FUNKTIONSDEKORATOREN
.
507
14.3
TENSORFLOWS
VARIABIENOBJEKTE
ZUM
SPEICHERN
UND
AKTUALISIEREN
VON
MODELLPARAMETEM
.
509
14.4
GRADIENTENBERECHNUNG
DURCH
AUTOMATISCHES
DIFFERENZIEREN
UND GRADIENTTAPE
.
514
14.4.1
BERECHNUNG
DER GRADIENTEN
DER
VERLUSTFUNKTION
BEZUEGLICH
TRAINIERBARER
VARIABLEN
.
514
14.4.2
BERECHNUNG
DER
GRADIENTEN
BEZUEGLICH
NICHT
TRAINIERBARER
TENSOREN
.
516
13
INHALTSVERZEICHNIS
14.4.3
RESSOURCEN
FUER
MEHRFACHE
GRADIENTENBERECHNUNG
ERHALTEN
.
516
14.5
VEREINFACHUNG
DER
IMPLEMENTIERUNG
GEBRAEUCHLICHER
ARCHITEKTUREN
MIT
DER
KERAS-API
.
517
14.5.1
LOESEN
EINER
XOR-KLASSIFIKATIONSAUFGABE
.
521
14.5.2
FLEXIBLERE
MODELLERSTELLUNG
MIT
KERAS
*
FUNKTIONALER
API
.
526
14.5.3
MODELLE
MIT
KERAS
*
MODEL-KLASSE
IMPLEMENTIEREN
.
528
14.5.4
BENUTZERDEFINIERTE
KERAS-SCHICHTEN
.
529
14.6
TENSORFLOWS
SCHAETZER
.
533
14.6.1
MERKMALSSPALTEN
.
534
14.6.2
MACHINE
LEAMING
MIT
VORGEFERTIGTEN
SCHAETZERN
.
538
14.6.3
KLASSIFIKATION
HANDGESCHRIEBENER
ZIFFERN
MIT
SCHAETZERN
.
543
14.6.4
BENUTZERDEFINIERTE
SCHAETZER
ANHAND
EINES
KERAS-MODELLS
ERSTELLEN
.
545
14.7
ZUSAMMENFASSUNG
.
548
15
BILDKLASSIFIKATION
MIT
DEEP
CONVOLUTIONAL
NEURAL
NETWORKS
.
549
15.1
BAUSTEINE
VON
CONVOLUTIONAL
NEURAL
NETWORKS
.
549
15.1.1
CNNS
UND
MERKMALSHIERARCHIE
.
550
15.1.2
DISKRETE
FALTUNGEN
.
552
15.1.3
SUBSAMPLING
.
561
15.2
IMPLEMENTIERUNG
EINES
CNNS
.
563
15.2.1
VERWENDUNG
MEHRERER
EINGABE-
ODER
FARBKANAELE
.
563
15.2.2
REGULARISIERUNG EINES
NEURONALEN
NETZES
MIT
DROPOUT
.
566
15.2.3
VERLUSTFUNKTIONEN
FUER
KLASSIFIKATIONEN
.
570
15.3
IMPLEMENTIERUNG
EINES
TIEFEN
CNNS
MIT
TENSORFLOW
.
572
15.3.1
DIE
MEHRSCHICHTIGE
CNN-ARCHITEKTUR
.
573
15.3.2
EINLESEN
UND
VORVERARBEITEN
DER
DATEN
.
574
15.3.3
IMPLEMENTIERUNG
EINES
CNNS
MIT
TENSORFLOWS
KERAS-API
.
575
15.4
KLASSIFIKATION
DES
GESCHLECHTS
ANHAND
VON
PORTRAETFOTOS
MIT
EINEM
CNN
.
582
15.4.1
EINLESEN
DER
CELEBA-DATENMENGE
.
582
15.4.2
BILDTRANSFORMATION
UND
DATENAUGMENTATION
.
583
15.4.3
TRAINING
EINES
CNN-KLASSIFIKATORS
.
590
15.5
ZUSAMMENFASSUNG
.
596
16
MODELLIERUNG
SEQUENZIELLER
DATEN
DURCH
REKURRENTE
NEURONALE
NETZE
.
597
16.1
SEQUENZIELLE
DATEN
.
597
14
INHALTSVERZEICHNIS
16.1.1
MODELLIERUNG
SEQUENZIELLER
DATEN:
DIE
REIHENFOLGE
IST
VON
BEDEUTUNG
.
598
16.1.2
REPRAESENTIERUNG
VON
SEQUENZEN
.
598
16.1.3
VERSCHIEDENE
KATEGORIEN
DER
SEQUENZMODELLIERUNG
.
599
16.2
SEQUENZMODELLIERUNG
MIT
RNNS
.
601
16.2.1
STRUKTUR
UND
ABLAUF
EINES
RNNS
.
601
16.2.2
AKTIVIERUNGEN
EINES
RNNS
BERECHNEN
.
603
16.2.3
RUECKKOPPLUNG
MIT
DER
VERDECKTEN
SCHICHT
ODER
DER
AUSGABESCHICHT
.
606
16.2.4
PROBLEME
BEI
DER
ERKENNUNG
WEITREICHENDER
INTERAKTIONEN
.
609
16.2.5
LSTM-SPEICHERZELLEN
.
610
16.3
IMPLEMENTIERUNG
VON
RNNS
ZUR
SEQUENZMODELLIERUNG
MIT
TENSORFLOW
.
612
16.3.1
PROJEKT
1:
VORHERSAGE
DER
STIMMUNGSLAGE
VON
IMDB-FILMBEWERTUNGEN
.
612
16.3.2
PROJEKT
2:
SPRACHMODELLIERUNG
DURCH
ZEICHEN
MIT
TENSORFLOW
.
629
16.4
SPRACHE
MIT
DEM
TRANSFORMER-MODELL
VERSTEHEN
.
642
16.4.1
DER
MECHANISMUS
DER
SELBST-AUFMERKSAMKEIT
.
643
16.4.2
MULTI-HEAD-ATTENTION
UND
TRANSFORMER-BLOCK
.
646
16.5
ZUSAMMENFASSUNG
.
647
17
SYNTHETISIEREN
NEUER
DATEN
MIT
GENERATIVE
ADVERSARIAL
NETWORKS
.
649
17.1
EINFUEHRUNG IN
GANS
.
649
17.1.1
AUTOENCODER
.
650
17.1.2
GENERATIVE
MODELLE
ZUM
SYNTHETISIEREN
NEUER
DATEN
.
652
17.1.3
MIT
GANS
NEUE
BEISPIELE
ERZEUGEN
.
654
17.1.4
DIE
VERLUSTFUNKTION
DES
GENERATOR-
UND
DISKRIMINATOR-
NETZES
IN
EINEM
GAN-MODELL
.
655
17.2
EIN
GAN
VON
GRUND
AUF
IMPLEMENTIEREN
.
658
17.2.1
GAN-MODELLE
MIT
GOOGLE
COLAB
TRAINIEREN
.
658
17.2.2
IMPLEMENTIERUNG
DER
GENERATOR-
UND
DISKRIMINATOR-NETZE
.
661
17.2.3
DEFINITION
DER
TRAININGSDATENMENGE
.
665
17.2.4
TRAINIEREN
DES
GAN-MODELLS
.
667
17.3
VERBESSERUNG
DER
QUALITAET
SYNTHETISIERTER
BILDER
DURCH
CONVOLUTIONAL
GAN
UND
WASSERSTEIN-GAN
.
676
15
INHALTSVERZEICHNIS
17.3.1
TRANSPONIERTE
FALTUNG
.
677
17.3.2
BATCHNORMIERUNG
.
678
17.3.3
IMPLEMENTIERUNG
DES
GENERATORS
UND
DES
DISKRIMINATORS
.
681
17.3.4
MASSE
FUER
DEN
UNTERSCHIED
ZWISCHEN
ZWEI
VERTEILUNGEN.
.
688
17.3.5
VERWENDUNG
DER
EM-DISTANZ
IN
DER
PRAXIS
.
691
17.3.6
STRAFTERM
.
692
17.3.7
IMPLEMENTIERUNG
VON
WGAN-GP
ZUM
TRAINIEREN
DES
DCGAN-MODELLS
.
693
17.3.8
ZUSAMMENBRECHEN
DES
VERFAHRENS
.
697
17.4
WEITERE
GAN-ANWENDUNGEN
.
699
17.5
ZUSAMMENFASSUNG
.
700
18
ENTSCHEIDUNGSFINDUNG
IN
KOMPLEXEN
UMGEBUNGEN
PER
REINFORCEMENT
LEAMING
.
701
18.1
EINFUEHRUNG:
AUS
ERFAHRUNG
LERNEN
.
702
18.1.1
REINFORCEMENT
LEAMING
.
702
18.1.2
DEFINITION
DER
AGENT-UMGEBUNG-SCHNITTSTELLE
FUER
EIN
REINFORCEMENT-
LEAMING-SYSTEM
.
704
18.2
THEORETISCHE
GRUNDLAGEN
DES
RLS
.
705
18.2.1
MARKOV-ENTSCHEIDUNGSPROZESSE
.
705
18.2.2
MATHEMATISCHE
FORMULIERUNG
VON
MARKOV-
ENTSCHEIDUNGSPROZESSEN
.
706
18.2.3
RL-TERMINOLOGIE:
RETURN,
POLICY
UND
WERTFUNKTION
.
710
18.2.4
DYNAMISCHE
PROGRAMMIERUNG
UND
BELLMAN-GLEICHUNG.
.
714
18.3
REINFORCEMENT-
LEAMING-ALGORITHMEN
.
715
18.3.1
DYNAMISCHE
PROGRAMMIERUNG
.
715
18.3.2
REINFORCEMENT
LEAMING
MIT
MONTE-CARLO-ALGORITHMEN.
.
718
18.3.3
TEMPORAL
DIFFERENCE
LEAMING
.
720
18.4
IMPLEMENTIERUNG
EINES
RL-ALGORITHMUS
.
723
18.4.1
OPENAI
GYM
.
723
18.4.2
LOESUNG
DER
GRID-WORLD-AUFGABE
MIT
Q-LEAMING
.
734
18.4.3
EIN
BLICK
AUF
DEEP
Q-LEAMING
.
739
18.5
ZUSAMMENFASSUNG
UND
SCHLUSSWORT
.
747
STICHWORTVERZEICHNIS
.
751
16 |
any_adam_object | 1 |
any_adam_object_boolean | 1 |
author | Raschka, Sebastian Mirjalili, Vahid |
author2 | Lorenzen, Knut |
author2_role | trl |
author2_variant | k l kl |
author_GND | (DE-588)1080537872 (DE-588)1147615993 (DE-588)1020241446 |
author_facet | Raschka, Sebastian Mirjalili, Vahid Lorenzen, Knut |
author_role | aut aut |
author_sort | Raschka, Sebastian |
author_variant | s r sr v m vm |
building | Verbundindex |
bvnumber | BV047199372 |
classification_rvk | ST 302 ST 250 |
ctrlnum | (OCoLC)1237702787 (DE-599)DNB1226790577 |
discipline | Informatik |
discipline_str_mv | Informatik |
edition | 3., aktualisierte und erweiterte Auflage |
format | Book |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>03554nam a22007578c 4500</leader><controlfield tag="001">BV047199372</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20231025 </controlfield><controlfield tag="007">t</controlfield><controlfield tag="008">210316s2021 gw a||| |||| 00||| ger d</controlfield><datafield tag="015" ind1=" " ind2=" "><subfield code="a">21,N07</subfield><subfield code="2">dnb</subfield></datafield><datafield tag="016" ind1="7" ind2=" "><subfield code="a">1226790577</subfield><subfield code="2">DE-101</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783747502136</subfield><subfield code="c">Pb. : EUR 49.99 (DE), EUR 51.40 (AT)</subfield><subfield code="9">978-3-7475-0213-6</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">374750213X</subfield><subfield code="9">3-7475-0213-X</subfield></datafield><datafield tag="024" ind1="3" ind2=" "><subfield code="a">9783747502136</subfield></datafield><datafield tag="028" ind1="5" ind2="2"><subfield code="a">Bestellnummer: 74750213</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1237702787</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)DNB1226790577</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">gw</subfield><subfield code="c">XA-DE-NW</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-706</subfield><subfield code="a">DE-860</subfield><subfield code="a">DE-355</subfield><subfield code="a">DE-1043</subfield><subfield code="a">DE-634</subfield><subfield code="a">DE-824</subfield><subfield code="a">DE-29T</subfield><subfield code="a">DE-523</subfield><subfield code="a">DE-859</subfield><subfield code="a">DE-1102</subfield><subfield code="a">DE-861</subfield><subfield code="a">DE-11</subfield><subfield code="a">DE-573</subfield><subfield code="a">DE-862</subfield><subfield code="a">DE-898</subfield><subfield code="a">DE-19</subfield><subfield code="a">DE-83</subfield><subfield code="a">DE-1049</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 302</subfield><subfield code="0">(DE-625)143652:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 250</subfield><subfield code="0">(DE-625)143626:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">1\p</subfield><subfield code="a">004</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Raschka, Sebastian</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1080537872</subfield><subfield code="4">aut</subfield></datafield><datafield tag="240" ind1="1" ind2="0"><subfield code="0">(DE-588)115482389X</subfield><subfield code="a">Python machine learning</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn</subfield><subfield code="b">das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics</subfield><subfield code="c">Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">3., aktualisierte und erweiterte Auflage</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Frechen</subfield><subfield code="b">MITP</subfield><subfield code="c">2021</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">759 Seiten</subfield><subfield code="b">Illustrationen, Diagramme</subfield><subfield code="c">24 cm x 17 cm, 1259 g</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="490" ind1="0" ind2=" "><subfield code="a">mitp Professional</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Datenanalyse</subfield><subfield code="0">(DE-588)4123037-1</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Cluster-Analyse</subfield><subfield code="0">(DE-588)4070044-6</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">TensorFlow</subfield><subfield code="0">(DE-588)1153577011</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Python 3.6</subfield><subfield code="0">(DE-588)113674746X</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Keras</subfield><subfield code="g">Framework, Informatik</subfield><subfield code="0">(DE-588)1160521077</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Big Data</subfield><subfield code="0">(DE-588)4802620-7</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="1"><subfield code="a">Datenanalyse</subfield><subfield code="0">(DE-588)4123037-1</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="2"><subfield code="a">Big Data</subfield><subfield code="0">(DE-588)4802620-7</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="3"><subfield code="a">Python 3.6</subfield><subfield code="0">(DE-588)113674746X</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="4"><subfield code="a">Python</subfield><subfield code="g">Programmiersprache</subfield><subfield code="0">(DE-588)4434275-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="5"><subfield code="a">TensorFlow</subfield><subfield code="0">(DE-588)1153577011</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="6"><subfield code="a">Keras</subfield><subfield code="g">Framework, Informatik</subfield><subfield code="0">(DE-588)1160521077</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2="7"><subfield code="a">Cluster-Analyse</subfield><subfield code="0">(DE-588)4070044-6</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="689" ind1="1" ind2="0"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="1"><subfield code="a">Datenanalyse</subfield><subfield code="0">(DE-588)4123037-1</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="2"><subfield code="a">Big Data</subfield><subfield code="0">(DE-588)4802620-7</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2="3"><subfield code="a">Python 3.6</subfield><subfield code="0">(DE-588)113674746X</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="1" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Mirjalili, Vahid</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1147615993</subfield><subfield code="4">aut</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Lorenzen, Knut</subfield><subfield code="0">(DE-588)1020241446</subfield><subfield code="4">trl</subfield></datafield><datafield tag="710" ind1="2" ind2=" "><subfield code="a">mitp Verlags GmbH & Co. KG</subfield><subfield code="0">(DE-588)1065362072</subfield><subfield code="4">pbl</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe</subfield><subfield code="z">9783747502143</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe</subfield><subfield code="z">9783747502150</subfield></datafield><datafield tag="780" ind1="0" ind2="0"><subfield code="i">Vorangegangen ist</subfield><subfield code="z">9783958457331</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">DNB Datenaustausch</subfield><subfield code="q">application/pdf</subfield><subfield code="u">http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032604447&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-032604447</subfield></datafield><datafield tag="883" ind1="0" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">aepgnd</subfield><subfield code="c">0,03688</subfield><subfield code="d">20210308</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#aepgnd</subfield></datafield></record></collection> |
id | DE-604.BV047199372 |
illustrated | Illustrated |
index_date | 2024-07-03T16:50:34Z |
indexdate | 2024-11-26T04:00:52Z |
institution | BVB |
institution_GND | (DE-588)1065362072 |
isbn | 9783747502136 374750213X |
language | German |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-032604447 |
oclc_num | 1237702787 |
open_access_boolean | |
owner | DE-706 DE-860 DE-355 DE-BY-UBR DE-1043 DE-634 DE-824 DE-29T DE-523 DE-859 DE-1102 DE-861 DE-11 DE-573 DE-862 DE-BY-FWS DE-898 DE-BY-UBR DE-19 DE-BY-UBM DE-83 DE-1049 |
owner_facet | DE-706 DE-860 DE-355 DE-BY-UBR DE-1043 DE-634 DE-824 DE-29T DE-523 DE-859 DE-1102 DE-861 DE-11 DE-573 DE-862 DE-BY-FWS DE-898 DE-BY-UBR DE-19 DE-BY-UBM DE-83 DE-1049 |
physical | 759 Seiten Illustrationen, Diagramme 24 cm x 17 cm, 1259 g |
publishDate | 2021 |
publishDateSearch | 2021 |
publishDateSort | 2021 |
publisher | MITP |
record_format | marc |
series2 | mitp Professional |
spellingShingle | Raschka, Sebastian Mirjalili, Vahid Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Datenanalyse (DE-588)4123037-1 gnd Cluster-Analyse (DE-588)4070044-6 gnd Python Programmiersprache (DE-588)4434275-5 gnd Maschinelles Lernen (DE-588)4193754-5 gnd TensorFlow (DE-588)1153577011 gnd Python 3.6 (DE-588)113674746X gnd Keras Framework, Informatik (DE-588)1160521077 gnd Big Data (DE-588)4802620-7 gnd |
subject_GND | (DE-588)4123037-1 (DE-588)4070044-6 (DE-588)4434275-5 (DE-588)4193754-5 (DE-588)1153577011 (DE-588)113674746X (DE-588)1160521077 (DE-588)4802620-7 |
title | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |
title_GND | (DE-588)115482389X |
title_alt | Python machine learning |
title_auth | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |
title_exact_search | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |
title_exact_search_txtP | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |
title_full | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen |
title_fullStr | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen |
title_full_unstemmed | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics Sebastian Raschka, Vahid Mirjalili ; Übersetzung aus dem Amerikanischen von Knut Lorenzen |
title_short | Machine Learning mit Python und Keras, TensorFlow 2 und Scikit-learn |
title_sort | machine learning mit python und keras tensorflow 2 und scikit learn das umfassende praxis handbuch fur data science deep learning und predictive analytics |
title_sub | das umfassende Praxis-Handbuch für Data Science, Deep Learning und Predictive Analytics |
topic | Datenanalyse (DE-588)4123037-1 gnd Cluster-Analyse (DE-588)4070044-6 gnd Python Programmiersprache (DE-588)4434275-5 gnd Maschinelles Lernen (DE-588)4193754-5 gnd TensorFlow (DE-588)1153577011 gnd Python 3.6 (DE-588)113674746X gnd Keras Framework, Informatik (DE-588)1160521077 gnd Big Data (DE-588)4802620-7 gnd |
topic_facet | Datenanalyse Cluster-Analyse Python Programmiersprache Maschinelles Lernen TensorFlow Python 3.6 Keras Framework, Informatik Big Data |
url | http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032604447&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |
work_keys_str_mv | AT raschkasebastian pythonmachinelearning AT mirjalilivahid pythonmachinelearning AT lorenzenknut pythonmachinelearning AT mitpverlagsgmbhcokg pythonmachinelearning AT raschkasebastian machinelearningmitpythonundkerastensorflow2undscikitlearndasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics AT mirjalilivahid machinelearningmitpythonundkerastensorflow2undscikitlearndasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics AT lorenzenknut machinelearningmitpythonundkerastensorflow2undscikitlearndasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics AT mitpverlagsgmbhcokg machinelearningmitpythonundkerastensorflow2undscikitlearndasumfassendepraxishandbuchfurdatasciencedeeplearningundpredictiveanalytics |
Inhaltsverzeichnis
Sonderstandort Fakultät
Signatur: |
2000 ST 250 P99 R223 M1(3) |
---|---|
Exemplar 1 | nicht ausleihbar Checked out – Rückgabe bis: 31.12.2099 Vormerken |