Maschinelles Lernen:
Maschinelles Lernen ist die künstliche Generierung von Wissen aus Erfahrung. Dieses Buch diskutiert Methoden aus den Bereichen Statistik, Mustererkennung und kombiniert die unterschiedlichen Ansätze, um effiziente Lösungen zu finden. Diese Auflage bietet ein neues Kapitel über Deep Learning und erwe...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Buch |
Sprache: | German |
Veröffentlicht: |
Berlin ; Boston
De Gruyter Oldenbourg
[2022]
|
Ausgabe: | 3., aktualisierte und erweiterte Auflage |
Schriftenreihe: | De Gruyter Studium
|
Schlagworte: | |
Online-Zugang: | https://www.degruyter.com/isbn/9783110740141 Inhaltsverzeichnis |
Zusammenfassung: | Maschinelles Lernen ist die künstliche Generierung von Wissen aus Erfahrung. Dieses Buch diskutiert Methoden aus den Bereichen Statistik, Mustererkennung und kombiniert die unterschiedlichen Ansätze, um effiziente Lösungen zu finden. Diese Auflage bietet ein neues Kapitel über Deep Learning und erweitert die Inhalte über mehrlagige Perzeptrone und bestärkendes Lernen. Eine neue Sektion über erzeugende gegnerische Netzwerke ist ebenfalls dabei. |
Beschreibung: | "Autorisierte Übersetzung der 3. englischsprachigen Ausgabe, die bei The MIT Press, Massachusetts Institute of Technology, unter dem Titel: 'Introduction to Machine Learning' erschienen ist." |
Beschreibung: | XX, 702 Seiten Illustrationen, Diagramme |
ISBN: | 9783110740141 |
Internformat
MARC
LEADER | 00000nam a22000008c 4500 | ||
---|---|---|---|
001 | BV047712869 | ||
003 | DE-604 | ||
005 | 20230216 | ||
007 | t | ||
008 | 220126s2022 gw a||| |||| 00||| ger d | ||
015 | |a 21,N38 |2 dnb | ||
016 | 7 | |a 1241345937 |2 DE-101 | |
020 | |a 9783110740141 |c Print |9 978-3-11-074014-1 | ||
024 | 3 | |a 9783110740141 | |
035 | |a (OCoLC)1296296692 | ||
035 | |a (DE-599)DNB1241345937 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a ger | |
044 | |a gw |c XA-DE-BE | ||
049 | |a DE-860 |a DE-355 |a DE-1050 |a DE-20 |a DE-634 |a DE-706 |a DE-Aug4 |a DE-19 |a DE-1049 |a DE-1102 |a DE-29T |a DE-12 |a DE-1051 |a DE-11 |a DE-703 |a DE-83 |a DE-739 |a DE-523 |a DE-2075 |a DE-B768 | ||
082 | 0 | |a 006.31 |2 23/ger | |
084 | |a ST 302 |0 (DE-625)143652: |2 rvk | ||
084 | |a ST 300 |0 (DE-625)143650: |2 rvk | ||
084 | |a ST 304 |0 (DE-625)143653: |2 rvk | ||
084 | |8 1\p |a 004 |2 23sdnb | ||
084 | |a 68T05 |2 msc | ||
084 | |a 68T10 |2 msc | ||
100 | 1 | |a Alpaydın, Ethem |d 1966- |0 (DE-588)134261046 |4 aut | |
240 | 1 | 0 | |a Introduction to machine learning |
245 | 1 | 0 | |a Maschinelles Lernen |c Ethem Alpaydin |
250 | |a 3., aktualisierte und erweiterte Auflage | ||
264 | 1 | |a Berlin ; Boston |b De Gruyter Oldenbourg |c [2022] | |
264 | 4 | |c © 2022 | |
300 | |a XX, 702 Seiten |b Illustrationen, Diagramme | ||
336 | |b txt |2 rdacontent | ||
337 | |b n |2 rdamedia | ||
338 | |b nc |2 rdacarrier | ||
490 | 0 | |a De Gruyter Studium | |
500 | |a "Autorisierte Übersetzung der 3. englischsprachigen Ausgabe, die bei The MIT Press, Massachusetts Institute of Technology, unter dem Titel: 'Introduction to Machine Learning' erschienen ist." | ||
520 | 3 | |a Maschinelles Lernen ist die künstliche Generierung von Wissen aus Erfahrung. Dieses Buch diskutiert Methoden aus den Bereichen Statistik, Mustererkennung und kombiniert die unterschiedlichen Ansätze, um effiziente Lösungen zu finden. Diese Auflage bietet ein neues Kapitel über Deep Learning und erweitert die Inhalte über mehrlagige Perzeptrone und bestärkendes Lernen. Eine neue Sektion über erzeugende gegnerische Netzwerke ist ebenfalls dabei. | |
650 | 0 | 7 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |2 gnd |9 rswk-swf |
653 | |a Maschinelles Lernen | ||
653 | |a Künstliche Intelligenz | ||
653 | |a Deep Learning | ||
653 | |a Neuronale Netze | ||
653 | |a Machine learning | ||
653 | |a artificial intelligence | ||
653 | |a deep learning | ||
653 | |a neuronal networks | ||
653 | |a TB: Textbook | ||
653 | |a Machine learning; artificial intelligence; deep learning; neuronal networks | ||
689 | 0 | 0 | |a Maschinelles Lernen |0 (DE-588)4193754-5 |D s |
689 | 0 | |5 DE-604 | |
710 | 2 | |a De Gruyter Oldenbourg |0 (DE-588)1065492103 |4 pbl | |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe, EPUB |z 978-3-11-074027-1 |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe, PDF |z 978-3-11-074019-6 |
856 | 4 | 2 | |m X:MVB |u https://www.degruyter.com/isbn/9783110740141 |
856 | 4 | 2 | |m DNB Datenaustausch |q application/pdf |u http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=033096598&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |3 Inhaltsverzeichnis |
999 | |a oai:aleph.bib-bvb.de:BVB01-033096598 | ||
883 | 1 | |8 1\p |a vlb |d 20210917 |q DE-101 |u https://d-nb.info/provenance/plan#vlb |
Datensatz im Suchindex
_version_ | 1804183212942950400 |
---|---|
adam_text | INHALTSVERZEICHNIS
1
EINFUEHRUNG
1
1.1
WAS
IST
MASCHINELLES
LERNEN?
................................................
1
1.2
BEISPIELE
FUER
ANWENDUNGEN
DES
MASCHINELLEN
LERNENS
.......
4
1.2.1
ASSOZIATIONSREGELN
....................................................................
4
1.2.2
KLASSIFIKATION
.............................................................................
5
1.2.3
REGRESSION
................................................................................
10
1.2.4
UNUEBERWACHTES
LERNEN
...........................................................
11
1.2.5
BESTAERKENDES
LERNEN
..............................................................
12
1.3
GESCHICHTE
................................................................................
13
1.4
ANGRENZENDE
THEMENFELDER
....................................................
16
1.4.1
HOCHLEISTUNGSRECHNEN
..............................................................
16
1.4.2
DATENSCHUTZ
UND
DATENSICHERHEIT
.........................................
17
1.4.3
INTERPRETIERBARKEIT
UND
VERTRAUENSWUERDIGKEIT
DES
MODELLS
18
1.4.4
DATA
SCIENCE
............................................................................
19
1.5
UEBUNGEN
....................................................................................
19
1.6
LITERATUR
ANGABEN
...................................................
22
2
UEBERWACHTES
LERNEN
25
2.1
LERNEN
EINER
KLASSE
AUS
BEISPIELEN
.......................................
25
2.2
VAPNIK-CHERVONENKIS-DIMENSION
...........................................
31
2.3
PAC-LERNEN
..............................................................................
32
2.4
1
RAUSCHEN
....................................................................................
34
2.5
LERNEN
MULTIPLER
KLASSEN
.......................................................
36
2.6
REGRESSION
................................................................................
38
2.7
MODELLAUSWAHL
UND
GENERALISIERUNG
.....................................
40
2.8
DIMENSIONEN
EINES
ALGORITHMUS
FUER
UEBERWACHTES
LERNEN
..
45
2.9
ANMERKUNGEN
...........................................................................
47
2.10
UEBUNGEN
....................................................................................
48
2.11
LITERATURANGABEN
.....................................................................
52
3
BAYESSCHE
ENTSCHEIDUNGSTHEORIE
53
3.1
EINFUEHRUNG
................................................................................
53
3.2
KLASSIFIKATION
.............................................................................
55
3.3
VERLUSTE
UND
RISIKEN
..............................................................
57
3.4
DISKRIMINANZFUNKTIONEN
.........................................................
60
3.5
ASSOZIATIONSREGELN
....................................................................
61
3.6
ANMERKUNGEN
...........................................................................
64
VI
INHALTSVERZEICHNIS
3.7
UEBUNGEN
....................................................................................
65
3.8
LITERATURANGABEN
......................................................................
69
4
PARAMETRISCHE
METHODEN
71
4.1
EINFUEHRUNG
................................................................................
71
4.2
MAXIMUM-LIKELIHOOD-SCHAETZUNG
...........................................
72
4.2.1
BERNOULLI-VERTEILUNG
................................................................
73
4.2.2
MULTINOMIALE
DICHTE
................................................................
74
4.2.3
GAUSS-VERTEILUNG
(NORMALVERTEILUNG)
....................................
74
4.3
BEWERTUNG
EINES
SCHAETZERS:
VERZERRUNG
UND
VARIANZ
.........
75
4.4
DER
BAYESSCHE
SCHAETZER
...........................................................
77
4.5
PARAMETRISCHE
KLASSIFIKATION
..................................................
80
4.6
REGRESSION
................................................................................
83
4.7
DAS
VERZERRUNG-VARIANZ-DILEMMA
.........................................
87
4.8
MODELLAUSWAHL
.........................................................................
91
4.9
ANMERKUNGEN
...........................................................................
95
4.10
UEBUNGEN
....................................................................................
95
4.11
LITERATURANGABEN
......................................................................
98
5
MULTIVARIATE
METHODEN
101
5.1
MULTIVARIATE
DATEN
...................................................................
101
5.2
PARAMETERSCHAETZUNG
.................................................................
102
5.3
SCHAETZUNG
VON
FEHLENDEN
WERTEN
............................................
103
5.4
MULTIVARIATE
NORMALVERTEILUNG
................................................
104
5.5
MULTIVARIATE
KLASSIFIKATION
.......................................................
108
5.6
ANPASSEN
DER
KOMPLEXITAET
.......................................................
114
5.7
DISKRETE
MERKMALE
...................................................................
116
5.8
MULTIVARIATE
REGRESSION
............................................................
118
5.9
ANMERKUNGEN
............................................................................
119
5.10
UEBUNGEN
.....................................................................................
120
5.11
LITERATURANGABEN
.......................................................................
122
6
DIMENSIONALITAETSREDUKTION
125
6.1
EINFUEHRUNG
.................................................................................
125
6.2
TEILMENGENSELEKTION
.................................................................
126
6.3
HAUPTKOMPONENTENANALYSE
.....................................................
131
6.4
MERKMALSEINBETTUNG
.................................................................
137
6.5
FAKTORENANALYSE
........................................................................
140
6.6
SINGULAERWERTZERLEGUNG
UND
FAKTORISIERUNG
VON
MATRIZEN
..
145
6.7
MULTIDIMENSIONALE
SKALIERUNG
.................................................
147
6.8
LINEARE
DISKRIMINANZANALYSE
.........................
........................
150
6.9
KANONISCHE
KORRELATIONSANALYSE
..............................................
154
6.10
ISOMAP
........................................................................................
158
6.11
LOKAL
LINEARE
EINBETTUNG
..........................................................
160
6.12
LAPLACESCHE
EIGENMAPS
............................................................
162
6.13
T-VERTEILTE
STOCHASTISCHE
NACHBAREINBETTUNG
........................
165
6.14
ANMERKUNGEN
............................................................................
167
INHALTSVERZEICHNIS
VII
6.15
UEBUNGEN
....................................................................................
169
6.16
LITERATURANGABEN
.....................................................................
171
7
CLUSTERANALYSE
173
7.1
EINFUEHRUNG
.................................................................................
173
7.2
MISCHUNGSDICHTEN
......................................................................
174
7.3
FC-MEANS-CLUSTERANALYSE
..........................................................
175
7.4
EXPECTATION-MAXIMIZATION-ALGORITHMUS
...............................
179
7.5
MISCHUNGSMODELLE
MIT
VERBORGENEN
VARIABLEN
......................
185
7.6
UEBERWACHTES
LERNEN
NACH
EINER
CLUSTERANALYSE
....................
186
7.7
SPEKTRALE
CLUSTERANALYSE
..........................................................
187
7.8
HIERARCHISCHE
CLUSTERANALYSE
...................................................
189
7.9
WAHL
DER
CLUSTERANZAHL
............................................................
191
7.10
ANMERKUNGEN
............................................................................
192
7.11
UEBUNGEN
.....................................................................................
193
7.12
LITERATURANGABEN
......................................................................
195
8
8.1
8.2
8.2.1
8.2.2
NICHTPARAMETRISCHE
METHODEN
EINFUEHRUNG
................................................................................
NICHTPARAMETRISCHE
DICHTESCHAETZUNG
....................................
HISTOGRAMMSCHAETZER
KERNEL-SCHAETZER
.......................................................................
199
199
200
201
203
8.2.3
/C-NAECHSTE-NACHBARN-SCHAETZER
.................................................
204
8.3
VERALLGEMEINERUNG
AUF
MULTIVARIATE
DATEN
............................
205
8.4
NICHTPARAMETRISCHE
KLASSIFIKATION
..........................................
207
8.5
VERDICHTETE
NAECHSTE-NACHBARN-METHODE
...............................
208
8.6
ABSTANDSBASIERTE
KLASSIFIKATION
.............................................
210
8.7
AUSREISSER
ER
KENNUNG
.................................................................
213
8.8
NICHTPARAMETRISCHE
REGRESSION:
GLAETTUNGSMODELLE
.............
214
8.8.1
GLEITENDE
MITTELWERTGLAETTUNG
.................................................
215
8.8.2
GLAETTUNG
DURCH
KERNEL-FUNKTION
............................................
217
8.8.3
GLEITENDE
LINIENGLAETTUNG
........................................................
217
8.9
WAHL
DES
GLAETTENDEN
HYPERPARAMETERS
.................................
218
8.10
ANMERKUNGEN
............................................................................
220
8.11
UEBUNGEN
....................................................................................
222
8.12
LITERATURANGABEN
......................................................................
225
9
ENTSCHEIDUNGSBAEUME
227
9.1
EINFUEHRUNG
.................................................................................
227
9.2
UNIVARIATE
BAEUME
....................................................................
229
9.2.1
KLASSIFIKATIONSBAEUME
...............................................................
230
9.2.2
REGRESSIONSBAEUME
....................................................................
234
9.3
PRUNING
......................................................................................
237
9.4
REGELEXTRAKTION
AUS
BAEUMEN
...................................................
239
9.5
LERNEN
VON
REGELN
ANHAND
VON
DATEN
.................................
241
9.6
MULTIVARIATE
BAEUME
.................................................................
245
9.7
ANMERKUNGEN
............................................................................
247
VIII
INHALTSVERZEICHNIS
9.8
UEBUNGEN
.....................................................................................
250
9.9
LITERATURANGABEN
......................................................................
252
10
LINEARE
DISKRIMINANZ
255
10.1
EINFUEHRUNG
.................................................................................
255
10.2
GENERALISIERUNG
DES
LINEAREN
MODELLS
.....................................
257
10.3
GEOMETRIE
DER
LINEAREN
DISKRIMINANZ
.....................................
258
10.3.1
ZWEI
KLASSEN
.............................................................................
258
10.3.2
MULTIPLE
KLASSEN
......................................................................
260
10.4
PAARWEISE
TRENNUNG
.................................................................
261
10.5
NEUBETRACHTUNG
DER
PARAMETRISCHEN
DISKRIMINANZ
..............
263
10.6
GRADIENTENABSTIEG
.....................................................................
265
10.7
LOGISTISCHE
DISKRIMINANZ
........................................................
266
10.7.1
ZWEI
KLASSEN
.............................................................................
266
10.7.2
MULTIPLE
KLASSEN
......................................................................
270
10.7.3
MULTIPLE
LABELS
........................................................................
275
10.8
LERNEN
VON
RANGORDNUNGEN
.....................................................
276
10.9
ANMERKUNGEN
............................................................................
279
10.10
UEBUNGEN
.....................................................................................
279
10.11
LITERATURANGABEN
......................................................................
282
11
MEHRLAGIGE
PERZEPTRONEN
285
11.1
EINFUEHRUNG
.................................................................................
285
11.1.1
DAS
GEHIRN
VERSTEHEN
...............................................................
286
11.1.2
NEURONALE
NETZE
UND
PARALLELVERARBEITUNG
..........................
287
11.2
DAS
PERZEPTRON
..........................................................................
289
11.3
TRAINING
EINES
PERZEPTRONS
......................................................
293
11.4
LERNEN
VON
BOOLESCHEN
FUNKTIONEN
......................................
296
11.5
MEHRLAGIGE
PERZEPTRONEN
........................................................
298
11.6
DAS
MLP
ALS
UNIVERSELLE
NAEHERUNGSFUNKTION
........................
300
11.7
BACKPROPAGATION
......................................................................
302
11.7.1
NICHTLINEARE
REGRESSION
............................................................
302
11.7.2
ZWEIKLASSENDISKRIMINANZ
..........................................................
307
11.7.3
DISKRIMINANZ
BEI
MULTIPLEN
KLASSEN
......................................
308
11.7.4
DISKRIMINANZ
BEI
MULTIPLEN
LABELN
........................................
308
11.8
UEBERTRAINING
........................................................
309
11.9
LERNEN
VERBORGENER
DARSTELLUNGEN
........................................
311
11.10
AUTOENCODER
.............................................................................
315
11.11
DIE
WORD2VEC-ARCHITEKTUR
........................................................
317
11.12
ANMERKUNGEN
............................................................................
321
11.13
UEBUNGEN
.....................................................................................
323
11.14
LITERATURANGABEN
......................................................................
324
12
TIEFES
LERNEN
327
12.1
EINFUEHRUNG
.................................................................................
327
12.2
TRAINING
MEHRERER
VERBORGENER
SCHICHTEN
..............................
331
12.2.1
REKTIFIZIERTE
LINEARE
EINHEIT
......................................................
331
INHALTSVERZEICHNIS
IX
12.2.2
INITIALISIERUNG
............................................................................
332
12.2.3
BACKPROPAGATION
MIT
MEHREREN
VERBORGENEN
SCHICHTEN.
...
332
12.3
VERBESSERN
DER
TRAININGSKONVERGENZ
......................................
335
12.3.1
MOMENTUM
.................................................................................
335
12.3.2
ADAPTIVER
LERNFAKTOR
...............................................................
336
12.3.3
BATCH-NORMALISIERUNG
.............................................................
338
12.4
REGULARISIERUNG
..........................................................................
339
12.4.1
HINWEISE
.....................................................................................
340
12.4.2
GEWICHTSABBAU
..........................................................................
341
12.4.3
DROPOUT
......................................................................................
344
12.5
FALTUNGSSCHICHTEN
......................................................................
346
12.5.1
DIE
IDEE
......................................................................................
346
12.5.2
FORMALISIERUNG
..........................................................................
347
12.5.3
BEISPIELE:
LENET-5
UND
ALEXNET
..............................................
351
12.5.4
ERWEITERUNGEN
............................................................................
352
12.5.5
MULTIMODALE
TIEFE
NETZE
..........................................................
353
12.6
EINSTELLEN
DER
NETZWERKSTRUKTUR
............................................
355
12.6.1
STRUKTURSUCHE
UND
HYPERPARAMETERSUCHE
............................
355
12.6.2
SPRUNGVERBINDUNGEN
.................................................................
356
12.6.3
GATTEREINHEITEN
..........................................................................
358
12.7
LERNEN
VON
SEQUENZEN
.............................................................
358
12.7.1
BEISPIELAUFGABEN
......................................................................
358
12.7.2
NEURONALE
NETZE
MIT
ZEITVERZOEGERUNG
...................................
359
12.7.3
REKURRENTE
NETZE
......................................................................
359
12.7.4
LANGES
KURZZEITGEDAECHTNIS
......................................................
362
12.7.5
GATED
RECURRENT
UNIT
(GRU)
.................................................
364
12.8
GENERATIVE
GEGNERISCHE
NETZE
.................................................
365
12.9
ANMERKUNGEN
............................................................................
367
12.10
UEBUNGEN
....................................................................................
369
12.11
LITERATURANGABEN
.......................................................................
371
13
LOKALE
MODELLE
375
13.1
EINFUEHRUNG
.................................................................................
375
13.2
KOMPETITIVES
LERNEN
...............................................................
375
13.2.1
ONLINE-FC-MEANS-ALGORITHMUS
.................................................
376
13.2.2
ADAPTIVE
RESONANZTHEORIE
.......................................................
381
13.2.3
SELBSTORGANISIERENDE
MERKMALSKARTEN
...................................
382
13.3
RADIALE
BASISFUNKTIONEN
..........................................................
383
13.4
REGELBASIERTES
WISSEN
.............................................................
390
13.5
NORMALISIERTE
BASISFUNKTIONEN
................................................
391
13.6
KOMPETITIVE
BASISFUNKTIONEN
.................................................
393
13.7
LERNEN
MIT
VEKTORQUANTISIERUNG
............................................
396
13.8
DAS
MOE-MODELL
......................................................................
396
13.8.1
KOOPERATIVE
EXPERTEN
.............................................................
399
13.8.2
KOMPETITIVE
EXPERTEN
.............................................................
399
13.9
HIERARCHISCHE
MOE
UND
WEICHE
ENTSCHEIDUNGSBAEUME
.......
400
13.10
ANMERKUNGEN
............................................................................
402
X
INHALTSVERZEICHNIS
13.11
UEBUNGEN
.....................................................................................
403
13.12
LITERATURANGABEN
......................................................................
406
14
KERNEL-MASCHINEN
409
14.1
EINFUEHRUNG
.................................................................................
409
14.2
DIE
OPTIMAL
TRENNENDE
HYPEREBENE
.......................................
411
14.3
DER
NICHT
TRENNBARE
FALL:
SOFT-MARGIN-TRENNEBENEN
............
415
14.4
V-SVM
........................................................................................
418
14.5
KERNEL-TRICK
...............................................................................
419
14.6
VEKTORIELLE
KERNEL
.....................................................................
421
14.7
DEFINITION
VON
KERNELN
............................................................
423
14.8
MULTIPLE-KERNEL-LERNEN
............................................................
425
14.9
MEHRKLASSEN-KERNEL-MASCHINEN
..............................................
427
14.10
KERNEL-MASCHINEN
UND
REGRESSION
..........................................
428
14.11
KERNEL-MASCHINEN
UND
RANKING
.............................................
433
14.12
EINKLASSEN-KERNEL-MASCHINEN
.................................................
434
14.13
BREITER-MARGIN-NAECHSTER-NACHBAR-KLASSIFIKATOR
...................
438
14.14
DIMENSIONALITAETSREDUKTION
MIT
KERNEL
...................................
440
14.15
ANMERKUNGEN
............................................................................
441
14.16
UEBUNGEN
.....................................................................................
442
14.17
LITERATURANGABEN
.......................................................................
444
15
GRAPHENMODELLE
447
15.1
EINFUEHRUNG
.................................................................................
447
15.2
KANONISCHE
FAELLE
FUER
BEDINGTE
UNABHAENGIGKEIT
...................
449
15.3
GENERATIVE
MODELLE
...................................................................
457
15.4
D-SEPARATION
..............................................................................
459
15.5
BELIEF-PROPAGATION
.....................................................................
460
15.5.1
KETTEN
........................................................................................
460
15.5.2
BAEUME
........................................................................................
462
15.5.3
MEHRFACHBAEUME
........................................................................
464
15.5.4
VERBINDUNGSBAEUME
...................................................................
466
15.6
UNGERICHTETE
GRAPHEN:
MARKOVSCHE
ZUFALLSFELDER
.................
467
15.7
LERNEN
DER
STRUKTUR
EINES
GRAPHENMODELLS
..........................
470
15.8
EINFLUSSDIAGRAMME
...................................................................
471
15.9
ANMERKUNGEN
............................................................................
472
15.10
UEBUNGEN
.....................................................................................
473
15.11
LITERATURANGABEN
......................................................................
476
16
HIDDEN-MARKOV-MODELLE
479
16.1
EINFUEHRUNG
.................................................................................
479
16.2
DISKRETE
MARKOV-PROZESSE
......................................................
480
16.3
HIDDEN-MARKOV-MODELLE
..........................................................
483
16.4
DREI
PROBLEMSTELLUNGEN
FUER
HMMS
........................................
485
16.5
EVALUIERUNGSPROBLEM
...............................................................
485
16.6
HERAUSFINDEN
DER
ZUSTANDSSEQUENZ
........................................
489
16.7
LERNEN
VON
MODELLPARAMETERN
................................................
491
INHALTSVERZEICHNIS
XI
16.8
KONTINUIERLICHE
BEOBACHTUNGEN
.............................................
494
16.9
DAS
HMM
ALS
GRAPHENMODELL
...............................................
495
16.10
MODELLAUSWAHL
IM
HMM
..........................................................
498
16.11
ANMERKUNGEN
............................................................................
501
16.12
UEBUNGEN
....................................................................................
503
16.13
LITERATURANGABEN
......................................................................
505
17
BAYESSCHE
SCHAETZUNG
507
17.1
EINFUEHRUNG
.................................................................................
507
17.2
PARAMETER
DISKRETER
VERTEILUNGEN
..........................................
511
17.2.1
K
2-ZUSTAENDE:
DIRICHLET-VERTEILUNG
...................................
511
17.2.2
K
=
2-ZUSTAENDE:
BETAVERTEILUNG
............................................
513
17.3
PARAMETER
EINER
GAUSS-VERTEILUNG
...........................................
513
17.3.1
UNIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
BEKANNTE
VARIANZ
......................................................................
513
17.3.2
UNIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
UNBEKANNTE
VARIANZ
.................................................................
516
17.3.3
MULTIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
UNBEKANNTE
KOVARIANZ
.............................................................
518
17.4
BAYESSCHE
SCHAETZUNG
DER
PARAMETER
EINER
FUNKTION
..........
519
17.4.1
REGRESSION
.................................................................................
519
17.4.2
REGRESSION
MIT
PRIOR
FUER
DIE
PRAEZISION
DES
RAUSCHENS
.......
523
17.4.3
BASIS/KERNEL-FUNKTIONEN
........................................................
525
17.4.4
BAYESSCHE
KLASSIFIKATION
..............................
.
.........................
527
17.5
WAHL
EINES
PRIORS
......................................................................
529
17.6
BAYESSCHER
MODELLVERGLEICH
....................................................
530
17.7
BAYESSCHE
SCHAETZUNG
FUER
EIN
MISCHUNGSMODELL
.....................
533
17.8
NICHTPARAMETRISCHE
BAYESSCHE
MODELLE
.................................
536
17.9
GAUSSSCHE
PROZESSE
...................................................................
537
17.10
DIRICHLET-PROZESSE
UND
CHINAESTAURANTS
...............................
541
17.11
LATENTE
DIRICHLET-ALLOKATION
...................................................
542
17.12
BETAPROZESSE
UND
INDISCHE
BUEFFETS
..........................................
545
17.13
ANMERKUNGEN
............................................................................
546
17.14
UEBUNGEN
....................................................................................
547
17.15
LITERATURANGABEN
......................................................................
548
18
KOMBINATION
MEHRERER
LERNER
551
18.1
GRUNDPRINZIP
..............................................................................
551
18.2
GENERIERUNG
DIVERSER
LERNER
...................................................
552
18.3
METHODEN
DER
MODELLKOMBINATION
........................................
555
18.4
VOTING
........................................................................................
556
18.5
FEHLERKORREKTURCODES
...............................................................
560
18.6
BAGGING
......................................................................................
562
18.7
BOOSTING
....................................................................................
563
18.8
NEUBETRACHTUNG
DES
MOE-MODELLS
........................................
566
18.9
GESCHACHTELTE
GENERALISIERUNG
...............................................
568
18.10
FEINABSTIMMUNG
EINES
ENSEMBLES
..........................................
569
XII
INHALTSVERZEICHNIS
18.10.1
WAHL
EINER
TEILMENGE
DES
ENSEMBLES
.....................................
569
18.10.2
KONSTRUKTION
VON
METALERNERN
...............................................
570
18.11
KASKADIERUNG
..............................................................................
571
18.12
ANMERKUNGEN
............................................................................
573
18.13
UEBUNGEN
.....................................................................................
575
18.14
LITERATURANGABEN
......................................................................
577
19
BESTAERKENDES
LERNEN
581
19.1
EINFUEHRUNG
.................................................................................
581
19.2
FAELLE
MIT
EINEM
ZUSTAND:
K-ARMIGER
BANDIT
......................
583
19.3
ELEMENTE
DES
BESTAERKENDEN
LERNENS
......................................
584
19.4
MODELLBASIERTES
LERNEN
............................................................
587
19.4.1
WERTITERATION
..............................................................................
587
19.4.2
TAKTIKITERATION
..........................................................................
588
19.5
LERNEN
MIT
TEMPORALER
DIFFERENZ
............................................
588
19.5.1
EXPLORATIONSSTRATEGIEN
..............................................................
589
19.5.2
DETERMINISTISCHE
BELOHNUNGEN
UND
AKTIONEN
......................
590
19.5.3
NICHTDETERMINISTISCHE
BELOHNUNGEN
UND
AKTIONEN
..............
591
19.5.4
EIGNUNGSPROTOKOLLE
...................................................................
594
19.6
GENERALISIERUNG
..........................................................................
595
19.7
TEILWEISE
BEOBACHTBARE
ZUSTAENDE
............................................
598
19.7.1
SETTING
........................................................................................
598
19.7.2
BEISPIEL:
DAS
TIGERPROBLEM
.....................................................
600
19.8
TIEFES
Q-LERNEN
........................................................................
605
19.9
TAKTIKGRADIENTEN
......................................................................
606
19.10
BACKGAMMON
UND
GO
...............................................................
609
19.11
ANMERKUNGEN
............................................................................
610
19.12
UEBUNGEN
.....................................................................................
611
19.13
LITERATURANGABEN
......................................................................
614
20
EXPERIMENTE
MIT
MASCHINELLEM
LERNEN
617
20.1
EINFUEHRUNG
.................................................................................
617
20.2
FAKTOREN,
ANTWORT
UND
STRATEGIE
BEIM
EXPERIMENTIEREN
..
621
20.3
ANTWORTFLAECHENMETHODE
............................................................
623
20.4
RANDOMISIEREN,
WIEDERHOLEN
UND
BLOCKEN
............................
624
20.5
RICHTLINIEN
FUER
EXPERIMENTE
MIT
MASCHINELLEM
LERNEN
....
625
20.6
KREUZVALIDIERUNG
UND
RESAMPLING-METHODEN
......................
629
20.6.1
K-FACHE
KREUZVALIDIERUNG
........................................................
630
20.6.2
5
X
2-KREUZVALIDIERUNG
............................................................
631
20.6.3
BOOTSTRAPPING
............................................................................
632
20.7
LEISTUNGSMESSUNG
FUER
KLASSIFIKATOREN
.....................................
632
20.8
INTERVALLSCHAETZUNG
.....................................................................
636
20.9
HYPOTHESENPRUEFUNG
...................................................................
639
20.10
LEISTUNGSBEWERTUNG
FUER
KLASSIFIKATIONSALGORITHMEN
............
641
20.10.1
BINOMIALTEST
..............................................................................
642
20.10.2
TEST
DER
APPROXIMIERTEN
NORMALVERTEILUNG
..........................
643
20.10.3
T-TEST
..........................................................................................
643
INHALTSVERZEICHNIS
XIII
20.11
VERGLEICH
VON
ZWEI
KLASSIFIKATIONSALGORITHMEN
.....................
644
20.11.1
DER
MCNEMARSCHE
TEST
............................................................
644
20.11.2
GEPAARTER
T-TEST
MIT
K-FACHER
KREUZVALIDIERUNG
...............
644
20.11.3
GEPAARTER
T-TEST
MIT
5X2
KREUZVALIDIERUNG
......................
645
20.11.4
GEPAARTER
E-TEST
MIT
5X2
KREUZVALIDIERUNG
.....................
646
20.12
VERGLEICH
MEHRERER
ALGORITHMEN:
VARIANZANALYSE
...............
647
20.13
VERGLEICH
UEBER
MEHRERE
DATENSAETZE
........................................
651
20.13.1
VERGLEICH
ZWEIER
ALGORITHMEN
.................................................
653
20.13.2
VERGLEICH
MEHRERER
ALGORITHMEN
............................................
655
20.14
MULTIVARIATE
TESTS
....................................................................
656
20.14.1
VERGLEICH
ZWEIER
ALGORITHMEN
.................................................
656
20.14.2
VERGLEICH
MEHRERER
ALGORITHMEN
............................................
658
20.15
ANMERKUNGEN
............................................................................
659
20.16
UEBUNGEN
.....................................................................................
660
20.17
LITERATURANGABEN
......................................................................
662
A
WAHRSCHEINLICHKEIT
663
A.
L
ELEMENTE
DER
WAHRSCHEINLICHKEIT
.............................................
663
A.
1.1
AXIOME
DER
WAHRSCHEINLICHKEIT
..............................................
663
A.
L.
2
BEDINGTE
WAHRSCHEINLICHKEIT
....................................................
664
A.
2
ZUFALLSVARIABLEN
.........................................................................
665
A.
2.1
VERTEILUNGSFUNKTION
UND
WAHRSCHEINLICHKEITSDICHTE
.............
665
A.
2.2
GEMEINSAME
VERTEILUNGSFUNKTION,
GEMEINSAME
DICHTE
....
666
A.2.3
BEDINGTE
VERTEILUNGEN
......................................
666
A.2.4
SATZ
VON
BAYES
...........................................................................
666
A.2.5
ERWARTUNGSWERT
.........................................................................
667
A.2.6
VARIANZ
.......................................................................................
668
A.2.7
DAS
SCHWACHE
GESETZ
GROSSER
ZAHLEN
.......................................
669
A.3
SPEZIELLE
VERTEILUNGEN
VON
ZUFALLSVARIABLEN
...........................
669
A.3.1
BERNOULLI-VERTEILUNG
..................................................................
669
A.3.2
BINOMIALVERTEILUNG
....................................................................
670
A.3.3
MULTINOMIALE
VERTEILUNG
...........................................................
670
A.3.4
GLEICHVERTEILUNG
.........................................................................
670
A.3.5
NORMALVERTEILUNG
(GAUSS-VERTEILUNG)
......................................
671
A.3.6
CHI-QUADRAT-VERTEILUNG
.............................................................
672
A.3.7
T-VERTEILUNG
................................................................................
673
A.3.8
F
VERTEILUNG
..............................................................................
673
A.
4
LITERATURANGABEN
.......................................................................
673
B
LINEARE
ALGEBRA
675
B.
L
VEKTOREN
......................................................................................
675
B.
2
MATRIZEN
......................................................................................
677
B.
3
AEHNLICHKEIT
ZWISCHEN
VEKTOREN
................................................
678
B.
4
QUADRATISCHE
MATRIZEN
.............................................................
679
B.
5
LINEARE
ABHAENGIGKEIT
UND
RANG
.............................................
679
B.
6
DIE
INVERSE
MATRIX
......................................................................
680
B.7
POSITIV
DEFINITE
MATRIZEN
...........................................................
680
XIV
INHALTSVERZEICHNIS
B.8
SPUR
UND
DETERMINANTE
.............................................................
680
B.9
EIGENWERTE
UND
EIGENVEKTOREN
.................................................
681
B.10
SPEKTRALZERLEGUNG
......................................................................
682
B.LL
SINGULAERWERTZERLEGUNG
...............................................................
682
B.
12
LITERATURANGABEN
........................................................................
683
C
OPTIMIERUNG
685
C.
L
EINFUEHRUNG
..................................................................................
685
C.
2
LINEARE
OPTIMIERUNG
.................................................................
687
C.
3
KONVEXE
OPTIMIERUNG
...............................................................
687
C.
4
DUALITAET
........................................................................................
688
C.
5
LOKALE
OPTIMIERUNG
..................................................................
690
C.
6
LITERATURANGABEN
........................................................................
691
INDEX
693
|
adam_txt |
INHALTSVERZEICHNIS
1
EINFUEHRUNG
1
1.1
WAS
IST
MASCHINELLES
LERNEN?
.
1
1.2
BEISPIELE
FUER
ANWENDUNGEN
DES
MASCHINELLEN
LERNENS
.
4
1.2.1
ASSOZIATIONSREGELN
.
4
1.2.2
KLASSIFIKATION
.
5
1.2.3
REGRESSION
.
10
1.2.4
UNUEBERWACHTES
LERNEN
.
11
1.2.5
BESTAERKENDES
LERNEN
.
12
1.3
GESCHICHTE
.
13
1.4
ANGRENZENDE
THEMENFELDER
.
16
1.4.1
HOCHLEISTUNGSRECHNEN
.
16
1.4.2
DATENSCHUTZ
UND
DATENSICHERHEIT
.
17
1.4.3
INTERPRETIERBARKEIT
UND
VERTRAUENSWUERDIGKEIT
DES
MODELLS
18
1.4.4
DATA
SCIENCE
.
19
1.5
UEBUNGEN
.
19
1.6
LITERATUR
ANGABEN
.
22
2
UEBERWACHTES
LERNEN
25
2.1
LERNEN
EINER
KLASSE
AUS
BEISPIELEN
.
25
2.2
VAPNIK-CHERVONENKIS-DIMENSION
.
31
2.3
PAC-LERNEN
.
32
2.4
1
RAUSCHEN
.
34
2.5
LERNEN
MULTIPLER
KLASSEN
.
36
2.6
REGRESSION
.
38
2.7
MODELLAUSWAHL
UND
GENERALISIERUNG
.
40
2.8
DIMENSIONEN
EINES
ALGORITHMUS
FUER
UEBERWACHTES
LERNEN
.
45
2.9
ANMERKUNGEN
.
47
2.10
UEBUNGEN
.
48
2.11
LITERATURANGABEN
.
52
3
BAYESSCHE
ENTSCHEIDUNGSTHEORIE
53
3.1
EINFUEHRUNG
.
53
3.2
KLASSIFIKATION
.
55
3.3
VERLUSTE
UND
RISIKEN
.
57
3.4
DISKRIMINANZFUNKTIONEN
.
60
3.5
ASSOZIATIONSREGELN
.
61
3.6
ANMERKUNGEN
.
64
VI
INHALTSVERZEICHNIS
3.7
UEBUNGEN
.
65
3.8
LITERATURANGABEN
.
69
4
PARAMETRISCHE
METHODEN
71
4.1
EINFUEHRUNG
.
71
4.2
MAXIMUM-LIKELIHOOD-SCHAETZUNG
.
72
4.2.1
BERNOULLI-VERTEILUNG
.
73
4.2.2
MULTINOMIALE
DICHTE
.
74
4.2.3
GAUSS-VERTEILUNG
(NORMALVERTEILUNG)
.
74
4.3
BEWERTUNG
EINES
SCHAETZERS:
VERZERRUNG
UND
VARIANZ
.
75
4.4
DER
BAYESSCHE
SCHAETZER
.
77
4.5
PARAMETRISCHE
KLASSIFIKATION
.
80
4.6
REGRESSION
.
83
4.7
DAS
VERZERRUNG-VARIANZ-DILEMMA
.
87
4.8
MODELLAUSWAHL
.
91
4.9
ANMERKUNGEN
.
95
4.10
UEBUNGEN
.
95
4.11
LITERATURANGABEN
.
98
5
MULTIVARIATE
METHODEN
101
5.1
MULTIVARIATE
DATEN
.
101
5.2
PARAMETERSCHAETZUNG
.
102
5.3
SCHAETZUNG
VON
FEHLENDEN
WERTEN
.
103
5.4
MULTIVARIATE
NORMALVERTEILUNG
.
104
5.5
MULTIVARIATE
KLASSIFIKATION
.
108
5.6
ANPASSEN
DER
KOMPLEXITAET
.
114
5.7
DISKRETE
MERKMALE
.
116
5.8
MULTIVARIATE
REGRESSION
.
118
5.9
ANMERKUNGEN
.
119
5.10
UEBUNGEN
.
120
5.11
LITERATURANGABEN
.
122
6
DIMENSIONALITAETSREDUKTION
125
6.1
EINFUEHRUNG
.
125
6.2
TEILMENGENSELEKTION
.
126
6.3
HAUPTKOMPONENTENANALYSE
.
131
6.4
MERKMALSEINBETTUNG
.
137
6.5
FAKTORENANALYSE
.
140
6.6
SINGULAERWERTZERLEGUNG
UND
FAKTORISIERUNG
VON
MATRIZEN
.
145
6.7
MULTIDIMENSIONALE
SKALIERUNG
.
147
6.8
LINEARE
DISKRIMINANZANALYSE
.
.
150
6.9
KANONISCHE
KORRELATIONSANALYSE
.
154
6.10
ISOMAP
.
158
6.11
LOKAL
LINEARE
EINBETTUNG
.
160
6.12
LAPLACESCHE
EIGENMAPS
.
162
6.13
T-VERTEILTE
STOCHASTISCHE
NACHBAREINBETTUNG
.
165
6.14
ANMERKUNGEN
.
167
INHALTSVERZEICHNIS
VII
6.15
UEBUNGEN
.
169
6.16
LITERATURANGABEN
.
171
7
CLUSTERANALYSE
173
7.1
EINFUEHRUNG
.
173
7.2
MISCHUNGSDICHTEN
.
174
7.3
FC-MEANS-CLUSTERANALYSE
.
175
7.4
EXPECTATION-MAXIMIZATION-ALGORITHMUS
.
179
7.5
MISCHUNGSMODELLE
MIT
VERBORGENEN
VARIABLEN
.
185
7.6
UEBERWACHTES
LERNEN
NACH
EINER
CLUSTERANALYSE
.
186
7.7
SPEKTRALE
CLUSTERANALYSE
.
187
7.8
HIERARCHISCHE
CLUSTERANALYSE
.
189
7.9
WAHL
DER
CLUSTERANZAHL
.
191
7.10
ANMERKUNGEN
.
192
7.11
UEBUNGEN
.
193
7.12
LITERATURANGABEN
.
195
8
8.1
8.2
8.2.1
8.2.2
NICHTPARAMETRISCHE
METHODEN
EINFUEHRUNG
.
NICHTPARAMETRISCHE
DICHTESCHAETZUNG
.
HISTOGRAMMSCHAETZER
KERNEL-SCHAETZER
.
199
199
200
201
203
8.2.3
/C-NAECHSTE-NACHBARN-SCHAETZER
.
204
8.3
VERALLGEMEINERUNG
AUF
MULTIVARIATE
DATEN
.
205
8.4
NICHTPARAMETRISCHE
KLASSIFIKATION
.
207
8.5
VERDICHTETE
NAECHSTE-NACHBARN-METHODE
.
208
8.6
ABSTANDSBASIERTE
KLASSIFIKATION
.
210
8.7
AUSREISSER
ER
KENNUNG
.
213
8.8
NICHTPARAMETRISCHE
REGRESSION:
GLAETTUNGSMODELLE
.
214
8.8.1
GLEITENDE
MITTELWERTGLAETTUNG
.
215
8.8.2
GLAETTUNG
DURCH
KERNEL-FUNKTION
.
217
8.8.3
GLEITENDE
LINIENGLAETTUNG
.
217
8.9
WAHL
DES
GLAETTENDEN
HYPERPARAMETERS
.
218
8.10
ANMERKUNGEN
.
220
8.11
UEBUNGEN
.
222
8.12
LITERATURANGABEN
.
225
9
ENTSCHEIDUNGSBAEUME
227
9.1
EINFUEHRUNG
.
227
9.2
UNIVARIATE
BAEUME
.
229
9.2.1
KLASSIFIKATIONSBAEUME
.
230
9.2.2
REGRESSIONSBAEUME
.
234
9.3
PRUNING
.
237
9.4
REGELEXTRAKTION
AUS
BAEUMEN
.
239
9.5
LERNEN
VON
REGELN
ANHAND
VON
DATEN
.
241
9.6
MULTIVARIATE
BAEUME
.
245
9.7
ANMERKUNGEN
.
247
VIII
INHALTSVERZEICHNIS
9.8
UEBUNGEN
.
250
9.9
LITERATURANGABEN
.
252
10
LINEARE
DISKRIMINANZ
255
10.1
EINFUEHRUNG
.
255
10.2
GENERALISIERUNG
DES
LINEAREN
MODELLS
.
257
10.3
GEOMETRIE
DER
LINEAREN
DISKRIMINANZ
.
258
10.3.1
ZWEI
KLASSEN
.
258
10.3.2
MULTIPLE
KLASSEN
.
260
10.4
PAARWEISE
TRENNUNG
.
261
10.5
NEUBETRACHTUNG
DER
PARAMETRISCHEN
DISKRIMINANZ
.
263
10.6
GRADIENTENABSTIEG
.
265
10.7
LOGISTISCHE
DISKRIMINANZ
.
266
10.7.1
ZWEI
KLASSEN
.
266
10.7.2
MULTIPLE
KLASSEN
.
270
10.7.3
MULTIPLE
LABELS
.
275
10.8
LERNEN
VON
RANGORDNUNGEN
.
276
10.9
ANMERKUNGEN
.
279
10.10
UEBUNGEN
.
279
10.11
LITERATURANGABEN
.
282
11
MEHRLAGIGE
PERZEPTRONEN
285
11.1
EINFUEHRUNG
.
285
11.1.1
DAS
GEHIRN
VERSTEHEN
.
286
11.1.2
NEURONALE
NETZE
UND
PARALLELVERARBEITUNG
.
287
11.2
DAS
PERZEPTRON
.
289
11.3
TRAINING
EINES
PERZEPTRONS
.
293
11.4
LERNEN
VON
BOOLESCHEN
FUNKTIONEN
.
296
11.5
MEHRLAGIGE
PERZEPTRONEN
.
298
11.6
DAS
MLP
ALS
UNIVERSELLE
NAEHERUNGSFUNKTION
.
300
11.7
BACKPROPAGATION
.
302
11.7.1
NICHTLINEARE
REGRESSION
.
302
11.7.2
ZWEIKLASSENDISKRIMINANZ
.
307
11.7.3
DISKRIMINANZ
BEI
MULTIPLEN
KLASSEN
.
308
11.7.4
DISKRIMINANZ
BEI
MULTIPLEN
LABELN
.
308
11.8
UEBERTRAINING
.
309
11.9
LERNEN
VERBORGENER
DARSTELLUNGEN
.
311
11.10
AUTOENCODER
.
315
11.11
DIE
WORD2VEC-ARCHITEKTUR
.
317
11.12
ANMERKUNGEN
.
321
11.13
UEBUNGEN
.
323
11.14
LITERATURANGABEN
.
324
12
TIEFES
LERNEN
327
12.1
EINFUEHRUNG
.
327
12.2
TRAINING
MEHRERER
VERBORGENER
SCHICHTEN
.
331
12.2.1
REKTIFIZIERTE
LINEARE
EINHEIT
.
331
INHALTSVERZEICHNIS
IX
12.2.2
INITIALISIERUNG
.
332
12.2.3
BACKPROPAGATION
MIT
MEHREREN
VERBORGENEN
SCHICHTEN.
.
332
12.3
VERBESSERN
DER
TRAININGSKONVERGENZ
.
335
12.3.1
MOMENTUM
.
335
12.3.2
ADAPTIVER
LERNFAKTOR
.
336
12.3.3
BATCH-NORMALISIERUNG
.
338
12.4
REGULARISIERUNG
.
339
12.4.1
HINWEISE
.
340
12.4.2
GEWICHTSABBAU
.
341
12.4.3
DROPOUT
.
344
12.5
FALTUNGSSCHICHTEN
.
346
12.5.1
DIE
IDEE
.
346
12.5.2
FORMALISIERUNG
.
347
12.5.3
BEISPIELE:
LENET-5
UND
ALEXNET
.
351
12.5.4
ERWEITERUNGEN
.
352
12.5.5
MULTIMODALE
TIEFE
NETZE
.
353
12.6
EINSTELLEN
DER
NETZWERKSTRUKTUR
.
355
12.6.1
STRUKTURSUCHE
UND
HYPERPARAMETERSUCHE
.
355
12.6.2
SPRUNGVERBINDUNGEN
.
356
12.6.3
GATTEREINHEITEN
.
358
12.7
LERNEN
VON
SEQUENZEN
.
358
12.7.1
BEISPIELAUFGABEN
.
358
12.7.2
NEURONALE
NETZE
MIT
ZEITVERZOEGERUNG
.
359
12.7.3
REKURRENTE
NETZE
.
359
12.7.4
LANGES
KURZZEITGEDAECHTNIS
.
362
12.7.5
GATED
RECURRENT
UNIT
(GRU)
.
364
12.8
GENERATIVE
GEGNERISCHE
NETZE
.
365
12.9
ANMERKUNGEN
.
367
12.10
UEBUNGEN
.
369
12.11
LITERATURANGABEN
.
371
13
LOKALE
MODELLE
375
13.1
EINFUEHRUNG
.
375
13.2
KOMPETITIVES
LERNEN
.
375
13.2.1
ONLINE-FC-MEANS-ALGORITHMUS
.
376
13.2.2
ADAPTIVE
RESONANZTHEORIE
.
381
13.2.3
SELBSTORGANISIERENDE
MERKMALSKARTEN
.
382
13.3
RADIALE
BASISFUNKTIONEN
.
383
13.4
REGELBASIERTES
WISSEN
.
390
13.5
NORMALISIERTE
BASISFUNKTIONEN
.
391
13.6
KOMPETITIVE
BASISFUNKTIONEN
.
393
13.7
LERNEN
MIT
VEKTORQUANTISIERUNG
.
396
13.8
DAS
MOE-MODELL
.
396
13.8.1
KOOPERATIVE
EXPERTEN
.
399
13.8.2
KOMPETITIVE
EXPERTEN
.
399
13.9
HIERARCHISCHE
MOE
UND
WEICHE
ENTSCHEIDUNGSBAEUME
.
400
13.10
ANMERKUNGEN
.
402
X
INHALTSVERZEICHNIS
13.11
UEBUNGEN
.
403
13.12
LITERATURANGABEN
.
406
14
KERNEL-MASCHINEN
409
14.1
EINFUEHRUNG
.
409
14.2
DIE
OPTIMAL
TRENNENDE
HYPEREBENE
.
411
14.3
DER
NICHT
TRENNBARE
FALL:
SOFT-MARGIN-TRENNEBENEN
.
415
14.4
V-SVM
.
418
14.5
KERNEL-TRICK
.
419
14.6
VEKTORIELLE
KERNEL
.
421
14.7
DEFINITION
VON
KERNELN
.
423
14.8
MULTIPLE-KERNEL-LERNEN
.
425
14.9
MEHRKLASSEN-KERNEL-MASCHINEN
.
427
14.10
KERNEL-MASCHINEN
UND
REGRESSION
.
428
14.11
KERNEL-MASCHINEN
UND
RANKING
.
433
14.12
EINKLASSEN-KERNEL-MASCHINEN
.
434
14.13
BREITER-MARGIN-NAECHSTER-NACHBAR-KLASSIFIKATOR
.
438
14.14
DIMENSIONALITAETSREDUKTION
MIT
KERNEL
.
440
14.15
ANMERKUNGEN
.
441
14.16
UEBUNGEN
.
442
14.17
LITERATURANGABEN
.
444
15
GRAPHENMODELLE
447
15.1
EINFUEHRUNG
.
447
15.2
KANONISCHE
FAELLE
FUER
BEDINGTE
UNABHAENGIGKEIT
.
449
15.3
GENERATIVE
MODELLE
.
457
15.4
D-SEPARATION
.
459
15.5
BELIEF-PROPAGATION
.
460
15.5.1
KETTEN
.
460
15.5.2
BAEUME
.
462
15.5.3
MEHRFACHBAEUME
.
464
15.5.4
VERBINDUNGSBAEUME
.
466
15.6
UNGERICHTETE
GRAPHEN:
MARKOVSCHE
ZUFALLSFELDER
.
467
15.7
LERNEN
DER
STRUKTUR
EINES
GRAPHENMODELLS
.
470
15.8
EINFLUSSDIAGRAMME
.
471
15.9
ANMERKUNGEN
.
472
15.10
UEBUNGEN
.
473
15.11
LITERATURANGABEN
.
476
16
HIDDEN-MARKOV-MODELLE
479
16.1
EINFUEHRUNG
.
479
16.2
DISKRETE
MARKOV-PROZESSE
.
480
16.3
HIDDEN-MARKOV-MODELLE
.
483
16.4
DREI
PROBLEMSTELLUNGEN
FUER
HMMS
.
485
16.5
EVALUIERUNGSPROBLEM
.
485
16.6
HERAUSFINDEN
DER
ZUSTANDSSEQUENZ
.
489
16.7
LERNEN
VON
MODELLPARAMETERN
.
491
INHALTSVERZEICHNIS
XI
16.8
KONTINUIERLICHE
BEOBACHTUNGEN
.
494
16.9
DAS
HMM
ALS
GRAPHENMODELL
.
495
16.10
MODELLAUSWAHL
IM
HMM
.
498
16.11
ANMERKUNGEN
.
501
16.12
UEBUNGEN
.
503
16.13
LITERATURANGABEN
.
505
17
BAYESSCHE
SCHAETZUNG
507
17.1
EINFUEHRUNG
.
507
17.2
PARAMETER
DISKRETER
VERTEILUNGEN
.
511
17.2.1
K
2-ZUSTAENDE:
DIRICHLET-VERTEILUNG
.
511
17.2.2
K
=
2-ZUSTAENDE:
BETAVERTEILUNG
.
513
17.3
PARAMETER
EINER
GAUSS-VERTEILUNG
.
513
17.3.1
UNIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
BEKANNTE
VARIANZ
.
513
17.3.2
UNIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
UNBEKANNTE
VARIANZ
.
516
17.3.3
MULTIVARIATER
FALL:
UNBEKANNTER
MITTELWERT,
UNBEKANNTE
KOVARIANZ
.
518
17.4
BAYESSCHE
SCHAETZUNG
DER
PARAMETER
EINER
FUNKTION
.
519
17.4.1
REGRESSION
.
519
17.4.2
REGRESSION
MIT
PRIOR
FUER
DIE
PRAEZISION
DES
RAUSCHENS
.
523
17.4.3
BASIS/KERNEL-FUNKTIONEN
.
525
17.4.4
BAYESSCHE
KLASSIFIKATION
.
'.
.
527
17.5
WAHL
EINES
PRIORS
.
529
17.6
BAYESSCHER
MODELLVERGLEICH
.
530
17.7
BAYESSCHE
SCHAETZUNG
FUER
EIN
MISCHUNGSMODELL
.
533
17.8
NICHTPARAMETRISCHE
BAYESSCHE
MODELLE
.
536
17.9
GAUSSSCHE
PROZESSE
.
537
17.10
DIRICHLET-PROZESSE
UND
CHINAESTAURANTS
.
541
17.11
LATENTE
DIRICHLET-ALLOKATION
.
542
17.12
BETAPROZESSE
UND
INDISCHE
BUEFFETS
.
545
17.13
ANMERKUNGEN
.
546
17.14
UEBUNGEN
.
547
17.15
LITERATURANGABEN
.
548
18
KOMBINATION
MEHRERER
LERNER
551
18.1
GRUNDPRINZIP
.
551
18.2
GENERIERUNG
DIVERSER
LERNER
.
552
18.3
METHODEN
DER
MODELLKOMBINATION
.
555
18.4
VOTING
.
556
18.5
FEHLERKORREKTURCODES
.
560
18.6
BAGGING
.
562
18.7
BOOSTING
.
563
18.8
NEUBETRACHTUNG
DES
MOE-MODELLS
.
566
18.9
GESCHACHTELTE
GENERALISIERUNG
.
568
18.10
FEINABSTIMMUNG
EINES
ENSEMBLES
.
569
XII
INHALTSVERZEICHNIS
18.10.1
WAHL
EINER
TEILMENGE
DES
ENSEMBLES
.
569
18.10.2
KONSTRUKTION
VON
METALERNERN
.
570
18.11
KASKADIERUNG
.
571
18.12
ANMERKUNGEN
.
573
18.13
UEBUNGEN
.
575
18.14
LITERATURANGABEN
.
577
19
BESTAERKENDES
LERNEN
581
19.1
EINFUEHRUNG
.
581
19.2
FAELLE
MIT
EINEM
ZUSTAND:
K-ARMIGER
BANDIT
.
583
19.3
ELEMENTE
DES
BESTAERKENDEN
LERNENS
.
584
19.4
MODELLBASIERTES
LERNEN
.
587
19.4.1
WERTITERATION
.
587
19.4.2
TAKTIKITERATION
.
588
19.5
LERNEN
MIT
TEMPORALER
DIFFERENZ
.
588
19.5.1
EXPLORATIONSSTRATEGIEN
.
589
19.5.2
DETERMINISTISCHE
BELOHNUNGEN
UND
AKTIONEN
.
590
19.5.3
NICHTDETERMINISTISCHE
BELOHNUNGEN
UND
AKTIONEN
.
591
19.5.4
EIGNUNGSPROTOKOLLE
.
594
19.6
GENERALISIERUNG
.
595
19.7
TEILWEISE
BEOBACHTBARE
ZUSTAENDE
.
598
19.7.1
SETTING
.
598
19.7.2
BEISPIEL:
DAS
TIGERPROBLEM
.
600
19.8
TIEFES
Q-LERNEN
.
605
19.9
TAKTIKGRADIENTEN
.
606
19.10
BACKGAMMON
UND
GO
.
609
19.11
ANMERKUNGEN
.
610
19.12
UEBUNGEN
.
611
19.13
LITERATURANGABEN
.
614
20
EXPERIMENTE
MIT
MASCHINELLEM
LERNEN
617
20.1
EINFUEHRUNG
.
617
20.2
FAKTOREN,
ANTWORT
UND
STRATEGIE
BEIM
EXPERIMENTIEREN
.
621
20.3
ANTWORTFLAECHENMETHODE
.
623
20.4
RANDOMISIEREN,
WIEDERHOLEN
UND
BLOCKEN
.
624
20.5
RICHTLINIEN
FUER
EXPERIMENTE
MIT
MASCHINELLEM
LERNEN
.
625
20.6
KREUZVALIDIERUNG
UND
RESAMPLING-METHODEN
.
629
20.6.1
K-FACHE
KREUZVALIDIERUNG
.
630
20.6.2
5
X
2-KREUZVALIDIERUNG
.
631
20.6.3
BOOTSTRAPPING
.
632
20.7
LEISTUNGSMESSUNG
FUER
KLASSIFIKATOREN
.
632
20.8
INTERVALLSCHAETZUNG
.
636
20.9
HYPOTHESENPRUEFUNG
.
639
20.10
LEISTUNGSBEWERTUNG
FUER
KLASSIFIKATIONSALGORITHMEN
.
641
20.10.1
BINOMIALTEST
.
642
20.10.2
TEST
DER
APPROXIMIERTEN
NORMALVERTEILUNG
.
643
20.10.3
T-TEST
.
643
INHALTSVERZEICHNIS
XIII
20.11
VERGLEICH
VON
ZWEI
KLASSIFIKATIONSALGORITHMEN
.
644
20.11.1
DER
MCNEMARSCHE
TEST
.
644
20.11.2
GEPAARTER
T-TEST
MIT
K-FACHER
KREUZVALIDIERUNG
.
644
20.11.3
GEPAARTER
T-TEST
MIT
5X2
KREUZVALIDIERUNG
.
645
20.11.4
GEPAARTER
E-TEST
MIT
5X2
KREUZVALIDIERUNG
.
646
20.12
VERGLEICH
MEHRERER
ALGORITHMEN:
VARIANZANALYSE
.
647
20.13
VERGLEICH
UEBER
MEHRERE
DATENSAETZE
.
651
20.13.1
VERGLEICH
ZWEIER
ALGORITHMEN
.
653
20.13.2
VERGLEICH
MEHRERER
ALGORITHMEN
.
655
20.14
MULTIVARIATE
TESTS
.
656
20.14.1
VERGLEICH
ZWEIER
ALGORITHMEN
.
656
20.14.2
VERGLEICH
MEHRERER
ALGORITHMEN
.
658
20.15
ANMERKUNGEN
.
659
20.16
UEBUNGEN
.
660
20.17
LITERATURANGABEN
.
662
A
WAHRSCHEINLICHKEIT
663
A.
L
ELEMENTE
DER
WAHRSCHEINLICHKEIT
.
663
A.
1.1
AXIOME
DER
WAHRSCHEINLICHKEIT
.
663
A.
L.
2
BEDINGTE
WAHRSCHEINLICHKEIT
.
664
A.
2
ZUFALLSVARIABLEN
.
665
A.
2.1
VERTEILUNGSFUNKTION
UND
WAHRSCHEINLICHKEITSDICHTE
.
665
A.
2.2
GEMEINSAME
VERTEILUNGSFUNKTION,
GEMEINSAME
DICHTE
.
666
A.2.3
BEDINGTE
VERTEILUNGEN
.
666
A.2.4
SATZ
VON
BAYES
.
666
A.2.5
ERWARTUNGSWERT
.
667
A.2.6
VARIANZ
.
668
A.2.7
DAS
SCHWACHE
GESETZ
GROSSER
ZAHLEN
.
669
A.3
SPEZIELLE
VERTEILUNGEN
VON
ZUFALLSVARIABLEN
.
669
A.3.1
BERNOULLI-VERTEILUNG
.
669
A.3.2
BINOMIALVERTEILUNG
.
670
A.3.3
MULTINOMIALE
VERTEILUNG
.
670
A.3.4
GLEICHVERTEILUNG
.
670
A.3.5
NORMALVERTEILUNG
(GAUSS-VERTEILUNG)
.
671
A.3.6
CHI-QUADRAT-VERTEILUNG
.
672
A.3.7
T-VERTEILUNG
.
673
A.3.8
F
VERTEILUNG
.
673
A.
4
LITERATURANGABEN
.
673
B
LINEARE
ALGEBRA
675
B.
L
VEKTOREN
.
675
B.
2
MATRIZEN
.
677
B.
3
AEHNLICHKEIT
ZWISCHEN
VEKTOREN
.
678
B.
4
QUADRATISCHE
MATRIZEN
.
679
B.
5
LINEARE
ABHAENGIGKEIT
UND
RANG
.
679
B.
6
DIE
INVERSE
MATRIX
.
680
B.7
POSITIV
DEFINITE
MATRIZEN
.
680
XIV
INHALTSVERZEICHNIS
B.8
SPUR
UND
DETERMINANTE
.
680
B.9
EIGENWERTE
UND
EIGENVEKTOREN
.
681
B.10
SPEKTRALZERLEGUNG
.
682
B.LL
SINGULAERWERTZERLEGUNG
.
682
B.
12
LITERATURANGABEN
.
683
C
OPTIMIERUNG
685
C.
L
EINFUEHRUNG
.
685
C.
2
LINEARE
OPTIMIERUNG
.
687
C.
3
KONVEXE
OPTIMIERUNG
.
687
C.
4
DUALITAET
.
688
C.
5
LOKALE
OPTIMIERUNG
.
690
C.
6
LITERATURANGABEN
.
691
INDEX
693 |
any_adam_object | 1 |
any_adam_object_boolean | 1 |
author | Alpaydın, Ethem 1966- |
author_GND | (DE-588)134261046 |
author_facet | Alpaydın, Ethem 1966- |
author_role | aut |
author_sort | Alpaydın, Ethem 1966- |
author_variant | e a ea |
building | Verbundindex |
bvnumber | BV047712869 |
classification_rvk | ST 302 ST 300 ST 304 |
ctrlnum | (OCoLC)1296296692 (DE-599)DNB1241345937 |
dewey-full | 006.31 |
dewey-hundreds | 000 - Computer science, information, general works |
dewey-ones | 006 - Special computer methods |
dewey-raw | 006.31 |
dewey-search | 006.31 |
dewey-sort | 16.31 |
dewey-tens | 000 - Computer science, information, general works |
discipline | Informatik |
discipline_str_mv | Informatik |
edition | 3., aktualisierte und erweiterte Auflage |
format | Book |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>03280nam a22006858c 4500</leader><controlfield tag="001">BV047712869</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20230216 </controlfield><controlfield tag="007">t</controlfield><controlfield tag="008">220126s2022 gw a||| |||| 00||| ger d</controlfield><datafield tag="015" ind1=" " ind2=" "><subfield code="a">21,N38</subfield><subfield code="2">dnb</subfield></datafield><datafield tag="016" ind1="7" ind2=" "><subfield code="a">1241345937</subfield><subfield code="2">DE-101</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783110740141</subfield><subfield code="c">Print</subfield><subfield code="9">978-3-11-074014-1</subfield></datafield><datafield tag="024" ind1="3" ind2=" "><subfield code="a">9783110740141</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1296296692</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)DNB1241345937</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">gw</subfield><subfield code="c">XA-DE-BE</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-860</subfield><subfield code="a">DE-355</subfield><subfield code="a">DE-1050</subfield><subfield code="a">DE-20</subfield><subfield code="a">DE-634</subfield><subfield code="a">DE-706</subfield><subfield code="a">DE-Aug4</subfield><subfield code="a">DE-19</subfield><subfield code="a">DE-1049</subfield><subfield code="a">DE-1102</subfield><subfield code="a">DE-29T</subfield><subfield code="a">DE-12</subfield><subfield code="a">DE-1051</subfield><subfield code="a">DE-11</subfield><subfield code="a">DE-703</subfield><subfield code="a">DE-83</subfield><subfield code="a">DE-739</subfield><subfield code="a">DE-523</subfield><subfield code="a">DE-2075</subfield><subfield code="a">DE-B768</subfield></datafield><datafield tag="082" ind1="0" ind2=" "><subfield code="a">006.31</subfield><subfield code="2">23/ger</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 302</subfield><subfield code="0">(DE-625)143652:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 300</subfield><subfield code="0">(DE-625)143650:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 304</subfield><subfield code="0">(DE-625)143653:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="8">1\p</subfield><subfield code="a">004</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">68T05</subfield><subfield code="2">msc</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">68T10</subfield><subfield code="2">msc</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Alpaydın, Ethem</subfield><subfield code="d">1966-</subfield><subfield code="0">(DE-588)134261046</subfield><subfield code="4">aut</subfield></datafield><datafield tag="240" ind1="1" ind2="0"><subfield code="a">Introduction to machine learning</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Maschinelles Lernen</subfield><subfield code="c">Ethem Alpaydin</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">3., aktualisierte und erweiterte Auflage</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Berlin ; Boston</subfield><subfield code="b">De Gruyter Oldenbourg</subfield><subfield code="c">[2022]</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">© 2022</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">XX, 702 Seiten</subfield><subfield code="b">Illustrationen, Diagramme</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="490" ind1="0" ind2=" "><subfield code="a">De Gruyter Studium</subfield></datafield><datafield tag="500" ind1=" " ind2=" "><subfield code="a">"Autorisierte Übersetzung der 3. englischsprachigen Ausgabe, die bei The MIT Press, Massachusetts Institute of Technology, unter dem Titel: 'Introduction to Machine Learning' erschienen ist."</subfield></datafield><datafield tag="520" ind1="3" ind2=" "><subfield code="a">Maschinelles Lernen ist die künstliche Generierung von Wissen aus Erfahrung. Dieses Buch diskutiert Methoden aus den Bereichen Statistik, Mustererkennung und kombiniert die unterschiedlichen Ansätze, um effiziente Lösungen zu finden. Diese Auflage bietet ein neues Kapitel über Deep Learning und erweitert die Inhalte über mehrlagige Perzeptrone und bestärkendes Lernen. Eine neue Sektion über erzeugende gegnerische Netzwerke ist ebenfalls dabei.</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Maschinelles Lernen</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Künstliche Intelligenz</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Deep Learning</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Neuronale Netze</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Machine learning</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">artificial intelligence</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">deep learning</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">neuronal networks</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">TB: Textbook</subfield></datafield><datafield tag="653" ind1=" " ind2=" "><subfield code="a">Machine learning; artificial intelligence; deep learning; neuronal networks</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Maschinelles Lernen</subfield><subfield code="0">(DE-588)4193754-5</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="710" ind1="2" ind2=" "><subfield code="a">De Gruyter Oldenbourg</subfield><subfield code="0">(DE-588)1065492103</subfield><subfield code="4">pbl</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, EPUB</subfield><subfield code="z">978-3-11-074027-1</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe, PDF</subfield><subfield code="z">978-3-11-074019-6</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">X:MVB</subfield><subfield code="u">https://www.degruyter.com/isbn/9783110740141</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">DNB Datenaustausch</subfield><subfield code="q">application/pdf</subfield><subfield code="u">http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=033096598&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-033096598</subfield></datafield><datafield tag="883" ind1="1" ind2=" "><subfield code="8">1\p</subfield><subfield code="a">vlb</subfield><subfield code="d">20210917</subfield><subfield code="q">DE-101</subfield><subfield code="u">https://d-nb.info/provenance/plan#vlb</subfield></datafield></record></collection> |
id | DE-604.BV047712869 |
illustrated | Illustrated |
index_date | 2024-07-03T19:01:09Z |
indexdate | 2024-07-10T09:19:52Z |
institution | BVB |
institution_GND | (DE-588)1065492103 |
isbn | 9783110740141 |
language | German |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-033096598 |
oclc_num | 1296296692 |
open_access_boolean | |
owner | DE-860 DE-355 DE-BY-UBR DE-1050 DE-20 DE-634 DE-706 DE-Aug4 DE-19 DE-BY-UBM DE-1049 DE-1102 DE-29T DE-12 DE-1051 DE-11 DE-703 DE-83 DE-739 DE-523 DE-2075 DE-B768 |
owner_facet | DE-860 DE-355 DE-BY-UBR DE-1050 DE-20 DE-634 DE-706 DE-Aug4 DE-19 DE-BY-UBM DE-1049 DE-1102 DE-29T DE-12 DE-1051 DE-11 DE-703 DE-83 DE-739 DE-523 DE-2075 DE-B768 |
physical | XX, 702 Seiten Illustrationen, Diagramme |
publishDate | 2022 |
publishDateSearch | 2022 |
publishDateSort | 2022 |
publisher | De Gruyter Oldenbourg |
record_format | marc |
series2 | De Gruyter Studium |
spelling | Alpaydın, Ethem 1966- (DE-588)134261046 aut Introduction to machine learning Maschinelles Lernen Ethem Alpaydin 3., aktualisierte und erweiterte Auflage Berlin ; Boston De Gruyter Oldenbourg [2022] © 2022 XX, 702 Seiten Illustrationen, Diagramme txt rdacontent n rdamedia nc rdacarrier De Gruyter Studium "Autorisierte Übersetzung der 3. englischsprachigen Ausgabe, die bei The MIT Press, Massachusetts Institute of Technology, unter dem Titel: 'Introduction to Machine Learning' erschienen ist." Maschinelles Lernen ist die künstliche Generierung von Wissen aus Erfahrung. Dieses Buch diskutiert Methoden aus den Bereichen Statistik, Mustererkennung und kombiniert die unterschiedlichen Ansätze, um effiziente Lösungen zu finden. Diese Auflage bietet ein neues Kapitel über Deep Learning und erweitert die Inhalte über mehrlagige Perzeptrone und bestärkendes Lernen. Eine neue Sektion über erzeugende gegnerische Netzwerke ist ebenfalls dabei. Maschinelles Lernen (DE-588)4193754-5 gnd rswk-swf Maschinelles Lernen Künstliche Intelligenz Deep Learning Neuronale Netze Machine learning artificial intelligence deep learning neuronal networks TB: Textbook Machine learning; artificial intelligence; deep learning; neuronal networks Maschinelles Lernen (DE-588)4193754-5 s DE-604 De Gruyter Oldenbourg (DE-588)1065492103 pbl Erscheint auch als Online-Ausgabe, EPUB 978-3-11-074027-1 Erscheint auch als Online-Ausgabe, PDF 978-3-11-074019-6 X:MVB https://www.degruyter.com/isbn/9783110740141 DNB Datenaustausch application/pdf http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=033096598&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA Inhaltsverzeichnis 1\p vlb 20210917 DE-101 https://d-nb.info/provenance/plan#vlb |
spellingShingle | Alpaydın, Ethem 1966- Maschinelles Lernen Maschinelles Lernen (DE-588)4193754-5 gnd |
subject_GND | (DE-588)4193754-5 |
title | Maschinelles Lernen |
title_alt | Introduction to machine learning |
title_auth | Maschinelles Lernen |
title_exact_search | Maschinelles Lernen |
title_exact_search_txtP | Maschinelles Lernen |
title_full | Maschinelles Lernen Ethem Alpaydin |
title_fullStr | Maschinelles Lernen Ethem Alpaydin |
title_full_unstemmed | Maschinelles Lernen Ethem Alpaydin |
title_short | Maschinelles Lernen |
title_sort | maschinelles lernen |
topic | Maschinelles Lernen (DE-588)4193754-5 gnd |
topic_facet | Maschinelles Lernen |
url | https://www.degruyter.com/isbn/9783110740141 http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=033096598&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |
work_keys_str_mv | AT alpaydınethem introductiontomachinelearning AT degruyteroldenbourg introductiontomachinelearning AT alpaydınethem maschinelleslernen AT degruyteroldenbourg maschinelleslernen |