Künstliche Intelligenz: was steckt hinter der Technologie der Zukunft?
Gespeichert in:
Hauptverfasser: | , |
---|---|
Format: | Buch |
Sprache: | German |
Veröffentlicht: |
Wiesbaden
Springer Vieweg
[2020]
|
Schlagworte: | |
Online-Zugang: | Inhaltsverzeichnis Inhaltsverzeichnis |
Beschreibung: | XXII, 496 Seiten Illustrationen, Diagramme 24 cm |
ISBN: | 9783658302108 3658302100 |
Internformat
MARC
LEADER | 00000nam a2200000zc 4500 | ||
---|---|---|---|
001 | BV047312452 | ||
003 | DE-604 | ||
005 | 20211104 | ||
007 | t | ||
008 | 210607s2020 a||| |||| 00||| ger d | ||
016 | 7 | |a 1211194841 |2 DE-101 | |
020 | |a 9783658302108 |c Broschur : EUR 34.99 (DE), EUR 35.97 (AT), circa CHF 39.00 (freier Preis) |9 978-3-658-30210-8 | ||
020 | |a 3658302100 |9 3-658-30210-0 | ||
035 | |a (OCoLC)1246281007 | ||
035 | |a (DE-599)BVBBV047312452 | ||
040 | |a DE-604 |b ger |e rda | ||
041 | 0 | |a ger | |
049 | |a DE-1029 |a DE-860 |a DE-210 |a DE-12 |a DE-898 | ||
082 | 0 | |a 006.3 |2 23/ger | |
084 | |a ST 300 |0 (DE-625)143650: |2 rvk | ||
084 | |a 004 |2 23sdnb | ||
100 | 1 | |a Paass, Gerhard |d 1949- |e Verfasser |0 (DE-588)170208907 |4 aut | |
245 | 1 | 0 | |a Künstliche Intelligenz |b was steckt hinter der Technologie der Zukunft? |c Gerhard Paaß, Dirk Hecker |
264 | 1 | |a Wiesbaden |b Springer Vieweg |c [2020] | |
264 | 4 | |c © 2020 | |
300 | |a XXII, 496 Seiten |b Illustrationen, Diagramme |c 24 cm | ||
336 | |b txt |2 rdacontent | ||
337 | |b n |2 rdamedia | ||
338 | |b nc |2 rdacarrier | ||
650 | 4 | |a Artificial Intelligence | |
650 | 4 | |a Artificial intelligence | |
650 | 0 | 7 | |a Künstliche Intelligenz |0 (DE-588)4033447-8 |2 gnd |9 rswk-swf |
689 | 0 | 0 | |a Künstliche Intelligenz |0 (DE-588)4033447-8 |D s |
689 | 0 | |5 DE-604 | |
700 | 1 | |a Hecker, Dirk |d 1976- |e Verfasser |0 (DE-588)1236533577 |4 aut | |
776 | 0 | 8 | |i Erscheint auch als |n Online-Ausgabe |z 978-3-658-30211-5 |
856 | 4 | 2 | |q application/pdf |u http://deposit.dnb.de/cgi-bin/dokserv?id=7691840d87624345bee61e97ae456378&prov=M&dok_var=1&dok_ext=htm |3 Inhaltsverzeichnis |
856 | 4 | 2 | |m DNB Datenaustausch |q application/pdf |u http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032715358&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |3 Inhaltsverzeichnis |
999 | |a oai:aleph.bib-bvb.de:BVB01-032715358 |
Datensatz im Suchindex
_version_ | 1804182503084261376 |
---|---|
adam_text | INHALTSVERZEICHNIS
1
WAS
IST
INTELLIGENT
AN
KUENSTLICHER
INTELLIGENZ?
.....................................................
1
1.1
MENSCHLICHE
INTELLIGENZ
HAT
VIELE
DIMENSIONEN
...........................................
1
1.2
WORAN
ERKENNT
MAN
KUENSTLICHE
INTELLIGENZ
...................................................
2
1.3
COMPUTER
LERNEN
...............................................................................................
3
1.4
TIEFE
NEURONALE
NETZE
KOENNEN
OBJEKTE
ERKENNEN
........................................
6
1.5
WIE
KANN
MAN
KUENSTLICHE
INTELLIGENZ
VERSTEHEN?
........................................
8
1.6
DIE
GESCHICHTE
DER
KUENSTLICHEN
INTELLIGENZ
...................................................
10
1.7
ZUSAMMENFASSUNG
...........................................................................................
12
LITERATUR
......................................................................................................................
13
2
WAS
KANN
KUENSTLICHE
INTELLIGENZ?
...........................................................................
15
2.1
OBJEKTERKENNUNG
IN
BILDERN
............................................................................
15
2.1.1
MEDIZINISCHE
DIAGNOSE
......................................................................
17
2.1.2
VORHERSAGE
DER
3D-STRUKTUR
VON
PROTEINEN
......................................
18
2.2
SPRACHERKENNUNG
.............................................................................................
19
2.3
MASCHINELLE
UEBERSETZUNG
................................................................................
20
2.4
DIE
BEANTWORTUNG
NATUERLICHSPRACHIGER
FRAGEN
............................................
22
2.5
DIALOGE
UND
PERSOENLICHE
ASSISTENTEN
.............................................................
25
2.6
BRETTSPIELE
........................................................................................................
27
2.6.1
DAS
STRATEGIESPIEL
GO
..........................................................................
28
2.6.2
KUENSTLICHE
INTELLIGENZ
GEWINNT
GEGEN
FUENF
POKER-PROFESSIONALS
...
29
2.7
VIDEOSPIELE
........................................................................................................
29
2.7.1
ATARI
2600
SPIELEKONSOLE
....................................................................
30
2.7.2
CAPTURE
THE
FLAG
..................................................................................
30
2.7.3
DAS
ECHTZEIT-STRATEGIESPIEL
DOTA2
.....................................................
32
2.8
SELBSTFAHRENDE
AUTOS
.......................................................................................
33
2.8.1
WEITERENTWICKLUNG
DER
SELBSTFAHRENDEN
AUTOS
..................................
34
2.9
DER
COMPUTER
ALS
KREATIVES
MEDIUM
.............................................................
35
2.9.1
NEUE
BILDER
KOMPONIEREN
..................................................................
36
2.9.2
GESCHICHTEN
ERFINDEN
..........................................................................
38
2.10
ALLGEMEINE
KUENSTLICHE
INTELLIGENZ
...............................................................
39
XII
INHALTSVERZEICHNIS
2.11
ZUSAMMENFASSUNG
..........................................................................................
40
LITERATUR
.......................................................................................................................
40
3
EINIGE
GRUNDBEGRIFFE
DES
MASCHINELLEN
LERNENS
.................................................
45
3.1
DIE
WICHTIGSTEN
ARTEN
DES
MASCHINELLEN
LERNENS
........................................
45
3.1.1
UEBERWACHTES
LERNEN
..........................................................................
45
3.1.2
UNUEBERWACHTES
LERNEN
........................................
46
3.1.3
BESTAERKUNGSLERNEN
...............................................................................
47
3.2
PROGRAMMIEREN
UND
LERNEN
............................................................................
48
3.2.1
MODELLE
TRANSFORMIEREN
EINE
EINGABE
IN
EINE
AUSGABE
...................
48
3.2.2
ALGORITHMEN
ARBEITEN
SCHRITTWEISE
EINE
LISTE
VON
ANWEISUNGEN
AB
...................................................................................
50
3.2.3
EIN
LERNPROBLEM:
DIE
ERKENNUNG
VON
ZIFFERN
..................................
50
3.2.4
VEKTOREN,
MATRIZEN
UND
TENSOREN
.....................................................
51
3.3
LERNEN
EINES
ZUSAMMENHANGS
........................................................................
53
3.3.1
SCHEMA
FUER
DAS
LERNEN:
MODELL,
VERLUSTFUNKTION
UND
OPTIMIERUNG
.........................................................................................
53
3.3.2
DETAILLIERTER
ABLAUF
DES
LERNENS
.......................................................
53
3.4
EIN
SIMPLES
MODELL:
DIE
LOGISTISCHE
REGRESSION
..........................................
56
3.4.1
BERECHNUNG
EINES
PUNKTWERTES
.........................................................
56
3.4.2
DIE
GLEICHZEITIGE
BERECHNUNG
ALLER
PUNKTWERTE
................................
58
3.4.3
LINEARE
TRANSFORMATION
......................................................................
59
3.4.4
DIE
SOFTMAXFUNKTION
ERZEUGT
EINEN
WAHRSCHEINLICHKEITSVEKTOR
...
60
3.4.5
DAS
LOGISTISCHE
REGRESSIONSMODELL
...................................................
61
3.5
DIE
GUETE
DES
MODELLS
.......................................................................................
62
3.5.1
MASSSTAB
FUER
DIE
MODELLGUETE:
DIE
WAHRSCHEINLICHKEIT
DER
KOMPLETTEN
TRAININGSDATEN
..................................................................
62
3.5.2
WIE
MISST
MAN
DEN
LERNERFOLG:
DIE
VERLUSTFUNKTION
.......................
63
3.5.3
VERDEUTLICHUNG
FUER
ZWEI
KLASSEN
UND
ZWEI
EINGABEMERKMALE
....
65
3.6
OPTIMIERUNG,
ODER
WIE
FINDET
MAN
DIE
BESTEN
PARAMETERWERTE
....................
66
3.6.1
DER
GRADIENT
ZEIGT
IN
RICHTUNG
DES
STEILSTEN
ANSTIEGS
.....................
67
3.6.2
DER
GRADIENT
FUER
MEHRERE
DIMENSIONEN
..........................................
67
3.6.3
DER
GRADIENT
DER
VERLUSTFUNKTION
.......................................................
69
3.6.4
SCHRITTWEISE
MINIMIERUNG
DURCH
GRADIENTENABSTIEG
.......................
71
3.6.5
DIE
LERNRATE
BESTIMMT
DIE
LAENGE
EINES
OPTIMIERUNGSCHRITTS
.........
72
3.6.6
GRADIENTENABSTIEG
MIT
MINIBATCH
BENOETIGT
VIEL
WENIGER
RECHENAUFWAND
...................................................................................
72
3.7
UEBERPRUEFUNG
DES
LERNERFOLGES
........................................................................
74
3.7.1
ANWENDUNG
DES
MODELLS
AUF
NEUE
DATEN
.........................................
74
3.7.2
UEBERPRUEFUNG
DER
GENAUIGKEIT
AUF
DER
TESTMENGE
............................
75
3.7.3
PRAEZISION
UND
RECALL
FUER
KLASSEN
UNTERSCHIEDLICHEN
UMFANGS
....
76
3.8
ZUSAMMENFASSUNG
...........................................................................................
77
LITERATUR
.......................................................................................................................
78
INHALTSVERZEICHNIS
XIII
4
TIEFES
LERNEN
KANN
KOMPLEXE
ZUSAMMENHAENGE
ERFASSEN
.................................
79
4.1
BEIM
XOR-PROBLEM
GIBT
ES
INTERAKTIONEN
ZWISCHEN
DEN
MERKMALEN
........
79
4.2
NICHTLINEARITAETEN
ERZEUGEN
GEBOGENE
TRENNFLAECHEN
......................................
82
4.3
TIEFE
NEURONALE
NETZE
SIND
STAPEL
VON
NICHTLINEAREN
SCHICHTEN
.................
87
4.3.1
VEKTOREN
UND
TENSOREN
REPRAESENTIEREN
DIE
UMGEFORMTEN
INHALTE.
...
88
4.4
TRAINING
VON
TNN
MIT
BACKPROPAGATION-VERFAHREN
....................................
90
4.5
TOOLKITS
ERLEICHTERN
DIE
FORMULIERUNG
UND
DAS
TRAINING
VON
TNN
.............
93
4.5.1
PARALLELE
BERECHNUNGEN
BESCHLEUNIGEN
DAS
TRAINING
VON
TNN.
...
93
4.5.2
TOOLKITS
ERLEICHTERN
DIE
ARBEIT
MIT
TNN
..........................................
94
4.6
WIE
MACHE
ICH
DAS
NETZ
BESSER?
....................................................................
96
4.6.1
ITERATIVE
KONSTRUKTION
EINES
GUTEN
MODELLS
MIT
DER
VALIDATIONSMENGE
................................................................................
96
4.6.2
UNTERANPASSUNG
UND
UEBERANPASSUNG
FUEHREN
ZU
HOEHEREN
FEHLEM
...
97
4.6.3
EIN
BEISPIEL
FUER
UEBERANPASSUNG
.........................................................
98
4.6.4
REGULARISIERUNGSVERFAHREN
REDUZIEREN
DEN
GENERALISIERUNGSFEHLER
........................................................................
100
4.7
UNTERSCHIEDLICHE
ANWENDUNGEN
ERFORDERN
NETZE
UNTERSCHIEDLICHEN
AUFBAUS
............................................................................................................
103
4.7.1
MEHRSCHICHTIGES
FEEDFORWARD-NETZ
...................................................
104
4.7.2
CONVOLUTIONAL
NEURAL
NETWORK
(CNN)
............................................
105
4.7.3
REKURRENTES
NEURONALES
NETZ
(RNN)
................................................
105
4.7.4
BESTAERKUNGSLEMEN-NETZ
......................................................................
105
4.7.5
GENERATIVES
ADVERSARIALES
NETZ
(GAN)
............................................
106
4.7.6
AUTOENCODER-NETZE
ERZEUGEN
EINE
KOMPRIMIERTE
DARSTELLUNG
.........
106
4.7.7
ARCHITEKTUREN
FUER
BESTIMMTE
MEDIEN
UND
ANWENDUNGSBEREICHE.
...
106
4.8
DIE
KONSTRUKTION
EINES
TIEFEN
NEURONALEN
NETZES
IST
EIN
SUCHPROZESS
....
108
4.8.1
AUSWAHL
DER
ANZAHL
DER
PARAMETER
UND
DER
HYPERPARAMETER
.........
108
4.8.2
DER
STANDARD-PROZESS
DER
MODELLSUCHE
FUEHRT
ZU
BESSEREN
MODELLEN
.............................................................................................
109
4.8.3
AUTOMATISCHE
SUCHE
VON
MODELLARCHITEKTUREN
UND
HYPERPARAMETERN
...................................................................................
111
4.9
BIOLOGISCHE
NEURONALE
NETZE
FUNKTIONIEREN
ANDERS
......................................
114
4.10
ZUSAMMENFASSUNG
UND
TRENDS
........................................................................
116
LITERATUR
.........................................................................................................................
117
5
BILDERKENNUNG
MIT
TIEFEN
NEURONALEN
NETZEN
.......................................................
119
5.1
WAS
BEDEUTET
EIGENTLICH
BILDERKENNUNG?
.......................................................
119
5.1.1
ARTEN
DER
OBJEKTERKENNUNG
IN
BILDERN
............................................
119
5.1.2
INSPIRATIONEN
AUS
DER
BIOLOGIE
..............................................................
120
5.1.3
WARUM
IST
EINE
BILDERKENNUNG
SCHWIERIG?
......................................
123
5.2
DIE
BESTANDTEILE
EINES
CONVOLUTIONAL
NEURAL
NETWORKS
..............................
123
5.2.1
DER
KERNEL
EINER
CONVOLUTION-SCHICHT
ANALYSIERT
KLEINE
BILDBEREICHE
............................................................................
123
XIV
INHALTSVERZEICHNIS
5.2.2
CONVOLUTION-SCHICHT
MIT
VIELEN
KERNELN
REAGIERT
AUF
VIELE
MERKMALE
.............................................................................................
126
5.2.3
DIE
POOLING-SCHICHT
WAEHLT
DIE
WICHTIGSTEN
MERKMALE
AUS
.............
127
5.3
EIN
EINFACHES
CONVOLUTIONAL
NEURAL
NETWORK
FUER
DIE
ZIFFERNERKENNUNG.
..
128
5.4
DER
IMAGENET
WETTBEWERB
BEFEUERT
DIE
METHODENENTWICKLUNG
....................
130
5.5
FORTSCHRITTLICHE
CONVOLUTIONAL
NEURAL
NETWORKS
.............................................
132
5.5.1
ALEXNET
NUTZT
ERFOLGREICH
GPUS
ZUM
TRAINING
...................................
132
5.5.2
RESNET
ERLEICHTERT
DIE
OPTIMIERUNG
DURCH
UMGEHUNGSPFADE
.........
133
5.5.3
DENSENET
VERWENDET
ZUSAETZLICHE
UMGEHUNGSPFADE
..........................
136
5.5.4
RESNEXT
NUTZT
TRANSFORMIERTE
BILDER
ZUM
TRAINING
............................
137
5.6
ANALYSE
DER
CNN
ERGEBNISSE
........................................................................
138
5.6.1
EINZELNE
KERNEL
REAGIEREN
AUF
MERKMALE
UNTERSCHIEDLICHER
ART
UND
GROESSE
.....................................................................................
138
5.6.2
AEHNLICHEN
BILDERN
ENTSPRECHEN
BENACHBARTE
VERDECKTE
VEKTOREN
...
139
5.7
TRANSFERLERNEN
REDUZIERT
DEN
BEDARF
AN
TRAININGSDATEN
...................................
140
5.8
LOKALISIERUNG
EINES
OBJEKTES
IM
BILD
...........................................................
143
5.8.1
OBJEKTLOKALISIERUNG
DURCH
RECHTECKE
.................................................
143
5.8.2
BILDSEGMENTIERUNG
ZUR
PIXELGENAUE
BESTIMMUNG
VON
KLASSEN.
..
.
145
5.8.3
MAX-UNPOOLING
BELEGT
EIN
VERGROESSERTES
FELD
MIT
WERTEN
...............
146
5.8.4
DAS
U-NET
ERKENNT
ZUNAECHST
OBJEKTE
UND
FINDET
DANN
DIE
ZUGEHOERIGEN
PIXEL
.................................................................................
147
5.9
DIE
3D-REKONSTRUKTION
EINER
SZENE
..............................................................
149
5.10
GESICHTER
KOENNEN
MIT
SEHR
HOHER
GENAUIGKEIT
ZUGEORDNET
WERDEN
.............
150
5.11
ABSCHAETZUNG
DER
GENAUIGKEIT
VON
MODELLPROGNOSEN
.....................................
152
5.11.1
UNSICHERHEIT
DER
MODELLPROGNOSEN
...................................................
153
5.11.2
DER
BOOTSTRAP
ERZEUGT
EINE
MENGE
PLAUSIBLER
MODELLE
......................
155
5.11.3
BAYESSCHE
NEURONALE
NETZE
................................................................
155
5.12
ZUVERLAESSIGKEIT
DER
BILDERKENNUNG
..................................................................
157
5.12.1
DER
EINFLUSS
VON
BILDVERZERRUNGEN
...................................................
157
5.12.2
GEZIELTE
KONSTRUKTION
VON
FALSCHKLASSIFIZIERTEN
BILDERN
....................
160
5.13
ZUSAMMENFASSUNG
UND
TRENDS
...........................................................................
163
LITERATUR
.......................................................................................................................
164
6
ERFASSUNG
DER
BEDEUTUNG
VON
GESCHRIEBENEM
TEXT
.............................................
167
6.1
WIE
KANN
MAN
DIE
BEDEUTUNG
VON
WOERTERN
DURCH
VEKTOREN
DARSTELLEN?
...
170
6.1.1
DAS
KONZEPT
DER
EMBEDDINGVEKTOREN
.................................................
172
6.1.2
BERECHNUNG
VON
EMBEDDINGVEKTOREN
MIT
WORD2VEC
........................
173
6.1.3
DIE
APPROXIMATION
DER
SOFTMAXFUNKTION
REDUZIERT
DEN
RECHENAUFWAND
......................................................................................
175
6.2
EIGENSCHAFTEN
DER
EMBEDDING-VEKTOREN
..........................................................
176
6.2.1
NAECHSTE
NACHBARN
VON
EMBEDDINGS
HABEN
AEHNLICHE
BEDEUTUNGEN
...
176
INHALTSVERZEICHNIS
XV
6.2.2
DIFFERENZEN
ZWISCHEN
EMBEDDINGS
LASSEN
SICH
ALS
RELATIONEN
INTERPRETIEREN
.........................................................................................
178
6.2.3
FASTTEXT
NUTZT
N-GRAMME
VON
BUCHSTABEN
.........................................
180
6.2.4
STARSPACE
ERZEUGEN
EMBEDDINGS
FUER
ANDERE
OBJEKTE
........................
182
6.3
REKURRENTE
NEURONALE
NETZE
ZUR
ERFASSUNG
VON
SEQUENZEN
..........................
183
6.3.1
REKURRENTE
NEURONALE
NETZE
ALS
SPRACHMODELLE
................................
184
6.3.2
TRAINING
DER
REKURRENTEN
NEURONALEN
NETZE
.........................................
186
6.3.3
DIE
EIGENSCHAFTEN
DER
GRADIENTEN
BEIM
RNN
....................................
187
6.4
DAS
LONG-SHORT
TERM
MEMORY
(LSTM)
IST
EIN
LANGZEITSPEICHER
.............
189
6.4.1
GATTER
STEUERN
DIE
SPEICHERVORGAENGE
...................................................
189
6.4.2
LSTMS
MIT
MEHREREN
SCHICHTEN
.........................................................
192
6.4.3
ANWENDUNGEN
DES
LSTM
....................................................................
193
6.4.4
BIDIREKTIONALE
LSTM-NETZE
ZUR
PROGNOSE
VON
WORTEIGENSCHAFTEN
.................................................................................
195
6.4.5
VISUALISIERUNG
VON
REKURRENTEN
NEURONALEN
NETZEN
............................
197
6.5
UEBERSETZUNG:
TRANSFORMATION
EINER
SEQUENZ
IN
EINE
ANDERE
SEQUENZ
..........
198
6.5.1
SEQUENCE-TO-SEQUENCE
NETZE
ZUR
UEBERSETZUNG
..................................
199
6.5.2
ATTENTION:
VERBESSERUNG
DER
UEBERSETZUNG
DURCH
RUECKGRIFF
AUF
DIE
EINGABEWORTE
............................................................................
203
6.5.3
UEBERSETZUNGSERGEBNISSE
MIT
ATTENTION
.................................................
205
6.6
TRANSFORMER-UEBERSETZUNGSMODELLE
.................................................................
208
6.6.1
SELBSTATTENTION
ANALYSIERT
DIE
ABHAENGIGKEITEN
DER
WORTE
EINES
SATZES
...........................................................................................209
6.6.2
KREUZATTENTION
ANALYSIERT
DIE
ABHAENGIGKEITEN
ZWISCHEN
EIN
UND
AUSGABE
..................................................................................
210
6.6.3
TRANSFORMER-ARCHITEKTUR
NUTZT
SELBST
UND
KREUZATTENTION
.............
212
6.6.4
TRAINING
DES
TRANSFORMERS
FUER
DIE
SPRACHUEBERSETZUNG
.....................
214
6.6.5
BYTE-PAIR
KODIERUNG
ZUR
REDUKTION
DES
VOKABULARS
UND
ZUR
REPRAESENTATION
UNBEKANNTER
WOERTER
.....................................................
216
6.6.6
ERGEBNISSE
FUER
DAS
TRANSFORMER-MODELL
..............................................
216
6.6.7
SIMULTANE
UEBERSETZUNG
ERFORDERT
WARTEZEITEN
....................................
219
6.7
BERT:
SPRACHMODELLE
FUER
DIE
REPRAESENTATION
VON
BEDEUTUNGEN
...............
221
6.7.1
BERT-ARCHITEKTUR
................................................................................
221
6.7.2
BERT-PROGNOSEAUFGABEN
ZUM
UNUEBERWACHTEN
VORTRAINING
.............
222
6.8
TRANSFERLERNEN
MIT
UMFANGREICHEN
BERT-MODELLEN
DER
SPRACHE
...............
224
6.8.1
SEMANTISCHE
KLASSIFIKATIONSAUFGABEN
.................................................
224
6.8.2
DIE
BEANTWORTUNG
VON
FRAGEN
.............................................................
226
6.8.3
EXTRAKTION
VON
WELTWISSEN
.................................................................
228
6.8.4
TRANSFERLERNEN
FUER
UEBERSETZUNGSMODELLE
............................................
231
6.8.5
ANWENDUNG
VON
BERT
IN
DER
WEB-SUCHE
..........................................
233
6.9
DIE
BESCHREIBUNG
VON
BILDERN
DURCH
TEXT
........................................................
234
6.10
DIE
ERKLAERUNG
DER
PROGNOSEN
VON
TNN
............................................................237
6.10.1
ERKLAERUNGEN
SIND
NOTWENDIG
..............................................................237
XVI
INHALTSVERZEICHNIS
6.10.2
GLOBALE
ERKLAERUNGSMODELLE
..................................................................238
6.10.3
LOKALE
ERKLAERUNGSMODELLE
....................................................................
239
6.11
ZUVERLAESSIGKEIT
DER
TEXTERKENNUNG
..................................................................
241
6.11.1
ROBUSTHEIT
BEI
TEXTFEHLEM
UND
AENDERUNG
DER
DOMAENE
......................
241
6.11.2
ANFAELLIGKEIT
FUER
BOESWILLIGE
AENDERUNG
VON
EINGABEN
........................
242
6.12
ZUSAMMENFASSUNG
UND
TRENDS
...........................................................................
243
LITERATUR
.........................................................................................................................245
7
GESPROCHENE
SPRACHE
VERSTEHEN
................................................................................
249
7.1
SPRACHERKENNUNG
................................................................................................249
7.1.1
WARUM
IST
SPRACHERKENNUNG
SCHWIERIG?
.............................................249
7.1.2
WIE
KANN
MAN
SPRACHSIGNALE
IM
COMPUTER
DARSTELLEN?
...................
250
7.1.3
MESSUNG
DER
GENAUIGKEIT
DER
SPRACHERKENNUNG
................................
253
7.1.4
DIE
GESCHICHTE
DER
SPRACHERKENNUNG
.................................................
254
7.2
TIEFE
SEQUENCE-TO-SEQUENCE-MODELLE
..............................................................
255
7.2.1
LISTEN-ATTEND-SPELL
ERZEUGT
EINE
FOLGE
VON
BUCHSTABEN
...................
256
7.2.2
SEQUENCE-TO-SEQUENCE
MODELL
FUER
WORTE
UND
SILBEN
........................259
7.3
CONVOLUTIONAL
NEURAL
NETWORK
ZUR
SPRACHERKENNUNG
....................................259
7.3.1
CNN
MODELLE
.........................................................................................
260
7.3.2
KOMBINIERTE
MODELLE
.............................................................................
263
7.4
LIPPENLESEN
........................................................................................................
264
7.5
ERZEUGUNG
VON
GESPROCHENER
SPRACHE
AUS
TEXT
...............................................
265
7.5.1
WAVENET
MIT
GEDEHNTEN
CONVOLUTION-SCHICHTEN
FUER
LANGE
ABHAENGIGKEITEN
.....................................................................................
266
7.5.2
DAS
TACOTRON
ERZEUGT
EIN
SPEKTROGRAMM
.............................................
268
7.6
DIALOGE
UND
SPRACHASSISTENTEN
........................................................................
270
7.7
GUNROCK:
EIN
ERWEITERTER
ALEXA-SPRACHASSISTENT
.............................................
272
7.7.1
SPRACHVERSTEHEN
.....................................................................................
273
7.7.2
DIALOGMANAGEMENT
...............................................................................274
7.7.3
ANTWORTERZEUGUNG
.................................................................................
275
7.7.4
ERPROBUNG
DES
SPRACHASSISTENTEN
..........................................................
275
7.8
ANALYSE
DER
INHALTE
VON
VIDEOS
........................................................................
276
7.8.1
AUFGABEN
DER
VIDEOINHALTSANALYSE
.......................................................
277
7.8.2
TRAININGSDATEN
ZUR
KLASSIFIKATION
VON
VIDEOS
NACH
AKTIVITAETEN
...
277
7.8.3
CONVOLUTION-SCHICHTEN
ZUR
ERKENNUNG
VON
VIDEOINHALTEN
.............
278
7.8.4
GENAUIGKEIT
DER
VIDEOKLASSIFIKATION
...................................................
281
7.8.5
DIE
ERZEUGUNG
VON
UNTERTITELN
FUER
VIDEOS
...........................................
282
7.9
ZUVERLAESSIGKEIT
DER
VERARBEITUNG
GESPROCHENER
SPRACHE
................................
285
7.9.1
DER
EFFEKT
VON
RAUSCHEN
UND
ANDEREN
VERZERRUNGEN
AUF
DIE
SPRACHERKENNUNG
...................................................................................
286
7.9.2
ADVERSARIALE
ATTACKEN
AUF
DIE
AUTOMATISCHE
SPRACHERKENNUNG.
...
286
7.10
ZUSAMMENFASSUNG
..............................................................................................287
LITERATUR
.........................................................................................................................
289
INHALTSVERZEICHNIS
XVII
8
LERNEN
VON
OPTIMALEN
STRATEGIEN
.............................................................................
293
8.1
EINIGE
GRUNDBEGRIFFE
.........................................................................................
295
8.2
TIEFES
Q-NETZ
......................................................................................................
298
8.2.1
STRATEGIE
ZUR
MAXIMIERUNG
DER
SUMME
DER
BELOHNUNGEN
...............298
8.2.2
EINE
KLEINE
NAVIGATIONSAUFGABE
...........................................................298
8.2.3
DISKONTIERTER
ZUKUENFTIGER
GEWINN
BELOHNT
SCHNELLE
LOESUNGEN
....
299
8.2.4
DIE
Q-FUNKTION
BEWERTET
ZUSTANDS-AKTIONSPAARE
..............................299
8.2.5
DIE
BELLMANGLEICHUNG
STELLT
EINE
BEZIEHUNG
ZWISCHEN
Q-WERTEN
HER
.........................................................................................
300
8.2.6
APPROXIMATION
DER
Q-FUNKTION
DURCH
EIN
TIEFES
NEURONALES
NETZ
...
301
8.2.7
Q-LERNEN:
TRAINING
EINES
TIEFEN
Q-NETZES
..........................................
301
8.3
ANWENDUNG
VON
Q-LERNEN
AUF
ATARI
VIDEOSPIELE
..........................................
305
8.3.1
DEFINITION
DES
SPIELZUSTANDS
BEI
ATARI-SPIELEN
..................................
305
8.3.2
ARCHITEKTUR
DES
ATARI-NETZES
................................................................306
8.3.3
TRAINING
.................................................................................................
306
8.3.4
AUSWERTUNG
DER
TIEFEN
NEURONALEN
NETZE
DER
ATARI-VIDEOSPIELE
...
307
8.4
STRATEGIEGRADIENTEN
ZUM
ERLERNEN
VON
STOCHASTISCHEN
STRATEGIEN
...............309
8.4.1
NOTWENDIGKEIT
VON
STRATEGIEN
MIT
ZUFALLSELEMENTEN
..........................309
8.4.2
DIREKTE
OPTIMIERUNG
EINER
STRATEGIE
DURCH
STRATEGIEGRADIENTEN
...
310
8.4.3
ERWEITERUNGEN
DES
STRATEGIEGRADIENTEN:
ACTOR-CRITIC
UND
PROXIMAL
POLICY
OPTIMIZATION
.............................................................
312
8.4.4
ANWENDUNG
AUF
ROBOTIK
UND
GO
.........................................................314
8.4.5
ANWENDUNG
IN
DOTA2
............................................................................316
8.5
SELBSTFAHRENDE
AUTOS
.........................................................................................
317
8.5.1
SENSOREN
SELBSTFAHRENDER
AUTOS
...........................................................
318
8.5.2
FUNKTIONALITAET
EINES
AGENTEN
FUERS
AUTONOME
FAHREN
..........................319
8.5.3
FEINTUNING
DURCH
SIMULATION
................................................................
322
8.6
ZUVERLAESSIGKEIT
DES
BESTAERKUNGSIEMENS
.........................................................
325
8.6.1
TRAINING
IN
SIMULATIONSUMGEBUNGEN
OFT
SCHWIERIG
UEBERTRAGBAR
...
325
8.6.2
ADVERSARIALE
ATTACKEN
AUF
MODELLE
ZUM
BESTAERKUNGSLERNEN
..........
326
8.7
ZUSAMMENFASSUNG
UND
TRENDS
..........................................................................
327
LITERATUR
.........................................................................................................................
328
9
KREATIVE
KUENSTLICHE
INTELLIGENZ
UND
EMOTIONEN
...................................................
331
9.1
BILDER
ERZEUGEN
MIT
GENERATIVEN
ADVERSARIALEN
NETZEN
(GAN)
......................
331
9.1.1
FAELSCHER
UND
KUNSTEXPERTE
....................................................................
331
9.1.2
GENERATOR
UND
DISKRIMINATOR
................................................................
332
9.1.3
OPTIMIERUNGSKRITERIUM
FUER
GENERATOR
UND
DISKRIMINATOR
...............332
9.1.4
DIE
ERGEBNISSE
GENERATIVER
ADVERSARIALER
NETZE
................................
333
9.1.5
INTERPOLATION
ZWISCHEN
BILDERN
...........................................................
337
9.1.6
TRANSFORMATION
VON
BILDERN
..................................................................
338
9.1.7
TRANSFORMATION
VON
BILDERN
OHNE
TRAININGSPAARE
..............................
339
XVIII
INHALTSVERZEICHNIS
9.1.8
CREATIVE
ADVERSARIAL
NETWORK
..............................................................
342
9.1.9
ERZEUGUNG
VON
BILDERN
AUS
TEXT
..........................................................
345
9.1.10
GAN-GENERIERTE
MODELLE
VON
PERSONEN
IN
DREI
DIMENSIONEN
.........
346
9.2
TEXTE
VERFASSEN
....................................................................................................347
9.2.1
AUTOMATISCHER
REPORTER:
DATEN
IN
ZEITUNGSMELDUNGEN
DARSTELLEN
..
347
9.2.2
GENERIERUNG
VON
LAENGEREN
GESCHICHTEN
...............................................347
9.2.3
GPT2
ERFINDET
KOMPLEXE
GESCHICHTEN
.................................................
348
9.3
MUSIK
AUTOMATISCH
KOMPONIEREN
......................................................................
355
9.3.1
MUSENET
KOMPONIERT
MISCHUNGEN
VON
KLASSIK
UND
POP
...................
356
9.3.2
DER
MUSIC
TRANSFORMER
ERFINDET
KLAVIERSTUECKE
..................................
358
9.4
EMOTIONEN
UND
PERSOENLICHKEIT
..........................................................................
359
9.4.1
EIN
XIAOLCE
DIALOG
...............................................................................359
9.4.2
DAS
ZIEL:
PERSONEN
ZUM
WEITERREDEN
ANIMIEREN
................................
361
9.4.3
ARCHITEKTUR
VON
XIAOLCE
......................................................................362
9.4.4
ANZAHL
DER
BENUTZERANTWORTEN
ALS
OPTIMIERUNGSKRITERIUM
.............
364
9.4.5
EMOTIONALE
EMPATHIE
UND
UNTERSTUETZUNG
...........................................366
9.5
ZUSAMMENFASSUNG
UND
TRENDS
..........................................................................
369
LITERATUR
.........................................................................................................................
372
10
KI
UND
IHRE
CHANCEN,
HERAUSFORDERUNGEN
UND
RISIKEN
......................................
375
10.1
CHANCEN
FUER
WIRTSCHAFT
UND
GESELLSCHAFT
.......................................................
378
10.1.1
SMART
HOME,
MEIN
HAUS
KUEMMERT
SICH
UM
MICH
............................
378
10.1.2
DIAGNOSE,
THERAPIE,
PFLEGE
UND
VERWALTUNG
IN
DER
MEDIZIN
........
380
10.1.3
MASCHINE
LEARNING
IN
DER
INDUSTRIELLEN
ANWENDUNG
.......................
386
10.1.4
WEITERE
EINSATZGEBIETE
DER
KI
............................................................389
10.2
WIRTSCHAFTLICHE
AUSWIRKUNGEN
UND
ZUSAMMENHAENGE
..................................394
10.2.1
DIE
MONETARISIERUNG
VON
DATEN
.........................................................
394
10.2.2
DIE
NEUE
DIGITALE
SERVICEWELT
-
KI
AS
A
SERVICE
................................
398
10.2.3
GROSSE
UNTERNEHMEN
ALS
TREIBER
DER
KI
.............................................
401
10.2.4
DIE
AUSWIRKUNGEN
AUF
DEN
ARBEITSMARKT
...........................................
404
10.3
GESELLSCHAFTLICHE
HERAUSFORDERUNGEN
...........................................................
410
10.3.1
HERAUSFORDERUNGEN
DER
KI
IN
DER
MEDIZIN
........................................
412
10.3.2
1984
2.0:
KI
ALS
INSTRUMENT
DER
UEBERWACHUNG
................................413
10.3.3
KRIEG
DER
MASCHINEN
..........................................................................
416
10.3.4
STARKE
KUENSTLICHE
INTELLIGENZ
..............................................................
418
10.4
METHODISCHE
HERAUSFORDERUNGEN
....................................................................
420
10.4.1
KOMBINATION
VON
DATEN
UND
UNSCHARFEM
SCHLIESSEN
.......................
421
10.4.2
SCHNELLES
UND
LANGSAMES
DENKEN
.....................................................
422
10.5
VERTRAUEN
SCHAFFEN
IN
DIE
KI
..........................................................................
426
10.5.1
WIE
BAUT
MAN
VERTRAUENSWUERDIGE
KL-SYSTEME?
................................
429
10.5.2
WIE
KANN
MAN
TIEFE
NEURONALE
NETZE
TESTEN?
....................................
430
INHALTSVERZEICHNIS
XIX
10.5.3
IST
EINE
SELBSTBESTIMMTE,
EFFEKTIVE
NUTZUNG
EINES
KL-SYSTEMS
MOEGLICH?
...............................................................................................
431
10.5.4
BEHANDELT
DAS
KL-SYSTEM
ALLE
BETROFFENEN
FAIR?
..............................
433
10.5.5
SIND
FUNKTIONSWEISE
UND
ENTSCHEIDUNGEN
DER
KI
NACHVOLLZIEHBAR?
................................................................................
434
10.5.6
IST
DAS
KL-SYSTEM
SICHER
GEGENUEBER
ANGRIFFEN,
UNFAELLEN
UND
FEHLERN?
...............................................................................................
435
10.5.7
FUNKTIONIERT
DIE
KL-KOMPONENTE
ZUVERLAESSIG
UND
IST
SIE
ROBUST?
.................................................................................................
436
10.5.8
SCHUETZT
DIE
KI
DIE
PRIVATSPHAERE
UND
SONSTIGE
SENSIBLE
INFORMATIONEN?
.....................................................................................
437
10.5.9
DIE
HERAUSFORDERUNGEN
FUER
EIN
KI-GUETESIEGEL
...................................
438
10.6
ZUSAMMENFASSUNG
...........................................................................................
439
LITERATUR
........................................................................................................................
441
A
ANHANG
..................................................................................................................................
445
A.L
GLOSSAR
................................................................................................................................
447
A.2
VERZEICHNIS
DER
ABBILDUNGEN
UND
DEREN
QUELLEN
..................................................
467
A.3
LITERATUR
ZUM
ANHANG
...................................................................................................
483
A.4
STICHWORTVERZEICHNIS
.....................................................................................................
489
|
adam_txt |
INHALTSVERZEICHNIS
1
WAS
IST
INTELLIGENT
AN
KUENSTLICHER
INTELLIGENZ?
.
1
1.1
MENSCHLICHE
INTELLIGENZ
HAT
VIELE
DIMENSIONEN
.
1
1.2
WORAN
ERKENNT
MAN
KUENSTLICHE
INTELLIGENZ
.
2
1.3
COMPUTER
LERNEN
.
3
1.4
TIEFE
NEURONALE
NETZE
KOENNEN
OBJEKTE
ERKENNEN
.
6
1.5
WIE
KANN
MAN
KUENSTLICHE
INTELLIGENZ
VERSTEHEN?
.
8
1.6
DIE
GESCHICHTE
DER
KUENSTLICHEN
INTELLIGENZ
.
10
1.7
ZUSAMMENFASSUNG
.
12
LITERATUR
.
13
2
WAS
KANN
KUENSTLICHE
INTELLIGENZ?
.
15
2.1
OBJEKTERKENNUNG
IN
BILDERN
.
15
2.1.1
MEDIZINISCHE
DIAGNOSE
.
17
2.1.2
VORHERSAGE
DER
3D-STRUKTUR
VON
PROTEINEN
.
18
2.2
SPRACHERKENNUNG
.
19
2.3
MASCHINELLE
UEBERSETZUNG
.
20
2.4
DIE
BEANTWORTUNG
NATUERLICHSPRACHIGER
FRAGEN
.
22
2.5
DIALOGE
UND
PERSOENLICHE
ASSISTENTEN
.
25
2.6
BRETTSPIELE
.
27
2.6.1
DAS
STRATEGIESPIEL
GO
.
28
2.6.2
KUENSTLICHE
INTELLIGENZ
GEWINNT
GEGEN
FUENF
POKER-PROFESSIONALS
.
29
2.7
VIDEOSPIELE
.
29
2.7.1
ATARI
2600
SPIELEKONSOLE
.
30
2.7.2
CAPTURE
THE
FLAG
.
30
2.7.3
DAS
ECHTZEIT-STRATEGIESPIEL
DOTA2
.
32
2.8
SELBSTFAHRENDE
AUTOS
.
33
2.8.1
WEITERENTWICKLUNG
DER
SELBSTFAHRENDEN
AUTOS
.
34
2.9
DER
COMPUTER
ALS
KREATIVES
MEDIUM
.
35
2.9.1
NEUE
BILDER
KOMPONIEREN
.
36
2.9.2
GESCHICHTEN
ERFINDEN
.
38
2.10
ALLGEMEINE
KUENSTLICHE
INTELLIGENZ
.
39
XII
INHALTSVERZEICHNIS
2.11
ZUSAMMENFASSUNG
.
40
LITERATUR
.
40
3
EINIGE
GRUNDBEGRIFFE
DES
MASCHINELLEN
LERNENS
.
45
3.1
DIE
WICHTIGSTEN
ARTEN
DES
MASCHINELLEN
LERNENS
.
45
3.1.1
UEBERWACHTES
LERNEN
.
45
3.1.2
UNUEBERWACHTES
LERNEN
.
46
3.1.3
BESTAERKUNGSLERNEN
.
47
3.2
PROGRAMMIEREN
UND
LERNEN
.
48
3.2.1
MODELLE
TRANSFORMIEREN
EINE
EINGABE
IN
EINE
AUSGABE
.
48
3.2.2
ALGORITHMEN
ARBEITEN
SCHRITTWEISE
EINE
LISTE
VON
ANWEISUNGEN
AB
.
50
3.2.3
EIN
LERNPROBLEM:
DIE
ERKENNUNG
VON
ZIFFERN
.
50
3.2.4
VEKTOREN,
MATRIZEN
UND
TENSOREN
.
51
3.3
LERNEN
EINES
ZUSAMMENHANGS
.
53
3.3.1
SCHEMA
FUER
DAS
LERNEN:
MODELL,
VERLUSTFUNKTION
UND
OPTIMIERUNG
.
53
3.3.2
DETAILLIERTER
ABLAUF
DES
LERNENS
.
53
3.4
EIN
SIMPLES
MODELL:
DIE
LOGISTISCHE
REGRESSION
.
56
3.4.1
BERECHNUNG
EINES
PUNKTWERTES
.
56
3.4.2
DIE
GLEICHZEITIGE
BERECHNUNG
ALLER
PUNKTWERTE
.
58
3.4.3
LINEARE
TRANSFORMATION
.
59
3.4.4
DIE
SOFTMAXFUNKTION
ERZEUGT
EINEN
WAHRSCHEINLICHKEITSVEKTOR
.
60
3.4.5
DAS
LOGISTISCHE
REGRESSIONSMODELL
.
61
3.5
DIE
GUETE
DES
MODELLS
.
62
3.5.1
MASSSTAB
FUER
DIE
MODELLGUETE:
DIE
WAHRSCHEINLICHKEIT
DER
KOMPLETTEN
TRAININGSDATEN
.
62
3.5.2
WIE
MISST
MAN
DEN
LERNERFOLG:
DIE
VERLUSTFUNKTION
.
63
3.5.3
VERDEUTLICHUNG
FUER
ZWEI
KLASSEN
UND
ZWEI
EINGABEMERKMALE
.
65
3.6
OPTIMIERUNG,
ODER
WIE
FINDET
MAN
DIE
BESTEN
PARAMETERWERTE
.
66
3.6.1
DER
GRADIENT
ZEIGT
IN
RICHTUNG
DES
STEILSTEN
ANSTIEGS
.
67
3.6.2
DER
GRADIENT
FUER
MEHRERE
DIMENSIONEN
.
67
3.6.3
DER
GRADIENT
DER
VERLUSTFUNKTION
.
69
3.6.4
SCHRITTWEISE
MINIMIERUNG
DURCH
GRADIENTENABSTIEG
.
71
3.6.5
DIE
LERNRATE
BESTIMMT
DIE
LAENGE
EINES
OPTIMIERUNGSCHRITTS
.
72
3.6.6
GRADIENTENABSTIEG
MIT
MINIBATCH
BENOETIGT
VIEL
WENIGER
RECHENAUFWAND
.
72
3.7
UEBERPRUEFUNG
DES
LERNERFOLGES
.
74
3.7.1
ANWENDUNG
DES
MODELLS
AUF
NEUE
DATEN
.
74
3.7.2
UEBERPRUEFUNG
DER
GENAUIGKEIT
AUF
DER
TESTMENGE
.
75
3.7.3
PRAEZISION
UND
RECALL
FUER
KLASSEN
UNTERSCHIEDLICHEN
UMFANGS
.
76
3.8
ZUSAMMENFASSUNG
.
77
LITERATUR
.
78
INHALTSVERZEICHNIS
XIII
4
TIEFES
LERNEN
KANN
KOMPLEXE
ZUSAMMENHAENGE
ERFASSEN
.
79
4.1
BEIM
XOR-PROBLEM
GIBT
ES
INTERAKTIONEN
ZWISCHEN
DEN
MERKMALEN
.
79
4.2
NICHTLINEARITAETEN
ERZEUGEN
GEBOGENE
TRENNFLAECHEN
.
82
4.3
TIEFE
NEURONALE
NETZE
SIND
STAPEL
VON
NICHTLINEAREN
SCHICHTEN
.
87
4.3.1
VEKTOREN
UND
TENSOREN
REPRAESENTIEREN
DIE
UMGEFORMTEN
INHALTE.
.
88
4.4
TRAINING
VON
TNN
MIT
BACKPROPAGATION-VERFAHREN
.
90
4.5
TOOLKITS
ERLEICHTERN
DIE
FORMULIERUNG
UND
DAS
TRAINING
VON
TNN
.
93
4.5.1
PARALLELE
BERECHNUNGEN
BESCHLEUNIGEN
DAS
TRAINING
VON
TNN.
.
93
4.5.2
TOOLKITS
ERLEICHTERN
DIE
ARBEIT
MIT
TNN
.
94
4.6
WIE
MACHE
ICH
DAS
NETZ
BESSER?
.
96
4.6.1
ITERATIVE
KONSTRUKTION
EINES
GUTEN
MODELLS
MIT
DER
VALIDATIONSMENGE
.
96
4.6.2
UNTERANPASSUNG
UND
UEBERANPASSUNG
FUEHREN
ZU
HOEHEREN
FEHLEM
.
97
4.6.3
EIN
BEISPIEL
FUER
UEBERANPASSUNG
.
98
4.6.4
REGULARISIERUNGSVERFAHREN
REDUZIEREN
DEN
GENERALISIERUNGSFEHLER
.
100
4.7
UNTERSCHIEDLICHE
ANWENDUNGEN
ERFORDERN
NETZE
UNTERSCHIEDLICHEN
AUFBAUS
.
103
4.7.1
MEHRSCHICHTIGES
FEEDFORWARD-NETZ
.
104
4.7.2
CONVOLUTIONAL
NEURAL
NETWORK
(CNN)
.
105
4.7.3
REKURRENTES
NEURONALES
NETZ
(RNN)
.
105
4.7.4
BESTAERKUNGSLEMEN-NETZ
.
105
4.7.5
GENERATIVES
ADVERSARIALES
NETZ
(GAN)
.
106
4.7.6
AUTOENCODER-NETZE
ERZEUGEN
EINE
KOMPRIMIERTE
DARSTELLUNG
.
106
4.7.7
ARCHITEKTUREN
FUER
BESTIMMTE
MEDIEN
UND
ANWENDUNGSBEREICHE.
.
106
4.8
DIE
KONSTRUKTION
EINES
TIEFEN
NEURONALEN
NETZES
IST
EIN
SUCHPROZESS
.
108
4.8.1
AUSWAHL
DER
ANZAHL
DER
PARAMETER
UND
DER
HYPERPARAMETER
.
108
4.8.2
DER
STANDARD-PROZESS
DER
MODELLSUCHE
FUEHRT
ZU
BESSEREN
MODELLEN
.
109
4.8.3
AUTOMATISCHE
SUCHE
VON
MODELLARCHITEKTUREN
UND
HYPERPARAMETERN
.
111
4.9
BIOLOGISCHE
NEURONALE
NETZE
FUNKTIONIEREN
ANDERS
.
114
4.10
ZUSAMMENFASSUNG
UND
TRENDS
.
116
LITERATUR
.
117
5
BILDERKENNUNG
MIT
TIEFEN
NEURONALEN
NETZEN
.
119
5.1
WAS
BEDEUTET
EIGENTLICH
BILDERKENNUNG?
.
119
5.1.1
ARTEN
DER
OBJEKTERKENNUNG
IN
BILDERN
.
119
5.1.2
INSPIRATIONEN
AUS
DER
BIOLOGIE
.
120
5.1.3
WARUM
IST
EINE
BILDERKENNUNG
SCHWIERIG?
.
123
5.2
DIE
BESTANDTEILE
EINES
CONVOLUTIONAL
NEURAL
NETWORKS
.
123
5.2.1
DER
KERNEL
EINER
CONVOLUTION-SCHICHT
ANALYSIERT
KLEINE
BILDBEREICHE
.
123
XIV
INHALTSVERZEICHNIS
5.2.2
CONVOLUTION-SCHICHT
MIT
VIELEN
KERNELN
REAGIERT
AUF
VIELE
MERKMALE
.
126
5.2.3
DIE
POOLING-SCHICHT
WAEHLT
DIE
WICHTIGSTEN
MERKMALE
AUS
.
127
5.3
EIN
EINFACHES
CONVOLUTIONAL
NEURAL
NETWORK
FUER
DIE
ZIFFERNERKENNUNG.
.
128
5.4
DER
IMAGENET
WETTBEWERB
BEFEUERT
DIE
METHODENENTWICKLUNG
.
130
5.5
FORTSCHRITTLICHE
CONVOLUTIONAL
NEURAL
NETWORKS
.
132
5.5.1
ALEXNET
NUTZT
ERFOLGREICH
GPUS
ZUM
TRAINING
.
132
5.5.2
RESNET
ERLEICHTERT
DIE
OPTIMIERUNG
DURCH
UMGEHUNGSPFADE
.
133
5.5.3
DENSENET
VERWENDET
ZUSAETZLICHE
UMGEHUNGSPFADE
.
136
5.5.4
RESNEXT
NUTZT
TRANSFORMIERTE
BILDER
ZUM
TRAINING
.
137
5.6
ANALYSE
DER
CNN
ERGEBNISSE
.
138
5.6.1
EINZELNE
KERNEL
REAGIEREN
AUF
MERKMALE
UNTERSCHIEDLICHER
ART
UND
GROESSE
.
138
5.6.2
AEHNLICHEN
BILDERN
ENTSPRECHEN
BENACHBARTE
VERDECKTE
VEKTOREN
.
139
5.7
TRANSFERLERNEN
REDUZIERT
DEN
BEDARF
AN
TRAININGSDATEN
.
140
5.8
LOKALISIERUNG
EINES
OBJEKTES
IM
BILD
.
143
5.8.1
OBJEKTLOKALISIERUNG
DURCH
RECHTECKE
.
143
5.8.2
BILDSEGMENTIERUNG
ZUR
PIXELGENAUE
BESTIMMUNG
VON
KLASSEN.
.
.
145
5.8.3
MAX-UNPOOLING
BELEGT
EIN
VERGROESSERTES
FELD
MIT
WERTEN
.
146
5.8.4
DAS
U-NET
ERKENNT
ZUNAECHST
OBJEKTE
UND
FINDET
DANN
DIE
ZUGEHOERIGEN
PIXEL
.
147
5.9
DIE
3D-REKONSTRUKTION
EINER
SZENE
.
149
5.10
GESICHTER
KOENNEN
MIT
SEHR
HOHER
GENAUIGKEIT
ZUGEORDNET
WERDEN
.
150
5.11
ABSCHAETZUNG
DER
GENAUIGKEIT
VON
MODELLPROGNOSEN
.
152
5.11.1
UNSICHERHEIT
DER
MODELLPROGNOSEN
.
153
5.11.2
DER
BOOTSTRAP
ERZEUGT
EINE
MENGE
PLAUSIBLER
MODELLE
.
155
5.11.3
BAYESSCHE
NEURONALE
NETZE
.
155
5.12
ZUVERLAESSIGKEIT
DER
BILDERKENNUNG
.
157
5.12.1
DER
EINFLUSS
VON
BILDVERZERRUNGEN
.
157
5.12.2
GEZIELTE
KONSTRUKTION
VON
FALSCHKLASSIFIZIERTEN
BILDERN
.
160
5.13
ZUSAMMENFASSUNG
UND
TRENDS
.
163
LITERATUR
.
164
6
ERFASSUNG
DER
BEDEUTUNG
VON
GESCHRIEBENEM
TEXT
.
167
6.1
WIE
KANN
MAN
DIE
BEDEUTUNG
VON
WOERTERN
DURCH
VEKTOREN
DARSTELLEN?
.
170
6.1.1
DAS
KONZEPT
DER
EMBEDDINGVEKTOREN
.
172
6.1.2
BERECHNUNG
VON
EMBEDDINGVEKTOREN
MIT
WORD2VEC
.
173
6.1.3
DIE
APPROXIMATION
DER
SOFTMAXFUNKTION
REDUZIERT
DEN
RECHENAUFWAND
.
175
6.2
EIGENSCHAFTEN
DER
EMBEDDING-VEKTOREN
.
176
6.2.1
NAECHSTE
NACHBARN
VON
EMBEDDINGS
HABEN
AEHNLICHE
BEDEUTUNGEN
.
176
INHALTSVERZEICHNIS
XV
6.2.2
DIFFERENZEN
ZWISCHEN
EMBEDDINGS
LASSEN
SICH
ALS
RELATIONEN
INTERPRETIEREN
.
178
6.2.3
FASTTEXT
NUTZT
N-GRAMME
VON
BUCHSTABEN
.
180
6.2.4
STARSPACE
ERZEUGEN
EMBEDDINGS
FUER
ANDERE
OBJEKTE
.
182
6.3
REKURRENTE
NEURONALE
NETZE
ZUR
ERFASSUNG
VON
SEQUENZEN
.
183
6.3.1
REKURRENTE
NEURONALE
NETZE
ALS
SPRACHMODELLE
.
184
6.3.2
TRAINING
DER
REKURRENTEN
NEURONALEN
NETZE
.
186
6.3.3
DIE
EIGENSCHAFTEN
DER
GRADIENTEN
BEIM
RNN
.
187
6.4
DAS
LONG-SHORT
TERM
MEMORY
(LSTM)
IST
EIN
LANGZEITSPEICHER
.
189
6.4.1
GATTER
STEUERN
DIE
SPEICHERVORGAENGE
.
189
6.4.2
LSTMS
MIT
MEHREREN
SCHICHTEN
.
192
6.4.3
ANWENDUNGEN
DES
LSTM
.
193
6.4.4
BIDIREKTIONALE
LSTM-NETZE
ZUR
PROGNOSE
VON
WORTEIGENSCHAFTEN
.
195
6.4.5
VISUALISIERUNG
VON
REKURRENTEN
NEURONALEN
NETZEN
.
197
6.5
UEBERSETZUNG:
TRANSFORMATION
EINER
SEQUENZ
IN
EINE
ANDERE
SEQUENZ
.
198
6.5.1
SEQUENCE-TO-SEQUENCE
NETZE
ZUR
UEBERSETZUNG
.
199
6.5.2
ATTENTION:
VERBESSERUNG
DER
UEBERSETZUNG
DURCH
RUECKGRIFF
AUF
DIE
EINGABEWORTE
.
203
6.5.3
UEBERSETZUNGSERGEBNISSE
MIT
ATTENTION
.
205
6.6
TRANSFORMER-UEBERSETZUNGSMODELLE
.
208
6.6.1
SELBSTATTENTION
ANALYSIERT
DIE
ABHAENGIGKEITEN
DER
WORTE
EINES
SATZES
.209
6.6.2
KREUZATTENTION
ANALYSIERT
DIE
ABHAENGIGKEITEN
ZWISCHEN
EIN
UND
AUSGABE
.
210
6.6.3
TRANSFORMER-ARCHITEKTUR
NUTZT
SELBST
UND
KREUZATTENTION
.
212
6.6.4
TRAINING
DES
TRANSFORMERS
FUER
DIE
SPRACHUEBERSETZUNG
.
214
6.6.5
BYTE-PAIR
KODIERUNG
ZUR
REDUKTION
DES
VOKABULARS
UND
ZUR
REPRAESENTATION
UNBEKANNTER
WOERTER
.
216
6.6.6
ERGEBNISSE
FUER
DAS
TRANSFORMER-MODELL
.
216
6.6.7
SIMULTANE
UEBERSETZUNG
ERFORDERT
WARTEZEITEN
.
219
6.7
BERT:
SPRACHMODELLE
FUER
DIE
REPRAESENTATION
VON
BEDEUTUNGEN
.
221
6.7.1
BERT-ARCHITEKTUR
.
221
6.7.2
BERT-PROGNOSEAUFGABEN
ZUM
UNUEBERWACHTEN
VORTRAINING
.
222
6.8
TRANSFERLERNEN
MIT
UMFANGREICHEN
BERT-MODELLEN
DER
SPRACHE
.
224
6.8.1
SEMANTISCHE
KLASSIFIKATIONSAUFGABEN
.
224
6.8.2
DIE
BEANTWORTUNG
VON
FRAGEN
.
226
6.8.3
EXTRAKTION
VON
WELTWISSEN
.
228
6.8.4
TRANSFERLERNEN
FUER
UEBERSETZUNGSMODELLE
.
231
6.8.5
ANWENDUNG
VON
BERT
IN
DER
WEB-SUCHE
.
233
6.9
DIE
BESCHREIBUNG
VON
BILDERN
DURCH
TEXT
.
234
6.10
DIE
ERKLAERUNG
DER
PROGNOSEN
VON
TNN
.237
6.10.1
ERKLAERUNGEN
SIND
NOTWENDIG
.237
XVI
INHALTSVERZEICHNIS
6.10.2
GLOBALE
ERKLAERUNGSMODELLE
.238
6.10.3
LOKALE
ERKLAERUNGSMODELLE
.
239
6.11
ZUVERLAESSIGKEIT
DER
TEXTERKENNUNG
.
241
6.11.1
ROBUSTHEIT
BEI
TEXTFEHLEM
UND
AENDERUNG
DER
DOMAENE
.
241
6.11.2
ANFAELLIGKEIT
FUER
BOESWILLIGE
AENDERUNG
VON
EINGABEN
.
242
6.12
ZUSAMMENFASSUNG
UND
TRENDS
.
243
LITERATUR
.245
7
GESPROCHENE
SPRACHE
VERSTEHEN
.
249
7.1
SPRACHERKENNUNG
.249
7.1.1
WARUM
IST
SPRACHERKENNUNG
SCHWIERIG?
.249
7.1.2
WIE
KANN
MAN
SPRACHSIGNALE
IM
COMPUTER
DARSTELLEN?
.
250
7.1.3
MESSUNG
DER
GENAUIGKEIT
DER
SPRACHERKENNUNG
.
253
7.1.4
DIE
GESCHICHTE
DER
SPRACHERKENNUNG
.
254
7.2
TIEFE
SEQUENCE-TO-SEQUENCE-MODELLE
.
255
7.2.1
LISTEN-ATTEND-SPELL
ERZEUGT
EINE
FOLGE
VON
BUCHSTABEN
.
256
7.2.2
SEQUENCE-TO-SEQUENCE
MODELL
FUER
WORTE
UND
SILBEN
.259
7.3
CONVOLUTIONAL
NEURAL
NETWORK
ZUR
SPRACHERKENNUNG
.259
7.3.1
CNN
MODELLE
.
260
7.3.2
KOMBINIERTE
MODELLE
.
263
7.4
LIPPENLESEN
.
264
7.5
ERZEUGUNG
VON
GESPROCHENER
SPRACHE
AUS
TEXT
.
265
7.5.1
WAVENET
MIT
GEDEHNTEN
CONVOLUTION-SCHICHTEN
FUER
LANGE
ABHAENGIGKEITEN
.
266
7.5.2
DAS
TACOTRON
ERZEUGT
EIN
SPEKTROGRAMM
.
268
7.6
DIALOGE
UND
SPRACHASSISTENTEN
.
270
7.7
GUNROCK:
EIN
ERWEITERTER
ALEXA-SPRACHASSISTENT
.
272
7.7.1
SPRACHVERSTEHEN
.
273
7.7.2
DIALOGMANAGEMENT
.274
7.7.3
ANTWORTERZEUGUNG
.
275
7.7.4
ERPROBUNG
DES
SPRACHASSISTENTEN
.
275
7.8
ANALYSE
DER
INHALTE
VON
VIDEOS
.
276
7.8.1
AUFGABEN
DER
VIDEOINHALTSANALYSE
.
277
7.8.2
TRAININGSDATEN
ZUR
KLASSIFIKATION
VON
VIDEOS
NACH
AKTIVITAETEN
.
277
7.8.3
CONVOLUTION-SCHICHTEN
ZUR
ERKENNUNG
VON
VIDEOINHALTEN
.
278
7.8.4
GENAUIGKEIT
DER
VIDEOKLASSIFIKATION
.
281
7.8.5
DIE
ERZEUGUNG
VON
UNTERTITELN
FUER
VIDEOS
.
282
7.9
ZUVERLAESSIGKEIT
DER
VERARBEITUNG
GESPROCHENER
SPRACHE
.
285
7.9.1
DER
EFFEKT
VON
RAUSCHEN
UND
ANDEREN
VERZERRUNGEN
AUF
DIE
SPRACHERKENNUNG
.
286
7.9.2
ADVERSARIALE
ATTACKEN
AUF
DIE
AUTOMATISCHE
SPRACHERKENNUNG.
.
286
7.10
ZUSAMMENFASSUNG
.287
LITERATUR
.
289
INHALTSVERZEICHNIS
XVII
8
LERNEN
VON
OPTIMALEN
STRATEGIEN
.
293
8.1
EINIGE
GRUNDBEGRIFFE
.
295
8.2
TIEFES
Q-NETZ
.
298
8.2.1
STRATEGIE
ZUR
MAXIMIERUNG
DER
SUMME
DER
BELOHNUNGEN
.298
8.2.2
EINE
KLEINE
NAVIGATIONSAUFGABE
.298
8.2.3
DISKONTIERTER
ZUKUENFTIGER
GEWINN
BELOHNT
SCHNELLE
LOESUNGEN
.
299
8.2.4
DIE
Q-FUNKTION
BEWERTET
ZUSTANDS-AKTIONSPAARE
.299
8.2.5
DIE
BELLMANGLEICHUNG
STELLT
EINE
BEZIEHUNG
ZWISCHEN
Q-WERTEN
HER
.
300
8.2.6
APPROXIMATION
DER
Q-FUNKTION
DURCH
EIN
TIEFES
NEURONALES
NETZ
.
301
8.2.7
Q-LERNEN:
TRAINING
EINES
TIEFEN
Q-NETZES
.
301
8.3
ANWENDUNG
VON
Q-LERNEN
AUF
ATARI
VIDEOSPIELE
.
305
8.3.1
DEFINITION
DES
SPIELZUSTANDS
BEI
ATARI-SPIELEN
.
305
8.3.2
ARCHITEKTUR
DES
ATARI-NETZES
.306
8.3.3
TRAINING
.
306
8.3.4
AUSWERTUNG
DER
TIEFEN
NEURONALEN
NETZE
DER
ATARI-VIDEOSPIELE
.
307
8.4
STRATEGIEGRADIENTEN
ZUM
ERLERNEN
VON
STOCHASTISCHEN
STRATEGIEN
.309
8.4.1
NOTWENDIGKEIT
VON
STRATEGIEN
MIT
ZUFALLSELEMENTEN
.309
8.4.2
DIREKTE
OPTIMIERUNG
EINER
STRATEGIE
DURCH
STRATEGIEGRADIENTEN
.
310
8.4.3
ERWEITERUNGEN
DES
STRATEGIEGRADIENTEN:
ACTOR-CRITIC
UND
PROXIMAL
POLICY
OPTIMIZATION
.
312
8.4.4
ANWENDUNG
AUF
ROBOTIK
UND
GO
.314
8.4.5
ANWENDUNG
IN
DOTA2
.316
8.5
SELBSTFAHRENDE
AUTOS
.
317
8.5.1
SENSOREN
SELBSTFAHRENDER
AUTOS
.
318
8.5.2
FUNKTIONALITAET
EINES
AGENTEN
FUERS
AUTONOME
FAHREN
.319
8.5.3
FEINTUNING
DURCH
SIMULATION
.
322
8.6
ZUVERLAESSIGKEIT
DES
BESTAERKUNGSIEMENS
.
325
8.6.1
TRAINING
IN
SIMULATIONSUMGEBUNGEN
OFT
SCHWIERIG
UEBERTRAGBAR
.
325
8.6.2
ADVERSARIALE
ATTACKEN
AUF
MODELLE
ZUM
BESTAERKUNGSLERNEN
.
326
8.7
ZUSAMMENFASSUNG
UND
TRENDS
.
327
LITERATUR
.
328
9
KREATIVE
KUENSTLICHE
INTELLIGENZ
UND
EMOTIONEN
.
331
9.1
BILDER
ERZEUGEN
MIT
GENERATIVEN
ADVERSARIALEN
NETZEN
(GAN)
.
331
9.1.1
FAELSCHER
UND
KUNSTEXPERTE
.
331
9.1.2
GENERATOR
UND
DISKRIMINATOR
.
332
9.1.3
OPTIMIERUNGSKRITERIUM
FUER
GENERATOR
UND
DISKRIMINATOR
.332
9.1.4
DIE
ERGEBNISSE
GENERATIVER
ADVERSARIALER
NETZE
.
333
9.1.5
INTERPOLATION
ZWISCHEN
BILDERN
.
337
9.1.6
TRANSFORMATION
VON
BILDERN
.
338
9.1.7
TRANSFORMATION
VON
BILDERN
OHNE
TRAININGSPAARE
.
339
XVIII
INHALTSVERZEICHNIS
9.1.8
CREATIVE
ADVERSARIAL
NETWORK
.
342
9.1.9
ERZEUGUNG
VON
BILDERN
AUS
TEXT
.
345
9.1.10
GAN-GENERIERTE
MODELLE
VON
PERSONEN
IN
DREI
DIMENSIONEN
.
346
9.2
TEXTE
VERFASSEN
.347
9.2.1
AUTOMATISCHER
REPORTER:
DATEN
IN
ZEITUNGSMELDUNGEN
DARSTELLEN
.
347
9.2.2
GENERIERUNG
VON
LAENGEREN
GESCHICHTEN
.347
9.2.3
GPT2
ERFINDET
KOMPLEXE
GESCHICHTEN
.
348
9.3
MUSIK
AUTOMATISCH
KOMPONIEREN
.
355
9.3.1
MUSENET
KOMPONIERT
MISCHUNGEN
VON
KLASSIK
UND
POP
.
356
9.3.2
DER
MUSIC
TRANSFORMER
ERFINDET
KLAVIERSTUECKE
.
358
9.4
EMOTIONEN
UND
PERSOENLICHKEIT
.
359
9.4.1
EIN
XIAOLCE
DIALOG
.359
9.4.2
DAS
ZIEL:
PERSONEN
ZUM
WEITERREDEN
ANIMIEREN
.
361
9.4.3
ARCHITEKTUR
VON
XIAOLCE
.362
9.4.4
ANZAHL
DER
BENUTZERANTWORTEN
ALS
OPTIMIERUNGSKRITERIUM
.
364
9.4.5
EMOTIONALE
EMPATHIE
UND
UNTERSTUETZUNG
.366
9.5
ZUSAMMENFASSUNG
UND
TRENDS
.
369
LITERATUR
.
372
10
KI
UND
IHRE
CHANCEN,
HERAUSFORDERUNGEN
UND
RISIKEN
.
375
10.1
CHANCEN
FUER
WIRTSCHAFT
UND
GESELLSCHAFT
.
378
10.1.1
SMART
HOME,
MEIN
HAUS
KUEMMERT
SICH
UM
MICH
.
378
10.1.2
DIAGNOSE,
THERAPIE,
PFLEGE
UND
VERWALTUNG
IN
DER
MEDIZIN
.
380
10.1.3
MASCHINE
LEARNING
IN
DER
INDUSTRIELLEN
ANWENDUNG
.
386
10.1.4
WEITERE
EINSATZGEBIETE
DER
KI
.389
10.2
WIRTSCHAFTLICHE
AUSWIRKUNGEN
UND
ZUSAMMENHAENGE
.394
10.2.1
DIE
MONETARISIERUNG
VON
DATEN
.
394
10.2.2
DIE
NEUE
DIGITALE
SERVICEWELT
-
KI
AS
A
SERVICE
.
398
10.2.3
GROSSE
UNTERNEHMEN
ALS
TREIBER
DER
KI
.
401
10.2.4
DIE
AUSWIRKUNGEN
AUF
DEN
ARBEITSMARKT
.
404
10.3
GESELLSCHAFTLICHE
HERAUSFORDERUNGEN
.
410
10.3.1
HERAUSFORDERUNGEN
DER
KI
IN
DER
MEDIZIN
.
412
10.3.2
1984
2.0:
KI
ALS
INSTRUMENT
DER
UEBERWACHUNG
.413
10.3.3
KRIEG
DER
MASCHINEN
.
416
10.3.4
STARKE
KUENSTLICHE
INTELLIGENZ
.
418
10.4
METHODISCHE
HERAUSFORDERUNGEN
.
420
10.4.1
KOMBINATION
VON
DATEN
UND
UNSCHARFEM
SCHLIESSEN
.
421
10.4.2
SCHNELLES
UND
LANGSAMES
DENKEN
.
422
10.5
VERTRAUEN
SCHAFFEN
IN
DIE
KI
.
426
10.5.1
WIE
BAUT
MAN
VERTRAUENSWUERDIGE
KL-SYSTEME?
.
429
10.5.2
WIE
KANN
MAN
TIEFE
NEURONALE
NETZE
TESTEN?
.
430
INHALTSVERZEICHNIS
XIX
10.5.3
IST
EINE
SELBSTBESTIMMTE,
EFFEKTIVE
NUTZUNG
EINES
KL-SYSTEMS
MOEGLICH?
.
431
10.5.4
BEHANDELT
DAS
KL-SYSTEM
ALLE
BETROFFENEN
FAIR?
.
433
10.5.5
SIND
FUNKTIONSWEISE
UND
ENTSCHEIDUNGEN
DER
KI
NACHVOLLZIEHBAR?
.
434
10.5.6
IST
DAS
KL-SYSTEM
SICHER
GEGENUEBER
ANGRIFFEN,
UNFAELLEN
UND
FEHLERN?
.
435
10.5.7
FUNKTIONIERT
DIE
KL-KOMPONENTE
ZUVERLAESSIG
UND
IST
SIE
ROBUST?
.
436
10.5.8
SCHUETZT
DIE
KI
DIE
PRIVATSPHAERE
UND
SONSTIGE
SENSIBLE
INFORMATIONEN?
.
437
10.5.9
DIE
HERAUSFORDERUNGEN
FUER
EIN
KI-GUETESIEGEL
.
438
10.6
ZUSAMMENFASSUNG
.
439
LITERATUR
.
441
A
ANHANG
.
445
A.L
GLOSSAR
.
447
A.2
VERZEICHNIS
DER
ABBILDUNGEN
UND
DEREN
QUELLEN
.
467
A.3
LITERATUR
ZUM
ANHANG
.
483
A.4
STICHWORTVERZEICHNIS
.
489 |
any_adam_object | 1 |
any_adam_object_boolean | 1 |
author | Paass, Gerhard 1949- Hecker, Dirk 1976- |
author_GND | (DE-588)170208907 (DE-588)1236533577 |
author_facet | Paass, Gerhard 1949- Hecker, Dirk 1976- |
author_role | aut aut |
author_sort | Paass, Gerhard 1949- |
author_variant | g p gp d h dh |
building | Verbundindex |
bvnumber | BV047312452 |
classification_rvk | ST 300 |
ctrlnum | (OCoLC)1246281007 (DE-599)BVBBV047312452 |
dewey-full | 006.3 |
dewey-hundreds | 000 - Computer science, information, general works |
dewey-ones | 006 - Special computer methods |
dewey-raw | 006.3 |
dewey-search | 006.3 |
dewey-sort | 16.3 |
dewey-tens | 000 - Computer science, information, general works |
discipline | Informatik |
discipline_str_mv | Informatik |
format | Book |
fullrecord | <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>01907nam a2200433zc 4500</leader><controlfield tag="001">BV047312452</controlfield><controlfield tag="003">DE-604</controlfield><controlfield tag="005">20211104 </controlfield><controlfield tag="007">t</controlfield><controlfield tag="008">210607s2020 a||| |||| 00||| ger d</controlfield><datafield tag="016" ind1="7" ind2=" "><subfield code="a">1211194841</subfield><subfield code="2">DE-101</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783658302108</subfield><subfield code="c">Broschur : EUR 34.99 (DE), EUR 35.97 (AT), circa CHF 39.00 (freier Preis)</subfield><subfield code="9">978-3-658-30210-8</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">3658302100</subfield><subfield code="9">3-658-30210-0</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1246281007</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-599)BVBBV047312452</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-604</subfield><subfield code="b">ger</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">ger</subfield></datafield><datafield tag="049" ind1=" " ind2=" "><subfield code="a">DE-1029</subfield><subfield code="a">DE-860</subfield><subfield code="a">DE-210</subfield><subfield code="a">DE-12</subfield><subfield code="a">DE-898</subfield></datafield><datafield tag="082" ind1="0" ind2=" "><subfield code="a">006.3</subfield><subfield code="2">23/ger</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">ST 300</subfield><subfield code="0">(DE-625)143650:</subfield><subfield code="2">rvk</subfield></datafield><datafield tag="084" ind1=" " ind2=" "><subfield code="a">004</subfield><subfield code="2">23sdnb</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Paass, Gerhard</subfield><subfield code="d">1949-</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)170208907</subfield><subfield code="4">aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Künstliche Intelligenz</subfield><subfield code="b">was steckt hinter der Technologie der Zukunft?</subfield><subfield code="c">Gerhard Paaß, Dirk Hecker</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Wiesbaden</subfield><subfield code="b">Springer Vieweg</subfield><subfield code="c">[2020]</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">© 2020</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">XXII, 496 Seiten</subfield><subfield code="b">Illustrationen, Diagramme</subfield><subfield code="c">24 cm</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="b">n</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="b">nc</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="650" ind1=" " ind2="4"><subfield code="a">Artificial Intelligence</subfield></datafield><datafield tag="650" ind1=" " ind2="4"><subfield code="a">Artificial intelligence</subfield></datafield><datafield tag="650" ind1="0" ind2="7"><subfield code="a">Künstliche Intelligenz</subfield><subfield code="0">(DE-588)4033447-8</subfield><subfield code="2">gnd</subfield><subfield code="9">rswk-swf</subfield></datafield><datafield tag="689" ind1="0" ind2="0"><subfield code="a">Künstliche Intelligenz</subfield><subfield code="0">(DE-588)4033447-8</subfield><subfield code="D">s</subfield></datafield><datafield tag="689" ind1="0" ind2=" "><subfield code="5">DE-604</subfield></datafield><datafield tag="700" ind1="1" ind2=" "><subfield code="a">Hecker, Dirk</subfield><subfield code="d">1976-</subfield><subfield code="e">Verfasser</subfield><subfield code="0">(DE-588)1236533577</subfield><subfield code="4">aut</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Erscheint auch als</subfield><subfield code="n">Online-Ausgabe</subfield><subfield code="z">978-3-658-30211-5</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="q">application/pdf</subfield><subfield code="u">http://deposit.dnb.de/cgi-bin/dokserv?id=7691840d87624345bee61e97ae456378&prov=M&dok_var=1&dok_ext=htm</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="m">DNB Datenaustausch</subfield><subfield code="q">application/pdf</subfield><subfield code="u">http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032715358&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA</subfield><subfield code="3">Inhaltsverzeichnis</subfield></datafield><datafield tag="999" ind1=" " ind2=" "><subfield code="a">oai:aleph.bib-bvb.de:BVB01-032715358</subfield></datafield></record></collection> |
id | DE-604.BV047312452 |
illustrated | Illustrated |
index_date | 2024-07-03T17:26:24Z |
indexdate | 2024-07-10T09:08:35Z |
institution | BVB |
isbn | 9783658302108 3658302100 |
language | German |
oai_aleph_id | oai:aleph.bib-bvb.de:BVB01-032715358 |
oclc_num | 1246281007 |
open_access_boolean | |
owner | DE-1029 DE-860 DE-210 DE-12 DE-898 DE-BY-UBR |
owner_facet | DE-1029 DE-860 DE-210 DE-12 DE-898 DE-BY-UBR |
physical | XXII, 496 Seiten Illustrationen, Diagramme 24 cm |
publishDate | 2020 |
publishDateSearch | 2020 |
publishDateSort | 2020 |
publisher | Springer Vieweg |
record_format | marc |
spelling | Paass, Gerhard 1949- Verfasser (DE-588)170208907 aut Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? Gerhard Paaß, Dirk Hecker Wiesbaden Springer Vieweg [2020] © 2020 XXII, 496 Seiten Illustrationen, Diagramme 24 cm txt rdacontent n rdamedia nc rdacarrier Artificial Intelligence Artificial intelligence Künstliche Intelligenz (DE-588)4033447-8 gnd rswk-swf Künstliche Intelligenz (DE-588)4033447-8 s DE-604 Hecker, Dirk 1976- Verfasser (DE-588)1236533577 aut Erscheint auch als Online-Ausgabe 978-3-658-30211-5 application/pdf http://deposit.dnb.de/cgi-bin/dokserv?id=7691840d87624345bee61e97ae456378&prov=M&dok_var=1&dok_ext=htm Inhaltsverzeichnis DNB Datenaustausch application/pdf http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032715358&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA Inhaltsverzeichnis |
spellingShingle | Paass, Gerhard 1949- Hecker, Dirk 1976- Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? Artificial Intelligence Artificial intelligence Künstliche Intelligenz (DE-588)4033447-8 gnd |
subject_GND | (DE-588)4033447-8 |
title | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? |
title_auth | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? |
title_exact_search | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? |
title_exact_search_txtP | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? |
title_full | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? Gerhard Paaß, Dirk Hecker |
title_fullStr | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? Gerhard Paaß, Dirk Hecker |
title_full_unstemmed | Künstliche Intelligenz was steckt hinter der Technologie der Zukunft? Gerhard Paaß, Dirk Hecker |
title_short | Künstliche Intelligenz |
title_sort | kunstliche intelligenz was steckt hinter der technologie der zukunft |
title_sub | was steckt hinter der Technologie der Zukunft? |
topic | Artificial Intelligence Artificial intelligence Künstliche Intelligenz (DE-588)4033447-8 gnd |
topic_facet | Artificial Intelligence Artificial intelligence Künstliche Intelligenz |
url | http://deposit.dnb.de/cgi-bin/dokserv?id=7691840d87624345bee61e97ae456378&prov=M&dok_var=1&dok_ext=htm http://bvbr.bib-bvb.de:8991/F?func=service&doc_library=BVB01&local_base=BVB01&doc_number=032715358&sequence=000001&line_number=0001&func_code=DB_RECORDS&service_type=MEDIA |
work_keys_str_mv | AT paassgerhard kunstlicheintelligenzwassteckthinterdertechnologiederzukunft AT heckerdirk kunstlicheintelligenzwassteckthinterdertechnologiederzukunft |
Es ist kein Print-Exemplar vorhanden.
Inhaltsverzeichnis